Gibt es eine technische Frage, die ich immer gerne einem CERN-Experten stellen würde? Ich habe gelesen, http://nordberg.web.cern.ch/PAPERS/JINST08.pdf , Seite 5,
dass die Datenabtastrate, die Anzahl der Standbilder, die von den Kollisionen auf dem Detektoratlas und dem CMS des LHC aufgenommen wurden, etwa 40 kHz beträgt und diese Zahl wahrscheinlich Ende dieses Jahres auf 100 kHz erhöht wird, wenn der LHC mit den Strahlen mit höherer Leuchtkraft neu gestartet wird ( dh mehr Kollisionen pro Sekunde, aktuell bei 1GHz). Von diesen 40K/s (immer noch ein Ereignis, alle 25μs abgetastet) bis 100K/s (immer noch ein Ereignis alle 10μs, später in diesem Jahr aktualisiert) werden von den Kollisionen über das L1-Triggersystem nur 200/s Ereignisse ausgewählt und erfasst als statistisch wichtig erfasst. Alle anderen abgetasteten Ereignisse werden ignoriert und gelöscht. Also im besten Fall (noch) alle 10μs ein gesampeltes Event! (auch aufgezeichnete Ereignisse 200 Hz, also etwa ein Ereignis, das im Durchschnitt alle 5 ms als möglich signifikant aufgezeichnet wird).
Glauben Sie nicht, dass diese Rate zu LANGSAM ist und dass ein sehr schnelles Zerfallsereignis übersehen werden könnte und daher ein potenziell statistisch signifikantes Ergebnis nie für weitere Analysen aufgezeichnet wird, insbesondere jetzt, wo wir nach neuer sehr hochenergetischer Physik in Dimensionen suchen die Größenordnung von 10E-17 cm?
Ich meine, ich finde diese verwendete Abtastrate zu langsam und ein Engpass und eine geringe Wahrscheinlichkeit, um diese neuen hypothetischen hochenergetischen Teilchen zu fangen?
Natürlich könnte dies statistisch fixiert werden, indem viele Jahre lang Daten aufgezeichnet wurden, wie die letzte mögliche Entdeckung des LHCb im Zusammenhang mit der potenziellen Entdeckung von Leptoquarks 3.1σ. Sie haben diese Daten in den letzten 10 Jahren gesammelt!! nur bei 3.1σ zu erreichen:
https://physicsworld.com/a/hat-ein-neues-teilchen-namens-ein-leptoquark-been-spotted-at-cern/
Aber was wäre, wenn die Dauer eines Zerfallsereignisses viel weniger als 10 μs beträgt, ein Bruchteil der Abtastperiode würde das nicht bedeuten, dass immer mehr bedeutende Kollisionsereignisse mehr und mehr vollständig übersehen würden und mehr und mehr Jahre der Aufzeichnung von Ereignissen werden erforderlich sein, wenn wir immer höhere Energien untersuchen, um zu einem statistisch signifikanten Ergebnis zu kommen? Vielleicht im schlimmsten Fall eine Exponentialfunktion?
Wie hoch ist die Laufzeitauflösung der Detektorsensoren? Ich erwarte, dass dies ein millionster Bruchteil einer Pikosekunde ist? Rechts?
Ich glaube, die CERN-Mitglieder sind sich dieses Engpasses bei den Detektoren bewusst und machen die Budgetbeschränkungen des CERN dafür verantwortlich.
Es scheint einige Verwirrung darüber zu geben, wie Collider-Experimente funktionieren, insbesondere bei der Frage: "Glauben Sie nicht, dass diese Rate zu LANGSAM ist und dass ein sehr schnelles Zerfallsereignis übersehen werden könnte? "
Es besteht kein Zusammenhang zwischen der Ereignisrate und der Abklingrate eines Ereignisses.
Ich kenne DESY, nicht CERN, daher habe ich keine Zahlen (außer 27 km und 7 TeV) zur Verfügung, aber es geht so: Die Protonen (gegen)zirkulieren in Bündeln, und die Bündel kollidieren zu bekannten Zeiten. Bei Kollisionen sucht der Detektor nach Ereignissen.
Wenn ein Ereignis eintritt, egal ob interessant, exotisch, schnell oder langsam, durchläuft alles die Detektoren ultrarelativistisch, effektiv an , also ist die Dauer des Ereignisses die Größe des Detektors dividiert durch . (Siehe Anmerkung 1 am Ende).
Das Problem beginnt mit den Strahlen: Sie sind Protonen. Ein 7-TeV-Proton im Laborrahmen ist im Grunde ein zweidimensionales Objekt ohne Zeitentwicklung. Es ist ein flacher, gefrorener Pfannkuchen mit 3 Valenzquarks und so ziemlich einer ungebundenen Anzahl von QCD-Vakuumfluktuationen mit niedriger Energie, die als Seequarks und Gluonen bezeichnet werden. Diese tragen alle einen Bruchteil des Impulses von 7 TeV, und Dinge mit niedrigerer Energie haben hohe Wirkungsquerschnitte (aufgrund der Einheitlichkeit).
Das bedeutet, dass die meisten Ereignisse Müllkollisionen sind, die nicht genug Energie haben, um über das Standardmodell hinauszugehen. Sie aufzuzeichnen würde jede Physik unmöglich machen, da alle Detektorsysteme nach dem Auslösen eine Totzeit haben (ich weiß nicht, wie die Zahlen beim LHC sind, aber selbst ein paar Nanosekunden bedeuten, dass die Detektoren und die Auslesesysteme schreiben würden mit Müll gelähmt sein).
Um dies zu vermeiden, gibt es verschiedene Ebenen von Hardware- und Software-Triggern. Hardware-Trigger betrachten nur AND, OR, NOT, XORs usw. von elektronischen Logikgattern, die direkt von Detektoren kommen (sie sind also schnell). Sie können mehrstufig und mehrkanalig (für verschiedene Prozesse) sein.
Wenn die Hardware auslöst, gehen die Daten zur weiteren Filterung an eine schnelle Software (oder vielleicht zuerst an die FPGA-Firmware). Schließlich weist ein interessantes Ereignis das System an, das Ereignis zu speichern.
Nach dem Lesen und Aufzeichnen eines Ereignisses benötigt das gesamte System Zeit, um sich zu erholen, sodass es eine Mindestzeit gibt, bis das nächste Ereignis aufgezeichnet werden kann, die aufgrund von Downstream-Engpässen kürzer sein kann als die durchschnittliche Zeit zwischen Ereignissen. Da viele Experimente absolute Wirkungsquerschnitte messen, ist die Korrektur der Totzeit und der Triggereffizienz äußerst komplex und erfordert eine ausgeklügelte Monte-Carlo-Analyse und verschiedene Systemmessungen auf dem Labortisch.
Anmerkung 1: Vielleicht fragen Sie also nach der Herstellung eines massiven Bosons im Ruhezustand im Labor. Es wird einfach dort sitzen, bis es zerfällt. Die Lebensdauer massiver Teilchen liegt in der Größenordnung der Zeit, die Licht braucht, um ein Proton zu durchqueren, also ist es irrelevant.
Darüber hinaus haben die Progenitor-Quarks (oder Gluonen), obwohl der COM der Protonen der Laborrahmen ist, keinen gleichen entgegengesetzten Impuls, da sie zufällig aus einem Blob von QCD-Vakuumfluktuationen und gelegentlichen Valenzquarks ausgewählt werden.
Das erschwert das Experiment erheblich, und das ist der Grund Collider sind so attraktiv. Bei ihnen sind die Vorläufer des Ereignisses genau bekannt, sie können nur dank Synchrotronstrahlung nicht in einem 27-km-Ring bei 7 TeV gespeichert werden.
Andreas
Andreas
youpilat13
Markoul11
youpilat13
Markoul11
Benutzer1504
Markoul11
Benutzer1504