Datenrate von Atlas und CMS, LHC-Detektoren zu langsam?

Gibt es eine technische Frage, die ich immer gerne einem CERN-Experten stellen würde? Ich habe gelesen, http://nordberg.web.cern.ch/PAPERS/JINST08.pdf , Seite 5,

dass die Datenabtastrate, die Anzahl der Standbilder, die von den Kollisionen auf dem Detektoratlas und dem CMS des LHC aufgenommen wurden, etwa 40 kHz beträgt und diese Zahl wahrscheinlich Ende dieses Jahres auf 100 kHz erhöht wird, wenn der LHC mit den Strahlen mit höherer Leuchtkraft neu gestartet wird ( dh mehr Kollisionen pro Sekunde, aktuell bei 1GHz). Von diesen 40K/s (immer noch ein Ereignis, alle 25μs abgetastet) bis 100K/s (immer noch ein Ereignis alle 10μs, später in diesem Jahr aktualisiert) werden von den Kollisionen über das L1-Triggersystem nur 200/s Ereignisse ausgewählt und erfasst als statistisch wichtig erfasst. Alle anderen abgetasteten Ereignisse werden ignoriert und gelöscht. Also im besten Fall (noch) alle 10μs ein gesampeltes Event! (auch aufgezeichnete Ereignisse 200 Hz, also etwa ein Ereignis, das im Durchschnitt alle 5 ms als möglich signifikant aufgezeichnet wird).

Glauben Sie nicht, dass diese Rate zu LANGSAM ist und dass ein sehr schnelles Zerfallsereignis übersehen werden könnte und daher ein potenziell statistisch signifikantes Ergebnis nie für weitere Analysen aufgezeichnet wird, insbesondere jetzt, wo wir nach neuer sehr hochenergetischer Physik in Dimensionen suchen die Größenordnung von 10E-17 cm?

Ich meine, ich finde diese verwendete Abtastrate zu langsam und ein Engpass und eine geringe Wahrscheinlichkeit, um diese neuen hypothetischen hochenergetischen Teilchen zu fangen?

Natürlich könnte dies statistisch fixiert werden, indem viele Jahre lang Daten aufgezeichnet wurden, wie die letzte mögliche Entdeckung des LHCb im Zusammenhang mit der potenziellen Entdeckung von Leptoquarks 3.1σ. Sie haben diese Daten in den letzten 10 Jahren gesammelt!! nur bei 3.1σ zu erreichen:

https://physicsworld.com/a/hat-ein-neues-teilchen-namens-ein-leptoquark-been-spotted-at-cern/

Aber was wäre, wenn die Dauer eines Zerfallsereignisses viel weniger als 10 μs beträgt, ein Bruchteil der Abtastperiode würde das nicht bedeuten, dass immer mehr bedeutende Kollisionsereignisse mehr und mehr vollständig übersehen würden und mehr und mehr Jahre der Aufzeichnung von Ereignissen werden erforderlich sein, wenn wir immer höhere Energien untersuchen, um zu einem statistisch signifikanten Ergebnis zu kommen? Vielleicht im schlimmsten Fall eine Exponentialfunktion?

Wie hoch ist die Laufzeitauflösung der Detektorsensoren? Ich erwarte, dass dies ein millionster Bruchteil einer Pikosekunde ist? Rechts?

Ich glaube, die CERN-Mitglieder sind sich dieses Engpasses bei den Detektoren bewusst und machen die Budgetbeschränkungen des CERN dafür verantwortlich.

Eine noch größere Einschränkung als die Datenabtastrate ist die Datenspeicherrate . Nur ein kleiner Teil der aufgezeichneten Ereignisse kann für eine detailliertere Analyse gespeichert werden. Man muss also Algorithmen programmieren, um schnell und automatisch zu entscheiden, welche Ereignisse für die Analyse aufbewahrt werden sollen. Es ist absolut möglich, Signaturen der neuen Physik dieses Prozesses zu übersehen, und daher wird viel Arbeit in die Entwicklung dieser Algorithmen gesteckt, um die Wahrscheinlichkeit dafür zu minimieren. Hier ist eine Rezension: annualreviews.org/doi/full/10.1146/annurev-nucl-102115-044713
Ich bin jedoch kein CERN-Experte und dies ist keine endgültige Antwort, sondern nur als Kontext gedacht.
Eine Bemerkung, die Ihnen helfen könnte, ruhig zu schlafen, wir zeichnen Ereignisse nicht wahllos mit einer langsameren Rate auf. Um die Wahrscheinlichkeit zu erhöhen, dass wir interessante Ereignisse erfassen, gibt es Triggersysteme. Unterschiedliche Trigger sind für unterschiedliche Suchen/Analysen konzipiert und werden basierend auf Signaturen von Ereignissen ausgelöst, die für die relevanten Suchen/Analysen als interessant erachtet werden. Die Rate ist also langsam, aber nicht langsam und willkürlich, sie versucht, interessante Ereignisse zu priorisieren.
Ja wie das L1-Triggersystem. Dennoch stellt sich die Frage nach dem Design der Entscheidungsalgorithmen dieser Systeme. Diese Leute müssen nicht nur Programmierer, sondern auch erfahrene Teilchenphysiker sein. So programmieren Sie Wenn Sie nicht wissen, wonach Sie suchen?
@ Markoul11 Du weißt oft, wonach du suchst. Zum Beispiel suchen sie in dem jüngsten Hinweis auf eine Flavour-Verletzung von LHCb nach dem Zerfall von B-Mesonen. Diese Zerfälle von B-Mesonen sind als solche gut verstanden, sodass wir die relevanten Signaturen kennen. Die Analyse versucht, das Verhältnis der Zerfälle zu den Elektronenkanälen und denen zu den Myonenkanälen zu erhalten. Es gibt kein separates unbekanntes Ereignis, das die Geschmacksuniversalität verletzen würde, nach der wir suchen (wobei wir nichts über seine Signatur wissen würden). Und ja, Leute, die Trigger entwerfen, sind in erster Linie Physiker, keine Programmierer.
@DvijD.C. Ja, dieser spezielle Mesonzerfall war vor vielen Jahren theoretisch bekannt. Aber was ist mit Zerfällen, die von der bekannten Theorie nicht vorhergesagt wurden? Welche Sicherheitsvorkehrungen (Regeln) werden den Algorithmen auferlegt, um potenzielle signifikante Ereignisse zu identifizieren, die nicht von der Theorie vorhergesagt werden?
@ Markoul11 Ich denke, das könnte Ihre eigentliche Frage sein: "Welche Sicherheitsvorkehrungen (Regeln) gelten für die Stichprobenalgorithmen am LHC, um potenzielle signifikante Ereignisse zu identifizieren, die nicht von der Theorie vorhergesagt wurden?" Ich hoffe, es ist Ihnen klar (kann Ihrer Frage aber nicht ganz entnehmen), dass die Aufzeichnungsrate des Detektors nicht wirklich mit den Zeitskalen der untersuchten Physik zusammenhängt. Der Collider erzeugt neue Ereignisse bei ~1 GHz, die Elektronik verfolgt die Zerfallsprodukte bei ~Pikosekunden-Frequenzen, und dann wählt eine Mischung aus Hardware und Software interessante Ereignisse aus, die für eine spätere Analyse aufgezeichnet werden.
Wenn Sie den von @Andrew bereitgestellten Artikel lesen, beträgt die Aufzeichnungsereignisrate nicht 200 Hz, sondern 1 kHz (alle 1 ms). Wir haben also Partikelzerfälle bis zu Pikosekunden, die in 10-ms-Intervallen gesammelt werden, also 100.000 Ereignisstandbilder pro Sekunde, und von denen die besten und vielversprechendsten 1.000 pro Sekunde-Ereignisse für die weitere Analyse gespeichert werden. Das sind viele potenziell interessante Informationen, die von den anfänglichen 1 G / s --> 100 K / s um den Faktor 10E4 fehlen. Wir verlieren 99,99 % der Kollisionsereignisse. Die ganze Zeit! Kein Wunder, dass sie 10 Jahre brauchen, um die Daten für ein signifikantes statistisches Ergebnis von mehr als 3σ zu sammeln.
@ Markoul11 Wie Andrews Link betont: „[Die Roh-] Datenrate (40 MHz × 1 MB = 40 TB s−1) ist schwierig, entweder lokal auf dem Detektor zu speichern oder vom Detektor weg zu übertragen, ohne ein großes Datenübertragungssystem dafür einzusetzen würde die Funktion kritischer Detektorelemente stören." Das ist ein bisschen untertrieben. Aber ich denke, was Sie wirklich wissen wollen, ist, wie viele interessante Ereignisse wahrscheinlich verloren gehen. Die meisten Ereignisse sind nicht interessant, sodass Sie keine genauen Schätzungen des Datenverlusts erhalten, indem Sie einfach die Häufigkeiten vergleichen.

Antworten (1)

Es scheint einige Verwirrung darüber zu geben, wie Collider-Experimente funktionieren, insbesondere bei der Frage: "Glauben Sie nicht, dass diese Rate zu LANGSAM ist und dass ein sehr schnelles Zerfallsereignis übersehen werden könnte? "

Es besteht kein Zusammenhang zwischen der Ereignisrate und der Abklingrate eines Ereignisses.

Ich kenne DESY, nicht CERN, daher habe ich keine Zahlen (außer 27 km und 7 TeV) zur Verfügung, aber es geht so: Die Protonen (gegen)zirkulieren in Bündeln, und die Bündel kollidieren zu bekannten Zeiten. Bei Kollisionen sucht der Detektor nach Ereignissen.

Wenn ein Ereignis eintritt, egal ob interessant, exotisch, schnell oder langsam, durchläuft alles die Detektoren ultrarelativistisch, effektiv an C , also ist die Dauer des Ereignisses die Größe des Detektors dividiert durch C . (Siehe Anmerkung 1 am Ende).

Das Problem beginnt mit den Strahlen: Sie sind Protonen. Ein 7-TeV-Proton im Laborrahmen ist im Grunde ein zweidimensionales Objekt ohne Zeitentwicklung. Es ist ein flacher, gefrorener Pfannkuchen mit 3 Valenzquarks und so ziemlich einer ungebundenen Anzahl von QCD-Vakuumfluktuationen mit niedriger Energie, die als Seequarks und Gluonen bezeichnet werden. Diese tragen alle einen Bruchteil des Impulses von 7 TeV, und Dinge mit niedrigerer Energie haben hohe Wirkungsquerschnitte (aufgrund der Einheitlichkeit).

Das bedeutet, dass die meisten Ereignisse Müllkollisionen sind, die nicht genug Energie haben, um über das Standardmodell hinauszugehen. Sie aufzuzeichnen würde jede Physik unmöglich machen, da alle Detektorsysteme nach dem Auslösen eine Totzeit haben (ich weiß nicht, wie die Zahlen beim LHC sind, aber selbst ein paar Nanosekunden bedeuten, dass die Detektoren und die Auslesesysteme schreiben würden mit Müll gelähmt sein).

Um dies zu vermeiden, gibt es verschiedene Ebenen von Hardware- und Software-Triggern. Hardware-Trigger betrachten nur AND, OR, NOT, XORs usw. von elektronischen Logikgattern, die direkt von Detektoren kommen (sie sind also schnell). Sie können mehrstufig und mehrkanalig (für verschiedene Prozesse) sein.

Wenn die Hardware auslöst, gehen die Daten zur weiteren Filterung an eine schnelle Software (oder vielleicht zuerst an die FPGA-Firmware). Schließlich weist ein interessantes Ereignis das System an, das Ereignis zu speichern.

Nach dem Lesen und Aufzeichnen eines Ereignisses benötigt das gesamte System Zeit, um sich zu erholen, sodass es eine Mindestzeit gibt, bis das nächste Ereignis aufgezeichnet werden kann, die aufgrund von Downstream-Engpässen kürzer sein kann als die durchschnittliche Zeit zwischen Ereignissen. Da viele Experimente absolute Wirkungsquerschnitte messen, ist die Korrektur der Totzeit und der Triggereffizienz äußerst komplex und erfordert eine ausgeklügelte Monte-Carlo-Analyse und verschiedene Systemmessungen auf dem Labortisch.

Anmerkung 1: Vielleicht fragen Sie also nach der Herstellung eines massiven Bosons im Ruhezustand im Labor. Es wird einfach dort sitzen, bis es zerfällt. Die Lebensdauer massiver Teilchen liegt in der Größenordnung der Zeit, die Licht braucht, um ein Proton zu durchqueren, also ist es irrelevant.

Darüber hinaus haben die Progenitor-Quarks (oder Gluonen), obwohl der COM der Protonen der Laborrahmen ist, keinen gleichen entgegengesetzten Impuls, da sie zufällig aus einem Blob von QCD-Vakuumfluktuationen und gelegentlichen Valenzquarks ausgewählt werden.

Das erschwert das Experiment erheblich, und das ist der Grund e + e Collider sind so attraktiv. Bei ihnen sind die Vorläufer des Ereignisses genau bekannt, sie können nur dank Synchrotronstrahlung nicht in einem 27-km-Ring bei 7 TeV gespeichert werden.

Danke für diese fachmännische Beschreibung. Was ist mit Partikeln, die zerfallen, bevor sie die Sensoren des Detektors erreichen? Soweit ich weiß, haben die Sensoren des Detektors eine Flugzeitauflösung von Pikosekunden. Offensichtlich ist es nicht erforderlich, dass die Sensoren eine höhere Zeitauflösung haben als die Zeit, die die Teilchen benötigen, um mit Lichtgeschwindigkeit c entlang des Radius des Detektors zu fliegen? Würde ein kleinerer Cutsection-Detektor aber mit der gleichen Kollisionsenergie von 14TeV kürzere Zerfallsteilchen erkennen?