Gibt es eine signifikante Möglichkeit, dass dem LHC „exotische“ Teilchen oder Ereignisse entgehen?

In seinem popsci-Buch „Particle at the End of the Universe“ sagt Sean Carroll, dass der LHC aufgrund seiner reinen Fähigkeit zum Sammeln von Informationen notwendigerweise die meisten der von ihm gesammelten Daten vollständig verwerfen muss.

Ich habe mich gefragt, wie das gemacht wird, um die "interessanten" Ereignisse vom Rest zu trennen.

Carroll sagt, dass zwischen Hardware- und Softwaretechniken nur einige hundert Ereignisse pro Sekunde von den vielen Millionen, die pro Sekunde erzeugt werden , für eine vollständige Analyse aufgezeichnet werden.

Ist es ein Mustervergleichsalgorithmus, der verwendet wird, um die Daten zu analysieren, in welchem ​​​​Fall verwenden die beteiligten Personen, sowohl Theoretiker als auch Experimentatoren, dies als Leitfaden dafür, wie "seltsame" Ereignisse aussehen würden?

Ich bin sicher, dass ich die kombinierte jahrelange Erfahrung von Tausenden von Theoretikern und Experimentatoren hier zweifle. Außerdem habe ich sicherlich nicht den Hintergrund, um die Frage konkret zu stellen.

Aber im Allgemeinen, wenn ein exotisches Ereignis eine Signatur erzeugt, die für uns wirklich neu ist, wie etwa dunkle Materie oder ein Mitglied einer vierten Generation von Teilchen, wie können wir dann sicher sein, dass wir es nicht übersehen haben, wenn wir nicht wissen, was zuerst suchen?

Natürlich könnte die Antwort lauten, sagen wir, aufgrund der Energieabgabe des LHC haben wir Grenzen hinsichtlich dessen, was möglich ist, und wir wissen tatsächlich, was in einem bestimmten Bereich zu erwarten ist. Ich frage mich nur, ob es eine Chance gibt, dass wir etwas so Wichtiges wie das Higgs verpassen?

Antworten (1)

Ereignisse in Hochenergiephysik-Detektoren, die keine nützlichen Daten erzeugen können, hauptsächlich weil sie das Ergebnis weicher Streuungsereignisse sind, werden von mehreren Schichten von Triggerschaltungen verworfen. Was diese Schaltungen tun, wird durch sogenannte Triggermenüs vorgeschrieben, die auf theoretischen Vorhersagen über eine große Anzahl bekannter und hypothetischer physikalischer Ereignistypen beruhen.

Wie Sie richtig bemerkt haben, kann ein exotisches Ereignis, das sich deutlich von einem der Ereignistypen unterscheidet, die von den Auslösermenüs abgedeckt werden, im Auslöser verloren gehen. Um einem vollständigen Verlust solcher Ereignisse vorzubeugen, gibt es vorskalierte Triggermenüs (wie Eins zu Tausend, Zehntausend oder eine Million Bündelkreuzungen usw.), die einen Datenfluss ermöglichen, der weniger voreingenommen oder völlig unvoreingenommen durch Annahmen über die Ereignisstruktur ist. Man muss jedoch einen Kompromiss zwischen der Post-Trigger-Ereignisrate und der Anzahl dieser vorskalierten Ereignisse eingehen, da sonst die Datenerfassung, -speicherung und insbesondere die Datenanalyse-Pipelines mit höchstwahrscheinlich nutzlosen Daten überschwemmt werden. Am Ende bedeutet dies, dass ausreichend seltene exotische Ereignisse möglicherweise doch unbemerkt bleiben.

Wenn Sie sehen möchten, wie komplex all dies in Wirklichkeit ist, würde ich vorschlagen, einen Blick auf z. 2up.pdf. Das ist nur eines der Dokumente der obersten Ebene. Um das System im Detail kennenzulernen, müsste man natürlich Hunderte von Fachartikeln und internen Fachberichten lesen.

Ja, und das Leben ist kurz. Ich weiß, dass diese Frage von denen in Betracht gezogen wurde, die VIEL mehr wissen als ich, nur dass Carroll übersprungen hat, was meiner Meinung nach eine längere Behandlung verdient hätte, die mir etwas Teilchenphysik beigebracht hätte. Das ist Popsci für dich, manchmal bringt es dich zum Nachdenken und manchmal lässt es dich frustriert zurück, mit nur einem Schimmer einer Antwort. Dank dafür
@AcidJazz: Ich kann Ihnen sagen, dass das Design dieser Triggermenüs Anfang und Mitte der 1990er Jahre eine große Sache war (natürlich basierend auf jahrzehntelanger Erfahrung und Theorie), selbst als sich die Detektoren noch in der Designphase befanden. Es ist wirklich nicht einmal möglich, einen funktionierenden Detektor zu entwerfen, ohne zuerst die Ereignisstruktur zu verstehen. Zum Glück kann jedes Experiment auf der Physik aufbauen, die aus den vorherigen gelernt wurde, also ist das meiste davon eigentlich eine sehr gut etablierte Theorie ... aber die Menge an intellektueller Arbeit, die in diese Berechnungen und Simulationen gesteckt wird, ist absolut atemberaubend.
@AcidJazz Zusätzlich zu den Kommentaren von CouriousOne wird ständig darüber nachgedacht, was in den Triggern enthalten sein sollte, wie die Triggerentscheidungen strukturiert werden und wie viele Minimum- und No-Bias-Ereignisse berücksichtigt werden sollten. außerdem laufen Teile des Triggersystems auf FPGAs, so dass wesentliche Änderungen möglich sind. Die heutzutage verwendeten Systeme sind unglaublich flexibel im Vergleich zu denen, auf die ich mich vor weniger als zwei Jahrzehnten gestützt habe.
@dmckee Es ist ein langer, langer Weg von Wilson und seinen Nebelkammerfotos. Ich habe gefragt, wie die Auslöser funktionieren, aber um ehrlich zu sein, scheint es, als würde die gesamte Website benötigt, um diesen Prozess allein abzudecken. Es muss mehr als ein wenig frustrierend sein, wenn auch notwendig, so viele Daten preiszugeben, in dem Wissen, dass eine Aufzeichnung uns etwas wirklich Neues zu sagen haben könnte.
@AcidJazz: dmckee hat hervorragende Hinweise gegeben. Moderne Trigger sind durch programmierbare Tabellen programmierbar, durch programmierbare Hardwaredesigns rekonfigurierbar und einige Ebenen sind Programme, die auf Serverhardware ausgeführt werden. Trigger entwickeln sich weiter und werden aktualisiert. Das Interessante, was bei LHC passierte, war jedoch, dass die anfänglichen Schätzungen, wie viele Ereignisse verarbeitet werden mussten, etwa das Zehnfache dessen waren, was sie derzeit verarbeiten. Teilweise lag das an übereifrigen physikalischen Schätzungen. Selbst mit der Technologie von 1995 hätten wir viel mehr verarbeiten können als heute, aber es wird nicht als notwendig erachtet.