In seinem popsci-Buch „Particle at the End of the Universe“ sagt Sean Carroll, dass der LHC aufgrund seiner reinen Fähigkeit zum Sammeln von Informationen notwendigerweise die meisten der von ihm gesammelten Daten vollständig verwerfen muss.
Ich habe mich gefragt, wie das gemacht wird, um die "interessanten" Ereignisse vom Rest zu trennen.
Carroll sagt, dass zwischen Hardware- und Softwaretechniken nur einige hundert Ereignisse pro Sekunde von den vielen Millionen, die pro Sekunde erzeugt werden , für eine vollständige Analyse aufgezeichnet werden.
Ist es ein Mustervergleichsalgorithmus, der verwendet wird, um die Daten zu analysieren, in welchem Fall verwenden die beteiligten Personen, sowohl Theoretiker als auch Experimentatoren, dies als Leitfaden dafür, wie "seltsame" Ereignisse aussehen würden?
Ich bin sicher, dass ich die kombinierte jahrelange Erfahrung von Tausenden von Theoretikern und Experimentatoren hier zweifle. Außerdem habe ich sicherlich nicht den Hintergrund, um die Frage konkret zu stellen.
Aber im Allgemeinen, wenn ein exotisches Ereignis eine Signatur erzeugt, die für uns wirklich neu ist, wie etwa dunkle Materie oder ein Mitglied einer vierten Generation von Teilchen, wie können wir dann sicher sein, dass wir es nicht übersehen haben, wenn wir nicht wissen, was zuerst suchen?
Natürlich könnte die Antwort lauten, sagen wir, aufgrund der Energieabgabe des LHC haben wir Grenzen hinsichtlich dessen, was möglich ist, und wir wissen tatsächlich, was in einem bestimmten Bereich zu erwarten ist. Ich frage mich nur, ob es eine Chance gibt, dass wir etwas so Wichtiges wie das Higgs verpassen?
Ereignisse in Hochenergiephysik-Detektoren, die keine nützlichen Daten erzeugen können, hauptsächlich weil sie das Ergebnis weicher Streuungsereignisse sind, werden von mehreren Schichten von Triggerschaltungen verworfen. Was diese Schaltungen tun, wird durch sogenannte Triggermenüs vorgeschrieben, die auf theoretischen Vorhersagen über eine große Anzahl bekannter und hypothetischer physikalischer Ereignistypen beruhen.
Wie Sie richtig bemerkt haben, kann ein exotisches Ereignis, das sich deutlich von einem der Ereignistypen unterscheidet, die von den Auslösermenüs abgedeckt werden, im Auslöser verloren gehen. Um einem vollständigen Verlust solcher Ereignisse vorzubeugen, gibt es vorskalierte Triggermenüs (wie Eins zu Tausend, Zehntausend oder eine Million Bündelkreuzungen usw.), die einen Datenfluss ermöglichen, der weniger voreingenommen oder völlig unvoreingenommen durch Annahmen über die Ereignisstruktur ist. Man muss jedoch einen Kompromiss zwischen der Post-Trigger-Ereignisrate und der Anzahl dieser vorskalierten Ereignisse eingehen, da sonst die Datenerfassung, -speicherung und insbesondere die Datenanalyse-Pipelines mit höchstwahrscheinlich nutzlosen Daten überschwemmt werden. Am Ende bedeutet dies, dass ausreichend seltene exotische Ereignisse möglicherweise doch unbemerkt bleiben.
Wenn Sie sehen möchten, wie komplex all dies in Wirklichkeit ist, würde ich vorschlagen, einen Blick auf z. 2up.pdf. Das ist nur eines der Dokumente der obersten Ebene. Um das System im Detail kennenzulernen, müsste man natürlich Hunderte von Fachartikeln und internen Fachberichten lesen.
Benutzer81619
Neugierig
dmckee --- Ex-Moderator-Kätzchen
Benutzer81619
Neugierig