Ich fange gerade an zu untersuchen, wie wir die Daten von Teilchenkollisionen verstehen.
Meine Frage ist, was sind die Algorithmen oder Möglichkeiten, wie diese Detektoren die Daten interpretieren? Gibt es Standardvorgehensweisen? Oder wenn nicht, was sind einige gute Papiere oder Orte, an denen Sie suchen können, um mehr über die Implementierung und / oder Einzelheiten darüber zu erfahren, wie dies funktioniert?
Bisher habe ich mich nicht in Lehrbücher vertieft, aber viele Artikel im Internet, und dies war etwas hilfreich, um zu zeigen, wo man suchen muss:
http://arstechnica.com/science/2010/03/all-about-particle-smashers-part-ii/
Nach meinem bisherigen Verständnis gibt es also einige verschiedene LCH-„Experimente“, bei denen es sich um physikalische Strukturen handelt, die optimiert sind, um sich auf bestimmte Aspekte von Daten eines Kollisionsereignisses zu konzentrieren. Der Detektor misst alle Arten von Partikelemissionen und Änderungen in elektrischen Feldern und scheint dann zu versuchen, alle Emissions-/Zerfallsereignisse zurückzuverfolgen und herauszufinden, die in diesem Bruchteil einer Sekunde stattgefunden haben könnten.
Nach meinem bisherigen Verständnis müssen die Computerprogramme, die zur Berechnung dieser möglichen "Zerfallswege" verwendet werden, im Grunde einige Standardalgorithmen oder so etwas verwenden und alle möglichen Partikelemissionswege eingebaut haben (wie alle möglichen Feynman-Diagramme, falls es so etwas gibt Ding).
Gibt es gute Ressourcen oder Standardalgorithmen/Ansätze, um zu verstehen, wie Teilchendetektoren ihre Daten analysieren?
Die verwendeten Algorithmen sind so viele wie die Versuchsaufbauten multipliziert mit den in den Aufbauten verwendeten Detektoren. Sie sind so gebaut, dass sie zu den Detektoren passen und nicht umgekehrt.
Die gemeinsamen Aspekte sind ein paar
1) geladene Teilchen interagieren mit Materie, die sie ionisiert, und man baut Detektoren, wo der Durchgang eines ionisierenden Teilchens aufgezeichnet werden kann. Es kann eine Blasenkammer , eine Zeitprojektionskammer oder ein Scheitelpunktdetektor sein (von denen es verschiedene Typen gibt). Diese werden in Verbindung mit starken Magnetfeldern verwendet und die Biegung der Bahnen gibt den Impuls des geladenen Teilchens.
2)Neutralteilchen sind beides
a) Photonen, und die elektromagnetischen Kalorimeter messen sie.
b) hadronisch, dh mit Materie wechselwirken, und hadronische Kalorimeter sind so konstruiert, dass sie die Energie dieser Neutralen messen
c) schwach wechselwirkende, wie Neutrinos, die nur durch Messung der gesamten Energie und Impulse nachgewiesen werden können, falls die fehlende Energie und der fehlende Impuls gefunden werden.
Darüber hinaus gibt es die Myonendetektoren, geladene Spuren, die durch Meter Materie gehen, ohne zu interagieren, außer elektromagnetisch, und die äußeren Detektoren sind so konzipiert, dass sie sie einfangen.
Dies ist der CMS-Detektor .
Die Komplexität der LHC-Detektoren erfordert diese enorme Zusammenarbeit von 3000 Menschen, die an einem Ziel arbeiten: Physikdaten aus dem System zu bekommen. Algorithmen sind ein notwendiger Teil dieser Kette und werden auf Bestellung unter Verwendung der grundlegenden physikalischen Konzepte hergestellt, die die Detektoren antreiben. Ein Beispiel für die Komplexität und die kontinuierliche Aktualisierung und Verbesserung der Algorithmen, die in die Analyse einfließen, sind die zur Definition und Messung eines Jets .
Wie Curiousone sagt, ist viel Muskelkraft erforderlich, um die Algorithmen zu verstehen, die in die Datenreduktion dieser Detektoren einfließen. Sicher sind sie Sonderanfertigungen.
Nun, wenn Sie Zeit haben ... CERN hat alle technischen Designberichte für seine Detektoren online unter http://cds.cern.ch/ . Sie sind hervorragender Lesestoff.
Beginnen Sie mit der Suche nach „ATLAS Technical Design Report“ und „CMS Technical Design Report“ und arbeiten Sie sich durch die Referenzen in diesen Dokumenten. Sobald Sie die Geometrie der Detektoren verstanden haben (keine Kleinigkeit), können Sie anfangen, über "Triggeralgorithmen" und "Rekonstruktionsalgorithmen" zu lesen. Möglicherweise müssen Sie sich ein oder zwei Dinge über Partikel-Materie-Wechselwirkungen und die GEANT-Simulationssoftware aneignen.
Kleine Warnung ... ich habe fast zwei Jahre gebraucht, um nur die Teile durchzulesen, die für meine Arbeit wichtig waren ...
Es gibt verschiedene Ebenen der Rekonstruktion, bei jedem Schritt wird die Datenmenge reduziert mit dem Ziel, auf die Impulse, Art und Richtung der zuerst bei der Kollision erzeugten Teilchen zu schließen:
Sobald man diese Ablagerungen „pro Zelle“ berechnet hat, werden sie gruppiert (die meisten Ablagerungen im Detektor umfassen eine Gruppe benachbarter Zellen):
Jetzt haben wir Energiecluster und Spuren für geladene Teilchen.
Jetzt haben wir Kandidaten für quasistabile Teilchen (die nicht im Detektor zerfallen), dh wir kennen die Art (meistens Elektronen, Photonen, geladene Pionen/Kaonen, neutrale Hadronen), ihre Energie/Impuls und ihre Richtung.
Jetzt, wo wir die Kollision noch weiter reduziert haben, kann man Kombinationen der Teilchen bilden. Nach welcher Kombination man sucht, hängt davon ab, wie bekannt ist, dass ein Teilchen zerfällt (oder von dem erwartet wird, dass es im Falle von noch nicht entdeckten Teilchen zerfällt). Auf dieser Ebene kann man es sich rechnerisch leisten, einfach alle möglichen Kombinationen von „stabilen“ Teilchen auszuprobieren, um „den Zerfallsbaum hinaufzuklettern“. Einige Beispiele sind:
Auf der nächsten Ebene muss man 'Signal' (z. B. neue Teilchen gesucht) von 'Hintergrund' (bekannte Prozesse in Proton-Proton-Kollisionen, die dem Signal ähneln) trennen:
Es gibt Millionen von Varianten der oben genannten Algorithmen und wahrscheinlich ebenso viele Parameter, die eingestellt, für bestimmte Fälle optimiert usw. werden müssen. Ein großer Teil des Aufwands der Datenanalyse wird tatsächlich darauf verwendet, das Beste aus dem Detektor herauszuholen (nachdem der Detektor in Betrieb genommen wurde, man kann es seit mehreren Jahren nicht mehr verbessern).
Simulations- und Rekonstruktionscodes liegen im Bereich von Millionen von Codezeilen.
Eine wichtige Einschränkung ergibt sich aus der verfügbaren CPU-Zeit, insbesondere für die Spurfindung, die rechenintensiv einer der teuersten Schritte ist. Der Kompromiss zwischen der erreichten Auflösung (mit welcher Genauigkeit kann man den Impuls / die Energie eines Teilchens messen) wird in der zweiten Stufe der Echtzeit-Ratenreduzierung ("Trigger" -- von 100.000 Kollisionen pro Sekunde auf 1000 pro Sekunde) wichtig ). Eine grobe Rekonstruktion der Kollision muss innerhalb von 100–200 ms durchgeführt werden, um zu entscheiden, ob eine Kollision für die Offline-Speicherung beibehalten werden soll. Wenn eine Kollision beibehalten und auf die Festplatte geschrieben wird, folgt innerhalb weniger Stunden eine anspruchsvollere Rekonstruktion, die pro Kollision einige Sekunden dauern kann.
Nikos M.
dmckee --- Ex-Moderator-Kätzchen
Lanze
dmckee --- Ex-Moderator-Kätzchen
benrg
dmckee --- Ex-Moderator-Kätzchen
David z
Lanze
dmckee --- Ex-Moderator-Kätzchen