Ich habe die Nachrichten über ihre Arbeit am LHC-Teilchenbeschleuniger im CERN verfolgt. Ich frage mich, wie die Rohdaten aussehen, die zur Visualisierung der Kollisionen verwendet werden. Vielleicht kann jemand eine Beispiel-csv oder txt bereitstellen?
Verschiedene Geräte erzeugen etwas unterschiedlich aussehende Daten, aber typischerweise bestehen sie aus Spannungen, die als Funktion der Zeit definiert sind. In einigen Fällen (z. B. Funkenkammern) ist die "Spannung" digital, in anderen analog.
Herkömmlicherweise ist die Zeitreihe für die Daten langsamer als die Zeiten, die die Teilchen (fast mit Lichtgeschwindigkeit) benötigen, um den Detektor zu durchqueren. So hatte man für ein einzelnes Experiment ein brauchbares Foto. Modernere Geräte sind schneller, zeigen die Daten aber immer noch so an. Hier ist ein LHC-Beispiel:
Oben wurden die Daten für die Anzeige gemäß der Form und Geometrie des Detektors organisiert. Die Rohdaten selbst wären digitalisiert und nur eine Sammlung von Nullen und Einsen.
Es gibt typischerweise zwei Arten von Messungen, "Position" und "Energie". Die Positionsmessungen sind typischerweise binär, das heißt, sie zeigen an, ob ein Teilchen durch dieses (sehr kleine) Element gekommen ist oder nicht. Oben sind die gelben Linien Positionsmessungen.
Beachten Sie, dass einige der gelben Linien gekrümmt sind. Eigentlich sind alle zumindest teilweise gekrümmt. Dies liegt daran, dass ein starkes Magnetfeld vorhanden ist. Die Krümmung der Partikelspuren hilft bei der Bestimmung, um welche Partikel es sich handelt. Beispielsweise läuft ein schwereres Teilchen bei gleicher Geschwindigkeit und Ladung gerader.
Der Krümmungsradius ist gegeben durch:
Energiemessungen sind im Allgemeinen analog. Darin erhält man einen Hinweis darauf, wie viel Energie das Teilchen bei seinem Vorbeiflug deponiert hat. Oben sind die hellblauen und roten Daten Energiemessungen. Bei diesen Messungen erhält man keine so genaue Position, aber die Amplitude ist sehr genau.
Vor Jahren habe ich als Doktorand in Teilchenphysik am PHENIX - Experiment am BNL gearbeitet . Bevor ich auftauchte (ich glaube gegen Ende von Lauf 2), wurde die Hauptdatenstruktur, die für die Analyse verwendet wurde, als "Tupel" bezeichnet. Tupel waren den heute in Python verwendeten Listen ziemlich ähnlich, mit etwas mehr Struktur, um den Zugriff zu beschleunigen, und enthielten die eigentlichen Daten, die einem sogenannten "Ereignis" entsprachen (etwas Interessantes, das im Detektor passiert ist, das von den verschiedenen Subsystemen erfasst wurde und schließlich in ein Tupel geschrieben). Leider waren Tupel im Allgemeinen einfach zu groß und man musste eine kleinere Teilmenge der Einträge in den Tupeln analysieren – also wurden Mikrotupel geboren und kurz darauf Nanotupel.
Es wurden verschiedene Arten von Nano-Tupeln definiert und von den verschiedenen Arbeitsgruppen des Experiments verwendet, die unterschiedliche Teilmengen der ursprünglichen Tupel hatten. Welche Art von Nano-Tupel Sie verwendet haben, hing von der Analyse ab, die Sie durchführen wollten, und entsprach ungefähr der Arbeitsgruppe, in der Sie sich befanden. In meinem Fall war dies ein schwerer Geschmack, bei dem ich Charme studierte.
Ein Nano-Tupel könnte also so aussehen:
(x_1, x_2, ..., x_n)
wobei x_i all die verschiedenen interessierenden Größen wären, die mit dem Ereignis verbunden sind: Querimpuls, im EM-cal deponierte Energie, bla, bla, bla..
Am Ende drehte sich die Datenanalyse um die Manipulation dieser Nanotupel und belief sich auf:
Die Wahrheit ist, dass wir uns selten die RAW-Rohdaten angesehen haben, die aus dem Detektor strömen, es sei denn, Sie hatten Schicht und ein Teil des Datenerfassungssystems hatte aus irgendeinem Grund den Betrieb eingestellt. Aber in diesem Fall waren die Daten ziemlich bedeutungslos, wenn man sie betrachtete. Sie würden sich mehr Sorgen machen, dass die Daten nicht fließen. Wenn Sie jedoch einer der Personen wären, die für die Wartung eines Subsystems (z. B. EM-cal) verantwortlich sind, würden Sie wahrscheinlich regelmäßig Kalibrierungen durchführen und regelmäßig Rohdaten von Ihrem speziellen Subsystem überprüfen, um die Kalibrierung abzustimmen und die Rohdaten zu erstellen Daten auswertbar.
Meistens waren die Rohdaten nur für das Subsystem aussagekräftig, für das Sie verantwortlich waren, und es war nicht wirklich getan, alle Rohdaten aller Subsysteme als Ganzes zu betrachten. Ich glaube nicht, dass irgendjemand diese Art von Breite über all die verschiedenen Subsysteme hatte ...
In Bezug auf die Daten für die Visualisierungen, nach denen Sie gefragt haben: Ich glaube, dies waren speziell definierte Nano-Tupel, die Einträge von genügend Subsystemen enthielten, um eine Rekonstruktion und die endgültige Visualisierung zu ermöglichen (schöne Bilder), aber ich bin mir zu 99% sicher, dass die Visualisierungen es waren. t aus den "rohen" Daten erstellt. Vielmehr wurden sie unter Verwendung dieser Nano-Tupel durchgeführt.
Wenn Sie sich auf der PHENIX-Website umsehen, können Sie einige ziemlich schicke Animationen (zumindest schick für damals) von Kollisionen im Detektor sehen. Meistens waren diese Bilder und Filme Teil einer größeren, experimentierfreudigen PR-Bemühung. Sie wurden von einem Typen namens Jeffery Mitchel erstellt, und Sie sollten ihm eine E-Mail senden, um mehr Details über das Format der von ihm verwendeten Daten zu erfahren (mitchell@bnl.gov). sie sind längst weitergezogen, sodass Sie wahrscheinlich mehr Einblick in die „Rohdaten“ erhalten können, die heute vom LHC erstellt und für diese Visualisierungen verwendet werden, wenn Sie jemanden wie ihn direkt fragen.
dmckee --- Ex-Moderator-Kätzchen
anna v
OpenCoderX