Was bedeuten die Begriffe „offline“ und „online“ im Bereich der Hochenergiephysik-Datenanalyse?

Der Titel sagt es schon - ich bin diesen Begriffen schon mehrmals begegnet, habe aber nirgendwo eine Erklärung gefunden. Ein Anwendungsbeispiel ist dieser ATLAS-Hinweis .

Wenn ich eine Vermutung wagen darf: Die Datenrate am LHC ist hoch, sodass nur ein Bruchteil in Echtzeit (online) analysiert werden kann, während ein Teil für spätere Analysen (offline) gespeichert wird.

Obwohl der Begriff in der Teilchenphysik etwas anders verwendet wird (siehe Antworten unten), korreliert er immer noch ziemlich gut mit der Standardbedeutung von „Online“- und „Offline“-Algorithmen in der Informatik. Ich vermute, daher kommt der Begriff.

Antworten (3)

Die Online-Datenanalyse ist eine oberflächliche Analyse, die während der Erfassung der Daten durchgeführt wird. Es wird häufig verwendet, um auszuwählen, welche Ereignisse auf Platte oder Band gespeichert werden sollen, um sie später zu analysieren (ein Ereignis-"Filter"). Angesichts der Tatsache, dass die aktuellen CERN-Experimente im nächsten Durchlauf Daten mit Raten von mehr als einem Terabyte pro Sekunde aufnehmen werden, ist diese Vorstellung von wesentlicher Bedeutung.

Tatsächlich wird der Online-Analyse-Stream in mehreren Schritten durchgeführt, wobei jeder einen hohen Prozentsatz der Ereignisdaten verwirft. Der Auslöser selbst kann als eine Hardwareimplementierung der Ereignisauswahl der Ebene 0 angesehen werden. CDF und D0 hatten drei Online-Ebenen (plus Trigger); Die dritte Ebene ordnete Datenströmen auch Ereignisse zu, sodass beispielsweise potenzielle Spitzenkandidaten ein Strom waren.

Die Offline-Analyse erfolgt anschließend auf den gespeicherten Daten. Die Offline-Analyse erfolgt auf "Farmen" von Computern, die zu Zeiten von CDF und D0 hauptsächlich im Feynmann Center bei Fermilab standen, heute jedoch Zehntausende von CPUs darüber verteilt sind Universitäten und Institutionen auf der ganzen Welt. Der Begriff „offline“ ist im Allgemeinen für den Prozess der Ereignisrekonstruktion reserviert, bei dem die Rohdaten von den Detektoren verarbeitet werden, um festzustellen, was bei dem Ereignis passiert ist, z sekundäre Scheitelpunkte an diesem und jenem Punkt, ein Hadronen-'Jet' dieser Energie und dieses Impulses kam von diesem sekundären Scheitelpunkt..." und so weiter. Diese Offline-Rekonstruktion wird im Prinzip einmalig für jedes Ereignis durchgeführt; in Praxen,

Die Ergebnisse der Ereignisrekonstruktion werden als sogenannte DSTs (Datenzusammenfassungsbänder) gespeichert und im Vergleich zu den Originaldaten stark komprimiert. Heutzutage werden diese zusammenfassenden Daten auf Disketten aufbewahrt, die auf der ganzen Welt verteilt sind. Dann gibt es viele Projekte der Offline-Analyse (unter Verwendung der DSTs), die von vielen Experimentatoren codiert oder entworfen wurden, um die tatsächliche Physik aus diesen zusammengefassten Ereignissen zu extrahieren.

Nichts von dem, was in den Auslösern passiert, ist „Analyse“. Es sind einfache Mustervergleichsalgorithmen, die triviale Ereignisse ausschließen, die keine interessanten Informationen enthalten, entweder weil sie zu weich sind oder wegen Stapelproblemen. Ich finde es sehr bedauerlich, dass der Begriff für ein Verfahren verwendet wird, das kruder kaum sein könnte (ich habe früher Triggeralgorithmen geschrieben und analysiert...).
Sie wären schockiert darüber, wie ausgeklügelt die heutigen Auslöser sind und wie viel intellektuelle Anstrengung und Debatte in die Entwicklung des Auslösers für ein modernes Experiment fließen. Die Zeiten „es gibt einen Strahlimpuls (oder eine Strahlkreuzung), also lasst uns auslösen“ sind lange vorbei.
Sie wären schockiert, wie schlecht der ATLAS-Trigger konstruiert war, als ich daran arbeitete, wie die Leute nicht auf das hörten, was ich ihnen sagte, was sie tun mussten, und wie mir von jemandem, der am letzten Designtisch saß, gesagt wurde, dass sie es tun Im Grunde haben sie schließlich alles umgesetzt, was ich ihnen damals gesagt habe. :-) Übrigens, wenn Sie die alten SSC-Dokumente lesen möchten, das SSC-Trigger-Design war den LHC-Designs seinerzeit bereits zwanzig Jahre voraus, es ist nur so, dass die Leute am CERN ziemlich naiv waren, als sie anfingen und lernen mussten von Grund auf neu. Und doch ist nichts davon „Analyse“.

Der Begriff "online" bezieht sich typischerweise auf die Ereignisrekonstruktion und "offline" auf die Analyse der rekonstruierten Ereignisse. Der Grund, warum sie „online“ und „offline“ genannt werden, liegt darin, dass die Online-Rekonstruktion in Echtzeit durchgeführt wird, während Daten gesammelt werden, und „offline“ später unter Verwendung von Ressourcen (Rechnerbanken, Speicher usw.) durchgeführt wird, die nicht direkt gebunden sind zur Datenerhebung.

Ich bin mir nicht sicher, ob ich den Begriff „Online-Analyse“ verwenden würde, weil es nicht wirklich eine Analyse ist. "Online-Verarbeitung" ist genauer.

Um die Online-Verarbeitung besser zu verstehen, ist es wichtig zu erkennen, dass ein Hochenergiephysik-Detektor nicht wirklich ein Detektor ist; es ist in der Tat ein loser Zusammenschluss vieler Teildetektoren, die einigermaßen unabhängig funktionieren. Jeder Unterdetektor hat seine eigene einzigartige Verarbeitungs- und Speicherfähigkeit, die Daten von jedem Ereignis sammelt und vorübergehend speichert. Es gibt Online-Systeme (Trigger, Filter), die Daten von jedem der Subdetektoren untersuchen und entscheiden, ob das Ereignis real und ausreichend interessant ist, um es aufzubewahren. Da es so viele Daten und so wenig Zeit gibt, geschieht dies in mehreren Schritten. Die erste Stufe wird typischerweise in Hardware implementiert (aus Geschwindigkeitsgründen); Es betrachtet die Ausgabe von einigen der Subdetektoren - einschließlich, in einigen Fällen, speziell für diesen Zweck gebauten Detektoren - und entscheidet, ob die Ausgabe aller Teildetektoren ausgelesen oder verworfen werden soll. Wenn die Online-Verarbeitung es über die erste Stufe hinaus schafft, geht sie zur zweiten über, wo Daten von mehr der Subdetektoren verarbeitet werden und eine ähnliche „Keep-or-toss“-Entscheidung getroffen wird. Während es sich durch die Stufen bewegt, wird mehr Verarbeitung durchgeführt, Daten von verschiedenen Teildetektoren werden zusammengeführt und verglichen, und ähnliche Entscheidungen werden getroffen. Sobald es den letzten Filter passiert hat, wird die letzte Phase der Ereignisrekonstruktion durchgeführt, in der alle (vorverarbeiteten) Daten von allen Teildetektoren einer abschließenden Online-Verarbeitung unterzogen und zu einem einzigen „Ereignis“ zusammengeführt werden, das dann für die Offline-Verarbeitung gespeichert wird. Wenn die Online-Verarbeitung es über die erste Stufe hinaus schafft, geht sie zur zweiten über, wo Daten von mehr der Subdetektoren verarbeitet werden und eine ähnliche „Keep-or-toss“-Entscheidung getroffen wird. Während es sich durch die Stufen bewegt, wird mehr Verarbeitung durchgeführt, Daten von verschiedenen Teildetektoren werden zusammengeführt und verglichen, und ähnliche Entscheidungen werden getroffen. Sobald es den letzten Filter passiert hat, wird die letzte Phase der Ereignisrekonstruktion durchgeführt, in der alle (vorverarbeiteten) Daten von allen Teildetektoren einer abschließenden Online-Verarbeitung unterzogen und zu einem einzigen „Ereignis“ zusammengeführt werden, das dann für die Offline-Verarbeitung gespeichert wird. Wenn die Online-Verarbeitung es über die erste Stufe hinaus schafft, geht sie zur zweiten über, wo Daten von mehr der Subdetektoren verarbeitet werden und eine ähnliche „Keep-or-toss“-Entscheidung getroffen wird. Während es sich durch die Stufen bewegt, wird mehr Verarbeitung durchgeführt, Daten von verschiedenen Teildetektoren werden zusammengeführt und verglichen, und ähnliche Entscheidungen werden getroffen. Sobald es den letzten Filter passiert hat, wird die letzte Phase der Ereignisrekonstruktion durchgeführt, in der alle (vorverarbeiteten) Daten von allen Teildetektoren einer abschließenden Online-Verarbeitung unterzogen und zu einem einzigen „Ereignis“ zusammengeführt werden, das dann für die Offline-Verarbeitung gespeichert wird. Daten von verschiedenen Teildetektoren werden zusammengeführt und verglichen, und es werden ähnliche Entscheidungen getroffen. Sobald es den letzten Filter passiert hat, wird die letzte Phase der Ereignisrekonstruktion durchgeführt, in der alle (vorverarbeiteten) Daten von allen Teildetektoren einer abschließenden Online-Verarbeitung unterzogen und zu einem einzigen „Ereignis“ zusammengeführt werden, das dann für die Offline-Verarbeitung gespeichert wird. Daten von verschiedenen Teildetektoren werden zusammengeführt und verglichen, und es werden ähnliche Entscheidungen getroffen. Sobald es den letzten Filter passiert hat, wird die letzte Phase der Ereignisrekonstruktion durchgeführt, in der alle (vorverarbeiteten) Daten von allen Teildetektoren einer abschließenden Online-Verarbeitung unterzogen und zu einem einzigen „Ereignis“ zusammengeführt werden, das dann für die Offline-Verarbeitung gespeichert wird.

Eine ähnliche Verarbeitung kann (und wird häufig) offline unter Verwendung gespeicherter „Rohdaten“ durchgeführt werden; Dies geschieht normalerweise, um Verbesserungen in die Kalibrierung einzubeziehen und ein besseres Verständnis der Funktionsweise der Teildetektoren widerzuspiegeln. Auch hier würde ich dies eher als "Offline-Verarbeitung" als als Analyse bezeichnen.

Offline-Analyse ist der Prozess, bei dem Physiker die Ereignisdaten untersuchen – oder genauer gesagt, Millionen von Ereignissen sichten und diejenigen auswählen, die bestimmte Kriterien erfüllen – und versuchen, herauszufinden, was das Ereignis verursacht hat. Hierher kommen die interessanten physikalischen Ergebnisse, wie die Entdeckung des Higgs oder präzise Messungen bestimmter Verzweigungsverhältnisse oder Grenzwerte für supersymmetrische Parameter oder alle anderen unzähligen Ergebnisse, die in Physikzeitschriften veröffentlicht wurden.

Um Ihnen ein weiteres Beispiel aus der Physik mittlerer Energie zu geben, habe ich an einem Experiment mitgearbeitet, bei dem die Konstruktion der von dmckee beschriebenen "Datenzusammenfassung" etwa achtmal länger dauerte als das eigentliche Sammeln der Daten. Wir haben mit der parallelen Analyse der Daten auf zehn Computern Schritt gehalten, aber die Daten einer Stunde vom Vormittag waren erst am späten Nachmittag wirklich verwertbar. Während der Datenerfassung lief unsere „Online-Analyse“ mit den gleichen Algorithmen wie der vollständige Analysealgorithmus, jedoch auf zwei- oder fünfminütigen Datensegmenten, sodass wir sofort feststellen konnten, ob die Dinge in Ordnung waren oder ob es ein Problem gab, das erforderlich sein könnte uns, das Experiment vielleicht abzubrechen und eine Reparatur vorzunehmen.

Nachdem die Datenerfassung abgeschlossen war, wussten wir Dinge, die wir zu Beginn des Experiments nicht gewusst hatten, und unsere Analyse-Toolkette war infolgedessen anders und intelligenter. Das war der Beginn der eigentlichen „Offline-Analyse“.