Ich habe mich gefragt, wie es den Forschern gelungen ist, Bestätigungsverzerrungen in Bezug auf die gesammelten Daten zu minimieren oder zu neutralisieren.
So wie ich es verstehe, hat der Algorithmus einen Großteil der Daten beschnitten, was sinnvoll wäre, da es wahrscheinlich nutzloses Rauschen wäre. Siehe zum Beispiel das Video Event Horizon Telescope Press Conference. Erstes Bild eines Schwarzen Lochs. bei etwa 38:40
.
Fünf Petabyte sind eine Menge Daten … Das Bild, das Sie gesehen haben, ist natürlich nicht 5 Petabyte groß, sondern einige hundert Kilobyte, also muss unsere Datenanalyse diese fünf Petabyte an Daten zu einem mehr als eine Milliarde Mal kleineren Bild zusammenfassen .
Aber abgesehen davon, könnten bestimmte Merkmale fälschlicherweise als Artefakte identifiziert und zugunsten einer Vorauswahl dessen, was die Forscher zu sehen erwarteten, verworfen werden?
Der einzige Grund, warum ich frage, ist, dass das Bild fast identisch mit simulierten Vorhersagen von vor zwei Jahren aussieht – was einen leichten Grund zur Beunruhigung geben könnte.
Danke schön.
Um nachzufassen (basierend auf dem Antwortabschnitt unten):
Sind sie im Prozess der ersten Stufe – „gemeinsame Merkmale“ – wie bestehende Stempel astronomischer Merkmale (und Bildvergleiche), die bereits in unserem Universum beobachtet wurden (sowohl im sichtbaren als auch im unsichtbaren Spektrum und zum Vergleich verwendet)? Und eine zweite Frage – wenn wir noch nie zuvor die Ohrmarken eines Schwarzen Lochs beobachtet haben, wie sollen wir dann vorhandene Stempel des Wissens über astronomische Merkmale, die wir gesehen haben, verwenden, um eine noch unbekannte (die direkt zu sein scheint) zu bewerten und zu validieren beeinflussen, welche Artefakte aufbewahrt und welche Artefakte weggeworfen und entsorgt werden)?
Dieser Vorgang wird in diesem Dokument ausführlich beschrieben . Die Zusammenfassung sagt:
Um die Zuverlässigkeit dieser Ergebnisse zu beurteilen, implementierten wir ein zweistufiges Bildgebungsverfahren. In der ersten Phase produzierten vier Teams, die jeweils blind für die Arbeit der anderen waren, Bilder von M87, wobei sie sowohl eine etablierte Methode (CLEAN) als auch eine neuere Technik (regularisierte Maximum-Likelihood) verwendeten. Diese Phase ermöglichte es uns, gemeinsame menschliche Vorurteile zu vermeiden und gemeinsame Merkmale bei unabhängigen Rekonstruktionen zu bewerten.
Anschließend generierten sie eine große Anzahl "plausibler" Bilder, rekonstruierten die Funksignale, die sie gegeben hätten, und ließen sie durch die Bildanalyse-Pipeline laufen, um zu sehen, ob sie irgendwelche Verzerrungen aufwiesen.
Im zweiten Schritt rekonstruierten wir synthetische Daten aus einer großen Untersuchung von Bildgebungsparametern und verglichen die Ergebnisse dann mit den entsprechenden Ground-Truth-Bildern. Diese Phase ermöglichte es uns, Parameter objektiv auszuwählen, die bei der Rekonstruktion von Bildern von M87 verwendet werden sollten. Bei allen Tests in beiden Stadien blieben der Ringdurchmesser und die Asymmetrie stabil, unabhängig von der Wahl der Bildgebungstechnik.
Übrigens ist es nicht wirklich angebracht, sich die verworfenen Daten als Bilddaten im Sinne einer Kamera vorzustellen. Es sind (fast) Aufzeichnungen der genauen elektromagnetischen Wellenformen, die von den Teleskopen empfangen werden. Das Bild entsteht aus subtilen Korrelationen zwischen diesen Datensätzen. Das meiste, was weggeworfen wird (abgesehen vom Rauschen), sind Informationen über die genaue Phase des Funksignals auf Nanosekundenbasis, was nicht wirklich interessant ist.
DAS
DAS