Der Beitrag der Stichprobenverzerrung zur „Planet 9“-Hypothese, warum wurde dies vorher nicht gründlich angesprochen?

Die Helligkeit entfernter Objekte im Sonnensystem variiert wie 1 / R 4 Daher ist es wahrscheinlicher, dass Objekte auf elliptischen Umlaufbahnen in der Nähe der Periapsis entdeckt werden.

Wenn Entdeckungsteleskope in eine voreingenommene Richtung gerichtet sind, zeigen die resultierenden Entdeckungen aufgrund dieser Ausrichtungsvorspannung eine Vorspannung in Orbitalelementen.

Das ist eine grobe Zusammenfassung des jüngsten Papiers.

Frage: Warum wurde diese Stichprobenverzerrung vorher nicht gründlich angesprochen? Gab es für eine solche Analyse bisher vielleicht keine ausreichenden Statistiken oder gab es andere erschwerende Faktoren?

Wenn Sie denken, dass korrupte, vielleicht absichtlich fahrlässige Redakteure die vorherigen Zeitungen durchgelassen haben, warum glauben Sie, dass dies auf diese Zeitung nicht zutreffen wird? (Zugegeben, es scheint, dass dieses Papier noch nicht von Experten begutachtet wurde ...)
@PeterErwin Ich denke, Sie versuchen, mehr in das zu lesen, was ich geschrieben habe, als das, was tatsächlich geschrieben wurde, um einen sensationellen Effekt zu erzielen. nicht, dass das irgendeine Ähnlichkeit mit irgendetwas hat, das oben besprochen wurde :-)
Die (angebliche) Häufung liegt in der Ausrichtung der Bahnen um die Sonne, wenn man von oben nach unten schaut (siehe Abb. 2 und 6). Zusätzlich zu Entfernungsverzerrungen gibt es also auch komplizierte Verzerrungen, die darauf basieren, wo die ETNO-Verteilung (konzentriert entlang der Ekliptik) und die Verteilung der Sterndichte (konzentriert in Richtung der MW-Ebene und des galaktischen Zentrums) interagieren, was die (mehrere) Vermessungsempfindlichkeiten gegenüber ETNOs sehr entzerrt hart.
@astrosnapper danke für den Hinweis auf die Komplexität; Ich habe den Wortlaut der Frage angepasst, ihr Ziel sollte es sein, einfach einen Raum für Antworten zu schaffen.
Fragen im Sinne von „warum wurde das nicht schon früher gemacht“ finde ich problematisch und meist subjektiv beantwortbar. Wissenschaft wird gefördert. Du beweist, was du tust, indem du Hausarbeiten schreibst. Du kannst so viel in deiner Zeit tun. Und selbst wenn Sie nicht jede mögliche Erklärung in Betracht gezogen und/oder eine bestimmte Ansicht oder Analyse verworfen haben, heißt das nicht, dass es sich um schlechte Wissenschaft handelt. Die Wissenschaft lebt von der Weiterentwicklung des Urteilsvermögens und der Neubewertung alter Beweise durch neue Leute und auch durch dieselben Leute im Lichte neuerer Beweise (oder bisher vernachlässigt, übersehen oder aus welchen Gründen auch immer nicht berücksichtigt).
@planetmaker Ich denke, das ist es nicht, und deshalb habe ich danach gefragt. Astronomen sind seit einem Jahrhundert oder länger begeisterte und geschickte Nutzer von Bevölkerungsstudien. Das ist kein esoterischer Effekt dritter Ordnung. Wenn Sie nur nach links schauen und sagen "Hey, alle Sterne sind links", bevor Sie nach rechts schauen, um zu sehen, ob es auch Sterne in dieser Richtung gibt, dann geht es nicht darum, nicht "jede mögliche Erklärung in Betracht zu ziehen", sondern a der Fall, dass man nicht die offensichtliche Frage stellt, bevor man über die eigentümliche Linkshaufenbildung von Sternen brüllt.
Kommentare sind nicht für längere Diskussionen gedacht; Diese Konversation wurde in den Chat verschoben .

Antworten (2)

Ich denke, die zugrunde liegende Prämisse der Frage - zB "Warum wurde diese Stichprobenverzerrung vorher nicht gründlich angesprochen?" -- ist etwas falsch. Frühere Veröffentlichungen, einschließlich Veröffentlichungen von Personen, die die „Planet 9“-Behauptung aufstellen, haben versucht, Verzerrungen durch Stichproben zu beseitigen; Ein sekundäres Problem ist, dass das neue Papier Daten verwendet, die für frühere Studien nicht verfügbar waren (und auch einige der früheren Daten ignoriert).

Zunächst enthält die Originalarbeit von Batygin & Brown (2016) eine kurze Diskussion der möglichen Auswirkungen von Selektionsverzerrungen (in Abschnitt 2). Das war zugegebenermaßen ziemlich oberflächlich, aber sie haben es mit umfangreicheren Analysen weiterverfolgt ( Brown 2017 ; Brown & Batygin 2019). Aus der Zusammenfassung des letzteren Papiers: „Um festzustellen, ob Beobachtungsverzerrungen die Ursache für diese offensichtlichen Clusterbildungen sein können, entwickeln wir eine rigorose Methode zur Quantifizierung der Beobachtungsverzerrungen bei den Beobachtungen der Länge des Perihels und der Position des Orbitalpols. Aus dieser jetzt vollständiger Um die Verzerrungen zu verstehen, berechnen wir, dass die Wahrscheinlichkeit, dass diese entfernten KBOs so stark gehäuft werden, wie es sowohl in der Länge des Perihels als auch in der Polposition der Umlaufbahn beobachtet wird, nur 0,2 % beträgt.

Napier et al. sind nicht, wie Sie vermuten, die ersten, die Selektionsverzerrungen in Betracht ziehen (was sie tatsächlich anerkennen). Was ist denn der Unterschied? Ein Teil davon ist, dass Napier et al. plädieren für eine Analyse mittels detaillierter Simulation unter vollständiger Berücksichtigung individueller Erhebungsmerkmale, sofern diese bekannt sind. Dazu konzentrieren sie sich auf Objekte, die in drei kürzlich durchgeführten Untersuchungen gefunden wurden. Das bedeutet, dass sie bewusst ignorierendie 6 Objekte, die für die ursprüngliche Behauptung von Batygin & Brown verwendet wurden: „Die sechs ETNOs, die in der Analyse von Batygin & Brown (2016) (BB16) berücksichtigt wurden, wurden in einer Reihe von Umfragen mit unbekannten oder unveröffentlichten Auswahlfunktionen entdeckt, was es schwierig macht, dies festzustellen die beobachtete Winkelanhäufung war tatsächlich physikalischen Ursprungs.“ Stattdessen verwenden sie 14 Objekte, die „von drei unabhängigen Erhebungen mit gekennzeichneten Auswahlfunktionen entdeckt wurden und alle seit BB16 veröffentlicht wurden“.

(Beachten Sie, dass die Bias-Analyse von Batygin & Brown 2019 ebenfalls 14 Objekte verwendete, aber nicht die gleichen 14 – sie schlossen die ursprünglichen 6 Objekte ein, die Napier et al. ausschließen, hatten aber keinen Zugriff auf Objekte, die nach ihrer Studie entdeckt wurden, was Napier et al al. do. Wir befinden uns in einer Situation, in der es nur sehr wenige Datenpunkte gibt, und es besteht das Potenzial für abweichende Ergebnisse, basierend auf der geringen Anzahl von Statistiken verschiedener Studien.)

Eric Jensen hat bereits Links zu einigen Twitter-Diskussionen von Batygin zu diesem Thema gepostet; Ich kann Sie auf einen Twitter-Thread des anderen ursprünglichen Autors (Mike Brown) sowie auf einen kürzlich erschienenen Blog-Beitrag von ihm verweisen, der versucht zu verstehen, warum sie und Napier et al. so unterschiedliche Ergebnisse bekommen.

Vielen Dank für Ihre gründliche, überlegte und gut fundierte Antwort! Mit dieser Roadmap kann ich jetzt vielleicht tiefer lesen, und obwohl ich das normalerweise nicht tue, werde ich versuchen, den Austausch auf Twitter zu verfolgen.
Es gibt noch ein weiteres Problem: Batygin & Brown verwenden ein heuristisches Modell für Verzerrungen, die bei bekannten Umfragen mit bekannten Verzerrungen völlig ungetestet sind, anstatt die tatsächlich veröffentlichten Verzerrungen für die Umfragen zu verwenden und anstelle eines Bayes'schen (und mit ziemlicher Sicherheit korrekteren) Ansatzes zum Verständnis dieser Verzerrungen dass Napier et al. habe verwendet. Brown macht in seinem Blog auch einige erschreckend ignorante Aussagen über Ungewissheiten (man kann keine Ungewissheiten auf Dinge wie „das trifft zu 95 % zu“ anbringen – eine Ungewissheit ist bedeutungslos). FWIW, ich habe vor 2 Tagen einen 30-minütigen Vortrag eines Statistikers darüber gehört.
@Stuart Robbins - Um fair zu sein, Brown beschwert sich nicht über eine fehlende "Unsicherheit bei einer Unsicherheit"; er beschwert sich über eine fehlende Unsicherheit bei einer Clustering-Messung, was offensichtlich nicht dasselbe ist.
Das etwas Besorgniserregende an Napier et al. Analyse ist, dass sie in ihrem Vergleich mit Brown & Batygin (2019) feststellen, dass, wenn sie die fünf zuletzt entdeckten Objekte ausschließen (die B&B19 nicht zur Verfügung standen), die P -Wert aus ihrer Analyse reicht von "0,17 bis 0,94" bis hinunter zu " P < 0,005 ". Was darauf hindeutet, dass: a) der Ansatz von B&B19 nicht ganz falsch war; und b) die Ergebnisse von Napier et al. sehr empfindlich auf die Einbeziehung/Ausschließung einer kleinen Anzahl von Objekten reagieren, so werden sie zitiert P -Werte sind, nun ja, irgendwie unsicher.

Konstantin Batygin, einer der Autoren des ursprünglichen Planet 9-Papiers, hat hier einen interessanten Twitter-Thread , in dem er dieses Papier diskutiert.

Ich ermutige Sie, das zu lesen, aber kurz gesagt, sein Argument ist, dass der Dark Energy Survey (DES) bereits voreingenommen ist (hier kein Urteilsbegriff, sondern nur den Himmelsabdruck beschreibt), um Objekte zu entdecken, die sich in der Gruppe von KBOs befinden, die die bilden Beweise für Planet 9. Wenn Sie also nur diese Teilmenge der Daten betrachten, können Sie die Daten entweder mit einer gleichmäßigen Verteilung oder mit einer geclusterten Verteilung anpassen.

Beachten Sie, dass das Papier zu diesem Schluss kommt – festzustellen, dass diese Teilmenge der Daten an sich kein Clustering erfordert, ist etwas anderes als zu sagen, dass das Clustering nicht vorhanden ist.

Bearbeiten: Hier ist ein anderer Thread, der dies mit einer Analogie erklärt.

Die Schlüsselfrage – auf die ich keine Antwort kenne – ist, wie stark sich die Entdeckung der Clusterbildung überhaupt auf die Teilmenge der Daten stützt, die in Napier et al. analysiert wurden. Papier.

Die Antwort auf Ihre „Schlüsselfrage“ lautet „überhaupt nicht“, da die sechs Objekte, die die Grundlage für die ursprüngliche Behauptung bildeten, (bewusst) aus dem Napier et al. Analyse, die sich stattdessen auf 14 Objekte stützt, die nach der ursprünglichen Behauptung entdeckt wurden.
Anders ausgedrückt: Batygin & Brown (2016) verwendeten 6 Objekte und testeten auf Clustering und fanden heraus, was ihrer Meinung nach Clustering ist. Napieret al. (2021) nutzten eine größere Gruppe von Umfragen (eine Metaanalyse) und stellten speziell die Frage: Kann die Nullhypothese, dass die Daten mit NO-Clustering konsistent sind, zurückgewiesen werden? Sie konnten die Nullhypothese nicht ablehnen. Dies sind zwei ziemlich unterschiedliche Arten, das Problem zu untersuchen und die Frage zu stellen, und ich persönlich würde argumentieren, dass Letzteres statistisch ehrlicher ist.