Wie würden wir im Voraus "die Chancen" einschätzen, dass LIGO in der Zeit, in der es in Betrieb war, kollidierende Schwarze Löcher entdeckt? [Duplikat]

Kann jemand Berechnungen zusammenfassen, die über die theoretische Wahrscheinlichkeit einer nachweisbaren Kollision eines Schwarzen Lochs im beobachtbaren Universum innerhalb der Zeit, in der LIGO in Betrieb war, durchgeführt wurden ?

Ich meine, angesichts dessen, was wir über Prozesse und Parameter im Universum wissen – über die Dichte von Schwarzen Löchern, die Explosionsrate von Sternen usw. – wie oft würden wir ein beobachtbares Ereignis erwarten?

Diese Frage sucht nach einer Analyse, die unabhängig von Beobachtungen tatsächlicher GW-Ereignisse ist . Es ist die wissenschaftliche „Was sagt die Theorie voraus“-Frage.

Wenn wir nur einen Moment über die Verschmelzung von Schwarzen Löchern nachdenken (im Gegensatz zu anderen GW-Ereignissen), müssen folgende Dinge offensichtlich berücksichtigt werden: "Wie hoch ist die Dichte von Schwarzen Löchern während der gesamten Lebensdauer des Universums?", um festzustellen, wie hoch die Wahrscheinlichkeit ist, dass sie fusionieren. Dies ist an sich schon eine komplizierte Frage, denn die relevante Dichte kommt von früher und früher im Leben des Universums, je weiter das Ereignis entfernt ist (offensichtlich?).

Aber interessanterweise gibt es auch das Problem der planaren Natur von GW-Wellenfronten. Wie hoch ist die Wahrscheinlichkeit, dass sich die Erde zu diesem Zeitpunkt zufällig in der Ebene des GW-Ereignisses befindet - es scheint mir, dass allein dieser Aspekt die Anzahl wahrscheinlicher Beobachtungen dramatisch reduzieren muss ...

Es scheint eine offensichtliche Frage zu sein, aber das Googeln der genauen Frage und kreativer Varianten, die mir einfallen könnten, deckt niemanden auf, der sie stellt oder anspricht. Ebenso scheint ligo.org kein Material zu diesem Thema zu haben.

Auf die Überlegung wird in dieser Frage und Antwort angespielt , aber keine direkte Erläuterung gegeben, die ich finden konnte.

Interessanterweise sind die Antworten auf diese ähnliche Frage massiv unterschiedlich. Der eine sagt "möglicherweise täglich" und der andere sagt "sollte bis 2020 einen sehen". Beide liefern keine Begründung.

In ihrer jetzigen Form denke ich, dass dies eine ziemlich gute Frage ist – aber sie wurde an anderer Stelle erneut gestellt, und es nützt uns nichts, wenn wir im Wesentlichen dieselbe Frage an zwei Stellen gleichzeitig offen haben. Da es so aussieht, als ob die andere Frage gepostet wurde, bevor die letzte Änderung an dieser vorgenommen wurde, und die andere bereits eine akzeptierte Antwort hat, habe ich diese als Duplikat der anderen markiert. (Aber basierend auf ihren aktuellen Versionen ist es irgendwie willkürlich, welches das Duplikat ist; eines könnte für sich allein stehen. Wenn die Leute wirklich lieber das andere als Duplikat markieren möchten, kann ich das tun.)
@DavidZ Was und wie sind verschiedene Fragen.
@RobJeffries In diesem Fall glaube ich nicht, dass sie unterschiedlich genug sind, um als Nicht-Duplikate betrachtet zu werden. „Wie würden wir X schätzen“ und „Was ist (der Wert von) X“ ziehen die gleichen Antworten nach sich. Außerdem sagt die andere Frage wörtlich, dass es sich um eine neue Version dieser handelt. Wenn mindestens eine der Fragen erklärt, wie sie sich von der anderen unterscheidet , wäre ich empfänglicher für das Argument, dass es sich tatsächlich um unterschiedliche Fragen handelt.
@DavidZ Wenn die Fragen Duplikate wären, hätte ich meine Antwort einfach ausschneiden und einfügen können, oder?
@RobJeffries nicht im Allgemeinen. Wenn zwei Fragen Duplikate sind, sollten Sie für so ziemlich jede gültige Antwort, die Sie an das Duplikat posten würden, in der Lage sein, eine gültige Antwort mit denselben Kernideen an den Master zu posten. Aber Sie sollten nicht erwarten, dass Sie kopieren und einfügen können. In den meisten Fällen bedarf es einer kleinen Umformulierung.
@DavidZ mein (offensichtlich zu subtiler) Punkt ist, dass Sie sehen werden, dass meine Antwort nicht dieselbe ist, da die Frage kein Duplikat ist, obwohl vieles davon in Kommentaren enthalten ist, die ich jetzt löschen und auf diese Antwort verweisen werde.

Antworten (3)

Die einfache Argumentation in Mikaels Antwort macht Sinn. LIGO hat 1 starkes und 1 schwaches Ereignis in 16 Tagen übereinstimmender Daten erkannt (1 Kalendermonat Datenerfassung bei 50 % Einschaltdauer), daher sollte 1 Ereignis/Monat die richtige Größenordnung sein.

Beachten Sie, dass dies nicht die Rate aller GW-Ereignisse im Universum ist, sondern nur die beobachtbaren mit der aktuellen Empfindlichkeit von LIGO. Die beobachtbare Entfernung skaliert mit der Empfindlichkeit und die beobachtbare Rate mit dem beobachtbaren Volumen, das mit der dritten Potenz der Entfernung einhergeht. Dies bedeutet, dass eine Verbesserung der Empfindlichkeit um einen Faktor 2 die Nachweisrate um einen Faktor 8 erhöht. Das derzeitige LIGO sollte seine Empfindlichkeit hoffentlich durch eine Feinabstimmung des Instruments in den nächsten Jahren um einen Faktor 3 erhöhen, so dass dies mehrere Ereignisse werden sollte / Woche. Zukünftige neue Einrichtungen könnten dies um einen weiteren signifikanten Faktor erhöhen, spannend!

Eine alte (2010) Schätzung der nachweisbaren Rate basierend auf astrophysikalischen Modellen finden Sie hier . Aufgrund einer großen Unsicherheit in den Modellen liegen etwa 2 Größenordnungen zwischen pessimistischen und optimistischen Raten. Eine aktualisierte Rate aufgrund der Erkennung der ersten 1 oder 2 Ereignisse finden Sie hier . Ich glaube, das ist etwas besser als die vorhergesagte Rate für binäre Schwarze Löcher, aber wir müssen immer noch die ersten binären Neutronensterne beobachten. Das Erstellen von Statistiken mit nur 1 oder 2 Ereignissen führt natürlich zu großen Unsicherheiten, sollte Sie jedoch in die richtige Größenordnung bringen. Dies sollte sich stark verbessern, nachdem die ersten ~10 Ereignisse erkannt wurden.

Danke für deine Hilfe. Die "Antwort basierend auf Beobachtung" ist nicht wirklich das, wonach ich gefragt habe, es ist die Vorhersage dessen, was die Beobachtung sein sollte (das Papier, auf das Sie gezeigt haben), das ich verstehen möchte. Ich habe das Papier gefunden, auf das Sie hingewiesen haben. Ich denke, meine Frage könnte wie folgt umschrieben werden: "Kann jemand zusammenfassen, was dieses Papier beschreibt?" IE " Wie gehen wir vor, um die wahrscheinlichen/erwarteten Erkennungsraten vor der Erkennung zu schätzen?"

Dies wird eine Faustregelantwort sein, also nehmen Sie es mit einem Körnchen Salz.

Wenn es LIGO Zeit gekostet hat T um sein erstes Signal von der Verschmelzung von Schwarzen Löchern zu finden. Es ist sehr wahrscheinlich, dass das nächste Signal ungefähr zur gleichen Zeit kommt T nach dem ersten.

Diese Berechnung geht davon aus, dass die Signale unkorreliert (wahrscheinlich) und vergiftet sind, da es sich um diskrete Ereignisse ohne Erinnerung an andere Ereignisse handelt.

Dies ist eine schöne einfache Analyse - danke. Ich würde das gerne mit einer Schätzung vergleichen, wie oft wir denken, dass es passieren sollte , basierend auf unserem Wissen / unseren Theorien darüber, was vor sich geht.
Scheint, es gibt mehr Gerüchte über Signale. motls.blogspot.gr/2016/02/… , das wäre eine pro Monat in Ihrer Größenordnung.

Hier gibt es eine Menge Faktoren. Man könnte sie aufteilen in die intrinsischen Eigenschaften der Quellen, die Geometrie der Situation und die Empfindlichkeit des Detektors.

Die erste beinhaltet die Schätzung der Dichte potenzieller GW-Quellen in Abhängigkeit von ihrer Masse, ihrem Abstand und ihrer Entfernung von uns. Dies erfordert Modelle für die Entstehung von Schwarzen Löchern und Schwarzloch-Doppelsystemen als Funktion der Masse. Dies wiederum beinhaltet Annahmen und Modelle über die Geburtsraten massereicher Sterne, ihre Binarität und ihre Massenverlustraten. Sie müssen auch etwas über die Dichte von sternbildenden Galaxien annehmen.

Vor der GW-Ankündigung wurde erwartet, dass die Rate massiver BH-Fusionen zwischen 0,1 und etwa 1000 Gpc liegen würde 3 Jahr 1 ( Abadie et al. 2010 ).

Diese Rate kann verwendet werden, um eine Erkennungsrate abzuschätzen. Dies wird ausführlich in den LIGO-Entdeckungspapieren (z. B. Abbott et al. 2016a ) diskutiert und berücksichtigt die angenommene zufällige Richtung und Umlaufbahnneigung der Ereignisse, die intrinsische Belastungsempfindlichkeit des Instruments und ein kosmologisches Modell, um die Entfernung mit der Mitbewegung in Beziehung zu setzen Volumen. Dies führt zu einem effektiven Erkennungsvolumen, das mit einer theoretischen Rate multipliziert werden kann, um eine geschätzte Erkennungsrate zu erhalten. Betrachtet man nur die von Ihnen erwähnten Geometrieprobleme, scheint es, dass die zufällige Richtung und Ausrichtung einer Binärdatei das effektive Volumen bedeutenin der eine Detektion erfolgen könnte, wird um eine Größenordnung über die Grenzentfernung reduziert, auf die LIGO empfindlich ist, wenn die Geometrie optimal ist (dh frontal und über Kopf). Tatsächlich haben Abadie et al. (2010) schlagen vor, dass der geometrische Faktor ist 2.26 3 = 11.5

Das effektive Volumen hängt von der Masse des Schwarzen Lochs ab, da die GW-Dehnung für eine bestimmte Entfernung stark von der Masse abhängt. Es liegt bei etwa 0,1 Gpc 3 für die Verschmelzung von 10 Schwarzen Löchern mit Sonnenmasse und etwa 1,5 Gpc 3 für Schwarze Löcher mit 30 Sonnenmassen (siehe Abb. 4, rechte Tafel von Abbott et al. 2016a ).

Wenn wir von 0,1-1000 Ereignissen Gpc ausgehen 3 Jahr 1 Die Zahl bezieht sich auf 10 Sonnenmassen-BH-Fusionen (größere BHs sollten viel seltener sein), wir kommen zu einer erwarteten jährlichen Rate von 10 2 bis 100 erkannte Ereignisse. Die einzelne LIGO-Erkennung in Daten von 16 Tagen macht die oberen und unteren Enden dieses Bereichs äußerst unwahrscheinlich – Abbott et al. (2006b) schätzen eine Rate von 2-400 Gpc 3 Jahr 1 .

Es ist auch erwähnenswert, dass aLIGO in den kommenden Jahren etwa doppelt so empfindlich werden wird, was bedeutet, dass es etwa das 8-fache Volumen abtasten wird.