Koinzidenzdetektoren im Bell-Test: Wie nah ist nah genug?

Wann ist ein Zufall ein Zufall? Wir wissen, dass die Elektronik zur Identifizierung verschränkter Photonen so eingestellt ist, dass sie nach gleichzeitigen Klicks an gegenüberliegenden Detektoren sucht. Die Größe des Fensters ist bis zu einem gewissen Grad beliebig. Was ich mich frage ist:

Wenn Sie ein Bell-Verschränkungsexperiment durchführen, bei dem Sie beispielsweise 100 Koinzidenzen pro Sekunde mit einem Intervall von 100 Pikosekunden erhalten, was passiert, wenn Sie das Fenster auf 200 Pikosekunden verdoppeln? Erwarten Sie im Allgemeinen 200 Zufälle pro Sekunde? Mir fallen drei mögliche Antworten ein und ich frage mich, welche am ehesten zutrifft:

  1. Wenn Ihr Fenster klein genug ist, spielt das Verdoppeln des Fensters keine Rolle, da Sie alle verfügbaren verschränkten Teilchen genau identifizieren. Sie erhalten immer noch 100 Zufälle pro Sekunde (oder möglicherweise ein paar mehr für wirklich sporadische Zufälle).

  2. Verdoppeln Sie das Fenster, verdoppeln Sie die Zufälle. Sie erhalten 200 pro Sekunde.

  3. Wenn Sie das Fenster verdoppeln, erhalten Sie viermal so viele Zufälle: 100 vollständig in der ersten Hälfte des Fensters, 100 in der zweiten Hälfte und 200 "Kreuzzufälle". 400 pro Sekunde insgesamt.

Ich hoffe, diese Frage ist sinnvoll und ich frage mich, was die Antwort ist.

Antworten (2)

Um ± 1 Nanosekunde. Die Daten können visualisiert werden, indem die Differenz zwischen den Zeitpunkten der Ereignisse an den beiden Enden des Bell-Experiments aufgetragen wird. Die Daten aus dem Experiment von Gregor Weihs, Phys.Rev.Lett. 81, 5031 (1998), führt zu der beigefügten Grafik (aus einer eingebetteten Postscript-Datei, eine viel klarere PDF-Version ist hier ), die einen sehr deutlichen Abfall der Koinzidenz außerhalb eines kleinen Bereichs von Zeitunterschieden zeigt.Zeitunterschied von jedem Ereignis von 'Alice' zum nächsten Ereignis von 'Bob'

Das Diagramm zeigt die Zeitdifferenz von jedem Ereignis von 'Alice' zum nächsten Ereignis von 'Bob', wobei nur Ereignisse darin enthalten sind ± 3 Nanosekunden angezeigt. In dem gezeigten 10-Sekunden-Zeitschlitz sind das 14841 von insgesamt 388660 Alice-Ereignissen. In sehr wenigen Fällen gibt es mehr als ein Bob-Ereignis innerhalb von 3 Nanosekunden des markierten Alice-Ereignisses. Wie Sie sehen, vergrößern Sie die Breite des Koinzidenzfensters oben ± 1 Nanosekunde wird relativ wenig Einfluss auf die Anzahl der Zufälle haben. Die unterschiedlichen grafischen Symbole zeigen Alices Versuchsergebnis für das bestimmte Alice-Ereignis an, ohne Bobs Versuchsergebnis zu zeigen.

Ich bedauere, dass ich keine vergleichbaren Daten für ein anderes Experiment habe, daher kann ich Ihnen nicht sagen, ob verschiedene experimentelle Apparaturen unterschiedliche Abhängigkeiten von der Breite des Koinzidenzfensters zeigen.

BEARBEITEN: Als Antwort auf die folgenden Kommentare ein anderes Diagramm, das vor langer Zeit erstellt wurde, sodass ich nicht sicher bin, ob es sich um dieselben Daten handelt, aber ich bin mir ziemlich sicher, dass die Funktionen generisch sind. 8192 ZeitunterschiedeDiese Graphen (der 2. und 3. Graph sind nur der erste am Ursprung vergrößerte Graph) zeichnen die ich 'te sortierte Zeitdifferenz zwischen Alices TOE (Times Of Events) und dem nächsten Bobs TOE für 8192 Alice-Ereignisse. Die Sortierung von CTDs (Closest TOE Differences) lässt den Graph monoton ansteigend werden. In diesem Fall gibt es nur 8192 Alice-Ereignisse statt der 388660 Alice-Ereignisse in der vollen „ longdist34" Datensatz. Wenn man sich das zweite Diagramm ansieht, gibt es etwas weniger als 400 Alice-Ereignisse, für die die entsprechende CTD weniger als etwa 0,1 Mikrosekunden beträgt; im dritten Diagramm gibt es 135 Ereignisse mit CTDs von weniger als 1 Nanosekunde (die Sprünge sind weil bei Damals arbeitete ich mit CTDs mit einer Auflösung von 1 Nanosekunde, während ich später entdeckte, dass die Daten eine höhere Auflösung aufweisen; die Auflösung und systematischen Variationen der Zeitstempel der beiden Uhren zu den Zeitpunkten von Ereignissen (die in der Alice- und Bob-Datensätze) sind definitiv Probleme zu verstehen, aber ich ignoriere sie hier).

In der ersten Grafik sieht man einen fast linearen Anstieg von 350 Ereignissen bis etwa 5000 Ereignisse, dann gibt es relativ weniger Ereignisse, die längere Zeitunterschiede haben. Die Unterbrechung ist unvermeidlich, da Bobs Ereignisse selten durch lange Zeitintervalle getrennt sind, so dass die größte CTD relativ unwahrscheinlich länger ist als der durchschnittliche Zeitabstand zwischen Bobs Ereignissen. In diesem Fall beträgt die längste CTD für 8192 Alice-Ereignisse etwa 0,14 Millisekunden. Ich denke, diese Grafiken enthalten eine Antwort auf Ihre Zusatzfragen in Ihren Kommentaren unten (wenn auch eine grafische Erklärung, nicht das, was ich eine mathematische Erklärung nennen würde).

Die Daten hier reichen nicht aus, um den Quantenfeld- (oder quantenoptischen) Zustand zu charakterisieren, der aus dem PDC-Kristall hervorgeht. Das würde verschiedene gut charakterisierte komplementäre Messungen dessen erfordern, was vermutlich eine willkürliche Überlagerung mehrerer Photonenzustände ist. Angemessene Charakterisierungen solcher Messungen erfordern eine Vielzahl gut charakterisierter Quellen mehrerer Photonenzustände. Wie Bjorn Wesen erwähnt, ist der Laser, der den PDC antreibt, nicht die einzige Ursache für Ereignisse im Apparat, aber eine Trennung in Komponenten wie thermische Dunkelzählungen ist eine heikle theoretische Wahl.
Eine Trennung in verschränkte und gewöhnliche Photonen ist streng genommen nicht möglich, da jedes Alice-Ereignis, das kein entsprechendes Bob-Ereignis zu haben scheint , nur als Folge einer Nichtdetektion des entsprechenden Ereignisses angesehen werden muss. Insbesondere emittiert die Quelle nur Licht mit der doppelten Frequenz des detektierten Lichts, so dass im Quantenmodellierungsregime der durch den PDC-Kristall implementierte nichtlineare Prozess notwendigerweise jedes Quellenphoton in zwei Photonen aufteilt.
Punkt gut getroffen. Aber Sie verstehen, was ich mit zwei überlappenden Datensätzen meine, hoffe ich? Die Ereignisdichte außerhalb des 1-Nanosekunden-Bandes ist einfach zu stabil, um der Schwanz eines reinen Poisson zu sein. Wenn es sich nicht um gewöhnliche Photonen handelt, kann ich dann spekulieren, dass die verschränkten Photonen in zwei Varianten vorkommen: Singulett- und Triplett-Zustand? Vielleicht haben die Triplettzustandsphotonen eine schmalere Übergangsbandbreite, sodass sie über einen längeren Zeitrahmen kohärent sind?
Ja, Sie sollten einen Boden von Nicht-Koinzidenz-Zählungen haben, sowohl von Dunkelzählungen des Detektors selbst (aufgrund thermischer Anregung) als auch von Photonen, die von etwas anderem als dem Laser und dem SPDC ankommen.
@bjorn das ist mein Problem. Ich versuche, die Gesamtzahl der Alice-Ereignisse (388860 über 10 Sekunden) mit der beobachteten Häufigkeit der Zählungen innerhalb des 3-ns-Fensters in Einklang zu bringen. Wenn ich annehme, dass alles außerhalb des 1-n-Sekunden-Bandes auf Dark Counts zurückzuführen ist, dann sollte es unter der Annahme von Poisson fast 4.000.000 Alice-Ereignisse über das 10-Sekunden-Intervall geben. (Nach meiner ungefähren Schätzung: Ich zähle etwa 200 Ereignisse pro Sekunde zwischen dem 1-ns- und 3-ns-Band.) Ich habe also eine Diskrepanz von einem Faktor 10 beim Verständnis der präsentierten Daten.
Um mein Problem zu verdeutlichen: Um die Statistik abzuschätzen, nehme ich die gemeldeten 380.000 Alice-Ereignisse (ca. 40.000 pro Sekunde) und finde heraus, dass sie im Durchschnitt 25000 ns voneinander entfernt sind. Nennen wir sie der Argumentation halber dunkle Grafen. Dann frage ich: Wie oft werden zwei benachbarte Dunkelzählungen im Abstand von 2,5 ns auftreten? Sie können sehen, dass hier ein Faktor von 10.000 vorhanden ist, was zu einer Schätzung von etwa 4 Dark-Count-Zufällen pro Sekunde führt. Aber anhand des Diagramms muss ich fast 200 Zufälle außerhalb des 1-Nanosekunden-Bandes rechtfertigen. Was sind sie also?
Ich sehe nicht, welche Gründe es gibt anzunehmen, dass die Verteilung Poisson sein sollte? Ich habe dieselbe Grafik, jedoch mit 100-ns-Grenzen, auf pantheon.yale.edu/~pwm22/longdist34-Alice+-100ns.pdf hochgeladen . Sie werden sehen, dass es zwischen den Daten einen Echoeffekt gibt ± 20 ns, das nicht bemerkt wurde, als die experimentelle Apparatur noch existierte, und was die Verletzung der Bell-CHSH-Ungleichungen nicht beeinflusst, aber dass ansonsten die Verteilung der Zeitunterschiede zwischen Alice-Ereignissen und dem nächstgelegenen Bob-Ereignis mehr oder weniger gleichmäßig ist. Der Echoeffekt selbst ist eine Abweichung von Poisson.
Lassen wir das bizarre Echo vorerst als experimentelles Artefakt außer Acht. Ich "nehme" Poisson-Statistiken an, weil es keine Notwendigkeit gibt, das Poisson-Verhalten zu erklären ... es "ist einfach". Die deutliche Abweichung von Poisson, die Ihre neuen Daten ans Licht bringen, bedeutet, dass einige ungeklärte physikalische Vorgänge im Gange sind. Wenn wir extrapolieren: 15.000 Ereignisse innerhalb des 3-ns-Bands, 20.000 Ereignisse innerhalb des 100-ns-Bands ... erhalten wir alle 400.000 Ereignisse innerhalb eines 8000-ns-Bands bei einem durchschnittlichen Abstand zwischen Ereignissen von 4 Mikrosekunden. Wir sollten daher etwa 2,5 Millionen Erkennungsereignisse "erwarten" ... nicht die 400.000 gemeldeten. Was gibt?
Peter, deine neuen Daten liefern eine verlockende Beinahe-Bestätigung meiner Analyse deiner früheren Daten. Sie haben eine 2-3 ns breite Zone von "verschränkten" Ereignissen und eine zweite Zone in der Größenordnung von 100-mal breiter von "Dark Count"-Zufällen. Wenn man das verschränkte Band ignoriert, sind die "Dunkelzählungs"-Ereignisse im Durchschnitt etwa 10 ms voneinander entfernt. Aber Ihnen fehlt das eine Datenelement, das alles zusammenhalten würde: die verstrichene Gesamtzeit! 8000 Ereignisse im Abstand von 10 ms sollten eine verstrichene Gesamtzeit von 80 s bedeuten. Dies ist die Berechnung, die nicht in Ihren früheren Datensatz passte. Hast du die verstrichene Zeit?
Dieser spezielle Satz von 8192 Alice-Ereignissen ereignete sich in 0,204805015 Sekunden (das ist der Unterschied zwischen dem ersten und dem letzten TOE), sehr nahe an 25 Mikrosekunden pro Ereignis im Durchschnitt (ich glaube nicht signifikant). Dies stammt zwar aus einem etwas anderen Datensatz als die anderen Grafiken, longdist35 in den Daten von Gregor Weihs statt longdist34, aber diese sind ziemlich genau vergleichbar. Etwas weniger als 1/20 der Alice-Ereignisse haben zufällig ein Bob-Ereignis.
OK, ich habe Mikro- und Millisekunden verwechselt, also ergibt mein Lesen des Diagramms einen Durchschnitt von 10 Mikrosekunden zwischen Ereignissen, innerhalb eines Faktors von 2, was Ihre überarbeiteten Daten zeigen. Dies kann durch normale Bündelung (Nicht-Poisson-Verteilung von thermischem usw. Licht) erklärt werden. Ich denke immer noch, dass die Diskrepanz (Faktor sechs) in der ersten Reihe von Punkten etwas groß ist, besonders wenn man bedenkt, wie viele Daten Sie mir zum Arbeiten gegeben haben.

Jeder Koinzidenztest wird mit der zufälligen Zufallsrate verglichen. Um die Chance zu finden, verwenden Sie jeweils nur einen Detektor, um die Klickraten zu lesen. R 1 Und R 2 , für jeden Detektor. Es gibt ein Zeitfenster, Δ T , innerhalb dessen Sie sowohl die Wahrscheinlichkeitsrate als auch die bestimmen Δ T innerhalb derer Sie in Ihrem Experiment als Zufall gelten. Die Wahrscheinlichkeitsrate ist R 1 R 2 Δ T . Wenn Sie das Experiment durchführen, verwenden Sie ein Zeitdifferenzdiagramm, das wie ein Peak in der Mitte des Diagramms aussehen sollte, der bei einer Klickzeitdifferenz von null zwischen den Detektoren liegt. Hier werden Sie wählen Δ T sodass der Großteil dieses Peaks beim Zählen gleichzeitiger Klicks verwendet wird. Jede Spitze in diesem Diagramm bedeutet, dass das Experiment besser als der Zufall abgelesen wird. Ich habe viele solcher Experimente durchgeführt, aber sie wurden mit jeweils einem "Partikel" emittiert, anstatt mit zwei, die in einem typischen Bell-Test verwendet werden.