Können wir die Formel für den exponentiellen radioaktiven Zerfall aus den Grundprinzipien finden?

Können wir die Formel für den exponentiellen radioaktiven Zerfall aus den Grundprinzipien finden? Es wird immer als empirisches Ergebnis präsentiert und nicht als eines, das Sie aus den ersten Prinzipien erhalten können. Ich habe mich im Internet umgesehen, kann aber nicht wirklich Informationen darüber finden, wie man es nach den ersten Prinzipien berechnet. Ich habe Berechnungen der Zerfallsrate in Tongs qft-Notizen für Spielzeugmodelle gesehen, aber nie eine tatsächliche physikalische Berechnung, also habe ich mich gefragt, ob es möglich ist, und wenn ja, ob mich jemand mit dem Ergebnis verknüpfen könnte.

Alles, was Ihnen eine konstante Wahrscheinlichkeit pro Kern gibt, liefert sofort das Ergebnis. Ein Standardlabor besteht darin, Würfel zu würfeln und diejenigen abzuwerfen, die eine 1 zeigen.
Mir ist bewusst, dass Sie einen exponentiellen Abfall erhalten, wenn die Abklingrate proportional zum aktuellen Wert ist. Was ich frage, ist, ob es einen ersten prinzipiellen Weg gibt, um zu zeigen, dass sich der Kern tatsächlich so verhält.
Ich kenne kein Beispiel, aber ich würde argumentieren, dass es in einem instabil gebundenen Quantensystem mit einer beträchtlichen Halbwertszeit fast unvermeidlich ist: Der Zerfall resultiert aus einer kleinen Störung eines ansonsten stationären Zustands.
Eine First-Principle-Behandlung ergibt kein exaktes exponentielles Abklinggesetz, siehe zB hier .
@dmckee es ist unvermeidlich, wenn die zerfallenden Kerne unabhängig sind. Gäbe es irgendein Feld zwischen Atomen, könnten Sie ein anderes Gesetz haben.

Antworten (4)

Wenn Sie sehr pingelig sein wollen, der Abfall wird nicht exponentiell sein. Die exponentielle Annäherung bricht sowohl zu kleinen als auch zu langen Zeiten zusammen:

  • Bei kleinen Zeiten schreibt die Störungstheorie vor, dass die Amplitude des Zerfallskanals linear mit der Zeit zunimmt, was bedeutet, dass die Zerfallswahrscheinlichkeit bei kleinen Zeiten nur quadratisch ist und die Überlebenswahrscheinlichkeit leicht gerundet ist t = 0 vor dem Untergehen als e t / τ . Dies sollte nicht überraschen, da die Überlebenswahrscheinlichkeit zeitumkehrinvariant ist und daher eine gerade Funktion sein sollte.

  • Bei sehr langen Zeiten gibt es Grenzen dafür, wie schnell die Amplitude des gebundenen Zustands abklingen kann, die im Wesentlichen darauf zurückzuführen sind, dass der Hamiltonian von unten begrenzt ist, und die ich unten im Detail demonstriere.

Beide Regime sind experimentell sehr schwer zu beobachten. Bei kurzen Zeiten benötigen Sie normalerweise eine sehr gute Zeitauflösung und die Fähigkeit, Ihr System sofort vorzubereiten. Lange Zeit müssten Sie wahrscheinlich nicht so weit hinausgehen, aber es ist normalerweise sehr schwierig, ein gutes Signal-Rausch-Verhältnis zu erzielen, da der exponentielle Abfall so ziemlich alle Ihre Systeme zerstört hat, sodass Sie sehr groß sein müssen Bevölkerung, um dies wirklich zu sehen.

Beide Arten von Abweichungen können jedoch tatsächlich experimentell beobachtet werden. Zu langen Zeiten ist die erste Beobachtung

Verletzung des Exponential-Decay-Gesetzes zu langen Zeiten. C Rothe, SI Hintschich und AP Monkman. Phys. Rev. Lett. 96 163601 (2006) ; Eprint der Durham University .

(Um die Schwierigkeit dieser Beobachtungen zu betonen, mussten sie ein instabiles System über 20 Lebenszeiten beobachten, um die Abweichungen von der Exponentialzeit zu beobachten 10 9 der Bevölkerung bleibt.) Für kurze Zeit sind die ersten Beobachtungen

Experimentelle Beweise für nicht-exponentiellen Zerfall beim Quantentunneln. SR Wilkinson et al. Natur 387 Nr. 6633 S. 575 (1997) . UT Austin eprint ,

die das Tunneln von Natriumatomen innerhalb eines optischen Gitters gemessen haben, und

Beobachtung der Quanten-Zeno- und Anti-Zeno-Effekte in einem instabilen System. MC Fischer, B Gutiérrez-Medina und MG Raizen. Phys. Rev. Lett. 87 , 040402 (2001) , UT Austin eprint (ps) .

Um es klar zu sagen, die Überlebenswahrscheinlichkeit eines metastabilen Zustands ist für alle praktischen Absichten und Zwecke exponentiell. Nur mit einem sorgfältigen Experiment - mit großen Populationen über sehr lange Zeiträume oder mit sehr feiner zeitlicher Kontrolle - können Sie diese Abweichungen beobachten.


Stellen Sie sich ein System vor, das um initialisiert wurde t = 0 im Staat | ψ ( 0 ) = | φ und sich unter einem zeitunabhängigen Hamiltonian entwickeln gelassen H . Zum Zeitpunkt t , die Überlebensamplitude ist per Definition

EIN ( t ) = φ | ψ ( t ) = φ | e ich H t | φ
und die Überlebenswahrscheinlichkeit ist P ( t ) = | EIN ( t ) | 2 . (Beachten Sie jedoch, dass dies eine vernünftige, aber geladene Definition ist; weitere Einzelheiten finden Sie in dieser anderen Antwort von mir .) Nehmen Sie das an H hat eine vollständige Eigenbasis | E , a , die durch einen zusätzlichen Index ergänzt werden kann a bezeichnet die Eigenwerte einer Menge a von Operatoren, um ein CSCO zu bilden , sodass Sie den Identitätsoperator schreiben können als
1 = d E d a | E , a E , a | .
Wenn Sie dies in den Ausdruck for einfügen EIN ( t ) Sie können es einfach in das Formular einbringen
EIN ( t ) = d E B ( E ) e ich E t , wo B ( E ) = d a | E , a | φ | 2 .
Hier ist das leicht zu sehen B ( E ) 0 und B ( E ) d E = 1 , Also B ( E ) muss sich ziemlich gut benehmen, und vor allem ist es in L 1 über das Energiespektrum.

Hier kommt das Energiespektrum ins Spiel. In jeder tatsächlichen physikalischen Theorie muss das Spektrum des Hamilton-Operators von unten begrenzt werden, damit es eine minimale Energie gibt E Mindest , der Einfachheit halber auf 0 gesetzt, unterhalb dessen das Spektrum keine Unterstützung hat. Das sieht ziemlich unschuldig aus und ermöglicht es uns, unseren Ausdruck zu verfeinern EIN ( t ) ins harmlos aussehende

(1) EIN ( t ) = 0 d E B ( E ) e ich E t .
Wie sich herausstellt, hat dies nun den asymptotischen Zerfall verhindert e t / τ vom Geschehen.

Der Grund dafür liegt in dieser Form EIN ( t ) ist in der unteren Halbebene analytisch. Um dies zu sehen, betrachten Sie eine komplexe Zeit t C , wofür

| EIN ( t ) | = | 0 B ( E ) e ich E t d E | 0 | B ( E ) e ich E t | d E = 0 | B ( E ) | e + E ich m ( t ) d E 0 | B ( E ) | d E = 1.
wie ich m ( t ) < 0 . Das bedeutet, dass das Integral ( 1 ) existiert für alle t wofür ich m ( t ) 0 , und aufgrund seiner Form bedeutet es, dass es analytisch in ist t im Inneren dieser Region.

Das ist schön, aber auch vernichtend, denn analytische Funktionen können in ihrem Verhalten sehr eingeschränkt sein. Im Speziellen, EIN ( t ) wächst exponentiell in Richtung aufsteigend ich m ( t ) und fällt exponentiell in Richtung abnehmend ab ich m ( t ) . Dies bedeutet, dass sein Verhalten entlang R e ( t ) sollte im Prinzip so etwas wie Oszillation sein, aber Sie können mit so etwas wie einem Zerfall davonkommen. Womit Sie jedoch nicht davonkommen können, ist ein exponentieller Abfall entlang beider Richtungen R e ( t ) - es ist einfach nicht mehr mit den Anforderungen der Analytik vereinbar.

Der Weg, dies zu präzisieren, besteht darin, das sogenannte Paley-Wiener-Theorem zu verwenden, das dies in diesem speziellen Umfeld erfordert

| ln | EIN ( t ) | | 1 + t 2 d t < .
Das ist natürlich ein wackeliges Integral, wenn jemand jemals eines gesehen hat, aber Sie können das sehen, wenn EIN ( t ) e | t | / τ für große Zeiten | t | ( EIN ( t ) muss zeitumkehrsymmetrisch sein), dann divergiert das linke Integral (nur knapp). Es gibt noch mehr darüber zu sagen, warum dies passiert, aber für mich ist das Fazit: Die Analytik erfordert einige Einschränkungen, wie schnell EIN ( t ) kann entlang der reellen Achse abfallen, und wenn Sie die Berechnung durchführen, stellt sich heraus, dass es das ist.

(Für diejenigen, die sich fragen: Ja, diese Grenze ist gesättigt. Der Ort, an dem man mit dem Graben beginnen sollte, ist das Beurling-Malliavin-Theorem, aber ich kann nicht versprechen, dass es nicht schmerzhaft sein wird.)


Weitere Einzelheiten zu den Beweisen und der Intuition hinter diesem Zeug finden Sie in meiner MathOverflow-Frage The Paley-Wiener Theorem and exponential Decay und Alexandre Eremenkos Antwort dort sowie in dem Artikel

L. Fonda, GC Ghirardi und A. Rimini. Zerfallstheorie instabiler Quantensysteme. Rep. Prog. Phys. 41 , Seiten 587-631 (1978) . §3.1 und 3.2.

von dem die meisten dieser Sachen genommen wurden.

Erklärt dies auch den radioaktiven Alpha-Zerfall und das Geiger-Nutall-Gesetz über die Zerfallskonstante (Halbwertszeit) und Energie von Alpha-Teilchen, das erstmals 1928 von Gamow mithilfe einfacher Quantenmechanik erreicht wurde?
@freecharly Dies ist ein Theorem, es "erklärt" nichts außer der Tatsache, dass jeder QM-Formalismus, dessen Endergebnisse ein exponentieller Abfall sind, entweder ungefähr ist oder etwas berechnet, das keine Überlebensamplitude ist. Näheres ist der zitierten Literatur zu entnehmen.

Es stimmt im Allgemeinen nicht, dass der radioaktive Zerfall exponentiell ist. Die Antwort von Emilio Pisanty diskutiert dies aus einer ausgefallenen mathematischen Sicht, aber es ist möglich, dies in äußerst elementaren Begriffen zu verstehen.

Der exponentielle Zerfall folgt aus Linearität, Irreversibilität und der Annahme eines wohldefinierten Anfangszustands

Auf Gebieten wie der Atom- und Kernphysik stellen wir uns den Anfangszustand des Zerfalls normalerweise als einen einzigen Zustand vor, der eine bestimmte Energie hat. In diesen Beispielen ist dies normalerweise eine ausgezeichnete Annäherung, da die durch das Energie-Zeit-Unsicherheitsprinzip auferlegte Energieunsicherheit viel kleiner ist als die Anregungsenergien. Beispielsweise könnte der erste angeregte Zustand eines Kerns typischerweise eine Anregungsenergie von 1 MeV und eine Gamma-Zerfallslebensdauer von 1 ps haben, was ihm eine Energieunsicherheit verleiht Δ E 10 8 MeV. Die Beziehung Δ E E , wo E die Energie des Zerfalls ist, wird im Kontext der Atomphysik die Weisskopf-Wigner-Näherung genannt. Wenn diese Annäherung zutrifft, hat der anfängliche, instabile Zustand kein internes Gedächtnis oder keine Dynamik, die sich auf das Problem auswirken könnte.

Lassen | 0 der instabile Zustand sein, und lassen | ich ein Endzustand sein, der durch Quantenzahlen gekennzeichnet ist ich . Liegt der (normalisierte) Zustand bei t = 0 ist

Ψ 0 = | 0 ,

dann werden wir zu einem späteren Zeitpunkt einen anderen Zustand haben

Ψ 1 = a | 0 + b ich | ich .

Der neue Zustand wird erhalten als Ψ 1 = M Ψ 0 , wo M ist der Zeitentwicklungsoperator für jedes Zeitintervall, über das wir sprechen. Nehmen wir nun an, dass der Zerfall irreversibel ist, so dass M | ich nie überlappt mit | 0 . Wenn wir dann mit operieren M ein zweites Mal bekommen wir

Ψ 2 = a 2 | 0 +

Dies ist ein exponentieller Zerfall, wobei die Überlebenswahrscheinlichkeit wie folgt ist 1 , | a | 2 , | a | 4 , ... Wir müssen haben | a | 1 durch Unitarität, da sonst eine Normalisierung scheitern würde t > 0 . (Wir könnten natürlich eine irreversible Absorption anstelle einer irreversiblen Emission haben, und dann | a | 1 , aber dann kann der Anfangszustand nicht sein | 0 . Der Fall | a | = 1 passiert wann | 0 ist ein exakter Energieeigenzustand.)

Das scheint also ein eisernes Argument dafür zu sein, dass der Verfall exponentiell sein muss . Was könnte möglicherweise falsch laufen?

Ausfall zu kurzen Zeiten

Eine Sache, die schief geht, ist, wenn wir in der Zeit bis rückwärts extrapolieren t < 0 . Die Wahrscheinlichkeit des instabilen Zustands ist jetzt größer als 1, was die Einheitlichkeit verletzt. Das bedeutet, dass das Verhalten aus rein trivialen Gründen nicht für alle exponentiell sein kann t . Zu frühen Zeitpunkten muss es ein stark nichtexponentielles Verhalten geben, und wir erwarten einen sanften Übergang zwischen den beiden Regimen.

Daran ist nichts schrecklich Mysteriöses, und es erfordert keine ausgefallenen Ideen über Fourier-Transformationen oder Quantenfeldtheorie. Es hat nur mit der Vorbereitung des Anfangszustandes zu tun. Angenommen, wir bauen ein Potential auf, das aus einem Brunnen, einer Barriere und einem Außenbereich besteht, und wir lösen die eindimensionale Schrödinger-Gleichung in diesem Potential. Wenn wir unsere Simulation beginnen, indem wir die Wellenfunktion so initialisieren, dass sie eine beliebige Form innerhalb des instabilen Wells hat, dann wird sie aus einer Mischung von Energiezuständen bestehen. Die Zustände höherer Energie tunneln mit hoher Geschwindigkeit durch die Barriere. Nach kurzer Zeit sind sie alle weg, und wir haben etwas innerhalb der Barriere, das wie ein Stehwellenmuster mit halber Wellenlänge aussieht. Diese wird dann wie oben beschrieben exponentiell abklingen.

Man könnte sagen, dass Sie das System zunächst nur in einem Energie-Eigenzustand vorbereiten, sodass es keine Übergangszeit gibt, bevor das exponentielle Verhalten einsetzt. Das funktioniert nicht, weil die Energie-Eigenzustände nicht innerhalb des metastabilen Brunnens lokalisiert sind. Zustände guter Energie sind nicht lokalisiert, und lokalisierte Zustände sind keine Zustände guter Energie. Ein lokalisierter Zustand kann ungefähr ein Zustand guter Energie sein, und es ist diese Annäherung, die wir implizit in den meisten Fällen in der Atom- und Kernphysik machen – die Weisskopf-Wigner-Näherung.

Versagen über lange Zeit

Zu sehr langen Zeiten gibt es einen anderen Grund, Abweichungen vom exponentiellen Verhalten zu erwarten. Ein nachlaufendes Exponential fällt schnell um eine Größenordnung nach der anderen ab. Wenn es überhaupt eine Rate für den inversen Prozess gibt (z. B. Reabsorption eines Photons), dann wird es einen Zeitpunkt geben, an dem diese Rate die Zerfallsrate ausgleicht. Da Exponentiale so schnell absterben, erwarten wir eigentlich nicht, dass diese Zeit sehr lang sein wird, obwohl es von der Umgebung abhängt. Jenseits dieses Zeitpunkts nähert sich die Emissionsrate einer Konstante ungleich Null, die gleich der Absorptionsrate ist.

Ein experimentelles Beispiel dieser Art ist Rothe et al., „Violation of the Exponential-Decay Law at Long Times“, Physical Review Letters, 96(16), doi:10.1103/physrevlett.96.163601. Es scheint nicht auf arxiv zu sein, aber Sie können es auf sci-hub finden. Sie verwendeten lumineszierende organische Moleküle in einer Lösung aus Toluol oder Ethanol. Sie regten die Moleküle mit einem gepulsten Laser an. Ich glaube nicht, dass daran etwas grundsätzlich Überraschendes oder Mysteriöses ist. Die Moleküle befinden sich in einer unordentlichen flüssigen Umgebung und sind dem Anstoßen durch die elektromagnetischen Felder anderer Moleküle ausgesetzt. In dieser Umgebung werden sie irgendwann wieder erregt. Es gibt einige nichttriviale Tatsachen über das mathematische Verhalten der Zerfallskurven, aber die bloße Tatsache einer Abweichung vom exponentiellen Zerfall kann nur darauf zurückzuführen sein, dass der Prozess nicht

Grundsätzlich mag ich elementare Erklärungen, aber ich denke, diese Erklärung ist so vereinfacht, dass sie nicht mehr richtig ist. Wenn Ihre Logik richtig wäre, müsste sie für alle gelten t , darunter sehr klein t > 0 . Aber das tut es nicht – was uns sagt, dass die Logik falsch ist.
@knzhou: Die Logik basiert auf einigen expliziten Annahmen, die ich dargelegt habe. Der knifflige Teil ist, dass diese Annahmen nicht so einfach zu erfüllen sind, wie Sie vielleicht denken. Die Annahme eines einzelnen wohldefinierten Anfangsenergie-Eigenzustands ist nur als Annäherung zu erfüllen, da die realen Energie-Eigenzustände Mischungen aus zerfallenen und nicht zerfallenen Zuständen sind. Tatsächlich besteht der größte Teil meiner Antwort aus detaillierten Beschreibungen, warum diese Annahmen nicht perfekt sind. Ein weiteres schönes Beispiel für die Schwierigkeit, die Annahmen zu erfüllen, ist, dass Sie sie nicht mit einem Zwei-Zustand-System erfüllen können.
Das ist nicht das Problem. In Ihrem anfänglichen Argument haben Sie die Tatsache nie verwendet | 0 war ein Energieeigenzustand. In der Tat hätte Ihr Argument nicht funktioniert, wenn das der Fall gewesen wäre, denn dann alle b ich wäre null gewesen. Ihr Argument beweist, dass ein exponentieller Zerfall für alle auftritt t für jeden Anfangszustand – weshalb es nicht richtig ist, es beweist zu viel.
@knzhou: In einem Energie-Eigenzustand passiert nie etwas, wie in der Basis der Energie-Eigenzustände beschrieben, aber Observablen ändern sich. Ihre bisherigen Kommentare haben mir nicht klar gemacht, was Ihr Einwand ist. Im Kontext der Atomphysik wird die gemachte Näherung als Weisskopf-Wigner-Näherung bezeichnet: dass die Breite klein ist im Vergleich zur Frequenz der emittierten Strahlung. Das beschreibe ich im ersten Zahlenbeispiel zum Kern. Der angeregte Zustand des Kerns ist in diesem Sinne eine ausgezeichnete Annäherung an einen Energieeigenzustand.
@knzhou: Ich verstehe. Ich glaube, wir haben unsere Kommentare zu überlappenden Zeiten bearbeitet. Jetzt verstehe ich deinen Einwand besser. Ihr Argument beweist, dass ein exponentieller Zerfall für alle 𝑡t für jeden Anfangszustand auftritt - weshalb es nicht richtig ist, es beweist zu viel. Fehlt Ihnen nicht die Annahme der Irreversibilität?
@knzhou: Ich habe einige Änderungen vorgenommen, um die Art der vorgenommenen Annäherungen zu verdeutlichen. Ich würde mich freuen, mehr Feedback von Ihnen zu bekommen, wenn Sie dies immer noch nicht befriedigend finden.
Das erste Argument hier ist gut, also +1 dafür (und willkommen!). Es besteht jedoch keine Notwendigkeit, Photoabsorption oder inverse Prozesse anzuführen, um das Versagen zu langen Zeiten zu erklären: Diese könnten immer noch (im Prinzip) mit einem ausreichend sauberen Experiment eliminiert werden, und das Versagen wäre immer noch vorhanden, da es dem intrinsisch ist Quantenmechanik des Prozesses. (Das heißt, ich habe keine intuitive Erklärung dafür, die nicht durch die Fourier-Analyse geht. Aber das bedeutet nicht, dass es nicht wahr ist.)

Jede Population, ob menschliche, tierische oder Atomkerne, wird sich ohne weitere Komplikationen proportional zu der bereits vorhandenen Menge ändern. Ergibt eine sehr einfache Differentialgleichung.

d P ( t ) d t = k P ( t )

wo k ist eine Konstante mit negativem Vorzeichen für exponentiellen Abfall und Pluszeichen für exponentiellen Anstieg.

dh die Lösung ist

P ( t ) = P ( t = 0 ) exp ( k t )

Ein einfacher und direkter Weg, um diesen Exponenten und die komplexen Eigenwerte zu erhalten, ist die Verwendung von Gamows Ansatz, der eine der ersten eingeführten Erklärungen der Alpha-Radioaktivität war.

Es löst die Schrödinger-Gleichung in WKB-Näherung, es sind keine ausgefallenen Mathematik- oder tiefgreifenden Kenntnisse in QM erforderlich, außer dass Sie mit WKB vertraut sind.

Eine gute Quelle dafür ist „Mohsen Razavy, Quantum Theory of Tunneling-World, Scientific Publishing (2013)“.