Wird die bedingte Erwartung immer diese "Eigenschaft" haben? (Verständnis/Erklärung der bedingten Erwartung)

Nehmen wir an, Sie haben einen Wahrscheinlichkeitsraum ( Ω , A , P ) , und eine Zufallsvariable X : Ω R auf diesem Platz. Angenommen, wir haben eine Sub-Sigma-Algebra G A . Das können wir dann zeigen μ X ( G ) = G X D P , ist ein Maß an ( Ω , G ) , ist es auch leicht zu sehen, dass dieses Maß in Bezug auf P absolut stetig ist. Der Radon-Nikodym-Satz sagt uns, dass wir eine Eindeutigkeit haben P -ae G -messbare Funktion E ( X | G ) An Ω , st μ X ( G ) = G E ( X | G ) D P , G G .

Mein Problem ist, dass es mir schwer fällt, es zu beschreiben E ( X | G ) Im Algemeinen. Wenn ich ein konkretes Beispiel wie folgt mache:

Ω = { 1 , 2 , 3 , 4 }

A = { , { 1 } , { 2 , 3 } , { 4 } , { 1 , 4 } , { 1 , 2 , 3 } , { 2 , 3 , 4 } , Ω } P ( { 1 } ) = 0,5 , P ( { 2 , 3 } ) = 0,25 , P ( { 4 } ) = 0,25

X ( 1 ) = 1 , X ( 2 ) = 3 , X ( 3 ) = 3 , X ( 4 ) = 4

G = { , { 1 , 4 } , { 2 , 3 } , Ω }

Dann ergibt eine Berechnung und unter Verwendung der Eindeutigkeit des Radon-Nikodym-Derivats Folgendes:

E ( X | G ) ( ω ) = 2 X { 1 , 4 } ( ω ) + 3 X { 2 , 3 } ( ω ) .

Jetzt kommt meine Frage: Aus Grundkursen in Wahrscheinlichkeit und Statistik können wir das zeigen E ( X | { 1 , 4 } ) = 2 Und E ( X | { 2 , 3 } ) = 3 .

In diesem Fall sehen wir also, dass die bedingte Erwartung folgendermaßen beschrieben werden kann: Wenn Sie nur zwischen den Mengen in unterscheiden können G dann ist der Wert der bedingten Erwartung für ein gegebenes Omega der Wert der bedingten Erwartung der Menge in G enthält Ω was "am kleinsten" ist, oder wo wir die meisten Möglichkeiten eliminiert haben, die nicht passiert sind, und dass die Sigma-Algebra G erlaubt uns zu entfernen.

Aber das war ein einfaches Beispiel. Und im Allgemeinen haben Sie möglicherweise keine kleinsten Sets wie dieses? Aber gibt es eine intuitive oder gute Erklärung für den Wert der bedingten Erwartung, wenn wir mit größeren Mengen wie zählbaren oder unzählbaren arbeiten? Gibt es in diesen Fällen eine äquivalente Ausdrucksweise, um den Wert der bedingten Erwartung mit der bedingten Erwartung einer Menge zu verknüpfen, wie sie in der Elementarstatistik gegeben ist? Oder gibt es einen Satz oder eine Erklärung, die verallgemeinert, was ich oben für "kleine" Mengen getan habe. Und gibt hier eine gute intuitive Rechtfertigung für die bedingte Erwartung?

Wenn Sie andere intuitive "Erklärungen" der bedingten Erwartung haben, würde ich sie auch gerne hören.

Antworten (1)

Wenn die σ -Algebra G wird durch eine endliche oder abzählbar unendliche Partition erzeugt { G 1 , G 2 , } von Ω hinein A - messbare Sätze, dann das "naive" Rezept

E [ X | G ] = N 1 G N E [ X | G N ]
ist gültig. Im Allgemeinen arbeiten wir mit der bedingten Erwartung, indem wir ihre verschiedenen Eigenschaften verwenden, und nicht, indem wir auf eine solche Formel wie oben gezeigt zurückgreifen. Das Schöne an Kolmogorovs Konstruktion der bedingten Erwartung mit Hilfe des Radon-Nikodym-Theorems ist, dass sie in vollständiger Allgemeinheit funktioniert.

Wenn G ist trennbar in dem Sinne, dass G = σ { A 1 , A 2 , } für eine Folge von A -messbare Sätze dann G N := σ { A 1 , , A N } wird durch eine endliche Partition erzeugt (disjointify the A k s) und so E [ X | G N ] wird explizit wie in obiger Darstellung angegeben. Darüber hinaus, E [ X | G N ] konvergiert zu E [ X | G ] sowohl fast sicher als auch in L 1 als N , nach dem Martingale-Konvergenzsatz. (Dies ist der Ansatz von John Walsh in seinem Text Knowing the Odds .) Vielleicht finden Sie diese Konstruktion intuitiver.

Selbst wenn G ist nicht trennbar, es gibt ein trennbares σ -Algebra G ' G so dass E [ X | G ] Ist G ' -messbar, und dann E [ X | G ] = E [ X | G ' ] durch die Turmeigenschaft bedingter Erwartungen. Die Erörterung des vorhergehenden Absatzes gilt nun. [Nehmen Sie zum Beispiel G ' von der zählbaren Sammlung generiert werden { ω Ω : E [ X | G ] ( ω ) Q } , Q Q , für eine Version von E [ X | G ] .]