Zeithomogenität und Markov-Eigenschaft

Meine Frage hängt möglicherweise mit dieser zusammen , aber ich konnte den Zusammenhang nicht herausfinden. Wie auch immer, hier sind wir: Ich lerne etwas über Markov-Ketten aus Rozanovs "Probability Theory a Concise Course". In diesem Buch wird eine Markov-Kette im Wesentlichen als eine Sammlung von diskreten Zufallsvariablen definiert ξ ( N ) in diskreter Zeit, die Zeithomogenität erfüllen, das heißt

P ( ξ ( N + 1 ) = ϵ J | ξ ( N ) = ϵ ich ) = P ( ξ ( 1 ) = ϵ J | ξ ( 0 ) = ϵ ich )
für alle N . Seltsamerweise die Markov-Eigenschaft
P ( ξ ( N + 1 ) = S | ξ ( 0 ) , ξ ( 1 ) , , ξ ( N ) ) = P ( ξ ( N + 1 ) = S | ξ ( N ) )
ist in der Hypothese nicht angegeben. Ich habe mich also gefragt, ob die Definition dies impliziert, dh ob die Zeithomogenität für Markov-Ketten die Markov-Eigenschaft impliziert.

Danke schön.


PS: Hier ist Rozanovs Definition expliziter:

Stellen Sie sich ein physikalisches System mit den folgenden Eigenschaften vor:

a) Das System kann eine endliche oder abzählbar unendliche Anzahl von Zuständen einnehmen ϵ 1 , ϵ 2 , ,

b) Ausgehend von einem Anfangszustand zu einem bestimmten Zeitpunkt T = 0 , ändert das System seinen Zustand zu den Zeiten zufällig T = 1 , 2 , . Wenn also die Zufallsvariable ξ ( T ) ist der aktuelle Zustand des Systems T , wird die zeitliche Entwicklung des Systems durch die aufeinanderfolgenden Übergänge (oder "Schritte") beschrieben ξ ( 0 ) ξ ( 1 ) ξ ( 2 )

c) Zur Zeit T = 0 , besetzt das System den Zustand ϵ ich mit Anfangswahrscheinlichkeit P ich 0 = P ( ξ ( 0 ) = ϵ ich ) , ich = 1 , 2 , .

d) Angenommen, das System befindet sich im Zustand ϵ ich jederzeit N . Dann die
Wahrscheinlichkeit, dass das System in den Zustand übergeht ϵ J im nächsten Schritt wird durch gegeben

P ich , J = P ( ξ ( N + 1 ) = ϵ J | ξ ( N ) = ϵ ich ) ,
ich , J = 1 , 2 , unabhängig von seinem Verhalten vor der Zeit N . Die Zahlen P ich , J Übergangswahrscheinlichkeiten genannt, hängen nicht von der Zeit n ab.

Ein durch dieses Modell beschriebener "zufälliger Prozess" wird als Markov-Kette bezeichnet.

"unabhängig von seinem Verhalten vor dem Zeitpunkt n" ist die Markov-Eigenschaft.
Es scheint mir, dass das einzige, was in diesem Kapitel verwendet wird, das ist P ich , J hängt nicht davon ab N . Also habe ich die gleiche Frage, wenn Sie nur die Info haben, dass P ich , J ist unabhängig von N und der Prozess ist somit zeithomogen, impliziert dies, dass Sie die Markov-Eigenschaft haben, oder gibt es Gegenbeispiele?
Die implizite Annahme ist informell, dass das Verhalten des Prozesses nur von der abhängt P ich J . Dies impliziert die Markov-Eigenschaft – tatsächlich ist es die Markov-Eigenschaft.
Ok, danke euch beiden, dass ihr das geklärt habt.

Antworten (1)

Lassen Z N bezeichnen eine iid-Zufallsvariablen, die einheitlich sind { 0 , 1 } und dann eine Sequenz definieren

X N = X N 1 + Z N + Z N 1 .
Dann ist es leicht zu sehen, dass dies zeithomogen ist, aber es hat nicht die Markov-Eigenschaft als Wissen von beiden X N 1 , X N 2 Auskunft geben könnte Z N 1 das hätte nicht bestimmt werden können ohne X N 2 .

Genauer gesagt,

P ( X N = 5 | X N 1 = 5 ) = 1 4 0 = P ( X N = 5 | X N 1 = 5 , X N 2 = 3 )