Bitte erläutern Sie Goods Lösung, warum wir neue Beobachtungen machen sollten

Die Arbeit von IJ Good (1967) gibt eine Lösung für Ayers Problem, warum wir neue Beobachtungen machen sollten.

Ich versuche, den Schritten in seiner Lösung zu folgen.

Seine Vermutungen lauten:

  1. Es gibt r sich gegenseitig ausschließende und erschöpfende Hypothesen H 1 , H 2 , ..., H r .

  2. Nach einigen Beweisen E sind die Apriori-Wahrscheinlichkeiten p i = P(H|E) .

  3. Es gibt eine Beobachtung mit möglichen Ergebnissen E 1 , E 2 ,..., E t , wobei P(E k | H i ) = p ik ( i = 1, 2,..., r; k = 1, 2 , ..., t ).

Dann lässt er q ik = P(H i |E^E k ) = p i p ik / Sigma i (p i p ik ) das hintere von H i sein, wenn E k auftritt.

Dies ist nicht das Posterior, das ich bekomme, wenn ich das Bayes Theorem verwende:

P(H ich |E^E k ) = P(E k |H ich ^E) P(H ich |E) / Sigma ich (P(E k |H ich ^E) P(H ich |E) )

ist ungleich zu:

P(E k |H ich ) P(H ich |E) / Sigma ich (P(E k |H ich ) P(H ich |E)

Was die Formel von Good impliziert.

Wo ist mein Fehler? Ist P(E k |H i ^E) = P(E k |H i ) in dieser Formel? Warum?

Vielen Dank für Ihre Zeit.

Ich kenne dieses Papier nicht, daher kann ich nicht sagen, was der Autor im Sinn hatte. Aber eine Möglichkeit ist, dass die Beobachtungen unabhängig von H bedingt sind. Dann ist P(E_k | H_j, E) = P(E_k | H_j).

Antworten (1)

Ich denke, Ihre Beobachtung ist richtig. Die Bayes'sche Formel erfordert, dass wir durchgehend auf E konditionalisieren, wobei E (ohne Index) der Beweis ist, den wir bereits haben, dh es ist die Hintergrundinformation, und ist Teil der vorherigen Wahrscheinlichkeit der Hypothesen. Good geht davon aus, dass P(E k | H i ⋀ E) = P(E k | H i ) ist, was praktisch bedeutet, dass die Wahrscheinlichkeiten der verschiedenen möglichen Ergebnisse des Experiments, die die E k -Werte liefern, unabhängig vom Hintergrund E sind Ich bin nicht davon überzeugt, dass dies eine sichere Annahme ist.

Dies spielt im Zusammenhang mit Goods Argument möglicherweise keine Rolle. Goods Hauptargument in seinem Beitrag ist, dass das Prinzip der vollständigen Beweisführung damit gerechtfertigt werden kann, dass es dazu dient, den erwarteten Nutzen einer auf Beweisen basierenden Entscheidung zu maximieren, vorausgesetzt, dass die Kosten für die Beschaffung der Beweise vernachlässigbar sind. Oder anders ausgedrückt: Der erwartete Nutzen der Nutzung kostenloser Informationen ist niemals negativ. Dies würde für jeden individuellen Denker gelten, unabhängig von dem E, das die Hintergrundinformationen für diesen Denker darstellt.