Ich habe kürzlich etwas über philosophische Ansichten der Wahrscheinlichkeit studiert und bin auf ein interessantes Problem gestoßen, das von Popper vorgebracht wurde:
Wahrscheinlichkeitsaussagen sind laut Popper nicht streng falsifizierbar. [Zum Beispiel wäre die Aussage „die Wahrscheinlichkeit, dass es morgen regnen würde gleich 0,85“ auch dann nicht verfälscht, wenn es morgen nicht regnen würde, da die Aussage indirekt auch sagt, dass die Wahrscheinlichkeit, dass es morgen nicht regnen würde, gleich 0,15 ist ; Wahrscheinlichkeitsaussagen ähneln also Aussagen, die alle Fälle abdecken: nämlich Aussagen der Form "A oder nicht A"].
Popper fügt jedoch hinzu, dass Wahrscheinlichkeitsaussagen von Wissenschaftlern dennoch als falsifizierbar angesehen werden. Im Gegenzug schlägt er vor, sie als solche zu behandeln, aber er scheint es den Statistikern zu überlassen, die Einzelheiten der Falsifizierung von Wahrscheinlichkeitsaussagen festzulegen.
Meine Frage besteht aus zwei Teilen:
Popper drückt seine Position zur Testbarkeit von Wahrscheinlichkeitsaussagen am deutlichsten am Ende von Abschnitt 68 der LScD aus, siehe auch Abschnitt 66. Seine Position ist, dass wir eine methodologische Regel darüber aufstellen müssen, welche relativen Häufigkeiten als konsistent mit einer Wahrscheinlichkeitsschätzung angesehen werden sollten . Diese Regel, so behauptet er, sollte nicht willkürlich sein, sondern ein Ergebnis der Genauigkeit sein, mit der die Regel mit verfügbarer Technologie getestet werden kann. In LScD befürwortete Popper die Häufigkeitstheorie der Wahrscheinlichkeit. Später änderte er seine Meinung und nahm eine Propensitätsinterpretation der Wahrscheinlichkeit an, was jedoch nichts an seiner Position zur Testbarkeit von Wahrscheinlichkeitsaussagen änderte. Die Propensitätsinterpretation postuliert eine Art Maß für die Menge möglicher Zustände, aber Popper tat es nicht
Eine zufriedenstellendere Erklärung der Testbarkeit probabilistischer Aussagen wurde von David Deutsch geliefert. Aussagen der Art, die gemeinhin als probabilisitisch bezeichnet werden, können getestet werden , wenn die Gesetze der Physik ein Maß für die Menge der Möglichkeiten liefern, das die Wahrscheinlichkeitsrechnung respektiert. Ein solches Maß wurde im Rahmen der Quantentheorie hergeleitet . Siehe auch einen Vortrag, den er zu diesem Thema gehalten hat.
Diese Antwort sollte als eine Art erweiterter Kommentar zu alanfs Antwort gelesen werden, der ich weitgehend zustimme, aber gerne qualifizieren möchte. Deutsch argumentiert, dass Wahrscheinlichkeiten aus physikalischen Theorien eliminiert werden können, mit anderen Worten, dass wir in einer physikalischen Theorie keine stochastischen Prozesse brauchen. Insbesondere ist er besorgt darüber, dass die Quantentheorie, die oft so interpretiert wurde, dass sie grundlegende Unbestimmtheiten beinhaltet, stattdessen als eine deterministische Darstellung dessen verstanden werden kann, wie sich Teilchen und Felder über eine Vielzahl von Welten hinweg verhalten, gemäß der Viele-Welten-Interpretation.
Deutsch fährt dann damit fort, den epistemischen Begriff der Glaubwürdigkeit zu verwerfen, aber dies muss nicht aus der Ablehnung physikalischer Wahrscheinlichkeiten folgen. Als kognitive Agenten mit begrenzten und unvollkommenen Fähigkeiten besitzen wir niemals perfekte Informationen über irgendetwas. Wann immer wir Entscheidungen treffen, was die ganze Zeit der Fall ist, sind wir gezwungen, diese Entscheidungen unter Unsicherheit zu treffen, und wenn wir diese Unsicherheit nicht irgendwie quantifizieren können, werden wir anfällig dafür sein, schlechte Entscheidungen zu treffen. Aus diesem Grund tauchen Wahrscheinlichkeiten in der Entscheidungstheorie auf: Es bedeutet nicht, dass wir Entscheidungen über stochastische Ereignisse treffen, sondern lediglich, dass wir Entscheidungen mit unvollständigen oder unvollkommenen Informationen treffen. Die Wahrscheinlichkeiten sind einfach dazu da, die Unsicherheit zu quantifizieren. Bruno de Finetti zeigte anhand niederländischer Buchargumente, wie Wir können von einer sehr harmlosen und plausiblen Vorstellung davon ausgehen, was eine schlechte oder irrationale Entscheidung ausmacht, und daraus die Wahrscheinlichkeitstheorie ableiten. Andere, darunter Richard Cox und Edwin Jaynes, haben gezeigt, wie ein primitiver Begriff der Inferenz verwendet werden kann, um die Wahrscheinlichkeit abzuleiten.
Das Ergebnis davon ist, dass induktives Denken unter Verwendung epistemischer Wahrscheinlichkeiten in der statistischen Praxis und insbesondere in den Bereichen maschinelles Lernen/künstliche Intelligenz sehr lebendig und gut ist und gedeiht. Was Ihre spezifische Frage betrifft, welche Arten von Tests Statistiker durchführen, gibt es keine allgemeine Einigung über die Methodik. Die drei Hauptlager sind klassisch (frequentistisch), Bayesianisch und Likelihoodist. Der klassische Ansatz umfasst im Großen und Ganzen das Bilden von Nullhypothesen, das Entwerfen von Experimenten, um sie zu testen, und das Zurückweisen der Hypothese, wenn die Ergebnisse signifikant sind (Fisher), oder das Testen von Hypothesen gemäß ihrer falsch-positiven und falsch-negativen Fehlerraten (Neyman und Pearson). Bayesianer spezifizieren vorherige Wahrscheinlichkeitsverteilungen und verwenden Daten, um diese Verteilungen zu aktualisieren.
Keine empirische Falsifikation ist jemals entscheidend dafür, ob die Theorie probabilistisch ist oder nicht. Popper diskutierte dies zB in Abschnitt 29 der LScD „THE RELATIVITY OF BASIC STATEMENTS“. Das grundlegende Problem, auch als Duhem-Quine-Problem bekannt, ist, wann immer Sie eine Widerlegung haben, entweder ist die widerlegte Theorie falsch ODER die Widerlegung selbst könnte falsch sein, so dass sie nie ganz klar, entscheidend und entschieden ist.
Was machst du stattdessen? Sie kritisieren und hören auf, nach Gewissheit zu suchen. Sie versuchen, schlechte Ideen zu finden und verwerfen sie. Ist es sinnvoll? Irgendwelche logischen Probleme? Löst es das Problem, das es lösen soll? Macht es irgendwelche Probleme? Sie suchen nach guten Eigenschaften für Ideen und Dinge, die mit ihnen nicht stimmen. Geben Sie Ihr Bestes, um Ihre Ideen zu überdenken und zu verbessern. Erweitern Sie Ihr Wissen, anstatt sich nach endgültigen, unbestreitbaren Antworten zu sehnen. Dies funktioniert mit probabilistischen und nicht-probabilistischen Theorien gleichermaßen.
Ich denke nicht, dass das kompliziert ist.
Wenn wir sagen, dass die Wahrscheinlichkeit eines Ereignisses sehr, sehr gering ist und es dann eintritt, dann ist diese Wahrscheinlichkeitsaussage verfälscht (mit einer sehr, sehr geringen Wahrscheinlichkeit, dass es sich um einen Fehler handelt). Dies ergibt eine Teilmenge von Wahrscheinlichkeitsaussagen, die falsifiziert werden können. Dies wäre der klassische statistische Ansatz von Fisher, Neyman und Pearson.
Beachten Sie, dass ein bereits eingetretenes Ereignis die Wahrscheinlichkeit 1 hat und es sinnlos ist, ihm eine andere Wahrscheinlichkeit zuzuordnen. Die Reihenfolge ist wichtig. Zum Beispiel würden wir einen Würfel nicht 10 Mal würfeln und 4 5 2 4 5 4 2 3 1 4 erhalten und dann weiter sagen, dass die Chance, diese Sequenz mit einem fairen Würfel zu erhalten, 1,6e-08 ist und dies daher ablehnen das ist ein fairer Würfel.
Zu Ihrem "Regenwahrscheinlichkeitsbeispiel": Die angegebene Wahrscheinlichkeit ist groß, also nicht falsifizierbar. Aus einer Theorie, die zur Berechnung solcher Wahrscheinlichkeiten verwendet werden kann, könnten Sie jedoch eine Wahrscheinlichkeitsaussage mit kleiner Wahrscheinlichkeit erhalten, z. B. "Die Wahrscheinlichkeit, dass es 100 Tage lang jeden Tag regnen wird, beträgt 1e-6". Wenn es dann 100 Tage lang jeden Tag regnen würde, wäre die Theorie widerlegt.
Ich bin mir nicht sicher, wie Popper das Problem gelöst hat, aber im Allgemeinen behandeln wir statistische Aussagen als eine Reihe von Ereignissen, nicht ein einzelnes Ereignis. Die Aussage „ein Uranatom hat eine X/Y-Wahrscheinlichkeit, in der Zeit T zu zerfallen“, bedeutet, dass wir erwarten, dass sich das beobachtete Verhältnis X/Y nähert, wenn wir mehr und mehr Atome beobachten.
In gewisser Weise ist dies immer noch nicht streng falsifizierbar, da statistischen Anomalien nichts im Wege steht. Es können jedoch Standards für akzeptable erwartete Abweichungen festgelegt werden.
Herr le Fou
Epoche
Cort Ammon
Guill
Konifold
LM-Student