Wie können Wahrscheinlichkeitsaussagen falsifiziert werden?

Ich habe kürzlich etwas über philosophische Ansichten der Wahrscheinlichkeit studiert und bin auf ein interessantes Problem gestoßen, das von Popper vorgebracht wurde:

Wahrscheinlichkeitsaussagen sind laut Popper nicht streng falsifizierbar. [Zum Beispiel wäre die Aussage „die Wahrscheinlichkeit, dass es morgen regnen würde gleich 0,85“ auch dann nicht verfälscht, wenn es morgen nicht regnen würde, da die Aussage indirekt auch sagt, dass die Wahrscheinlichkeit, dass es morgen nicht regnen würde, gleich 0,15 ist ; Wahrscheinlichkeitsaussagen ähneln also Aussagen, die alle Fälle abdecken: nämlich Aussagen der Form "A oder nicht A"].

Popper fügt jedoch hinzu, dass Wahrscheinlichkeitsaussagen von Wissenschaftlern dennoch als falsifizierbar angesehen werden. Im Gegenzug schlägt er vor, sie als solche zu behandeln, aber er scheint es den Statistikern zu überlassen, die Einzelheiten der Falsifizierung von Wahrscheinlichkeitsaussagen festzulegen.

Meine Frage besteht aus zwei Teilen:

  1. Zu Poppers methodologischer Entscheidung, Wahrscheinlichkeitsaussagen als falsifizierbar zu bezeichnen: würde das nicht sein Abgrenzungskriterium schwächen? Würde es nicht jede Sozialwissenschaft, die auf Statistik beruht, wissenschaftlich machen?
  2. Zur Statistik (von der ich sehr wenig weiß): Welche Art von Tests führen Statistiker durch, um Hypothesen zu widerlegen?
2. Angenommen, die Wahrscheinlichkeit, dass A eintritt, ist 0,2 und die Wahrscheinlichkeit, dass B eintritt, ist 0,3. Unter der Annahme, dass A und B unabhängig sind, ist die Aussage: Die Wahrscheinlichkeit, dass A und B beide vorkommen, ist 0,5, ist falsifizierbar. (Grundlagen) Die Wahrscheinlichkeitstheorie sagt uns, dass die Wahrscheinlichkeit, dass A und B beide auftreten, tatsächlich 0,06 beträgt.
In einigen Fällen kann das Gesetz der großen Zahlen verwendet werden, um Wahrscheinlichkeiten zu verfälschen.
Ich hatte vor einiger Zeit eine Reihe von Fragen zu diesem Thema. Die Antwort schien zu sein, dass die Wissenschaftsphilosophie düsterer ist, als es die nette, einfache, klare Fälschung logischer Aussagen vermuten lässt. Aus den Antworten, die ich erhielt, ging hervor, dass der eigentliche Prozess der Falsifizierung eine Entführung beinhaltete, um Hypothesen abzulehnen, die hinreichend „unwahrscheinlich“ sind.
In Bezug auf den 2. Teil ist eine der Methoden, die verwendet werden können, die "Korrelation" mit einem Doppelblindtest.
Der statistische Teil wird in Hypothesis Testing: Fisher vs. Popper vs. Bayes hsm.stackexchange.com/questions/3176/… beantwortet , und Poppers Abgrenzung in Bezug auf die Sozialwissenschaften wird in Semantics of Poppers Demarkation Criteria Philosophy.stackexchange.com behandelt /Fragen/24530/…
Danke für alle Kommentare; und @conifold - vielen Dank für diese hilfreichen verwandten Links.

Antworten (5)

Popper drückt seine Position zur Testbarkeit von Wahrscheinlichkeitsaussagen am deutlichsten am Ende von Abschnitt 68 der LScD aus, siehe auch Abschnitt 66. Seine Position ist, dass wir eine methodologische Regel darüber aufstellen müssen, welche relativen Häufigkeiten als konsistent mit einer Wahrscheinlichkeitsschätzung angesehen werden sollten . Diese Regel, so behauptet er, sollte nicht willkürlich sein, sondern ein Ergebnis der Genauigkeit sein, mit der die Regel mit verfügbarer Technologie getestet werden kann. In LScD befürwortete Popper die Häufigkeitstheorie der Wahrscheinlichkeit. Später änderte er seine Meinung und nahm eine Propensitätsinterpretation der Wahrscheinlichkeit an, was jedoch nichts an seiner Position zur Testbarkeit von Wahrscheinlichkeitsaussagen änderte. Die Propensitätsinterpretation postuliert eine Art Maß für die Menge möglicher Zustände, aber Popper tat es nicht

Eine zufriedenstellendere Erklärung der Testbarkeit probabilistischer Aussagen wurde von David Deutsch geliefert. Aussagen der Art, die gemeinhin als probabilisitisch bezeichnet werden, können getestet werden , wenn die Gesetze der Physik ein Maß für die Menge der Möglichkeiten liefern, das die Wahrscheinlichkeitsrechnung respektiert. Ein solches Maß wurde im Rahmen der Quantentheorie hergeleitet . Siehe auch einen Vortrag, den er zu diesem Thema gehalten hat.

Nochmals vielen Dank, @alanf. Habe gerade den von Ihnen erwähnten Vortrag gehört und einen, wenn auch schnellen, Blick auf Deutschs Aufsatz 'The Logic of Experimental Tests' geworfen - muss ihn aber verarbeiten. Möchte es überprüfen – verzichtet er auf die Interpretation der Wahrscheinlichkeit, indem er sich auf die Mehrwelten-Metaphysik beruft? … Könnten Sie bitte seine Argumentation in einfachen Worten erklären? (Er sagt, er sei Popperianer, aber ... er nimmt Poppers Herangehensweise an die Wahrscheinlichkeit nicht an, indem er von objektiven Wahrscheinlichkeiten spricht - oder vielleicht habe ich ihn falsch verstanden).
Die meisten Diskussionen über Wahrscheinlichkeiten gehen davon aus, dass irgendein Zustand zufällig aus einem Hut herausgepickt wird. Solche Diskussionen erklären nicht, woher diese Wahrscheinlichkeiten kommen, was nicht gut ist. Das stimmt in der Quantentheorie nicht. Es gibt eine objektive physikalische Größe, die die Wahrscheinlichkeitsregeln respektiert und als Leitfaden für einige Arten von Entscheidungen dienen kann. Die Tatsache, dass die betreffende Größe als Entscheidungshilfe dienen kann, macht sie nicht subjektiv. Es kann andere solche Größen geben, die sich auf andere Theorien beziehen oder auch nicht.
Die relevanten Ähnlichkeiten zu Popper sind: (1) Ablehnung subjektiver Wahrscheinlichkeitstheorien. (2) Ablehnung des Induktivismus im Allgemeinen, einschließlich Wahrscheinlichkeitsinduktion.

Diese Antwort sollte als eine Art erweiterter Kommentar zu alanfs Antwort gelesen werden, der ich weitgehend zustimme, aber gerne qualifizieren möchte. Deutsch argumentiert, dass Wahrscheinlichkeiten aus physikalischen Theorien eliminiert werden können, mit anderen Worten, dass wir in einer physikalischen Theorie keine stochastischen Prozesse brauchen. Insbesondere ist er besorgt darüber, dass die Quantentheorie, die oft so interpretiert wurde, dass sie grundlegende Unbestimmtheiten beinhaltet, stattdessen als eine deterministische Darstellung dessen verstanden werden kann, wie sich Teilchen und Felder über eine Vielzahl von Welten hinweg verhalten, gemäß der Viele-Welten-Interpretation.

Deutsch fährt dann damit fort, den epistemischen Begriff der Glaubwürdigkeit zu verwerfen, aber dies muss nicht aus der Ablehnung physikalischer Wahrscheinlichkeiten folgen. Als kognitive Agenten mit begrenzten und unvollkommenen Fähigkeiten besitzen wir niemals perfekte Informationen über irgendetwas. Wann immer wir Entscheidungen treffen, was die ganze Zeit der Fall ist, sind wir gezwungen, diese Entscheidungen unter Unsicherheit zu treffen, und wenn wir diese Unsicherheit nicht irgendwie quantifizieren können, werden wir anfällig dafür sein, schlechte Entscheidungen zu treffen. Aus diesem Grund tauchen Wahrscheinlichkeiten in der Entscheidungstheorie auf: Es bedeutet nicht, dass wir Entscheidungen über stochastische Ereignisse treffen, sondern lediglich, dass wir Entscheidungen mit unvollständigen oder unvollkommenen Informationen treffen. Die Wahrscheinlichkeiten sind einfach dazu da, die Unsicherheit zu quantifizieren. Bruno de Finetti zeigte anhand niederländischer Buchargumente, wie Wir können von einer sehr harmlosen und plausiblen Vorstellung davon ausgehen, was eine schlechte oder irrationale Entscheidung ausmacht, und daraus die Wahrscheinlichkeitstheorie ableiten. Andere, darunter Richard Cox und Edwin Jaynes, haben gezeigt, wie ein primitiver Begriff der Inferenz verwendet werden kann, um die Wahrscheinlichkeit abzuleiten.

Das Ergebnis davon ist, dass induktives Denken unter Verwendung epistemischer Wahrscheinlichkeiten in der statistischen Praxis und insbesondere in den Bereichen maschinelles Lernen/künstliche Intelligenz sehr lebendig und gut ist und gedeiht. Was Ihre spezifische Frage betrifft, welche Arten von Tests Statistiker durchführen, gibt es keine allgemeine Einigung über die Methodik. Die drei Hauptlager sind klassisch (frequentistisch), Bayesianisch und Likelihoodist. Der klassische Ansatz umfasst im Großen und Ganzen das Bilden von Nullhypothesen, das Entwerfen von Experimenten, um sie zu testen, und das Zurückweisen der Hypothese, wenn die Ergebnisse signifikant sind (Fisher), oder das Testen von Hypothesen gemäß ihrer falsch-positiven und falsch-negativen Fehlerraten (Neyman und Pearson). Bayesianer spezifizieren vorherige Wahrscheinlichkeitsverteilungen und verwenden Daten, um diese Verteilungen zu aktualisieren.

Diese Antwort ergibt keinen Sinn. Wahrscheinlichkeiten sind präzise numerische Vorhersagen. Sie können keine präzisen numerischen Vorhersagen aus Unwissenheit erhalten. Vielmehr müssen Sie einem Zustandsraum ein Maß zuweisen. Sie müssen also die Gesetze der Physik kennen, die das relevante Maß und den Raum von Zuständen angeben. Der Ansatz vom Jaynes-Typ besteht darin, implizit einen solchen Zustandsraum und ein solches Maß anzunehmen. Dadurch werden mögliche Probleme mit der gewählten Maßnahme verschleiert.
Induktives Denken wird überhaupt nicht verwendet, da es unmöglich ist (Deutsch, "Fabric of Reality" Kapitel 3 und 7 und Popper "Objective Knowledge", Kapitel 1). Zur Kritik an der induktiven Wahrscheinlichkeit siehe Teil II von „Realism and the Aim of Science“ von Popper. Maschinelles Lernen usw. beinhaltet das Einrichten eines Computers mit einem Zustandsraum und einem geeigneten Maß über diesem Zustandsraum, um den Computer dazu zu bringen, eine Aufgabe auszuführen. Wie wird das gemacht? Sie erraten eine Reihe von Maßnahmen und führen Programme aus, die diese Maßnahmen berücksichtigen. Sie wählen dann einige der Programme aus, optimieren sie und versuchen es erneut, bis Sie ein ausreichend gutes Programm erhalten.
Wahrscheinlichkeiten müssen nicht genau sein, sie können die Form von Bereichen oder Verteilungen annehmen. Ich behaupte auch nicht, dass Vorhersagen ohne ein Maß oder einen Zustandsraum aus Unwissenheit entstehen, da wir in der Praxis nie ohne diese sind, auch wenn unsere anfänglichen Vermutungen darüber höchst ungenau sein können und einer Überarbeitung bedürfen. Wahrscheinlichkeiten quantifizieren Unsicherheit und helfen uns, Schlussfolgerungen und Entscheidungen mit unsicheren Informationen zu treffen. Wenn sie dies nicht tun, warum hat die Wahrscheinlichkeit Ihrer Meinung nach so viele nützliche Anwendungen?
Was die Unmöglichkeit des induktiven Schließens betrifft, würde ich eher sagen, dass es allgegenwärtig und unausweichlich ist: Vielleicht meinen wir also etwas anderes mit dem Begriff. Ich verwende es in einem weiten Sinne, um jede Art von verstärkender Argumentation abzudecken. Zu sagen, dass Induktion unmöglich ist, scheint nur zu bedeuten, dass Induktion nicht auf Deduktion reduzierbar ist, aber das würde den Sinn verfehlen.
Wenn Sie denken, dass das Unmögliche „allgegenwärtig und unausweichlich“ ist, überprüfen Sie Ihre Räumlichkeiten. Ich denke, Sie glauben nicht wirklich, dass es unmöglich ist, aber Sie haben auch nicht die Argumente angesprochen, dass Induktion unmöglich ist und dass jemand, der dies jemals tut, ein Mythos ist. Sie scheinen mit den popperschen Ideen, denen Sie feindlich gesinnt sind, nicht vertraut zu sein.

Keine empirische Falsifikation ist jemals entscheidend dafür, ob die Theorie probabilistisch ist oder nicht. Popper diskutierte dies zB in Abschnitt 29 der LScD „THE RELATIVITY OF BASIC STATEMENTS“. Das grundlegende Problem, auch als Duhem-Quine-Problem bekannt, ist, wann immer Sie eine Widerlegung haben, entweder ist die widerlegte Theorie falsch ODER die Widerlegung selbst könnte falsch sein, so dass sie nie ganz klar, entscheidend und entschieden ist.

Was machst du stattdessen? Sie kritisieren und hören auf, nach Gewissheit zu suchen. Sie versuchen, schlechte Ideen zu finden und verwerfen sie. Ist es sinnvoll? Irgendwelche logischen Probleme? Löst es das Problem, das es lösen soll? Macht es irgendwelche Probleme? Sie suchen nach guten Eigenschaften für Ideen und Dinge, die mit ihnen nicht stimmen. Geben Sie Ihr Bestes, um Ihre Ideen zu überdenken und zu verbessern. Erweitern Sie Ihr Wissen, anstatt sich nach endgültigen, unbestreitbaren Antworten zu sehnen. Dies funktioniert mit probabilistischen und nicht-probabilistischen Theorien gleichermaßen.

Ich denke nicht, dass das kompliziert ist.

Wenn wir sagen, dass die Wahrscheinlichkeit eines Ereignisses sehr, sehr gering ist und es dann eintritt, dann ist diese Wahrscheinlichkeitsaussage verfälscht (mit einer sehr, sehr geringen Wahrscheinlichkeit, dass es sich um einen Fehler handelt). Dies ergibt eine Teilmenge von Wahrscheinlichkeitsaussagen, die falsifiziert werden können. Dies wäre der klassische statistische Ansatz von Fisher, Neyman und Pearson.

Beachten Sie, dass ein bereits eingetretenes Ereignis die Wahrscheinlichkeit 1 hat und es sinnlos ist, ihm eine andere Wahrscheinlichkeit zuzuordnen. Die Reihenfolge ist wichtig. Zum Beispiel würden wir einen Würfel nicht 10 Mal würfeln und 4 5 2 4 5 4 2 3 1 4 erhalten und dann weiter sagen, dass die Chance, diese Sequenz mit einem fairen Würfel zu erhalten, 1,6e-08 ist und dies daher ablehnen das ist ein fairer Würfel.

Zu Ihrem "Regenwahrscheinlichkeitsbeispiel": Die angegebene Wahrscheinlichkeit ist groß, also nicht falsifizierbar. Aus einer Theorie, die zur Berechnung solcher Wahrscheinlichkeiten verwendet werden kann, könnten Sie jedoch eine Wahrscheinlichkeitsaussage mit kleiner Wahrscheinlichkeit erhalten, z. B. "Die Wahrscheinlichkeit, dass es 100 Tage lang jeden Tag regnen wird, beträgt 1e-6". Wenn es dann 100 Tage lang jeden Tag regnen würde, wäre die Theorie widerlegt.

Ich bin mir nicht sicher, wie Popper das Problem gelöst hat, aber im Allgemeinen behandeln wir statistische Aussagen als eine Reihe von Ereignissen, nicht ein einzelnes Ereignis. Die Aussage „ein Uranatom hat eine X/Y-Wahrscheinlichkeit, in der Zeit T zu zerfallen“, bedeutet, dass wir erwarten, dass sich das beobachtete Verhältnis X/Y nähert, wenn wir mehr und mehr Atome beobachten.

In gewisser Weise ist dies immer noch nicht streng falsifizierbar, da statistischen Anomalien nichts im Wege steht. Es können jedoch Standards für akzeptable erwartete Abweichungen festgelegt werden.