Wie können die Begriffe „a priori“ und „a posteriori“ in der Mathematik verwendet werden?

Diese Frage erscheint entweder trivial oder etwas vage; lass es mich weiter erklären.

Ich entschuldige mich, wenn ich die Konzepte missverstehe oder den Punkt völlig verfehle; Ich bin Mathematikstudent und mir fehlen sicherlich ernsthafte Kenntnisse in Philosophie. Trotzdem würde mich interessieren, ob es hierzu eine Meinung gibt:

Die Begriffe „a priori“ und „a posteriori“ lassen sich grob mit im ersten Fall erfahrungsfreiem und im zweiten Fall erfahrungsbedingtem Wissen (bzw. Rechtfertigung) identifizieren.

In der Mathematik findet man oft den Begriff "a priori", der beim Korrekturschreiben verwendet wird, was meiner Meinung nach oft nur der Ausrufe wegen dient (etwas wie die Verwendung von "a fortiori") oder sogar nur für Stilpunkte. Ich frage mich, ob es sinnvoll ist, den Begriff in einem Umfeld (dem mathematischen) zu verwenden, in dem alles Wissen und jede Rechtfertigung "offensichtlich" a priori ist. Vermisse ich hier den Punkt?

Andererseits findet man auch den Begriff „a posteriori“, der in mathematischen Beweisen verwendet wird. Lassen Sie mich zwei Beispiele nennen:

(i) Angenommen, man möchte beweisen, dass eine Klasse von Objekten C die Eigenschaft P hat. Es ist nicht offensichtlich, dass jedes Objekt, das zu C gehört, P hat, aber nach einigen Seiten von Ableitungen kommen wir zu dem Schluss, dass tatsächlich jedes solche Objekt von C hat P. Wir haben dies erst nach genauer Beobachtung festgestellt, aber darf diese Begründung als "a posteriori" angesehen werden? (Ich habe gesehen, dass der Begriff auf diese Weise verwendet wird.)

(ii) Angenommen, es gibt eine Eigenschaft P, die von einigen, aber nicht allen Objekten von C erfüllt wird. Manchmal findet man Aussagen wie „Es ist nicht a priori wahr, dass A in C P hat, aber nachdem wir A festgelegt haben, finden wir a posteriori, dass A P hat."

(Als Beispiel für diejenigen, die sich mit linearer Algebra auskennen: "Es ist a priori nicht wahr, dass ein k-Vektorraum endlichdimensional ist. Der k-Vektorraum von Polynomen des Grades n ist a posteriori endlichdimensional.")

Ich denke, die beiden Fälle sind ähnlich. Kann mir jemand erklären, ob dies ein grober Sprachmissbrauch ist oder ob man Beobachtungen innerhalb der Mathematik als eine Art nachträgliches Wissen betrachten könnte?

Vielen Dank, ich versuche gerne, weiter zu klären, wenn dies unklar war!

Bearbeiten: J.-P. Serre, einer der renommiertesten Mathematiker aller Zeiten und jemand, der allgemein als großer Erklärer gilt, verwendet häufig den Begriff „a priori“. Um ein weiteres Beispiel zu geben, betrachten Sie dieses Beispiel aus seinen "Local Fields" [S.79, Prop. 17]:

"[...]Wir wissen a priori, dass G(K_n/K) mit einer Untergruppe von G(n) identifiziert werden kann (vgl. Bourbaki, Alg., Kap. V, §11);[...]"

Die Aussage ist, dass ein Objekt (eine Galois-Gruppe) möglicherweise mit einem anderen identifiziert wird, dann nennt er eine Quelle für einen Beweis der Aussage.

Eine weitere Bearbeitung: Dies ist aus Hartshornes algebraischer Geometrie:

„[...] Wir werden unsere Studie auf schräge Weise beginnen, indem wir den Begriff einer „abstrakten nichtsingulären Kurve“ definieren, die einem gegebenen Funktionskörper zugeordnet ist. Es wird a priori nicht klar sein, dass dies eine Varietät ist. Wir werden es jedoch tun im Nachhinein sehen, dass wir nichts Neues definiert haben.[...]"

Können Sie konkrete Beispiele aus der Mathematik nennen, in denen diese Begriffe verwendet werden? Meines Wissens werden sie normalerweise nicht außerhalb der Philosophie verwendet. Ich nehme an, jemand könnte "a priori" sagen, um "ohne weitere Informationen" zu bedeuten, zB "wir können a priori nicht sagen, ob X Y ist", was bedeuten würde, "wir können ohne weitere Informationen nicht sagen, ob X Y ist". Ich habe diese Verwendung noch nie gesehen.
@causative Vielen Dank für Ihre Antwort. Ich habe zwei weitere Beispiele hinzugefügt. Ihr Vorschlag zur Verwendung ("Wir können ohne weitere Informationen nicht sagen, ob X Y ist.") Könnte dem nahe kommen, was ich mir vorgestellt habe. Die Verwendung in der Mathematik könnte daher von der ursprünglichen (und gut definierten) Verwendung in der Philosophie inspiriert sein, ist aber letztendlich nicht wahr.
OK. In diesem Beispiel sagt er: "Wir wissen bereits, dass G(K_n/K) sein kann ..."
Ja genau. Ich denke, da er selbst nur das Ergebnis zitiert, ist dies eher ein "Ausruf"-Gebrauch, der den Leser anweist zu verstehen, dass dies eine bekannte Tatsache ist. Ich habe ein Beispiel von Robin Hartshorne mit (glaube ich) einer etwas anderen Verwendung hinzugefügt.
Ja, in diesem sagt er: "Es wird nicht offensichtlich sein, dass dies eine Sorte ist." In der Mathematik werden diese Begriffe also in einem informelleren Sinne verwendet als in der Philosophie – einfach um darüber zu sprechen, ob wir bereits etwas wissen.
Die ursprünglichen lateinischen Bedeutungen von a priori und a posteriori sind einfach „vorher“ bzw. „nachher“. „ A priori ist es nicht offensichtlich, dass diese Gruppe zyklisch ist, aber wir werden beweisen, dass sie es ist.“ Der Gebrauch verwendet die ursprüngliche Bedeutung und bezieht sich auf den Wissensstand vor und nach dem Beweis. In " a priori Schätzungen" bezieht es sich auf Schätzungen von Lösungen, die vor dem Konstruieren der Lösungen gemacht wurden. Die Verwendung von Prior/Posterior zur Erfahrung in der Philosophie ist viel spezialisierter und wurde von Kant im 18. Jahrhundert geprägt, obwohl es Vorläufer in Leibniz und Berkeley gibt.

Antworten (1)

In den meisten Bereichen der Mathematik werden a priori und a posteriori normalerweise als akademischer Jargon einfach für „bis jetzt“ bzw. „danach“ entlehnt.

Aber bei einigen Statistikthemen wie der Frequentistischen Inferenz mit ihren Nullhypothesen-Signifikanztests (NHST, entwickelt von Fisher, Neyman und Pearson in den frühen und mittleren 1900er Jahren) und der Bayes'schen Inferenz muss man einige a priori Annahmen der eigenen Stichprobenverfahren ernsthaft in Betracht ziehen hier vorgeschlagen .

Das Problem bei frequentistischen Ansätzen ist, dass man Beweise nur gegen eine Hypothese quantifizieren kann, aber niemals dafür. Wenn Sie testen möchten, ob zwei Gruppen gleich sind, dann ist die Bayes'sche Statistik das am besten geeignete Werkzeug.

Daher geht das NHST-Framework von vornherein von statistischen Beweisen gegen eine bestimmte Hypothese aus, die seine anwendbaren Anwendungsfälle einschränkt. Natürlich nimmt oder benötigt auch das andere Bayes'sche Rahmenwerk bestimmte A-priori- Wahrscheinlichkeitsverteilung(en).

Eine andere berühmte ähnliche Situation wird in dem Buch Anthropic Bias: Observation Selection Effects in Science and Philosophy des zeitgenössischen Philosophen Bostrom diskutiert . Es gibt ein Rätsel in der Entscheidungstheorie, das Dornröschen-Problem genannt wird . Dornröschen meldet sich freiwillig für das folgende Experiment und bekommt alle folgenden Details mitgeteilt: Am Sonntag wird sie eingeschläfert. Während des Experiments wird Dornröschen ein- oder zweimal geweckt, befragt und mit einem Amnesie auslösenden Medikament wieder eingeschläfert, das sie dieses Erwachen vergessen lässt. Eine faire Münze wird geworfen, um zu bestimmen, welches experimentelle Verfahren durchgeführt werden soll:

Wenn die Münze Kopf zeigt, wird Dornröschen nur am Montag geweckt und interviewt.

Wenn die Münze Zahl zeigt, wird sie am Montag und Dienstag geweckt und befragt.

Jedes Mal, wenn Dornröschen geweckt und interviewt wird, kann sie nicht sagen, welcher Tag heute ist oder ob sie schon einmal geweckt wurde. Während des Interviews wird Dornröschen gefragt: "Was glauben Sie jetzt an die Aussage, dass die Münze Kopf gelandet ist?"

Es stellt sich heraus, dass, wenn wir a priori eine Selbstabtastannahme (SSA) annehmen, dann gemäß seiner Referenz :

Wenn es zum Beispiel einen Münzwurf gibt, der bei Kopf einen Beobachter erzeugt, während er bei Zahl zwei erzeugt, dann haben wir zwei mögliche Welten, die erste mit einem Beobachter, die zweite mit zwei. Diese Welten sind gleich wahrscheinlich, daher ist die SSA-Wahrscheinlichkeit, der erste (und einzige) Beobachter in der Welt „Kopf“ zu sein, 1/2, die Wahrscheinlichkeit, der erste Beobachter in der Welt „Zahl“ zu sein, ist 1/2 × 1/2 = 1/4 , und die Wahrscheinlichkeit, der zweite Beobachter in der Welt der Schwänze zu sein, beträgt ebenfalls 1/4.

Aus diesem Grund gibt SSA beim Dornröschen-Problem eine Antwort von 1/2 Kopfwahrscheinlichkeit.

Wenn wir a priori eine Selbstanzeigeannahme (SIA) basierend auf allen möglichen Beobachtern aufgrund von a posteriori Beweisen annehmen, dann gemäß derselben Referenz:

Wenn es zum Beispiel einen Münzwurf gibt, der bei Kopf einen Beobachter erzeugt, während er bei Zahl zwei erzeugt, dann haben wir drei mögliche Beobachter (1. Beobachter bei Kopf, 1. bei Zahl, 2. bei Zahl). Jeder dieser Beobachter hat die gleiche Existenzwahrscheinlichkeit, daher weist SIA jedem 1/3 Wahrscheinlichkeit zu. Alternativ könnte dies so interpretiert werden, dass es zwei mögliche Beobachter gibt (1. Beobachter entweder auf Kopf oder Zahl, 2. Beobachter auf Zahl), der erste existiert mit Wahrscheinlichkeit eins und der zweite mit Wahrscheinlichkeit 1/2, also weist SIA 2/3 zu der erste Beobachter zu sein und 1/3 der zweite Beobachter zu sein - was dasselbe ist wie die erste Interpretation.

Aus diesem Grund gibt SIA beim Dornröschen-Problem eine Antwort von 1/3 Wahrscheinlichkeit von Kopf.

Obwohl dieses anthropische Prinzip ursprünglich als Widerlegung des Doomsday-Arguments (von Dennis Dieks im Jahr 1992) konzipiert wurde, findet es allgemeine Anwendung in der Philosophie des anthropischen Denkens, und Ken Olum hat vorgeschlagen, dass es für die Analyse der Quantenkosmologie wichtig ist ... Ken Olum hat zur Verteidigung des SIA geschrieben. Nick Bostrom und Milan Ćirković haben diese Verteidigung kritisiert.

Sehr interessant! Vielen Dank für die Beispiele. Ich war mir dieser Verwendung in der Bayes'schen Statistik bewusst, aber nicht der Theorie von Bostrom.