Unter welchen Definitionen von Wahrheit und Wissen (insbesondere Bayesianisch) unterscheiden sich „definitiv wissen“ und „gewiss“.

Unter welchen Definitionen von Wahrheit und Wissen unterscheiden sich „bestimmt wissen“ und „gewiss“? Entschuldigung, wenn das zu sehr eine semantische Frage ist, aber ich denke, wir sollten uns darauf einigen, dass wir ein Gefühl des definitiven Wissens haben können , vielleicht etwas, das mit Überzeugung und Gewissheit zu tun hat.

Ich denke nicht, dass es eine Frage des Glaubens ist, dass sie unterschiedlich sind, wenn wir an etwas glauben, nicht wirklich, denn ich denke, „Glaube“ ist der Glaube an eine ungerechtfertigte Aussage, anstatt nur der Aussage Gewissheit vorzuenthalten. Ist die Antwort, dass ich meines Wissens tatsächlich sicher bin, wenn ich es definitiv weiß, aber ich kann sicher sein, ohne sicher zu sein, dass ich es bin, anders als nicht zu wissen, dass ich es weiß (das soi disant KK-Prinzip ) ?

Aber würde die Bayes'sche Wahrscheinlichkeit dann nicht nahelegen, dass ungewisse Gewissheit nur Ungewissheit ist? Entschuldigung, wenn ich mich falsch daran erinnert habe, was Bayes Fleisch ist.

Vielleicht gibt es also eine Bedeutung von „absolut“, die von Bedeutung ist: Es gibt so etwas wie relative im Gegensatz zu absoluter Gewissheit. Aber sollten wir dann nicht allem, was nicht leer ist, absolute Gewissheit vorenthalten?

Wir halten absolute Gewissheit vor allem zurück, einschließlich dem „Leeren“. Aber wenn die Unsicherheit für alle praktischen Zwecke winzig ist, würde man den Unterschied kaum spüren. Wenn Sie auf eine genaue Grenze zwischen "eindeutig" und "nicht eindeutig" in Bezug auf die Wahrscheinlichkeit hoffen, werden Sie enttäuscht sein, fürchte ich, so etwas gibt es nicht. Ähnlich wie viele Körner einen Haufen ergeben, erzeugen vage Prädikate wie Haufen oder Gewissheit keine scharfen Grenzen.
stimmte @Conifold zu, aber ist das alles, was dieser Satz bedeuten kann. Ich denke, es ist eigentlich eine schlechte Frage ...
wie in Ich frage, was ich meine! immer ein schlechter Start hah @Conifold
Man muss Unsicherheit nicht durch Wahrscheinlichkeit messen, und in vielen Fällen ist das entweder unmöglich oder bedeutungslos oder beides. Zögern über bekannte Antworten wird manchmal als Wissen ohne Glauben interpretiert . Man kann auch qualitativ zwischen verschiedenen Ebenen der Gewissheit unterscheiden, wie mathematisch vs. empirisch (wobei erstere "unendlich sicherer" ist, weil selbstgemacht). Der Begriff der alten Schule für die Gewissheit des „höchsten“ Grades war „apodiktisch“ .

Antworten (1)

Erstens müsste man unterscheiden, ob ein Satz sicher ist oder ob eine Person sich dessen sicher ist. Alle Arten von Aussagen können mit Sicherheit wahr sein (z. B. mathematische oder logische Theoreme), aber um sich ihrer sicher zu sein, ist eine ausreichende Kompetenz seitens einer Person erforderlich, um sie zu erkennen. Da Sie Gewissheit Wissen gegenüberstellen, nehme ich an, dass Sie an Letzterem interessiert sind. Wir sollten auch klarstellen, dass es sich nicht nur um einen psychologischen Zustand, sondern um eine erkenntnistheoretisch begründbare Art von Gewissheit handelt. Schließlich können sich die Menschen aller möglichen Dinge sicher sein, einschließlich der Dinge, die die meisten anderen für schlichtweg falsch halten würden.

Einige Arten von Ungewissheit (nicht alle) können als epistemische Wahrscheinlichkeiten dargestellt werden: Wir könnten sie Glaubenssätze oder Glaubenssätze nennen. Dass Glaubensbekenntnisse der Wahrscheinlichkeitsrechnung gehorchen, lässt sich entscheidungstheoretisch begründen oder damit, wie sich Glaubensbekenntnisse im Kontext deduktiver Argumente inferenziell verhalten. Wir könnten dann sagen, dass ein Vertrauen in A sicher ist, wenn P(A) = 1. Das Problem ist, dass wir kaum jemals berechtigt sind zu behaupten, dass etwas absolut sicher ist. In der Tat gibt es in der Bayes'schen Theorie ein Prinzip namens Cromwell-Regel, dass wir aufgrund der Möglichkeit eines Fehlers niemals einer Aussage die Wahrscheinlichkeit null oder eins zuweisen.

Das bedeutet, dass wir einer bestimmten Glaubwürdigkeit am nächsten kommen können, wenn P(A) > 1 - e, wobei e eine Fehlerschwelle ist. Unter bestimmten Umständen könnte dies als Kriterium für Wissen dienen: Wir könnten sagen, dass eine Person A kennt, wenn ihr e ausreichend klein ist. Aber Wissen ist ein schlüpfriger Begriff, und bei dem Versuch, es zu analysieren, wurde viel Tinte vergossen. Wie verschiedene Gegenbeispiele von Gettier und anderen gezeigt haben, neigen wir dazu, nicht zuzulassen, dass jemand A kennt, wenn er nur Glück hatte, selbst wenn es starke Gründe für einen Glauben an A gibt. So können Wissen und hohes Maß an Glaubwürdigkeit auseinanderfallen.

Die Frage, ob man sich seines Wissens sicher sein kann, könnte man sich vorstellen, ob es gewisse Grade an Unsicherheit über das eigene Maß an Unsicherheit geben kann. Wir könnten versuchen, dies als eine Wahrscheinlichkeitsaussage auf Metaebene darzustellen, wie etwa P( P(A) > 1 - e1) > 1 - e2. Das ist möglich, aber ziemlich umständlich. Ein einfacherer Ansatz wäre, die Glaubwürdigkeit so zu behandeln, als hätte sie einen Bereich von Werten oder eine Wahrscheinlichkeitsverteilung.