Unter welchen Definitionen von Wahrheit und Wissen unterscheiden sich „bestimmt wissen“ und „gewiss“? Entschuldigung, wenn das zu sehr eine semantische Frage ist, aber ich denke, wir sollten uns darauf einigen, dass wir ein Gefühl des definitiven Wissens haben können , vielleicht etwas, das mit Überzeugung und Gewissheit zu tun hat.
Ich denke nicht, dass es eine Frage des Glaubens ist, dass sie unterschiedlich sind, wenn wir an etwas glauben, nicht wirklich, denn ich denke, „Glaube“ ist der Glaube an eine ungerechtfertigte Aussage, anstatt nur der Aussage Gewissheit vorzuenthalten. Ist die Antwort, dass ich meines Wissens tatsächlich sicher bin, wenn ich es definitiv weiß, aber ich kann sicher sein, ohne sicher zu sein, dass ich es bin, anders als nicht zu wissen, dass ich es weiß (das soi disant KK-Prinzip ) ?
Aber würde die Bayes'sche Wahrscheinlichkeit dann nicht nahelegen, dass ungewisse Gewissheit nur Ungewissheit ist? Entschuldigung, wenn ich mich falsch daran erinnert habe, was Bayes Fleisch ist.
Vielleicht gibt es also eine Bedeutung von „absolut“, die von Bedeutung ist: Es gibt so etwas wie relative im Gegensatz zu absoluter Gewissheit. Aber sollten wir dann nicht allem, was nicht leer ist, absolute Gewissheit vorenthalten?
Erstens müsste man unterscheiden, ob ein Satz sicher ist oder ob eine Person sich dessen sicher ist. Alle Arten von Aussagen können mit Sicherheit wahr sein (z. B. mathematische oder logische Theoreme), aber um sich ihrer sicher zu sein, ist eine ausreichende Kompetenz seitens einer Person erforderlich, um sie zu erkennen. Da Sie Gewissheit Wissen gegenüberstellen, nehme ich an, dass Sie an Letzterem interessiert sind. Wir sollten auch klarstellen, dass es sich nicht nur um einen psychologischen Zustand, sondern um eine erkenntnistheoretisch begründbare Art von Gewissheit handelt. Schließlich können sich die Menschen aller möglichen Dinge sicher sein, einschließlich der Dinge, die die meisten anderen für schlichtweg falsch halten würden.
Einige Arten von Ungewissheit (nicht alle) können als epistemische Wahrscheinlichkeiten dargestellt werden: Wir könnten sie Glaubenssätze oder Glaubenssätze nennen. Dass Glaubensbekenntnisse der Wahrscheinlichkeitsrechnung gehorchen, lässt sich entscheidungstheoretisch begründen oder damit, wie sich Glaubensbekenntnisse im Kontext deduktiver Argumente inferenziell verhalten. Wir könnten dann sagen, dass ein Vertrauen in A sicher ist, wenn P(A) = 1. Das Problem ist, dass wir kaum jemals berechtigt sind zu behaupten, dass etwas absolut sicher ist. In der Tat gibt es in der Bayes'schen Theorie ein Prinzip namens Cromwell-Regel, dass wir aufgrund der Möglichkeit eines Fehlers niemals einer Aussage die Wahrscheinlichkeit null oder eins zuweisen.
Das bedeutet, dass wir einer bestimmten Glaubwürdigkeit am nächsten kommen können, wenn P(A) > 1 - e, wobei e eine Fehlerschwelle ist. Unter bestimmten Umständen könnte dies als Kriterium für Wissen dienen: Wir könnten sagen, dass eine Person A kennt, wenn ihr e ausreichend klein ist. Aber Wissen ist ein schlüpfriger Begriff, und bei dem Versuch, es zu analysieren, wurde viel Tinte vergossen. Wie verschiedene Gegenbeispiele von Gettier und anderen gezeigt haben, neigen wir dazu, nicht zuzulassen, dass jemand A kennt, wenn er nur Glück hatte, selbst wenn es starke Gründe für einen Glauben an A gibt. So können Wissen und hohes Maß an Glaubwürdigkeit auseinanderfallen.
Die Frage, ob man sich seines Wissens sicher sein kann, könnte man sich vorstellen, ob es gewisse Grade an Unsicherheit über das eigene Maß an Unsicherheit geben kann. Wir könnten versuchen, dies als eine Wahrscheinlichkeitsaussage auf Metaebene darzustellen, wie etwa P( P(A) > 1 - e1) > 1 - e2. Das ist möglich, aber ziemlich umständlich. Ein einfacherer Ansatz wäre, die Glaubwürdigkeit so zu behandeln, als hätte sie einen Bereich von Werten oder eine Wahrscheinlichkeitsverteilung.
Konifold
Benutzer35983
Benutzer35983
Konifold