Was ist der Unterschied zwischen dem Gesetz der ausgeschlossenen Mitte und dem Gesetz der Widerspruchsfreiheit?

Obwohl ich den SEP-Eintrag unter Widerspruch mehrmals gelesen habe, habe ich Schwierigkeiten, zwischen den beiden zu unterscheiden.

Wir können die aristotelische Sprache mit einem gewissen Verlust an Treue in die modernen Standardaussagenversionen in (4a, b) übersetzen, wobei wir die verstandenen modalen und temporalen Modifikationen ignorieren:

(4a) LNC: ¬(Φ ∧ ¬Φ)

(4b) LEM: Φ ∨ ¬Φ

In Worten:

(5a) LNC: Kein Satz darf gleichzeitig wahr und falsch sein.

(5b) LEM: Jeder Satz muss entweder wahr oder falsch sein.

Das Einsetzen des Wahrheitswerts ergibt, dass sie äquivalent sind. Ist das zwingend so? Als Randbemerkung: Ist dies gleichbedeutend mit der Frage nach der Interpretation hinter dem "biconditional Law of Double Negation (LDN)" wie im Folgenden:

(LDN), ¬(¬Φ) ≡ Φ ?

Antworten (4)

Der Unterschied zwischen dem Gesetz der Widerspruchsfreiheit und dem Gesetz der ausgeschlossenen Mitte ist subtil; glücklicherweise ist es für die meisten Zwecke auch irrelevant.

Die Unterscheidung wird am deutlichsten, wenn wir die klassische Logik der indischen Catuṣkoṭi gegenüberstellen , wo vier Positionen zur Verfügung stehen:

  1. P
  2. Nicht p
  3. Sowohl P als auch nicht P
  4. Weder P noch nicht P

Diese können bequem umformuliert werden als

  1. P ist wahr
  2. P ist falsch
  3. P ist sowohl wahr als auch falsch
  4. P ist weder wahr noch falsch

Für Aristoteles (und die klassische Logik) sind die beiden unteren Optionen verboten – „Beide P und nicht P“ wegen des Gesetzes der Widerspruchsfreiheit (es gibt kein P, so dass P sowohl wahr als auch falsch ist) und „Weder P Noch nicht P" wegen des Gesetzes der ausgeschlossenen Mitte (es gibt kein P, so dass P weder wahr noch falsch ist, sondern irgendein dritter Zustand.)

Sie sind also nicht gleichwertig – sondern nur relevant, wenn Sie abweichende Logiken ausschließen möchten. Wenn Sie bereits nach den Regeln der klassischen Logik spielen, ist die Wirkung beider gleich (P ist entweder wahr oder falsch).

Obwohl Aristoteles die beiden unteren Optionen ablehnte, hat er im Sea Battle-Argument „eine dreiwertige Logik für zukünftige Vorschläge angenommen oder zumindest damit geflirtet oder dass er Wahrheitswertlücken geduldet hat oder dass seine Lösung noch abstrusere Argumente enthält“? Es ist interessant festzustellen, dass Aristoteles mit seiner Vorstellung von der Kontingenz, die die Möglichkeit für Anti-LEM ermöglicht, möglicherweise auf Umwegen seinen eigenen Ideen widerspricht . Wird es richtig sein, so etwas anzunehmen? (Meiner Meinung nach gibt es einen besseren Weg, einen Widerspruch zu beweisen, als einer zu sein?)
Ich bin kein aristotelischer Gelehrter, aber ich denke, dass Aristoteles der klassischen Logik verpflichtet blieb, während er gleichzeitig auf die bedauerliche Tatsache stieß, dass die klassische Logik nicht besonders gut zu der Welt passt, in der wir leben, nicht dass er das tun würde so viel zugeben. Es wurde eine ganze Reihe anderer Logiken vorgeschlagen, um die klassische Logik zu ergänzen (oder zu ersetzen). (Und ich mag Ihre Formulierung sehr, dass Aristoteles als sein eigener modaler Widerspruch dient.)
Aber betrachten Sie den Fall "A und nicht A". Das ist falsch, also muss die Negation davon wahr sein. Aber die negatio ist derselbe Satz. Also ist es wahr oder falsch?

In der klassischen Aussagenlogik und der Prädikatenlogik erster Ordnung sind sie äquivalent, wie Sie bei der Wahrheitstabellenmethode festgestellt haben. In der klassischen FOL sind 'und' und 'oder' dual (für jeden Satz mit einem 'und' gibt es einen entsprechenden Satz, in dem es durch 'oder' ersetzt wird (und andere Dinge entsprechend umgeordnet werden.

Was die Notwendigkeit betrifft, nun, man kann alles neu definieren, aber dann redet man vielleicht von etwas anderem, und man kann an allem zweifeln, aber Zweifel machen etwas nicht wahr oder falsch.

Das heißt ... „oder“ wird als etwas nuancierter angesehen als „und“. Man kann sich bestimmte Umstände vorstellen, in denen man sich bei „P oder -P“ nicht so sicher ist. Zum Beispiel gibt es im intuitionistischen Urteil über die Normalität von Pi) die Idee, dass man nicht wirklich wissen kann, ob jede mögliche endliche Teilfolge von Ziffern in der unendlichen Ziffernfolge von Pi vorkommt.

Es gibt viele Studien zur Logik, bei denen 'P oder -P' kein Theorem ist (nicht, dass es überall oder sogar einmal falsch ist, sondern einfach, dass es in diesem System nicht beweisbar ist).

Andererseits macht sich niemand wirklich die Mühe, 'and'/LNC anzuzweifeln, weil man ohne es kein sehr nützliches Beweissystem hat. Als intellektuelle Übung könnte man LNC verneinen, aber allzu viel leistet die kleine Maschine nicht. Im Gegensatz dazu kann man immer noch viele interessante Mathematik machen, während man LEM leugnet (um es klar zu sagen, wenn man LEM leugnet, verwendet man kein klassisches FOL mehr).

Am Ende hat „oder“ den geringsten zusätzlichen Zweifel als „und“, also ist LNC ziemlich unverzichtbar, aber das Fehlen von LEM lässt nicht alles auseinanderfallen .

In Lukasiewicz ist die dreiwertige Logik Weder der LNC noch der LEM eine notwendige Wahrheit für alle Aussagen. Sie sind kontingente Aussagen, die für einige Aussagen wahr sind, aber nicht notwendigerweise für alle. Es mag von Interesse sein, festzustellen, dass keine von beiden jemals wirklich falsch ist. Sie sind jedoch äquivalent wie in der klassischen Logik. Dies gilt für die Standardverneinung, in der auch das LDN gilt.

Die Erweiterung auf drei Werte erlaubt aber auch die Definition einer starken Negation (nicht möglich außer Φ), bei der der LNC gilt, aber der LEM versagt. Das biconditional LDN versagt: wenn Φ dann ¬(¬Φ) aber nicht umgekehrt. Dies ähnelt der Logik des Intuitionismus.

Es erlaubt auch eine schwache Negation (nicht unbedingt nicht Φ), bei der der LNC versagt, aber der LEM gilt. In diesem Fall versagt auch das bikonditionale LDN, aber in umgekehrter Richtung: wenn ¬(¬Φ), dann Φ, aber nicht umgekehrt.

Viele Menschen entscheiden sich dafür, sich an den LNC zu klammern, und sie behaupten, dass „ich ohne den LNC nicht argumentieren kann, also ist der LNC obligatorisch und ein Argumentieren ohne den LNC ist nicht möglich“. Diese Strategie eines jeden Rationalisten, zu behaupten, dass etwas unmöglich ist, weil er nicht anders denken kann, ist ein zeitloser Trugschluss, und natürlich ist nichts falsch daran, den LNC fallen zu lassen. Was getan werden kann, steht hier:

Robert K. Meyer (1976) scheint der erste gewesen zu sein, der an eine widersprüchliche arithmetische Theorie gedacht hat. An diesem Punkt interessierte ihn mehr das Schicksal einer konsistenten Theorie, seiner relevanten Arithmetik R#. Es stellte sich heraus, dass es eine ganze Klasse widersprüchlicher arithmetischer Theorien gab; siehe zB Meyer & Mortensen 1984. Parallel zu den obigen Bemerkungen zur Rehabilitierung des Logikismus argumentierte Meyer, dass diese arithmetischen Theorien die Grundlage für ein wiederbelebtes Hilbert-Programm liefern. Es wurde allgemein angenommen, dass Hilberts Programm durch Gödels zweiten Unvollständigkeitssatz ernsthaft beschädigt wurde, wonach die Konsistenz der Arithmetik innerhalb der Arithmetik selbst nicht beweisbar war. Aber eine Folge von Meyer' Seine Konstruktion bestand darin, dass es innerhalb seiner arithmetischen R# mit einfachen endlichen Mitteln nachweisbar war, dass irgendwelche Widersprüche keine numerischen Berechnungen beeinträchtigen konnten. Daher erweist sich Hilberts Ziel, schlüssig zu zeigen, dass Mathematik störungsfrei ist, als weitgehend erreichbar.

Die von Meyer-Mortensen verwendeten arithmetischen Modelle erwiesen sich später als inkonsistente Darstellung des Wahrheitsprädikats. Sie erlauben auch die Darstellung von Strukturen jenseits der Arithmetik mit natürlichen Zahlen, wie Ringe und Körper, einschließlich ihrer Ordnungseigenschaften. Kürzlich wurden diese inkonsistenten arithmetischen Modelle vollständig von Graham Priest charakterisiert; Das heißt, Priest hat gezeigt, dass alle diese Modelle eine bestimmte allgemeine Form annehmen. Siehe Priest 1997 und 2000. Genau genommen ging Priest mit der Aufnahme von „Cliquenmodellen“ etwas zu weit. Dies wurde von Paris und Pathmanathan (2006) korrigiert und von Paris und Sirokfskich (2008) ins Unendliche erweitert.

http://plato.stanford.edu/entries/mathematics-inconsistent/#Ari

Das PEM kann als schwaches Auswahlaxiom angesehen werden, wie hier erklärt wird

Die ausgeschlossene Mitte kann als eine sehr schwache Form des Auswahlaxioms angesehen werden (ein etwas umstritteneres Prinzip, das von einer etwas größeren Minderheit bezweifelt oder geleugnet wird und intern in noch weniger Kategorien wahr ist). Tatsächlich sind die folgenden äquivalent.

The principle of excluded middle.
Finitely indexed sets are projective (in fact, it suffices 2-indexed sets to be projective).
Finite sets are choice (in fact, it suffices for 2 to be choice).

https://ncatlab.org/nlab/show/excluded+middle#pem_versus_ac

Natürlich ist die PEM zweifelhaft und kann in konstruktiver prädikativer Logik aufgegeben werden; doch noch im Jahr 2016 entscheiden sich ein paar Leute dafür, sich daran zu klammern ...

Dies scheint eine grobe Fehldarstellung der Breite und Bedeutung von Parakonsistenz gegenüber dem traditionellen Modell der Akzeptanz von LNC und PEM zu sein.
" und natürlich ist nichts falsch daran, den LNC fallen zu lassen." Argument benötigt.
"Natürlich ist die PEM zweifelhaft und kann in konstruktiver prädikativer Logik aufgegeben werden; dennoch entscheiden sich 2016 einige wenige dafür, daran festzuhalten ..." Die überwiegende Mehrheit der zeitgenössischen Philosophie basiert immer noch auf PEM ... Die Möglichkeit Ungeachtet dessen, alternative Systeme zu konstruieren, ist das kein Beweis dafür, dass es "dubios" ist