Ein „Paradoxon“ des Kohärenzismus?

Dies ist eine Folgefrage zu einer Frage, die ich zum Fundamentalismus hatte, der insofern paradox erscheint, als es sich um eine These handelt, für die argumentiert wurde (vielleicht ist nur die historische Argumentation paradox, nicht die These selbst). Hier scheint Kohärenzismus darin zu bestehen, die Existenz grundlegender, nicht gefolgerter Prämissen abzulehnen; vielmehr kann schließlich jede Prämisse als (nicht unbedingt deduktiv!) Aus etwas anderem gefolgert werden.

Mir scheint jedoch, dass der Kohärenzismus nicht vermeiden kann, einige nicht abgeleitete Behauptungen in sich selbst aufzunehmen. Zum Beispiel brauchen wir überhaupt einen Definitionssatz, um von „Kohärenz“ zu sprechen. Obendrein brauchen wir einen Satz, der besagt, dass das Eingehen in die richtig definierten Kohärenzbeziehungen überhaupt eine Rechtfertigung für Überzeugungen liefert. Und dann brauchen wir eine Methode, diese Beziehungen darzustellen.

Eine andere Möglichkeit, das Problem zu veranschaulichen, ist die graphentheoretische Darstellung von Regressionslösungstypen . Vermutlich haben wir Überzeugungen über Graphen, wie sie definiert sind und wie sie funktionieren. Würde die Definition eines Regresslösungstyps graphentheoretisch nicht (sozusagen) alle Typen in der Graphentheorie vorgefunden? x Der Fundamentalismus wäre also gewissermaßen unausweichlich. (Dies scheint im Einklang mit Alessio Morettis Standpunkt bezüglich der philosophischen Seite seiner Geometrisierung der Logik zu stehen.) (Ich würde sagen, dass diese Argumentation auch auf den Infinitismus zutrifft: Wir brauchen eine grundlegende Definition des Infinitismus, a Satz unendlicher Rechtfertigungen, Methoden der unendlichen Regression ...)

Kollabiert der Kohärenzismus in eine Form des Fundamentalismus, bei der die grundlegenden Prämissen Kohärenzbeziehungen sind?

x Und würde dann eine solche Fundierung von Wissensarten überhaupt die Graphentheorie auch zur Fundierung mathematischen Wissens machen? Ich bin nicht alles in allem gegen diese These, aber ich bin auch nicht dafür, wie ich es vor ein paar Jahren war.

Es wäre mein Impuls zu sagen, dass ein kohärentes formales System auf einer Metasprache beruht, und dass daher die Kohärenz der Objektsprache von den axiomatischen Grundlagen der Metasprache abgeleitet ist. Spricht das Ihre Intuition an?
Von all den vielen und unterschiedlichen Unterscheidungen, die Philosophen verdächtig fanden, finde ich die Unterscheidung zwischen einer Objektsprache und einer Metasprache eine der verdächtigen. Abgesehen davon, so ausgedrückt, scheint das Problem nur zu sein, dass der Kohärenzismus der Objektsprache "irgendwann" in den Fundamentalismus der Metasprache zusammenbricht?
Ich werde unten antworten, aber erzählen Sie von diesen Verdächtigungen?
Vielleicht verstehe ich das Material falsch (im Moment schaue ich mir "Tarskis Wahrheitsdefinitionen" im SEP an), aber es scheint, dass der Zweck der Einführung dieser Sprachebenen darin besteht, Wahrheitsprädikate / -werte auf verschiedenen Ebenen zu haben, um eine Generierung zu vermeiden Das Lügner-Paradoxon. Ich habe jedoch eine völlig andere Überzeugung darüber, wie man diese Generation vermeiden kann, eine, die keine unterschiedlichen Wahrheitsebenen erfordert. Darüber hinaus scheint der innere Inhalt dieses Glaubens die Bildung von Gödel-Sätzen (zumindest in natürlicher Sprache) auszuschließen, was zu kompromittierten (mindestens) Unvollständigkeitssätzen führt.
Das heißt, in der Theorie, mit der ich arbeite, wäre das Analogon des Gödel-Satzes so etwas wie „Dieser Satz ist nicht zu rechtfertigen“ oder „S: j(S) = 0“. Was ist dann mit j(S: j(S) = 0)? Aber wenn "dieser Satz" nicht zu rechtfertigen ist, "geht er nirgendwo hin", hat er nicht die traditionellen Folgen der Unvollständigkeit, wie mir scheint.
Ich muss auch sagen, dass ich misstrauisch gegenüber dem Semantik-Syntax-Unterschied bin oder zumindest „zu viel“ daraus mache. Da ich beispielsweise mit der sogenannten signikonischen Literatur vertraut bin, ist mir nicht klar, dass syntaktische Glyphen als solche nicht gleichzeitig semantisch sind, oder besser gesagt, es ist mir nicht klar, dass es nicht so viel mehr gibt Problem, als durch die bloße Unterscheidung angezeigt wird.
Meine Antwort ist so einfach, wie ich es machen kann, sorry! Was die Verwendung der Graphentheorie als Grundlage betrifft, sind Sie nah dran. Die Kategorientheorie, die oft mit der Graphentheorie visualisiert wird, ist eine vollkommen legitime Grundlage und Alternative zur Mengentheorie (zur Sicherheit siehe Absatz 4 des WP).
Nein. Die Kohärenzbeziehungen sind rein formale Anforderungen an zulässige verbale Beschreibungen. Sie gehen kaum weiter als die reine Beschreibungssyntax zu spezifizieren, indem sie einige globale Anforderungen (z. B. Konsistenz) hinzufügen, und berühren nicht die Substanz dessen, was beschrieben wird. Der Foundationalismus, wie er normalerweise verstanden wird, befürwortet die Existenz grundlegender materieller Prämissen über der formalen Kohärenz, seien es Sinnesdaten oder einige a priori Annahmen, über die Substanz selbst, nicht unsere Beschreibungen davon.
Was soll ein System daran hindern, sein eigenes Kohärenzkriterium zu definieren, ohne auf irgendein externes oder grundlegendes Konzept davon Bezug zu nehmen? Konkurrierende erkenntnistheoretische Systeme unterscheiden sich möglicherweise nicht nur darin, was sie für wahr halten, sondern sogar darin, was als Kriterium für die Bestimmung der Wahrheit und sogar als Kriterium für Konsistenz gilt.
@Conifold, ich habe diesen Unterschied (materielle vs. formale Prämissen als solche) in Betracht gezogen, und ich nehme an, meine einzige Erwiderung wäre: Aber dann macht dies den Unterschied zwischen materiellen und formalen Prämissen selbst zu einer Art Grundlage. Oder ist der Unterschied zwischen Form und Materie nur formal, nur materiell oder beides (oder keines)? Obwohl aus dem Unterschied nicht viel abgeleitet werden kann, wäre es nicht die "befriedigendste" Grundlage, nehme ich an.
Das ist genau richtig. Zumindest in Bezug auf mathematische Systeme sagt das JR Lucas. „[Was] Gödels Theorem zeigt, ist nur, dass das Konzept des Beweises nicht vollständig formalisiert werden kann … wir erkennen an, dass die Wahrheit der Beweisbarkeit vorauseilt … die Tatsache, dass die mathematische Wahrheit der Beweisbarkeit innerhalb eines formalen Systems vorauseilt, spricht für die Kreativität der Mathematik Schlußfolgerung ... bei einer Schlußfolgerung können wir nur das bisher unformulierte Prinzip erkennen, das sie veranschaulicht." IOW, mathematische Syntax muss notwendigerweise in Klartext-Syntax begründet sein, die selbst leer ist, wäre da nicht die Intuition.
Die Tatsache, dass mathematische Theorien (außerhalb des Flachlandes der mathematischen Akademie) in anderen erkenntnistheoretischen Theorien begründet sind, zeigt nur, wie der Regress weitergeht, wohl in den psychologischen Zustand.
Der Satz von @Bumble Goedel zeigt, dass die Konsistenz eines Systems, die Kohärenz der Sammlung von Wahrheiten, die innerhalb des Systems beweisbar sind, niemals vom System selbst bewiesen werden kann, natürlich vorbehaltlich der gleichen Einschränkungen, die für den Satz von Goedel gelten.
"Foundation" soll alles verfügbare Wissen erden. Konventionen oder sogar einige einzelne materielle Postulate mit mageren Konsequenzen sind überhaupt keine Grundlage.
@Conifold, ich denke, am Ende des Tages glaube ich nicht, dass Kohärenzismus wirklich nur ein besonderes Beispiel für Fundamentalismus ist. Aus irgendeinem Grund sagte mir Hamkins jedoch, dass es eine Art Bisimulation zwischen gut begründeten und schlecht begründeten Mengentheorien gibt, so IDK. Zumindest vermute ich, dass Fundamentalismus und Kohärenzismus entweder wie in Haacks Theorie integriert oder sozusagen als nicht überlappendes Lehramt angesehen werden können. Ich habe meine Meinung zu diesen Fragen noch nicht festgelegt...
Nun, ZFC und Aczels AST sind biinterpretierbar, ebenso wie klassisches und intuitionistisches FOL. Sagt es uns mehr, als dass FOL nicht in der Lage ist, Semantik zu codieren? Turing-Maschinen und neuronale Netze können sich gegenseitig simulieren, und informeller können Materialisten und Idealisten auch die Vorstellungen des jeweils anderen in ihren Ontologien „simulieren“. Ausreichend reichhaltige Rahmen, mathematisch oder philosophisch, können alles unter der Sonne „simulieren“, was uns nichts darüber sagt, was sie voneinander unterscheidet.
Laut SEP gibt es zwei Theorien des Kohärenzismus: einen Kohärenzismus über die Rechtfertigung und einen Kohärenzismus über die Wahrheit. Das paradigmatische Beispiel für beides ist Hilberts Begriff der formalen Wahrheit. Hier gilt ein formales System als wahr, wenn seine Axiome konsistent und damit – und das ist ein philosophischer Sprung – kohärent begründbar – zusammen mit einem anderen philosophischen Sprung – kohärent wahr sind. >Wir brauchen einen Definitionssatz für "Kohärenz" ... Wir wollen und können nicht für alles Definitionen verlangen. Im Grunde bleiben einige Dinge undefiniert, aber das bedeutet nicht, dass sie nicht verstanden werden. Dies sind die

Antworten (1)

Vorbehalt

Ich bin kein Logiker, also wird dies meine beste Anstrengung darstellen. Kritik an den Behauptungen ist erwünscht.

Kurze Antwort

Kollabiert der Kohärenzismus in eine Form des Fundamentalismus, bei der die grundlegenden Prämissen Kohärenzbeziehungen sind?

Ja. Ein Modell in der mathematischen Logik ist die Verwendung eines formalen Systems, um die Wahrheiten eines zweiten formalen Systems zu begründen, indem die Wahrheit des zweiten in das erste übersetzt wird, ähnlich wie bei Verwendungserwähnungsunterscheidungen in natürlicher Sprache. Das innere System ist die Objektsprache des äußeren, der Metasprache, wobei die Sprache im formalen Sinne als syntaktische Konstruktion einer formalen Grammatik verstanden wird, um Wohlgeformtheit zu gewährleisten. Die Beziehung zwischen der Objektsprache und der Metasprache besteht darin, dass die Grammatik der Metasprache ausdrucksstärker sein muss als die Objektgrammatik. Das ist die Natur der Begründung der Wahrheit. Das objektformale System wird verwendet, um Wahrheiten deduktiv zu beweisen , während das metaformale System verwendet wird, um die Konsistenz zu beweisender Ableitungen des Objektsystems deduktiv. Lesen Sie das noch einmal, denn das ist verwirrend, nur um es zu schreiben.

So können im besten Beispiel in der naiven Mengenlehre die grundlegenden Entitäten, Beziehungen und Operationen verwendet werden, um Theoreme zu beweisen. Aber sie können Theoreme nicht konsistent beweisen, da das System Widersprüche produziert. Der alternative Ansatz besteht jedoch darin, Axiome bereitzustellen, die Mengen, die sich selbst enthalten, nicht ausschließen, wobei ZFC die historisch inspirierte Standardform ist. Das funktioniert, weil die Mengenlehre eine Sprache ist und die Logik der Axiome in einer zweiten Sprache ist; Mengenlehre und Arithmetik sollen in der Logik begründet sein. Somit produziert die Mengenlehre konsistente mengentheoretische Wahrheiten (philosophische Kohärenz), wenn sie in die grundlegenden Wahrheiten des FOPC (philosophischer Fundamentalismus) übersetzt wird.

Lange Antwort

Formale Systeme und Sprachen

Im Allgemeinen betrachten Logiker formale Systeme als wenig mehr als eine Sammlung von Sätzen, die durch Logik einen einzelnen Satz ausgeben, ein von Frege begonnenes Projekt. Aber der Begriff eines formalen Systems ist selbst berechenbar und könnte einige Einsichten verlieren, da Sie über Zeichen gesprochen haben. Zeichen im intuitiven Sinne werden für Berechnungszwecke am besten durch Zeichenfolgen dargestellt, was den Begriff eines Zeichens in dem einer Zeichenfolge in der Informatik begründet. Wir können dies als einen möglichen Formalismus betrachten, um ein formales System darzustellen. (Es ist möglich, die Begriffe Alphabete, formale Sprachen und Automaten weit ausgefeilter zu formalisieren als im Folgenden, das eine Zusammenfassung ist.)

Beginnen wir mit dem formalen Begriff eines formalen Systems. Ein formales System kann man sich als eine Sammlung von grammatikalisch bestimmten Zeichenfolgen (Sätzen) vorstellen, die syntaktisch aus einer formalen Sprache aufgebaut sind, die eine Zeichenfolge aus einem Alphabet verkettet. In der Informatik ist die Backus-Naur-Form eine beliebte Methode, um kontextfreie Grammatiken auszudrücken (Sie müssen die Chomski-Hierarchie untersuchen , um eine bessere Vorstellung davon zu bekommen, was das bedeutet) . Backus-Naur gibt ein einfaches Beispiel dafür, wie Wohlgeformtheit rechnerisch bestimmt werden kann. Sobald eine formale Sprache logische Konnektoren in ihre Grammatik eingebaut hat, ist sie in der Lage, so etwas wie modus ponens zu verwendeniterativ zum Schluss kommen Strings oder besser gesagt Sätze iterativ auf einen finalen Satz reduzieren. So gehen wir von den Vorläufern zu den Folgen.

Gegenwärtig beruhen die Ziele der mathematischen Logik, die Strenge eines formalen Systems sicherzustellen, auf einer Metasprache, deren Ausdrucksfähigkeit größer ist als die Objektsprache, und daher wird die Kohärenz der Objektsprache durch die axiomatischen Grundlagen der Metasprache hergestellt. Die Objektsprache wird allgemein als syntaktisch bezeichnet und verwendet das syntaktische Drehkreuz 1, abstrahiert und befasst sich mit Beweisbarkeit statt Erfüllbarkeit, während die Metasprache semantisch ist und das semantische Drehkreuz verwendet, spezifischer ist und sich mit Konsistenz und Entscheidbarkeit der Objektsprache befasst. Eine Objektsprache ist daher ein deduktives Werkzeug, um eine Behauptung zu untersuchen, die sich von einer axiomatischen Basis aus erstreckt, die hauptsächlich dazu dient, die Erfüllbarkeit von Sätzen zu demonstrieren, was philosophisch gesprochen eine Instanz der Wahrheit ist, die aus Sätzen des Systems abgeleitet wird, während die Metasprache versucht, sicherzustellen Behauptungen über die Behauptungen der Subjektsprache, dh konsistent (mathematische Kohärenz), aber begründet in einem System, das die Natur der ursprünglichen Wahrheit anspricht, mit Blick nicht nur auf die Gültigkeit der Deduktion auf Objektebene (Beweisbarkeit), aber die Gültigkeit des gesamten Systems über eine Reihe von Variablen im Bereich des Diskurses, was zeigt, dass das System nicht inkonsistent darin ist, Wahrheiten zu beweisen (Konsistenz). Die Brücke zwischen den beiden Sprachen stammt von der Tarskischen Theorie der Wahrheit, die den T-Satz verwendet, um zu zeigen, dass es eine Übersetzung der Wahrheit von der Subjektsprache in die Objektsprache gibt, woher der Begriff der deflationären Wahrheit stammt.

Nun, zwischen zwei Sprachen gibt es notwendigerweise zwei unterschiedliche Grammatiken, und es ist wichtig, sich daran zu erinnern, dass die Grammatik der Metasprache ausdrucksstärker sein muss als die Objektsprache. In der Sprache der formalen Sprachen bedeutet dies einfach, dass die wohlgeformten Zeichenketten der Objektsprache eine Teilmenge der wohlgeformten Zeichenketten der Metasprache sein müssen. Denken Sie daran, dass in einem T-Satz die Verwendung von Zeichenfolgenbegrenzern (manchmal als Escape-Sequenzen, Quotifizierer usw. wie Apostrophe, Anführungszeichen usw. bezeichnet) es dem T-Satz (Tarski-Methode) ermöglicht, durch Bijektion die Wahrheit aus einer Sprache zu erden zu einem anderen) ist ein Beispiel für die Verwendungserwähnungsunterscheidung und wird verwendet, um Sätze der Subjektzeichenfolge im Satz der Metasprache einzuschließen. Tarskis Beispiel aus Logik, Semantik, Meta-Metamathematik, p. 156:

(3) 'es schneit' ist genau dann ein wahrer Satz, wenn es schneit.

Sie können sehen, dass „es schneit“ eine Aussage ist und auf Richtigkeit überprüft wird, indem die bikonditionale logische Verknüpfung verwendet wird, die nicht Teil der Konversation sein muss, dh der Sprache, die verwendet wird, wenn über den Zustand des Wetters gesprochen wird. Die Herausforderung beim Parsen dieses Satzes wird durch Zitieren erleichtert, ist aber offensichtlich nicht Teil der gesprochenen Sprache. (In der Linguistik wird das Phänomen Center-Embedding genannt und kann ohne Trennzeichen zu Verwirrung führen.)

Jetzt können wir sehen, dass der Vorteil der Verwendung der Modelltheorie offensichtlich ist. Es ermöglicht, Paradoxien eines Satzes von Axiomen aufzulösen, indem zusätzliche Axiome hinzugefügt werden, anstatt die ursprünglichen Axiome des formalen Systems zu modifizieren, und ermöglicht gleichzeitig, auf den Bereich der Ergebnisse des formalen Systems zu sprechen, während gleichzeitig die vollständige Erforschung des Systems ermöglicht wird Begriffe wie Rekursion, Entscheidbarkeit, Berechenbarkeit usw. Der Ursprung dieser erhöhten Komplexität war eine Reaktion auf das von Russell formalisierte Lügnerparadoxon und der Versuch, die Theorie der Grundmengen in der Logik ihrer Axiome zu begründen, was zu ZF und später durch Erweiterung zu ZFC führte. Von da an blühten andere Mengentheorien wie NBG auf.

Es spielt also keine Rolle, ob Sie ein Beispiel aus der Mengenlehre oder der Graphentheorie oder sogar der Geometrie ziehen. Wenn Sie eine Sprache haben, zum Beispiel FOPC, und Sie beginnen zu prüfen, ob die in der Sprache erzielten Schlussfolgerungen konsistent sind oder nicht, müssen Sie neue Ideen einführen, um die Konsistenz zu beweisen, die notwendigerweise außerhalb des FOPC liegt. Und in dem Moment, in dem Sie beginnen, diesen Prozess zu formalisieren, greifen Sie aufgrund der rekursiven Natur, die mit der Verwendung der Aussagen der ersten Sprache in einer ausdrucksstärkeren zweiten Sprache verbunden ist, auf Ideen wie Metamathematik, Metalogik und Metasprachen zurück bewerte es. Also ein großes Lob an Sie, dass Sie erkannt haben, dass es einen erkenntnistheoretischen Kohärenzismus gibt, der in eine Form des Fundamentalismus "kollabiert", bei der die grundlegenden Prämissen Kohärenzbeziehungen betreffen. Das'

1 Das Einfach-Doppel-Drehkreuz ist die aktuelle Norm in der mathematischen Logik, aber die gleichen Ideen könnten in natürlicher Sprache, Einfach-Doppelpfeile oder gemäß WP, Einfach-Einzel-Drehkreuz-Konvention vermittelt werden.

Ich wünschte, ich könnte diese Antwort zweimal bestätigen. Als Darstellung des Konzepts/der Rolle von Metasprachen ist es auch eine solide Verteidigung desselben Konzepts.
Ich gehe davon aus, dass ich, wenn ich darüber nachdenke, ein besseres Verständnis von Hamkins' Antwort auf meinen MathOverflow-Beitrag über „das gerechtfertigte Universum“ bekommen werde. Er sagte etwas über Bisimulationsfakten, die den offensichtlichen Punkt von V = J untergraben , aber ich war ratlos, auf diesen Gegenvorschlag zu antworten ...
In Bezug auf Ihr obiges "Die Objektsprache ist im Allgemeinen als syntaktisch gekennzeichnet und verwendet das syntaktische Drehkreuz ... während die Metasprache semantisch ist und das semantische Drehkreuz verwendet ...", befindet sich das syntaktische Drehkreuz im Allgemeinen auch auf der Metaebene und nicht auf der Ebene der Objektsprache. Siehe Referenz : In der Metalogik das Studium formaler Sprachen; das Drehkreuz repräsentiert die syntaktische Konsequenz (oder "Ableitbarkeit").
@DoubleKnot Ich habe den Eintrag und den Text gelesen. Der metalogische Artikel behauptete, dass die mathematische Logik und die Modelltheorie die Metalogik weitgehend subsumiert haben, was darauf hindeuten würde, dass das einzelne T-Stück nicht mehr verwendet wird. Ich habe Tarski überprüft, und er benutzt eine Tasse, und ich habe drei weitere Arbeiten, Changs Text über Modelltheorie (Doppeldrehkreuz), Boolos et al. über Berechenbarkeit (Englisch, Doppeldrehkreuz). Und Onos Text über Beweistheorie und Folgenrechnung (Doppelpfeil, Doppeldrehkreuz), aber es wurde ein Index verwendet, um die Beweisbarkeit innerhalb eines Systems zu zeigen. Ich könnte ein Notationssystem sehen, das ein Skript verwendet ...
Natürlich gibt es keinen Grund, warum Sie es nicht einfach aus dem Kontext bestimmen könnten, aber das wäre eine ziemliche kognitive Belastung. Wie auch immer, danke fürs Teilen, aber ich weiß nicht, ob ein Exkurs in Variationen von Notationen, um Syntax und Semantik auszudrücken, viel Wert hat. Ich werde jedoch eine Fußnote einfügen. Danke!
Erledigt! (Uh, oh. Jetzt weiß ich, wie man Fußnoten macht.)