Was ist der Unterschied zwischen Tiefen- und Oberflächeninformationen?

Ich suchte nach einer Antwort auf diese Frage: War Euklids Beweismethode axiomatisch?

Dabei stieß ich auf eine Zusammenfassung von Jaakko Hintikka für einen Artikel "Was ist die axiomatische Methode?" wobei die Unterscheidung zwischen Tiefen- und Oberflächeninformationen getroffen wurde:

...die Ableitung von Theoremen aus Axiomen erzeugt keine neuen Informationen im üblichen Sinne des Begriffs Tiefeninformation. Es kann neue Informationen in einem anderen Sinne produzieren, die als Oberflächeninformationen bezeichnet werden.

Ich habe keinen Zugriff auf diesen Artikel und bin mir nicht sicher, ob er bei der Beantwortung meines ursprünglichen Anliegens helfen würde, aber anscheinend gibt es einen "üblichen Sinn" für zwei verschiedene Arten von Informationen, eine "Tiefe" und eine "Oberfläche".

Das führt mich zu der Frage: Was ist dieser Unterschied zwischen Tiefeninformationen und Oberflächeninformationen? Wie würde ich sie unterscheiden? Vielleicht ist dieser Unterschied etwas Besonderes in Hintikkas Philosophie.

Die Idee scheint zu sein, dass Tiefeninformationen axiomatisch sind und Oberflächeninformationen von Axiomen oder anderen Informationen abgeleitet werden. Sie mag der apriorischen und analytischen Unterscheidung von Kant ähnlich sein. .
Vielleicht nützlicher SEP-Eintrag zu Logik und Information .
Es ist typisch für Hintikkas Theorie, und eine Möglichkeit, mehr darüber zu erfahren, besteht darin, den harten Angriff zu lesen, der von S. Sequoiah-Grayson The Scandal of Dduction , JPhph Logic 37(2008) p67-94 (pdf psu.edu) veröffentlicht wurde.
Sequoiah-Grayson ist übermäßig technisch, für eine zugänglichere Darstellung siehe The Philosophy of Mathematical Information von D'Agostino, S. 13-17 . Grob gesagt sind Oberflächeninformationen über "triviales" Denken zugänglich, ohne neue Objekte einzuführen, um Konsequenzen aus den Prämissen abzuleiten (formal ausgedrückt, ohne neue Quantoren in die Ableitungsformeln einzuführen). Tiefeninformationen bleiben bei Ableitungen gleich, Oberflächeninformationen wachsen.
Einen quantitativen Versuch, den Informationsgewinn von Ableitungen zu spezifizieren, unternahm Jaakko Hintikka mit seiner Theorie der Oberflächen- und Tiefeninformation (Hintikka 1970, 1973). Die Theorie der Oberflächen- und Tiefeninformation erweitert die Theorie der semantischen Information von Bar-Hillel und Carnap vom monadischen Prädikatenkalkül bis hin zum vollständigen polyadischen Prädikatenkalkül. Dies ist an sich schon eine beachtliche Leistung, aber obwohl es technisch erstaunlich ist, besteht eine ernsthafte Einschränkung dieses Ansatzes darin, dass es nur ein ... plato.stanford.edu/entries/logic-information ist

Antworten (1)

1) Semantische Informationen

Beginnen wir damit, was Informationen sind. Angenommen, wir haben eine Reihe von Sätzen, von denen wir wissen, dass sie wahr sind, dann können wir (einige) Fragen über die Welt beantworten. Wenn wir lernen, dass mehr Sätze wahr sind, wächst die Menge der Fragen, die wir beantworten können. In der erkenntnistheoretischen Logik wird dies gemessen, indem ein erkenntnistheoretischer Raum, bestehend aus allen möglichen Welten, definiert wird und der Bereich davon genommen wird, in dem mindestens einer der bekannten Sätze falsch ist. Diese verfälschte Region repräsentiert semantische Informationen, sie wächst, je mehr wir lernen, und damit auch die Zahl der Fragen, auf die sich die übrigen Welten einigen. Diese Fragen sind geklärt. Semantische Information ist die Gesamtheit der ausgeschlossenen Welten. Die Region aller Welten außer einer, der tatsächlichen Welt, repräsentiert vollständige Informationen. Dieses Bild geht auf Carnap und Bar-Hillel zurück (sie leiten auch ein numerisches Informationsmaß basierend auf einem Wahrscheinlichkeitsmaß über den epistemischen Raum).

Wie können wir neue Informationen erhalten? Empirisch können wir beobachten, dass etwas wahr ist. Aber wir können auch neue wahre Sätze mit Hilfe der Logik ableiten. Ach, hier kommt der Schmerz. Klassische mögliche Welten sind logisch maximal, wenn einige Sätze in ihnen wahr sind, dann sind es auch alle ihre logischen Konsequenzen. Hintikka nannte dies „logische Allwissenheit“. Das bedeutet, dass wir durch das Ableiten von Konsequenzen keine neuen Informationen gewinnen , Welten, in denen sie falsch sind, werden bereits durch die ursprünglichen Sätze ausgeschlossen. Denken Sie darüber nach, bei dieser Konzeption haben wir nichts Neues gelernt, als Wiles den Satz von Last Fermat bewiesen hat! Dieses Hintikka nannte den "Skandal des Abzugs". Abgesehen von Hinweisen in den Kommentaren ist eine klassische Quelle Hintikkas Buch Logic, Language-games and Information .Kommentar von Sagguillo .

2) Tiefen- und Oberflächeninformationen

Hintikkas Lösung bestand darin, das zu qualifizieren, was oben als Tiefeninformation beschrieben wurde . Es ist eine ideale Grenze, alles, was wir im Prinzip aus dem Sessel herausholen können, ohne neue Beobachtungen zu machen. Aber einiges davon ist tief vergraben. Da wir keine idealen Agenten sind, ist unsere Fähigkeit zu Schlussfolgerungen begrenzt. Sequoiah-Grayson gibt in seiner Kritik technische Details zur Messung der Tiefe. Man muss ein bestimmtes formales System zum Ableiten von Konsequenzen und eine bestimmte Art der Ableitung verwenden (dies ist erforderlich, um die Tiefe eindeutig zu definieren), Ableitungsformeln in einer normalen Form darstellen (mit Quantoren in den Pränex verschoben) und zählen, wie viele im Zuge einer Ableitung kommen neue Quantoren hinzu.

Um es kurz zu machen, wir nennen eine Konsequenz eine Tiefe k, wenn ihre Ableitung das Hinzufügen von genau k Quantoren erfordert. Dies ist ein Maß für die Nicht-Trivialität der Konsequenz. In qualitativer Hinsicht wurde die Unterscheidung zwischen Tiefen- und Oberflächenfolgen durch Peirces Unterscheidung zwischen logischen und theoretischen Beweisen vorweggenommen, die wiederum die bereits von erwähnte Unterscheidung zwischen „logischen“ (syllogistischen) und „geometrischen“ (diagrammatischen) Schlussfolgerungen in euklidischen Demonstrationen verallgemeinerte Aristoteles. Für die semantische Information der Tiefe k nehmen wir nur jene Welten, in denen unsere Basissätze und ihre Konsequenzen bis zu dieser Tiefe reichen, sind verfälscht. Oberflächeninformationen sind Tiefe 0, nur triviale Konsequenzen werden berücksichtigt. Die Syllogismen des Aristoteles erzeugen nur solche Konsequenzen. Man kann verstehen, warum Kant dachte, dass die Logik für die Mathematik nicht ausreicht. Das bedeutet auch, dass einige unserer "möglichen" Welten tatsächlich inkohärent sind. Bevor Mathematiker 1995 an die Axiome der Mengenlehre glauben und den Satz von Last Fermat nicht glauben konnten, waren sie inkohärent, ohne irrational zu sein.

3) Tiefe in euklidischen Demonstrationen

Ich habe in einem anderen Beitrag erklärt, warum Hintikkas Lösung des Deduktionsskandals nicht ganz funktioniert und wie sie behoben wurde. Ist das Problem der logischen Allwissenheit unlösbar? Lassen Sie mich hier erklären, was die Tiefe informell bedeutet, insbesondere in der Geometrie. Denken Sie an natürliche Deduktionsargumente, bei denen Variablen instanziiert (dh generische Objekte für sie ausgewählt) und Quantifizierer entfernt werden können. Je mehr Quantoren hinzugefügt werden, desto mehr neue Objekte, die in den Prämissen oder der Schlussfolgerung nicht vorhanden sind, tauchen in der Zwischenüberlegung auf. Dies hat eine Entsprechung in euklidischen Demonstrationen: Oberflächeninformationen können direkt aus dem Prämissendiagramm abgelesen werden, Tiefeninformationen erfordern das Erzeugen von Hilfslinien/Kreisen, je mehr davon, desto tiefer. Hier ist Hintikka selbst drinCS Peirces „Erste echte Entdeckung“ und ihre zeitgenössische Relevanz (1980) :

Was eine Deduktion nach Peirce theoretisch macht, ist, dass wir uns darin andere Individuen vorstellen müssen als diejenigen, die zur Instanziierung der Prämisse des Arguments benötigt werden. Die neuen Individuen müssen nicht visualisiert werden, wie es die geometrischen Objekte sind, die durch eine euklidische Konstruktion eingeführt werden. Sie müssen jedoch erwähnt und in der Argumentation berücksichtigt werden.

Wie werden solche neuen Personen eingeführt? Ein Beispiel erhält man, indem man die in der elementaren Geometrie verwendeten Argumente in Argumente umwandelt, die die moderne symbolische Logik, insbesondere die Quantifizierungstheorie, verwenden. Dann fügt jede neue Schicht von Quantoren ein neues Individuum (geometrisches Objekt) zu den Konfigurationen von Individuen hinzu, die wir betrachten. Schließlich lädt uns jeder Quantifizierer ein, ein Individuum zu betrachten, wie unbestimmt es auch sein mag. (Der Existenzquantor „(∃x)“ kann gelesen werden „es gibt mindestens ein Individuum, nenne es x, so dass“; und entsprechend für den Universalquantor.)

[...]Peirces entscheidende Erkenntnis war, was passiert, wenn ein traditionelles halbformales geometrisches Argument, das Zahlen verwendet, in ein explizites logisches Argument umgewandelt wird. Tatsächlich angezeigte Zahlen werden natürlich überflüssig, aber die darauf verweisenden Buchstaben (oder Buchstabenkombinationen) werden zu freien Variablen (oder anderen freien singulären Begriffen, wie z it in Verbindung mit Instanziierungen), die im formalen Argument verwendet werden. (Vgl. das obige Zitat aus Collected Papers 4.616, wo Peirce von Euklids Verwendung griechischer Buchstaben als Eigennamen für geometrische Objekte spricht.) Jedes Mal, wenn ein neues geometrisches Objekt in das alte halbformale Argument eingeführt wurde, ist ein neuer freier singulärer Begriff in das formale Argument eingeführt, typischerweise durch einen Instanziierungsschritt.

4) Diagrammatische Methode von Euklid

Da Euklid keine mehrstelligen Prädikate, Quantifizierer, Instantiierungsregeln oder andere logische Mechanismen jenseits der Syllogistik besaß, musste er nicht-triviale Schlussfolgerungen direkt aus den Diagrammen ablesen und nicht logisch aus den Axiomen ableiten. Seine Demonstrationen sind keine Schlussfolgerungsketten, sie werden nur von (oberflächlichen) Schlussfolgerungen begleitet. Das Ablesen ist nicht so einfach, wie es sich anhört, auch nachdem die Hilfskonstruktionen ausgeführt sind, braucht man Allgemeingültigkeitskontrollen, um sicherzustellen, dass zufällige Merkmale der Diagramme nicht für bare Münze genommen werden. Eine detaillierte Untersuchung der Diagrammmethode des Euklid, ein moderner Klassiker, ist Manders' Euklidisches Diagramm (veröffentlicht im Mancosu-Herausgeberband , frei verfügbar).

Wir wissen jetzt auch, dass die „Umwandlung“ von Hintikka in die natürliche Deduktion auch nicht ganz funktioniert. Trotz einiger breiter struktureller Ähnlichkeiten, einschließlich der Tiefenparallelität, ist die "konfigurative Logik" von Diagrammen nicht mit der natürlichen Deduktion vereinbar, siehe Greek Geometrical Analysis von Behboud . Zahlen werden nicht überflüssig und Buchstaben können nicht ohne weiteres mit instanziierten Variablen identifiziert werden (weil sich logische Individuen im Gegensatz zu den Hilfslinien nicht schneiden können und es kein Analogon zu den Konstruktionspostulaten gibt).

Folglich können Euklids Demonstrationen nicht durch "Lückenfüllen" in formale Ableitungen "übersetzt" werden, sondern müssen umgearbeitet werden, zB a la Hilbert. Euklids eigener Ansatz ist näher an der semantischen Methode moderner informeller Beweise als an der (formalen) axiomatischen Methode, siehe Rodin's Doing and Showing (frei verfügbar) und Rav's Axiomatic Method in Theory and in Practice . Eine originalgetreuere moderne Rekonstruktion, die Diagramme als wesentliche Bestandteile von Demonstrationen bewahrt, wurde von Mumma entwickelt, siehe Artikel auf seiner Homepage .

"Als Wiles den Satz von Last Fermat bewies, haben wir nichts Neues gelernt!" Haben wir nicht sichergestellt, dass das Theorem im mathematischen Standardmodell wahr ist? Wäre aber schön zu wissen, ob das Modell die reale Welt darstellt.