Welche Beziehung besteht zwischen der thermodynamischen Entropie und den Informationen im Gehirn (oder einem Buch)?

Maximale Entropie ist äquivalent zu minimaler Information in der statistischen Mechanik und Quantenmechanik und das Universum als Ganzes tendiert zu einem Gleichgewicht von minimaler Information/maximaler Entropie. Was auch zum kanonischen Bild zu gehören scheint, ist, dass alle Strukturbildungen, die wir auf der Erde sehen, das Ergebnis davon sind, dass die Erde ein offenes System ist, sozusagen eine thermodynamische Maschine, die von der Energie der Sonne angetrieben wird, und die offensichtliche Verletzung des zweiten Hauptsatzes der Thermodynamik auf der Erde ist also nur eine Illusion, die durch die Einbeziehung des Rests des Universums aufgelöst wird.

Aber was ich mich gerade gestern gefragt habe:

Ist es legitim, die im Gehirn gespeicherten Informationen als Teil der thermodynamischen Informationen/Negentropie zu betrachten? Oder ist das eine ganz andere Informationsebene?

Die Diskrepanz zwischen diesen beiden Informationsaspekten wird wahrscheinlich deutlicher, wenn ich dieselbe Frage zu den Informationen stelle, die in einem Computer gespeichert sind. Weil der Computer vollständig deterministisch ist und es mir daher nicht gültig erscheint, ihn als Teil eines statistisch-mechanischen oder quantenmechanischen Systems zu betrachten (zumindest es sei denn, der Computer wird zerstört oder eine elektrische Entladung verändert einen seiner Speicher-Flips -flops oder so ähnlich).

Oder um es noch einen Schritt weiter ins Absurde zu treiben: Enthalten die Bücher in der US-Kongressbibliothek oder die im Louvre in Paris gezeigte Kunst einen wesentlichen Anteil an thermodynamischer Negentropie, oder ist es nicht thermodynamisch eher irrelevant, wenn eine Seite davon ist? ein Buch oder ein Gemälde einen schwarzen oder grünen oder roten Farbfleck enthält, der Teil eines Buchstabens "a" oder das Auge der Mona Lisa ist, oder überhaupt keine Farbe enthält?

Natürlich weiß ich, dass wir Shannons Informationen für Computerspeicher einfach definieren können, ebenso wie wir die Entropie des Gehirns als ein elektrochemisch-thermodynamisches System definieren können. Aber meine Frage ist, sind diese Konzepte tatsächlich gleich, oder ist eines in dem anderen enthalten, oder sind sie völlig unzusammenhängend, komplementär oder was auch immer ohne Bezug?

Bearbeiten : Diese Frage (dank Rococo) hat bereits mehrere Antworten, von denen ich jede ziemlich aufschlussreich finde. Da das Kopfgeld jetzt jedoch bereits auf dem Tisch liegt, ermutige ich jeden, seinen eigenen Standpunkt oder sogar Aussagen einzubringen, die im Widerspruch zu denen in der verknüpften Frage stehen.

Warum das Gehirn besonders machen? Es ist nur ein Haufen Neuronen, die durch biochemische Reaktionen feuern. Sie möchten die Nettoentropie all dieser Reaktionen, dh das Leben, berücksichtigen, nicht nur einen kleinen Teil davon. Lassen Sie sich nicht vom Begriff der „Informationsentropie“ täuschen und glauben, dass die Nicht-Gehirn-Teile der Biologie keine Informationen enthalten.
Ähnlich, wenn nicht doppelt, von physical.stackexchange.com/q/263197
@AtmosphericPrisonEscape: Ich könnte einen Teil meines Kommentars zu Vadims Antwort wiederholen. Erlaubt die thermodynamische Entropie zu erklären, warum das Originalmanuskript von Newtons Principia bei Sotheby's ein höheres Gebot erhalten würde als ein gleichwertiges Buch mit leeren Seiten (oder beispielsweise einem mit zufälligen schwarzen Punkten darin). Oder liegt das nur an menschlicher Unwissenheit, die die vielen kostbaren Geheimnisse übersieht, die zwischen den Ligninfasern all dieser Seiten eingeschlossen sind? (Nichts für ungut an dieser Ironie, nur um den Kontrast schärfer zu machen)
@Rococo: Danke für den Link. In der Tat ist dies fast dieselbe Frage anders formuliert. Sehr interessante Antworten. Ich tendiere am meisten zu knzhous Antwort, die meiner Interpretation nach impliziert, dass die Boltzmann-Entropie sich mit den großen Wahrscheinlichkeitsänderungen befasst und die kleinen ignoriert (weshalb kalorimetrische Messungen für ein gedrucktes Buch dasselbe ergeben wie für ein leeres Buch). Die Shannon-Entropie "subtrahiert die Hintergrund-" Boltzmann-Entropie und berücksichtigt nur die winzigen Wahrscheinlichkeitsänderungen aufgrund der Shannon-Entropie (die auch aufgrund der Abstraktion von Farbpunkten zu Buchstaben neu skaliert wird).
@oliver: Vielleicht möchten Sie sich die Entropie eines Antiferromagneten bei 0K ansehen ...

Antworten (3)

Zusamenfassend:

Ja, Information und Negentropie messen dasselbe und können direkt verglichen werden und unterscheiden sich nur durch einen konstanten Skalierungsfaktor.

Dies führt jedoch zu einem Problem, wenn es um die wertvollen Informationen in einem Buch, Gehirn oder Computer geht, da die wertvollen Informationen von der relativ zahlenmäßig gigantischen Entropie der Anordnung der Masse, die diese Informationen speichert, überwältigt werden. Dieses Problem lässt sich jedoch häufig leicht lösen, indem Informationsfragen gestellt werden, die so formuliert sind, dass die interessierenden Informationen ausgewählt werden. In einem Computer, wo diese Trennung zum Beispiel offensichtlicher ist, ist es wichtig, zwischen der Entropie eines Transistors (eine kristalline Struktur mit sehr hoher Information) und der in seinem logischen Zustand enthaltenen Information (eine viel viel niedrigere Information, aber normalerweise interessanter).

Daher stellt sich am Ende nur die Frage: Verstehen wir das System gut genug, um festzustellen, an welchen Informationen wir interessiert sind? Wenn wir das wissen, ist es normalerweise möglich, es abzuschätzen.

sind Negentropie und Informationsmessung dasselbe?:

Ja. Dies wird von vielen Leuten sehr deutlich formuliert, einschließlich dieser Antwort auf PSE, aber ich nehme ein altes Buch von Brillioin, Wissenschafts- und Informationstheorie ( dh dies ist das Brillioin von Brillioin Zones usw. und auch die Person, die prägte den Begriff "Negentropie").

Der wesentliche Punkt ist zu zeigen, dass jede Beobachtung oder jedes Experiment, das an einem physikalischen System gemacht wird, automatisch zu einer Erhöhung der Entropie des Labors führt. Es ist dann möglich, den Verlust an Negentropie (Zunahme der Entropie) mit der Menge an gewonnener Information zu vergleichen. Die Effizienz eines Experiments lässt sich als das Verhältnis von gewonnener Information zu dem damit verbundenen Entropiezuwachs definieren.

Informationen vs. wertvolle Informationen:

Brillioin unterscheidet auch zwischen "Informationen" und "wertvollen Informationen" und sagt, dass es a priori keinen mathematischen Weg gibt, diese zu unterscheiden, obwohl wir in bestimmten Fällen definieren können, was wir als wertvolle Informationen betrachten, und in diesen Fällen können wir sie berechnen . 

Wir ignorieren vollständig den menschlichen Wert der Informationen. Einer Auswahl von 100 Buchstaben wird ein gewisser Informationswert beigemessen, und wir untersuchen nicht, ob es im Englischen Sinn macht und ob die Bedeutung des Satzes gegebenenfalls von praktischer Bedeutung ist. Nach unserer Definition eine Menge von 100 zufällig ausgewählte Buchstaben (nach den Regeln von Tabelle 1.1), ein Satz von 100 Buchstaben aus einer Zeitung, ein Stück von Shakespeare oder ein Theorem von Einstein haben genau den gleichen Informationswert, d.h. wir definieren „Information“ im Unterschied zu „Wissen", für das wir kein numerisches Maß haben. Wir unterscheiden nicht zwischen nützlichen und nutzlosen Informationen, und wir entscheiden uns dafür, den Wert der Informationen vollständig zu ignorieren. Unsere statistische Definition von Informationen basiert nur auf Knappheit. Wenn a Lage ist knapp, es enthält Informationen. Ob diese Informationen wertvoll oder wertlos sind, geht uns nichts an. Der Begriff „Wert“ bezieht sich auf die mögliche Nutzung durch einen lebenden Betrachter.

Um die Informationen in den Pricipia anzusprechen, lautet die Frage natürlich, Informationen von wertvollen Informationen zu trennen und zu beachten, dass ein ähnliches Buch mit denselben Buchstaben in einer bestimmten, aber zufälligen Reihenfolge dieselben Informationen, aber unterschiedliche wertvolle Informationen enthält .

In seinem Buch liefert Brillioin viele gewöhnliche Beispiele, berechnet aber auch einige breitere und interessantere Beispiele, die eng mit einigen Unterthemen dieser Frage verbunden sind. Anstelle eines Bildes (wie die Frage des OP andeutet) konstruiert Brillioin eine Möglichkeit, die Informationen eines schematischen Diagramms zu quantifizieren. Anstelle eines Physiktextes (wie die Frage des OP suggeriert) analysiert er ein physikalisches Gesetz (in diesem Fall das ideale Gasgesetz) und berechnet auch seinen Informationsgehalt. Es ist keine Überraschung, dass diese Informationswerte von den nicht wertvollen Informationen in dem physischen Material, in dem sie verkörpert sind, überschwemmt werden.

ein spezieller fall, das gehirn:

Von den drei Themen, die durch die Frage aufgeworfen werden, ist das Gehirn das interessanteste für mich. Wenn Sie hier fragen, was die Informationen im Gehirn sind, entsteht eine ähnliche Mehrdeutigkeit wie bei einem Computer: "Sprechen Sie über die kristallinen Transistoren oder sprechen Sie über ihren Spannungszustand?" Aber im Gehirn ist es aus verschiedenen Gründen komplexer, aber am schwierigsten zu klären scheint zu sein, dass es keine klare Unterscheidung zwischen Struktur und Zustand und wertvollen Informationen gibt.

Ein Fall, in dem klar ist, wie dies zu klären ist, sind die Informationen in Spitzen innerhalb von Neuronen. Ohne eine vollständige Zusammenfassung der Neurowissenschaften zu geben, möchte ich sagen, dass Neuronen Informationen über Spannungen übertragen können, die an ihren Membranen auftreten, und diese Spannungen können kontinuierlich schwanken oder als diskrete Ereignisse, sogenannte "Spitzen", existieren. Die Spikes sind am einfachsten, ihre Informationen zu quantifizieren. Zumindest für afferente Stimulus-codierende Neuronen, bei denen die Menschen eine vernünftige Vermutung anstellen können, welchen Stimulus sie codieren, ist es oft möglich, Bits/Spikes zu quantifizieren, und es wird normalerweise festgestellt, dass sie je nach Neuron 0,1 bis 6 Bits/Spikes betragen (aber hier findet offensichtlich eine gewisse Vorauswahl der Neuronen statt). Es gibt ein ausgezeichnetes Buch zu diesem Thema mit dem Titel Spikes von Fred Rieke et al, obwohl seit seiner Veröffentlichung viel Arbeit geleistet wurde. 

Das heißt, bei einem gegebenen Modell von 1) was kodiert wird (zB Aspekte der Stimuli) und 2) was der physikalische Mechanismus zum Kodieren dieser Informationen ist (zB Spikes), ist es ziemlich einfach, die Informationen zu quantifizieren. 

Mit einem ähnlichen Programm ist es möglich, die in einer Synapse und in kontinuierlichen Spannungsänderungen gespeicherten Informationen zu quantifizieren, obwohl es zu diesen Themen weniger Arbeit gibt. Um diese zu finden, suchen Sie nach Dingen wie "Shannon Information Synapse" usw. Es scheint mir nicht schwer, sich ein Programm vorzustellen, das diesen Weg fortsetzt, und es könnte, wenn es auf die ausreichend große Größe skaliert würde, schließlich Informationen einschätzen das Gehirn von diesen Prozessen. Dies funktioniert jedoch nur für die Prozesse, die wir gut genug verstehen, um die Fragen zu stellen, die zu den Informationen führen, an denen wir interessiert sind.

Die Unterscheidung zwischen Informationen und „wertvollen Informationen“ ist ein sehr interessanter Gesichtspunkt. Dies lässt mich denken, dass der Kern des Problems nicht wirklich darin besteht, wie die Informationen physisch dargestellt werden (Buch/Gehirn/"Haufen Transistoren"), sondern eher im Prozess des Informationsabrufs. Wissen Sie, ob die Informationswissenschaft dafür einen theoretischen Rahmen hat? Ich sehe Verbindungen zu Datenbanken und Kryptografie. Was wie eine unschätzbare Information als Chiffretext aussieht, ist tatsächlich eine wertvolle Information als Klartext. Könnte das Lesen eines Buches als Prozess der „Entschlüsselung“ betrachtet werden?
Übrigens, eine kleine Korrektur: "the Brilliuon of Brilliuon Zones" wird eigentlich "Brillouin" geschrieben.
In meinem obigen Kommentar muss „unschätzbar“ durch „wertlos“ ersetzt werden.
@oliver: 1) Bei der Informationstheorie geht es eher um ein Mittel zur Quantifizierung als um ein Mittel zur Werterkennung. Die Unterscheidung muss durch Wissen über das System und das System in Bezug auf andere Systeme erfolgen. 2) Ja, oft für Informationen, die jemand für wertvoll hält, deren Informationsgehalt unabhängig vom Medium ist. 3) Ich glaube nicht, dass das Abrufen in der Informationstheorie über die offensichtlichen Fragen zum Codieren / Decodieren hinaus von zentraler Bedeutung ist. 4) Die nächste Ebene der Schlüsselinformationstheorie, die ich in dieser Diskussion ausgelassen habe, dreht sich mehr um "gegenseitige Informationen", Änderungen in Verteilungen usw.
Ich denke, ich werde noch etwas über gegenseitige Informationen lesen. Meine vorläufige Überprüfung des entsprechenden Wikipedia-Artikels sieht so aus, als gäbe es theoretisch einen Einblick in das, was Wissen ist.
@oliver: Es könnte hilfreich sein, darauf hinzuweisen, dass es eine Art Metamethode gibt, um zu verstehen, warum Shannon-Informationen in Bezug auf Wissen möglicherweise nicht so nützlich sind, bezogen auf „... unsere statistische Definition von Informationen basiert nur auf Knappheit“. Das heißt, knapp Dinge haben einen hohen Informationsgehalt, aber die Allgegenwärtigkeit von Informationen und Negentropie macht „Informationen“ selbst sehr nicht knapp, und daher was?, nicht informativ? Wie auch immer, ich denke, es ist eine interessante Wendung. Ein kg Gold ist also wertvoll, aber das liegt nicht an den Kilogramm, sondern am Gold und seiner Knappheit.
danke nochmal für den nützlichen hinweis. In der Frage, was Knappheit/Wert ist, verbirgt sich eine ganze Menge interessanter Dinge. Meine kleine Tochter findet jeden Stein wertvoll, weil sie bei genauem Hinsehen erkennen kann, dass es sich um ein Individuum handelt. Daher sind sie in ihrer Wahrnehmung rar. Andererseits glauben Erwachsene an den Wert anderer Dinge. Obwohl das Element Osmium 25-mal häufiger vorkommt als Gold, kostet es das 30-fache. Mit dem Glauben an den Wert der Dinge sind wir beim Konzept des Fiat-Geldes angelangt. Ich bin immer wieder beeindruckt von der Kraft des Glaubens.

Es gibt viele verschiedene Möglichkeiten, die Informationen der Bücher in einer Bibliothek zu definieren – je nachdem, ob man sie als physische Papierobjekte oder als Sammlungen von Buchstaben/Wörtern oder als etwas anderes betrachtet.

Konzentrieren wir uns auf die im Text hinterlegten Informationen, also die konkrete Anordnung von Buchstaben und Wörtern, so lässt sich dieser auf zwei Ebenen betrachten:

  • Zunächst einmal ist die Anordnung von Buchstaben und Wörtern nicht zufällig, dh sie befindet sich offensichtlich nicht im Zustand maximaler Entropie. Als amüsante Manifestation dessen könnte man die Häufigkeit von Buchstaben vergleichen, die in einem Text verwendet werden, der auf Englisch und einer anderen Sprache mit demselben (oder sich zumindest überschneidenden) Alphabet geschrieben wurde – sie sind offensichtlich unterschiedlich und dienen tatsächlich oft als erster Schritt im Text Erkennungsalgorithmen. Offensichtlich ist der echte Text bei weitem komplexer als die Statistik von Buchstaben und Wörtern - da die Buchstaben und Wörter selbst über komplexe Regeln korreliert sind (Shannons Artikel stellt eine frühe Diskussion einer solchen Analyse dar, aber es gibt komplexere Regeln, die in der mathematischen Linguistik unter untersucht werden Begriffe wie Transformationsgrammatik , generative Grammatik usw.)
  • Texte sind jedoch noch mehr als die Statistik von Symbolen - ihre Korrelation mit anderen statistischen Verteilungen, zB mit den Wörtern, Sätzen und anderen Daten, die im Kopf einer Person gespeichert sind, die ein Buch liest. Offensichtlich kann ein einsprachiger Spanischsprecher mehr von einem in dieser Sprache geschriebenen Buch bekommen als ein einsprachiger Englischsprecher, obwohl der Brief immer noch mehr bekommt als ein einsprachiger Chinesischsprecher. In der Informationswissenschaft werden solche Korrelationen durch gegenseitige Informationen gemessen - dh die Informationen, die in Bezug auf einen bestimmten Hintergrund / Kontext gemessen werden.

Aus einer solchen textuellen Sicht hängt der Informationsverlust aufgrund eines Flecks oder einer fehlenden Seite in einem Buch davon ab, wie sehr es die Statistik der Symbole in diesem Buch und die Korrelationen zwischen ihnen verzerrt. Manchmal kann ein geschwärztes Wort leicht aus dem Kontext erraten werden, während es in anderen Fällen einen ganzen Satz oder einen Absatz unverständlich machen kann.

Danke Wadim. Obwohl dies eine schöne Zusammenfassung dessen ist, was Entropie / Information im Kontext der Informationswissenschaft bedeutet, interessiert mich speziell die Frage, ob die thermodynamische Negentropie (entweder die, die Sie aus der statistischen Mechanik oder aus der statistischen Quantenmechanik berechnen) die Informationen in der enthält Sinn für Informationswissenschaft, oder ob es sich um unterschiedliche Konzepte handelt, die in unterschiedlichen Kontexten angewendet werden.
@oliver vielleicht könnten Sie Ihre Frage präzisieren: So ist nicht genau klar, was Sie fragen und wie speziell die Antwort sein sollte. Sachkundige Leute könnten es übersehen (ich kann nicht wirklich viel mehr hinzufügen als das, was ich bereits oben geschrieben habe.)
Ich bin mir nicht sicher, was an der Frage unklar ist. Vielleicht können Sie mir helfen, es zu sehen. Warum dachten Sie zB, es ginge hier nur um Shannon-Entropie und nicht auch um thermodynamische Entropie? Ich denke, wir stimmen darin überein, dass das Originalmanuskript von Newtons Principia bei Sotheby's viel höher bezahlt werden würde als ein ähnliches Buch, bei dem alle Seiten gelöscht wurden? Während dieser Wert wahrscheinlich zumindest annähernd durch die Shannon-Entropie gemessen werden könnte, kann ich mir kaum vorstellen, wie die thermodynamische Entropie die gleiche Aufgabe erfüllen könnte, da sie sich nur mit Temperatur, Druck, Partikeltypen und so weiter befasst ...

Ist es legitim, die im Gehirn gespeicherten Informationen als Teil der thermodynamischen Entropie zu betrachten?

Soweit das Gehirn selbst physisch ist, können wir das.

Der Geist selbst wird jedoch nicht auf diese Weise verstanden, es ist zum Beispiel nicht einmal klar, was Bewusstsein ist. Es ist auch nicht klar, was mit im Kopf gespeicherten Informationen gemeint sein kann. Daher ist es besser, sich davon abzuwenden, den Geist durch physikalische Konzepte zu denken.

Ich stimme zu, dass das Gehirn nicht das bestmögliche Beispiel für das ist, was ich meinte. Die Frage nach dem Buch leidet jedoch nicht unter diesen Schwierigkeiten.