Steht Stephen Wolframs NKS, ein Versuch, das Universum mit zellulären Automaten zu erklären, im Widerspruch zu Bells Theorem?

Stephen Wolframs A New Kind of Science (NKS) kam 2002 mit maximalem Hype in die Buchläden. Seine These ist, dass die Gesetze der Physik von verschiedenen zellulären Automaten generiert werden können – einfache Programme, die Komplexität erzeugen. Gelegentlich (also selten) schaue ich in den NKS-Blog und suche nach neuen Anwendungen. Ich sehe nichts, was ich für sinnvoll halte. Kennt jemand irgendwelche Fortschritte in irgendeiner physikalischen Theorie, die sich aus NKS ergeben? Während CA sowohl interessant als auch unterhaltsam ist (John Conway, Game of Life), sehe ich als Theorie von allem Probleme. Die Generatorregeln sind deterministisch und insofern lokal, als jeder Zellzustand von seinen unmittelbaren Nachbarn abhängt. NKS ist also ein lokales deterministisches Modell der Realität. Bell hat gezeigt, dass dies nicht sein kann. Kann jemand, der sich mit CA auskennt, einen Kommentar abgeben?

Gerard 't Hooft hat sich mit von zellularen Automaten inspirierten Modellen für grundlegende Physik beschäftigt. Einige seiner jüngsten (und lesbaren) Artikel finden Sie unter arxiv.org/find/quant-ph/1/au:+Hooft_G
"Bells Theorem schließt lokale versteckte Variablen als brauchbare Erklärung der Quantenmechanik aus (obwohl es immer noch die Tür für nicht-lokale versteckte Variablen offen lässt)." Es sind diese nicht-lokalen versteckten Variablen, die die Tür für eine CA-Erklärung des Universums öffnen. Da die zugrunde liegende Struktur der Raumzeit unbekannt ist, ist die Unterscheidung zwischen lokal und nicht lokal bedeutungslos; Es ist durchaus möglich, dass scheinbar zufällige Quantenereignisse, sowohl lokal als auch nicht-lokal, auf deterministische Weise zusammenhängen. Die bloße Existenz von Verschränkung ist ein offensichtlicher Hinweis darauf, dass dies der Fall ist. Alles ist verbunden.

Antworten (5)

Während NKS mit viel Hype und viel Skepsis von Wissenschaftlern herauskam, sind die wissenschaftlichen Ideen dort nicht ganz trivial. Ich denke nur, dass sie nicht grundlegend für die Wissenschaft der Physik sind (zumindest nicht so, wie wir sie bisher kennen), sondern sie sind grundlegend für die Wissenschaft der Biologie.

Die wichtigste Entdeckung von Wolfram (obwohl mit einer wichtigen Verwirrung, die ich weiter unten erklären werde, und mit einem äußerst bedeutsamen Vorläufer in Conways Spiel des Lebens) ist, dass es sich um einen einfachen eindimensionalen zellularen Automaten handelt, dessen Regeln zufällig ausgewählt werdenwird eine endliche nicht ganz so geringe Wahrscheinlichkeit haben, ein vollwertiger Computer zu sein (in Wolframs System 2 von 128 Möglichkeiten). Der Beweis, dass das von ihm gefundene System, Regel 110 in seiner Terminologie, tatsächlich ein vollständiger Computer ist, kam erst zwei Jahrzehnte später, dank der Pionierarbeit von Cook (der unter Wolfram arbeitete). Aber es rechtfertigt seinen Fokus auf das System als zentrales Element der Wissenschaft, da früher oft implizit davon ausgegangen wurde, dass man Komplexität von Hand hinzufügen muss, um ein gewisses Maß an Komplexität zu erreichen. Dieses Ergebnis ist auch in Conways System vorhanden, aber Wolframs Arbeit ist in gewisser Weise komplementär, da die Informationsflüsse in 1D-Systemen es schwieriger machen, sich vorzustellen, dass ein vollständiger Computer entsteht. Dass es trotzdem geht (allerdings, wie Cooks Konstruktion zeigt, mit horrenden Laufzeiten,

Dies ist für die Physik nicht so wichtig, da jeder Versuch, die Physik mit zellulären Automaten zu modellieren, grob nichtlokal sein muss, um Bells Theorem zu vermeiden. Angesichts der Gravitationsholographie ist dies heute nicht mehr so ​​unplausibel, aber Wolfram schlug vor, dass es eine direkte Entsprechung zwischen lokalen Elementarteilchenpfaden und Automatenstrukturen geben würde, und diese Ideen sind absolut unmöglich und wurden durch Bells Theorem ausgeschlossen, bevor er sie vorschlug . Das bedeutet, dass das Kapitel seines Buches, das sich mit Physik befasst, völlig falsch ist und ignoriert werden kann.

Aber diese Arbeit ist auf eine ganz andere Weise wichtig, sie ist die Grundlage der Biologie!

(BEARBEITEN: Chaitins neues Buch macht einige kurze Kommentare über NKS, die die wichtigsten biologischen Punkte unten widerspiegeln. Ich schreibe Chaitin nicht ab, sein Buch datiert dies nach.)

Biologie und Religion

Der verwirrendste Aspekt der Welt, in der wir uns befinden, ist, dass wir von komplexen Computergeräten umgeben sind, die nicht von uns selbst entworfen wurden! Nämlich uns selbst, andere Menschen, Tiere, Pflanzen und Bakterien. Wie wurden diese Computerstrukturen aufgebaut, wenn wir ziemlich hart arbeiten müssen, um einen Computer zu bauen? Hier scheint es ein Rätsel zu geben.

Das Rätsel wurde in der Vergangenheit gelöst, indem angenommen wurde, dass eine Art Magie Leben auf die Erde brachte, eine übernatürliche Agentur. Diese Idee steht eindeutig im Widerspruch zu den Naturgesetzen, wie wir sie heute verstehen, aber es ist wichtig, die abergläubische Antwort im Auge zu behalten, weil Elemente davon gerettet werden können.

Die abergläubische Antwort lautet, dass Gott in die Ursuppe herabstieg und die Moleküle vermischte, um Leben zu erschaffen. In religiösen Texten, in denen Strenge nicht oberste Priorität hat, ist der Gottesbegriff nicht klar definiert. Aber ich werde versuchen, im Folgenden eine positivistische Definition zu geben. Ich finde, dass ich mit dieser positivistischen Definition, die nichts Übernatürliches erwähnt, die Gedanken religiöser Menschen übersetzen und dem, was sie sagen, einen vollständigen Sinn geben kann, wo es sonst nur wie das Geschwätz wahnhafter Menschen klingt, die an schweren Hirnschäden leiden .

Um Biologie sinnvoll zu diskutieren, muss man meiner Meinung nach diesen religiösen Standpunkt gründlich und logisch positivistisch verstehen, denn er ist in der Biologie im gleichen Maße wichtig, wie er in der Physik völlig unwichtig ist.

In einem komplexen System wie dem menschlichen Sozialgefüge beobachten wir tendenziell Muster, die nicht allein auf das Handeln einzelner Personen zurückzuführen sind. Zum Beispiel scheint die protestantische Reformation innerhalb weniger Jahrzehnte im frühen 16. Jahrhundert auf einmal stattgefunden zu haben, wo Kirchenreformer Jahrhunderte zuvor mit sehr geringem Erfolg aktiv waren und arbeiteten. Was hat dazu geführt? Es waren nicht nur Luther und Calvin, es war auch ein Netzwerk aus Geschäftsleuten und Bankiers und desillusionierten Katholiken. Die Entdeckung Amerikas war in gewisser Weise wichtig, ebenso wie die Vertreibung der Juden aus England. Das wichtigste war meines Erachtens das Edikt aus dem 14. Jahrhundert, das Katholiken den Wucher verbietet, wodurch die Gründung von Banken verhindert wurde. Aber es war eindeutig nicht eine Sache, noch war es das Werk einer Person, die alleine arbeitete.

Wenn wir solch komplexe Phänomene sehen, ist es vernünftig, sie dem Wirken einer größeren Intelligenz zuzuschreiben als der Intelligenz eines Individuums, und dies ist die Intelligenz des Kollektivs. So wie eine Person eine Ansammlung von Neuronen ist, von denen keines für ihre Intelligenz verantwortlich ist, ist die Gesellschaft eine Ansammlung von Individuen, von denen keines für alles verantwortlich ist, was die Gesellschaft gemeinsam tut oder denkt. Das kollektive Muster ist in vielerlei Hinsicht klüger als das Individuum – es enthält kollektive Erinnerungen an Traditionen und Konventionen, die das individuelle Handeln auf komplexe Weise beeinflussen.

Die Vorstellung von Gott (Kleinbuchstabe g, wie Zeus oder Mars) in alten Kulturen ist der Name, der den Wesenheiten gegeben wurde, die aus kollektiven menschlichen Handlungen entstanden sind. Sie sind nebulös, aber wichtig, weil die Entscheidung, in den Krieg zu ziehen, keiner Person zugeschrieben werden kann, sondern einer Einheit, dem Gott des Krieges, die aus vielen Individuen besteht, die zusammenarbeiten, um ein kohärentes Kollektiv zu bilden, das den Krieg führen wird Gesellschaft, um diesen Phasenübergang des Verhaltens zu vollziehen, der zum Krieg führt. Die Identifizierung einer Vorstellung von einem Gott und die explizite Einstellung von Menschen für diesen Gott macht ihnen bewusst, dass sie als Teile einer Maschine arbeiten, nicht nur als einzelne Akteure. Darüber hinaus kann es sie dazu inspirieren, ohne direkten Befehl eines Königs oder eines Priesters nur durch ihre eigene Selbstbeobachtung zu handeln, um das Ziel am besten zu erreichen.

Der Gottesbegriff wurde irgendwo in Indien oder im Iran zum Gottesbegriff verfeinert (Großbuchstabe G), aus dem die Brahma-Kulte und die abrahamitische Religion und der Zoroastianismus hervorgingen. Diese Vorstellung legt nahe, dass der Konflikt zwischen Göttern dem Konflikt zwischen Individuen ähnlich ist, die Götter auch Kollektive bilden und einige gewinnen und andere verlieren. Am Ende gibt es eine Vorstellung von einem höchsten Gott, dem Gott, der die Grenze des Kollektivs aller überlebenden Götter darstellt, der als unendlich hoch in der Götterhierarchie definiert ist und ethisches Handeln fordert.

Diese einschränkende Vorstellung von Gott wurde von den antiken Denkern als so wichtig erachtet, dass sie alle ihre anderen Ideen im mittelalterlichen Zusammenbruch absterben ließen und sich dafür entschieden, nur diese durch das Mittelalter zu bewahren.

Aber zusätzlich zu den praktischen Vorstellungen von der Führung des Verhaltens in Kollektiven schrieben die Alten Gott auch alle möglichen übernatürlichen Taten zu, darunter die Erschaffung des Universums und die Gestaltung des Lebens von Hand. Diese Vorstellungen von Gott sind mit der Vorstellung als Meta-Eigenschaft eines komplexen Systems fehl am Platz und werden durch moderne wissenschaftliche Entdeckungen völlig widerlegt. Sie sind für die Religion überflüssig und schädlich, weil sie die Menschen Wunder und göttliche Eingriffe erwarten lassen, die gegen die Naturgesetze verstoßen, und solche Dinge passieren einfach nie.

Die Vorstellung von Gott ist, soweit ich sie verstehen konnte, im Wesentlichen eine begrenzende rechnerische Vorstellung – es ist die Grenze des Verhaltens eines komplexen Systems, in dem sich die rechnerischen Einheiten kombinieren und wachsen, im Laufe der Zeit bis ins Unendliche an Macht in immer größere Einheiten. Die Idee der Grenze legt nahe, dass es eine Kohärenz zwischen den Einheiten auf allen Ebenen geben wird, so dass sich beispielsweise in der unendlichen Zeitgrenze alle Gesellschaften auf die ethische Vorgehensweise unter bestimmten Umständen einigen und sich darauf einigen werden, wie ihre Wirtschaft zu organisieren und ihre zwischenmenschlichen Beziehungen zu strukturieren. Diese Vorhersagen sind angesichts der Divergenz im menschlichen Verhalten überraschend, und doch deutet die Geschichte darauf hin, dass eine solche Konvergenz langsam stattfindet.

Diese rechnerische Entscheidbarkeit in der sich entwickelnden Grenze hat ein direktes Gegenstück in der Idee, dass mathematische Systeme, wenn sie komplexer werden, durch Reflexion alle arithmetischen Theoreme entscheiden. Das ist kein Theorem, sondern eine Beobachtung. Es wird darauf hingewiesen, dass, während wir den Turm der mengentheoretischen Reflexionsprinzipien hinaufsteigen, immer mehr arithmetische Theoreme aufgelöst werden, und es keine prinzipielle Einschränkung gibt, die darauf hindeutet, dass die Theoreme nicht alle durch ausreichend starke Reflexion entschieden werden. Dies ist Paul Cohens „Glaubensartikel“ in der mathematischen Praxis, und ich werde ihn vorbehaltlos akzeptieren.

Außerdem sagt Ihnen der Glaubensartikel, dass wir bereits einen Namen für die mathematische Vorstellung von Gott haben, sie kann mit dem Konzept der kirchlichen Kleene-Ordnungszahl identifiziert werden, der Grenze aller zählbaren berechenbaren Ordnungszahlen. Jedes berechenbare formale System kann sich dieser Ordnungszahl nur allmählich annähern, und diese Ordnungszahl ist unendlich reich. Wenn Sie eine Beschreibung dieser Ordnungszahl haben, haben Sie ein Reflexionsprinzip, das stark genug sein sollte, um alle arithmetischen Theoreme zu entscheiden, um zu entscheiden, welche Konsequenzen irgendein axiomatisches System haben wird.

Da diese Ordnungszahl alle theologischen Attribute hat, die religiöse Menschen Gott zuschreiben, halte ich es in Bezug auf die reine Mathematik für eine Art Ketzerei, anzunehmen, dass es größere Ordnungszahlen gibt. Insbesondere ist jede Vorstellung von der ersten nicht zählbaren Ordnungszahl oder unzugänglichen Ordnungszahlen nur dann sinnvoll, wenn sie in ein bestimmtes axiomatisches System gestellt werden, und dann sollten sie im entsprechenden zählbaren Modell kleiner als die Ordnungszahl von Church Kleene sein. Dies ist technisch nicht präzise, ​​aber es vermittelt die Hauptidee (es ist einfach, die Ordinalzahlen zu reduzieren, um zählbar zu sein, aber es ist nicht so einfach, das Schema neu anzuordnen, um sie weniger als Church Kleene zu machen, aber das liegt daran, dass es sich um eine deduktive handelt System, das mengentheoretischer Natur ist, können Sie der Kirchen-Kleene-Ordnung einen Namen geben und diese Ordnungszahl plus 1 definieren usw.

Die Interpretation, die ich für die religiöse Lehre nehmen werde, ist also, dass Gott mit der Ordnungszahl der Kirche Kleene zu identifizieren ist, keine höhere Ordnungszahl als tatsächlich höher zu interpretieren ist und Götter mit menschlichen Kollektiven identifiziert werden, die zusammenarbeiten, um eine Einheit zu bilden, die größer ist als die Einzelpersonen. Das monotheistische Gesetz komplexer Systeme wird besagen, dass sich alle Götter im Laufe der Zeit dem von Gott repräsentierten Ideal annähern, während sie es in einem darwinistischen Kampf bekämpfen.

Automaten und Darwins Experiment

Wenn Sie einen zellularen Automaten haben, der zu universeller Berechnung fähig ist, gibt es ein seltsames Phänomen – Unterteile davon stehen immer im Wettbewerb mit sich selbst. Um dies zu erklären, muss man sich Darwins Experiment ansehen, das detailliert in Origin of Species beschrieben wird.

Der größte Teil des Ursprungs ist theoretisch, aber Darwin hat ein wichtiges Experiment durchgeführt. Er nahm ein quadratisches Stück Land und entfernte sorgfältig alle sichtbaren Lebewesen aus dem Boden. Er entwurzelte alle Pflanzen, siebte, um Insekten zu entfernen, und ließ das Grundstück in Ruhe, um zu sehen, wie es wieder besiedelt werden würde.

Was er beobachtete, war, dass die Pflanzenarten, die das Grundstück wieder besiedelten, zuerst von der schnell wachsenden instabilen Sorte waren, dass sich eine ganze Reihe von Unkräutern und Ungeziefer über das neue Gebiet ausbreitete. Dann, im Laufe der Zeit, übernahmen andere widerstandsfähigere Arten langsam das Unkraut, bis viele Monate später das Grundstück nicht mehr von dem verbleibenden Land auf dem Grundstück zu unterscheiden war.

Ziel des Experiments war es zu sehen, ob es tatsächlich einen Kampf um Ressourcen in der Natur gibt. Darwin stellte die Hypothese auf, dass, wenn sich die Natur in einem ständigen Kampf befindet, verschiedene Elemente, die erfolgreicher sind, sich aber langsam replizieren, erst nach einiger Zeit gegenüber Elementen siegen werden, die weniger robust sind, deren Strategie jedoch die schnelle Besiedlung neuer Gebiete ist. Seine Beobachtungen stimmten mit der Vorstellung überein, dass die Lebewesen in jedem Gebiet ständig um den Vorrang kämpfen und dass die Begrenzung die begrenzten Ressourcen in einem bestimmten Stück Land sind.

Diese Idee kann beim Rechnen mit zellularen Automaten getestet werden. Indem man einen quadratischen Fleck in einem 2D-Zellularautomaten, der stabil aussieht, auf Null setzt, kann man sehen, ob die verbleibenden Daten den Raum auf eine einheitliche Weise oder auf eine sich allmählich verändernde Weise kolonisieren. Ich habe dieses Experiment unter Verwendung eines zellularen 8-Bit-Automaten (256 Werte) mit zufälligen Regeln durchgeführt und festgestellt, dass in vielen Fällen, den komplexen Fällen, die Besiedlung stufenweise erfolgt, ähnlich wie bei Darwins Grundstück. Die Stufen sind kurzlebig und spiegeln möglicherweise die begrenzte Berechnung wider, die in einem kleinen Bereich mit 8-Bit-Werten möglich ist. Es wäre interessant, das Experiment mit beliebig großen ganzen Zahlen für jede Zelle zu wiederholen, die als Darstellung eines komplexen Polymers angesehen werden kann, das Umwandlungen an seinen Nachbarn katalysiert

Aber die inhomogene Kolonisierung legt nahe, dass es, sobald Sie einen rechnenden zellularen Automaten haben, einen ständigen Wettbewerb zwischen Teilen des Automaten, die kollektive Berechnungen durchführen, um Ressourcen gibt. Mit anderen Worten, dass Darwins Kampf begonnen hat.

Um diese Idee zu präzisieren, ziehen Sie in Betracht, eine CA in zwei Teile zu teilen, indem Sie eine Wand zwischen der linken und der rechten Hälfte platzieren und die Hälften nicht interagieren lassen. Wenn die CA wirklich rechnerisch und komplex ist, werden die beiden Hälften kein statistisches Gleichgewicht erreichen, sondern komplexe Strukturen auf beiden Seiten haben, die im Laufe der Zeit zufällig neue Eigenschaften erhalten, wenn sich ihre Unterteile entwickeln.

Wenn Sie jetzt die Wand entfernen, ist es unwahrscheinlich, dass die linke Hälfte kompatible Eigenschaften mit der rechten Hälfte hat. Sie werden sich nicht vermischen können. In diesem Fall müssen also die beiden Hälften um die Vorherrschaft kämpfen, und welche Hälfte gewinnt, wird ihre Eigenschaften der anderen Hälfte aufzwingen und den gesamten Raum mit Zellen füllen, die mit ihren Eigenschaften kompatibel sind. Zu diesen Merkmalen gehören typische CA-"Tiere" oder Strukturen, die in ihren Beziehungen qualitativ ähnlich sind, besondere Konfigurationen, die nur in der Umgebung anderer Strukturen um sie herum stabil sind. Es ist schwierig, diese Eigenschaften aus einer laufenden Simulation zu extrahieren, da Sie a priori nicht wissen, wonach Sie suchen müssen, aber ich bin zuversichtlich, dass dies möglich ist.

Diese Art von Dingen impliziert, dass es in einer CA einen kontinuierlichen Wettbewerb gibt, der in dem Moment auftritt, in dem sie zum ersten Mal gesetzt wird, und so lange anhält, wie sie in Betrieb ist. In dieser Umgebung sind darwinistische Selektion und Evolution auch ohne explizite selbstreplizierende Struktur möglich. Jede Selbstreplikation besteht aus qualitativen Merkmalen auf sehr hohem Niveau, nicht aus Bitstrukturen auf niedrigem Niveau.

Replikation und Evolution

Diese Sichtweise unterscheidet sich von der gebräuchlichsten Sichtweise in Bezug auf die Evolution (die nicht die ursprünglich von Darwin vorgeschlagene ist). Der übliche Standpunkt ist die moderne Synthese-Evolution, die darauf hindeutet, dass die Evolution durch das Kopieren von Bitketten in Molekülen mit Fehlern fortschreitet und dass das Ergebnis darin besteht, dass optimierte Bitketten schließlich ausgewählt werden.

Dieser Standpunkt ist äußerst schlecht darin, die tatsächliche biologische Evolution zu modellieren. Erstens repliziert sich nichts, mit dem Sie vertraut sind, tatsächlich von selbst. Menschen haben Sex, Bakterien teilen Gene und das Crossing-over ist bei nicht-genetischen Sequenzen kompliziert, es ist nur ein einfaches Mischen von Genen.

Darüber hinaus scheinen Mutationen durch schattenhafte interne Mechanismen erzeugt zu werden, die von komplexen RNA-Netzwerken in Eizellen und Hoden gelenkt werden. Es handelt sich nicht um zufällige Kopierfehler. Anzunehmen, dass die biologische Welt durch einen Prozess des fehlerhaften Kopierens gepaart mit Selektion erzeugt wird, ist so albern, wie das folgende Gleichnis suggeriert:

Vor vielen Jahren gab es nur ein Buch. Es war ein Kochbuch mit detaillierten Anweisungen, wie man Makkaroni und Käse zubereitet. Das Buch wurde von Schreibern kopiert, die hier einen Fehler machten, dort eine Passage ausließen, und diese Bücher wetteiferten dann um Aufmerksamkeit. Einige Rezepte wurden durch die Fehler verbessert, andere wurden unlesbar. Schließlich wuchsen die Bücher an Länge, mit neuen Passagen, die durch versehentliches duplizierendes Kopieren entstanden, bis heute, siehe! Die Kongressbibliothek!

Diese Geschichte ist lächerlich. Aber es ist diese lächerliche Geschichte, die derzeit in den Biowissenschaften als Dogma verkauft wird.

Meiner Ansicht nach muss jede realistische Evolutionstheorie näher an Darwin sein als an der modernen Synthese. Dabei muss berücksichtigt werden, dass der Prozess der Mutation autoritär ist , er erfolgt durch komplexe RNA-Bearbeitung von DNA-Sequenzen. Es muss die Idee berücksichtigen, dass die sexuelle Selektion primär ist, sodass die Partnerwahl die dominierende treibende Kraft der Evolution bei sexuellen Arten ist. Es muss auch die Idee berücksichtigen, dass der Wettbewerb lange vor der Replikation beginnt und nichts weiter als eine Computer-CA erfordert.

Diese Position wird durch Computerexperimente zur selbstreplizierenden Evolution gestützt. Um die natürliche Selektion zu testen, durften in den 1970er und 1980er Jahren kleine Codeabschnitte repliziert und selbst modifiziert werden, um zu sehen, wie das Endergebnis aussehen würde. Das Endergebnis war, dass sich die Programme selbst modifizierten, bis sie den kürzesten und schnellsten Selbstreplikator fanden, der dann den Computerspeicher füllte.

Damals galt dies als positives Zeichen, die Programme hatten sich weiterentwickelt. Aber der offensichtliche Stillstand im Endzustand führt mich dazu, dies als Tod eines komplexen Systems zu sehen. Aus dem Endzustand ist kein weiterer Fortschritt möglich, ohne dass ein externer Agent die Dinge herumwirbelt. Das Ergebnis ist kein komplexes System, sondern ein System, das in einem stabilen Gleichgewicht parasitärer schneller Replikation gefangen ist. Weit davon entfernt, ein Modell des Lebens zu sein, ist es ein Modell eines sich selbst replizierenden Krebses, der die gesamte Evolution tötet.

CA-Eigenschaften: Wolframs ärgerlicher Fehler

Wolfram klassifizierte zelluläre Automaten in vier Typen:

  1. homogener Endzustand
  2. Einfache periodische Strukturen, vielleicht getrennt, mit unterschiedlichen Perioden
  3. Selbstähnliche ("chaotische") Strukturen
  4. Komplexe Strukturen

Typ 1 sind Automaten, die sterben. Diese haben nur einen einzigen stabilen Endpunkt, den Sie immer erreichen. Typ 2 hat unendlich viele Endpunkte, aber sie sind so einfach zu beschreiben wie eine klassische integrierbare Bewegung – Sie haben nur Zyklen bestimmter Typen, und um den Endpunkt anzugeben, geben Sie eine Liste aller Zyklen und wo Sie sich befinden Zyklus, und dies gibt das Ergebnis des Ausführens des CA von einer gegebenen Anfangsbedingung aus an. Diese ersten beiden Arten von Automaten reproduzieren offensichtlich keinen Allzweckcomputer.

Typ 3 sind jene Automaten, die zu selbstähnlichen fraktalen Strukturen führen, wie die Sierpinski-Dichtung. Diese sind komplexer, so dass der Endzustand eine tatsächliche Berechnung erfordert, um sie zu spezifizieren, und Wolfram identifiziert diese mit klassischen chaotischen Bewegungen. Ich denke, diese Identifikation ist falsch, aber so ist es.

Typ 4 sind die komplexen Automaten, bei denen Sie sie tatsächlich vollständig ausführen müssen, um herauszufinden, was sie tun. Die letzte Kategorie gefällt mir nicht, deshalb gebe ich jetzt meine persönliche Einstufung ab.

  1. homogener Endzustand
  2. einfache periodische Endzustände, vielleicht getrennt durch unterschiedliche Perioden
  3. Selbstähnliche oder statistisch selbstähnliche fraktale Strukturen
  4. zufällige Automaten, chaotischer stabiler Endpunkt, stat. mech.
  5. Komplexe Automaten, Biologie.

Die Klasse 3 wird leicht erweitert und die Klasse 4 zweigeteilt. Es gibt zufällige Automaten, die eine zufällige Sammlung von Werten erzeugen, die ergodisch durch den zulässigen Werteraum wandern, und Klasse 5, jene Automaten, die echtes komplexes Verhalten erzeugen, mit einer Möglichkeit, einen Computer mit einer Karte angemessener Komplexität darauf abzubilden , die eigentlich durch ein endliches Verfahren beschrieben werden kann.

Da Wolfram nicht zwischen 4 und 5 unterscheidet, wirft er Automaten, die rein zufällig sind und in ein chaotisches Gleichgewicht vom Boltzmann-Typ thermalisieren, wie Automaten 25, zusammen mit wirklich komplexen Automaten wie 110 zusammen. Die Unterscheidung zwischen den beiden ist sehr wichtig, aber vielleicht aus einer sturen Unfähigkeit zuzugeben, dass seine früheste Klassifizierung unvollständig war, weigert sich Wolfram, sie zu machen.

Ich werde diese Unterscheidung treffen. Automaten vom Typ 4 sind die Analoga chaotischer klassischer Systeme, die ihre Informationen zufällig in einen seltsamen Attraktor verwandeln, der durch die zulässigen Werte von Klumpen von Standorten und einer Wahrscheinlichkeitsverteilung auf diesen definiert ist. Sobald Sie wissen, welche zulässigen Klumpen mit welcher Wahrscheinlichkeit auftreten, können Sie mit einem Zufallszahlengenerator völlig ohne Aufwand eine typische Ausgabe generieren. Es wird nicht die tatsächliche Ausgabe sein, da diese deterministisch ist, aber sie wird in jeder Hinsicht nicht von der tatsächlichen Ausgabe zu unterscheiden sein.

Automaten vom Typ 4 sind genauso a-biologisch, genauso tot wie die Typen 1-3. CA 25 lebt nicht. Ich bin mir zu 100% sicher, dass ich Wolfram nicht falsch interpretiere, weil ich ihn auf einem Seminar persönlich persönlich gefragt habe, ob er glaubt, dass es eine Karte zwischen CA 25 und einem Computer gibt. Er antwortete, dass er glaubt, dass es so ist, aber dass es außerordentlich kompliziert ist und willkürlich aussieht. Ich bin sicher, es existiert nicht.

Automaten des Typs 5 werden durch 110 veranschaulicht. Das sind diejenigen, die vorhersagbare Strukturen mit nicht-randomisierendem Verhalten haben. Diese können verwendet werden, um die vollständige Turing-Berechnung zu codieren. Dass dies nicht Maß 0 ist, ist eine wichtige Entdeckung – es gibt eine Erklärung für den Ursprung des Lebens.

Die Existenz typischer Computer-CAs bedeutet, dass Leben auf natürliche Weise entstehen kann, sobald ein System, das große Informationsmengen speichern kann, spontan Interaktionen hat, die einen Computer bilden können. Das passiert mit 110, aber es sollte auch mit zufälligen Proteinen in einer präbiotischen Suppe passieren, denn hier sind wir!

Die Evolution des Lebens, wie ich glaube, ist in den meisten frühen Stadien rein molekular. Die Proteine ​​konkurrieren und entwickeln sich weiter, wodurch eine präzisere Klasse entsteht, die überleben kann, die schließlich die Bildung von Nukleinsäuren (unter anderem) katalysiert und lernt, Daten für einen späteren Abruf in Nukleinsäuren zu speichern. Die Nukleinsäure-Protein-Komplexe rechnen dann mehr und lernen, Daten in DNA zu speichern, um sie dauerhaft zu speichern (da DNA viel stabiler ist). Schließlich verpacken sie all das in Zellen, und Sie haben ein modernes Leben.

Dies ist eine einfache Geschichte, aber sie ist wichtig, weil sie zu keinem Zeitpunkt eine sich selbst replizierende molekulare Einheit postuliert. Solche Entitäten sind giftig für die Entstehung von Leben (wie die Computerexperimente zeigen), und es ist gut, dass es sie nicht gibt, sonst könnte kein Leben entstehen.

Wolframs soziologische Agenda

Es gibt einen anderen Grund für Wolframs mangelnden Erfolg beim Eindringen in die wissenschaftliche Welt, der nichts mit der Qualität seiner Ideen zu tun hat (die wirklich nicht so schlecht sind). Wolfram traf die bewusste Entscheidung, seine Wissenschaft mit privatem Geld zu betreiben, das er durch die Produktion der Closed-Source-Software Mathematica zum Verkauf an Universitäten aufbrachte. Auf diese Weise produzierte er ein Modell für wissenschaftliche Forschung, die durch privates Kapital statt durch staatliche Gelder finanziert wurde. Weil Mathematica so erfolgreich ist, sahen viele seine Arbeit als Modell für eine neue Art kapitalistischer Wissenschaft.

Diese Idee war im prokapitalistischen Klima der 1980er Jahre sehr aktuell, als staatlich geförderte und finanzierte Dinge wegen der Einschränkungen der individuellen Freiheit, die der moderne Staat auferlegte, gering geschätzt wurden. Die Sowjetunion war das extreme Beispiel, dort wurde alle Wissenschaft von staatlichen Entscheidungen getrieben, die bestimmte Bereiche wie die Genetik erstickten, basierend auf der ideologischen Position der Regierung. In den USA wurde die Wissenschaft in den 1950er Jahren von der Regierung übernommen und zu Big Science gemacht, ausdrücklich um mit den Sowjets zu konkurrieren, und viele Menschen fühlten sich durch das Big-Money-Big-Science-System behindert, das vielversprechende Forschung ausschloss Wege aus der Überlegung.

Der Mangel an Freiheit im staatlich geführten System veranlasste viele Einzelpersonen, sich dagegen zu stellen, und eine der Zutaten in diesem Kampf war die private Finanzierung. Dies war offensichtlich nur außerhalb der kommunistisch kontrollierten Regionen verfügbar. Wolfram traf politisch die Entscheidung, seine Forschung privat zu finanzieren.

Das Ergebnis spiegelt alles Gute und alles Schlechte an privat finanzierter Wissenschaft wider. Es ist gut, weil es dem Einzelnen mit einer Idee erlaubt, sie unbegrenzt zu verfolgen, und keine Kritik von außen kann die Arbeit stoppen oder töten. Sie können selbst veröffentlichen, ohne sich Sorgen machen zu müssen, dass ihre Ideen durch Peer-Reviews verworfen werden, bevor sie Zeit zum Keimen haben.

Es ist auf verschiedene andere Arten schlecht, die im Mittelpunkt der akademischen Kritik standen

  • Die Selbstfinanzierung erfordert, dass der Einzelne große Mengen an Vermögen anhäuft, was zu Kriecherei in seiner Umgebung führt, die sie daran hindert, überzeugende Kritik zu hören, so dass Fehler nicht korrigiert werden.
  • In der Privatwirtschaft zitiert man keine Quellen. Man tut so, als hätte man alles selbst gemacht. Dies ist nicht mit akademischen Konventionen für Zitate und dem Respekt vor der Geschichte eines Fachgebiets vereinbar. Während Steve Jobs die Arbeit seiner Mitarbeiter wohl anerkennen kann, ist es für Wolfram schwierig, die Anerkennung für die Arbeit von Cook zu rechtfertigen, selbst wenn er sein Gehalt gezahlt hat.
  • Der Citizen-Kane-Effekt: Die isolierende und zersetzende Kraft des Geldes führt leicht zu Größenwahn und Isolation, was dazu führt, dass man die Ideen anderer ablehnt. Dies zeigt sich unglücklicherweise in Wolframs munterem Ein-Satz-Ablehnung der überaus wichtigen Arbeit von Post, Friedberg und Munchnik über Turing-Grade unterhalb des Halteproblems. Er behauptet, dass alle natürlichen CAs entweder dem Halteproblem entsprechen oder zufällig oder trivial sind. Dies ist das Prinzip der "rechnerischen Äquivalenz". Aber dies ist eine nicht triviale Aussage und erfordert mehr Beweise als das, was in NKS präsentiert wird.

Die Probleme der privaten Forschung sind völlig komplementär zu den Problemen der öffentlichen Forschung, und es gibt keinen Grund, das eine vollständig zugunsten des anderen abzulehnen. Aber NKS zeigt diese Fehler in Pik, und das ist besonders für relativ schlecht bezahlte öffentliche Forscher sehr erfreulich, die genauso hart, wenn nicht sogar noch härter, an ihren Ideen gearbeitet haben, ohne das Megaphon des Geldes, um sie in die Welt hinauszuschreien.

Ich denke, das Neuste an NKS ist das Finanzierungsmodell – die Idee, dass man privat und unabhängig forschen kann. Vielleicht ist dies das Modell der Zukunft, aber in Anbetracht des relativen Erfolgs der öffentlich finanzierten Wissenschaft im Vergleich zur privaten Wissenschaft, selbst im extremsten repressiven Fall der Sowjetunion, bin ich nicht optimistisch, dass dies der beste Weg ist. Mit den Ärgernissen und suboptimalen Eigenschaften der öffentlichen Förderung wird man sich wohl noch auf unbestimmte Zeit herumschlagen müssen.

Vielleicht kann mit einer geeigneten Internetstruktur wie Stackexchange ein Teil der Zensur und des Gruppendenkens der öffentlichen Wissenschaft gemildert werden.

Mach dir keine Sorgen, es ist nur das Geheimnis und der Sinn des Lebens. Es könnte den Rahmen der Frage ein wenig sprengen, aber ich reise morgen, also dachte ich, es könnte gut sein, es zu teilen, falls das Flugzeug abstürzt.
Eigentlich habe ich einen guten Teil gelesen und werde wahrscheinlich irgendwann den Rest lesen - interessante Sachen wie immer, aber es scheint, als ob vieles nur sehr am Rande mit der Frage zusammenhängt :)
@zephyr: Ich habe viele Ablehnungen dafür erwartet, aber ich wollte dieses Zeug erklären, und das kam einer Frage zu NKS am nächsten.
@ronmaimon sehr interessant, einmal gelesen und an einem anderen Tag immer wieder lesen müssen! Danke +1!
Fun Fact: Dies ist die zweitlängste Antwort in phy.SE
@pcr: Was ist am längsten?
"Diese Geschichte ist lächerlich. Aber es ist diese lächerliche Geschichte, die derzeit in den biologischen Wissenschaften als Dogma verkauft wird": Was ist an dieser Geschichte lächerlich? Es ist eine Arbeitsmethode
@agemO: Der lächerliche Teil ist, dass der Mutationsmechanismus hirnlos und nicht rechnend ist. Dafür gibt es keine Beweise. Es ist wahr, dass Mutationen vom SNP-Typ in Proteinen zufällig sind, aber sie sind im Allgemeinen auch sinnlos, sie machen eine uhrengleiche neutrale Evolution. Der interessante Aspekt der Evolution ist die Auswirkung auf die nichtkodierende DNA, und diese Veränderungen sind äußerst kompliziert und werden sicherlich durch RNA-Netzwerke reguliert, die eine ausgeklügelte Berechnung durchführen. Diese Mutationen haben keinen Bezug zu den Modellen der Populationsgenetik, sie sehen eher aus wie intelligentes Design, wobei RNA der Designer ist, nicht Gott.
Ich sage nicht, dass ich sicher bin, dass der Mutationsmechanismus nicht besser als zufällig ist, aber wenn es nur zufällig ist, funktioniert es und es ist nicht lächerlich, Sie können einen evolutionären Algorithmus mit zufälliger Mutation erstellen und es funktioniert so lange wie der Auswahlschritt ist nicht zufällig (was in der Biologie der Fall ist: Auswahl kommt von Überleben oder Tod)
@agemO: Es scheint nur oberflächlich nach der naiven Intuition zu funktionieren, es funktioniert nicht wirklich, und darauf weisen viele Kritiker der modernen Synthese-Evolution seit Jahrzehnten hin. Es wird unmöglich, sich über eine bestimmte Komplexität hinaus zu mutieren, ohne den Mutationsmechanismus zusammen mit dem System zu entwickeln. Der Grund dafür ist, dass der Abstand zwischen ungefähr gleichen Fitnessmaxima im Allgemeinen mit der Komplexität wächst, sodass die Schritte, die Sie machen, größer sein müssen. Das aktuelle Modell ist einfach nicht korrekt. Aber der richtige Mechanismus, um dies zu beheben, ist heute ebenfalls offensichtlich – RNA-Editierung von DNA.
Wenn ich sage, dass es funktioniert, meine ich, dass es Ergebnisse liefert, natürlich nehme ich an, dass die Evolution selbst eine Meta-Evolution durchlaufen hat, so dass sie heute effizienter/komplizierter ist als rein zufällig. Ich weiß nicht wirklich viel über Biologie, aber ich hatte den Eindruck, dass dies heute der Hauptgesichtspunkt ist, zum Beispiel mit Hinweisen auf eine abgestimmte Mutationsrate.
@agemO: Es gibt auch keine Ergebnisse. Die lokalen Proteinmutationen, die die Fitness verändern, können an einer Hand abgezählt werden – Mottenfarbe und Sichelzellenanämie, das war es auch schon. Das sind Ausnahmen, nicht die Regel, aber sie werden als Regel in die Bücher geschrieben. Das Bild ist einfach falsch, weil es kein Computerbild ist, und es ist auch absichtlich falsch, weil es zu einer atheistischen Vorstellung passt, dass es keine natürlichen Berechnungen gibt. Diese Art von No-Computation-in-Nature-Atheismus ist falsifizierbar und falsifizierbar. Sie hatten den Eindruck, weil es ein Dogma ist, was alle sagen, falsch.
Es liefert Ergebnisse für Optimierungsprobleme, Bauroboter oder aerodynamische Formen. Vielleicht ist zufällige Mutation heute nicht der einzige/Hauptmechanismus, aber es funktioniert. Und wenn ich sagte "Ich hatte den Eindruck", meine ich, ich hatte den Eindruck, dass "mehr als zufällig" durchaus akzeptiert wurde, aber ich bin mir dessen nicht sicher. Übrigens haben Sie Referenzen dafür: "No-Computation-in-Nature-Atheismus ist falsifizierbar und falsifiziert."
@agemO: Es funktioniert (schlecht) als Methode zur Parameteroptimierung, nicht als Evolutionsmethode . Eine bessere Parameteroptimierung wird durch simuliertes Abkühlen oder steilsten Abfall oder beides erreicht, abhängig von den Details der Kostenfunktion. Evolution ist kein einfacher Optimierungsprozess, vielmehr beinhaltet die Evolution in einem Computersystem das Schreiben von neuem Code, wodurch bestehender Code komplexer wird. Es wurde leider als eine Version der Parameteroptimierung angesehen. Zufällige Mutation ist einfach nicht der natürliche Prozess in einem Computersystem, sondern ein kohärentes Umschreiben in großem Maßstab.
... Ich gebe keine Referenzen für irgendetwas außer für Priorität, da ich keine Autorität kenne und mich nicht darum kümmere. Ich habe das selbst bemerkt. Ich könnte der Erste gewesen sein, ich bezweifle es. Es gibt einen Leslie Valient, der ähnliche Dinge sagt, aber verwirrt darüber ist, wie RNA funktioniert. Die meisten Leute, die bemerken, dass die zufälligen Mutationsmodelle versagen, sind religiös und verwenden es, um zu sagen: „Gott hat es auf übernatürliche Weise getan“, also kann ich sie nicht mit ernstem Gesicht zitieren, da sie im Allgemeinen RNA-Umschreibungen genauso vehement ablehnen würden wie RNA ist auch nicht biblisch. Aber RNA-Umschreiben ist erforderlich. Ich bin mir wirklich nicht sicher, was die Akzeptanz betrifft, und es interessiert mich auch nicht.
Mit Referenz meine ich Beweise oder klarere Erklärungen zu dem, was Sie über RNA sagen
@agemO: Ich verstehe. Ich schreibe etwas zusammenhängendes auf. Ich habe es nie geschrieben, weil John Mattick die Beweise 2001 gut zusammengestellt hat (Sie können Mattick RNA googeln) und ähnliche Dinge denkt, wenn auch nicht aus rechnerischer Sicht. Die Beweise sind mittlerweile tatsächlich überwältigend, es ist so ziemlich der einzige Punkt des riesigen ENCODE-Projekts, um dieser These wissenschaftliches Gewicht zu verleihen.

Wolframs frühe Arbeiten zu zellularen Automaten (CAs) waren in gewisser didaktischer Hinsicht nützlich. Die von Wolfram definierten 1D-CAs können als minimalistische Modelle für Systeme mit vielen Freiheitsgraden und einer thermodynamischen Grenze angesehen werden. Insofern diese CAs auf einer Mischung diskreter lokaler Dynamiken beruhen, entsteht ein deterministisches Chaos.

Abgesehen von diesen didaktischen Leistungen hat Wolframs Arbeit an CAs nichts Greifbares gebracht. Diese Aussage kann auf eine viel breitere Gruppe von CAs ausgedehnt werden und gilt sogar für Gittergasautomaten (LGAs), dedizierte CAs für hydrodynamische Simulationen. LGAs haben ihr ursprüngliches Versprechen, eine Methode zur Simulation von Turbulenzen bereitzustellen, nie eingelöst. Ein abgeleitetes System (Lattice Boltzmann - kein CA) hat einige Anwendungen in der Strömungssimulation.

Vor diesem Hintergrund wurde NKS mit viel Tamtam veröffentlicht. Es überrascht nicht, dass die Aufnahme durch die wissenschaftliche Gemeinschaft negativ war. Das Buch enthält keine neuen Ergebnisse (das Ergebnis, dass die „Regel 110 CA“ Turing vollständig ist, wurde Jahre zuvor von Wolframs wissenschaftlichem Mitarbeiter Matthew Cook bewiesen) und hatte keine Auswirkungen auf andere Bereiche der Physik. Ich habe kürzlich einen Stapel NKS-Kopien gesehen, die für weniger als 10 US-Dollar in meinem örtlichen Geschäft für Bücher zum halben Preis zum Verkauf angeboten wurden.

Irgendwie landete ich mit zwei von ihnen, die mir von Amazon zugeschickt wurden. Sie machen einen guten Ballast für mein Boot.
-1: 1D-CAs führen beim Rechnen nicht zu deterministischem Chaos, wie 110, sie führen zu komplexen Strukturen, die sich entwickeln. Das von Ihnen angegebene Gitter-Boltzmann-Modell ist im Wesentlichen eine CA mit zufälligen Aktualisierungsregeln und wird in hydrodynamischen Simulationen verwendet. Das Buch hat ein paar "neue" Ergebnisse (aber diese sind meistens falsch). Es ist am wichtigsten als Zusammenfassung von Wolframs Denken.
Ron, wenn du eine pauschale Aussage machst, dass 1D-Automaten nicht zu deterministischem Chaos führen können, frage ich mich, wie du Letzteres definierst?
@Johannes: (Entschuldigung für die Ablehnung, ich nehme an, das ist nicht selbsterklärend genug). Die Definition, die ich für Chaos verwende, stammt nicht von Wolfram, sondern dass der Automat radikalisiert. Das bedeutet, dass Sie, wenn Sie eine Momentaufnahme endlicher Größe in einem Fenster endlicher Ausdehnung machen, die statistische Verteilung in diesem Fenster mit beliebiger Genauigkeit berechnen können, ohne den Automaten überhaupt auszuführen, nur mit einer Berechnung fester Länge, die nur von der Genauigkeit abhängt, nicht wie lange der Automat läuft.
Ok, das bestätigt meine Vermutung. Vielleicht möchten Sie etwas über Chaos, Luyapunov-Koeffizienten und dergleichen lesen.
@Johannes: Ich muss nichts lesen --- ich weiß, was Lyapunov-Exponenten sind. Es gibt chaotische Automaten wie 25, wo das Zeug zufällig verteilt wird, und Rechenautomaten wie 110, wo das Zeug lebendig ist. Die beiden sind unterschiedlich. Die 25 Automaten haben einen nichtlokalen Informationsfluss analog zu Lyapunov-Exponenten, während 110 keinem einfachen dynamischen System entspricht. Es ist ein vollwertiger Computer, er hat keine Analoga außer anderen vollwertigen Computern.
@Gordon: Ich kann dich nicht positiv bewerten, aber wenn ich könnte, würdest du +10 für deinen Sinn für Humor bekommen, der gegen die Ansichten der Mainstream-Ayatollahs/Inquisition/Kommunisten/Faschisten/Pro/Kontra verstößt. (Hoffe, ich habe keine Seite oder Gefühle verletzt).
zu "LGAs haben nie geliefert auf ... eine Methode zur Simulation von Turbulenzen" - "Die meisten nicht trivialen CAs sind Turing Complete" und können daher (theoretisch) alles simulieren, was berechenbar ist. Ein Teil dieser Debatte läuft also auf eine fast philosophische Frage hinaus: Sind die Gesetze der Physik berechenbar? die meisten Physiker gehen implizit davon aus, dass dies mit dem Festhalten an der mathematischen Modellierung als der vermeintlichen universellen Sprache der Physik der Fall ist. (zu "unangemessener Wirksamkeit von Mathematik in den Naturwissenschaften") en.wikipedia.org/wiki/…
@vzn - „Die meisten nicht trivialen CAs sind Turing Complete“ können daher (theoretisch) alles simulieren, was berechenbar ist“. Richtig, aber aus rechnerischer Sicht macht das sie in keiner Weise nützlich Simulation von Turbulenzen, aber dieses Versprechen nie eingelöst.

Kurz nachdem NKS herauskam, schrieb ich eine Rezension , in der ich versuchte zu erklären, warum die Antwort auf Ihre ausgezeichnete Frage ja lautet. Ein deterministisches Modell wie das von Wolfram kann die Bell-Ungleichungsverletzungen aus grundlegenden Gründen unmöglich reproduzieren, ohne gegen Wolframs eigene Regel der "kausalen Invarianz" zu verstoßen (was im Grunde bedeutet, dass die Entwicklung einer Zertifizierungsstelle nicht von der Reihenfolge der Aktualisierungen abhängen sollte Anwendung auf räumlich entfernte Regionen). Selbst mit einigen "Langstrecken-Threads" im zellulären Automaten (die Wolfram ausdrücklich zulässt, nachdem er das Bell-Problem bemerkt hat) können Sie immer noch keine kausale Invarianz erhalten, es sei denn, die tatsächlichen Zustände des Automaten sind wahrscheinlichkeits- oder quantenmechanisch. Eine eng verwandte Beobachtung wurde später als "Theorem des freien Willens" bezeichnet.

Die meisten dieser Automatenmodelle sind im gleichen Sinne deterministisch wie Pseudozufallszahlengeneratoren. Beispielsweise erzeugen die deterministischen Regeln in den Gittergasmodellen Rauschen und großräumige Fluktuationen gemäß den Navier-Stokes-Gleichungen (einschließlich Turbulenz, obwohl dies aufgrund der großen Gitterabmessungen, die zur Verringerung der Gitterviskosität erforderlich sind, rechnerisch unpraktisch ist). Das Gittergasspiel wandelte sich in den späten achtziger Jahren von verrauschten Automaten mit diskreten Teilchen zu glattverteilungsbasierten Gitter-Boltzmann-Automaten mit mesoskopischem Maßstab und kontinuierlichem Wert (siehe Guy R. McNamara und Gianluigi Zanetti, Use of the Boltzmann Equation to Simulate Lattice-Gas Automata , Phys. Rev. Lett. 61, 2332–2335 (1988) ), also finden Sie dort heutzutage die relevantesten Fortschritte.

Murray Gell-Mann hat eine interessante Interpretation von Bells Theorem, die sich direkt auf Stephen Wolframs These über die Modellierung physikalischer Gesetze mit zellulären Automaten in seinem Wälzer „Eine neue Art der Wissenschaft“ bezieht, eine Analyse, an deren Fertigstellung er über 20 Jahre gedauert hat.

Laut Murray beinhalten elegante Modelle der Physik zusätzlich zu den Ergebnissen zufälliger Ergebnisse einer Reihe von Dingen, die im quantenmechanischen Sinne nicht deterministisch sind (er bezieht sich auf physikalische Konstanten), grundlegende Gesetze. Tatsächlich ist es schwer vorstellbar, dass Wolframs zelluläre Automaten in irgendeiner Größenordnung die Grundlagen einer Theorie wie der Quantenchromodynamik bestimmen, die bei jedem Schritt fein abgestimmt und/oder renormiert wurde, um sicherzustellen, dass die Theorie so nah wie möglich an der Funktionsweise der Natur arbeitet . Es ist, gelinde gesagt, zweifelhaft, dass zellulare Automaten in der Lage wären, auch nur einen Teil dieses iterativen Prozesses auf eine Weise zu reproduzieren, die etwas anderes als völlig nutzlose Simulationen ohne Bezug zu dem, was in der natürlichen Welt passiert, ausgeben würde.

Eine Sache, die Stephen in NKS vorhergesagt hat und die sich offenbar in großem Umfang zu ereignen scheint, ist die Idee, dass die Wissenschaft zunehmend von Big Computing abhängig ist, um Ergebnisse zu erzielen, die unser Wissen über das Universum erweitern. Der LHC in Genf ist ein typisches Beispiel.

Der LHC ist nicht gerade eine große Rechenleistung (obwohl die Verarbeitung der Daten eine ist), aber der Punkt Ihres letzten Absatzes ist gut.