Welche Technologie wird benötigt, um ... alles virtuell zu simulieren?

Das ist nicht meine Frage.

In meiner Geschichte habe ich eine Maschine, die Sie mit Elektroden verbinden können. Es erlaubt einem, einen kleinen Virtual-Reality-Raum zu betreten, in dem alles von Schwerkraft und Elektromagnetismus bis hin zu den Atomen und Quarks jedes Moleküls simuliert wird. Das bedeutet, dass die Menschen das Kämpfen genau so üben können, als ob sie im wirklichen Leben wären, aber ohne die Möglichkeit von Tod oder Verletzung.

Welche Technik ist nötig, um auf kleinem Raum eine „perfekte“ Weltsimulation zu erstellen?

Welche Art von Rechenleistung würde ein solches Gerät benötigen, um dies zu erreichen?

Für diese Frage kann kleiner Raum als ein Raum von etwa 10 x 20 Quadratmetern und etwa 3 Metern Höhe definiert werden.

Die Simulation muss Folgendes können:

  1. Haben Sie Gegenstände wie Äpfel, Waffen usw.
  2. Alles muss so simuliert werden, dass das, was in der virtuellen Realität passiert, in der Realität passieren würde, wenn es wiederholt oder nachgebildet würde.
  3. Es muss die Superkräfte des Benutzers replizieren – auch wenn der Benutzer nicht alles darüber weiß, wie sie funktionieren

Nehmen Sie an, dass Wissenschaftler in meiner Geschichte die Theorie von allem entdeckt haben und dass sie allem, was wir in der realen Welt wissen, sehr ähnlich ist. (dh nähern Sie sich dieser Frage, als ob man alles simulieren würde, was bereits bekannt ist oder über unser gegenwärtiges Universum theoretisiert wird)

Für dieses Story-Element denke ich darüber nach, eine Person mit einer einzigartigen Superkraft zu haben, die eine Maschine oder ein Gerät berühren kann, um ihre Leistung um das Hundert- oder sogar Tausendfache zu steigern. Würde dies helfen, eine immense Rechenleistung zu erklären?

BEARBEITEN Klarstellung: Es ist genau der Sinn der Frage, dieser Maschine / Technologie keine Grenzen aufzuerlegen. Die Maschine in meiner Geschichte wird verwendet, um Menschen dabei zu helfen, ihre Superkräfte zu üben und zu verstehen. Da Superkräfte stark variieren, muss es so präzise wie möglich sein, um sicherzustellen, dass die Kraft innerhalb und außerhalb der Maschine auf die gleiche Weise funktioniert. Andernfalls könnte jemand, der Wasserstoffatome in der Maschine in Goldatome verwandeln kann, im wirklichen Leben tatsächlich Wasserstoffatome in Boratome verwandeln.

Das ist kalkulierbar. Ich möchte versuchen, zu berechnen, wie viel Speicher dies erfordern würde.
@Renan Sicherlich! Ich habe sogar ursprünglich darüber nachgedacht, das Hard-Science- Tag anzubringen.
1/3 Was ist deine Definition von „perfekt“? Nur weil Sie jedes Quark und Gluon simulieren können , heißt das nicht, dass Sie jedes Quark und Gluon simulieren sollten . Vereinfachungen werden immer vorgenommen, um das Problem handhabbar zu machen oder um die Leistung zu verbessern (oft beides). Sie müssen nicht einmal eine vollständige Theorie von allem haben, um das zu tun, was Sie vorschlagen, und selbst wenn Sie es tun würden, wäre es wahrscheinlich nicht hilfreich. Wir kennen zum Beispiel die Quantenwellengleichung und die Einstein-Feldgleichungen, aber beide wären ein schlechter Ausgangspunkt für Computersimulationen.
2/3 Die Quantenwellengleichungen werden jedoch sehr schnell für alles andere als ein Wasserstoffatom unlösbar, und die EFEs benötigen viele Vereinfachungen, nur um direkt auf einem Computer lösbar zu sein. Üblicherweise findet man in der Simulation analytische Teillösungen, mit denen man das Problem in Code umsetzbar machen kann. Ein perfektes Beispiel ist Raytracing. Raytracing geht davon aus, dass sich Licht als eine Gruppe von Partikeln bewegt, aber wir wissen, dass das nicht stimmt. Um das Problem des Lichttransports handhabbar zu machen, nehmen wir jedoch Vereinfachungen vor, die es uns ermöglichen, die viel einfacheren Strahlengleichungen zu implementieren.
Ehrlich gesagt sehe ich nicht, wie dies zu verantworten ist. Die Tatsache, dass es Kommentare gibt, die besagen, dass dies der Fall ist, hat mich sehr interessiert.
3/3 Außerdem benötigt man, um auch nur eine realistische Lösung zu erreichen, mehr Strahlen, als in weniger als geologischer Zeit berechnet werden könnten. Stattdessen machen wir die Vereinfachung, dass die Strahlen Gruppen von Photonen sind, und nehmen statistische Mittelwerte, um einige sehr unangenehme Integrale zu lösen. Noch fieser sind die Integrale in der Quantentheorie . Außerdem hätte eine exakte Simulation des von Ihnen beschriebenen Raums keine Schwerkraft, sollen wir sie künstlich hinzufügen? Jetzt ist es keine perfekte Simulation mehr ...
Abgesehen von Kleinigkeiten - wie geht die Simulation mit Dingen um, die nicht deterministisch sind, wie (soweit wir wissen) radioaktiver Zerfall? Unabhängig davon, wie genau Ihre Simulation ist, werden diese definitionsgemäß nicht zweimal auf die gleiche Weise passieren.
@Cadence Das muss zwangsläufig statistisch sein. Sie können nicht sagen, wann ein einzelnes Partikel zerfällt, aber Sie können statistisch sagen, dass Ihre Simulationen "im Durchschnitt" übereinstimmen, weil ungefähr die gleiche Anzahl von Partikeln zerfällt. Wie George Box es ausdrückte: „Alle Modelle sind falsch, aber einige Modelle sind nützlicher als andere.“
Damit diese Frage beantwortet werden kann, muss das OP der Simulation bessere Grenzen setzen. OP hat erklärt, dass "Objekte möglich sein sollten", impliziert aber auch, dass wir auf der Planck-Skala mit "... bis zum Gluon ..." simulieren und die Verwendung einer Theorie von allem aufrufen müssen. Das Fehlen geeigneter Grenzen für die Simulation in der Frage erschwert die Bewertung der Antworten.
@stix Keine Grenzen zu setzen, ist genau der Sinn der Frage. Die Maschine in meiner Welt soll den Menschen helfen, ihre Superkräfte zu üben und zu verstehen. Da Superkräfte stark variieren, muss es so präzise wie möglich sein, um sicherzustellen, dass die Kraft innerhalb und außerhalb der Maschine auf die gleiche Weise funktioniert. Andernfalls könnte jemand, der Wasserstoffatome in der Maschine in Goldatome verwandeln kann, im wirklichen Leben tatsächlich Wasserstoffatome in Boratome verwandeln.
Eine perfekte Simulation (statt einer mehr oder weniger realistischen Illusion) ist logischerweise unmöglich. In einer perfekten Simulation könnten Sie eine Simulation des Simulators erstellen und dann einen Simulator in dieser Simulation erstellen und den Vorgang unendlich oft wiederholen.
Aus Sicht des Geschichtenschreibens wäre eine nicht ganz perfekte Simulation eigentlich vorzuziehen. Es gibt die Möglichkeit, dass etwas in der Simulation unmöglich ist, aber dann, als es so aussieht, als würden die Helden besiegt, erkennen sie, dass der Fehler in der Maschine eine sehr wichtige Fähigkeit verbirgt, von der sie nicht wussten, dass sie sie haben, und der Sieg wird möglich.

Antworten (5)

Für eine absolut realistische Simulation, wie Sie sie sich vorgestellt haben, müssten Sie auf die subatomare Ebene hinuntergehen. Wenn jemand ein Loch durch einen Tisch stanzt, sind die Splitter auf diese Weise so realistisch, dass sie möglicherweise nicht mehr vom wirklichen Leben zu unterscheiden sind.

Ich werde jedoch einen Schritt zurücktreten und anstatt bis hinunter zu den Quarks zu rechnen, bleibe ich in der Welt der Protonen/Neutronen, um die Dinge einfacher zu machen.

Sie müssten die folgenden Eigenschaften für jedes Partikel im Speicher speichern:

  • Position (relativ zu einem Ursprung, sagen wir einer beliebigen Ecke des Raumes)
  • Schwung
  • Masse
  • Aufladung
  • drehen

Lassen Sie uns jede Eigenschaft als 1024-Bit-Array darstellen. Warum? Für Präzision – wenn Sie mit der Post-Singularity-Technologie spielen , können Sie Messungen genauso gut präziser als heute durchführen (1024 Bit sind willkürlich und machen Messungen 2 960 -mal präziser als die IT-Industriestandards von 2019).

Außerdem müssen wir jedem Partikel im Raum eine Speicheradresse zuweisen. Betrachten wir Protonen, Neutronen und Elektronen. Warum? Denn dann können wir uns der Menge an Partikeln, mit denen wir es zu tun haben, ungefähr annähern, indem wir einfach die Masse von allem im Raum zählen.

10m × 20m × 3m entsprechen 600m 3 Luft. Die Luftdichte beträgt bei Normbedingungen 1,225 kg/m 3 , die Raumluft hat also eine Masse von 735 kg. Fügen wir zwei voll bekleidete Erwachsene hinzu, Boden, Wände, eine Decke, einen Holztisch, einige Säulen, einige Früchte, Schwerter, für insgesamt willkürliche 1.265 kg. Ich habe diese Nummer aus einer Körperhöhle entnommen, aber sie ist ziemlich glaubwürdig. Wenn wir bei all den anderen Sachen einfach die Luft etwas komprimieren, haben wir eine schöne, runde Menge von 2 Tonnen Material.

Protonen und Neutronen haben unterschiedliche Massen, sind aber nahe genug beieinander. Nehmen wir ein Neutron für jedes Proton an und wir können eine durchschnittliche Masse von 1,673776 verwenden × 10 -27 kg pro Partikel. Lassen Sie uns die Elektronenmasse jetzt nicht berechnen, weil ich sie jetzt nur annähern werde.

Also wir haben wie...

( 2 × 10 3 ) ( 1,67 × 10 27 ) = 1.2 × 10 30 A T Ö M ich C   N u C l e u S   P A R T ich C l e S

Wenn der Raum elektrisch neutral ist, haben wir ein Elektron für jedes Proton (das ist die Hälfte der Teilchen oben), also wäre die tatsächliche Summe eher 1,8 × 10 30 Teilchen.

Wenn die zukünftigen Leute aus irgendeinem geheimnisvollen Grund immer noch Bytes verwenden, müssen wir eine 128-Bit-Architektur verwenden (dh: jede Adresse benötigt diese Anzahl von Bits oder 8 Bytes).

Jedes Partikel hat seine eigene Adresse, die acht Bytes in der Adresstabelle sind. Jedes Partikel belegt außerdem 576 Bytes (1024 Bits pro Partikeleigenschaft = 64 Bytes pro Eigenschaft, und jedes Partikel hat fünf Eigenschaften). Also: 640 Bytes pro Partikel.

640 × 1.8 × 10 30 = 1.152 × 10 34 B j T e S .

Wir sprechen davon, ungefähr 11.520 Geobytes zu benötigen .

Zum Vergleich: Cisco, der größte Router- und Switch-Hersteller der Welt, behauptet, dass das Internet im Jahr 2016 endlich einen kombinierten jährlichen Datenverkehr von einem Zettabyte erreicht hat . Ein einzelnes Geopbyte wäre um neun Größenordnungen größer. Mit anderen Worten, Ihre Simulation würde mehr als eine Milliarde Mal mehr Bytes benötigen als die Menge an Bytes, die 2016 im Internet zirkulierten.

Wenn wir den Punkt erreichen, an dem wir das tun können, könnten Quantenprozessoren damals bereits so veraltet sein wie der Abakus heute, daher möchte ich mir nicht einmal vorstellen, wie viel Rechenleistung damit verbunden ist. Sagen wir einfach, die Prozessoren laufen mit Clarkean-Magie oder Handwavium.

Ich denke, die Leute haben ausgerechnet, dass keine perfekte Simulation möglich ist. Obwohl es Vorbehalte geben könnte (vielleicht des gesamten Universums?). Es ist der Grund, warum einige Wissenschaftler versuchen, „Fehler in der Simulation“ zu finden. Die Prämisse ist, dass unsere Welt eine Simulation sein könnte, also wenn sie es ist , wird sie unvollkommen sein. Wenn Sie es wirklich, wirklich, * wirklich genau untersuchen, werden sich die Dinge aufgrund von Dingen wie Rundungsfehlern und einer unvollständigen Darstellung der Daten nicht richtig verhalten. Wir reden weit über subatomar hinaus. Ich kann mich jedoch nicht erinnern, wie die Berechnungen waren und wie sie ermittelt wurden.
Sie haben den Spin (Winkelimpuls) in den Eigenschaften vergessen, die Sie für Teilchen benötigen. OP gab auch an, dass die Simulation auf Quark-Ebene erfolgen sollte, sodass Sie die Farbladung und den Geschmack berücksichtigen müssen. Wo ist die Schwerkraft dabei? Beschleunigung? Magnetfeld? Beabsichtigen Sie, das Magnetfeld in jedem Zeitschritt allein auf der Grundlage der Ladung neu zu berechnen? Das wird nicht ausreichen, da Magnetfelder selbst Ladungen induzieren können. Ihr Modell wird nicht in der Lage sein, Dinge wie radioaktiven Zerfall, Zeitdilatation, Schwerkraft, Lichttransport, Brahmstrellung, um nur einige zu nennen, zu simulieren.
@stix du hast mich da erwischt. Ich habe einige Änderungen vorgenommen. Und ja, ich beabsichtige, alles spontan zu berechnen.
@Renan Sind Ihre Werte dreidimensional (dh die Position ist 3 x 1024 oder ein einzelner 1024-Bit-Wert?) Welche Datentypen sind das? Fließkomma? Fixpunkt? Ganze Zahl? Was sind deine Einheiten? Planck-Einheiten? Wenn dies der Fall ist, entspricht 2^1024 nur 8,8 Meter Planck-Länge und kann daher nicht die volle Größe des Raums darstellen, noch schlimmer, wenn Ihr 1024-Bit-Array in ein 3-Tupel mit nur 341 Bit pro Dimension aufgeteilt werden muss.
@stix Seine Antwort war fantastisch und wenn man bedenkt, dass ich das Hard-Science-Tag nicht gesetzt habe, bin ich nicht übermäßig besorgt über die Fehlerquote, die er präsentiert hat.
@Renan Also im Grunde ist die benötigte Rechenleistung in meiner Welt absolut und lächerlich unmöglich , was bedeutet, dass ich es durch eine Supermacht erklären muss.
@stix Ich habe mit Gleitkommazahlen mit doppelter Genauigkeit (64 Bit) begonnen und dann die Anzahl der Bits verdoppelt. Und ja, dreidimensional.
@Renan Wenn Sie auf der Planck-Skala simulieren, macht es keinen Sinn, FP zu verwenden, daher benötigen Sie größere Ganzzahlen als 1024 Bit. Fließkommazahlen verlieren an Genauigkeit basierend auf der Anzahl der Nachkommastellen, und es macht keinen Sinn zu sagen, dass sich ein Teilchen im vorherigen Zeitschritt um 1,5 Planck-Längen bewegt hat.
Ich verwende keine Planck-Präzision, ich verwende Metrik.
@Overlord, es ist mir gerade eingefallen: Vielleicht interessieren Sie sich für den Animus aus der Assassin's Creed -Spielereihe, um sich inspirieren zu lassen. Es ist eine Maschine, die eine ganze Welt mit Perfektion simuliert, und AFAIK wird sie von magischen Artefakten einer alten Rasse angetrieben (magisch im Clarkeschen Sinne, dass sie zu fortgeschritten ist, als dass wir sie verstehen könnten). In der Serie wird die Animus- Technologie schließlich in Videospielen verwendet.
@Renan Ich war früher eigentlich besessen von der Assassin's Creed- Serie, aber ich habe den Animus völlig vergessen. Danke, das könnte tatsächlich helfen! Vielleicht kann ich ein paar verschiedene Supermenschen dazu bringen, verschiedene Aspekte ihrer Kräfte zu kombinieren, um die Maschine zu erschaffen! Der Zweck der Frage war zu entscheiden, wie viel Wissenschaft ich verwenden kann, um die Maschine zu erklären, und es stellt sich heraus, dass es sehr wenig Wissenschaft ist .

Es hängt davon ab, was die letztendliche Unified Theory of Everything tatsächlich beweist

Im Moment gibt es zwei Theorien darüber, wie klein klein gehen kann. Eine Theorie besagt, dass der Raum auf der Planck-Skala quantisiert ist. Dies ist der Glaube, dass der Raum aus diskreten bandbegrenzten Einheiten besteht und dass nichts in einem kleineren Maßstab als dieser existiert. Die zweite Theorie besagt, dass nichts kleiner als dieser Maßstab existieren kann, aber dass Dinge existieren können, die größer sind und sich nicht gleichmäßig bis auf den Planck-Maßstab aufteilen lassen.

Gemäß der ersten Theorie können Sie dies erreichen, um alles in jeder bekannten und unbekannten Situation zu berücksichtigen, indem Sie die Planck-Skala verwenden , bei der das Universum theoretisch für alle praktischen Zwecke unteilbar ist. Ihr Raum ist 1,25e+36 mal 6,25e+35 mal 1,875e+35 Plankenlängen, was Ihnen ein Raster von etwa 1,465e+107 Datenpunkten gibt. Angenommen, Ihr Computer besteht aus Molekülen, dann bräuchten Sie einen Computer, der aus etwa 10 bis 40 Potenzuniversen besteht, nur um einen Speicherplatz zu schaffen, der all diese Daten aufnehmen kann; 100% True Fidelity ist also weit über das Machbare hinaus.

Nach der zweiten Theorie ist der Raum analog, egal wie klein man geht; Daher gibt es für einen Computer keine Möglichkeit, eine absolute 100% ige Auflösung zu erreichen, unabhängig davon, wie viele Universen an Materie Sie auf das Problem werfen. Dies macht das Problem von hartnäckig zu wirklich unmöglich.

Die gute Nachricht ist, dass das Gesetz der Durchschnittswerte Ihr Freund ist

Damit meine ich, dass Sie, wenn Sie eine Stichprobengruppierung ähnlicher Dinge nehmen, immer genauere Vorhersagen treffen können, je größer die Stichprobe wird. Mit anderen Worten, Sie brauchen keine 100%ige Genauigkeit, um genau zu wissen, was in 99,99999% der Fälle auf makroskopischer Ebene passieren wird.

Eine Sache, in der Computer gut sind, ist die statistische Simulation von Komplexität und Datenkomprimierung. Solange all deine Kräfte auf dem Bekannten beruhenEigenschaften der subatomaren Physik können Sie jedes Muster vereinfachen. Zum Beispiel: Wenn Ihre Kraft auf einem bestimmten exotischen subatomaren Teilchen beruht, das aus einer bestimmten Anordnung von Techni-Quarks, Higgs-Bosonen und Handwavium besteht, das sich mit einem bestimmten Prozentsatz an Standardmaterie verbindet, um "Unobtainium" zu bilden, das sich wiederum an a bindet bestimmtes Protein in Ihren Schweißdrüsen, dann können Sie all diese bekannten Eigenschaften simulieren, da sie auf jede Schicht von Interaktionen angewendet werden, indem Sie Verhaltensweisen in genaue, aber wahrscheinlichkeitsbezogene Ergebnisse in viel größeren Maßstäben abstrahieren. EI: Zuerst indizieren Sie, was das Subatomare tut, dann die Moleküle, dann die Zellen, dann die Gewebe usw. Am Ende ist Ihr Programm,

Das Scannen Ihres Körpers im Detail, das Sie benötigen, um ihn auf diese Weise zu simulieren, kann sehr lange dauern, da der Scanner Daten abtastet, aggregiert, testet und erneut abtastet, aber sobald Ihre Anatomie in das System "komprimiert" ist, können Sie diese Simulation ausführen auf relativ plausiblen Computern. Da Menschen im Makroskopischen leben, ist es im Allgemeinen in Ordnung, eine Fehlerspanne zu haben. Wenn Sie im Simulator einen 1244,7 °C heißen Feuerball abfeuern und im wirklichen Leben 1244,6 °C haben, weil Sie einige Unobtainium-Partikel, die ungleichmäßig verteilt waren, nicht berücksichtigt haben, wen interessiert das? Kein Mensch wird den Unterschied bemerken, wodurch das Training, das Sie im Simulator erhalten, perfekt auf die realen Szenarien anwendbar ist, für die Sie trainieren.

Dies gilt auch für Fragen wie, ob Ihre Kraft Gold oder Bor bilden wird. Die wichtige Frage hier ist nicht, die genaue molekulare Aktivität abzubilden, sondern die Regeln zu verstehen, nach denen Ihre Kräfte funktionieren, und eine Scan-Methode zu haben, die genau genug ist, um die Zustände zu erfassen, in denen entweder das eine oder das andere wahr wäre.

Das Universum ist auf der Planck-Skala nicht "binär"; es ist auf die Planck-Skala quantisiert . Die Planck-Länge ist einfach die kleinstmögliche Quantisierung für das Universum, das Universum reduziert sich nicht nur auf 1s und 0s bei 10^-35 m und hat tatsächlich mehrere Werte bei jeder Planck-Länge. Es ist eigentlich ein Satz von Tensoren. Sie können es sich als ein Bündel von Planck-großen Kästchen mit einer Reihe von Vektoren vorstellen, die die Quantenfeldzustände beschreiben.
@stix Ja, das war eine schlechte Sprachwahl. Als ich das schrieb, hatte ich vor, darauf zurückzukommen, um die Verarbeitung und den Speicher zu erläutern, die mit jedem Datenpunkt verbunden sind, aber als ich zu 1,465e + 107 Datenpunkten kam, schien es ein strittiger Punkt zu sein.
@stix: Die Planck-Länge ist kein Raumquantum. Es ist einfach der kleinste Abstand, der physikalisch sinnvoll ist. Nichts hindert einen Abstand daran, 314,15926535 Plankenlängen zu sein; das einzige, was keinen physikalischen Sinn macht, ist eine Entfernung von 0,9 Planck-Längen.
@AlexP Es stimmt zwar, dass es derzeit keine experimentellen Beweise dafür gibt, dass die Raumzeit quantisiert ist, aber die Planck-Länge ist in jeder Hinsicht ein Quantum des Raums, da unsere Modelle in kleineren Maßstäben keine Vorhersagekraft haben. Es ist das diskrete Abtasten der Realität gemäß unseren Modellen, was dasselbe ist, als würde man sagen, dass es sich um ein Quantum Raum handelt. Wenn ich ein Signal digital abtaste, macht es keinen Sinn, darüber zu diskutieren, was zwischen den Abtastungen passiert. Die Planck-Länge impliziert, dass das Universum selbst bandbegrenzt ist.
@stix: Die kleinste Länge zu sein, die physikalisch Sinn macht, macht es nicht zu einem Quantum Raum. Per Definition ist ein Quantum von etwas eine Menge, so dass jede Menge dieses Etwas ein ganzzahliges Vielfaches des Quantums ist. Es gibt einen großen Unterschied zwischen einem Signal, das aus einer Reihe von Impulsen im Abstand von 1/44100 Sekunden besteht (und daher nicht bandbegrenzt ist) und einer Reihe von Abtastwerten, die im Abstand von 1/44100 Sekunden aufgenommen wurden und ein kontinuierliches Signal darstellen .
@stix Das klingt sehr nach der Aussage "Mein Mikroskop kann nichts Kleineres als ein Staubkörnchen sehen, also besteht die Welt aus Staub und nichts Kleinerem."
@Muuski LoL nein, es ist eher so, als würde man sagen: "Wenn ich versuche, eine so kleine Entfernung zu untersuchen, kollabiert jedes Partikel, das ich erzeuge und das klein genug ist, in ein Schwarzes Loch."
@AlexP 1/2 Es ist mathematisch beweisbar, dass ein Signal, das aus einer Reihe von Impulsen im Abstand von 1/44100 Sekunden besteht, identisch ist mit einer Reihe von Abtastungen, die im Abstand von 1/44100 Sekunden von einem kontinuierlichen Signal genommen werden, solange dieses kontinuierliche Signal keine hat Frequenzen über 44,1 KHz. Dies ist die grundlegende Sampling-Theorie. Wenn das physikalische Modell keine Interaktion in einer kleineren Skala als der Planck-Skala zulässt, macht es keinen Sinn zu fragen, was kleiner ist. Es ist dasselbe wie zu fragen, wie viele Engel auf einer Kopfnadel tanzen können. Die Relativitätstheorie sagt, dass der Raum glatt ist, aber die Quantenphysik sagt, dass dies nicht der Fall ist. Das ist
@AlexP 2/2 das grundlegende Problem hinter der Suche nach einer großen einheitlichen Theorie. Die Gleichungen besagen, dass man ein Schwarzes Loch erhält, wenn man versucht, irgendeine Art von Wechselwirkung durchzuführen, die kleiner als die Planck-Skala ist. Derzeit gibt es keinen bekannten Weg, dies zu umgehen, und so ziemlich die gesamte Forschung zu GUTs sucht nach Wegen, die Raumzeit (und damit die Relativitätstheorie) zu quantisieren, nicht um QM kontinuierlich zu machen. Somit impliziert die Planck-Skala absolut, dass das Universum bandbegrenzt ist.
@Stix: Du liegst falsch. Es ist bewiesen, dass, wenn das Signal bandbegrenzt ist, eine Reihe von Samples es darstellen kann . Ein Signal, das aus einer Reihe von Impulsen besteht, ist nicht bandbegrenzt, und daher gilt der Satz von Nyquist nicht einmal.
@AlexP Sie sind absolut falsch en.wikipedia.org/wiki/Nyquist%E2%80%93Shannon_sampling_theorem "Eine Reihe von Impulsen ...", wie Sie beschreiben, ist dasselbe wie eine Impulsfolge von Dirac-Deltas. Das Abtasttheorem besagt, dass dies identisch mit einem kontinuierlichen, bandbegrenzten Signal ist. Sie können außerdem argumentieren, dass das Universum bandbegrenzt ist, weil Sie keine Teilchen mit unendlicher Bandbreite erzeugen können (ein solches Teilchen hätte unendliche Energie). Das einfachste Beispiel ist ein Teilchen mit einer Wellenlänge, die kürzer als die Planck-Länge ist. Ein solches Teilchen würde zu einem Schwarzen Loch kollabieren.
Ich möchte nur darauf hinweisen, dass Sie beide zwei weit verbreitete Überzeugungen über Planck-Einheiten zitieren. Viele sehr respektable Physiker halten an beiden Enden dieses Arguments fest, aber es gibt keinen endgültigen Beweis für beide Seiten, weil es sich um ein unbeweisbares Konzept handelt. Die Debatte darüber, ob es etwas gibt, das kleiner als eine Planklänge ist, führt ungefähr so ​​​​wahrscheinlich zu einem vollständigen Konsens wie eine Debatte über die Existenz Gottes.
@Nosajimiki Ich stimme zwar zu, dass die Implikationen der Planck-Länge größtenteils philosophisch sind, aber die Aussage, dass "... ein bandbegrenztes kontinuierliches Signal nicht dasselbe ist wie eine Reihe von Impulsen mit derselben Frequenz ...", ist offensichtlich und nachweislich falsch. Das gesamte Gebiet der digitalen Signalverarbeitung erfordert, dass sie gleich sind. Das Shannon-Nyquist-Sampling-Theorem, das dies beweist, ist eine Vorlesung am ersten Tag in jedem DSP-Einführungskurs auf College-Ebene.
@stix Ich stimme voll und ganz zu, aber der Kontrapunkt, den Alex macht, ist, dass Sie nicht beweisen können, dass der Raum vollständig bandbegrenzt ist. Ein Schwarzes Loch bildet sich bei 1 Planck-Einheit, aber etwas, das 3,5 Einheiten beträgt, gibt Ihnen nicht unbedingt 3 Einheiten Raum und Schwarzes Loch. Es ist wie bei einer Aufzeichnung, bei der jeder Puls mindestens 1/44100 Sekunden lang sein muss, aber nichts hindert einen Puls von 7/88200 Sekunden, der sich nicht gleichmäßig aufteilen lässt; Bei 44,1 KHz kann es also immer noch zu Verlusten kommen. Ob dies in unserem Universum passiert oder nicht, ist meines Wissens noch nicht bewiesen.

Ein intuitiver Ansatz

Es ist trivial, aus der Kombinatorik zu zeigen, dass man klassischerweise mehr als ein Atom haben muss, um den Zustand eines Atoms darzustellen (tatsächlich viel mehr als ein Atom).

Der Beweis: Nehmen wir an, der Speicher deines Computers funktioniert, indem er Bits im Spin-Zustand eines Atoms speichert (die Art des Atoms spielt keine Rolle). Atomspins sind quantisiert und können entweder „oben“ oder „unten“ sein, was praktisch ist, um ein binäres System aufzubauen, bei dem wir sagen können, dass 0 „oben“ und 1 „unten“ ist.

Wenn Sie davon ausgehen, dass Sie 32 Bit benötigen, um alle möglichen Zustände eines einzelnen Wasserstoffatoms darzustellen, werden 32 Speicheratome benötigt, um nur dieses einzelne Wasserstoffatom darzustellen.

In Wirklichkeit benötigen Sie für alle möglichen Eigenschaften, die ein Atom haben kann, viel mehr als 32 Bit. Die Anzahl der Bits, die Sie tatsächlich benötigen, hängt von der Anzahl der Eigenschaften ab, die Ihr Atom haben kann (Spin, Impuls, Ladung usw.), sowie von der benötigten Auflösung (dem Dynamikbereich).

Dies impliziert, dass Sie klassischerweise, um eine Simulation eines Raums bis auf die atomare Ebene darzustellen, einen Raum benötigen, der (in der Masse) viel, viel größer ist als der Raum, den Sie simulieren möchten, um Ihre gesamte Computerhardware aufzunehmen.

Selbst wenn wir es von einem Quantenstandpunkt aus betrachten (dh eine Gesellschaft nach der Singularität, die funktionierende allgemeine Quantencomputer geschaffen hat), können Sie trivialerweise beweisen, dass es eine 1:1-Korrelation gibt.

Wenn Ihr simuliertes Wasserstoffatom 500 mögliche Quantenzustände hat (eine grobe Unterschätzung, um sicher zu sein) und Sie diese irgendwie im Quantenzustand eines echten Wasserstoffatoms speichern können, dann brauchen Sie mindestens ein echtes Atom für jedes gewünschte simulierte Atom berechnen, einfach um die Informationen über seinen Zustand zu speichern.

Aber was brauchen wir dann?

All diese intuitiven Konzepte darüber, was es braucht, um die Welt mit "exakter Präzision" zu simulieren, führten zu einer genaueren Formulierung, die als Berkenstein- Grenze bekannt ist .

Im Wesentlichen sagt die Berkenstein-Grenze aus, dass die Menge an Informationen, die Sie auf einer bestimmten Fläche platzieren können, begrenzt ist. Umgekehrt zeigt es auch, dass die Menge an Informationen, die Sie benötigen, um ein beliebiges physikalisches System auf der Quantenebene darzustellen, in direktem Zusammenhang mit seiner Masse und seinem Volumen steht. Es zeigt auch, dass es eine Obergrenze für die Verarbeitungsmenge gibt, die Sie mit einer gegebenen Menge an Masse und Platz durchführen können.

Es wurde fast sofort festgestellt, dass die Berkenstein-Grenze eine direkte Beziehung zu Schwarzen Löchern hat: Wenn Sie nämlich versuchen, die Berkenstein-Grenze zu überschreiten (dh mehr Informationen in ein bestimmtes Volumen zu packen, als es unterstützen kann), wird Ihr Computer zu einem Schwarzen Loch zusammenbrechen!

Wenn wir an unser vorheriges intuitives Gedankenexperiment zurückdenken, ergibt dies Sinn. Um Ihre Welt zu simulieren, benötigen Sie Bits. Wenn Sie Atome zur Darstellung von Bits benötigen und zu viele Atome zusammen in einem bestimmten Volumen platzieren, würden sie natürlich den Schwarzschild-Radius überschreiten und zu einem Schwarzen Loch kollabieren.

Was sagt also der Berkenstein Bound über Ihren simulierten Raum aus?

Nun, wie wir festgestellt haben, hängt die Menge an Informationen, die Sie benötigen, um einen bestimmten Raum auf seiner Quantenebene zu simulieren, direkt von der Größe dieses Raums und der darin enthaltenen Masse ab.

Ihre Frage sagt nichts über die Masse im Raum aus, sondern gibt uns ihre Abmessungen an, die ungefähr einer Kugel von etwa 12 m 3 entsprechen (nebenbei bemerkt, eine Kugel ist anstelle eines Würfels die beste Konfiguration für Ihren Raum, da sie minimiert die Oberfläche).

Also, durch den Berkenstein gebunden, benötigt Ihr Zimmer ungefähr

3,08 x 10 44 Bit/kg

auf der Quantenebene genau darzustellen, und dies ist nur der Speicher, um die Zustände aller Atome zu speichern. Es sagt nichts über die Berechnung der Zustände dieser Atome aus.

Wenn Leute an Simulation denken, gehen sie oft direkt zu Brute-Force-Lösungen, die den jeweiligen Computer und seine Teile zu 100 % belasten. Was im Grunde wie folgt zusammengefasst wird: "Versuchen Sie so gut Sie können, eine kompilierte, arbeitende, bewusste Person zu täuschen, damit sie glaubt, dass etwas Falsches echt ist."

Eine elegantere Lösung (oder, je nach Sichtweise, beschissen) wäre es, ein Stück Technologie tief in das Gehirn zu rammen, vor allem in die älteren Teile des Gehirns wie den Thalamus; Technologie, die jeder hat, und sie akzeptieren sie einfach so, wie wir akzeptieren, dass heutzutage jeder einen rechteckigen Computer in der Tasche hat, und das war's.

Das mag durchaus die Methode sein, mit der die Matrix-Story praktisch funktioniert.

Warum: Obwohl wir das Bewusstsein definitiv nicht verstehen oder was es verursacht, legt eine Theorie nahe, dass ein großer Teil davon diese Art von „Compiler“ oder „Zippalgorithmus“ ist, den das Gehirn verwendet, um im Grunde alle asynchronen und gelegentlich widersprüchlichen Informationen miteinander zu verflechten das Gehirn in eine "Geschichte" umwandelt, die es sich selbst erzählt (das Bewusstsein kommt dann irgendwie von "dem Selbst", das sich in diesem Compiler als Variable und Quelle von Reizen verfängt, wie eine Schlange, die ihren eigenen Schwanz frisst). Diese seltsame Funktion von Informationen in eine "Geschichte" zu zerquetschen bedeutet, dass unbequeme Dinge wie der blinde Fleck in Ihrem Auge, die unterschiedlichen Eingabezeiten des Sehens im Vergleich zum Hören, die Tatsache, dass Sie wirklich wirklich eine Zigarette wollen, vs. das widersprüchliche Wissen, dass es Ihre Todeschancen erhöht,und alles andere.

Wie: Wenn Sie im Wesentlichen digital erzeugte Reize in das Gehirn werfen könnten, bevor dieser „Zippalgorithmus“ stattfindet, wäre es denkbar, dass das Gehirn die falsche Realität gerne in die allgemeine „Bewusstseinshalluzination“ einbezieht, die unser tägliches Wachleben ist . Logische Diskrepanzen und Probleme mit der Genauigkeit der simulierten Eingabe würden einfach schmelzen oder im Kompilierungsprozess weggequetscht werden, und die bewusste Kreatur würde wahrscheinlich überhaupt nichts bemerken, außer dass sie danach einige ziemlich durcheinandergebrachte Träume haben könnte Das Gehirn dekompiliert im Wesentlichen und versucht, Probleme zu verarbeiten, die es während des täglichen Bullshit-A-Thons, das Bewusstsein ist, ins Unbewusste geworfen hatte.

--

bearbeiten; es ist denkbar, dass Sie die oben erwähnten „vermasselten Träume“ (wenn Sie sich dafür entscheiden, das imaginäre Phänomen überhaupt einzubeziehen) als eine Art zunehmendes Risiko oder Nachteil bei der zu häufigen oder zu häufigen Verwendung des Simulators einbeziehen; es könnte hypothetisch dazu führen, dass Menschen an einer Psychose leiden oder Nervenzusammenbrüche erleiden, paranoid werden, sich spalten oder ihnen sogar nur Grund geben zu glauben, dass sie – immer noch – im Simulator sind, oder behaupten, dass dunkle Mächte versuchen, „kleine Lügen“ einzufügen. in ihr tägliches Leben durch dieses eingebettete Gerät (und zusätzlich ein physischer Kill-Schalter, der garantieren würde, dass dies nicht der Fall ist, wenn Sie es einbeziehen wollten, ist, dass ein "Empfänger" oder Schalter im Hinterkopf eingeschaltet sein muss um jede Art von Halluzination zu erhalten.)

Wenn Sie alles bis zu den Quarks benötigen, müssen Sie alles bis zur Plank-Länge simulieren 1.6 × 10 35 m und Plank-Zeit 5.3 × 10 44 Sekunden. Das ist die gleiche Längenskala wie Saiten.

Angenommen, Ihre Theorie von allem funktioniert so etwas wie die Stringtheorie, müssen Sie die zweite Ableitung berechnen und das erste und zweite Integral (Kraft/Beschleunigung, Energie/Geschwindigkeit und Position) aller dieser Elemente in 10 räumlichen Dimensionen ( keine Zeit)

Pro simulierter Sekunde also, für einen 10 x 20 x 3 Meter großen Raum, benötigt Ihr Computer 2.8 × 10 151 Berechnungen.