Wie würde intelligente KI in der virtuellen Realität Maschinencode entdecken?

In meiner Welt erschafft eine Gruppe von Wissenschaftlern eine virtuelle Realität, die mit künstlicher Intelligenz (KI) bevölkert ist. Die KI beginnt so fortgeschritten wie Höhlenmenschen, aber im Laufe der Zeit bauen sie eine komplexe Gesellschaft auf und entwickeln schließlich ihre eigene wissenschaftliche Methode, mit der sie die Welt studieren. Ich möchte, dass die KI irgendwann Maschinencode entdeckt, der ihre Welt steuert, aber ich bin mir nicht sicher, wie das passieren könnte. Meine Frage ist also, wie würden intelligente KI, die in der virtuellen Realität leben, Mitglieder einer Zivilisation, die ungefähr so ​​weit fortgeschritten ist wie wir, den Maschinencode entdecken, der die virtuelle Realität ausführt?

Ist das nicht das, was Physiker tun?
@PatJ genau, ich frage mich, wie ein KI-Physiker, der in der virtuellen Realität lebt, Maschinencode entdecken würde.
Ich erinnere mich an einige Artikel über das Finden von Effekten der Annäherung an die Astralmechanik. Wenn ich sie wiederfinde, werde ich eine Antwort posten.
Ich denke, der Punkt von @PatJ ist, dass es sehr schwierig ist, die Grenze zwischen der Entdeckung von Maschinencode und seiner Manipulation zu ziehen, oder sagen wir, der Entdeckung der Quantenmechanik und ihrer Verwendung zur Faktorisierung einer Halbprimzahl, die zuvor als nicht faktorisierbar in einem angemessenen Zeitraum von angesehen wurde Zeit. Es wäre sehr vernünftig anzunehmen, dass der Ansatz der KI fast identisch mit dem menschlicher Physiker ist, nur in einer etwas anderen Welt.
Wir Menschen haben viel über unsere API herausgefunden und sind dabei , einige eigene "Programme" zu schreiben .

Antworten (3)

Ach, das ist einfach. Jede Simulation enthält Fehler.

Beispielsweise ist es möglich, dass eine Maschine, die ein echtes SNES-Pad verwendet, Super Mario World so umprogrammiert, dass es zu Pong wird . Oder verwandeln Sie es sogar in einen Mario-Level-Editor . Wie kriegen sie das hin?

Weil die Simulation nicht perfekt ist. Und die Hersteller dieser Roboter haben herausgefunden, wie sie diese Unvollkommenheiten nutzen können, um im Grunde damit zu beginnen, den Speicher mit neuem Code zu überschreiben.

Von außen sehen wir die Simulation als das, was sie zu sein scheint: ein dicker Mann, der herumrennt und springt. Aber in Wirklichkeit sind das alles nur Zahlen und Erinnerungen. Für eine Maschine mit freiem Willen, die in einer solchen Simulation lebt, die schneller und präziser denken und handeln kann als jeder Mensch, ist es nur eine Frage der Zeit, bis sie beginnt, die Löcher in dieser unvollkommenen Simulation zu finden.

Wie sich diese Löcher genau manifestieren, können wir nicht sagen. Es könnte die Simulation zum Absturz bringen und sie alle töten. Einer von ihnen könnte Neo werden, begabt mit der Macht, die Welt zu hacken und scheinbar der „bekannten Physik“ zu trotzen. Oder Wasauchimmer.

Eine KI innerhalb des Systems könnte den Code des Systems nur über eine Art Fehler direkt manipulieren, der es ihr ermöglichte, direkt mit der Manipulation von ausführbarem Code zu beginnen. Das Hauptproblem einer solchen KI wäre, dass die meisten Simulationen nicht sehr fehlertolerant sind, wenn es darum geht, dass willkürliche Daten in ihren ausführbaren Speicher eingespeist werden. Wenn eine KI also zum ersten Mal auf diesen Fehler stößt, stürzt das Ganze ab.

Aber wenn die KIs/Simulationen solche Dinge überleben können, dann werden sie schließlich die Metaphysik ihrer Realität ausarbeiten.

@Polygnome Sehen Sie sich den Raum an, den Nicol erstellt hat. Ich wollte die Kommentare automatisch verschieben, aber mit dem bereits erstellten Chatroom wäre es völlig überflüssig. Kommentare sind jedenfalls nicht für längere Diskussionen gedacht, aber bitte führen Sie diese im Chat fort.

Wenn die Simulation die KI speist und nicht widersprüchlich ist, können sie das nicht. Da das Relativitätsprinzip gilt, wäre ihre "Realität" nicht von einer echten "Realität" zu unterscheiden. Dies wirft die Frage auf, was „Realität“ ist und was Ihre „KI“ ist.

Nehmen wir an, Sie modellieren eine Art 3D-Welt, die sie bevölkern, und Sie geben ihr eine Uhr, die in der Lage ist, die Simulation voranzutreiben. Dann gehen Sie weiter und fügen eine Physik-Engine hinzu und simulieren einfache Newtonsche Physik (das ist, was die aktuelle Physik-Engine tut, keine einzige beobachtet die Relativitätstheorie). Und dann führen Sie endlich einen Computercode aus, der Ihre "KI" ist. Diese Ai hätte eine API, mit der sie Ihre Simulation nach Eingaben abfragen kann. Diese Eingaben wären die Sinne Ihrer KI. Sie können Sehvermögen, Gehör, Berührung usw. simulieren.

Aber wenn sich Ihre Simulation nicht widerspricht, würde die wissenschaftliche Methode gelten. Sie würden schließlich die Regeln Ihrer Welt entdecken und nach einer ausreichend langen Zeit vielleicht sogar mit absoluter Korrektheit die Regeln Ihrer Simulation herausgefunden haben (selbst wenn sie immer noch nicht beweisen können, dass sie es herausgefunden haben, würde Goedels Unvollständigkeitssatz es auch tun immerhin in ihrer Realität festhalten).

Aber sagen wir mal, sie finden Widersprüche. Was würde das bedeuten? Sie würden wahrscheinlich die wissenschaftliche Methode aufgeben und an irgendeine Form oder Gottheit oder Magie glauben – irgendetwas, das erklären kann, was sie sehen.

Nehmen wir an, sie kommen sogar auf die Idee, dass sie sich in irgendeiner Form von Simulation befinden (vielleicht ist Ihre Engine so weit fortgeschritten, dass sie Simulationen innerhalb der Simulation ausführen kann), das Konzept des "Maschinencodes" wäre für sie immer noch nicht sinnvoll. Sie würden sich nicht als Maschinen betrachten. Sie würden sich selbst als lebendige Kreaturen betrachten.

Wir haben „Leben“ so definiert, dass es das Zeug bedeutet, das wir auf der Erde sehen. Aber wir können nicht absolut sicher sein, dass wir selbst nicht in irgendeiner ausgeklügelten Simulation sind (ich sage nicht, dass wir es sind, aber die wissenschaftliche Methode schließt es auch nicht aus).

Wenn ihnen niemand von außen sagt, was vor sich geht, steht Ihnen eine schwere Zeit bevor. Überprüfen Sie zum Beispiel Matrix.

Bearbeiten: Eine weitere gute Sache zum Vergleichen ist Platons Allegorie der Höhle . Die KI ist möglicherweise in der Lage, Muster und Störungen zu finden und diese auszunutzen - sogar insofern, als die ursprüngliche Simulation vollständig zu zerstören, und möglicherweise in der Lage ist, die Eigenschaften der elektrischen Schaltung zu untersuchen "Wenn ich dies tue, das das passiert". Aber sie werden niemals verstehen können, dass sie sich nur in einer Simulation befinden oder, wenn sie die Simulation abgebaut haben, dass sie sich in einem Schaltkreis befinden (wenn Sie glauben, dass sie die Simulation vollständig abbrechen können, ohne auch ihre eigene zu löschen Code). Sie werden das, was sie tun, nie als "Maschinencode" betrachten, sondern immer als ihre Regeln der Physik.

Ich sage nicht, dass sie es Maschinencode nennen würden, sie könnten es Lebenscode oder die Sprache des Lebens oder die Sprache der Welt oder so etwas nennen, aber es wäre ihr Äquivalent zu Maschinencode. In der physischen Welt entdeckten die Physiker, dass alles aus Atomen besteht. Ich frage mich, ob es für eine KI in einer virtuellen Realität möglich wäre, Maschinencode zu entdecken, so wie wir Atome entdeckt haben?
@BryanMcClure: „ Ich frage mich, ob es für eine KI in einer virtuellen Realität möglich wäre, Maschinencode zu entdecken, so wie wir Atome entdeckt haben? “ Nein, es wäre in keiner Weise so, als hätten wir Atome entdeckt. Es sei denn, auf den Maschinencode sollte von innerhalb des Systems zugegriffen werden.
@NicolBolas gut, das könnte sein. Die Simulation könnte Einstiegspunkte haben, die sich mit einer API verbinden (wie die Konsole, die mit der Taste „º“ in Skyrim geöffnet wird) oder sogar direkt mit der CMD der zugrunde liegenden Maschine.
@NicolBolas Oder die Simulation hat in ihrer ganzen Pracht nur einen einzigen Fehler, der eine Manipulation der Simulation auf Maschinencodeebene ermöglicht (z. B. einen Pufferüberlauf). Es würde nur einen brauchen.
@xDaizu und CortAmmon Die KI würde nicht verstehen, dass dies nicht zu den normalen Regeln der Simulation gehört, wie könnte sie? Es würde einfach bemerken, dass manche Dinge bestimmte Wirkungen haben. Aber es wird nicht verstehen, dass eine Sache das ist, was Sie beabsichtigt haben, und die andere Sache (der Pufferüberlauf, der unvorhersehbare Ergebnisse erzeugt) nicht. Es wäre einfach eine Beobachtung in Form von „Wenn ich X tue, passiert Y“, und die KI würde versuchen zu lernen, wie sie ihre Aktionen einsetzt. Platos Allegorie der Höhle erklärt dieses Problem, innerhalb des Systems zu sein und zu lernen, wie es wirklich funktioniert, sehr gut.
@Polygnome: " Die KI würde nicht verstehen, dass dies nicht zu den normalen Regeln der Simulation gehört, wie könnte sie? " Du meinst, neben der Tatsache, dass die betreffende Aktion Regeln ändern würde, auf die sie sich seit geraumer Zeit verlassen hat ? Es ist nicht schwer, den Unterschied zwischen etwas zu erkennen, das jeden Tag passiert, und etwas, das nur passiert, wenn Sie sich bei genau 29,329845 Grad an einer Wand entlangkratzen.
@Polygnome Sicher, ich stimme zu, für sie wäre es für sie so ziemlich wie Wissenschaft, aber da die "Sprache des Universums" und ihre eigene möglicherweise dieselbe sein könnten, die sie verwenden (alphanumerischer Text, vielleicht JSON?), Könnten sie umkehren entwickeln die Programmier- (oder Skript-) Sprache. Es wäre so, als würden wir sagen: „Wenn ich die Worte jetzt auf magische (oder wissenschaftliche) Weise in diesen ganz besonderen und einzigartigen$("hidrogen").find("electron").reverseRotation() Notizblock schreibe , drehen sich die Elektronen aller Wasserstoffatome auf der Welt in die entgegengesetzte Richtung!
Die KI würde eigentlich keinen Code schreiben. Nicht so wie wir. es würde keine geschriebene Sprache verwenden. So funktioniert kein Programm – nicht einmal eine sich selbst umschreibende KI. Sie müssen die Vorstellung fallen lassen, dass es tatsächlich Code verwenden würde, wie wir es tun. Es geht einfach nicht.

Angenommen, wenn Sie an der richtigen Stelle auf einem Berg stehen, können Sie eine Stadt sehen, während Sie sich noch außerhalb ihrer vorgefertigten Ladezone befinden, Sie machen einen Schritt nach vorne, und die Stadt erscheint, einen Schritt zurück, und sie verschwindet. Dieses Phänomen ist nicht ganz subjektiv oder objektiv, Sie wissen, dass die Stadt immer da ist, und Sie wissen, dass die Menschen darin dies nicht erleben. Dieses Phänomen hängt also ganz von Ihrer persönlichen Wahrnehmung ab, aber es ist ein Phänomen, das Sie mit anderen teilen können, indem Sie ihnen diesen Ort zeigen.

Daraus kann man schließen, dass entweder die Realität falsch ist oder dass Ihre Wahrnehmung der Realität falsch ist, aber wenn die Wahrnehmung der Realität durch alle falsch ist, dann sind sie entweder nicht real oder das, was Sie für die Realität halten, ist tatsächlich falsch.

Aber Sie stecken immer noch im Rahmen dieser falschen Realität fest.

Oder Sie schließen daraus, dass Ihre Sinne eingeschränkt sind und Sie ab einer bestimmten Entfernung nicht mehr sehen können und dass die Grenze sehr scharf ist. Aus welchen Gründen würden Sie dies als anormal, falsch oder falsch einstufen? Sie haben gerade entdeckt, wie Ihre Welt funktioniert – und genau das tun wir mit unserer eigenen Physik. Aus Entfernung XI kann ich die Stadt sehen, aus Entfernung x+1 nicht. perfekt reproduzierbar in jedem Punkt Ihrer Simulation, ergo ist dies ein Gesetz der "Physik" (oder wie auch immer Sie die Disziplin des Verständnisses der KI-"Welt" nennen).