Was ist der früheste Vorfall, bei dem eine KI-Logikbombe ignoriert oder abgetan wird?

Modernes Computing ist nicht immun gegen Logikbomben, Race Conditions oder außer Kontrolle geratene Threads. Aber es hat Techniken, um die Auswirkungen davon zu minimieren. Ein Watchdog-Timer erfordert, dass das Programm oder System ihn regelmäßig streichelt, oder er erzwingt einen Neustart. Javascript Runaway Timer in Browsern fordert den Benutzer auf, das Skript zu beenden, wenn er bemerkt, dass es den Prozess überlastet. Android-Geräte zeigen an, wenn eine App einfriert, sodass Sie warten oder das Schließen erzwingen können. Programme werden in einer Sandbox gespeichert, sodass eine Sperrung nur dieses Programm und nicht das Betriebssystem betrifft. Diese Techniken funktionieren vielleicht nicht immer, aber sie helfen.

KI in der Science-Fiction neigt dazu, bösartig zu werden, und Logikbomben werden verwendet, um den Computer einzufrieren, um die Lage zu retten. Eine widersprüchliche Aussage wie „Die nächste Aussage ist wahr, die letzte Aussage war falsch“ wird entweder katastrophal für das System sein und einen Zusammenbruch verursachen oder zumindest die KI für immer sperren.

Eine kürzliche SFF-Frage beinhaltete eine Wette, dass ein Mitglied der Raumstation die KI nicht brechen könnte, woraufhin er die obige Logikbombe präsentierte und die KI alle Ressourcen dafür aufwendete, sie zu evaluieren. Alle Ressourcen, einschließlich Lebenserhaltung. TNG präsentierte eine Logikbombe mit einer unmöglichen geometrischen Form, die dazu führen würde, dass die Borg absterben, wenn sie alles darauf konzentrieren (Ethik verlangte, dass sie sie nicht benutzten).

Was ist das früheste Beispiel, bei dem diese Logikbomben die KI einfach für kurze Zeit blockieren, sie dann einfach ablegen oder neu starten, nur einen kleinen Teil ihrer Rechenleistung in Anspruch nehmen oder direkt ignoriert werden (Voraussicht des Programmierers)? Beim realistischen Schreiben würde ein richtig programmierter Computer oder eine KI oder Maschine nicht auf solche einfachen Tricks hereinfallen.

Es gibt eine von Asimov, die ich hinzufügen werde, wenn sie wieder geöffnet wird.
"Ich werde mit True gehen. So, das war einfach."
Zählen Spiele? Ich meine mich zu erinnern, dass Wheatley in Portal 2 ein paar von ihnen abgeschüttelt hat, weil er zu dumm und egozentrisch war, um sich in ihnen zu verfangen.
Nicht unbedingt eine Logikbombe, aber Asimovs „Die letzte Frage“ könnte im Baseballstadion sein. multivax.com/last_question.html

Antworten (3)

In der Doctor-Who- Geschichte The Green Death wird der Computer (BOSS) durch die Logikbombe des Doctors verzögert.

Von Tardis Wikia

Der Dritte Doktor verwechselte BOSS mit einem logischen Paradoxon (insbesondere dem Lügnerparadoxon)

Wenn ich dir sagen würde, dass das nächste, was ich sage, wahr sein wird, aber dass das letzte, was ich gesagt habe, eine Lüge war, würdest du mir glauben? Der BOSS war wütend über seine Unfähigkeit, dieses Paradoxon zu lösen. Es versuchte sogar, sich aus der Notwendigkeit herauszureden, es zu lösen, indem es sagte, die Frage sei nicht relevant. Der Doktor war ziemlich zufrieden mit sich selbst über die Unfähigkeit des BOSS zu antworten, obwohl der BOSS beschloss, die Frage aus dem Fenster zu werfen und einfach den Sicherheitsdienst zu rufen.

Hier können noch mehr sein

[Bearbeiten] - Nachdem die Frage bearbeitet wurde, um nach der frühesten Instanz zu fragen, sollte ich diese datieren.
Der grüne Tod , Folge 5, Erstausstrahlung 16.06.1973.

Oh Doctor Who Schriftsteller, wie ich dich liebe
"Nur einmal würde ich gerne einer außerirdischen Bedrohung begegnen, die nicht immun gegen Kugeln war."
@mpez0 Staffel 4 Special, Planet der Toten.

Aus der Sicht eines Programmierers ist es ziemlich einfach, sich gegen solche Dinge zu schützen, vorausgesetzt, Sie antizipieren sie.

„Die nächste Aussage ist wahr, die letzte Aussage war falsch“. Für so etwas sollte ein gutes Programm einfach eine Ergebnisinkonsistenz bei der Verarbeitung signalisieren und so etwas automatisch ignorieren, einen Protokolleintrag erstellen und weitermachen.

Ähnliche Dinge verursachen oft Speicherlecks in Betriebssystemen. Die Lösung besteht darin, die Aufgaben/Prozesse, die dies verursachen, irgendwie zu beenden, und das System behält seine Integrität und funktioniert weiter.

Die Borg-Situation war anders, weil es keinen Ergebniskonflikt gab ... aber stattdessen keine Möglichkeit, zu einem Ergebnis zu kommen ... sowieso nicht schnell genug, um die Ressourcen nicht zu überlasten. Die Taktik bestand darin, eine unmögliche Form zu erschaffen, ohne dass die Borg wussten, dass die Verarbeitung zu keinem gültigen Ergebnis führt. In einem realistischen Szenario sollte das die Borg-Systeme auch nicht zum Absturz bringen (eine geometrische Form hat begrenzte Berechnungsmöglichkeiten, selbst wenn sie ungültig ist - und die Borg sollten nur eine Zeit lang verarbeitet werden oder sogar einen schnellen Schutz haben, um in Kraft zu treten oder sogar von vornherein als 'irrelevant' ignorieren), aber das passiert in Filmen, die 'Guten' müssen sich irgendwie zum Sieg durchschummeln.

Einfacher geht es nicht: Super-PI. Ich bin mir sicher, dass viele davon wissen. Es ist ein CPU-Benchmark-Programm, das Pi (eine Zahl mit unendlichen Dezimalstellen) berechnet. Natürlich wird es nie zu einem Ergebnis kommen ... also würde die Einführung nur dieser einfachen Sache, die in einer Programmcode-Unterroutine versteckt ist, dazu führen, dass jedes System, das das Programm ausführt und die Unterroutine aktiviert, seine CPU für immer auf 100% hat, praktisch anhält oder reduziert auf fast Null sind es andere Aktivitäten. Hier sollen andere Schutzmaßnahmen ins Spiel kommen.

Ich bin mir nicht sicher, wie dies die Frage überhaupt beantwortet. All das weiß der OP. Sie fragen nach einer bestimmten Folge/einem bestimmten Film/Buch mit einem bestimmten Datum, an dem dies geschieht und dann ignoriert wird.
Die Frage scheint geändert worden zu sein. Dies sieht nicht wie der anfängliche Inhalt des OP aus.

In der Star Trek TOS-Episode „ I, Mudd “, die am 3. November 1967 ausgestrahlt wurde, ist der Androide „Norman“ so verwirrt vom Lügnerparadoxon, dass er seinen magischen Rauch ausstößt .

Auch in der Episode „ Wolf in the Fold “, die am 22. Dezember 1967 ausgestrahlt wurde, sperrt Spock den Enterprise-Computer, indem er ihm befiehlt, pi bis zur letzten Dezimalstelle zu berechnen .

Ist das nicht genau das Gegenteil von dem, was der OP verlangt? Die Frage fragt nach Fällen, in denen der Computer den Versuch, ihn zu verwirren, ignoriert .