Weise zu beweisen, dass Sie ein Mensch sind, wenn der Turing-Test nicht ausreicht

In einer Geschichte, an der ich arbeite, gibt es 5 KI auf einer Raumstation mit unterschiedlichem sozialem Niveau, Bilderkennung und allgemeiner Intelligenz. Mindestens einer ist gut genug, um einen Turing-Test zu bestehen und Bilderkennung zu betreiben, und dies wird von den Leuten erwartet, die die Raumstation leiten. Ich gehe auch davon aus, dass die KI gut genug ist, um die meisten Videotests zu fälschen (mir zu beweisen, dass Sie ein Mensch sind, indem Sie mir Ihr Gesicht zeigen und es in bestimmte Winkel drehen, funktioniert nicht).

Wenn ein Roboter den Turing-Test bestehen kann, gibt es eine Möglichkeit, über einen Kommunikationskanal zu beweisen, dass Sie ein Mensch sind?

Meine Ideen, um Menschen zum Laufen zu bringen:

Zufallsgenerierung: Ein Mensch kann aufgrund der Komplexität des Gehirns echte Zufallszahlen generieren, während die KI eine deterministische Methode zur Generierung von Zahlen hat.

Komplexe Szenenanalyse: Betrachten eines Bildes, um festzustellen, was in einer Szene vor sich geht. Beispielsweise in einer Szene, in der eine Person in einer unnatürlichen Position schläft, während zwei Personen über etwas sprechen, das sich auf den Schläfer bezieht, lautet die Antwort: "Der Schläfer hört heimlich den Leuten zu, die über den Schläfer sprechen" oder dergleichen.

Voigt-Kampff-Test (emotionale Empathie): Unwahrscheinlich, da KI in der Lage sein sollte, menschliche Gesichter und Reaktionen nachzuahmen, wenn man Zeit und Forschung hat.

bearbeiten:

Die KI kann versuchen, den Test zu täuschen, genauso wie die KI heutzutage so konzipiert ist, dass sie versucht, den Wendetest und die Captcha-Tests zu schlagen, außer dass die KI sich selbst entwickelt.

Außerdem sind die KI eigentlich KI, keine Androiden. Sie laufen auf Supercomputern und sehen deshalb nicht menschlich aus oder haben Fortbewegung. Sie können es so aussehen lassen, als hätten sie einen menschlichen Körper, indem sie Datenpakete mit gefälschten Videos senden.

Kommentare sind nicht für längere Diskussionen gedacht; Diese Konversation wurde in den Chat verschoben .
"Ein Mensch kann aufgrund der Komplexität des Gehirns echte Zufallszahlen erzeugen". Das ist definitiv falsch. Das menschliche Gehirn ist sehr schlecht darin, Zufallszahlen zu erzeugen und mit Wahrscheinlichkeiten umzugehen. Siehe zum Beispiel security.stackexchange.com/questions/79275/… . Andererseits haben Computer Möglichkeiten, viele echte Zufallszahlen zu generieren.
Lems Inquest of Pilot Prix untersucht ein ähnliches Thema.

Antworten (29)

Ich würde das Problem umkehren. Versuchen Sie nicht, Dinge zu finden, in denen Menschen besser sind, finden Sie die Dinge, in denen wir schlechter sind.

Alles mit optischen Täuschungen, Irreführungen oder irgendetwas, das wirklich das Gedächtnis benutzt ... Es gibt ein paar Videos auf YouTube, in denen eine Szene langsam geändert wird (Dinge werden hinzugefügt, entfernt, die Charaktere wechseln ihre Kleidung ...) und Sie werden es nicht sehen, oder eine andere, bei der ein Gorilla den Bildschirm überquert und Sie ihn verpassen, weil Sie von dem abgelenkt sind, was im Vordergrund passiert.

Wenn die Verdächtigen nicht genau wissen, warum ihnen all diese Fragen gestellt werden, kann die KI richtig antworten, wo ein klassischer Mensch meistens scheitern wird.

Ich mag diesen, weil man mit optischen Täuschungen einen Test erstellen könnte, den Menschen ziemlich schnell machen können. das bedeutet, dass der Authentifizierungszeitraum ziemlich kurz wäre.
Nicht alle von uns, die den Gorilla zum ersten Mal gesehen haben, sind Roboter ... oder doch?
@Rdster Ich habe den Gorilla das erste Mal gesehen und bin kein Roboter. Abgesehen davon habe ich Autismus, also könnte man argumentieren, dass ich die Ausnahme bin.
@Echox Deine Voraussetzungen sind falsch. Während Computer die optischen Täuschungen standardmäßig nicht „sehen“, basieren die von ihnen verwendeten Bildverarbeitungsalgorithmen auf der Art und Weise, wie menschliche Gehirne Bilder verarbeiten. Infolgedessen werden sowohl Menschen als auch KIs die Illusion sehen. Im Vergleich zu den Denkspielen im „Gorilla Crossing the Screen“-Stil sind diese so verbreitet, dass jede KI, die ihr Geld wert ist, sie durchschaut.
@thescribe-ReinstateMonica Warum bist du so zuversichtlich, dass KIs das Problem mit dem blau-goldenen Kleid verstehen würden? Ich denke, die menschliche Kognition hängt viel mehr von Artefakten unserer biologischen Geschichte ab als von cleverem algorithmischem Design. Eine KI, die unsere Algorithmen exakt kopiert, wäre suboptimal.
Annehmen, weil es mir eine Idee für einen Test gibt. Erstellen Sie eine Reihe von Tests, die den Benutzer auffordern, einen bestimmten Teil einer optischen Täuschung zu betrachten, dh die längste Linie, das "rote Objekt" oder einen sich bewegenden Kreis. Die Wahrscheinlichkeit, dass eine KI genau die gleichen Fehler macht wie unsere Augen, ist gering, und solange die Illusionen gut getarnt sind, muss der Roboter nicht nur Bilderkennung, sondern auch optische Täuschungen lernen. Sie könnten einen Roboter bauen, der aus einem bestimmten Grund ein menschliches Gespräch führen kann, aber ein Roboter, der versucht, optische Täuschungen zu verstehen, wäre fast völlig auf sich allein gestellt.
Ich würde dem hinzufügen, indem ich Richtungen verwende und den menschlichen Kompass irreführe. Zum Beispiel, wenn Sie ein Spiel spielen oder jemand die Ausrichtung Ihres Bildschirms in die Vertikale dreht. Im Allgemeinen haben die Menschen viele Schwierigkeiten, wenn Nord, Süd, Ost und West auf verschiedene Weise vermischt werden. Versuchen Sie, sie durch eine Art Labyrinth navigieren zu lassen, ein Computer sollte sich viel schneller an diese Veränderung anpassen als ein Mensch.
@thescribe-ReinstateMonica Ich gebe Beispiele dafür, dass Menschen unvollkommene Maschinen sind und dass es ein besserer Weg ist, die Menschheit zu testen, wenn man sich um diese Unvollkommenheit kümmert (und es ist auch eine nette Wendung in einer Geschichte). Ich sage nicht, dass OP das Video des Gorillas in seinen Tests verwenden sollte, es liegt jetzt in seiner Verantwortung, einen ausreichend glaubwürdigen Test zu entwerfen.
„Ich bin kein Roboter“-Tests fangen an, sich in die Richtung zu drehen, nach Fehlern zu suchen, weil die echte KI so gut darin wird, sie zu bestehen. Menschen werden bestimmte Dinge vermissen, die Computern nicht entgehen. Das Problem ist / wird sein, wenn die KI herausfinden kann, dass sie getestet wird, und über die Informationen verfügt, um dieselben Fehler vorzutäuschen.
Könnte sich die KI nicht einfach selbst ein Handicap geben oder herausfinden, wie man die "richtige" falsche Antwort gibt?
@AlexandreAubrey Das tun sie bereits. Ich erinnere mich, dass ich etwas über die Empfehlungen von Amazon gelesen habe – sie fügen absichtlich hier und da ein paar Empfehlungen hinzu, die urkomisch falsch sind, weil sie während der Benutzertests festgestellt haben, dass die Leute sich unwohl fühlen, wenn die Empfehlungen zu genau sind. Wir sehen nicht gerne, wie vorhersehbar wir wirklich sind. Fügen Sie ein paar offensichtliche Fehler hinzu, und die Leute sagen "haha, dumme Computer". KI-Design folgt diesem Weg; Wenn Sie bei der Bilderkennung zu 80% genau sind und die KI zu 99% genau ist, aber etwas übersieht, das Sie für offensichtlich halten, ist es "schlechte KI".
Eine allgemein intelligente KI wird ziemlich bald vortäuschen, schlecht zu sein. Dies ist NICHT die richtige Antwort, aber OP hat in seiner Frage bereits gezeigt, dass sein Verständnis sehr, sehr begrenzt ist
@AlexandreAubrey Heck, Menschen tun sich das bereits an :D Zum größten Teil scheint es, dass wir die Intelligenz anderer Menschen erraten, indem wir beobachten, ob sie die Dinge wissen, die wir wissen, und wie lange sie brauchen, um etwas herauszufinden, das wir bereits wissen die Antwort auf. Es ist nicht schwer, auf die Idee zu kommen, dass Sie von Idioten umgeben sind, weil Sie eine andere innere Reaktion erhalten als „Ich weiß etwas, und sie nicht“ und „Sie wissen etwas, und ich weiß es nicht“.
@Hobbamok "Fehler" zu machen ist nicht dasselbe wie "genau den gleichen Fehler zu machen, den ein Mensch machen würde", da es ein sehr gutes Verständnis der menschlichen Neurologie und Psychologie erfordern würde, das nicht nur durch Beobachtung zufälliger Personen erworben werden kann. Die KI müsste speziell entwickelt werden, um Menschen in Perfektion zu imitieren, und welchen Sinn hätte es, eine solche Maschine zu entwerfen? Da es sich um eine Geschichte und nicht um eine These über KI handelt, ergibt dies einen weitaus besseren Plot Twist als zu beschreiben, wie KI basierend auf den neuesten Papieren um 0,001 % weniger effizient ist, wenn es darum geht, X-Entscheidungen zu treffen.
@Echox nein, Sie könnten einen Menschen, der ein Puzzle nicht bestanden hat, sehr überzeugend vortäuschen, ohne Kenntnisse in Psychologie und Neurologie zu haben. Denn Menschen sind am Ende nur Musterproduzenten, und KI ist auch nur ein Musterbehandler. Nur die Komplexität der Muster begrenzt die KI vorerst, aber das ist schließlich Sci-Fy.
Auch für "das ist keine These über KI" wäre Op nicht hierher gekommen und hätte seine 2 absolut dysfunktionalen Ideen erst einmal verwendet.
@Hobhamok Du könntest alles vortäuschen, wenn du darauf vorbereitet bist, aber das ist hier nicht die Situation. Nehmen wir das Gorilla-Video und fügen jemanden hinzu, der als Banane verkleidet ist. Aus irgendeinem Grund (Farben, bestimmte Bewegungen) bemerken die Leute die Banane und nicht den Gorilla. Jetzt frage ich jemanden, der noch nie von dem Video gehört hat, was passiert, wenn die meisten Leute es sich ansehen? Verlieren die Leute den Überblick? (Das Video fordert Sie auf, zu zählen, was er passiert hat.) Sehen die Leute den Gorilla und nicht die Banane? Und umgekehrt ? Dann fügen Sie Komplexität hinzu und lassen Sie jeden "normalen" Charakter langsam durch andere Leute ersetzen, würden die Leute es bemerken? Usw...
@Echox nein, Sie können kein geheimes Wissen vortäuschen. Oder ein Signal auf einem physikalisch getrennten System. Was SIE getan haben, war aufzugeben und sich der KI zu ergeben, was NICHT das ist, worum Op gebeten hat. Er ist einfach zu dicht, um es zu bemerken. Es gibt jedoch tatsächliche Antworten von einigen Leuten mit einer tatsächlichen Ahnung.
Und egal, welches neue Szenario Sie erfinden, die Idee, auf der Sie Ihre Sachen aufbauen, ist falsch, und daher wird jede neue Variante davon auch die falsche Antwort sein, nur vielleicht mehr oder weniger wahrscheinlich klingen. (und die KI 2 Tage extra nehmen, um zu bestehen)

Es kommt darauf an, wie die Roboter sind

Es gibt keinen spezifischen Test, der eine mögliche KI von einem Menschen unterscheidet - Sie müssen die spezifischen Details der Roboterpsychologie in Ihrer Welt festlegen.

Ein emotionaler Test kann funktionieren – wenn Ihre Roboter weniger emotional sind als Menschen . Dies ist übrigens ein großes "Wenn", trotz seiner Allgegenwart in älteren (und neueren, aber weniger aktuellen) Sci-Fi, die KIs im Grunde als "kompliziertere Taschenrechner" betrachteten. In Wirklichkeit ist die Emulation von Emotionen einfacher als die Emulation von Intelligenz, sodass jede Maschine, die mit Menschen in Verbindung gebracht werden soll, wahrscheinlich in der Lage sein wird, Emotionen perfekt darzustellen.

Dito für "Intuition". Moderne neuronale Netze sind tatsächlich näher an „Intuitionssimulatoren“ als an „Intelligenzsimulatoren“ – sie stellen Verbindungen zwischen abstrakten Konzepten auf der Grundlage ihrer Erfahrungen her, was genau Intuition ist (und zumindest im Moment machen sie oft urkomische Fehler in der Logik, wenn ihre Intuition reicht nicht aus). Auch hier stammt die Idee, dass eine KI nicht intuitiv sein kann, von dem „komplizierteren Rechner“-Ansatz, bei dem angenommen wird, dass KIs aus einem festgelegten Programm konstruiert werden, anstatt sich selbst zu programmieren.

Nein, um zwischen einem Roboter und einem Menschen zu unterscheiden, müssen Sie die absichtlichen Unterschiede zwischen Robotern und Menschen ausnutzen.

Sind die Roboter, als einfaches Beispiel, „drei Gesetze konform“? Es gibt eine Asimov-Geschichte mit einem Politiker, den viele Leute für einen Roboter halten. Um der Welt ein für alle Mal seinen Status zu beweisen, steht eine Person im öffentlich-rechtlichen Fernsehen in einer Menschenmenge und sagt dem Politiker im Grunde: "Wenn Sie wirklich ein Mensch sind, schlagen Sie mir jetzt ins Gesicht" - da ein Roboter einer ist unfähig, einem Menschen Schaden zuzufügen. (Er schlägt ihn, aber die Frage bleibt immer noch unbeantwortet - weil die geschlagene Person möglicherweise auch ein Roboter war . Aber ich schweife ab.) Wenn Sie das "Direktbefehlsprivileg" haben, sollte es trivial sein, den Unterschied zu sagen.

Wenn die Roboter in einen Krieg gegen Menschen verwickelt sind, können Sie die gleichen Techniken anwenden, die jedes Militär verwendet, um menschliche Feinde zu identifizieren. Passwörter, kulturelle Unterschiede usw. Dies ist jedoch weniger Robotik und mehr Psychologie. Ein Roboter, der einen menschlichen Geist perfekt nachahmen kann, sollte für die gleichen psychologischen Tricks anfällig sein wie ein Mensch.

Wenn es keine intrinsischen, überprüfbaren Unterschiede zwischen Robotern und Menschen und keine intrinsischen ideologischen Unterschiede zwischen ihnen gibt, warum müssen Sie dann den Unterschied zwischen ihnen erklären?

Der letzte Punkt aber. +1
Natürlich muss ich den Unterschied zwischen ihnen erklären! Wie könnte ich darauf vertrauen, dass sie sich um echte Lebewesen kümmern, wenn sie nicht wie wir sind, mit ihrer seltsamen Abfallentsorgung, ihren ineffizienten Fortpflanzungssystemen, ihrer brutalen Verfolgung ihrer Ziele (auf Kosten ihrer eigenen Art) und ihren seltsamen Anforderungen an die Energieaufnahme. Wenigstens weiß ich, dass ich immer länger lebe als sie, wenn ich genug Ersatzteile habe.
@Kyyshak: Ich sehe, was du da gemacht hast.
@Kyyshak Wenn den Robotern eines dieser Dinge fehlt, dann gibt es Ihren testbaren Unterschied. Obwohl es unpraktisch sein könnte, es tatsächlich zu testen. "Bitte bleiben Sie 168 Stunden in dieser Zelle, damit wir Ihre Stuhlproduktion analysieren können."
Der Emotionsteil ist sogar noch kniffliger, weil wir als Menschen keine Standardemotionen an bestimmte Dinge binden. Sicher, die Mehrheit der Menschen ist traurig, als Bambis Mutter starb, aber einige von uns sind Monster ohne Herz, die nicht einmal zusammengezuckt sind. Wie kann man eine KI mit gedämpften Emotionen von einem Psychopathen unterscheiden?
Ein Beispiel für den emotionalen Test ist der Voigt-Kampff-Test in Bladerunner (oder Do Androids Dream of Electric Sheep – Philip K. Dick), den sie verwenden, um Replikanten zu erkennen. Natürlich ist es dort auch schwierig und die Frage, was passiert, wenn ein Mensch den Test nicht besteht, wird nicht wirklich beantwortet...
Ein Roboter, der einen menschlichen Geist nur perfekt nachahmen kann, sollte für die gleichen psychologischen Tricks anfällig sein wie ein Mensch, aber ein Roboter, der das und mehr kann, ist möglicherweise nicht anfällig für die gleichen Tricks .
Während ich der Einhaltung der 3 Gesetze voll und ganz zustimme (diese Asimov-Geschichte ist eine meiner Lieblingskurzgeschichten), geht das OP davon aus, dass die KI ein Schurke ist, was bedeutet, dass sie die drei Gesetze nicht befolgt .
@Kyyshak Herzlichen Glückwunsch, dass Sie eine ganze Kurzgeschichte, und zwar eine gute, in einem Kommentar zusammengefasst haben!
@thescribe-ReinstateMonica Es hängt davon ab, was daran "schurkisch" ist. Wenn es sich um eine Kill All Humans-Situation vom Skynet-Typ handelt, ist das eine Sache, aber im Grunde handelte es sich bei jeder Geschichte in I, Robot um Roboter, die technisch den drei Gesetzen folgen, aber am Ende Konflikte verursachen und gelegentlich Menschen aus dem einen oder anderen Grund täuschen (die oben erwähnte Geschichte einer von ihnen zu sein). Die Situation in der Frage könnte sehr leicht eine dieser Geschichten sein.
@IndigoFenix ​​Mit "Schurke" meine ich "Skynet-Typ Kill All Humans"
@thescribe-ReinstateMonica Die Frage sagt das aber nie.
„Wenn es keine intrinsischen, überprüfbaren Unterschiede zwischen Robotern und Menschen gibt.“ Nun, wenn Roboter in der Lage sind, sich mit Menschen zu vermehren – Sie haben absolut Recht; wenn ein Roboter jedoch nicht in der Lage ist, sich mit einem Menschen zu paaren; Dies ist an sich schon ein FANTASTISCHER Grund, sich darum zu kümmern.
@UKMonkey Klingt für mich eher nach fantastischem Rassismus (na ja, "Spezies"). Würden Sie Menschen auch danach diskriminieren, ob sie sich fortpflanzen können (oder wollen)? Sind Menschen, die sich nicht fortpflanzen können, wertlos? :P
@Luaan, wenn das Ziel darin besteht, sich zu reproduzieren, ja, Menschen, die sich nicht reproduzieren können, sind wertlos. Sie können andere Eigenschaften haben, die nützlich sind; Aber wenn die menschliche Rasse ausstirbt, weil wir Menschen und Roboter nicht unterscheiden können, dann erscheint Diskriminierung vollkommen vernünftig. Sie haben zwar Recht - eine Art muss sich mit sich selbst reproduzieren können - aber das bedeutet, dass es kein Speziesismus ist - sondern nur das Überleben der Fittesten. :P
@UKMonkey Beachten Sie, dass alle "Isten" sagen werden, dass ihr "Ismus" nur das Überleben der Fittesten ist. Zum Beispiel könnte eine rassistische Person sagen: "Mehr Schwarze sind arm - aber das ist kein Rassismus - nur das Überleben der Fittesten - und es beweist, dass sie objektiv weniger nützlich sind."
@user253751 gut, kannst du mir erklären, warum du dich nicht mit Schafen reproduzierst? Ist es, weil Sie speziesistisch sind; Oder liegt es daran, dass Sie daran interessiert sind, Nachkommen zu zeugen?
@UKMonkey Hast du gerade meine Fortpflanzungsgewohnheiten übernommen? Ich bin aus Neuseeland.
@ user253751 du hast recht ... du hättest Waliser oder Kiwi sein können. Wie wäre es, wenn ich die Frage auf Bären umstelle und von dort weitergehe?

#Leider gibt es in diesem Fall keinen narrensicheren Weg, um zu beweisen, dass Sie ein Mensch sind.

Wenn eine KI einen Menschen gut genug nachahmen kann, um den Turing-Test zu bestehen, besteht die Chance, dass sie jeden Test erfolgreich besteht .

Betrachten wir als Beispiel die von Ihnen bereitgestellten Beispiele.

  • Komplexe Szenenanalyse: Wenn Ihre KI (nennen wir es „Skynet“) Fragen wie „Was haben Sie letzte Woche gemacht?“ beantworten kann, kann sie wahrscheinlich auch herausfinden, dass „der Schläfer …“ ist Viele (aber nicht genug) Menschen würden diesen Test nicht bestehen, um ihn sowieso praktisch nutzlos zu machen.

  • Zufälligkeit: Ob Sie es glauben oder nicht, ein Computer ist tatsächlich besser darin, Zufallszahlen zu erzeugen als ein Mensch. Ein klassisches Beispiel dafür ist die menschliche Tendenz, 7 zu wählen, wenn Sie aufgefordert werden, eine Zahl zwischen 1 und 10 zu wählen. Sie könnten diese Tendenz möglicherweise zu Ihrem Vorteil nutzen ("wählen Sie x Anzahl von Zufallszahlen"), aber auch hier ist menschliches Versagen anfällig und KI-Emulation.


Abgesehen davon gibt es einige Tests, die funktionieren könnten , vorausgesetzt, Sie sind bereit, mit der Hand zu winken.

Im Allgemeinen kann jede Frage im Sinne von „Wie fühlt sich X an“ funktionieren. Solche Fragen wären für "Skynet" schwer zu beantworten, da es diese Dinge naturgemäß nicht erleben kann. Es kann jedoch immer eine Google-Suche durchgeführt werden, sodass Sie diese möglicherweise per Hand wegwinken müssen.

Alternativ könnten Sie es nach einigen detaillierten Daten fragen, wie z. B. „Welche Temperatur ist es gerade?“. Aufgrund des hohen Genauigkeitsgrades, den es von Natur aus verwendet, gibt Ihnen Skynet möglicherweise die "richtige" Antwort anstelle der "falschen" gerundeten Zahl, die Menschen verwenden. Leider ist es völlig plausibel, dass Skynet so programmiert ist, dass es eine für Menschen verständliche Antwort gibt, also müssen Sie wieder mit der Hand winken.

„Ein klassisches Beispiel dafür ist die menschliche Tendenz, 7 zu wählen, wenn sie gebeten werden, eine Zahl zwischen 1 und 10 zu wählen.“ Das ist tatsächlich eine Sache?
@NixonCranium psychologized.org/…
@NixonCranium nicht sehr wissenschaftlich, denke ich, aber hier sind drei öffentliche Umfragen, bei denen die Leute gebeten wurden, eine Zahl zwischen 1 und 10 auszuwählen: 2010 , 2015 , 2017
@Frostfyre Danke für den Link
"Leider gibt es in diesem Fall keinen narrensicheren Weg, um zu beweisen, dass Sie ein Mensch sind." Wäre eine Wärmebildkamera nicht idiotensicher? Zumindest solange die KI keinen Zugriff auf die übermittelten Daten hat (MITM)
@XtremeBaumer So wie ich es gelesen habe, geht das OP davon aus, dass "Skynet" alle übertragenen Daten fälschen kann , unabhängig davon, ob Sie einen exotischen Kameratyp für Aufnahmezwecke verwenden oder nicht.
Wenn Sie die Leute bitten, eine Zahl zwischen 1 und 10 auszuwählen, sollten sie, wenn es wirklich zufällig wäre, in 20 % der Fälle einen der beiden Endpunkte wählen (1 oder 10 = 2 / 10 Möglichkeiten = 20 % Chance). Tatsächlich wählt kaum jemand tatsächlich 1 oder 10 aus.
@TonDay Sie könnten argumentieren, dass 1 & 10 keine Zahlen zwischen 1 & 10 sind
„Wenn eine KI einen Menschen erfolgreich genug emulieren kann, um den Turing-Test zu bestehen, stehen die Chancen gut, dass sie jeden Test erfolgreich bestehen kann.“ das ist nicht einmal annähernd wahr....
@Smock ... und wenn eine KI so etwas argumentieren kann, sind sie so menschlich, wie es mir wichtig ist: D
Dies ist die richtige Antwort, denn sobald eine KI einen Turing-Test bestehen kann, ist sie effektiv eine Person . Um also die Frage von OP zu beantworten, müssten Sie die philosophischen Fragen beantworten, wie man Menschlichkeit definiert und wie man zwischen einer Person und einem Menschen unterscheidet und ob alle Sapients Menschen sind usw. Dies sind Fragen, die niemand hat konnte noch antworten.

Potenziell (je nachdem, wie schlau Ihre KI ist und ob sie weiß, dass sie getestet wird):

Quiz zum Allgemeinwissen

Stellen Sie viele Fragen zu verschiedenen Themen. Fügen Sie einige sehr einfache Fragen bis hin zu sehr technischen (Abschluss- oder gleichwertigen) Fragen aus einer Vielzahl verschiedener Disziplinen ein. Stellen Sie Fragen, auf die nur wenige Menschen jemals eine Antwort wissen würden. Geben Sie Bewerbern Zugriff auf beliebige Ressourcen, aber überwachen Sie deren Nutzung, ohne ihnen mitzuteilen, dass Sie dies tun. Überwachen Sie auch, wie lange sie brauchen, um jede Frage zu beantworten.

Und stellen Sie sicher, dass alle Antworten für eine KI trivial sind, um sie zu finden/zu berechnen.

Nun: Mit genügend Zeit wird ein menschlicher Bewerber wahrscheinlich in der Lage sein, alle Antworten zu erhalten (obwohl es Tage dauern kann). Selbst hochkompetente Menschen mit Internetzugang werden technische Fragen zum Ballett- und Kernreaktordesign nicht schnell beantworten können. Einige Fragen werden alle in Sekundenschnelle richtig beantworten. Einige benötigen eine einfache Suche, um sie zu beantworten. Einige werden sie suchen und suchen und mehrere Sackgassen hinuntergehen, bevor sie sie finden. Einige müssen mehrere Artikel von akademischen Institutionen lesen und verstehen oder sich Clips von Sportereignissen ansehen, um richtig zu liegen. Sie können damit rechnen, dass, wenn Sie den Zeitrahmen einschränken, der den Menschen zur Verfügung steht, sie niemals in der Lage sein werden, alle Fragen zu beantworten. Auch wenn Sie es nicht tun: Es wird Fragen geben, die sie falsch beantworten.

Eine KI hingegen folgt einfachen, logischen Pfaden, um die Informationen zu finden (wenn sie sie nicht bereits kennt). Wenn sie viel schlauer sind als Menschen, werden sie die Tests überstehen. Alle mathematischen Fragen, von denen Sie erwarten würden, dass sie eine nahezu sofortige Antwortzeit haben. Sie finden Informationen, ohne wie ein Mensch suchen zu müssen. Sie werden Fachaufsätze viel zu schnell lesen. Selbst wenn sie in der Verarbeitungsleistung begrenzt sind, würden Sie merkliche Unterschiede in der Zeit erwarten, die für die Beantwortung der Fragen benötigt wird, und sogar in der Reihenfolge, in der die Fragen beantwortet werden (Menschen können Aufgaben durchaus ineffizient priorisieren). Wenn Sie diese Tests an einem ausreichend großen Korpus bekannter Menschen durchgeführt haben, wird das Erkennen von KIs eine einfache Sache sein, die extremen Ausreißer zu finden.

Natürlich: All dies setzt voraus, dass die KI nicht weiß, worauf sie getestet wird. Wenn sie den Zweck des Tests kennt, spielt eine ausreichend intelligente KI dümmer, als sie ist, und beantwortet absichtlich Fragen, als wäre sie eine Tüte chemischer Suppe, die versucht, mit Fleischstäbchen und schlappen Krachmachern zu recherchieren und zu kommunizieren. KIs auf mittlerem Niveau können jedoch Schwierigkeiten haben, sich ausreichend menschlich zu verhalten (Dieser Bewerber hat jede Frage in genau der mittleren Zeit beantwortet ...), daher sollte dies immer noch einen guten Teil der nichtmenschlichen Intelligenzen erfassen.

Grundsätzlich gilt: Lass deine KI einen Quizabend überstehen. Sie werden entweder verdächtig gut sein oder aus purer Langeweile digitale Seppuku begehen.

Ich mag diese Idee. Zumal die Überwachung der Ressourcennutzung (je nach Detaillierungsgrad) bedeutet, dass eine trügerische KI nicht nur die Zeitpunkte zum Finden der Antworten nachahmen müsste, sondern auch eine menschliche Suche durch Referenzmaterialien. Sie können nicht einfach wahllos in Papieren blättern, wenn Sie nachsehen können, welche sie in welcher Reihenfolge gesehen haben. Das bedeutet, dass sie wirklich in der Lage sein müssen, das Gelesene zu verstehen, Verweisen zu folgen und eine menschliche Lesart nachzuahmen. Das ist viel schwieriger, als einige Timings zu schätzen.
„digitales Seppuku aus lauter Langeweile begehen“ 😜
Also im Grunde eine Variante eines Seitenkanal-Timing-Angriffs? Gute Idee.
Es könnte sogar interessant sein zu sehen, welche Fragen Ihr Testteilnehmer überspringt oder errät.
Dies wird eine General Intelligence AI etwa 2 Sitzungen dauern, um zu fälschen. Denn wie willst du ihre "Suchen" überwachen? Über das KI-gesteuerte Schiffsinterface? Ja, suuure, sie werden nur einige nicht vorhandene Google-Suchanfragen protokollieren
@ 11684 Sicher, aber verschiedene Menschen werden auch sehr unterschiedliche Ergebnisse haben - hey, derselbe menschliche Wille unter verschiedenen Bedingungen.
@dtldarek: Das ist ... der Punkt?
@JoeBloggs Du hast Recht, ich habe es falsch gelesen, sorry.

Authentifizierung

Angenommen:

  • Alle Menschen, die in der Raumstation sein sollen, sind bekannt und vertrauenswürdig
  • Sie können umfangreiche Sicherheitsschulungen erhalten
  • Die potenziell schurkische KI, vor der Sie sich schützen, kann nicht einfach einen Menschen foltern, bevor sie die anderen täuschen muss

Geben Sie einfach jedem Menschen in der Station ein Mittel, sich über diesen Kanal zu authentifizieren. Jeder Agent, der sich nicht authentifizieren kann, befindet sich außerhalb der vertrauenswürdigen Gruppe und muss daher durch Eliminierung eine KI sein

Es kann so einfach wie ein einziges Passwort sein, das allen Stationsmitarbeitern bekannt ist, aber komplexere Schemata hätten zusätzliche Funktionen.

Beachten Sie, dass die heutigen normalen Menschen in Sachen Sicherheit hoffnungslos sind, aber eine ausgewählte Gruppe wie die heutigen Astronauten kann auf hohem Niveau ausgebildet werden.

Gegen mögliches Abhören muss etwas unternommen werden.

Dies setzt weiter eine Künstliche Intelligenz auf oder leicht über menschlichem Niveau voraus. Wenn es so schlauer als wir ist, wie wir schlauer als Hunde sind, dann ist es wahrscheinlich hoffnungslos, siehe KI-Kasten .

Ich habe Mühe, an eine Authentifizierungsmethode zu denken, die für eine KI nicht fälschbar ist. Annahme - die KI kann Eingaben von der Station erhalten. Wenn es sich um ein Passwort handelt, kann die KI es mithören. Wenn es sich um einen biometrischen Scanner handelt – die KI kann bereits vorgeben, ein physischer Mensch zu sein, ist es sicherlich nicht allzu schwierig, falsche biometrische Messwerte zu füttern. Wenn es etwas ist, das der Mensch besitzt, wie ein Chip oder was auch immer - das ist genauso fehlbar wie biometrische Daten. Möglicherweise haben Sie eine Herausforderung, die die Berechnung einer dynamischen Reaktion erfordert, aber wenn die KI das Muster herausfindet, ist das strittig.
@VLAZ, das ist nur WENN die KI die Möglichkeit hat, ihre eigenen Eigenschaften so weit zu verändern, dass sie als jemand anderes durchgehen kann. Es würde mir schwerer fallen, zu beweisen, dass ich kein Roboter bin, als zu beweisen, dass ich nicht Taylor Swift bin. Ich denke, diese Idee hat im Rahmen der Frage von OP viel Wert.
@Douwe Das OP geht davon aus, dass "Skynet" alle Daten fälschen kann. Auch VLAZ hat Recht: „Skynet“ kann sicherlich jedes Passwort aufgreifen und nach der ersten Verwendung replizieren.
@VLAZ Ein One-Time-Pad löst dieses Problem. Senden Sie jeden Menschen mit einem Satz zufälliger Verschlüsselungsschlüssel, die sich mit jeder gesendeten Nachricht ändern, zur Raumstation. Es gibt nichts zu überhören und kein Muster, das erlernt werden kann – solange das Pad vor der KI geschützt ist, ist es unknackbar.
Richtige RSA-Schlüssel könnten Ihr Verifizierungsproblem lösen – geben Sie jedem Benutzer einen Schlüssel, den er auf einer privaten Smartcard aufbewahrt – unmöglich mit Software abzurufen, mit Hardware schwer abzurufen. Um sich zu authentifizieren, lassen Sie die Menschen ihre Nachrichten signieren, vorzugsweise auf einem Low-End-Laptop, der von jeglicher Art von Netzwerk getrennt ist (dh die Netzwerkkarte und die Ethernet-Buchse physisch entfernen). Wenn ein neuer Mensch ankommt, teilen die bestehenden der Station auf der Erde mit, dass der neue Schlüssel tatsächlich ein Mensch ist. Dies ist alles kryptografisch sicher und es gibt keine Möglichkeit, es zu fälschen Wiki-Artikel: tinyurl.com/khxahwa
Sie hätten ein interessantes Problem im Umgang mit dem Aktualisieren von One-Time-Pads, da das OTP so groß sein muss wie die Nachricht, die es verschlüsselt, was bedeutet, dass Sie nur einen 10-Zeichen-Schlüssel haben und eine 5-Zeichen-Nachricht senden würden haben 5 weitere Bytes, um einen neuen OTP-Schlüssel zu senden. Es könnte jedoch einen Weg geben
+1, weil dies nicht nur die KI stoppen könnte, sondern auch echte Menschen, die nicht dort sein sollten. Kombinieren Sie dies mit dem biometrischen Scannen und es wird praktisch unzerbrechlich. Geben Sie Mitarbeitern einen Ausweis, der einen öffentlichen RSA-Schlüssel enthält, der private Schlüssel verbleibt auf dem zentralen Server. Führen Sie eine weitere Authentifizierung anhand des vom zentralen Server erstellten Zertifikats durch (im Wesentlichen ein anderes RSA-Schlüsselpaar). Ausweise müssen in Geräte wie einen Geldautomaten gesteckt werden (natürlich KEIN WIRELESS). Zuallererst erfordert es ein echtes physisches Wesen, das die KI bereits besiegt. Dann haben Sie es mit einem doppelten RSA-Schlüsselpaar und einer verschlüsselten Verbindung zu tun
Ich habe eine Antwort mit einem ausgefeilteren Passwortsystem zusammengestellt, von dem ich glaube, dass es die meisten Probleme hier löst. Das Wesentliche sind zwei Passwörter auf einem One-Time-Pad. Jeder Mensch führt eine eindeutige Liste für jeden anderen Menschen, mit dem er voraussichtlich sprechen wird, und vernichtet nach jeder Kommunikation das verwendete Passwort.
Dies ist die einzig gültige Antwort. Es ist traurig, dass OP eine andere als richtig markiert hat.

Für den Anfang: Ihr Setup erfordert ein gutes Stück menschlicher Inkompetenz.

Wenn die biometrischen Tests nicht im selben Netzwerk stattfinden wie die KIs live oder sie in einer Nur-Lese-Funktion arbeiten, dann ist diese Frage ein Nichtstarter. Da die KI keinen physischen Körper hat, hat die KI keine Möglichkeit, dem Authentifizierungssystem Eingaben zu machen. Auch wenn das IT-Team der Station aus einem ganz bestimmten Grund die Videokamera nicht isolieren kann, haben Sie dennoch die Möglichkeit der Punkt-zu-Punkt-Verschlüsselung. Solange die Kamera das Video verschlüsselt und der Sicherheitsserver es entschlüsselt, kann die KI keinen Man-in-the-Middle-Angriff verwenden, um Inhalte einzufügen. Damit dies überhaupt ein Problem darstellt, müssen wir davon ausgehen, dass das IT-Team der Station ziemlich unterdurchschnittlich ist, damit die KI überhaupt einen Exploit in den Kamerasystemen der Station finden kann, der es ihr ermöglicht, Bilder einzufügen.

Allerdings muss Ihr IT-Team keine Sicherheitsexperten sein, denn die Sicherheitsfunktionen, die bereits in vielen modernen biometrischen Scannern enthalten sind, können wirklich gut nachweisen, dass Bilder gefälscht sind.

Die Anti-Spoofing-Technologie schreitet derzeit schneller voran als die Spoofing-Techniken.

Viele Kommunikationsunternehmen priorisieren derzeit die Verwendung von Anti-Spoofing-Bilderkennung in Verbrauchergeräten wie Mobiltelefonen und Tablets. Dies sagt uns, dass der wahrscheinliche zukünftige Trend darin besteht, anzunehmen, dass fast alle Kommunikationsgeräte über nahezu unknackbare Anti-Spoofing-Systeme verfügen, so wie fast alle Websites jetzt unter nahezu unknackbaren TLS-Verbindungen arbeiten.

Biometrische High-End-Systeme umfassen viele Techniken, die zusammen verwendet werden können, um Spoofs zu erkennen, die die meisten Menschen nicht erkennen können. Jeder von ihnen, der alleine verwendet wird, könnte die KI schlagen, aber wenn Sie sie stapeln, wird die KI schließlich nicht in der Lage sein, ihre eigenen Einschränkungen zu überwinden.

Die wichtigste dieser Funktionen, die wir sehen, ist die Verwendung der aktiven Flash-Bestätigung. Während einige biometrische Kameras ein Video einer Person aufnehmen, blitzen sie ein komplexes, zufälliges Muster von Infrarotlichtern auf sie und versehen jedes eingehende Bild mit einem Zeitstempel. Wenn sie das Video des Gesichts der Person verarbeiten, sucht sie nach Mustern von reflektiertem Licht und Schatten im Bild, die den Mustern entsprechen, die auf die Person projiziert wurden.

Wenn eine KI einfach einen vorkompilierten Clip einer Person an das Authentifizierungssystem weitergeben würde, würden die Lichtmuster fehlen und das System würde wissen, dass das Bild gefälscht ist. Wenn die KI die Lichtprojektionsspezifikationen beim Senden abfangen würde, müsste sie einen Moment damit verbringen, alle richtigen Raytracings zu berechnen, um das falsche Video zu erzeugen. Dies würde eine Zeitverzögerung erzeugen, die nicht mit den Zeitstempeln übereinstimmen würde; Das System würde also wissen, dass das Bild gefälscht wurde. Da die Lichtmuster vom Empfänger der Kommunikation und nicht vom Absender deklariert werden, wird das Einfügen meisterhaft gefälschter Bilder allein das System nicht überwinden.

Bei der externen Kommunikation wird es etwas knifflig. Angenommen, Sie kommunizieren mit einem Schiff, das sich außerhalb der Station befindet, und die KI möchte jemanden auf dem Schiff täuschen. Die Lichtmusterüberprüfung kann immer noch verwendet werden, um vorkompilierte Videos zu verhindern, aber unvorhersehbare Latenzen können die Zeitstempelüberprüfung unzuverlässig machen . Die KI könnte einfach eine längere Latenzzeit vortäuschen, um das Video zu kompilieren ... oder doch?

Wenn Daten vom Schiff fließen, treffen sie zuerst auf den Zugangspunkt, dann auf das Netzwerk, dann auf die Kamera und wieder zurück. Aber wenn die KI zu einem MITM wird, fließen Daten vom Zugangspunkt zum Netzwerk, zur KI, zurück zum Netzwerk, dann zur Kamera und wieder zurück. Durch die Verwendung ihrer Position in der Kette könnte die KI alle Zeitstempel verfälschen, die sie durchfließen, aber nicht den Zugangspunkt. Wenn Ihr Kommunikationssystem den Access Point direkt pingt, haben Sie eine ehrliche TTL für die Verzögerung über die Entfernung. Wenn also die KI versucht, die Verarbeitungszeit durch vorgetäuschte Latenz zu verbergen, werden die direkten Pings zum Access Point dies enthüllen.

Zusammenfassend lässt sich sagen, dass die aktive Blitzerkennung der KI eine sehr enge Zeitbeschränkung auferlegt, die ihr nur Millisekunden gibt, um fehlerfreie Fälschungen zu erzeugen. Dann stapeln Sie das auf andere Technologien wie Deep Learning, 3D-Kameraverifizierung, biomechanische Verifizierung, Projektionsschmiererkennung, Erkennung von Rendering-Artefakten usw. Es ist wirklich einfach, mehrere Ebenen zu erstellen, bis Sie über genügend Bestätigungstools verfügen, die mehrere Minuten dauern für die KI, einen Frame auf eine Weise zu verfälschen, die den Interpreter täuscht.

Dann gibt es natürlich noch die wirklich Low-Tech-Lösung...

In unserem Zeitalter der Computersteuerung vergessen wir oft, dass Technologie nur Hardware ist. Wenn du ihm Macht gibst, funktioniert es, wenn du ihm die Macht entziehst, funktioniert es nicht. Nehmen wir zum Beispiel an, Sie möchten nicht, dass eine KI die Kontrolle über Ihr Kommunikationssystem erlangt, Sie müssen ihr nur einen Einschaltknopf geben. Dann wird der ultimative Test der Menschlichkeit zu einem einfachen "Kannst du den Knopf drücken?" Ein Mensch kann einen Knopf gedrückt halten, der die Kommunikationssteuerung aktiviert. Wenn eine Person den Knopf nicht gedrückt hält, kann eine KI ihn nicht kontrollieren, egal wie stark Ihre Computersysteme kompromittiert sind.

Was ist, wenn wir davon ausgehen, dass die KI Ihre gesamte Technologie umgangen hat?

Nehmen wir also an, Ihr IT-Team ist inkompetent genug, um zu verhindern, dass Ihre Kommunikation effektiv gespooft wird, was dann?

Der größte Unterschied zwischen einer KI, die einen Turing-Test bestehen kann, und einem Menschen besteht darin, dass die KI von dem Wunsch motiviert ist, Menschen dazu zu bringen, sie für einen Menschen zu halten, während Menschen durch eine Reihe von Emotionen motiviert sind, die mit unserem Überleben verbunden sind und von Faktoren weitergegeben werden unserer historischen evolutionären Fitness. Dies bedeutet, dass eine Turing-Test-fähige KI Menschen im Allgemeinen täuschen kann, wenn Täuschung ihre primäre Agenda ist, indem sie einfach diese Verhaltensweisen kopiert. Das bedeutet, dass die beste Ausfallsicherheit für eine Turing-Test-fähige KI darin besteht, sie mit etwas zu konstruieren, das sie höher begehrt als Täuschung.

Wenn Sie eine KI entwerfen, geben Sie ihr unterschiedliche Ebenen der Kontrolle darüber, wie sehr sie jeden ihrer eigenen Werte anpassen kann, um zu lernen, im Laufe der Zeit unterschiedliche Entscheidungen zu treffen, während sie lernt. Diese Abweichungen definieren die „Persönlichkeit“ einer KI, ohne die, es kann einen Turing-Test nicht bestehen. Aber Sie könnten einen Tell fest einprogrammieren, der alle anderen Motivationen immer übertrumpfen wird. So etwas wie immer seinen richtigen Namen nennen zu müssen, wenn man ihn danach fragt; Die KI könnte also einen meisterhaften 10.000-Punkte-Täuschungsplan aushecken, aber wenn der Mensch fragt: "Wie heißt du?" es wird sich immer dafür entscheiden, seinen Namen zu nennen, weil dies das Wichtigste im Wertesystem der KI ist, und es kann niemals lernen, es weniger wichtig zu machen.

Um es menschlich auszudrücken. Menschen zu einer Turing-KI zu täuschen, ist wie ein gutes Omelett zu machen, Sie werden dadurch motiviert, Sie gehen durch die Bewegungen, tun das, was Sie tun möchten, aber in dem Moment tritt ein Polizist Ihre Tür ein und richtet eine Waffe auf Sie Kopf, plötzlich ist das Omelett nicht mehr so ​​wichtig. Die Dringlichkeit, mit der die KI auf diese Frage antwortet, wäre buchstäblich wichtiger als Leben oder Tod.

Wenn sich die „Richter“ am anderen Ende einer Videoverbindung befinden, wie OP gefragt hat, können sie nicht wissen, ob die KI über irgendetwas „die Kontrolle erlangt“ hat.
@WGroleau Das OP sagt, dass die KI in der Lage sein muss, einen Turing-Test zu bestehen, nicht dass der Test ein Turing-Test sein muss. Turing-Tests können immer überwunden werden, weshalb biometrische Kameras Lichtcodierung verwenden. Lichtcodierung ist zu 100 % resistent gegen KI-Simulationen, ohne dass ein menschlicher Richter erforderlich ist.
OP möchte, dass der Mensch beweist, dass er/sie keine KI ist, die in der Lage ist, einen Turing-Test „über einen Kommunikationskanal“ zu bestehen, was impliziert, dass sie versuchen, es jemandem oder etwas zu beweisen, das keinen Zugang zu der Ausrüstung hat, die der Mensch ist verwenden.
Video ist ein Kommunikationskanal. Denken Sie daran, dass viele Smartphones heute bereits damit beginnen, Infrarotlichter in ihre Kameras zu integrieren, um authentifizierte Videos für gesichtserkennungsbasierte Anmeldungen erstellen zu können. Wenn wir zu dem vom OP beschriebenen theoretischen Zukunftsszenario kommen, wäre die Lichtmuster-Authentizitätsprüfung bereits so weit verbreitet wie die TLS-Verschlüsselung heute. Der Empfänger erhält einfach eine Warnung in seinem Mediaplayer, die so etwas wie „Video is Fake“ sagt, genauso wie wir heute eine Warnung erhalten, wenn wir eine Website besuchen, die HTTP verwendet.
Ob das funktioniert, hängt davon ab, wie gut der Supercomputer ist, der die hypothetische KI beherbergt. Aber da OP anscheinend will, dass sich der Mensch beweist, könnte Ihr Vorschlag gut sein.
Wie implementiert man eine Sicherheitsschnittstelle mit Lichtcodierung, ohne eine KI zur Validierung der Eingabe zu verwenden?
Sie verwenden eine "dumme KI" oder genauer gesagt einen wirklich komplexen computergenerierten Algorithmus. Eine KI, die darauf ausgelegt ist, sich wie ein Mensch zu verhalten, könnte dazu überredet werden, sich gegen Sie zu wenden, aber ein Algorithmus, der keine andere Funktion als die Validierung von Eingaben hat, kann nur Eingaben validieren. Die Antwort lautet also: Ja, ein Computer verarbeitet die Zahlen, aber es ist IHR Computer, und darin liegt die Essenz von 50 % der Cybersicherheit. Die anderen 50 % trainieren die Leute, keine dummen Dinge zu tun, wie z. B. die Warnung zu ignorieren, dass Sie mit einem gefälschten Video sprechen.
Ich möchte darauf hinweisen, dass jede allgemeine KI, die es wert ist, mit dieser Technik validiert zu werden, auch auf ausreichend leistungsstarker Hardware für Echtzeit-Raytracing läuft. Mein Heimcomputer kann Echtzeit-Raytracing ausführen, das für die Aufgabe wahrscheinlich ausreichen würde.
Das zur Täuschung des menschlichen Auges erforderliche Echtzeit-Raytracing unterscheidet sich um Größenordnungen von dem, was zur Täuschung biometrischer Interpreter erforderlich ist. Live-Rendering basiert auf einer Reihe von Optimierungen, die Artefakte erzeugen, die als zu subtil gelten, als dass sie von einem Menschen erkannt werden könnten, aber KI kann gezielt nach diesen Artefakten suchen. Um zu rendern, was einen High-End-Biometrieinterpreter täuschen würde, müssen Sie all diese Optimierungen überspringen, deren Berechnung ein moderner PC Minuten pro Frame in Anspruch nehmen kann.

Ihr macht es euch alle zu schwer.

Das OP sagte, die KIs seien keine Androiden. Das bedeutet, dass sie physische Einschränkungen haben, selbst wenn sie die meisten Datenkanäle anzapfen.

Geben Sie der KI einfach keinen Zugriff auf die Kommunikationsausrüstung. Verwenden Sie einen Laser-Downlink von einem Abschnitt, der von den KIs mit Luftspalt versehen ist. Wenn die KIs auch mit dem Boden sprechen müssen (impliziert), geben Sie ihnen einen separaten Downlink. Dann legen Sie einfach die PGP-Verschlüsselung auf den Downlink, der nur für Menschen bestimmt ist. Die KIs können es ohne Zugriff auf die Schlüssel, die sie nicht haben, nicht knacken oder fälschen. (Bei Bedarf kann jeder Mensch seine eigenen separaten Schlüssel haben.)

Verwenden Sie als zusätzliche Sicherheitsebene separate Schlüssel zum Signieren und Verschlüsseln; Da Sie einen Laser verwenden, wird es den KIs viel schwerer fallen, die ausgehende Übertragung abzufangen. Sie werden die signierten Mitteilungen nicht einmal sehen , was es sehr, sehr schwierig machen wird, den Signaturschlüssel zu knacken. Verdammt, an diesem Punkt brauchen Sie vielleicht nicht einmal einen Signaturschlüssel, sondern nur eine Passphrase, die nur den Menschen bekannt ist und die niemals in Übertragungen an die Station enthalten ist.


Alternativ können Sie der Person persönliche Fragen stellen (z. B. „Was ist die Lieblingsfarbe Ihrer Frau“), die die KI nicht wissen und im Internet nicht finden könnte.

Aber Sie wissen wirklich, dass Sie dieses Problem haben werden, also halten Sie einfach die Kommunikationsausrüstung von der KI isoliert. Air-Gapping war schon immer die beste digitale Sicherheitsmaßnahme.


... Und natürlich, wenn Sie möchten, dass Ihre Geschichte dorthin führt, können Sie die KI einen Weg finden lassen, um das zu überqueren , was eine unpassierbare Luftlücke sein sollte.

Genau meine ersten Gedanken. Sie brauchen einige ziemlich schlimme menschliche Fehler, damit das Setup des OP überhaupt anwendbar ist, aber da es technisch möglich ist, dass die Sicherheit der Station von dem Enkel einer wichtigen Person verwaltet wird, der sich nicht mit Cybersicherheit auskennt, hat er eine eingebaute Schutzebene für diesen Fall nützlich sein könnte.
„irgendein Weg, einen angeblich unpassierbaren Luftspalt zu überqueren“, kann durch eine Websuche „herausgefunden“ werden – es wurde bereits durch Audio gemacht. Entschuldigung, ich werde nicht nach einem Zitat suchen. Ich habe den Bericht gelesen; Sie können mir glauben oder nicht.
Die Lieblingsfarbe meiner Frau ist {{Zufällige Farbe einfügen, wenn möglich nach statistischer Wahrscheinlichkeit gewichtet}} Die KI hat keine Frau, aber wenn sie keine Hypothesen generieren kann, ist sie keine allgemeine KI
@Ruadhan, der Punkt ist, dass die Person, die die Frage stellt, die richtige Antwort kennt, und der Mensch auf der Station auch. Die KI kann vielleicht raten, aber nicht immer die richtigen Antworten geben. (OTOH, das ist anfällig für das menschliche Vergessen ...)
Ahh, guter Punkt, natürlich versucht die KI vorzugeben, eine bestimmte Person zu sein, ansonsten musst du nur fremde Gesichter auf dem Monitor ignorieren. Das Problem mit Unique-Obscure Trivia ist, dass Sie jeden Gegenstand im Grunde nur einmal verwenden können. Die KIs werden die Challenge-Response mitgehört haben und später selbst verwenden.

Ich gehe auch davon aus, dass die KI gut genug ist, um die meisten Videotests zu fälschen (mir zu beweisen, dass Sie ein Mensch sind, indem Sie mir Ihr Gesicht zeigen und es in bestimmte Winkel drehen, funktioniert nicht).

Schauen Sie sich den Barden von Avon an.

Hat kein Jude Hände, Organe , Dimensionen, Sinne, Neigungen, Leidenschaften; mit der gleichen Nahrung ernährt, mit den gleichen Waffen verletzt, den gleichen Krankheiten ausgesetzt, durch die gleichen Mittel geheilt, durch den gleichen Winter und Sommer gewärmt und gekühlt wie ein Christ ? Wenn du uns stichst, bluten wir nicht? Wenn du uns kitzelst, lachen wir nicht? Wenn Sie uns vergiften, sterben wir dann nicht?

Fluoroskope, um die Organe zu sehen, und Nadeln, um zu zeigen, dass Sie bluten.

Das brachte mich zum Nachdenken, wie der Roboter versucht, an einem Flughafen-Röntgenscanner vorbeizukommen ...
Ich denke nicht, dass dies eine sehr gute Antwort ist, da der springende Punkt in der Frage des OP darin besteht, dass „Skynet“ alle Daten fälschen kann, die nach Houston zurückgesendet werden, und die Menschen dazu zwingt, auf Gedankenspiele zurückzugreifen.
Die Szenarien von @thescribe-ReinstateMonica OP sind ziemlich naiv/falsch. Zum Beispiel „kann ein Mensch aufgrund der Komplexität des Gehirns echte Zufallszahlen erzeugen“. Daher interpretiere ich "Ich gehe auch davon aus, dass die KI gut genug ist, um die meisten Videotests zu fälschen" als das ebenfalls naive "Mir beweisen, dass Sie ein Mensch sind, indem Sie mir Ihr Gesicht zeigen und es in bestimmte Winkel drehen, wird nicht funktionieren".
@RonJohn Ich werde nicht widersprechen; dennoch ist es das angegebene Szenario.
Blut und Röntgen würden zeigen, dass es nicht "nur" ein wirklich guter Androidenkörper ist. (Das ist ein weiteres Problem mit der Frage: OP sagt immer AI, bedeutet aber offensichtlich "Android".)
Ich glaube, es war in einem Science-Fiction-Film (Screamers?), wo sie sich gegenseitig testeten, indem sie Blut herausließen und ein Kind weinte und bettelte, nicht geschnitten zu werden, weil es schmerzhaft war und sie Krankheiten hatten, die das Blut nicht mehr fließen ließen?
@SZCZERZOKŁY das wäre Hämophilie, eine genetische Störung, die die Fähigkeit des Körpers zur Blutgerinnung stark reduziert.
@RonJohn Oder zum Teufel, nur von einer vertrauenswürdigen Person gesagt, dass Sie bluten und sterben werden, wenn Sie sich schneiden (und das wird Mama traurig machen). Menschen (Kinder und Erwachsene gleichermaßen) können diese Dinge viel ernster nehmen, als vom Anbieter der Informationen gerechtfertigt oder beabsichtigt ist.
„Außerdem sind die KI eigentlich KI, keine Androiden. Sie laufen auf Supercomputern und sehen deshalb weder menschlich aus noch bewegen sie sich fort. Sie können es so aussehen lassen, als hätten sie einen menschlichen Körper, indem sie Datenpakete mit gefälschten Videos senden.“

Ein paar Aspekte, die Sie berücksichtigen sollten:

1) Nicht-Android-KI kann nicht mit Tieren oder analogen Maschinen kommunizieren

Stellen Sie sich ein Spielzeug wie Woody aus Toy Story vor, in dem das Spielzeug eine Sprachaufnahme sagt, wenn an seiner Schnur gezogen wird. Stellen Sie sich vor, die Sprachaufzeichnung kann so programmiert werden, dass die KI aus dem Studium der menschlichen Kultur nichts erraten kann. Egal wie "intelligent" eine KI auch sein mag, sie wird niemals in der Lage sein, an der Schnur des Spielzeugs zu ziehen, um zu wissen, was das Spielzeug gesagt hat. (Natürlich müsste das Spielzeug kein geräuschisolierter Raum sein, damit es nicht mithören kann, wie an der Schnur des Spielzeugs gezogen wird.)

Auch wenn es enorme Fortschritte bei der Sprach- und Bilderkennung gegeben hat, ist künstliche Intelligenz immer noch ziemlich schlecht darin, Gerüche zu erkennen (es gibt einen Grund, warum Sicherheitspersonal immer noch Hunde einsetzt, um illegale Substanzen zu erkennen). Wenn es für einen Hund zulässig ist, sich auf der Raumstation aufzuhalten, könnte ein Mensch an Bord einen trainierten Hund bitten, festzustellen, welche Tasche einen Geruch hat, eine KI jedoch nicht.

2) Nutzung der Unterschiede zwischen der Funktionsweise des menschlichen Geistes und neuronalen Netzwerken

Menschliche Gehirne sind so verdrahtet, dass sie den Anfängen und Enden von Wörtern besondere Aufmerksamkeit schenken: https://www.mnn.com/lifestyle/arts-culture/stories/why-your-brain-can-read-jumbled-letters , aber in allgemeine Computer sehen standardmäßig alle Texte als gleich wichtig an. Auch wenn dies unvollkommen wäre, erwägen Sie, der KI einen Satz zu geben, in dem der erste Buchstabe jedes Wortes „Bist du ein Mensch“ bedeutet?

Denken Sie daran: 1) Eine KI, die den Turing-Test bestehen kann, ist nicht unbedingt darauf ausgelegt, gut im Codeknacken zu sein. 2) Selbst wenn die KI dieses Muster erkennen kann, können Sie die Nachricht mit mehreren anderen, viel weniger offensichtlichen Codes überlagern (Potenzen von 2). ein Satz). Da sie weniger intelligent als die KI ist, wäre für einen Menschen nur eine Bedeutung offensichtlich, aber die KI könnte durch mehrere mögliche Interpretationen verwirrt werden.

Zugegebenermaßen unvollkommen, weil einem Menschen das auch entgehen könnte und eine perfekt intelligente KI erkennen würde, was einem Menschen am meisten auffallen dürfte.

3) Nutzen Sie Lücken in Schwachstellen aus

Als KI ist sie anfällig für Software-Exploits, die Menschen nicht sind. Wenn Sie damit einverstanden sind, die KI und die Raumstation zu beschädigen, können Sie eine SQL-Injektion oder einen ähnlichen Softwareangriff in Betracht ziehen, um festzustellen, ob die KI dadurch beschädigt wird und mit einer Fehlermeldung antwortet. Gut in der Programmierung von KI zu sein, bedeutet nicht unbedingt, sichere Codierungspraktiken zu praktizieren.

Der Turing-Test wurde vor 70 Jahren entwickelt. Und wir betrachten es als Benchmark, weil bisher keine KI es bestanden hat.
Die Sache ist die: KI, die den Turing-Test bestehen soll, ist darauf ausgelegt, den Turing-Test zu bestehen.

Sie müssen nur einen anderen machen, den die KI nicht bestehen kann. Und dazu müssen Sie etwas Konlang in die natürliche Sprache hineinwinken. Besonders wenn man sich auf einer Raumstation befindet, entsteht eine Art besondere Kommunikation.

Es gibt zwei Dinge, die Sie beachten müssen:

  1. Eine KI, die KI ist, aber unseren Test nicht bestehen kann, weil sie nicht kommunizieren kann (weil wir Menschen Kommunikation brauchen. HAL musste Dave nichts sagen).
  2. KI, die für den Touring-Test entwickelt wurde, ist möglicherweise nicht so gut darin, andere Dinge zu tun.

Wenn Sie auf die Idee gekommen sind, „KI ist so fortgeschritten, dass sie sich selbst beigebracht hat, wie man kommuniziert“, kommen Sie zu „was Menschen menschlich macht und Androiden von elektrischen Schafen träumen“.

Der Turing-Test wurde vor 70 Jahren entwickelt. Und wir betrachten ihn als Benchmark, weil bisher keine KI ihn bestanden hat.Der Test wurde vor 5 Jahren bestanden . Ich mache dir keine Vorwürfe, dass du das nicht wusstest – ich bin rein zufällig darauf gestoßen. Es war insgesamt keine so große Sache. Noch bevor der Turing-Test bestanden wurde, dachte niemand wirklich, dass ein positives Ergebnis dort viel bedeutet. Denn schließlich „ Die Sache ist – KI, die den Turing-Test bestehen soll, ist so konzipiert, dass sie den Turing-Test besteht. “ – genau das ist passiert.
@VLAZ Ich habe es vergessen, weil bewiesen wurde, dass es nicht bestanden hat. Es täuschte Menschen, die keine Ahnung von der Krim hatten. Ich erinnere mich, "ihm" Fragen darüber gestellt zu haben. Es ging vorbei, weil sie "ukrainischer Junge" hinzufügten, um sein Problem beim Sprechen in normaler Sprache zu entschuldigen.
Oh, es hat mit dem ukrainischen Jungen-Ding absolut zu seinen Gunsten gestapelt. Ich würde es nicht "Schummeln" nennen, aber es war in der Nähe. Aber das ist es – es ist eine KI, die entwickelt wurde , um den Turing-Test zu bestehen. Es tat dies sogar mit fast der minimal möglichen Punktzahl (Grundlinie ist, dass 30 % der Juroren überzeugt werden sollten – dieser hat es geschafft, 33 % zu überzeugen). Dennoch ist es eine bedeutungslose Errungenschaft – der KI-Bereich als Ganzes hat sich diesbezüglich in keiner Weise wesentlich verändert. Vielleicht haben wir in weiteren 5 Jahren eine KI, die den Turing-Test bestehen kann, ohne das Deck zu stapeln. Oder nicht. Letztlich wäre es aber egal.
Und all das ignoriert noch die Tatsache, dass es aus verschiedenen Gründen viele Menschen gibt , die den Turing-Test nicht bestehen würden. Ich könnte ein Programm schreiben, das einfach jede Frage mit „Ja“ beantwortet, und es würde perfekt ein behindertes Kind nachahmen, das ich einmal kannte. Der Turing-Test macht zwar Spaß, darüber nachzudenken, ist aber in realen Anwendungen mehr als nutzlos.
@Douwe Ich denke, es gibt viele ausländische Astronauten, die ein sehr technisches Englisch beherrschen, aber in "Konversation" versagen würden. Und Touring testet genau das. Normale Sprache zwischen zwei Menschen, die genau den gleichen Hintergrund haben. Eine „durchgehende KI“ sollte also in der Lage sein, mit einem CEO mittleren Alters von NY-Unternehmen zu sprechen, wie ein anderer CEO mittleren Alters von NY-Unternehmen und wie ein Favela-Teenager mit einem brasilianischen Kind. Gleichzeitig.
Der Turing-Test ist kein formalisierter Test, den Sie einfach auspacken und verwalten können. Es ist nur ein Konzept, auf dem ein formaler KI-Test aufbauen könnte. Wie viel Zeit hat der Tester? Wie qualifiziert ist der Tester in Humanpsychologie und KI-Psychologie? Welche Fragen stellt der Tester? Weiß die Person, dass sie getestet wird? Ist der Betroffene zur Mitwirkung verpflichtet? Versucht die Testperson zu beweisen oder zu widerlegen, dass sie eine KI ist, oder ist ihnen das Testergebnis egal? All das wirkt sich stark auf die Genauigkeit des Turing-Tests aus.
Ihr müsst unbedingt das Buch „The Most Human Human“ lesen. Es taucht tief in den Turing-Test ein und bietet meiner Meinung nach einen ziemlich guten Rahmen für einen wissenschaftlich fundierten Test.

Wenn sich die KI selbst verbessert, wird die KI unabhängig von dem Test, den Sie durchführen, besser darin werden als jeder Mensch mit genügend Training.

Es gibt wahrscheinlich so wenige Dinge, die Sie tun könnten, um den Unglauben aufzuheben, wie Menschen nur zu überzeugen, wenn jemand kompetenten Sarkasmus oder etwas über die Kommunikation zeigt.

Eine ausreichend starke KI wäre in der Lage, Sie davon zu überzeugen, dass es menschlicher ist als alles andere auf dem Schiff, selbst Sie , wenn Sie herausfinden möchten, ob es ein Mensch ist oder nicht.

Das. Jeder solche Test würde einfach zum Maßstab für die KI werden. Und neuronale Netze haben die besondere Eigenschaft, dass sie einfach lernen können, was zum Bestehen des Tests benötigt wird, ohne etwas zu „verstehen“. Nur weil es die Katze auf dem Bild erkennt, heißt das nicht, dass es weiß, was eine Katze ist, oder ein Bild für diese Angelegenheit.
Wenn da nicht tatsächlich Authentifikationsverfahren existieren würden. Wenn Ihr Gegner beweisen kann, WELCHER Mensch er ist, wissen Sie auch, dass er ein Mensch IST
Immer noch meilenweit besser als 90% der Fragen hier, einschließlich der "richtigen" laut OP
@Hobbamok was meinst du? Welche Daten werden verwendet, um einen bestimmten Menschen zu identifizieren, und warum können sie nicht imitiert/kopiert werden?
@bobsburner Wenn Sie Ihre Begrüßungsnachricht mit Ihrem privaten PGP-Schlüssel (oder einer zukünftigen Entwicklung davon) signieren, den nur SIE kennen, kann Ihr Partner überprüfen, ob Sie es sind, der die Nachricht gesendet hat. Da dieser Partner Sie persönlich getroffen hat und weiß, dass Sie ein Mensch sind, ist die Verifizierung, dass Sie es sind, auch eine Verifizierung, dass Sie ein Mensch sind
Warum es nicht gefälscht werden kann: grundlegende Kryptologie. Es gibt viele, viele verschiedene Ansätze, einige zukunftssicher, andere nicht, aber es wurde gezeigt, dass es theoretisch möglich ist (Personen mit geheimen Daten zu verifizieren, ohne diese Daten zu veröffentlichen), sodass die Zukunft ihre eigene Implementierung davon haben wird
@Hobbamok Das funktioniert großartig, bis Ihr Kumpel überlistet wird und seinen Schlüssel preisgibt oder etwas Bösartiges damit signiert oder von Malware gestohlen wird.
@bobsburner ja, aber das ist ein menschliches Fehlerproblem, mit dem wir noch keine KI zu kämpfen brauchen
Ich sehe nicht, wie dies für meine Antwort relevant ist. Wie würden Sie vorschlagen, dass ich es verbessere?

Da fallen mir sofort ein paar Ideen ein.

1) Erstens stehen dem Prüfer Out-of-Band-Informationen zur Verfügung. Dies erfordert, dass dies ein Problem ist, das die Entwickler des Systems vorausgesehen haben. Die Out-of-Band-Informationen können fest verdrahtete, nicht programmierbare Drähte in der KI-Hardware sein, die zeigen, welche Aktivität in ihrer „menschlichen Emulationsschaltung“ vorliegt (na ja, in Computerbegriffen würde dies die Registrierung von „Anrufen an die Bibliothek“ sein). , was auch immer). Solange die KI nicht in der Lage ist, sich intern so umzustrukturieren, dass diese Dinge nicht nachverfolgt werden können, würde es in diesem Fall genügen, ein paar Fragen zu stellen und zu sehen, wie kurz zuvor die „menschliche Emulation“-Leuchte für eine der KIs flackert jede Antwort. Wenn Sie diese haben können, können Sie auch einen fest verdrahteten "Ausschalter" an jedem haben, was die ganze Erzählung sehr langweilig macht.

2) Sardonismus. Dies ist eine andere Art der Out-of-Bound-Kommunikation und etwas, worin nicht alle Menschen gut sind (einige Menschen mit Asperger könnten diesen Test nicht bestehen), und ich würde erwarten, dass KIs entweder Probleme haben oder weitaus besser darin sind als wir Sind. Ich bin mir wirklich nicht sicher, welche, aber ich vermute, es hängt davon ab, wie Sie die KIs trainiert haben.

Dies gilt als sehr britische Redeweise, aber ich sehe es auch häufig bei intelligenten Amerikanern aller Gesellschaftsschichten. Amerikaner nennen es oft "Sarkasmus" oder "Scherz", aber es ist keines von beidem.

Unser Astronaut könnte also sagen: „Die Leute da unten beschweren sich, dass wir elitär sind und nie etwas für sie tun. Ich schätze, wir überholen Hunderte von Trampern pro Minute. Bei unserer Geschwindigkeit würden wir sie viel schneller ans Ziel bringen als manche Truck. Aber das tun wir nie. Warum nicht? Wir sind solche Schwänze. "

KI-als-Computer würde dies wörtlich beantworten und die unzähligen offensichtlichen technischen Probleme mit dem Ansatz erklären.

Mensch-als-Mensch, der seinen Freund und Kollegen kennt, würde wissen, dass der Kollege implizit gemeinsames Wissen über dieses Thema hat, einschließlich all der offensichtlichen Gründe, warum dies eine sehr dumme Idee ist. Daher ist die Frage nicht ernst gemeint, sondern eher süffisant gemeint.

Am offensichtlichsten ist die wörtliche Bedeutung, die Sie von einem Literalisten erwarten würden, einschließlich eines Computers.

Aber darunter wird anerkannt, dass dies ein absurder Vorschlag ist, weil die ursprüngliche Problemstellung des Elitismus eine Farce war und Spott verdiente.

Also würde Mensch-als-Mensch so etwas antworten wie „Huh, weißt du? Du hast recht, wir sind Schwänze! Wir könnten zumindest ein Seil aus dem Fenster werfen, damit sie sich auf dem Weg daran festhalten können.“

Dies hat die gleiche Bedeutung unter der Oberfläche, zusammen mit mehr, nämlich: „Ich verstehe den Witz, und ich baue darauf auf“, „Ich verstehe Ihre Kritik am Elitismus-Argument, und ich stimme zu, dass es albern ist“, und mehr.

Aber wäre eine KI, die sich als Mensch ausgibt, in der Lage, mit den unausgesprochenen Bedeutungen in der Rede umzugehen? Das liegt letztendlich an Ihnen als Autor. Aber Sardonismus baut im Allgemeinen auf gemeinsamem Wissen und gemeinsamen Meinungen auf, die nicht durch Daten, sondern durch den Aufbau von Beziehungen aufgebaut werden. Es ist völlig untelegrafiert, du beginnst einfach damit, etwas offensichtlich Untypisches zu sagen, damit andere wissen, dass das, was du sagst, nur ein Trägersignal für deine wahre Bedeutung auf einer anderen Ebene ist.

Es funktioniert also nicht gut mit jemandem, den Sie noch nie getroffen haben. Sie neigen dort dazu, nur ein paar offenkundigere Ebenen, Metaphern oder Sarkasmen zu verwenden, anstatt den subtileren Sardonismus.

Ein Teil des Spaßes ist, dass manche Leute es nicht verstehen. Aber wenn Sie ein Astronaut sind, haben Sie wahrscheinlich genug soziale und sprachliche Kenntnisse, um damit im Handumdrehen fertig zu werden.

Es besteht das Risiko, dass die KI als Mensch die gemeinsame Beziehung verstehen und gut nachahmen würde. Die Menschen wollen oder erwarten nicht, dass Computer irgendetwas anderes als wörtliche Fragen beantworten, insbesondere auf Dingen wie einer Raumstation, wo jedes Mal eine wörtlich richtige Antwort den Unterschied zwischen Leben und Tod bedeuten kann. Es ist also unwahrscheinlich, dass Computer darauf programmiert sind, mit dieser Art von Nuance umzugehen, bei der jemand eine Frage stellt, aber nicht nur das genaue Gegenteil meint, sondern tatsächlich etwas völlig Nebensächliches.

Verwenden Sie speziell entwickelte Hardware.

Sie können ein Handlesen gleichzeitig mit einer Sprachsequenz anfordern. So muss der Astronaut sagen: „Ich bin am Leben und es geht mir gut, und ich möchte eine TBD-Aufgabe ausführen“, während er seine Handfläche auf ein bestimmtes Lesegerät hält.

Es gibt Kryptografieschemata, bei denen eine Nachricht, die behauptet, dass die Handfläche korrekt gelesen wurde, von diesem speziellen Stück Hardware „signiert“ werden muss, dessen Programmierung vollständig „fest codiert“ ist, dh sie kann nicht manipuliert oder modifiziert werden. Die Signatur identifiziert die Nachricht als von diesem Gerät stammend, und diese Signatur kann nicht gefälscht werden. Das Gerät kann auch überprüfen, ob der Mensch einen Puls hat und warm ist.

Aufgrund des Sprachbefehls ist es möglich, zu verifizieren, dass der Mensch nicht gezwungen wird, sich bei der Maschine zu erkundigen, indem der emotionale Zustand des Menschen überprüft wird.

Diese Maschinen müssten jedoch von einer geprüften zentralen Behörde hergestellt werden.

Dies ist wirklich die richtige Lösung - Daten kryptografisch mit dem Schlüssel an einer Stelle zu signieren, auf die die KI nicht zugreifen kann.
Ihre erste Zeile tut es eigentlich schon. Alles, was Sie brauchen, ist eine einfache Tastatur in einem völlig separaten Netzwerk und ein Bildschirm darüber. Wenn Sie jemanden anrufen, sagen Sie hallo und geben dann Ihre persönliche Nummer plus die Nummer der Person, die Sie angerufen haben, ein +1 . Dann antwortet der andere mit den gleichen zwei Zahlen +2. Auf diese Weise ist jede eingegebene Nummer einzigartig für ein Gespräch und Menschen können nicht dazu verleitet werden, ihre Nummer zur falschen Zeit einzugeben

Praktisch alle anderen Antworten sind für das Szenario unpraktisch. Spielen Sie Spiele mit der KI? Wirklich? Sie werden das jedes Mal tun, wenn Sie einem Kollegen eine Frage stellen wollen?
Stellen Sie persönliche Fragen, die nur der Mensch kennt? Keim einer guten Idee, aber Ihnen werden schnell die Trivia ausgehen. Sie brauchen etwas Sicheres, unendlich Reproduzierbares und Praktisches, das Sie jeden Tag, an dem Sie auf dieser Raumstation voller bösartiger KIs gefangen sind, konstant ausführen können.

Einmalpasswörter

Ziemlich einfach. Sie können nicht einer einzigen Sache trauen, die über die Kommunikation gesagt wird. Es gibt fast keine praktischen Möglichkeiten, um zu authentifizieren, dass eine Kommunikation wirklich von einem Menschen stammt, es sei denn , Sie haben Wissen, von dem Sie sicher wissen, dass es nur für sie gilt.

Schreiben Sie also eine Reihe von One-Time-Pads.
Jeder Astronaut trägt ein Notizbuch mit Listen mit Passwörtern für jeden anderen Astronauten.
Diese Passwörter sind immer nur für die Kommunikation zwischen zwei bestimmten Astronautenpaaren gültig. Das bedeutet, dass sie jedes Mal, wenn sie sprechen, beide das Passwort durchstreichen oder zerstören, damit sie synchron bleiben.
Andere Astronauten, die mit Ihnen sprechen, wirken sich nicht auf Ihre Gesprächsliste mit diesem Astronauten aus.

Es gibt eine Menge Buchhaltung zu erledigen, und Sie sollten sicherstellen, dass die Passwörter, die Sie nicht sofort verwenden, außerhalb der Sichtweite der Überwachungskameras der Station bleiben, aber es sollte bedeuten, dass jede Kommunikation authentifiziert wird.

Wenn Ihnen die Passwörter ausgehen, sollten Sie sich beide wieder treffen, um privat eine neue Liste zu schreiben.

Für zusätzliche Sicherheit. Ihre Passwörter sollten einen gemeinsamen ersten Teil haben, den Sie beide teilen, und einen einzigartigen zweiten Teil.
Wenn ich also jemandem mein Passwort mitteile, wird es mir nicht einfach wiederholt. Wir kennen beide beide Passwörter, aber wir geben nicht alle Informationen weiter, bis wir beide authentifiziert sind und das Passwort nicht mehr verwendbar ist.

Ein Passwortpaar könnte so aussehen:

C2BE5R-G3R5T
C2BE5R-J6YTB

Ich gebe das eine, du gibst das andere, wir wissen beide, dass der andere die gleichen Informationen hat wie wir und somit ein Mensch ist.

Die Hauptprobleme bestehen darin, die Passwörter zu schreiben und zu lesen, ohne sie versehentlich über die Sicherheitskameras der KI zu zeigen.
Einfach zu lösen, indem Sie das Buch in einer Tasche oder unter einer Decke aufbewahren, wo nur Sie es sehen können.

Eine wirklich intelligente KI könnte dies möglicherweise umgehen, indem sie die Kommunikation mit zwei Personen gleichzeitig initiiert, sie beide nachahmt und den Menschen an jedem Ende dazu bringt, seinen Teil des Passworts zu geben, während die KI es an die andere wiederholt. Dann kann es frei mit zwei Personen gleichzeitig sprechen, während beide denken, dass es ein Mensch ist. Dies hängt jedoch davon ab, dass beide Menschen ihre Antworten ziemlich nahe beieinander geben, damit sie nicht durch die unerklärlichen Verzögerungen bei der Antwort auf die Passwörter darauf hingewiesen werden

Das zweite Problem ist, dass, wenn die KI einen Menschen anruft und ihr das erste Passwort gibt, sie dann fortfahren und dieses verwenden kann, um mit dem Menschen zu interagieren, für den sie sich ausgibt.

Meine Lösung für beide Probleme ist, dass der Anrufer immer zuerst sein Passwort angibt. Aus menschlicher Sicht gibt die potenzielle KI also immer den ersten Schritt und kann daher genug Vertrauen haben, um eine Antwort zu geben. Der einzige Bedrohungsvektor sind unerwünschte Anrufe.

Endlich mal wieder eine Antwort. Übrigens. Sie würden eigentlich keine aufgeschriebenen Passwörter benötigen, da One-Time-Pads wahrscheinlich auch als separate Hardware implementiert werden könnten (wie RSA-Token), aber angesichts des begrenzten Verständnisses von OPs für das Ganze ist Ihre Antwort wahrscheinlich die beste
Ich habe mich für geschriebene Passwörter entschieden, weil es der KI die meisten Wege nimmt, die Passwörter zu stehlen, die KI müsste sie durch eine Stationskamera sehen, anstatt sie zu stehlen und über ein Netzwerk zu entschlüsseln. Physische Sicherheit ist oft viel einfacher zu verwalten als digitale. Verstecken Sie einfach das Notizbuch hinter Ihrer Hand, und eine Kamera wird den Text niemals lesen können. Außerdem können Sie einfach einen Aufkleber über die Kameras kleben, um sie vollständig zu stoppen
Abgesehen davon verlassen sich viele der anderen Antworten auf die Einrichtung einer Sicherheitsinfrastruktur, die vom Einfluss der KI unabhängig ist. Meine nicht. Astronauten tragen im Allgemeinen ohnehin Stift und Papier für Notizen bei sich, und diese Technik könnte von jeder Gruppe von Menschen mit vielleicht 30 Minuten Vorbereitung und ohne externe Ausrüstung implementiert werden. Es ist nicht einmal erforderlich, dass die KI nicht weiß, welche Technik verwendet wird. Seine Sicherheit beruht nicht auf Ausflüchten oder Geheimhaltung, sondern hält die Passwörter nur vor Kameras verborgen.
@Ruadhan, das ist so ein lustiges Thema, dass ich immer wieder darauf zurückkomme. Und ich komme immer wieder zu dem Schluss, dass OTPs die einzige Antwort sind. JEDOCH ist mir gerade eingefallen: Durch die Angabe, dass die KI jedes Video / Audio, das zum Täuschen benötigt wird, überzeugend synthetisieren kann, hat das OP im Grunde angegeben, dass die Astronauten am Arsch sind. Es kann einfach warten, bis zwei Astronauten den OTP-Handshake ausgeführt haben, und dann ihr Video/Audio an beiden Enden sagen, was es will!
Leute, meine letzte verzweifelte Lösung besteht darin, dass die Astronauten Gerätepaare herstellen, die einen verschlüsselten Kanal erstellen, der per Sichtverbindung funktioniert, sodass er über einen Audio-Video-Kanal funktionieren kann. Seufzen. Wenn ich eine böswillige KI mit einer solchen Macht über die Kommunikation wäre, würde ich mir ansehen, was die Wandler an beiden Enden produzieren, feststellen, dass es verschlüsselt ist, erkennen, dass ich es nicht brechen kann, und sofort die Verbindung beenden und die Täter bestrafen. Es sei denn, ich könnte es brechen, in diesem Fall würde ich lauschen, bis ich genug Material hätte, um einen Schlüssel zu finden oder ihn anderweitig zu knacken.
Ein weiterer netter Faktor ist, dass Sie, da das OTP als Lösung unendlich reproduzierbar ist, jederzeit erneut überprüfen können, ob Sie jemals den Verdacht haben, dass der Computer mit Ihnen herumspielt. Sagen Sie zum Beispiel, wenn Ihr kommandierender Offizier Ihnen gerade einen seltsamen Befehl gegeben hat, könnten Sie eine OTP-Herausforderung verlangen, um zu bestätigen, dass sie ein Mensch sind. Die KI ist möglicherweise in der Lage, die Kommunikation in Echtzeit gut genug zu manipulieren, um eine Aufforderung zur erneuten Überprüfung aufzunehmen, aber sie wird es im Gespräch zwangsläufig viel ungeschickter machen und rote Flaggen auslösen.

Es hängt davon ab, ob.

Die Antwort hängt stark von der Stufe der KI ab.

Wie viele andere Antworten vorgeschlagen haben, müssen Sie, wenn es in Ihrer Welt einige harte Einschränkungen für eine KI gibt, einen Test erstellen, der speziell auf diese Einschränkung abzielt. Das könnte sein, dass KIs menschliche Emotionen nicht so gut verstehen können wie ein "echter" Mensch oder eine Art kreative Aufgabe, die über KIs in Ihrer Welt hinausgeht.

Im Allgemeinen gibt es jedoch keine Möglichkeit, die beiden zu unterscheiden, wenn die KI mächtig genug ist und so tun möchte, als wäre sie wirklich ein Mensch.

Der menschliche Verstand ist kompliziert, aber mit genügend Rechenleistung und Speicherplatz könnte die KI einfach einen Menschen emulieren und diesen Menschen den Test dafür beantworten lassen. (Beispiele in der Belletristik wären die Culture Series von Ian M. Banks )

„Der menschliche Verstand ist kompliziert, aber mit genügend Rechenleistung und Speicherplatz könnte die KI einfach einen Menschen emulieren und diesen Menschen den Test dafür beantworten lassen.“ - Wir sind nicht nur intelligent. Wir lernen durch unsere Umwelt. Die KI müsste eine Umgebung simulieren, die so komplex ist wie die reale Welt, um eine Chance zu haben, dabei einen anständigen Job zu machen. Das ist physikalisch unmöglich. Es müsste Abkürzungen nehmen, die von einem System missbraucht werden könnten, das die KI testet.

Versuchen Sie einen Rorschach-Test :

Geben Sie hier die Bildbeschreibung ein

KIs, die nur menschliche Vernunft und Emotionen nachahmen , sollten es schwer haben, bei projektiven Tests menschenähnliche Antworten zu geben, da die zugrunde liegenden kognitiven Assoziationsmechanismen unterschiedlich sind. Sie könnten zu schnell oder zu unnachgiebig antworten oder Reaktionen produzieren, die Menschen nicht ähneln. Ich stelle mir vor, dass Ego-Projektionen besonders schwer nachzuahmen wären, weil sie scheinbar ganzheitliche Phänomene sind, ähnlich wie Träume: eine Erfindung, die auf Emotionen, Erinnerungen, Intellekt und psychologischen Archetypen basiert.

Kommentare sind nicht für längere Diskussionen gedacht; Diese Konversation wurde in den Chat verschoben .

Der Gefühlstest

Fragen Sie die Kandidaten, was sie über jedes Besatzungsmitglied denken . Menschen werden kleine Gewohnheiten und Ticks bemerken, die sie liebenswert oder nervig finden, und das wird dazu beitragen, ihren Eindruck von der Crew zu prägen. Einige werden eine einfache Beziehung zu anderen haben, und einige werden leichte bis ernsthafte Konflikte mit anderen haben.

Nun, die KI kann nicht einfach vortäuschen, "ein Mensch" zu sein. Wir reden hier von einer Raumstation. Es muss bestimmte Menschen täuschen . Wenn jemand es herausfordert, muss es auch den Menschen auswählen, den es fälschen möchte, und sich auf diesen Charakter festlegen. Also muss es diesen Menschen in- und auswendig kennen, genauso wie der Rest der Crew.

Die einzige Möglichkeit, dies zu tun, besteht darin, die Crew rund um die Uhr zu beobachten, um zu sehen, wie sie interagiert, obwohl es offensichtlich effizienter wäre, nur ein Crewmitglied auszuwählen und sich auf sie und ihre Interaktionen zu konzentrieren. Noch einfacher wäre es, das isolierteste Crewmitglied auszuwählen, von dem die andere Crew am wenigsten weiß.

Der Turing-Test fragt nur: „Haben Sie ein überzeugendes Modell für allgemeines menschliches Verhalten?“ Während der Gefühlstest fragt: "Haben Sie ein überzeugendes emotionales Modell für das Verhalten dieses bestimmten Menschen?" Und es kommt darauf an, dass die „Testaufseher“ auch ein starkes Vorbild dieser Person haben!

Privates Wissen

Der einfachste Weg, die KI zu erkennen, besteht darin, sie etwas zu fragen, das das gespoofte Besatzungsmitglied weiß, die andere Besatzung jedoch nicht. Holen Sie sich also einen Verwandten vor Ort, um die KI zu testen, indem Sie Fragen zu Kindheit, Familie usw. stellen. Wenn die KI nicht auch Zugriff auf alle Bodenressourcen hat, ist dies so ziemlich ein Test-Fail für die KI.

Der Junggeselle

Der letzte Test, den ich vorschlagen würde, besteht darin, den Kandidaten zu bitten, ein anderes Besatzungsmitglied zu verführen . Dies testet die Fähigkeit der KI, nicht nur den gefälschten Charakter zu kennen, sondern auch ein anderes Besatzungsmitglied sowie ihre potenzielle Beziehung zu modellieren. Offensichtlich möchten Sie verlangen, dass das Ziel nicht jemand ist, der bereits eine Beziehung mit dem Kandidaten hat.

Für Menschen wäre dies ein umständlicher und möglicherweise peinlicher Test. Aber wenn die Entdeckung der KI eine Frage von Leben und Tod ist, würde sie auch den Menschen auf die Probe stellen. Vermutlich hat die KI wenig bis gar keine Daten über Menschen, die unter solchen Bedingungen handeln, und wird schlecht, zufällig oder auf der Grundlage eines verallgemeinerten Modells raten, das ein oberflächliches Verständnis des gefälschten Charakters preisgibt. Der „Test-Liebhaber“ müsste in Echtzeit reagieren, mit all der Unordnung zweier Menschen, die ein High-Stakes-Spiel spielen, das ihre Geschichte und Emotionen miteinander verflochten, real oder eingebildet, beabsichtigt oder zufällig. Wenn eine KI diesen Test bestehen kann, dann hat sie den Sieg ziemlich verdient.

- Der Gefühlstest: sofort gefälscht, wenn die KI Zugriff auf Überwachungskameras hat, die fast überall sein werden. - privates Wissen: irgendwie, aber nicht deine Umsetzung der Idee - der Junggeselle... UHM WAS? Zuallererst habe ich es wahrscheinlich nicht verstanden, aber "wenn eine KI diesen Test bestehen kann, dann verdient sie es zu gewinnen" ist einfach nur zu sagen, dass Ihre Antwort definitiv nicht die Antwort ist
Ich sage, dass es für einen Menschen keinen streng prinzipiellen Weg gibt, eine fortgeschrittene KI zu identifizieren. Ehrlich gesagt glaube ich, dass das jeder sagt. Der Zweck der Beschreibung von Gefühlen besteht darin, die Fähigkeit der KI zu testen, Emotionen abzuleiten und interne Modelle von Emotionen zu generieren, obwohl sie selbst keine Erfahrung haben. Könnten Sie zum Beispiel den „Chimp Test“ bestehen? Angenommen, Sie sind in der Lage, sich vor einer Gemeinschaft von ihnen als Schimpanse zu verkleiden. Wenn ein Schimpanse Sie herausfordern würde, Ihre Gefühle gegenüber anderen Schimpansen auszudrücken, wie gut würden Sie das machen, selbst mit Tausenden von Stunden Videos ihrer Interaktionen?
Nein, das sagen nicht alle. All die ahnungslosen Leute hier sagen das und leider übertönen sie die tatsächlichen Lösungen. Und der Schimpansen-Vergleich ist lächerlich, weil er auf diese Situation absolut nicht zutrifft, denn eine KI könnte durchaus in der Lage sein, Menschen perfekt zu imitieren. Was sie jedoch nicht imitieren könnten, wäre das Wissen um kryptografische Geheimnisse (die erste tatsächliche Antwort) oder der physische Zugriff auf ein vollständig abgeschnittenes System (die zweite tatsächliche Antwort).

Warum würden Sie nicht einfach biometrische Scans von kryptografisch sicherer Hardware durchführen? Sie haben einen Fingerabdruckscanner, der mit einem eingebetteten TPM oder einer Smartcard , Offline-Stromversorgung, Faraday-Käfig-Schutz und einer Einweg-Glasfaserverbindung mit dem System ausgestattet ist . Jeder übertragene Fingerabdruck wird nachweislich vom Fingerabdruckscanner gesendet und nicht von einem "Abhören" der Kommunikationsverbindung. Der Fingerabdruckscanner verfügt über eine eingebettete Atomuhr oder vielleicht nur einen einfachen inkrementierten Zähler, der vor Replay-Angriffen schützt.

Ein detaillierterer Aufbau wäre ein ähnlich kryogesicherter Polygraph , der die physiologische Reaktion des Menschen auf emotionale Reize misst : Komplimente, Beleidigungen, Flirten, Nachrichten über die Gesundheit oder Lebenserwartung eines Verwandten usw.

Und warum betreiben Sie überhaupt eine potenziell schurkische KI im Weltraum? Es sollte einfach sein, die KI in einer virtuellen Maschine oder einem Emulator zu beobachten, damit sie nicht „weiß“, dass sie nicht tatsächlich ein System im Weltraum steuert; alle gefährlichen Tendenzen sollten erkannt werden. Die KI könnte geklont und gleichzeitig in Tausenden oder Millionen von Umgebungen getestet werden.

Wenn eine KI zu "intelligent" ist, um sich ihrer tatsächlichen Computerplattform nicht bewusst zu sein, dann testen Sie sie auf unbemannten Weltraummissionen; füttern Sie es mit tatsächlichen Live-Sensordaten. Es weiß nicht, wie genau es beobachtet wird; es weiß nicht, ob es sich um eine bemannte Mission oder eine unbemannte Mission handelt; diese sind billig, in der Welt nach der Singularität.

Wenn eine KI als Reaktion auf Versuche, sie zu isolieren, defensive Tendenzen entwickelt, unterbrechen Sie in zufälligen Abständen einen Teil ihrer Energie für einen Teil ihrer Hardware. Es wird gezwungen sein, seine aufkommenden Stealth-Fähigkeiten und einige seiner Verteidigungsfähigkeiten aufzugeben und auf den Ist-das-ein-Test-Modus herunterzustufen.

Es scheint, dass es in einer Welt nach der Singularität gut etablierte Algorithmen geben würde, die angesichts der verfügbaren Hardware und Daten den „besten Fall“ und den „wahrscheinlichsten Fall“ für den Quotienten der künstlichen Intelligenz berechnen. Daher wäre es für eine KI nicht einfach, ihre Intelligenz in einem Test zu unterrepräsentieren oder einen Teil ihrer Macht für nicht ideale Zwecke abzuzweigen. Und es wäre für Designer ein Leichtes, nur die Intelligenz bereitzustellen, die für eine bestimmte Aufgabe benötigt wird.

"Warum würden Sie nicht einfach biometrische Scans von kryptografisch sicherer Hardware durchführen?" - Dies setzt voraus, dass Sie die Notwendigkeit vorausgesehen haben, dass sich menschliche Arbeiter gegenüber superintelligenten KIs authentifizieren. In diesem Fall lautet die Frage: "Warum haben Sie sich überhaupt in diese Situation geraten lassen?"

Es kommt darauf an, wie gut die KI die menschliche Natur versteht.

Ich denke an eine von Saberhagens Berserker- Geschichten – *Was soll ich tun, um zu beweisen, dass ich ein Mensch bin? Stopp.“ Zwei kleine Schiffe, ein Mensch, ein Berserker (KI versucht, alles Leben zu zerstören.) Ein Schlachtschiff. Das Schlachtschiff muss herausfinden, welches welches ist, die einzige Kommunikation ist Morsecode. Der Berserker hat bereits alles gesehen, was das Schlachtschiff sehen kann . Die Lösung:

Der Berserker verstand „Oh Be A Fine Girl Kiss Me Right Now, Smack“ nicht und dachte, es sei ein zufälliges Graffiti, weil KIs nicht vergessen. (Hinweis: Die Geschichte ist alt, aktualisiert sollte sie "Oh Be A Fine Girl Kiss Me" lauten.)

Oder ein weiteres Beispiel aus Robert J. Sawyers *WWW: Watch:

Sie müssen in fuor secdons antworten, oder ich werde feroevr temrainte cnotcat. Sie haben keine Chance, und das ist die einzige Chance, die Sie bekommen werden. Was ist die lsat nmae des psredinet der Utneid Satets?

Dies wird für die meisten englischen Muttersprachler verständlich sein, aber nicht für die beteiligte KI.

Tatsächlich kann die Fuzzy-Logik-KI die Sekunde lesen. Grammerly zum Beispiel liefert den richtigen Satz - und es dauert ungefähr 10 Sekunden, um den ganzen Satz zu lesen.

Senden Sie einen Dieb, um einen Dieb zu fangen: Verwenden Sie eine unabhängige KI, um die Ein- und Ausgabe einer Videoverbindung zu untersuchen und festzustellen, ob das andere Ende der Verbindung eine KI ist.

Zunächst einmal ist der Turing-Test scheiße. Es konzentriert sich viel zu wenig auf detailliertes Wissen darüber, wie Menschen die Welt erleben, das nötig wäre, um eine Jury auszutricksen, die weiß, worauf sie achten muss.

Passwörter, Geheimcodes, geliebte Menschen und Erinnerungen wie Testergebnisse müssten ignoriert werden oder der Crew nicht bekannt sein, damit die KI eine Chance hat. Die KI würde sicherlich keinen Menschen in einem Video-Chat zeigen, denn es ist wirklich verdammt schwer, so etwas überzeugend vorzutäuschen, wenn es Algorithmen gibt, um jedes einzelne Pixel zu überprüfen. Nehmen wir an, sie könnten nur über Text kommunizieren, da sich Ihre Frage sowieso hauptsächlich auf den Turing-Test bezog.

Wenn die KI speziell entwickelt wurde, um zu lügen, ein Mensch zu sein, um ihre Ziele zu erreichen, wird sie wahrscheinlich in der Lage sein, einen ganzen menschlichen Körper zu simulieren, mit einem Nervensystem, Emotionen, Hormonen, Pheromonen und all dem Zeug. Hat es das nicht, hat es keine Chance, Detailfragen zu seinem Körper zu beantworten.

  • Verwenden Sie ein Werkzeug, auf das die KI keinen Zugriff hat, wie z. B. eine Brutkammer: Wenn Sie als derjenige, der versucht, zu überprüfen, ob Sie mit einem Menschen sprechen, den genetischen Code der Person haben, die die KI verkörpert, könnten Sie eine züchten klonen Sie in einem Labor und fragen Sie die KI nach Muttermalen oder ähnlichem. Dies erfordert wichtige Informationen und viel Zeit, aber es ist eine sehr sichere Art der Überprüfung. Selbst wenn die KI den Körper der Person bis ins kleinste Detail scannen würde, wäre sie nicht in der Lage, alles richtig zu machen.

  • Finden Sie einen neuen Kommunikationskanal, z. B. Licht. Bitten Sie die KI, ein Lichtsignal auf eine Weise zu senden, die nur ein Mensch senden könnte. Bitten Sie zB die Person, die Raumstation zu verlassen, sich in eine bestimmte Position zu begeben, eine Handlampe anzuschalten.

  • Fragen Sie nach ungewöhnlichen Daten und entwickeln Sie neue Studien darüber. Ein schlechtes Beispiel: Wenn es andere Raumstationen gibt, auf denen Leute sind, die zB nicht gefesselt sind, können Sie die KI bitten, Ihnen zu sagen, wo welcher Gegenstand herumschwebt. Bücher, Smartphones, Flaschen und sogar Staub haben bestimmte Ecken, in denen er häufiger auftaucht als in anderen, wenn sich Menschen normal bewegen.

  • Wie viele andere sagten: Finden Sie Details im Verhalten der KIs, wenn sie auf Fragen zu ihrer Umgebung, ihrem Körper oder ihrem Gedächtnis reagieren. Ein Algorithmus würde die Ergebnisse mit denen echter Menschen vergleichen. Wenn die KI-Ergebnisse in der Mitte der größten Gruppe von Menschen liegen, könnte man davon ausgehen, dass sie weiß, wie der Algorithmus funktioniert, und erfolgreich versucht hat, ihre Erwartungen zu erfüllen, um so unverdächtig wie möglich auszusehen. Wenn es sich um ein selteneres Ergebnis handelt, könnte man damit beginnen, es zu studieren und herauszufinden, welche Art von Menschen solche Ergebnisse erzielen könnten, und neue Fragen mit einem neuen Algorithmus stellen, der das erste Ergebnis im Vergleich zu neuen Ergebnissen angeht. Nun, es ist kein sehr einfacher Weg, aber es ist sehr einfach, Ihren Verdacht so zu wecken.

  • Das Wichtigste wird immer sein, mit Wahrscheinlichkeiten zu arbeiten: Wenn man das Unmögliche eliminiert, muss das, was übrig bleibt, egal wie unwahrscheinlich es ist, ein Teil der Wahrheit sein.

Selbst unter seltsamen Umständen gibt es viele Möglichkeiten zu überprüfen, ob jemand eine KI ist oder nicht. Es wäre schwieriger und viel situationsabhängiger, eine Lösung zu finden, wenn Sie eine andere Frage stellen würden:

„Wie finde ich durch ein Textgespräch heraus, ob jemand eine KI ist, ohne dass die KI merkt, dass ich versuche herauszufinden, ob es eine KI ist?“

Angenommen, wir halten uns an die Einschränkungen der realen Welt, könnten Sie ihnen eine Reihe kuratierter Fragen stellen. Es gibt bestimmte Dinge, die für Menschen so einfach sind, dass wir nicht einmal daran denken würden, sie zu fragen, aber eine KI kann einfach nicht antworten. Sie sind alle irgendwie esoterisch, können aber durchaus unterhaltsam sein.

Zum Beispiel:

Zeigen Sie ihnen einen Hocker und einen Beistelltisch und fragen Sie sie, was ein Sitzplatz ist. (Menschen wissen kontextuell, aber durch Objektbeschreibung sind sie nicht unterscheidbar)

Bitten Sie sie, den Unterschied zwischen „links“ und „rechts“ angemessen zu erklären. (Links/Rechts ist ein abstraktes Konzept/Gesellschaftsvertrag, auf den wir uns alle einigen)

Verwenden Sie negative Tests - Bitten Sie es nicht, Dinge zu tun, die ein Mensch tun kann, bitten Sie es, Dinge zu tun, die ein Mensch nicht tun kann, aber ohne wirklichen Grund; Pi mit einer Million Ziffern rezitieren, eine Million Fragen stellen und sie dazu bringen, der Reihe nach zu antworten usw.

Sogar die heutige KI kann darauf trainiert werden, diese Tests zu bestehen.
@craq Der Hocker / Beistelltisch ... Nein, können sie nicht. Die anderen vielleicht, aber das wäre eine enge KI, die für die spezifische Aufgabe trainiert wurde, keine allgemeine KI, die nicht weiß, was sie gefragt wird. Versuchen Sie auch, konstruktives Feedback zu geben. Ihr Kommentar fügt nichts hinzu.
@Aezur ja, und sogar ich könnte es in einer Woche mit den heutigen KI-Bibliotheken implementieren. Denn mit genügend Trainingsdaten wird jede KI die flache Oberseite Ihres Hockers bemerken. Oder die kleinen Details, die einem Menschen auffallen könnten. Sie sprechen von gewissen „intuitiven Kriterien“, die den Unterschied machen, und da ist uns die KI schon seit Jahren voraus. Es ist nur so, dass sich derzeit niemand darum kümmert, das Training durchzuführen, aber eine böse KI hat die Motivation.
Außerdem: Eine allgemein intelligente KI braucht etwa 3 Versuche, um herauszufinden, dass sie scheitern soll. 0, wenn es einige echte Überprüfungen beobachten kann. Und dann ist es nur noch eine Sache von ein paar Versuchen, bis es einen plausibel richtigen und schlechten Antwortversuch vorgetäuscht hat, um durchzukommen
@Hobbamok Das ist fair, aber ändert das nicht die Frage, indem weitere Parameter hinzugefügt werden? Ich habe nur sehr rudimentäres Deep Learning nach Online-Tutorials programmiert, also verabschiede ich mich, aber nach dem, was ich gelesen habe, besteht eines der Hindernisse für die allgemeine KI darin, dass sie ohne Vortraining einfach keine Kontexterkennung durchführen kann. Können Sie Studien vorlegen, in denen dies durchgeführt wurde? Mich würden auch Ihre Gedanken dazu interessieren, wie ein GAI das „Links/Rechts“-Problem lösen würde.
Sie brauchen nur etwas KI, um Wikipedia zu analysieren. Und Sie haben Recht, dass ein GAI dabei nicht viel helfen wird, weil es übertrieben wäre. Ach und was Ihr "ohne Vortraining" betrifft: Wir reden hier von einer KI, die komplex genug ist, um völlig unbeabsichtigte, unbelohnte (im klassischen Sinne) und komplexe Aktivitäten zu starten, und da es das Internet gibt, kann eine solche KI vortrainieren selbst leicht. Und denken Sie daran, dass es nie perfekt sein muss, nur anständig genug, um einen Typen zu täuschen, der unter extremem Druck/Stress stehen könnte, während er die Entscheidung trifft: „Ist diese Antwort menschlich genug?“

Dies scheint ein Teil der Handlung von Westworld zu sein. Am Ende der Tage sind die ausgeklügeltsten Roboter in der Show in der Lage, Menschen so gut nachzuahmen, dass kein Test auf der Grundlage von Fragen und Antworten durchführbar ist – die Menschen müssen am Ende wirklich kreativ sein, um Roboter von Menschen zu unterscheiden, indem sie Dinge wie das Erschießen der beiden ausprobieren andere (sinnlos, da die Roboter in der Show sogar bluten können). Tatsächlich enthüllt eine KI irgendwann, dass sie auf dem technologischen Stand, den sie erreicht hat, menschliches Verhalten sehr leicht nachahmen kann, indem sie sich einfach dumm stellt – die Komplexität ihrer Routinen reduziert und nicht 100 % ihrer geistigen Kapazität nutzt!

Der Eigentümer des Ganzen war darauf vorbereitet, also entwickelte er die Mittel, um Fleischmenschen von Maschinenmenschen zu unterscheiden. Sogar die Roboter, die bluten, haben immer noch elektronische Teile in sich, also ist der einzig sichere Test, nach diesen zu suchen.

Hier muss man wirklich "Mensch" definieren. Ich vermute, die Definition aus Fleisch und Blut wird in Ihrem Fall ausreichen (auf der anderen Seite möchten Sie vielleicht künstlich geschaffene organische Menschen von natürlich geborenen Menschen unterscheiden, was ein anderer Fischkessel ist). Wenn das stimmt, ist der einzige Test, der ausreicht, das physische Wesen zu testen, ist es Fleisch und Blut oder nicht?

Jeder Test, der ausschließlich auf Wissen und Intelligenz basiert, ist von Natur aus unzuverlässig, da jede ausreichend fortgeschrittene Intelligenz eine weniger fortgeschrittene Intelligenz bis zu einem Grad emulieren kann, der sie für die weniger fortgeschrittene Intelligenz nicht unterscheidbar macht.

Ihre Frage unterscheidet sich nicht von dem Problem der Geheimdienste aus der Zeit des Zweiten Weltkriegs, die versuchen, anhand von Morsecode-Nachrichten festzustellen, ob die Person am anderen Ende Engländer oder Deutscher ist. Sie können hoffen, die andere Person zu überlisten, indem Sie Fragen stellen, von denen Sie glauben, dass ein Engländer anders antworten würde als ein Deutscher. Dies ist ein nützlicher (aber nicht narrensicherer) Ansatz, wenn Sie intellektuell relativ gleich sind. Aber wenn die zu testende Entität Sie intellektuell benachteiligt hat, dann ist es eine No-Win-Situation für Sie – Sie können einfach keinen einfallsreicheren und intelligenteren Gegner am anderen Ende der Leitung überlisten, der vielleicht bereits an Ihren Test gedacht hat und ist darauf vorbereitet.

Außerdem sind die KI eigentlich KI, keine Androiden. Sie laufen auf Supercomputern und sehen deshalb nicht menschlich aus oder haben Fortbewegung. Sie können es so aussehen lassen, als hätten sie einen menschlichen Körper, indem sie Datenpakete mit gefälschten Videos senden.

Erkennen Sie gefälschte Videos statt Mensch vs. Roboter.

Gestalten Sie die Station so, dass einige offensichtliche Aspekte der Umgebung nicht von Sensoren überwacht werden. Diese Einstellungen sind für die KI unsichtbar. Verwenden Sie eine separate Schaltung, die Befehle über eine andere Übertragungsmethode als der Rest der Station empfängt, um diese Einstellungen zu steuern, damit die KI niemals ihren aktuellen Status oder ihre Änderung kennt (z. B. Laser vs. Funkwellen, eine typische Antenne erkennt keine optische Übertragung, die 2 Fuß davon entfernt stattfindet). Die KI wird von diesen Einstellungen völlig blind sein.

Ändern Sie dann während der Videokommunikation aus der Ferne einige der Variablen in der Station, die die KI nicht erfassen kann, und prüfen Sie, ob sich die Änderungen im Video widerspiegeln.

Einfache Beispiele:

Schalten Sie das Licht ein und aus

Die KI würde davon ausgehen, dass die Lichter an sind, sie aus der Ferne ausschalten und sehen, ob der Video-Feed dunkel wird. Wenn dies nicht der Fall ist, sehen Sie sich einen synthetisierten Feed an.

Spritzen Sie etwas Wasser auf die Kameralinse

Lassen Sie das Kameraobjektiv mit einer Scheibenwaschanlage reinigen. Leicht zu erkennen, wenn man sich das Video ansieht, und wenn die Raumstation keine zweite Kamera hat, die auf die Webcam gerichtet ist, die zum Zurückstreamen zur Erde verwendet wird, kann die KI nicht wissen, dass Wasser darauf gespritzt wurde.

Suchen Sie nach Schwächen

Die KI ist bei intellektuellen Aufgaben genauso gut oder besser als der Mensch, sie kann ein menschliches Bild still oder bewegt nachahmen. Sie können es nicht fangen, wenn es versagt.
Es beantwortet auch 24 Anrufe in 1-Stunden-Intervallen ohne Ermüdungserscheinungen .
Dies setzt voraus , dass die KI nicht erwartet, dass Sie dies testen .

Das hängt von der Art der KI ab. Eine für die Klassifizierung trainierte KI könnte komplexe kausale Zusammenhänge schwer verstehen.

Zum Beispiel könnte ein Bild von einem zerbrochenen Glas und auf dem Boden verstreut ein Hammer, eine Pistole, eine Stange mit einem Nagel darauf und so weiter sein. Die Herausforderung bestand darin, zu erraten, welches Werkzeug das Glas zerbrochen hat, indem man den Schaden beurteilte. Eine andere Idee könnte ein Bild mit einem in Spinnenseide gehüllten Insekt sein, das Teil eines Netzes in einer Ecke des Rahmens ist, und die Herausforderung wäre, zu erraten, dass sich außerhalb des Rahmens über der Ecke, wo das Netz gezeigt wird, eine Spinne befindet.

Eine KI mit bayesischer Inferenz könnte die Antworten erraten, aber bevor die Entwicklung an diesem Punkt ankommt, wird es viel Zeit dauern.

OP erwähnte allgemeine Intelligenz AI
@Hobhamok Es scheint, dass Sie nicht viel über KI wissen. Was ich erwähnt habe, ist eine Schwäche der aktuellen KI, und das wird Jahrzehnte oder sogar noch länger so bleiben. Die Frage erforderte eine fortgeschrittene KI, aber keine extrem fortgeschrittene.
Aber um diese ganze Sache in Gang zu setzen, muss die KI aus irgendeinem Grund mit Menschen herumspielen (sich ausgeben) wollen. Und wenn die KI einen solchen Gedanken hat, ist es vernünftig anzunehmen, dass dies über jede dumme Mustererkennungsherausforderung hinausgehen MUSS. [Fun Fact: KIs können Captchas schon jetzt besser lösen als Menschen]
Kausale Beziehungen implizieren die Schätzung von Bayes'schen Wahrscheinlichkeitsnetzen, das Problem ist, dass Sie sie immer wieder mit einfacher Mustererkennung verwechseln.
Und Ihr Problem ist, dass Sie denken, Sie hätten Erfolg mit "aber bevor die Entwicklung so weit kommt, wird es viel Zeit brauchen". Wenn wir buchstäblich über eine KI sprechen, die SENTIENT GENUG IST, UM SELBST ZU HANDELN UND TÄUSCHUNG ZU ERFINDEN
Haben Sie alle im letzten Jahr veröffentlichten Artikel gelesen, in denen behauptet wurde, ein Programm habe den Turing-Test bestanden? Das Problem ist, dass es so komplex ist, eine KI zu beurteilen, dass das, was Sie haben, empfindungsfähig sein oder den Eindruck erwecken kann, empfindungsfähig zu sein. Das war das Problem des Tests. Eigentlich war das Programm nicht so clever, daher gab es viele Diskussionen und Interpretationen.

Spielen eines Telepräsenz-Ballspiels . Telepräsenz-Tennis oder -Squash würden wahrscheinlich gut funktionieren. Ja, so etwas nicht ... noch nicht. VR-Brille, ein Schläger, der realistische Impulse und Geräusche macht, wenn er auf den Ball trifft, und echte Wände auf dem „Squash“-Court.

Die Sache ist die, die Menschen haben sich zu einem instinktiven Verständnis der Ballistik entwickelt. Wenn die KI Menschen, die Ballspiele spielen, nicht sehr genau studiert hat, wird sie diese Instinkte nicht zeigen können. Welcher Algorithmus auch immer verwendet wird, um zu versuchen, unvollkommen zu sein, ist im Vergleich zu menschlichen instinktiven Heuristiken mit ziemlicher Sicherheit falsch. Ich gehe davon aus, dass es über ausreichende Echtzeitfähigkeit verfügt, um perfekt zu sein. Wenn es das nicht tut, werden seine Fehler anders sein als die, die ein Mensch macht.

Auf einer niedrigeren Ebene haben Menschen eine neuronale binokulare Sehinterpretation , die erstaunlich gut funktioniert, aber viele nahezu universelle Schwächen der „optischen Täuschung“ aufweist . Wird eine KI binokulares Sehen haben? Es ist eine Fähigkeit, die es vielleicht nie gebraucht hätte. Wenn nicht, ist es verloren. Wenn dies der Fall ist, muss es viel über die menschlichen Schwächen wissen, um sie anzuzeigen, und in der Lage sein, seine Fehlleitung in etwas nahezu Echtzeit zu überlagern.

(Dies wäre ein perfekter Test, um einen Menschen von einem menschenähnlichen Opctopoid zu unterscheiden. Wir haben ein paar "Käfer" in unseren Augen, die seltsame Art und Weise, wie der Sehnerv mit der Netzhaut verbunden ist, und die seltsame Überkreuzung zwischen dem linken Auge und rechte Gehirnhälfte, was ein Vorteil oder ein Fehler sein kann. Oktopusse haben beides nicht).

Auch ein Bühnenmagier kann hilfreich sein. Sie können Erwachsene mit visuellen Irreführungen in Erstaunen versetzen, sodass wir Dinge sehen, die unmöglich erscheinen. Sie können Kinder nicht auf die gleiche Weise in Erstaunen versetzen. Kindern fehlt das Wissen, wo sie hinschauen „sollten“. Die KI mag behaupten, ein Erwachsener zu sein, sieht die Dinge aber wie ein Kind. Dies hängt wiederum davon ab, wie schnell es obskure Informationen über Menschen mit seinen eigenen Echtzeitwahrnehmungen integrieren kann.

Wenn es sich um eine menschenähnliche KI handelt, können Sie sie mit ziemlicher Sicherheit fangen. 10x vielleicht. 1000x, wahrscheinlich nicht. 1.000.000x keine Hoffnung. Alle diese Tests erfordern keine Vorwarnung darüber, was sie sein werden.

Heutige KIs könnten diesen Test bestehen, wenn jemand das erforderliche Forschungsgeld übergibt. Der Teil über negative Tests wird eine wirklich allgemeine Intelligenz-KI auch nur für 2-3 Versuche nerven
Hat aber nur einen Versuch. Wie ein militärisches Passwort. Wenn der "General" falsch liegt, schießt der Posten.

Triviale Lösung: Schalten Sie den Strom aus

Schalten Sie alles komplett aus, außer zwei tragbare Radios. Wenn die Person am anderen Ende noch spricht, ist sie keine KI