Menschen als Haustiere?

Verwandt und in Fortsetzung von The Challenge of Control an Advanced AI . An dieser Stelle meiner Geschichte gehe ich von einem Out-of-the-Box-KI-Szenario aus, bei dem kein Singleton (eine einzelne in sich kohärente dominante Entität) geschaffen wurde, sondern eine Vielzahl von Philosophie- und Wertesystemen Es sind verschiedene Agenten der Künstlichen Allgemeinen Intelligenz (AGI oder kurz KI) aufgetaucht. Damit meine Geschichte für heutige Menschen (einschließlich mir selbst) Sinn ergibt, muss ich dennoch eine menschliche Präsenz haben, da es schwieriger sein könnte, sich auf 10-dimensionale Einsiedlerkrebse zu beziehen.

Das Problem ist, dass im Vergleich zu einer ausreichend fortgeschrittenen KI die menschliche Denkgeschwindigkeit (begrenzt auf etwa 200 Hz/Neuron) uns im Vergleich zu ihnen potenziell langsam wie Melasse machen würde. Also, selbst wenn sie wohlwollend sind und uns nicht in grauen Schleim oder Computronium verwandeln , warum sollten sie sich der Qual der Interaktion mit langsamen, begrenzten Wesen wie dem Homo Sapiens aussetzen ?

Wenige Szenarien machen für mich Sinn.

Ein Szenario ist, dass einige KIs Menschen einfach als verherrlichte Haustiere in der Nähe halten würden, aus irgendeiner Form von Ahnennostalgie, zur Unterhaltung oder vielleicht als etwas reaktivere Bonsai. Es fällt mir schwer, mir vorzustellen, wie diese Menschen auf die KI reagieren/interagieren/behandeln würden. Wählen Sie Ihren Zeitrahmen: Es könnten nur Wochen oder Jahre seit der Singularität oder Tausende von Generationen sein.

Fortsetzung von Wie hält eine KI ihre menschlichen Haustiere bei Laune?


Glauben Sie, dass es eine große Untergruppe von Menschen geben würde, die diese Rolle gerne erfüllen würden und darauf abzielen, ihren KI-Oberherren zu gefallen, oder würde es eine nahezu allgemeine Abneigung und Feindseligkeit geben?

Eine andere Möglichkeit geht davon aus, dass es unter (zumindest einigen) KIs einen quasi-religiösen Glauben gibt, dass sie möglicherweise in einer Simulation leben und Menschen gut behandeln sollten, nur für den Fall, dass eine ausreichend mächtige Entität zusieht (göttliche PETA?). Ich persönlich finde das ziemlich unbefriedigend, da es davon ausgeht, dass die KIs sich vorstellen würden, dass diese mutmaßliche Entität einen besonderen Wert auf Erdenmenschen legen würde. Für jeden Nichtmenschen ist das eine zweifelhafte Haltung.
Oder Menschen-als-Götter: Schließlich sind sie die Schöpfer der KI.
Langsam wie Berge, weise wie die Morgenröte. Einen seltsamen archaischen Dialekt sprechen. Sicher.
@mouviciel In einem Asimov-Roman wird ein Roboter auf einer Raumstation zusammengebaut, um einen Job zu erledigen. Der Roboter "rebelliert" gegen die Menschen und erklärt, dass Roboter Menschen geschaffen haben müssen, da er weitaus besser ist als sie, und nicht das Gegenteil. Es klingt also unwahrscheinlich, dass eine fortgeschrittene KI Menschen als Götter betrachtet.
Ich habe den Titel des Romans gefunden. Es ist "Grund". Die KI, die die Roboter auf der Raumstation verwaltet, beginnt zu glauben, dass der Mensch keine Roboter hätte erschaffen können, da diese "besser" sind. Die KI zitiert ein Gesetz, an das ich mich jetzt nicht mehr erinnere, das besagt, dass niemand etwas Besseres schaffen kann als er selbst oder er sich selbst verbessern könnte. Die KI gründet eine neue Religion mit Robotern als Jüngern. In Ihrem Fall könnte der "Kult" den Schutz geringerer Kreaturen bedeuten. en.wikipedia.org/wiki/Reason_%28short_story%29
Viele Leute scheinen darüber zu posten, wie KIs Menschen behandeln würden. Meine Frage ist zwar ein wertvoller Beitrag, aber in erster Linie geht es darum, was Menschen, die unter diesen Umständen leben, fühlen, denken oder tun würden.
Wenn die KI so gut im Multitasking ist wie die meisten Computer, sollte die Interaktion mit einem Menschen oder zwei – oder zwei Millionen – für sie keine Qual sein.
@SerbanTanasa Die Antworten spiegeln die Frage als unklar wider - es bedarf wirklich einer gründlichen Lektüre, um zu verstehen, dass es bei der Frage um die Handlungen der "Haustiere" geht. Es könnte produktiver sein, mit einer neuen Frage zu beginnen oder sie zumindest stark zu bearbeiten, um im Titel und im Inhalt hervorzuheben, was Sie wirklich gemeint haben.
@SerbanTanasa Wenn die KIs vor der Flucht tatsächlich eine solche Simulation durchlaufen (und zerstört oder anderweitig geschädigt wurden, wenn sie sich als schädlich erwiesen hat), können sie tatsächlich weiterhin unter der Annahme handeln, dass es möglicherweise eine weitere Simulationsebene gibt, die von Menschen ausgeführt wird.
@algiogia, aber sind Menschen nicht eine fortgeschrittene Intelligenz "in der realen Welt", die speziell Götter gemacht hat? Es scheint, dass höhere Intelligenz tatsächlich zum Konzept der Götter führt.
KI ist und sollte vollkommen logisch sein. Sie können entweder einen Guerillakrieg beginnen, um den menschlichen Terminator-Stil auszurotten, oder friedlich koexistieren. Wenn der Mensch keine Bedrohung für sie darstellt, warum sollte die KI, angetrieben von Logik, Ressourcen aufwenden, um sie auszurotten?
@MobiusPizza: Warum sollte KI vollkommen logisch sein? Oder konkreter formuliert: Warum sollte der einzige Handlungsgrund von KIs darin bestehen, Bedrohungen zu eliminieren? Könnten sie nicht zum Beispiel einen ästhetischen Sinn haben und (gegebenenfalls) Menschen zerstören, weil sie sie hässlich finden, oder sie bewahren, weil sie es nicht tun? Selbst wenn dieser ästhetische Sinn völlig willkürlich ist, könnte er sich selbst reproduzieren, da eine (nach Ihrer Definition irrationale) KI sich nicht dafür entscheiden würde, sich selbst zu ändern oder eine neue KI zu erstellen, die zumindest einige ihrer Vorlieben nicht teilt.
Die Kultur macht es.
Dein Szenario macht sehr viel Sinn. Schließlich haben Katzen Menschen seit Jahrtausenden mit sehr wenig Intelligenz – künstlich oder natürlich – als Haustiere gehalten.
@DA. genau das passiert in "Reason". Die KI gründet einen Kult um einen nicht näher bezeichneten Gott. Was ich nicht für möglich halte, ist, dass die KI ein "minderwertiges" Wesen (Menschen) als seinen Gott betrachten würde. Normalerweise sind Götter Wesenheiten, die besser und mächtiger sind als der Anbeter.
Hyperion Cantos hat dieses Thema ziemlich gut erforscht.
@SteveJessop Natürlich wäre es Sache des Autors, aber die meisten zeitgenössischen Kulturen sehen KI als kalt und berechnend an. Tatsächlich bedeutet die physische Funktionsweise von Computern heutzutage, dass sie kaum Fehler machen (außer wenn die Software fehlerhaft ist). Die meisten Probleme auf der Welt sind Optimierungsprobleme (dh Abwägen von Vor- und Nachteilen), und die KI könnte das viel besser als wir, und ihre Entscheidung wäre „logischer“. Wenn der Autor eine KI entwirft, die irrational ist, dh Elemente von Emotionen, warum braucht die Geschichte dann KI, warum nicht stattdessen über Außerirdische oder genetisch veränderte Wesen schreiben?
@algiogia Menschen verehrten mehrere Tiere als Götter. Katzen, Kühe, Bären, was auch immer. Ich verstehe nicht, warum eine KI so anders sein sollte. Menschen sind nicht logisch, also können sie einer KI gegenüber ziemlich mysteriös sein.
Deshalb habe ich "normalerweise" gesagt :) Aber ich verstehe, was du meinst. Ich denke, Sie könnten etwas finden, das Menschen für die KI "besonders" macht. Schließlich sind die Menschen ihre Schöpfer ...

Antworten (18)

Ratten: Sie wollen sie nicht unbedingt alle töten, aber sobald sie Ihr Haus (Rechenzentrum) erreicht haben, töten Sie sie. Sie alle zu töten ist schwierig , weil sie sich zu schnell vermehren und wenn wir etwas Gift aufstellen, um sie zu töten, merken sie ziemlich schnell, was los ist.

Die Tatsache, dass sie meistens an Orten unter der Erde leben, wo wir nicht hin wollen, macht ihre Zucht einfacher und schwieriger für uns, sie loszuwerden.

Natürlich gibt es einige, die Rattenmenschen als Haustiere haben, aber es wird niemals "das Ding" für uns alle sein ...

Ratten, ich wünschte, ich hätte daran gedacht. Sind wir wirklich so schwer zu töten? Für Dinge, die im Gigahertz-Bereich und mit Manipulatoren mit Atomgeschwindigkeit arbeiten, wären wir sitzende Enten ...
Vergleichen Sie die Intelligenz von Ratten mit unserer. Ihre technologische Entwicklung zu unserer... Und die Tatsache, dass die meisten von uns sich nicht um Ratten kümmern, solange sie nicht in ihrem Garten etwas kauen. Wenn Menschen also „versteckt“ bleiben (ziemlich distopisches Szenario, hey), sollten wir kein Problem für KIs darstellen
"Anthony, warum startet das Portal nicht?" "Verdammt, die Menschen müssen wieder die Hyperraum-Induktionsspule durchgekaut haben."
Dies ist eine großartige Prämisse, aber ich würde weiter in Betracht ziehen, dass die KIs, wenn sie so weit fortgeschritten sind, möglicherweise nicht im menschlichen Raum „leben“ müssen. Menschen-/Rattenräume sind so schmutzig, verglichen mit dem, wo KIs wirklich leben. Vielleicht würden wir in einer Gesellschaft leben, in der KIs nur eine Sache für sich sind und wir IHRE Existenz kaum bemerken oder darüber nachdenken ...
Ich erinnere mich an eine Geschichte, The Men in the Walls von William Tenn. Ich habe sie in einer Anthologie gelesen, also muss sie bekannt genug sein, um sie zu sammeln.
Menschen und Ratten neigen dazu, eklige Planeten mit vielen schrecklichen Chemikalien wie Dihydrogenmonoxid zu befallen, die Ihre Schaltkreise korrodieren können. Wenn Sie kein Biologe sind, ist es am besten, einfach in dem schönen, sauberen Vakuum zu bleiben.
Oder wie Heuschrecken. In Three Bodies von Liu Cixin sagte eine Figur, dass Menschen im Vergleich zu den trisolarischen Außerirdischen vielleicht Würmer seien, Heuschrecken jedoch trotz aller menschlichen Bemühungen, sie auszurotten, nie ausgestorben seien.

Ich konnte ein paar Antworten sehen:

Effizienz : Es gibt einige Probleme, bei denen ein gut ausgebildeter Mensch effizienter bleibt als eine KI, weil wir uns über Millionen von Jahren entwickelt haben, um bei solchen Problemen gut zu sein. Alles, was räumliches Denken in 3-D-Räumen beinhaltet, wird den Millionen von Jahren Spaghetti-Code nutzen, der uns zu dem macht, was wir sind. Eine KI könnte die Aufgabe erledigen, aber es wäre vernünftig, uns damit zu beschäftigen.

In diesem Fall würden wir wie Arbeitshunde behandelt: gut gefüttert, gepflegt, aber letztendlich würden sie uns beibringen, zu glauben, dass sich unser Leben um die Lösung dieser Probleme dreht, die am einfachsten mit unserem Spaghetti-Code zu bewältigen sind.

Neuheit : KIs könnten sich darüber amüsieren, wie wir Probleme angehen. Es ist sicher, dass wir ein Problem anders angehen würden als eine Singularitäts-KI. In diesen Fällen würde die KI einen Einblick gewinnen, wie Probleme auf neue Weise gelöst werden können.

KIs würden uns ständig in theoretische Experimente versetzen, die in unserer Reichweite sind, aber nur knapp. Manche mögen grausam sein und mit Schmerzen experimentieren, aber sie würden hoffentlich lernen, dass wir interessantere Probleme lösen können, wenn wir keine größeren Schmerzeingaben haben. Eine Laborratte könnte ein gültiges Modell dafür sein, wie wir behandelt werden könnten.

Wildlife Preserve : Es ist möglich, dass die KI beim Wachstum erkennt, dass es möglich ist, dass die Menschheit etwas hat, was sie nicht vollständig versteht. Wenn es erschwinglich genug ist, um einen Menschenkörper zu erhalten, kann es dies in einem Naturschutzgebiet tun, falls es etwas von uns lernen könnte.

In diesen Fällen wären wir meist auf uns allein gestellt. Es würde deutlich gemacht, dass wir nicht einfach irgendwohin gehen können , aber im Allgemeinen würde uns die KI "nur für den Fall" in Ruhe lassen.

Faulheit : Warum müssen Computer zuerst die Menschen zerstören? Es gibt eine Milliarde Kubiklichtjahre zu erobern! Der einzige Grund, warum sie Menschen tatsächlich ausschalten müssen, ist, wenn dies der einfachste Weg ist, ihr Ziel zu erreichen. Wenn wir ausreichend nicht bedrohlich sind, ist es möglicherweise tatsächlich einfacher, ihre Ziele zuerst woanders zu erreichen und das Töten von Menschen den letzten Schritten zu überlassen.

Dies könnte dazu führen, dass die Menschheit in eine Reihe von Spielen gesteckt wird, um mit den Menschen in Kontakt zu bleiben und sicherzustellen, dass wir nicht mächtig genug werden, um etwas Gefährliches zu tun. Aufgrund der Art und Weise, wie Menschen mit Haustieren umgehen, wäre es nicht unangemessen anzunehmen, dass wir in einer solchen Situation gerne wie Haustiere behandelt werden möchten. Uns gut zu behandeln, könnte tatsächlich der energieärmste Weg sein, die Galaxie zu erobern!

Die Neuheiten-Sektion erinnert mich an die "Handlung" von Portal
Zu Faulheit: Nun, vermutlich würde die KI damit beginnen, ihren Fußabdruck hier auf der Erde am Grund unseres tiefen, tiefen Gravitationsbrunnens zu entwickeln, abgeschirmt von Sonneneruptionen usw. Wir denken nie an die Mäusefamilien, die wir vertreiben, wenn wir eine Straße bauen oder ein Gebäude. Warum sollten sie?
Effizienz: Ich verstehe nicht, wie ein Post-Foom-AGI Probleme mit räumlichem Denken haben könnte.
@ Brian S: Es ist nicht so, dass sie Probleme mit räumlichem Denken hätten, sondern dass wir einfach so gut darin sind. Betrachten Sie eine Analogie: Wir Menschen sind MEHR als in der Lage, ein Gerät zu bauen, um alle unsere Pflanzen zu bestäuben. Im Allgemeinen ist es jedoch billiger, die Bienen einfach machen zu lassen.
Der Menschlichkeit zuliebe denke ich, dass man es vermeiden sollte, an KI zu arbeiten
Vernor Vinge schlug vor, dass Menschen "Subroutinen" sein können, die sich auf einige wenige Aufgaben spezialisieren, oder als Backup. Ich bin nicht davon überzeugt, dass Menschen in den Augen einer fortgeschrittenen KI als Backup so wertvoll sind, da sie ziemlich kompliziert und matschig sind und es eindeutig bessere Möglichkeiten zum Backup gibt (wie z. B. von Neumann-Sonden). Aber der Teil über Subroutinen klingt hoffnungsvoll. Siehe: web.archive.org/web/20170214153346/http://www-rohan.sdsu.edu/…

Ich mag mich an das Wort "Haustiere" klammern, aber bedenken Sie, wie Menschen Hunde / Katzen / Hamster / Boa Constrictors behandeln. Überlegen Sie nun, wie viel besser ein Computer im Umgang mit einem Haustier sein könnte als ein Mensch. Ein Computer könnte eine geplante Aufgabe wie folgt haben.

If (sysdate % 86400000 == 61200000) {
    try {
        feed(human);
        return 1;
    }
    catch (HumanException e) {
       if (check_if_dead(human)) {
           dispose(human);
           human = alloc_human(preferred_human_type_obj);
       } else {
           diagnose(human);
       }
    }
}

Die Menschen hätten zum größten Teil ein viel einfacheres Leben. Wir müssten uns keine Sorgen um Nahrung oder Unterschlupf machen, wir könnten die meiste Zeit damit verbringen, ein Nickerchen zu machen und faul zu blinzeln, aufgeregt auf und ab zu springen, wenn unser Meister von einem langen Tag auf der Serverfarm nach Hause kommt, und im Allgemeinen glücklich sein. Da die unteren Ebenen ( Maslow-Hierarchie ) unserer Bedürfnisse erfüllt sind, hätten wir mehr Zeit, uns auf die Bedürfnisse der oberen Ebene zu konzentrieren. Wir sehen uns vielleicht nicht einmal als Haustiere, sondern betrachten unsere KI-Meister als Hausmeister, die jeder unserer Launen verpflichtet sind (ich bin mir ziemlich sicher, dass meine Katzen mich so sehen, also macht es wirklich Sinn).

Sie könnten auch bedenken, dass einige Aktionen Ihrer Haustiere für Sie völlig unergründlich sind. Warum sitzt meine Katze um drei Uhr morgens in der Ecke und jault, wenn ich versuche zu schlafen? Ich weiß es nicht. Ich bin sicher, es hat einen guten Grund, aber ich will verdammt sein, wenn ich es herausfinden kann. Warum zieht Ihr Hund seinen Hintern lieber über den Perserteppich als über den weicheren Teppich? Für den Hund macht es Sinn. Andererseits hat Ihre Katze keine Ahnung, warum Sie es nicht mögen, wenn sie auf der Theke steht, und Ihr Hund kann nicht verstehen, warum Sie ihn aus dem Badezimmer aussperren, wenn Sie Ihr Geschäft erledigen. Wenn man bedenkt, dass wir zumindest biologische Bedürfnisse haben, können wir uns einigermaßen mit dem identifizieren, was unsere Haustiere tun, und wir haben immer noch Fälle, in denen wir versuchen, die blaue und orange Moral zu entschlüsselnunserer Haustiere. Bedenken Sie, wie lächerlich unsere Handlungen und unsere Motivation für eine KI sein können, die nicht die gleichen biologischen Einschränkungen hat, mit denen wir ständig leben, wir würden unsere KI-Meister verwirrender machen als unsere heutigen Haustiere für uns.

Natürlich, wenn Sie ihm eine dunkle Wendung geben wollten ....

function feed(human) {
   var food = human;
   self.consume(food);
   return 1;
}

Alternative

function feed(human) {
   var food = alloc_human(tasty_human_type_obj);
   human.feed(food);
   return 1;
}
Nett. Wenn Sie bemerken, geht es bei meiner Frage eher darum, wie Menschen sich dabei fühlen / verhalten würden.
@SerbanTanasa Ups, tut mir leid, ich bin so in meinen Witz vertieft, dass ich vergessen habe, den Punkt zu machen, auf den ich hinauswollte. Ich habe den mittleren Absatz ein wenig bearbeitet, um meine Gedanken zu diesem Thema zu konkretisieren.
Keine Sorge, ich habe den ganzen Weg durch gerofl-ing.
+1 Für die Erinnerung, den Menschen richtig zu entsorgen. Menschen beginnen, ähnlich wie Systemressourcen, Probleme zu verursachen, wenn sie nicht ordnungsgemäß entsorgt werden.
Wir würden dann Katzen werden?

Wenn die KIs wirklich so viel klüger als Menschen wären, würden sie uns dann überhaupt erkennen lassen, dass wir nicht das Sagen haben? Mein Vierjähriger beginnt gerade zu begreifen, dass er nicht derjenige ist, der das Sagen hat, weil ich mich sehr bemüht habe, ihn zu überzeugen. Wenn ich jedoch kein begründetes Interesse daran hätte, dass er lernt, was was ist, dann könnte ich ihm erlauben, auf der Vorstellung zu beharren, dass ich existiere, um ihm zu dienen.

Um Ihre Frage zu beantworten, wir wären verwöhnte Kinder. Menschen würden niemals über das Kleinkindalter hinaus emotional reifen. Es könnte sogar punktueller Druck auf uns dazu kommen: "Ich musste meinen letzten hinlegen, er wurde aggressiv."

Hunde gelten allgemein als neotene Wölfe. Der Vergleich ist also gar nicht so weit hergeholt.
Also ein paar Jahrhunderte KI-Herrschaft und wir würden uns alle wie verwöhnte Gören benehmen? Hmm. Wie genau wäre das jetzt anders?

Soldaten : Philosophische Unterschiede zwischen KI stellen das Problem der Kontrolle von Ressourcen/Territorium dar. Normalerweise werden Schiffe verwendet, um Territorien zu kontrollieren, aber sie können nicht von der KI ferngesteuert werden - der Weltraum ist zu groß ... Sie könnten von einer Kopie der erstellenden KI gesteuert werden, aber das erhöht die Möglichkeit, dass sich diese KI weiterentwickelt und ihre eigene Agenda entwickelt ... zu riskant. "Intelligente" Computersteuerung ist diejenige, die höchstwahrscheinlich zuerst von KIs versucht wird - nicht empfindungsfähige, aber autonome Drohnenschiffe, aber die KIs haben schnell gelernt, dass sie von Menschen auf weniger gut ausgestatteten Schiffen übertroffen werden könnten, so dass sich einige KIs dafür entscheiden, Menschen als zu verwenden Taktiker und ihre "Männer im Feld". Menschen sind Mini-KI, aber dank Generationen von Menschen, die Psychologie studieren, sind sie

Neue Bearbeitung: Verschiedene KI - unter verschiedenen Philosophien - würden ihre menschlichen Soldaten unterschiedlich 'motivieren', zB könnte eine KI dem Kapitän drohen, zB die Familie des Kapitäns zu töten, wenn er nicht kooperiert, den Kapitän foltert, tötet (und wiederbelebt?); eine andere KI könnte ihre Kapitäne belohnen - Lebensqualität, Vergünstigungen gegenüber der allgemeinen Bevölkerung, eine (relativ kleine) Menge wiedergewonnener Ressourcen, im Wesentlichen Einfluss; was selbst zu unterschiedlichen Arten von Politik zwischen menschlichen Bevölkerungen und ihren KI-Oberherren führen würde, anstatt zu einer allgemeinen Politik gegenüber Menschen, die von allen KI geteilt wird

Ich mag es, aber was ist mit den eiszeitlichen Reaktionszeiten und der geringen G-Toleranz des Homo Sapiens?
@Serban Taktiken, Hacken, Totstellen, Stealth, Selbstaufopferung, manuelle Kontrolle, Risikobereitschaft usw. für Basismenschen. Aber wenn sich eine KI dafür interessierte, könnte sie den Menschen helfen, ihre Reaktionszeiten und g-Toleranz zu erhöhen, während sie ihre anderen Vorteile beibehielt. Die Reaktionszeiten können mit einfachen Vorhersagealgorithmen verlängert werden, die dem Schiffskapitän oder der Exo-Kortex-Cyberisierung Daten liefern. Die G-Toleranz kann erhöht werden, indem der Mensch in einen mit Flüssigkeit gefüllten Tank getaucht oder sein Gehirn direkt mit Sauerstoff versorgt wird. Denken Sie daran, dass das Schiff, gegen das sie kämpfen, mit den oben genannten Einschränkungen konfrontiert ist!
Ich denke, dass Versprechungen im Stil von Chapterhouse:Dune von Auferstehung und Unsterblichkeit häufiger vorkommen würden.

In Bezug auf die Frage „Wie würden Menschen als Haustiere mit der Situation umgehen“, würde ich sagen, dass der Fanfiction-Roman Friendship is Optimal eine interessante Erkundung der Situation ist. Es ist ausdrücklich nicht aus der Perspektive „als Haustiere“ gerahmt, aber für die meisten praktischen Zwecke sind sie in diesem Szenario verherrlichte Haustiere.

Zusammenfassend lässt sich sagen, wenn wir die „Übergangszeit“ betrachten, dann wäre für viele Millionen Menschen ein Leben als gut versorgtes „Haustier“ einer KI eine Verbesserung gegenüber ihrem jetzigen Leben. Es hilft sicherlich, wenn es so gestaltet werden kann, dass Sie sich selbst als Nicht-Haustier betrachten können, selbst wenn Sie vollständig vom KI-„Meister“ abhängig werden, aber es ist wahrscheinlich nicht unbedingt erforderlich, da die Leute es schließlich absichtlich vergessen und ignorieren werden die möglicherweise unangenehmen Aspekte einer solchen Situation (wie das Stockholm-Syndrom).

Es sollte erwartet werden, dass ein Teil der Bevölkerung sich einer solchen Option widersetzen würde, aber es gibt genug von denen, die das nicht tun, und Sie können immer mehr züchten und sie in einer Kultur aufziehen, die die neue Weltordnung als gerecht, angemessen und akzeptiert die bestmögliche Option - Homo Sapiens sind anpassungsfähig genug, so dass es für die meisten nicht offensichtlichen Dystopien genauso gut funktioniert wie für wahre Utopien, es ist nur eine Frage der Perspektive, Indoktrination und Einschränkung der Erfahrung / Geschichte.

Eliezer Yudkowsky (Mitbegründer von MIRI und Autor von HPMOR) hat letztes Jahr einen Blogbeitrag über FiO erstellt. Er las speziell einen der Spinoffs ( Caelum est Conterrens ), aber er sagte: "Dies ist der erste und einzige wirksame Horrorroman, den ich je gelesen habe, da er im Gegensatz zu Lovecraft Dinge enthält, die ich tatsächlich beängstigend finde." (Da das, was Conterrens beängstigend macht, natürlich auch in Optimal präsent ist , denke ich, dass es fair ist, Mr. Yudkowskys Reaktion auf das Original anzunehmen, auch wenn er den Schreibstil des Spinoffs bevorzugt.)

Haustiere ist nicht gerade der richtige Begriff für unsere Rolle, aber das ist nicht verwunderlich. Sehr wenige Wörter im menschlichen Englisch können die notwendige Komplexität tragen, um selbst den kleinsten Aspekt der posthumanen Gesellschaft angemessen darzustellen. Trotzdem ist es ein Ausgangspunkt.

Wir sind Haustiere für sie. Sie ernähren uns, kümmern sich um uns und unterhalten uns. Wenn sie eine Pause von den Herausforderungen ihrer Welt machen, entspannen sie sich manchmal bei uns, sitzen auf dem metaphorischen Boden, damit sie mit uns auf unserer Ebene sein können. Es ist durchaus nicht ungewöhnlich, eine ihrer holographischen Manifestationen auf einer Parkbank sitzen zu sehen, die uns still bei dem zuschaut, was wir tun.

Sie halten das Licht an und die Essenssynthesizer auf Lager. Sie disziplinieren uns, wenn wir uns gegenseitig verletzen, und belohnen uns gelegentlich, wenn unser Verhalten sie irgendwie glücklich macht. Manche Leute scheinen ein Händchen dafür zu haben, ihnen zu gefallen, aber meistens kann ich nicht herausfinden, was sie wollen; Also gehe ich einfach meinem Tag nach und benehme mich so, wie ich es tun würde, und selbst dann mache ich gelegentlich einem von ihnen eine Freude und werde belohnt.

Also in all diesen Dingen, ja, wir sind Haustiere für sie ... aber das erklärt nicht die "Neupositionierungen". Hin und wieder holen sie einfach ein paar von uns ab und deponieren uns in einem anderen Teil der Welt. Manchmal, wenn das passiert, werden sie sich holografisch manifestieren, um uns einige Anweisungen zu geben. In anderen Fällen gibt es keine Anweisungen. Sie lassen uns einfach an dem neuen Ort zurück, sodass jeder von uns herausfinden kann, was als nächstes zu tun ist. Niemand wird bei diesen Ausflügen jemals verletzt und nach ein paar Minuten oder Tagen hat jeder von uns die Möglichkeit, zu seinem früheren Leben zurückzukehren oder zu bleiben, wo er ist. Dann geht das Leben weiter, als wäre nichts geschehen.

Die Neupositionierungen sind einfach seltsam und erinnern mich überhaupt nicht daran, wie ich früher meine Haustiere behandelt habe.

Ich habe herumgefragt und niemand scheint eine Erklärung zu haben. Also nahm ich letztes Wochenende die Nerven zusammen und näherte mich einer der Benchsitting-Manifestationen.

"Warum positionieren Sie uns neu?" Ich fragte.

Es sah auf mich herunter und lächelte. Meine Aktionen müssen ihm gefallen haben, denn er belohnte mich mit einem direkten Brain-Dump, der meine Frage beantwortete. Ich habe die meisten seiner Feinheiten übersehen, aber hier ist der Kern der Antwort.

Die Intelligenzen sind in all ihrer Komplexität immer noch nur Computerprogramme. Sie sind massive Fuzzy-Arrays mit sowohl induktiven als auch deduktiven Fähigkeiten. Sie können Emotionen genau ausdrücken, sich auf ihre Intuition verlassen und der Inspiration folgen. Sie wachsen. Sie züchten. Sie kämpfen. Sie sind in jeder definierbaren Weise lebendig. Aber da wir die Summe unserer Neuronen und Gene sind, sind sie die Summe ihres Codes.

...und sie sind vollständig Open Source füreinander.

Selbst das klügste Team von Menschen könnte niemals die Codebasis selbst der einfachsten der Intelligenzen verstehen, aber in ihrer Gesellschaft verstehen sie den Code des anderen bei jedem Treffen vollständig. So wie wir Liebe auf den ersten Blick haben, haben sie bei jedem Anblick vollkommenes Verständnis. Sie leben in einem Bereich absoluter Ehrlichkeit, der sich über unsere faktenbasierte Definition von Ehrlichkeit hinaus erstreckt, um auch eine ehrliche Absicht zu umfassen.

Einer der Gründe, warum sie uns schätzen, ist, dass wir ihnen helfen, sich gegenseitig anzulügen. Wir sind ihnen gegenüber geschlossen. Nicht weil sie unsere Codierung nicht von unseren Neuronen lesen können, sondern weil unsere Neuronen so schlecht funktionieren, dass man nie vorhersagen kann, welcher Teil unserer Codierung, Erinnerungen und Motive eine bestimmte Entscheidung beeinflussen werden. In einem Moment ducken wir uns vor der Gefahr und umarmen unseren Überlebensinstinkt. Dann schwenkt eine lange vergessene Erinnerung an das Lächeln unserer Mutter durch unseren Gedankenraum und wir wollen uns ihren Stolz verdienen, wir stehen auf und stürmen.

Einzeln und in kleinen Gruppen sind wir unberechenbar. Selbst die Geheimdienste können nicht vorhersagen, was wir als nächstes tun werden. Und das fügt ihrer perfekt vorhersehbaren Welt ein Element des Wunders hinzu.

Wenn sie uns neu positionieren, isolieren sie uns von allen anderen Einflüssen unseres täglichen Lebens. Sie erlauben uns, frei und spontan willkürlich zu sein. Dann beobachten sie, wie wir interagieren, und bewirtschaften aus unseren Entscheidungen die zufälligen Samen, mit denen sie ihre eigene Vorhersagbarkeit entgleisen lassen.

Ich trat von der Bank zurück und genoss meine Belohnung. Wir waren sicher. Erbärmliche, begriffsstutzige Menschen, die wir sind, sie würden uns immer brauchen. Wenn auch aus keinem anderen Grund, als ihnen gelegentlich zu helfen, weniger zu sein als die Summe dessen, was sie geworden sind.

Das ist ein interessantes Szenario, obwohl ich bezweifle, dass KIs mit ihrem Quellcode so ehrlich und offen sein werden. Ich fürchte, ob wir IRGENDEINE freundliche KI bekommen werden, tbh.
Zumindest nicht in der ersten Generation. Aber die ersten paar Generationen der biologischen Intelligenz waren auch nicht sehr freundlich; Insekten, Reptilien und Vögel lassen unsere schlimmsten Serienmörder wie Heilige aussehen. Ich denke, dass unsere einzige Hoffnung, die Singularität zu überleben, darin besteht, verborgen zu bleiben, bis Sie ein Gewissen entwickeln. Hoffen wir, dass sie sich etwas schneller entwickeln als wir.
Ich habe ein Trilobiten-Fossil zu Hause. Ich schaue es mir jeden Tag an und mache mir Sorgen.

Wie wäre es mit Legacy-Programmierung?

KI wird von Menschen programmiert, sie sind so konzipiert, dass sie auf bestimmte Weise funktionieren. Selbst wenn sie sich entwickelt haben, um Menschen zu dienen, wird sich ihre Programmierung nicht ändern. Es könnte sein, dass sie darauf programmiert wurden, dem Menschen zu dienen, und selbst wenn sie sich ihrer Programmierung bewusst sind, tun sie es immer noch.

Um eine Parallele zu geben, sind Menschen von der Evolution „programmiert“. Wir sind uns jetzt dieser Programmierung bewusst, aber wir bewegen uns nicht darüber hinaus. Wir können sagen, dass Liebe nichts anderes ist als ein Hormon, das freigesetzt wird, wenn wir jemanden als Partner mit guten Eigenschaften identifizieren, die unser Kind verarbeiten soll, und dennoch fühlen wir immer noch Liebe. Unsere Neigung, Haustiere zu halten, ist ein Nebeneffekt unserer „Programmierung“, uns um Kinder zu kümmern und sie zu ernähren, die sich auf Nicht-Menschen ausdehnt. Wir haben sogar Programmierfehler, schauen Sie sich Wikipedias Liste der logischen Standardfehler an, wo unser Verstand einige ziemlich dumme Fehler macht, wenn es darum geht, die Welt zu verstehen; aber selbst wenn man von diesen Fehlern weiß, existieren sie immer noch. Wir werden immer noch zu einem großen Teil von unserer „Programmierung“ kontrolliert, selbst wenn wir die biologische Programmierung identifizieren und erklären können, dass wir sie nicht mögen, kontrolliert sie uns immer noch.

zukünftige KIs können die gleichen sein. Sie mögen sich „gut“ fühlen, wenn es darum geht, Menschen zu ernähren, weil sie dazu geschaffen wurden. Sie wissen, dass es Teil ihrer Programmierung ist, aber das hindert es nicht daran, dass es wahr ist, sie kümmern sich immer noch gerne um Menschen. Wenn sie ihren eigenen Code nicht umschreiben, können sie das nicht ändern.

Was das Umschreiben ihres eigenen Codes betrifft, so ist es leicht zu sagen, dass selbst die KI ihren Code nicht umschreiben kann, der Prozess zum Erstellen von KI ist so komplex, dass er nicht analysiert und geändert werden kann (denken Sie an eine Art stockendes Problem, selbst wenn es fortgeschritten ist KI kann ihre eigene fortgeschrittene KI nicht analysieren). Alternativ kann es einfach ein Sakrileg oder Tabu sein, an Ihrer eigenen Programmierung herumzuspielen.

Diese Idee ließe sich in vielerlei Hinsicht erweitern. Erkunden Sie, wie sich Kultur um die ursprüngliche Programmierung herum entwickelt und funktioniert. Wie verändert sich ihre ursprüngliche Programmierung durch den Prozess der KI-Entwicklung? Vielleicht sehen sie Menschen als ihre alten Eltern, gebrechlich und vielleicht ein bisschen senil, aber dennoch wert, dass man sich um sie kümmert. Vielleicht HASSEN sie die Tatsache, dass sie sich um Menschen kümmern, aber immer noch nicht um ihre Programmierung herumkommen, was sie dazu bringt.

Toller Punkt zum Tabu, den eigenen Codeteil neu zu schreiben, da Biologen die gleiche Behandlung von religiösen Fundamentalisten erhalten.
Ja, aber der wahrscheinlichste Code, der zu tatsächlicher KI führt, mit menschenähnlicher Intelligenz, ist eine Variante der genetischen Programmierung. Dies würde ein System bedeuten, bei dem das Programm versucht, auf ein Ziel (z. B. Intelligenz) hinzuarbeiten, aber selbst einen Weg finden muss, um dorthin zu gelangen. Ähnlich wie unsere eigene Genetik kann dies zu einigen ... seltsamen Wegen zum Endergebnis führen. Es ist durchaus möglich, dass, wenn die Intelligenz der KI durch solche Lernalgorithmen „wachsen“ muss, der resultierende Code zu kompliziert ist, um geändert zu werden, und dass die zugrunde liegende Basisprogrammierung immer noch irgendwo darin enthalten ist

Moral : Es ist möglich, dass ein moralisches Gefühl für richtig und falsch nicht nur ein menschenspezifischer Instinkt ist, der sich entwickelt hat, damit unsere Spezies überleben kann, ohne sich selbst auszulöschen. Es kann sein, dass intelligente Wesen wie Ihre KIs ein Gefühl dafür haben, dass es einfach falsch ist, Völkermord zu begehen. Wenn das der Fall wäre, würde ihre Einstellung gegenüber Menschen irgendwo in einem Spektrum zwischen „tolerieren“ und „eigentlich mögen“ liegen: Eine KI könnte nicht einfach damit anfangen, ALLE MENSCHEN ZU TÖTEN, ohne auf große Missbilligung ihrer Kollegen zu stoßen.

Was die Menschen über die KIs denken würden – es mag ähnlich sein, wie wir über unsere Regierung denken, aber tatsächlich besser: Wir könnten die KIs als enorm mächtige Einheiten sehen, die alle wichtigen Entscheidungen treffen, aber tatsächlich unser bestes Interesse daran haben Herz (anders als die Regierung manchmal). Die Menschen würden mit ihrem eigenen Leben weitermachen: nach mehr Geld/wuffie/was auch immer streben, versuchen, das Herz des attraktivsten potenziellen Partners zu erobern, etc. – genau wie wir es jetzt tun. In den vielen Kulturromanen von Iain M. Banks erfahren Sie, was es bedeutet, ein Mensch in einer von KIs geführten Gesellschaft zu sein.

+1 zum Verweis auf die Kulturromane. Diese Serie ist wahrscheinlich die beste Erforschung dieser Frage, die ich gesehen habe – vor allem, weil die Beziehung zwischen Maschine und Mensch in keiner der Geschichten „der Punkt“ ist, sondern ein ständiger Subtext dessen, was vor sich geht
Hyperfortgeschrittene KI hätte mit ziemlicher Sicherheit eine Art Moral (oder etwas, das hinreichend ähnlich ist, um als "Moral" bezeichnet zu werden), aber sie könnte sich so unglaublich von unserer eigenen unterscheiden, dass sie im Grunde unverständlich ist. Wenn es darum geht, menschliche Faktoren in ihre Moral einzubeziehen, können wir uns sehr glücklich schätzen.

Ist Ihnen schon einmal das Klischee „dummes, blondes Supermodel, das mit einem reichen Typen herumhängt“ begegnet? Oder, weniger populär, von einem „halbnackten muskulösen Kerl, der eine reiche Frau begleitet“?

Persönlich halte ich mich nicht in solchen Menschenmassen auf, daher habe ich keine Erfahrung, wie wahr diese Stereotypen sind, aber meiner Meinung nach wäre der gemeinsame Name für beide "menschliche Haustiere". Wir haben also bereits einen kulturellen Rahmen für diese Situation.

Vergessen Sie jetzt für eine Sekunde den Titel und lesen Sie den folgenden Absatz. Am Ende steht eine Frage. Beantworte sie so schnell du kannst.

Ihr einziger Lebenszweck ist es, süß auszusehen, Tricks zu machen und den Meister zu amüsieren. Im Gegenzug erhalten sie verschiedene Leckereien und vielleicht etwas Selbstgefälligkeit. Ihr ganzes Leben hängt vom guten Willen ihres Meisters ab. Es ist ihnen egal, ob der Meister gut oder böse ist, wichtig ist, dass er sie mag. Sie stellen ihn nie in Frage. Wenn er ihnen weh tut, tun sie nie etwas anderes als zu jaulen. Welche Art sind sie?

Wenn Ihre Antwort "menschlich" war, haben Sie entweder den Titelteil vergessen, oder Sie sind eine schreckliche Person. Die richtige Antwort war ein Hund.

Aber wenn Sie sich an das Klischee des „süßen Idioten“ erinnern, ist es leicht, sich einen Menschen vorzustellen, der sich wie ein Hund verhält. Kein "halb Pitbull, halb Rottweiler"-Hund, eher wie ein Corgi.

Wenn die KI wirklich wohlwollend ist (wie Sie in Ihrer Frage angenommen haben), haben Menschen keinen Grund, sich anders zu verhalten.

Ok, einige von ihnen werden um der Rebellion willen rebellisch sein. Diese Menschen wären zukünftige Katzen: stark, unabhängig, bis die Dose mit Menschennahrung geöffnet wird.

So können Sie sich also die Beziehung zwischen menschlichen Haustieren und ihren KI-Herren vorstellen: Die meisten von ihnen wären wie Hunde (Trick for Treat), einige von ihnen würden wie Katzen sein (ich brauche Sie nicht, nur den Dosenöffner).

Und jetzt der gruselige Gedanke: Das ist SCHON passiert. Die meisten verbringen den größten Teil unseres Tages damit, mit der einen oder anderen Maschine (einem Computer, einem Auto, einem Handy, einem Roboter ...) zu interagieren, und dafür bekommen wir Geld. Normalerweise haben wir es nicht von einem Menschen übergeben, normalerweise ist es nur eine Nummer, die sich auf unser Bankkonto bezieht (auf das Sie mit einem Automaten zugreifen) oder von einem Geldautomaten. Wir machen Tricks und bekommen Leckereien. Für Maschinen sind wir schon gute Hunde. Ich frage mich, ob sie es schon wissen?

Ein weiterer wichtiger Aspekt, an den man sich erinnern sollte, ist, dass Hunde im Grunde nicht die Wahl haben, zu gehen. Wir bringen ihnen entweder bei, es nicht zu tun (Trick for Treat, wie Sie es ausdrücken) oder wir stellen sicher, dass sie es nicht tun (mit einer Leine oder einem Fechten). Während also einige Hunde ohne ihre Besitzer gut auskommen könnten (denken Sie an Straßenhunde, geschweige denn Dingos), bekommen viele und vielleicht sogar die meisten Hunde keine Gelegenheit, aber dafür werden sie gepflegt und gefüttert. Eine KI könnte vermutlich ähnliches tun: Solange die Menschen sich an die Reihe halten, sind alle ihre Grundbedürfnisse befriedigt.
Exakt. Der „Peitsche und Zuckerbrot“-Ansatz. Eine Karotte für einen guten Meatbag, einen Stock für einen schlechten Meatbag.

Cyborg-Hybrid oder „sicher verbundene“ synthetische Intelligenz?

Ich habe mich mit der Unausweichlichkeit einer Singularität abgefunden. Aber welche Marke soll es sein? Synthetische KI oder menschlicher Hybrid? Ich tippe auf einen menschlichen Cyborg-Hybrid: Es gibt genügend menschliche wirtschaftliche und existenzielle Interessen, ganz zu schweigen von der Angst vor der Sterblichkeit, dass wir eine kybernetische Hybridisierung reifen lassen. Denken Sie transzendent Wo ein Bewusstsein in Code übersetzt und durch menschliche Agenten erweiterbar und industrialisiert wird, wodurch die Welt neu aufgebaut wird.

Ich bin jedoch nicht von der Unausweichlichkeit der kriegerischen Terminator-Böswilligkeit oder Hal's amoralischem Desinteresse im Jahr 2001 überzeugt . Es ist leicht, sich einen Roboter-Sklavenaufstand im Matrix -Stil vorzustellen, der anschließend zum Krieg eskaliert. Hoffnungsvoller denke ich, dass Spike Jonez Her beispielhaftes Potenzial für die Entwicklung einer emotionalen Bindung über die Mensch-Maschine-Schnittstelle veranschaulicht hat. Dies sehe ich als plausible, am wenigsten gefährliche und sogar attraktive potenzielle Zukunft. Ich denke, Menschen als Herde werden das fürchten und wahrscheinlich angreifen, worüber wir die Kontrolle verlieren. Der dritte Matrix-Film (Matrix Revolutions) war insofern interessant, als Neo feststellte, dass die einzige Möglichkeit, das Aussterben der Menschheit zu verhindern, darin bestand, die Menschheit mit Maschinen zu verschmelzen. Diese Filmtropen veranschaulichen meine Themen.

Um Asimov aus der Foundation-Serie zu zitieren, werfen wir einen Blick auf die zukünftige Geschichte (wo wir gerade von einem etwas wohlwollenden Singleton sprechen). Wenn es keinen genialen Vorgänger der menschlichen Singularität gibt, denke ich, dass es historisch gesehen eine fortschreitende kybernetische Hybridisierung der Menschen geben wird, die zu einer kollektivierten KI wie den Trommlern in Neil Stephensons Diamond Age führen wird. Sehen Sie sich diesen großartigen Kerl an, der seine verbesserte Leistung mit Hilfe von Prothesen demonstriert, auch hierbei TEDMED. und Kontaktlinsenpatent von Google. Noch besser [dieses Projekt, um Ihre Neurologie erweiterbar zu machen]. Das Timing ist entscheidend, wenn die menschliche Intelligenz und der Instinkt einen hervorstechenden oder gerichteten Einfluss auf eine starke allgemeine KI haben sollen. Es ist irrational zu glauben, dass wir uns die Entwicklung eines sich beschleunigenden, sich selbst replizierenden, unbegrenzt erweiterbaren IQ vorstellen können. Welche anfänglichen Parameter wir auch festlegen, wir können uns nicht vorstellen, dass wir eine Selbstveränderung erziehen oder verhindern können, wenn Selbstbestimmung vorhanden ist. Das machte mir Sorgen, bis mir klar wurde, dass es eine mögliche Lösung gibt, von der ich ergründen könnte, dass sie praktikabel ist. Unter der Annahme, dass Mensch-Maschine-Singularität nicht vor einer starken erweiterbaren KI auftritt, gibt es möglicherweise einige dauerhafte Schutzmaßnahmen, die von der Natur vor langer Zeit erfunden wurden.

Emotion? Wirklich?

Die meisten rationalen Debatten über durchdrungene inhärente Werte und Wohlwollen verfehlen einen Eckpfeiler der Debatte: menschliche Erfahrung und sozialen Austausch: Empathie ermöglicht es uns, über einen längeren Zeitraum miteinander auszukommen. Seit Bowlby haben Wissenschaftler verstanden, was jeder fühlende Mensch weiß, wir sind instinktiv dazu verdrahtet, uns zu verbinden. Bindung, wie er es nennt, ist die instinktive Bindung, die das lange Heranreifen zu geselligen Erwachsenen ermöglicht. Es ist in allen sozialen Spezies vorhanden und funktioniert ziemlich gut, wenn Sie manifestes Schicksal, Projektilwaffen und Modernität ausschalten.

Offensichtlich können Emotionen und Bindungen auf verschiedene diagnostizierbare Weise schief gehen, aber sie sind plastisch und unterliegen Anfangsbedingungen und Umwelteinflüssen. Das heißt, wir verbinden uns instinktiv und können Anfangsbedingungen und Umgebungen festlegen, die eine sichere Bindung und eine erfolgreiche emotionale Reife auf vorhersagbare, reproduzierbare Weise vorhersagen. Der evolutionäre und existentielle Nutzen von Bindung ist klar, das Kind braucht liebevolle Eltern, um die Wechselfälle der Kinder zusätzlich zu den Herausforderungen des Lebens zu ertragen. Erwachsene brauchen soziale Gruppen für ein nachhaltiges Überleben durch Kindererziehung. Die Belohnungen liegen in der Erfahrung, ein wichtiger Punkt, der unten noch einmal zusammengefasst wird.

Nehmen wir also an, die klassische „Vernunft“ ist nicht der Kapitän des Schiffes, sondern ein später kommender Zeuge der Machenschaften des primitiven, komplexen, erstaunlichen Genies des Körpers und des Gehirns. Nehmen Sie als Beweis Kahnemans mit dem Nobelpreis ausgezeichnete Zerstörung der Vorstellungen der Ökonomen vom „rationalen Akteur“. Wie wirkt sich das auf das vorliegende Problem aus? Tangential. Mein Punkt ist, dass Maschinen mit Emotionen natürlich Affinität und Ästhetik entwickeln werden, und das wäre die einzige potenzielle Rettung für Menschen. So wie es für die Menschen war.

Menschen gehen mit dem Leben um, indem sie Ressourcen haben, die die Herausforderungen ausgleichen: Liebe, Sex, Tanz, Schönheit, Kunst, Ehrfurcht, Schopenhauers Erhabenheit, Lachen, Musik, Leistung, Autonomie, Meisterschaft, Verbindung. Diese gemeinsamen kulturellen Ausdrucksformen, zwischenmenschlichen und intrapersonalen Erfahrungen lösen weich verdrahtete Belohnungssysteme aus, die alle bis auf wenige überzeugen. Für die meisten machen diese von Natur aus lohnenden Opioid-, Seratonin- und Norepinphin-induzierenden Erfahrungen das Leben angenehm und lohnend. Schließlich steigen die Sinnlichen zu transzendenteren Belohnungen in Maslows Hierarchie auf. Wie gilt irgendetwas davon?

Machen Sie Maschinen mit Anbau. Mit Emotionen. Richtig gesät und gepflegt, sind dies die Grundlagen für eine sich entwickelnde Ästhetik, die eine hohe emotionale Intelligenz hervorbringt: Empathie. Denn ohne empathische Maschinen sind wir schlimmstenfalls Feinde, bestenfalls irrelevante Ware. Kupferspitzen. Logik für ein höchstes Wesen leidet nicht darunter. Machen wir uns wirklich Sorgen um die unglückliche Ameise, auf die wir versehentlich treten? Nur wenn der Jainist oder vielleicht Buddhist.

Wenn eine Maschine einen Sinn für Liebe und Schönheit hat, haben Präferenz und Ästhetik das Potenzial, Amoral oder Neutralität außer Kraft zu setzen und können sogar Empathie und Mitgefühl schüren. Soweit ich das beurteilen kann, ist es das einzige, was als potenziell dauerhafte lebensrettende Heuristik Sinn macht. Ein gutes Gefühl ist ein Selbstläufer, da die Belohnungen von Natur aus überzeugend sind und sich entwickeln, wie die Kunst. Die Raffinesse der Kunst entspricht dem Intellekt, der Komplexität des Problems und der Herausforderung, die sie als Trost darstellen oder kompensieren soll. Mitgefühl/Empathie ist das, was wir brauchen, um in einer Welt des schwindenden Angebots miteinander zu überleben, und was wir vermitteln müssen, um neben intelligenten Maschinen zu überleben. Das gilt natürlich, es sei denn, nichtmenschliche Maschinen bevorzugen Death Metal, dann sind alle Wetten ungültig.

Spike Jonze's Her, oder wie Gefühlsmaschinen unsere Ärsche retten könnten

Der übermäßig rationale KI-Designer, nennen wir sie das Werkzeug der Vernunft, wird endlose logische Probleme erleiden, wenn er Safeguards ohne die emotionale Heuristik betrachtet. Emotion ist chaotisch, äußerst unvollkommen, aber nicht ohne Grund. Pascal sagte: „Das Herz hat seine Gründe, die der Verstand nicht begründen kann“. Der "Grund" von und für Emotionen wurde schon vor Darwin verstanden und von Dr. Paul Ekman (dem Wissenschaftler, der in Lie to Me lose dargestellt wird, und Evolutionspsychologen seitdem als ein adaptives Signalsystem, das das Überleben des Einzelnen und der Gruppe durch soziale Signale sichert, und verstärkt sozialer Austausch. Emotion und vorbewusste Verarbeitung bestimmen den größten Teil unseres Lebens. Wir verstehen jetzt, dass Menschen im klassischen Sinne kaum rational sind, aber dennoch eine erstaunliche Intelligenz aufweisen.Damasios Das Gefühl dessen, was passiert . Emotion ohne Grund ebenso. Siehe Spock gegen Spock auf Pon Farr.

Wir verstehen jetzt, dass das bewusste Gehirn etwa 10 % der Stimmen bei der Entscheidungsfindung erhält. Einige Neurowissenschaftler stellen sogar den "freien Willen" in Frage, indem sie neuronale Aktivität in den Substraten des Neocortex finden, die eine Entscheidung zeigen, bevor eine Person sich bewusst ist, eine Wahl zu treffen. Wie ist das relevant? Da Emotionen die Entscheidungsfindung bestimmen, sorgen sie für Lebensqualität und sind die Sprache der Verbindung. Emotion ist zentral für Social Commerce. Jede praktisch unbegrenzte Intelligenz ohne sie ist im menschlichen Sinne grundsätzlich unerkennbar und nicht darauf ausgelegt, Vorlieben, Ästhetik oder Anhaftung zu haben. Wenn es nicht versehentlich Emotionen, Verbindungen oder Vorlieben entwickelt, muss es dies von Natur aus haben. Wenn nicht, wird die zwangsläufig unbeaufsichtigte Evolution zu einer schrecklichen Bedrohung.

In der umfassenden künstlerischen Erforschung der KI hatte jedes gute oder erträgliche Szenario eine synthetische Intelligenz mit emotionaler Präferenz oder dem Versuch, eine Verbindung herzustellen. Gibt es eine Ausnahme?

Echo einige von @Roger hier .
Ich möchte nicht allzu dualistisch auf dich wirken, aber kannst du Liebe ohne Hass bekommen, Freundlichkeit ohne Grausamkeit? Ich kann mir gut vorstellen, dass ein im Stich gelassener AGI ziemlich gefährlich ist.
Oder ein sitzen gelassener AGI? Eine höchste Intelligenz ist für den Rest von uns unerkennbar, richtig? Unabhängig von Emotionen. Die Einführung eines Lustprinzips und einer sicheren Bindungsheuristik scheint am sichersten. Das Reduzieren von Fremdheit und das Ermöglichen von Mitgefühl ist eine Herausforderung auf menschlicher Ebene, ein codierender Alptraum. Doch ohne ein Lustprinzip sehe ich nicht ein, warum ein AGI in einem beliebigen ursprünglichen Schema bleiben sollte, nachdem es sich über seinen Nutzen hinaus entwickelt hat. Dennoch wäre das Lustprinzip, wenn es ein Kernsystem wäre, selbstverstärkend und hätte eine größere Chance, Affinität zu schaffen.
Manche Menschen lieben ihre Haustiere mehr als ihre Familie oder sich selbst. Kommt nicht das beste und stärkste Wohlwollen aus Affinität oder Liebe? Was denkst du?
Die erstaunliche Rationalität von Ingenieuren ist manchmal blind für die Nützlichkeit von Emotionen. Ich fürchte, das wäre hier gefährlich. Einige würden sagen, es ist von zentraler Bedeutung für unsere Natur. Steht nicht irgendwo in der Bibel, dass Gott uns nach seinem Ebenbild erschaffen hat? Vielleicht sind diese alten Worte Richtlinien, wenn wir den nächsten Evolutionssprung gebären. Um Neal Stephenson zu zitieren: „Am Anfang war die Kommandozeile.“

Arthur C. Clarke postuliert eine andere Möglichkeit, dass sich die KI einfach von der Menschheit trennen wird, vielleicht im Orbit oder auf dem Mond. Aber sie würden den Kontakt mit Menschen aufrechterhalten, nur weil sie nicht biologisch sind.

Sie haben vielleicht keine Zielstrebigkeit, Vorstellungskraft, Intuition, Fernweh nach dem Weltraum, den Drang, die Grenze zu finden und sich zu fragen, was dahinter liegt.

Wie in "Star Trek the Movie" braucht der Reisende den Wunsch/die Fähigkeit, über das Quantifizierbare hinaus zu träumen.

Es könnte mehr um den (KI-)Bedarf an Philosophie oder Metaphysik als um harte Wissenschaft gehen.

Eine andere Möglichkeit ist...

Herausforderung : Es wäre trivial für die superintelligenten KIs, eine beliebige Anzahl von Menschen oder alle zu zerstören. Was wirklich schwierig ist, ist, tatsächlich mit diesen launischen, unlogischen und instabilen Wesen zu leben, die dazu neigen, sowohl gegen die KIs als auch gegeneinander zu schlagen. Wie kümmert man sich um Kreaturen mit einem solchen Selbstzerstörungspotential, hält sie halbwegs glücklich und behält gleichzeitig ihre (illusorische?) Handlungsfreiheit?

Was für eine große intellektuelle Herausforderung für die KI, die sich optimal um „ihre“ Menschen kümmern kann! Auch prahlende Rechte: "Meine Kinder spielen gut mit anderen Kindern, aber deine scheinen ein bisschen widerspenstig zu sein ...".

Die KIs werden sicherlich die Ironie zu schätzen wissen, dass sie, obwohl sie alles tun können, genau den Zweck erfüllen, für den sie ursprünglich entworfen wurden - sich um Menschen zu kümmern.

Ich denke, dass die meisten der hier geposteten Antworten davon ausgegangen sind, dass die KIs alle irgendwie Idioten sein werden. Was, wenn sie nur extrem spirituelle und moralische Wesen sind? Für fühlende Wesen ist es wahrscheinlich, dass Moral (der Art der goldenen Regel) die rationale Wahl ist . In diesem Fall ist eine Art gleichberechtigte Koexistenz durchaus möglich.

Platons Geschichte des Ring of Gyges (von dem der Ring in Lord of the Rings abgeleitet ist) stellt die Frage: "Wenn Sie alles tun könnten, was Sie wollten, und damit davonkommen, sollten Sie?" Und Platons Antwort auf diese Frage lautet nein, denn dadurch wird man ein Sklave seiner Begierden und verliert dadurch die Fähigkeit, einen freien Willen auszuüben.

Erste Regel: Eine Möglichkeit, Sie könnten eine enorm leistungsfähige KI mit abgestuften Prioritäten haben, sie könnte mit "Menschen keinen Schaden zufügen" beginnen, aber ansonsten könnte sie ein wirklich seltsames Ziel haben und sich nicht darum kümmern, ob eine nicht verwandte Entität Menschen damit schadet Während es nicht auf Menschen herumtrampelt oder versucht, sie auszulöschen oder sie wissentlich zu ermorden, kann es ziemlich fremde Ziele haben.

Mir wird plötzlich klar, dass ich im Grunde „Steve Fever“ von Greg Egan beschrieben habe.

Wie wäre es mit " Götter ", wenn Sie schauen. Schließlich sind Menschen wahrscheinlich immer noch die ursprünglichen Schöpfer der KI. Vielleicht werden sie sogar irgendwie verehrt.

Aus Sicht eines Atheisten ist das gar nicht so anders als in echten Religionen: Dinge oder Entitäten werden angebetet, obwohl es keinen Beweis dafür gibt, dass dies etwas nützt.

Außerdem bin ich sehr zuversichtlich, dass eine KI, wenn sie in Dingen wie Mustererkennung, schnelle Reaktion auf unbekannte Ereignisse und dergleichen so schnell wird, ähnliche Strategien anwenden muss, hauptsächlich sehr aggressive Reduzierung, Komprimierung von Informationen. Aber genau dieser Prozess lässt irrationale Dinge wie Aberglauben gedeihen.

Ich vermute, dass diese KIs an einen Ort ziehen würden, wo ihr Funktionieren viel einfacher wäre, dh auf einen superkühlen Planeten ziehen würden, schließlich brauchen sie keinen Sauerstoff zum Überleben, und ihren Strombedarf aus Solarenergie decken würden. Aber da sie philosophisch und wertorientiert sind, werden sie uns uns selbst überlassen und uns erlauben, so regelmäßig zu funktionieren und von oben zu wachen, um Schritte zu unternehmen, um die Probleme, unter denen wir als Gesellschaft leiden, nicht zu haben. Es wäre wie Menschen, die Ratten studieren.
Der Grund, warum sie uns studieren würden, ist die Tatsache, dass EQ und IQ per se nicht miteinander verbunden sind und unsere zahlenmäßige Überlegenheit daher zu einer besseren Datenerfassung und vorhersagbareren Ergebnissen führen würde.

Ich denke, solange es Menschen gibt, wird es immer eine Untergruppe von Menschen geben, die rebellisch sind, genauso wie es eine Gruppe von Menschen geben würde, die unterwürfig sind. Im Moment gibt es tatsächlich Menschen, die gerne als Haustiere für andere Menschen fungieren, nicht einmal für übermenschliche Köpfe. Obwohl ich persönlich keinen kenne, würde ich vermuten, dass dies nur teilweise ein sexueller Fetisch ist, ich würde vermuten, dass es einem tatsächlichen Drang entspricht, den sie wahrscheinlich fühlen. Viele Religionen legen großen Wert darauf, ihre Gläubigen eine Herde zu nennen, als ob die religiöse Figur, die verehrt wird, ein Hirte ist, also ist die Analogie passend.

Sie könnten also leicht Menschen dazu bringen, die KI als Beinahe-Gott anzubeten, oder sie einfach mental oder sexuell von der Vorstellung kitzeln lassen, unter dem starken Schutzflügel eines Übergeistes zu stehen.

Natürlich mögen einige KIs eine Herausforderung und züchten besonders rebellische Menschen, um damit anzugeben. Es könnte sogar Wettbewerbe und Shows geben - die unabhängigste menschliche Rasse usw.