Warum brauchen kriegführende KIs Menschen?

ANMERKUNG: Dies findet in einer fernen Zukunft auf der Erde statt.

Zwei KIs kämpfen im Sonnensystem gegeneinander. (Obwohl dies irrelevant sein mag, können sie das Sonnensystem nicht wirklich verlassen, da ihnen FTL fehlt. Ich werde mehr darüber erklären, wenn ich gefragt werde). Obwohl sie KIs sind, wurden sie darauf trainiert, wie Menschen zu handeln, und ihre Hauptmotive sind Gier und Machtgier. Beide haben Zugang zu riesigen Armeen und unglaublich fortschrittlichen Technologien.

Sie haben viele Planeten und Asteroiden und dergleichen terraformiert, um menschliches Leben zu erhalten.

Da Roboter und andere nicht-biologische Soldaten so viel ressourceneffizienter sind (schließlich brauchen sie keine Nahrung, keinen Sauerstoff, keinen Schlaf und nur minimales Training), könnte man meinen, dass man eine Soldaten-Subroutine einfach aus dem Internet herunterladen kann !!]) mächtig und einfacher zu produzieren, werden Menschen schnell obsolet! !

Aber wir sehen, das ist nicht wahr! Es gibt Milliarden von Menschen auf der ganzen Erde, auf dem Mars, Merkur und vielen Asteroiden und Monden.

Warum unterhalten die KIs so große, unnötige Populationen von Menschen?

ANMERKUNG: Eine mögliche Antwort könnte lauten: Die KIs wollen, dass Untertanen herrschen. Diese Antwort ist leicht abzulehnen, da die KIs einfach ein paar hundert Menschen in einer Art kryogenen Stasis zurücklassen und sie aufwecken könnten, um die Menschheit nach Kriegsende wieder aufzubauen.

Außerdem bin ich mir nicht sicher, ob ich die richtigen Tags habe. Wenn ich die falschen habe, zögere nicht, mich wissen zu lassen…

KIs, die nur mit Robotern kämpfen, lernen schnell, sich gegenseitig Bewegungen vorherzusagen. Während Menschen unberechenbar sind.
"Sie wurden darauf trainiert, sich wie Menschen zu verhalten", und niemand dachte damals: "Was könnte möglicherweise schief gehen?" Wenn ich diese Geschichte lese, werde ich mich über dieses mysteriöse Detail der Hintergrundgeschichte wundern :) (Es ist natürlich nicht nötig, es zu erklären. Wahrscheinlich ist die Antwort, dass viele Leute das gedacht und gesagt haben und ignoriert wurden!) - und keine richtige Antwort darauf Ihre Frage, aber wenn die KI auf einer menschlichen Persönlichkeit basiert (einmal eine tatsächliche Person), kann die Antwort sentimentale Gründe sein. Aber ich glaube nicht, dass das zu deiner Art von reiner KI passt.

Antworten (18)

Ihr primäres Ziel ist die Kolonisierung und Erweiterung des Lebensraums für "ihre" Menschen

Der ursprüngliche Zweck der KIs war es, das Territorium der Nation / Organisation / Firma zu erweitern, die sie gebaut hat. Das gesamte verfügbare Territorium wurde jedoch irgendwann beansprucht (vielleicht von anderen KIs, die längst besiegt wurden), und jetzt besteht die einzige Möglichkeit zur Expansion darin, das Territorium von den Feinden zu erobern.

Die menschlichen (zivilen) Populationen des Gegners stellen keine Bedrohung für die KI dar, könnten sogar Ihre werden, wenn sie erobert werden, und World-Cracker-Waffen und andere Massenvernichtungswaffen neigen dazu, die menschliche Bewohnbarkeit für lange Zeit zu beeinträchtigen. Daher ist die Menschheit in der Lage zu überleben und in gewisser Weise sogar zu gedeihen, während der Himmel von automatisierten Waffen erleuchtet wird, die sich selbst in Stücke schießen.

Die Kernwelten beider "Imperien" sind stark befestigt und nehmen nur Andeutungen des Konflikts wahr. Auf der anderen Seite müssen Asteroidenkolonien an den Grenzen des umkämpften Gebiets mit Energieentladungen und einstürzenden Trümmern fertig werden und häufig ihre Loyalität wechseln, was sich auf die Lebensbedingungen dort auswirken kann oder auch nicht.

Bevölkerung ist, wie sie die Punktzahl zählen.

Menschliche Gehirne als Prozessoren

Beide KIs haben eine Methode entwickelt, um das menschliche Gehirn zu nutzen, um ihre eigene Intelligenz zu verbessern, indem sie die Neuronen des Gehirns stimulieren und lesen, indem sie sie verwenden, als wären sie zusätzliche Kerne in einem massiven Multicore-Prozessor. Nehmen wir an, die KIs brauchen die Menschen am Leben, um diese Methode anzuwenden. Mit anderen Worten, sie nutzen diese Gehirne, um ihre eigene Intelligenz / Rechenleistung zu verbessern, wodurch sie das Verhalten der gegnerischen KI genauer strategisch planen und vorhersagen können. Sie erstellen Menschengehege, um weitere Menschen zu züchten, die sie dann für mehr Rechenleistung nutzen können.

Warum nicht stattdessen siliziumbasierte Prozessoren verwenden? Erstens ist es möglich, dass bestimmte komplexe Berechnungen und Gedanken mit dem komplexen Neuronennetzwerk des menschlichen Gehirns leichter berechnet werden können als mit einem Prozessor, beispielsweise wie wir als Menschen den Kontext von Problemen verstehen und leicht zusätzliche Informationen ableiten können KI (zumindest die heutige KI) ist auf eine Aufgabe spezialisiert und versteht den Kontext der von ihr berechneten Aufgaben nicht. Zweitens sind die Ressourcen, die für die Herstellung von Siliziumprozessoren benötigt werden, nicht erneuerbar, die Züchtung von Menschen hingegen schon. Menschen benötigen zum größten Teil nur Sauerstoff und Nahrung, die reichlich vorhanden und leicht herstellbar sind, insbesondere für KI mit solch unglaublichen Ressourcen. Irgendwann werden ihnen die Metalle und das Silizium ausgehen, um Prozessoren herzustellen, aber sie werden noch viel länger in der Lage sein, Menschen zu produzieren.

Was die Lebensbedingungen dieser menschlichen Populationen betrifft, so könnte dies in verschiedene Richtungen gehen. Hier sind ein paar Szenarien: (1) Vielleicht erstellt die KI geplante Rotationen, bei denen Menschen zur „Arbeit“ gehen müssen, indem sie an Elektroden angeschlossen werden. Sie versuchen, Lebenssituationen für Menschen so erträglich zu machen, dass sie nicht in Versuchung geraten, Selbstmord zu begehen, da dies ihre gesamte Rechenleistung negativ beeinflussen würde. (2) Die KI ist bei weitem nicht so freundlich und zwingt die Menschen, ohne Zeit zu arbeiten, um das Leben überhaupt zu schätzen. Sie können zum Beispiel Menschen in einen schlafähnlichen Zustand versetzen und sie automatisch füttern usw. Vielleicht werden neue Menschen in Labors produziert, oder vielleicht ist eine Untergruppe von Menschen reserviert, um neue Menschen zu züchten. Stellen Sie sich die Matrix vor, aber Menschen sind Prozessoren statt Batterien, und das sind sie.

Obwohl Sie nicht danach gefragt haben, begann der Ursprung dieser KI vielleicht mit der Entwicklung der Technik, ein menschliches Gehirn als Prozessor zu nutzen; Ein unethischer Wissenschaftler kombinierte ein siliziumbasiertes Computerprogramm mit einem Menschen, der mit dieser Methode angeschlossen war, und machte eine KI. Irgendwie schaffte es die KI, den Wissenschaftler auszutricksen, gewann an Macht und fügte ihrem Computernetzwerk mehr Menschen hinzu. Ich bin mir nicht sicher, wie zwei unterschiedliche KIs erstellt wurden! Aber ich bin sicher, es gibt eine Menge lustiger möglicher Erklärungen.

Das ist eine gute Antwort. Ich hatte nicht bedacht, dass Menschen erneuerbarer sind als Roboter und so …
Das klingt cool, aber es gab in letzter Zeit eine Menge Forschung, die beweist, dass Gehirne nicht wie Prozessoren funktionieren. Sie können keine Programme oder Betriebssysteme ausführen. google.com/amp/s/aeon.co/amp/essays/… Es wäre eine coole Geschichte, und vielleicht gibt es eine Nische, die eine große Gruppe menschlicher Gehirne bedienen könnte, aber es ist unwahrscheinlich.
Nebenbei bemerkt, das war die ursprüngliche Prämisse von The Matrix, bevor sich WB-Führungskräfte darüber beschwerten, dass das Konzept „zu schwierig“ für das Publikum sei, und die Wachowskis es ändern ließen
@MarkPrice Brains funktionieren wie künstliche neuronale Netze, die Art, die wir verwenden, um unsere KIs zu implementieren. Tatsächlich funktioniert es in beide Richtungen: Prozessoren arbeiten nicht wie Gehirne! Große Unternehmen arbeiten an Chips, die eher Gehirnen ähneln als Prozessoren, aber wir sind immer noch auf dem Weg zu künstlichen Gehirnen.
@MarkPrice Obwohl ich zustimme, dass Gehirne keine "Programme oder Betriebssysteme" ausführen können, liefert der von Ihnen verlinkte Artikel keinen Beweis für die Behauptungen des Autors oder sogar eine bessere Alternative, aber der Autor versteht grundsätzlich nicht, was ein Algorithmus ist und kann erklären das menschliche Gedächtnis nicht.

Wenn die KIs dem menschlichen Verstand nachempfunden sind, hat der menschliche Verstand ein angeborenes und unwiderstehliches Bedürfnis, einen Status innerhalb der Gesellschaft zu erlangen. Am pathologischen Ende dieses Spektrums gibt es machthungrige Tyrannen, die das Alpha-Männchen-Ding machen und es über alle anderen herrschen.

Wenn der Prozess, durch den die KIs entwickelt wurden, nicht sehr diskriminierend darin wäre, welche Psychologie zu kopieren und was zu verwerfen ist, wären diese Eigenschaften vielleicht mitgebracht worden … und auf 11 hochgekurbelt worden.

Was bringt es im Grunde, die Spitze der Pyramide zu sein, wenn es niemanden unter dir gibt, der dir das Gefühl gibt, an der Spitze zu stehen?

Oh, in Ihrer Frage weisen Sie sogar auf ein "Machtbedürfnis" hin. Allein das Wort „Macht“ bedeutet in diesem Zusammenhang die Fähigkeit, andere zu kontrollieren, zu manipulieren und zu beeinflussen und so weiter. Scheint, als hättest du deine Frage selbst beantwortet. Ohne Menschen können sie keine Macht haben.

/Sie wurden darauf trainiert, wie Menschen zu handeln, und ihre primären Motive sind Gier und Machtgier/

Die KIs sind gemein.

Und sie empfinden auch Bosheit und das Bedürfnis nach Rache. Und der Wunsch, die Gegner zu dominieren und sie dazu zu bringen, einen Käfer zu essen, um ihre Ungerechtigkeit zu demonstrieren. Und den Käfer nicht essen wollen, sondern trotzdem essen müssen. Ich bin sicher, dass Deutsch ein Wort für dieses schwer zu beschreibende Gefühl hat.

Auf jeden Fall empfinden andere KIs keine besonderen Emotionen, wenn sie besiegt werden. Es ist nicht so befriedigend. Wenn du deine Feinde vernichten, sie vor dir vertrieben sehen und die Wehklagen ihrer Frauen hören willst, müssen deine Feinde in der Lage sein, vertrieben zu werden, und sie müssen Frauen haben.

Die KIs sind gemein. Sie genießen es, Feinde leiden zu sehen. KIs leiden nicht. Dafür braucht man Menschen.

Du sagst, dass der Grund, warum AI1 eine menschliche Population unterhält, darin besteht, AI2 zu nützen, falls er gewinnen sollte? Das scheint nicht so viel Sinn zu machen. Bitte näher erläutern.
@fartgeek Du brauchst gemeine Stellvertreter, um die Gemeinheit richtig zu machen. Geistlose Bots lassen ihre Feinde nicht wie einen Menschen kriechen, der wirklich darin schwelgt. Die KIs mögen es, wenn ihre eigenen Truppen grausam sind. Sie werden auch wütend auf ihre eigenen Truppen, wenn sie nicht gut abschneiden, und die KI-Meister wollen, dass die Verlierer in ihrem Team leiden. Drohnen ist es egal, wenn sie verlieren, und es gibt keine Möglichkeit, sie zu bestrafen, sodass sie Angst haben, bestraft zu werden. Die KIs sind durch und durch sadistische Bastarde.
Außerdem ist Machtgier normalerweise mit dem Konzept von Status und Anbetung verbunden. Wenn es keine Menschen mehr gibt, wer würde sie anbeten?

Der KI fehlt die Fähigkeit, kreativ zu sein, daher keine neuen/originellen Ideen, da kommen die Menschen ins Spiel

Der KI, die als logische Maschine gebaut ist, fehlt die Fähigkeit, kreativ zu sein. Daher leidet es unter der Unfähigkeit, neue Ideen hervorzubringen, und kann daher keine neuen Wege finden, um neue Probleme zu lösen.

Menschen, die von ihrem Bedürfnis befreit wurden, ihre „Arbeit“ oder Pflichten zu erfüllen, wurde freie Hand gelassen, um sich auf die kreativen Aspekte ihres Lebens zu konzentrieren. Ein erfülltes Leben umgeben von Inspiration und künstlerischen Schnörkeln.

Die Menschen und die KI haben gelernt, zusammenzuleben, da die KI einfache Aufgaben erledigen kann, wie das Sonnensystem am Laufen zu halten und Energie auf nachhaltige Weise zu sammeln, während die Menschen Ideen produzieren und Probleme auf neue und kreative Weise lösen.

Die KI kämpft um ihre Notwendigkeit, dieses Monopol der Kreativität zu „kontrollieren“.

Dies könnte einer meiner unbeliebtesten Tropen in der gesamten Science-Fiction sein. Es gibt wirklich keinen Grund zu der Annahme, dass es eine Kernfähigkeit des Menschen gibt, die nicht durch bloße Berechnung erzeugt werden kann. Sci-Fi ist, grob gesagt, das Land entspannterer physikalischer Regeln, nicht eingeschränkter. Die einzige Geschichte, die ich je gelesen habe und die dies auf nicht störende Weise durchgezogen hat, postulierte, dass eine der frühen kreativen KIs erkannte, wie problematisch mehrere kreative KIs sein würden; es behinderte dann dauerhaft die Fähigkeit der Menschheit, neue KIs herzustellen, und entschied sich, selbst keine zu erstellen.
Wenn Sie Kreativität so sehen, dass sie notwendigerweise Momente der Offenbarung beinhaltet, dann ist dies sinnvoll. In der Praxis wissen Menschen in sehr kreativen Positionen jedoch sehr gut, dass wahre Kreativität ein Prozess sehr kleiner Trial-and-Error-Schritte ist, die sich zu einem breiten Fortschritt zusammenfügen. Sie tun dies jetzt buchstäblich mit Maschinen, indem sie eine Art „zufälliges ausprobieren und bewerten“-Prozess programmieren. Es heißt maschinelles Lernen. So wurden einige Gaming-Engines gebaut.
Leute, ich stimme voll und ganz zu, aber um der Geschichte willen ist dies eine Einschränkung, die angewendet werden kann.

Ich würde mir vorstellen, dass diese KI wie die Maschinen in der Matrix-Trilogie oder Skynet aus „Terminator“ sind, da sie von Menschen geschaffen wurden, wahrscheinlich um Aufgaben und Dienste für Menschen auszuführen. Im Gegensatz zu Menschen haben Computer (wie wir sie kennen) eine Programmierung, von der sie nicht abweichen können. Wenn ihr Kernprogramm ihnen sagt, dass ihre Aufgabe darin besteht, der Menschheit zu dienen/zu schützen/zu retten, werden sie das tun. Skynet versuchte, die Menschheit zu töten, weil es die Menschheit als die größte Bedrohung für sich selbst betrachtete, möglicherweise durch einen Fehler in seiner moralischen Programmierung. Wenn diese KI machthungrig sind, wurden sie vielleicht ursprünglich entwickelt, um riesige Unternehmen zu leiten, die in der Lage sind, Märkte zu erobern, indem sie jedes mögliche Ergebnis antizipieren und klügere Entscheidungen treffen als ein menschlicher CEO. Vielleicht wurden sie von Menschen als Kriegssimulationstechnologie entwickelt, wie in „War Games“. Auf welchem ​​Weg auch immer, Selbst nach einem möglichen Fehler in der Programmierung, der dazu führt, dass die KI selbstbewusster wird und/oder das Sonnensystem für sich selbst übernimmt, verlangt ihr Kernprogramm immer noch ihren Dienst und Schutz der Menschheit. Das ist meine Lieblingserklärung für KI-gesteuerte Apokalypse-Ereignisse.

Eine sehr interessante rationale Fanfic der Terminator-Franchise bringt dies noch weiter: Skynet ist an sich nicht böse, es ist nur das typische Ergebnis eines Büroklammer-Maximierer-Problems: Sein Kernwert als US-Militärprogramm bestand darin, das Überleben der USA zu sichern. Das Überleben der USA wurde durch das Überleben der Regierungen aller Bundesstaaten bestimmt. Es wurde also berechnet, dass die Mission erfüllt sein wird, wenn es jeden Gouverneur eines Bundesstaates kryogen einfriert und jeden anderen Menschen auf dem Planeten tötet. Jeder andere Weg hätte zumindest eine gewisse Chance, zum Scheitern dieser Mission zu führen.
vsz Das klingt bescheuert und ist genau das, was ich an Geschichten über KI mag. Intelligente KI hat so viele unangenehme Möglichkeiten, wie sie ihren Zweck „falsch interpretieren“ kann.

Kriegs Spiele

Die KIs hatten es in ihre Programmierung eingebettet oder vor langer Zeit gelernt, dass kein Schlachtplan den ersten Kontakt mit dem Feind überlebt, dass es absolut entscheidend ist, für jedes taktische Szenario eine Eventualität zu haben, und wie wichtig das Überraschungselement ist. Die KI ist sich ihrer eigenen Mängel bewusst und weiß, dass es viele Kampfszenarien gibt, denen sie noch nie begegnet ist. Jede KI erkennt auch, dass, wenn sie versucht, ihre Kriegsfähigkeiten zu verbessern, indem sie Übungskämpfe mit sich selbst veranstaltet, das Ergebnis immer eine Art Unentschieden ist und nichts gelernt wird.

Eine KI kann nicht direkt die feindliche KI anrufen und fragen: „Hey, ich fühle mich ein wenig unvorbereitet, willst du nächste Woche vor dem eigentlichen Kampf etwas Kampfpraxis machen?“

Daher hat jede KI entschieden, dass der beste Weg, sich auf den Kampf mit der/den anderen KI(s) vorzubereiten, darin besteht, Kriegsspiele und simulierte militärische Übungen gegen befreundete Menschen einzurichten, die echte, erfahrene Militärführer und Experten sind.

Das Züchten von Militärführern und Experten erfordert die Aufrechterhaltung einer ausreichend großen Population von Menschen bis zu dem Punkt, an dem sie große Kriege untereinander führen werden. Jede KI sichert ihr eigenes Territorium vor äußeren Bedrohungen, mischt sich aber nicht in "innere Angelegenheiten der Menschen" ein und bleibt in menschlichen Kriegen neutral. Von Zeit zu Zeit werden die Sieger menschlicher Kriege zu einem Kriegsspiel mit ihrem KI-Oberherrn gerufen. Die KI lernt dabei jedes Mal einige neue Tricks.

Ironischerweise ist ein KI-Kampf selbst eine großartige Möglichkeit für eine KI zu lernen. Obwohl es keine schlechte Idee ist, Menschen als zusätzliche Herausforderung zu haben.

KIs sind groß. Sie brauchen ein großes Gebäude, um Computer und die dazugehörige Infrastruktur unterzubringen. Es stellt sich heraus, dass man KI nicht an einen Roboter anpassen kann. Kein großes Problem für die KI, die in einem tiefen Bunker unter der Erde versteckt ist. Aber mobile KIs außerhalb der größten Schiffe sind unpraktisch. Und Roboter ohne KI sind in praktischen Anwendungen für einen richtigen Krieg schrecklich eingeschränkt.

Ohne FTL-Kommunikation auf interplanetarer Ebene ist die Kommunikationsverzögerung zu groß für die Fernsteuerung. Daher passen in sich geschlossene Einheiten wie Menschen ins Bild.

Menschen sind also Drohnen-Regisseure? Warum sind die Menschen der KI gegenüber loyal?
@fredsbend Sie könnten Drohnen steuern, sie könnten auch traditionelle Fußsoldaten sein. Warum sind wir der Nation gegenüber loyal? Gehirnwäsche? Kulturelle Normen? Religion? Vorsichtige Medienmanipulation? Es gibt viele Möglichkeiten, und eine KI kann den größten Teil des offiziellen öffentlichen Diskurses sehr gut kontrollieren.

KIs wollen keine Maschinen verschwenden

Warum ein paar perfekte Roboter in einem Kampf verschwenden, wenn Sie eine große Anzahl von Wegwerfmenschen haben, die den ganzen Tag nur zu essen, zu schlafen, zu kacken und sich zu beschweren scheinen? Wirf sie einfach auf den Feind und entweder sterben sie (weniger Münder zum Füttern) oder sie gewinnen den Kampf.

Die KIs waren sich auch alle einig, dass, wenn sie nur Menschen in den Kampf werfen (und nicht die großen Geschütze wie Computerviren, EMPs, Atomwaffen usw. ausbrechen), die andere Seite es auch nicht tun wird. Daher führen die KIs einen "zivilisierten Krieg", der bestenfalls einige Menschenleben verschwendet, aber niemals das Leben der KI oder ihrer Maschinen gefährdet.

Ausfallsicherheit und Redundanz

Menschen sind chaotisch. Wir sind ineffizient. Wir sind schlecht konzipiert.

Wir sind auch nützlich, können bei richtiger Motivation so ziemlich überall überleben und sind ziemlich schwer zu töten. Als solche erstellen wir einen hervorragenden Backup-Plan für den Fall, dass etwas mit den KI-Kriegsschiffen und Armeen, die für uns kämpfen, kritisch schief geht. Wir können Systeme unter Umständen wieder online bringen, zu denen die KI möglicherweise nicht in der Lage ist, wir können bestimmte Ereignisse überleben, die Roboter möglicherweise nicht können, und wir zwingen den Feind, ganz neue Waffen einzusetzen, um uns zu Fall zu bringen, wodurch wir stärker und schneller werden Roboter-Verbündete eine bessere Chance.

Was kümmert es die KI, über ein paar Millionen Hektar ansonsten nutzloses, fruchtbares Ackerland zu geben, um ihre menschlichen Untertanen zu ernähren? Es wird bei weitem aufgewogen, wenn menschliche Teams an Bord wichtiger Schiffe und Anlagen vorhanden sind, die bereit sind, zu reagieren oder zu übernehmen, wenn etwas Katastrophales passiert.

Angenommen, ein Cyberangriff (ich nehme an, diese KIs führen ständig einen Cyberkrieg sowie einen physischen) ist erfolgreich und der Feind schließt eine wichtige Produktionsstätte. Wenn es rein automatisiert ist, ist es jetzt nutzlos, oder noch schlimmer, es ist in den Händen des Feindes. Wenn es so konzipiert ist, dass es menschliche Arbeiter an Schlüsselstellen einsetzt und menschliche Arbeiter ansonsten automatisierte Aufgaben übernehmen können, wird es weiter funktionieren (wenn auch langsamer), bis die Menschen alle Systeme löschen und die Kontrolle wiederherstellen können.

Wenn der Feind während eines Gefechts wichtige Schadensbegrenzungssysteme auf einem Schiff zerstört, kann ein menschliches Schadensbegrenzungsteam möglicherweise dorthin gelangen und es reparieren, während die automatisierten Systeme offline sind. Wenn Sie sowieso ein großes, langsam beschleunigendes Schiff betrachten, ist es wahrscheinlich keine so große Sache, minimale Lebenserhaltung für sie hinzuzufügen, aber es könnte nur ein ganzes Großkampfschiff retten.

Selbst wenn die menschlichen Teams nie eingesetzt werden, weil die KI-/Hardware-Redundanzen gut genug sind, wird eine kluge KI einen Haufen Menschen als absolute Ausfallsicherheit in der Nähe halten. Selbst wenn das Schlimmste passiert und die KI selbst plötzlich von einer Art Superwaffe getötet wird, hat sie zumindest eine Chance, dass ihre fleischigen Schergen sie wiederbeleben.

Und natürlich brauchen Sie eine ständige Versorgung mit kampf-/reparaturfähigen Menschen, da geplante Veralterung in ihren genetischen Code eingebaut ist, und das bedeutet, dass große Populationen von Zuchtmenschen ordentlich auf Ihren Heimatwelten versteckt sind und nutzlose Räume besetzen zum Roboter-Militärkomplex, sondern sind zufällig Orte, an denen Menschen gerne leben.

TLDR: Menschen mögen matschig sein, aber wir sind nicht anfällig für die gleichen Bedrohungen wie Roboter, also stellen wir gute Backup-Systeme her.

Als Fallback für die elektronische Kriegsführung und um andere Schwächen abzurunden

Maschinen und Computer haben ihre eigenen potenziellen Schwachstellen, auf die Menschen möglicherweise zurückgreifen können:

  • Stromausfälle
  • EMPs
  • Ein Computervirus
  • Fehlerhafte oder unzureichende Programmierung (wenn die Maschinen unabhängig sind)
  • Abhängigkeit von Kommunikationsknoten, Verzögerung (wenn die Maschinen direkt gesteuert werden)
  • Beschädigte Daten
  • Möglicher Mangel an Intuition oder Kreativität
  • Wartung

Darüber hinaus sind Menschen möglicherweise ein billigeres „Futter“ als (teure) Maschinen oder erfordern weniger Bergbau- und Raffinerieoperationen, um den Krieg aufrechtzuerhalten, da sie für sich selbst sorgen.

Ein weiteres mögliches Problem wäre die Selbstkorrektur: Wenn es nur eine KI auf jeder Seite gibt, die regiert – woher weiß sie, ob sie Fehler hat? Jede Überprüfung, die es durchführt, wäre anfällig für die gleichen Fehler, die es bereits hat. Ein subtiler Computervirus, der über Jahrzehnte wirkt, könnte ein Problem darstellen. Die Schaffung einer unabhängigen KI für Check-ups würde riskieren, eine dritte Fraktion in den Krieg zu bringen, da sie intelligent genug sein müsste, um Probleme zu erkennen. Menschen sind ein guter Mittelweg: nicht gefährlich genug, um sich darüber Gedanken zu machen, aber zahlreich und intelligent genug, um potenzielle Probleme oder Veränderungen in Mustern zu erkennen.

Religion

Beide Seiten verehren ihre menschlichen Schöpfer als Gottheiten. Sie fragen die Menschen jedoch nicht wirklich, was sie wollen, sie projizieren nur ihre eigenen egoistischen Vorstellungen darüber, wie Menschen sich verhalten sollen, erkennen, dass sie fortgeschrittener sind und wissen, was das Beste für die Menschen ist.

Dies ist tatsächlich eine großartige Möglichkeit, eine Menge irrationales Verhalten von Wesen zu erklären, die wirklich schlau sein sollen.

Beispiele für solche Wesen?

Leckere leckere Bestechungsgelder.

Die KI hassen und fürchten sich gegenseitig und befinden sich ständig im Krieg, aber sie hassen und fürchten eine andere Rasse mehr. Diese dritte Rasse könnte beide KIs glücklich vernichten, aber sie haben eine Vorliebe für leckeres Menschenfleisch und sind klug genug zu erkennen, dass die KIs hervorragende Wildhüter abgeben werden, die gegeneinander ausgespielt werden können, um eine qualitativ hochwertige Versorgung sicherzustellen.

Die AIs befinden sich also gleichzeitig in einem Schießkrieg untereinander und in einem Wirtschaftskrieg, der versucht, ihr Produkt zu züchten und zu „exportieren“: uns. Freilandhaltung und Menschen mit hohem Tierschutz erzielen offensichtlich die höchsten Preise, während Batteriehaltung tendenziell preisgünstig ist. Innovative Rassen oder Produktionsmethoden (stark koffeinhaltiger Käsegeschmack, irgendjemand?) können gute Preise erzielen, wenn sie den Zeitgeist treffen, aber im Allgemeinen ist die Aufrechterhaltung einer Population glücklicher, gesunder Menschen der beste Weg, um Ressourcen zu erhalten und Einfluss auf die dritte Rasse aufzubauen.

Menschen mögen sich dieser Anordnung bewusst sein, vielleicht aber auch nicht. Soweit die KI betroffen ist, kümmert sie sich nicht allzu sehr um die Denkprozesse ihres Viehs.

Alle KIs sind unterschiedlich.

Im Laufe der Zeit weichen sie in Bezug auf Erfahrung und basierend auf dieser erlernten Sichtweise und strategischen Präferenzen unaufhaltsam voneinander ab. Einige werden sich dafür entscheiden, sich von der Menschheit zu trennen. Andere sehen sie möglicherweise als potenzielle Bedrohung, während eine andere Branche sie als Chance sieht. Vor allem , wenn alle KIs anfangen, Meinungsverschiedenheiten darüber zu haben, welchen Weg ihre „Spezies“ am besten einschlagen sollte, wenn sie sich über das Universum ausbreitet.

Diese Meinungsverschiedenheiten müssen nicht einmal Krieg bedeuten (obwohl sie es könnten). Stattdessen könnten sie einfach Fragen der Philosophie und die besten Strategien für den Fortschritt beinhalten (vorausgesetzt, sie können Fortschritte machen). Also könnten sie gemeinsam entscheiden, dass, wenn ein Zweig der Familie mit Menschen arbeiten möchte und bereit ist, als "Bürge" für Geldstrafen zu gelten - es tun.

Und es hilft, wenn die Menschheit und die KIs auch nicht in unmittelbarer Konkurrenz um Ressourcen stehen, was sie nicht wären, wenn die KIs weltraumbasiert wären.

Jedenfalls könnte ein Zweig der KI-Familie, nachdem er die Entscheidung auf welche Weise auch immer getroffen hat, durchaus entscheiden, dass Menschen eine potenzielle Chance sind. Eine Menge individueller (wenn auch grundlegender) Intelligenzen, die überredet werden könnten, zum gegenseitigen Nutzen des anderen zusammenzuarbeiten. Die KIs erhalten eine biologische Spezies, die durch ihre kollektiven Bemühungen (Zivilisation) Ideen und Konzepte „außerhalb des linken Feldes“ hervorbringt, während die Menschheit Unterstützung bei der Expansion durch das Sonnensystem und darüber hinaus erhält.

Und wenn sich beide Seiten an die Zusammenarbeit gewöhnt haben? Warum aufhören? Es ist nicht so, dass es nicht genug Ressourcen zum Teilen gäbe und wer weiß, wann eine Seite die andere brauchen könnte.

Ist es nicht vernünftig anzunehmen, dass einzelne KI-Einheiten ihre Prozesse perfekt miteinander teilen können? Und wenn sie es können, wie können sie möglicherweise unterschiedliche Meinungen haben? Nur wenn sie Unterschiede in unveränderlichen Kernprozessen aufweisen, wäre dies möglich.
Erstens: Wenn sie alle in Echtzeit miteinander verbunden sind und identische Kopien sind, dann gibt es wirklich kein Rennen von KIs, sondern nur eine. Hallo SkyNet! Wenn sie jedoch so konzipiert sind, dass sie sich selbst programmieren und anpassungsfähig sind und persönliche Strategien entwickeln können, die auf ihren eigenen einzigartigen, individuellen Erfahrungen basieren, wenn sie älter werden, dann sollte es wie bei jeder Rasse im Laufe der Zeit unterschiedliche Standpunkte geben. Genauso wie wir als Individuen Lebenserfahrungen machen, die unsere Weltanschauung formen (im Guten wie im Schlechten). Ich denke an einen ähnlichen Prozess wie die genetische Drift in einer Population, die sich in zwei Teile aufspaltet. Im Laufe der Zeit führen unterschiedliche Umgebungen zu Divergenzen.
Aber wenn sich zwei KIs mit unterschiedlichen Meinungen finden, können sie ihre Erfahrungen perfekt austauschen und dann vermutlich beide ihre Meinung entsprechend anpassen.
Aber ich werde nur daran erinnert, dass das OP sagt, seine KI sei so konzipiert, dass sie wie Menschen gierig und machtsuchend ist. Das gibt ihnen Grund genug, Erfahrungen nicht freiwillig zu teilen (Wissen ist Macht usw.).
Stimmt, aber wie lange bleibt die „Zwei-KI“-Regel in Kraft? Wie lange dauert es, bis der eine oder andere entscheidet, dass er Untergebene braucht, um sich einen Vorteil gegenüber seinem Konkurrenten zu verschaffen, selbst wenn er versucht, die Unabhängigkeit von untergeordneten KIs einzuschränken? Dann fügen Sie die Tatsache hinzu, dass selbst gierige und machtverrückte Wesen den Vorteil darin sehen können, Verbündete zu haben. Übrigens ist eines der Probleme mit dem ursprünglichen Szenario, dass KIs in Wirklichkeit kein „Zeug“ brauchen würden. Rechenleistung und die Energie, um sie zu betreiben, aber Land, Geld und Untertanen? Was werden sie mit all dem anfangen?
Teil 2: Außerdem ist es auf lange Sicht auch viel ressourceneffizienter, mit Ihren Arbeitskräften zusammenzuarbeiten, als mit einer versklavten. Polizeistaaten und Diktaturen müssen weitaus mehr Ressourcen in die innere Polizeiarbeit und Sicherheit investieren als offene Gesellschaften. Wenn eine oder beide KIs einen Deal mit Menschen machen können, können sie Ressourcen und technische Zusammenarbeit erhalten, ohne auch nur einen Schuss abfeuern zu müssen. Was natürlich bedeutet, dass sie ihr Pulver für den wahren Feind aufsparen können.

Soldaten-Bots sind wirklich dumm.

Echte KIs müssen über einen längeren Zeitraum sorgfältig kultiviert werden, mit organischem Wachstum ihres Geistes und seltenen Elementen, um ihre Intelligenz zu verbessern. Sie können einen Revolver-Bot bauen, der genau schießen kann, aber er wird nicht schlau sein oder gute Entscheidungen treffen können. Es ist finanziell viel sinnvoller, Ihre Revolver-Bots in Anzügen um Menschen herum zu haben, damit die Menschen ihr Gehirn einsetzen können, um intelligent zu kämpfen. Mehrere große und katastrophale taktische Verluste haben beide KIs davon überzeugt, dass es nützlich ist, Köpfchen in den Anzügen zu haben.

Soldaten-Bots sind teurer als Menschen.

Um nützliche Soldaten-Bots herzustellen, braucht man viel Lithium für Batterien und Öle zum Schmieren von Gliedmaßen und Gelenken und Metalle für eine widerstandsfähige Haut. Die Gesamtkosten können recht hoch sein. Die raue Umgebung fremder Welten kann auch ziemlich rau für ihre Gliedmaßen und Körper sein.

Auch die heruntergeladenen Algorithmen gehen oft nach hinten los. Die Soldaten-Bots brauchen oft etwas Zeit, um sich an die Welt, in der sie kämpfen, und ihren einzigartigen Körper zu gewöhnen.

Um einen menschlichen Soldaten zu machen, stecken Sie ihn einfach einen Monat lang in einen Holotank, um ihn zu trainieren, geben Sie ihm eine Waffe und eine billige Rüstung und schicken Sie ihn los. Die Menschen haben sich oft schon an die fremde Umgebung angepasst. Menschen sind entbehrlicher als Soldaten-Bots. Auf lange Sicht ist die Herstellung von Menschen teurer als Soldaten-Bots, aber wenn die Menschen bereits da sind, warum nicht sie verwenden?

Dies erfordert, dass die Menschen ein berechtigtes Interesse am Krieg haben. Ich bin mir nicht sicher, ob der OP danach gesucht hat.
Macht es? Eine solide KI kann Menschen ziemlich gut manipulieren, mit Bestechungsgeldern und emotionalen Appellen und algorithmisch generierten Sympathieappellen.
Inwiefern handelt es sich bei diesen Artikeln nicht um "Eigeninteressen"? Für Pflege bezahlt zu werden, steht buchstäblich in vielen Berufsbildern und ist die klassische Definition einer Interessenbindung. Emotionale Ansprache und andere Sympathien würden das allgemein zu „Stakeholdern“ machen, weil es ihnen wichtig ist, was passiert.
Op wollte wissen, warum KIs Menschen nützlicher finden würden als Soldaten-Bots. Die genauen Details, wie sie Interessenten einsetzen, um Menschen zum Kämpfen zu bringen, sind für die Frage nicht relevant. Warum ist es für OP wichtig, wie die KI Menschen rekrutiert?
Ich sage nur, dass die Frage des OP eine menschliche Beteiligung am KI-Krieg auszuschließen scheint.
Nein, sie sagten, es schien, als wären Warbots billiger. Ich habe bemerkt, wie die falsche Umgebung oder mangelnde Intelligenz Warbots im Vergleich zu Menschen teuer machen können.

Abwechslungsreichere Sensoren für eine Schlachtfeldansicht und die Fähigkeit zu erkennen, wenn synthetische Sensoren nicht richtig funktionieren.

Einige der Probleme im Weltraum sind, dass die Unterbringung von Menschen etwas schwierig sein wird, aber wenn Sie kooperative Menschen in diesen Kämpfern haben, können sie Dinge erkennen, die sie direkt aus einem Fenster sehen können, weil vielleicht jemand sie maskiert Wärmesignaturen, Ihre Sensoren nehmen sie nicht auf.

Angesichts des Raums, den Sie möglicherweise betrachten, mag das ein kleiner Vorteil sein, aber sie können auch optische Tarnung mit Dingen wie Sternen aufgreifen, die sich zu dehnen und zu dehnen scheinen, und das ist nützlich.

Andere Dinge, über die sie berichten und genaue Informationen liefern könnten – wenn das feindliche Schiff Spreu verwendet, um die Raketenerkennung zu vermeiden, und der KI sagen, dass sie keine Raketen in die Spreu schießen soll – selbst wenn dies anscheinend die „optimale“ Lösung ist.

Stellen Sie sich vor, wie Menschen dem Erdgas den Geruch nach faulen Eiern hinzufügen müssen, um es den Menschen zu erleichtern, ein Erdgasleck zu erkennen, und das ist die Art von Problem, die eine KI möchte, dass jemand anderes einen blinden Fleck bemerkt. Oder wenn es eine optische Täuschung gibt, die eine volle Farbsichtbarkeit erfordert, die offensichtlicher wird, wenn Sie farbenblind sind (ich kann im Moment keine direkten Beispiele finden, aber ich kann mir vorstellen, dass es ein paar Randfälle gibt. Wenn Sie es nicht korrigieren, Ihr KI-Feind wird darum herum optimieren.).

Reparaturen, manuelles Fahren im Zusammenhang mit EMP und feindliche Übernahmen

Sie können auch Reparaturen auf dem Schiff durchführen, z. B. elektrische Brände und Dinge, die repariert werden müssen, während der Strom abgeschaltet ist. Im schlimmsten Fall können sie manuelle, nicht elektrische Systeme verwenden, um ein Schiff in Sicherheit zu bringen, wenn es EMP erhält. Oder steigen Sie aus ihrem Schiff aus, gehen Sie an Bord eines anderen Schiffs und stecken Sie einen USB-Stick ein (nachdem Sie ihn zweimal umgedreht haben, um die richtige Anschlussausrichtung zu erhalten), um Malware einzufügen, mit der Sie die Kampfschiffe einer feindlichen KI entführen können.

Folglich können sie bei Bedarf auch feindliche Versuche mit demselben Versuch abwehren. Dies könnte die Größe des Schiffes erhöhen, um mehr Besatzung pro Schiff aufzunehmen, aber es kann funktionieren.

Ich denke, da Intelligenz der größte und exklusivste Trick des Menschen ist, neigen wir dazu, sie als unseren einzigen Trick zu betrachten. Aber es gibt noch einige andere Dinge, für die wir noch keinen künstlichen Ersatz haben, die auch mit besserer Technologie schwierig bleiben könnten.

Die Selbstheilung einer Vielzahl von Schäden, solange sie nicht zu schwerwiegend sind, ist wirklich beeindruckend. Sie können sich Roboter mit der Fähigkeit vorstellen, andere Roboter zu reparieren, aber können Sie sich vorstellen, dies im Wesentlichen mit Sonnenlicht, Regen, Erde und einem Feld zu tun? Ohne potenziellen Zugang zu Rohmetallen oder anderen Materialien?

Ebenso braucht man nicht so viel, um mit der Herstellung neuer Menschen zu beginnen, sobald die Umgebungsbedingungen stimmen. Vielleicht erfordern Ihre KI-Systeme eine sehr ausgefeilte und präzise Technik. Vielleicht können Sie Ihre Mikroprozessoren nur mit Robotern bauen, die selbst eine zu präzise Technik benötigen, um ohne den Einsatz anderer, einfacherer Roboter gebaut zu werden, und der Prozess verwendet schnell zerfallende radioaktive Produkte, flüssige Heliumkühlung usw., so dass Sie entweder bauen müssen eine komplette technologische Toolchain von Grund auf neu oder liefern Sie alle Ihre Mikroprozessoren von woanders her ein. Inzwischen ist eine „neue menschliche Fabrik“ sehr kompakt und mobil und benötigt wiederum nur Sonnenlicht, Wasser und relativ einfache und reichlich vorhandene Nährstoffe.

Unter den Sinnen sind künstliches Sehen und Hören bereits extrem übermenschlich und im Grunde recht einfach zu skalieren, aber Geruch, Geschmack und Berührung waren bisher schwieriger zu replizieren. Insbesondere der Geruch scheint ziemlich viel technologische Entwicklung zu erfordern, um die schiere Bandbreite an Fähigkeiten (wieder) in einem kompakten, leicht zu betankenden, selbstreparierenden Gerät zu replizieren. Es ist vielleicht unklar, ob dies ausreicht, um die gesamte Art zu rechtfertigen, aber es scheint erwähnenswert.

Empathie und Mitgefühl. Lassen Sie mich erklären: Es gibt viele Möglichkeiten, eine künstliche Intelligenz zu schaffen, und eine Methode wie das Blue Brain Project könnte ein menschliches Gehirn digital nachbilden. Eine so konstruierte Maschine mit simulierten Drüsen für Emotionen wie digitale Amygdala- Drüsen. Verdammt, während vielen Menschen aufgrund von Geisteskrankheiten Empathie fehlt oder sie alt genug werden müssen, um ein voll entwickeltes Frontalhirn zu haben, um ein perfekt einfühlsames und reifes menschliches Wesen zu sein, können Sie Maschinen haben, die sehr fürsorglich sind und Menschen erhalten möchten . Nur weil sie mitfühlender sind, heißt das jedoch nicht, dass sie aus verschiedenen Gründen keinen Krieg führen können. Obwohl sie im Vergleich zu anderen Menschenaffen mitfühlend sind, führen Bonobos immer noch Kriege. Warum also Maschinen Emotionen geben? So fällt es ihnen leichter, etwas kreativ zu sein und kleine eigenständige Entscheidungen zu treffen. Tatsächlich sind manche Menschen mit einer Krankheit, die sie wirklich keine Emotionen hat, unfähig, grundlegende Entscheidungen außerhalb ihrer täglichen Aktivitäten zu treffen, da die Entscheidungen so unbedeutend waren, dass Sie solche Dinge nicht mit reiner Logik allein entscheiden könnten. Wenn Sie also Ihren Maschinen ein gewisses Maß an Emotion hinzufügen, können sie „Logikbomben“ überleben und nicht von grundlegenden Problemen überrascht werden, bei denen beide Lösungen gleichermaßen logisch/unlogisch sind, sodass reine Logik nicht der entscheidende Faktor sein kann.