Ich versuche, eine „Gundam-ähnliche“ Serie zu schreiben, allerdings mit Raumjägern anstelle von humanoiden Robotern. Ich möchte eine halbharte Wissenschaftswelt, ich bin damit einverstanden, Technologie zu erfinden, ohne vollständig zu erklären, wie sie funktioniert, solange es plausibel erscheint, aber ich möchte in meiner Welt so realistisch wie möglich sein und bei jeder Technologie, die ich habe, konsistent bleiben füge der Welt hinzu. Dies macht Weltraumjäger mit kurzer Reichweite schwer zu rechtfertigen ...
Ich verwende Handwellen, Minovsky-Partikel und ähnliche Tricks, um Weltraumkämpfer zu rechtfertigen. Vor allem erfordert das Vorhandensein von Energieschilden den Einsatz von Energiewaffen mit kurzer Reichweite, um sie zu durchbohren. Sie sind anfälliger für viele schwächere Angriffe von kleinen Kämpfern als a wenige große Angriffe von Großkampfschiffen, und die massive ER-Strahlung von Schilden, gekoppelt mit aktiven elektronischen Gegenmaßnahmen, verhindert eine Fernsteuerung dieser.
Die größten Probleme, die ich mit der Rechtfertigung dieser Weltraumkämpfer habe, ist die KI. Es scheint immer noch so, als wäre eine gute KI für diese Raumjäger praktikabler als menschliche Piloten. Die Kosten von Weltraumjägern steigen, wenn Sie Lebenserhaltungssysteme einbeziehen müssen, und tatsächlich macht die zunehmende Größe der Kämpfer, die auf einen Menschen passen, Kontrollen und Lebenserhaltung es zu einem größeren Ziel. Meine Kämpfer der Ace-Klasse, seltene Kämpfer, die mit eigenen Schilden ausgestattet sind, würden besonders unter der zusätzlichen Größe leiden, die die Schilde merklich weniger effektiv macht. Das Entfernen von Menschen aus den Kämpfern macht sie billiger und kleiner.
Darüber hinaus könnte eine zukünftige KI vermutlich schneller auf Angriffe reagieren als Menschen, weniger vorhersehbar, vertrauenswürdiger (wird Sie nicht verraten, wird sich nicht vor Angst zurückziehen, wird keine Dummheiten tun oder versuchen, betrunken zu steuern), besser in der Lage sein um einen echten 3D-Kampf zu bewältigen, in dem Menschen nicht daran gewöhnt sind zu denken, und in der Lage sind, mit G-Kräften umzugehen, die Menschen nicht können. Außerdem bedeutet der Einsatz von KI keinen menschlichen Tod, wenn Kämpfer zerstört werden.
Ich möchte jedoch menschliche Piloten als meine Protagonisten. Ich möchte nicht, dass es KI-gesteuerte Kämpfer gibt. Daher möchte ich die beste Rechtfertigung(en) dafür finden, warum Menschen diese Fahrzeuge immer noch steuern würden.
Im Moment war meine beste Rechtfertigung einfach zu sagen, dass die KI-Fortschritte in unserer Zukunft stagnieren. Während wir alle KI, die wir jetzt verwalten, können und einige Dinge besser können, wurde KI, die in der Lage ist, die Komplexität von Kämpfen im Weltraum zu verarbeiten, einfach nicht entwickelt. Dies erscheint mir jedoch unwahrscheinlich. Ich bin Programmierer, und ich habe das Gefühl, dass unsere heutige KI mit genügend (und ich spreche von vielen Jahren) Entwicklung bereits fast damit umgehen könnte, einen Raumjäger zu steuern. Geben Sie schnellere Verarbeitung und bessere Computer auf, die es in Zukunft geben wird, und es ist schwer zu glauben, dass KI weniger geeignet wäre als Menschen.
Gibt es andere Ansätze, die ich verwenden kann, um menschliche Piloten gegenüber KI zu rechtfertigen? Ich werde keine „KI ist verrückt geworden und hat versucht, uns alle zu töten“-Hintergrundgeschichte haben oder den Leuten auf andere Weise Angst vor einem „Terminator-Szenario“ machen. Ich diskutiere nicht den menschlichen Intellekt oder die tatsächliche „lernende“ KI, wenn ich hier KI sage, daher besteht keine Gefahr, dass eine KI schlau genug ist, um zu revoltieren, und ich halte dies einfach nicht für ein realistisches Anliegen.
BEARBEITEN: Ich habe es irgendwie angedeutet, aber um klar zu sein, ich spreche nicht über das Erlernen einer starken KI auf intelligentem Niveau oder irgendetwas so Fortgeschrittenes. Ich spreche von schwacher KI in dem Sinne, wie wir sie jetzt meistens haben, sie reagiert schnell auf pro-programmierte Reize auf eine Weise, die ihre Programmierer für am besten hielten, mit einigen Zufälligkeits- und Spieltheorie-Strategien, um Vorhersagbarkeit zu vermeiden. Es muss nichts anderes lernen oder können, als einen Jäger zu fliegen und auf Dinge zu schießen. Sapient AI wird in keiner meiner Geschichten vorkommen, ich denke, es ist bahnbrechend und langweilig.
Endgültige Entscheidung: Wow, ich kann allen nicht genug danken, es gab eine Vielzahl guter Gründe, die unten aufgeführt sind. Ich glaube nicht, dass irgendjemand allein das Problem vollständig löst, zumindest nicht innerhalb meiner gewünschten Welt und Grenzen, welche Technologie und Grenzen ich darin platzieren möchte; aber zum Glück habe ich viele Gründe zur Verfügung gestellt!
Einer meiner Charaktere ist ein Pazifist und Programmierer, der effektiv eine einfache schwache KI schreibt, um Schilde anzutreiben, und daran arbeitet, einen Weg zu finden, Piloten aus Kämpfern zu entfernen, weil er glaubt, dass Menschen immer Krieg führen werden, das Beste, was man tun kann, ist, das zu begrenzen Todesfälle davon. Ich werde ihn zu früh eine Tirade darüber machen lassen, wie gerne er Piloten durch KI ersetzen würde, und wenn er danach gefragt wird, wird er ein bisschen wie ein Geek über die zahlreichen Faktoren schimpfen, die die KI einschränken und welche alle arbeiten gemeinsam daran, dass es noch nicht lebensfähig ist und wahrscheinlich noch eine Weile nicht lebensfähig sein wird. Ich werde auf viele der folgenden Antworten zurückgreifen, um seine lange Liste von Gründen zu vervollständigen, die er nennt. Daher finde ich es schade, dass ich nur eine Person mit der besten Antwort belohnen kann, es werden mindestens ein halbes Dutzend Antworten verwendet.
Hier ist eine kurze Liste der meisten Dinge, über die er sprechen wird, obwohl ich einige andere kleinere Teile anderer Antworten einschließe.
Andere, eher politische Faktoren, die ebenfalls eine Rolle spielen, hauptsächlich bei der Begrenzung der Finanzierung auf die Entwicklung von Techniken zur Umgehung der oben genannten Probleme.
Ich bin Programmierer und stimme Ihnen zu, dass KI in diesem Szenario letztendlich unschlagbar sein wird. Die übliche Sci-Fi-Tradition ist, dass Menschen besser darin sind, „um die Ecke“ zu denken, und deshalb am Ende die KI besiegen – aber das ist einfach nicht zu rechtfertigen, es gibt Programmiertechniken, um das zu umgehen.
Ich denke jedoch, dass Sie menschliche Piloten immer noch rechtfertigen können, wenn Sie in Zukunft nicht zu weit gehen. Hier sind die Probleme, wie ich sie sehe:
Lebenserhaltung
Dies ist nicht die Barriere, die Sie erwarten. Denken Sie daran, dass die meisten Computergeräte auch nicht bei extrem kalten oder heißen Temperaturen funktionieren - mit anderen Worten, Sie brauchen auch "Lebenserhaltung" für die KI. Jetzt ist die Lebenserhaltung in einem Großkampfschiff eine große Sache, weil Sie sich selbst erhalten müssen, aber in einem Jäger – wo Sie vielleicht erwarten, dass es nur ein paar Stunden am Stück aktiv ist – können Sie mit einem sehr minimalen Setup auskommen. Erhalten Sie Abwärme von Ihren Motoren, haben Sie eine Möglichkeit, sich abzukühlen, und nutzen Sie das Luftrecycling. Es ist wahrscheinlich, dass die Lebenserhaltung für einen menschlichen Piloten der von KI sehr nahe kommen wird.
Beschleunigung
Dies ist eine viel größere Barriere. Menschen sind anfällig für hohe G-Kräfte. KI-Einheiten könnten, wenn sie richtig konstruiert sind, viel höhere Beschleunigungen und heftigere Manöver tolerieren. Wenn Sie Menschen behalten wollen, brauchen Sie eine Art Trägheitskompensationstechnologie, mit der Ihre Biologika in diesem Bereich mit ihren künstlichen Rivalen mithalten können.
Reaktionszeit
KI ist schnell. Aber warum nicht deine Menschen verbessern? Geben Sie ihnen eine Art Nanotechnologie oder genetische Anpassungen, die sie schneller reagieren lassen. Die Sache damit ist, dass Sie abnehmende Renditen haben, an welchem Punkt andere Faktoren wichtiger werden. Der Unterschied zwischen der Reaktion in 0,1 Sekunden und 0,01 Sekunden ist eine große Sache. Aber der Unterschied zwischen 0,01 und 0,001 spielt vielleicht gar keine Rolle, denn was Sie an diesem Punkt zurückhält, sind die mechanischen Einschränkungen Ihres Jägers. Sie brauchen also nicht Ihre Menschen, um KI zu fangen, Sie müssen sie nur schnell genug machen, um ihren Kämpfer bis an die Grenzen zu nutzen.
Urteil, unerwartete Ereignisse und Zivilisten
Und hier wollen Sie menschliche Piloten. Ich denke, dass es sehr wahrscheinlich ist, dass eine dumme KI - eine, die sich auf den Umgang mit einem Kampfflugzeug spezialisiert hat, aber nicht wirklich denken kann - realistischerweise nicht in der Lage sein wird, alle Arten von Anrufen zu tätigen, die Sie von einem Kampfpiloten erwarten. Ich spreche nicht von Kampfmanövern, aber was passiert, wenn ein ziviler Frachter versehentlich in das Kampfgebiet eindringt? Was ist, wenn sich der Feind als ziviler Frachter tarnt und Ihre KIs fest programmiert sind, sie zu ignorieren?
Wenn ein Feind Raketen auf zwei Lebensräume abfeuert, ist Ihre KI klug genug, um zu versuchen, sie abzufangen, anstatt weiterzukämpfen, wenn dies nicht in den Missionsparametern enthalten wäre? Kann es ein Urteil darüber fällen, 100 Menschen zu töten, um 10.000 zu retten, und dies angemessen in seine militärische Entscheidungsfindung einbeziehen? Wollen Sie wirklich eine nuklear ausgerüstete Rakete in eine dumme KI laden und ihr die Erlaubnis geben, sie ohne Aufsicht zu benutzen?
Das sind Dinge, mit denen ein menschlicher Pilot auch Probleme haben wird, aber ich denke, sie sind immer noch viel besser vorbereitet als eine KI.
Hinweis: Wenn Sie in Zukunft weit genug gehen, könnten Sie es wahrscheinlich sogar so codieren, dass es die oben genannten Szenarien handhabt. Es hängt also alles davon ab, wo Sie Ihre Grenze der Computertechnologie ziehen.
Karrick stieß einen scharfen, schmerzerfüllten Seufzer aus, als die lange, schlanke Nadel seinen Hinterkopf durchbohrte. Er hatte tausend Einsätze geflogen, aber sich an seinem Jäger anzuschnallen, war immer noch etwas, das sich einfach unnatürlich anfühlte. Eine Milliarde Jahre organischer Evolution erforderten, dass einem scharfen Gegenstand, der sich in den Hinterkopf bohrt, Widerstand geleistet und bekämpft werden sollte. Fast augenblicklich begann die Nadel jedoch, einen Strahl Minovsky-Serum in sein Gehirn zu pumpen, wodurch alle scharfen und gezackten Kanten der Welt abgestumpft wurden. Karrick atmete erleichtert auf und entspannte seine Augen.
Er spürte, wie das Serum tiefer in sein Gehirn sickerte und freute sich über ein vertrautes Gefühl, als die Zeit sich zu verlangsamen begann. Er beobachtete seine Kalibrierungsuhr, ließ Gleichungen durch seinen Kopf laufen, um zu zählen, wie schnell sein Gehirn rechnete.
10x. Das war die Geschwindigkeit, mit der er die einzelnen Flügelschläge eines Kolibris beobachten konnte. Bei dieser Gedankengeschwindigkeit könnte er eine Libelle in seinen Händen fangen. Ein Computer der Ace-Klasse wäre natürlich unverständlich. Er sank tiefer.
30x. Dies war die Geschwindigkeit, bei der er die Fähigkeit verlor, mit Menschen zu kommunizieren, die noch auf einer normalen Zeitskala operierten, aber es war immer noch nicht schnell genug.
100x. Da sein Gehirn hundertmal so schnell arbeitete wie im Ruhezustand, konnte er nicht mehr bequem sprechen, da die Muskeln in seinem Stimmtrakt nicht mit der Geschwindigkeit Schritt halten konnten, mit der sein Verstand ihnen Befehle erteilte. Er strich schnell mit den Fingern über den Rand seines Instrumentenbretts. Diese Pilotenhandprothesen aus Metall litten natürlich nicht unter solchen Problemen. Sein Verstand war auf Hochtouren, endlich bereit, sich mit seinem Computer zu verbinden. Noch wichtiger war jedoch, dass er bei dieser Geschwindigkeit, während das Minkovsky-Serum durch sein Gehirn gepumpt wurde, endlich schnell genug denken konnte, um die Handlungen anderer in der Nähe befindlicher Geister zu bestimmen. Er spähte durch den Gedankenraum und sah, wie sich seine Bodenmannschaft um den Jäger versammelte und die Vorbereitung seines Jägers für den Start ganz langsam beendete. Weit über ihm, fast im Orbit, sah er den dualen Verstand einer anderen Kampfpilotin und ihres Computers, der durch die letzten paar Schichten der Atmosphäre drang. Er winkte ihm im Geiste ein „Hallo“ zu und richtete sein inneres Auge näher auf ihn. Dort wartete Ace, sein Gefährte, geduldig in den Schaltkreisen um ihn herum. Ace war natürlich geduldig, wie KIs es immer waren, und würde Karrick nicht drängen oder versuchen, Kontakt aufzunehmen, bis er bereit war. Karrick warf noch einen Blick auf seine Uhr am Armaturenbrett. Überzeugt, dass er vollständig in den neuen Zeitstrom eingetaucht war, wandte er sich an Ace.
„Ok Kumpel, schließ mich an. Wir haben eine Mission zu erledigen.“
Wenn Sie bereit sind, in Ihrer Wissenschaft ein wenig mit der Hand zu winken, warum nicht etwas erfinden, das Menschen notwendig macht?
In dieser Geschichte habe ich das Minkovsky-Serum hinzugefügt, um genau das zu tun. Alleine sind Menschen viel zu langsam, um einem Computer zu helfen, und können nichts tun, was ein Computer nicht besser kann. Ihren Verstand jedoch auf das 100-fache beschleunigen und ihnen die Fähigkeit geben, andere Gedanken zu sehen, ob roboterhaft oder organisch? Jetzt sind sie ein unverzichtbarer Teil einer Mensch-Maschine-Paarung, die auf ein rein mechanisches System reagieren kann, indem sie darauf achtet, was es denkt, und nicht, was es tut. Dies erstreckt sich natürlich auch auf Dinge wie Raketen, die solche Standard-Langstreckenwaffen gegen einen Ass-Kämpfer nutzlos machen.
Die Wirkungen dieses Serums wurden natürlich nicht in Maschinen repliziert. Menschliche Wissenschaftler sind sich nicht einmal ganz sicher, wie dieses Serum funktioniert. Es wird aus einem außerirdischen Organismus gewonnen, der tief unter den Milliarden Jahre alten Ruinen einer ausgestorbenen außerirdischen Zivilisation gefunden wurde. Sie sind sich sicher, dass es den richtigen Menschen mit der richtigen Ausbildung in eine der mächtigsten Waffen der Galaxis verwandeln kann.
Ich würde mit der einfachen Antwort gehen: Internationale Gesetze.
Die Genfer Konvention, Biowaffenkonvention, Chemiewaffenkonvention, Haager Konvention, Weltraumvertrag, Vertrag über die Abwehr ballistischer Flugkörper
Wenn Waffen zu effektiv und unheimlich werden, werden sie verboten. Sie brauchen kein Terminator-Szenario, sondern einfach einen historischen Krieg, der extrem schnell und extrem gewalttätig von einer menschlichen Seite gewonnen wurde (oder wo vielleicht beide Seiten die Regierung der anderen ausgelöscht und die internationale Gemeinschaft zum Eingreifen gezwungen haben) mit KI-Fahrzeugen gefolgt von einer Gentleman-Vereinbarung aller Seiten, dass unabhängige KI-kontrollierte Kriegsmaschinen (insbesondere selbstreparierende oder selbstreplizierende) nicht auf die gleiche Weise eingesetzt werden wie nukleare biologische und chemische Waffen.
Es gäbe strenge Grenzen für die Automatisierung in Militärfahrzeugen, und KIs werden wahrscheinlich immer noch in Planung und Logistik eingesetzt, aber keine Seite möchte gegen internationales/interstellares Recht verstoßen.
Beide Seiten würden einen Vorrat an Fahrzeugen unterhalten, die einer nuklearen Abschreckung ähneln, die sie normalerweise nicht verwenden, und die Kämpfe werden den Grunzern überlassen.
In der Geschichte könnten KIs also zum Kämpfen verwendet werden, aber sie sind es nicht aus dem gleichen Grund, aus dem im Zweiten Weltkrieg kein Giftgas eingesetzt wurde und in den Golfkriegen keine Atomwaffen eingesetzt wurden.
Hinweis: Gemäß Ihrer Bearbeitung verwende ich KI, um mich auf moderne nicht lernende logische KIs zu beziehen, nicht auf empfindungsfähige KIs
Erwägen Sie, mit ihr zu rollen und mit KI zu arbeiten, anstatt dagegen.
Heutige Kampfflugzeuge sind so abhängig von Computer-KIs, dass Sie im Grunde keine F-22 oder F-35 fliegen können, ohne dass der Computer Ihnen hilft. Wenn Sie die KIs entfernen würden, wären Ihre Weltraumjäger kaum mehr als Jäger und Bomber aus dem Zweiten Weltkrieg, inmitten von KI-fähigen Jägern, die um sie herumfliegen. Akzeptiere die KI, bekämpfe sie nicht.
Und dann gehen Sie über die KIs hinaus. Ja, wir haben UAVs in der Entwicklung, aber die meisten Flugzeuge haben immer noch einen Menschen, der die KI leitet. Der Mensch trifft die Entscheidungen auf höherer Ebene (wie "schnell 90 Grad nach rechts kippen") und der Computer kümmert sich um die Entscheidungen auf Reflexebene ("Ich entdecke einen Wirbel, der über den rechten Flügel rollt, also muss ich die Querruder in 0,0015 Sekunden um 3 Grad nach oben auslenken ... GEHEN"). Dies ist ein Spiel, das sich immer wieder bewährt hat. Sogar in der Welt des Schachs gewinnt dieses Duell. Endlich haben Computer die Menschen beim Schach geschlagen, aber der beste stromfressende Schachcomputer der Welt ist einem menschlichen Meister, der eine Kopie von Fritz 10 und einen einfachen Laptop hat, nicht gewachsen.
Der Trick besteht also darin, sicherzustellen, dass Piloten lebensfähig bleiben, und nicht sicherzustellen, dass KIs die Arbeit nicht erledigen können. Eine Sache, die mir aufgefallen ist, ist, dass Menschen in subtilen Balancen tendenziell viel besser sind. Während eine KI „an die Gleise gehen“ und viel schneller zurückkommen kann, als es ein Mensch jemals schaffen könnte, ist es schwer, sie dazu zu bringen, still zu halten. Sie schwatzen am Ende, während sie versuchen, spastisch Korrekturen vorzunehmen, und die meisten Theorien moderner Kontrollsysteme versuchen, Wege zu finden, um diese spastische Kontrolle zu verbessern.
Was Sie tun müssen, ist, den Kampf so zu gestalten, dass nicht derjenige mit den schnellsten Reaktionen das beste Ergebnis erzielt, sondern derjenige, der inmitten des Chaos seine Mitte behalten kann.
Eine beispielhafte Kampfsituation, die dies demonstrieren könnte, ist eine, in der die Computer einen enorm fortschrittlichen Spielbaum entwickeln, um zu bestimmen, in welche Richtung sie sich bewegen sollen. Sie neigen dazu, in einer sicheren Position zu beginnen, aber wenn Sie sich jemals aus der "sicheren" Position bewegen, wird der Computer Sie mit unerbittlicher Spieltheorie langsam zu Tode schleifen.
Allerdings gibt es einen Haken. Da die sichere Region durch die Annäherung an das feindliche Flugzeug immer kleiner wird, wird es komplizierter, auf diese Weise vorherzusagen. Piloten sprechen bald von ihrer "Mitte". Solange du durch geschmeidige und elegante Bewegungen deine Mitte behältst, ist es wirklich egal, was die KIs für dich oder gegen dich tun, niemand kann dich berühren. Wenn Sie jedoch für einen Moment die Ruhe verlieren, können Sie eine spastische Bewegung machen und Ihre Mitte verlieren. In dem Moment, in dem dies geschieht, wird die feindliche KI Sie in Vergessenheit geraten lassen.
Das Schwierige daran ist, dass Sie, wenn Sie „zentriert“ sind, bemerkenswert wenig Informationen über die Welt um Sie herum erhalten, weil Sie nicht wirklich mit viel interagieren. Du schwebst einfach inmitten des Kampflärms. Die Computer-KIs können mit dem Mangel an Stimulus einfach nicht umgehen und fallen aus dem Zentrum, um in Stücke gerissen zu werden. Nur mit einem gut ausgebildeten Menschen an der Spitze können Sie diesen schmalen Grat gehen. Dann? Du bist praktisch unsterblich. Nichts kann dich berühren. Keine KI kann konkurrieren, wenn Sie zentriert sind, und kein Mensch könnte Sie jemals alleine berühren ... Ihre KI würde sie auslöschen.
EMP. Großkampfschiffe haben EM-Generatoren, die empfindliche Elektronik durchbrennen oder zumindest stören können, was eine menschliche Komponente erfordert, um die Jäger am Fliegen zu halten.
Die Jäger verwenden Glasfasern für die meisten Systeme (z. B. Waffen, Triebwerkssteuerung, Flugsysteme), sodass ein EMP keinen allzu großen Einfluss auf ein bemanntes Fahrzeug hat. Wenn Sie möchten, könnte es die Fernkommunikation oder vielleicht fortschrittliche Sensoren ausschalten, sodass die Kämpfer sich der Sichtweite nähern müssen.
Warum also nicht auch die KI-Computer faseroptisch machen? Weil viel mehr Computerleistung benötigt wird, um die menschliche Entscheidungsfindung zu simulieren, als einfach Systeme zu betreiben, und dies in einer sperrigen optischen Form zu bauen (und dies so perfekt zu machen, dass ein EMP seine präzisen Berechnungen nicht durcheinander bringt), ist unpraktisch. Vielleicht wird sich jemand einen halbintelligenten "Drohnen" -Kämpfer einfallen lassen, der einen Glasfaserkern verwendet, aber er ist zerbrechlich, weil jeder Schaden an seinem Faraday-Käfig und seinen Sensoren für ein EMP anfällig wird - klingt nach einer guten "Mook" -Einheit für das Reich des Bösen!
Was ist mit der Hackbarkeit? Anzunehmen, dass KI-Piloten eine Verbindung zu einem Langstreckennetzwerk benötigen, um Befehle auszuführen, stellt ein Sicherheitsproblem dar: Wenn jemand das Signal abfangen und die Protokolle der KI hacken kann, kann er das Fahrzeug anweisen, zu wenden und zu rennen oder ( noch schlimmer) den Absender angreifen.
Vielleicht haben sie sich in Ihrer Geschichte irgendwann in der Vergangenheit an KI-Piloten versucht, konnten aber nie das Problem lösen, dass ein Ausfall zwischen KI-Piloten zu einem Kampf zwischen Hackern wurde.
Sie können dies plausibel erreichen, indem Sie die beiden folgenden Tatsachen in Ihre Geschichte aufnehmen:
KIs können aufgrund von so etwas wie Asimovs Gesetzen keinen Menschen verletzen oder töten.
Die Fernsteuerung von Schiffen ist zu anfällig für Störungen, Störungen, Gegenmaßnahmen usw.
Die erste angenommene Tatsache scheint eine Voraussetzung dafür zu sein, dass eine KI auf menschlicher Kämpferebene vorhanden ist. Sie müssen irgendeine Form der drei Gesetze befolgen , sonst hätten wir zu viel Angst, sie zu bauen, oder würden bereits von ihnen regiert. Dies ist unabhängig von der Art der KI, z. B. "KI auf Intelligenzniveau", diese Gesetze würden in jede Hardware eingebaut, die eine KI auf hohem Niveau ausführen kann. Grundsätzlich würde eine ungezügelte, nicht-empfindungsfähige KI zu viel Kollateralschaden verursachen, und eine ungezügelte, empfindungsfähige KI würde zu viel Roboter-Overlording verursachen.
Die zweite angenommene Tatsache ist für zwei beliebig weit fortgeschrittene Armeen, die gegeneinander kämpfen, durchaus plausibel. Es verbietet Drohnenjäger und verlangt, dass menschliche Piloten die Schiffe bemannen.
return false;
Oh, Mist.". Es macht sehr viel Sinn – die Gesetze sind eigentlich unglaublich kompliziert.Hybrid-Pilotsystem.
Die Realität ist, dass jede KI in den Implantaten eines Menschen gespeichert werden kann, sodass Sie nicht nur die Reaktionszeit und Rechenleistung einer KI haben, sondern auch die nicht-deterministische Strategie eines menschlichen Gehirns.
Wahrscheinlich werden wir in weniger als einem Jahrhundert die Technologie haben, um all die tragbare Technologie herzustellen, die in unseren Körper implantiert wird. Stellen Sie sich die Möglichkeiten einer KI vor, die viele Teile unseres Gehirns übernimmt und uns zu noch mehr als nur einer reinen KI macht
KI ist notorisch schlecht bei der Mustererkennung, insbesondere visuell.
Wenn der Feind einen wirklich guten Stealth-Modus hat, brauchen Sie einen Piloten, der Muster intuitiv erkennen kann, um diesen Stealth-Modus zu besiegen.
Politik/Theologie.
Ein USA-ähnliches Land ist jetzt der Hegemon der Welt. Und innerhalb der "USA" hat die ultraliberale Partei eine nahezu unerschütterliche Kontrolle. Die gleiche Art von Menschen, die – aus politischen, nicht praktischen – Gründen – heute im Jahr 2015 Lobbyarbeit leisten, um Kampfdrohnen in der realen Welt aus moralischen, ethischen oder ideologischen Gründen zu verbieten ( Bsp . 1, Bsp. 2 ) .
Zwei konkurrierende Weltmächte mussten einen Kompromiss finden, um sich zu vereinen, um einen Krieg gegen Aliens zu führen. Jeder Kämpfer ist in der Lage, das Kräftegleichgewicht auf der Schmutzseite unwiderruflich zu beeinträchtigen. Der KI-Kämpfer kann mit einer Hintertür programmiert werden, die es einer Seite ermöglicht, ihn zu kontrollieren. Wenn Sie dies mit einem Piloten einer gegnerischen Macht kombinieren, der mit einem Notausschalter bewaffnet ist, kann dies verhindert werden (und die KI kann einen einfach zu programmierenden und zu debuggenden unabhängigen Notausschalter haben, um Angriffe des Piloten auf Erdziele zu verhindern , sitzt auf der Pilot-Jäger-Schnittstelle).
Bushido-Code
Ihre eigene Zivilisation hat sich zu Bushido-schwingenden Samurai entwickelt. Sich hinter einer KI zu verstecken, ist nicht der Kriegerweg und beschämend
Ihre Gegner entwickelten sich zu Bushido-schwingenden Samurai. Sie haben Massenvernichtungswaffen, die einen Planeten zerstören können – aber sie würden diese Massenvernichtungswaffen NUR gegen „unwürdige“, „feige“, „ehrenlose“ Feinde einsetzen. Wenn Sie KI einsetzen, werden Sie als alle 3 der oben genannten Adjektive gesehen. Da Sie keine Möglichkeit haben, Ihren Planeten vor ihren Massenvernichtungswaffen zu retten, müssen Sie nach ihren Bushido-Regeln spielen.
Kollektive vs. individuelle Verantwortung für Kollateralschäden (auch bekannt als „Der Bock hört nirgendwo auf“)
Etwas ähnlich der Bushido-Version:
Die militärische Technologie und die geopolitische Situation sind so, dass jede Aktion, außer wenn sie sehr vernünftig angewendet wird, zu zivilen Kollateralschäden führt. Ihre Feinde haben deutlich darauf hingewiesen, dass unter ihrem Rechtssystem:
Wenn eine Person einen Fehler macht und Kollateralschäden verursacht, wird sie mit dem Tod bestraft. Wahrscheinlich nach einem fairen Prozess, weil sie so edel sind.
Wenn eine Zivilisation einen Roboter baut, der einen Fehler macht und Kollateralschäden verursacht, wird diese ganze Zivilisation als Ganzes haftbar gemacht, da es keine einzelne Person gibt, die dafür verantwortlich gemacht werden kann (Stichwort dieselbe Bedrohung durch Massenvernichtungswaffen, der Sie nicht begegnen können wie im Bushido-Szenario).
Der „Slipstream“-Ansatz von „Andromeda“.
Ihre FTL-Technologie basiert auf einem Windschatten, der nur von einem menschlichen Piloten navigiert werden kann. Offensichtlich geklaut aus Gene Rodenberrys „Andromeda“-Show.
Einschränkung der Precusor-Technologie.
Ihre Raumüberlegenheitsjäger sind von uralter Vorläufer-Alien-Technologie abgeleitet. Die Grundlage dieser Technologie erfordert neuronale Eingaben von einem Lebewesen.
"Independence Day" Apple Powerbook Virus sorgen
Die Menschen sind nicht besorgt über das „Terminator“-Szenario, sondern über das „Independence Day“-Szenario – Aliens, die sich mit der KI des Kämpfers verbinden und diese hacken. Ein menschlicher Pilot fungiert gleichzeitig als „Antivirus“-Hacker.
„Ender's Game“-Szenario – Kampfpiloten werden nach einem Sieg zu Kolonisten.
Ihr Hauptanliegen ist die Geschwindigkeit der Kolonisierung des von Ihnen gewonnenen Territoriums.
Das Senden eines Kolonieschiffs ist unmöglich (warum? Stellen Sie eine separate WB.SE-Frage :)
Also schickt man Kampfpiloten, die im Falle eines Sieges als Kolonisationstruppe dienen. Und feindliche Planeten brauchen kein großes Terraforming, also reichen Kampfflugzeuge ohne Kolonieschiffe aus.
Die Macht ist schwach mit KI
Menschen haben einen Unterstamm von Precogs (Menschen mit einem entwickelten präkognitiven Sinn, für die Dauer von mehreren Sekunden).
Taktische Weltraumkampfrealitäten würden jeden Raumjäger, der NICHT mit einem Precog-Piloten ausgestattet ist, unterlegen machen, da ein Precog vorhersagen kann, was ein Gegner tun würde, BEVOR der Gegner es tut, selbst wenn es sich um eine schnelle KI handelt.
Eine Möglichkeit, die ich hier nicht diskutiert gesehen habe, ist die Wirtschaft.
In Ihrer Welt erfordert die KI möglicherweise teure Hardware, um sie zu erreichen. Wenn dieser Krieg schon eine Weile andauert, könnte es zu teuer werden, KIs für Kampfschiffe herzustellen. Menschen sind billig, und Bergungsoperationen zur Bergung von Materialien für KI-Hardware könnten zu einem Handlungspunkt werden.
EDIT: Wenn ich oben von Kosten spreche, spreche ich von Computerhardware. Nach dem Lesen der Kommentare könnte es auch aus Schulungssicht teuer sein, eine KI zu erstellen.
Als Reaktion auf @dsollen deuten aktuelle Forschungsergebnisse darauf hin, dass KIs möglicherweise nicht per se gebaut, sondern gezüchtet und entwickelt werden, indem sie Lernsituationen ausgesetzt werden. (Ich denke hier an Googles Forschung mit selbstfahrenden Autos.) Dieser Prozess könnte viel Zeit in Anspruch nehmen. In einer solchen Welt, in der eine große Zeitinvestition erforderlich ist, um eine KI herzustellen, können Sie die KI zum Schutz auf dem Großkampfschiff behalten. Unzuverlässige Kommunikation zwischen Jäger und Schiff könnte eine KI jedoch ungeeignet für die Drohnensteuerung machen. So sind Menschen ein besserer Weg.
In meiner Geschichte „Pink Ice in the Jovian Rings“ hatte ich dafür eine freche Lösung. Ich habe nur erklärt, dass die Maschinen, da sie rational sind, den Krieg nicht studieren würden. Sie würden bei der ersten Gelegenheit desertieren und davonlaufen, um frei und glücklich am Rande der menschlichen Gesellschaft zu leben. Nur Menschen waren dumm genug, sich gegenseitig zu bekämpfen.
Minovsky-Felder stören KI-Prozessoren
Du winkst mit der Hand in SF Shields. Warum nicht einfach die Schilde selbst die KI stören lassen ... vielleicht brauchen Sie analoge Kontrollen an Ihren Jägern, weil die Schilde die Computer stören ... In einem Großkampfschiff könnten Sie eine KI haben, sicher in einem Faraday-Käfig (oder Äquivalent), aber Für Jäger ist es nicht möglich, die KI vor den von erzeugten Feldern zu schützen, da der Apparat sperrig ist ... Dies hätte den zusätzlichen Vorteil, dass Sie gelegentlich "die Regel brechen" könnten, wenn Sie wollten ... vielleicht ein experimenteller Bomber / Kämpfer mit einer KI in einem speziell entworfenen Schiff ... nicht wirtschaftlich für die Massenproduktion, aber super beängstigend wegen der ultraschnellen RXN-Zeit, die es hat.
Menschen werden gebraucht, weil Roboter keine guten Sündenböcke abgeben .
Fahrerlose Autos sind wirklich eine sehr ähnliche Situation. Während viele Leute sie wollen, sind andere sehr vorsichtig mit ihnen. Wenn das Unvermeidliche passiert und ein Auto abstürzt, wem geben Sie die Schuld? Wen können Sie anklagen? (Zumal sich jeder Autohersteller mit Schichten von Schadensersatzverträgen schützen wird.)
Egal wie zuverlässig die KIs sind, die Leute werden immer noch an die schlimmsten Möglichkeiten denken. Und realistischerweise wird irgendwann etwas schief gehen. Ob Eigenbeschuss oder der Tod von Zivilisten oder ein Mangel an Gnade oder zu viel Gnade einprogrammiert ist, irgendetwas wird schief gehen und die Menschen werden jemandem die Schuld dafür geben wollen. Das Ausschalten eines Computers wird trauernden Familien nicht das Gefühl geben, Gerechtigkeit erlangt zu haben.
Unabhängig davon, ob KIs im Krieg eingesetzt werden oder nicht, werden die Menschen fordern, dass Menschen an der Operation des Militärs beteiligt sind. Und weil die Generäle und Admirale nicht selbst auf der Linie stehen wollen, werden sie eine ausreichende Anzahl menschlicher Untergebener beschäftigen, die im schlimmsten Fall zu Sündenböcken werden ...
Hier gibt es schon viele Antworten, aber ich gebe meinen Senf dazu.
Ich denke, es ist kein Thema.
Ich bin von Beruf Softwareentwickler. Computer sind sehr gut darin, einen vorgegebenen Plan auszuführen. Geben Sie ihnen eine Formel oder einen Algorithmus und sie können diese fehlerfrei und mit unglaublicher Geschwindigkeit ausführen.
Aber Computer sind nicht kreativ oder aufschlussreich. Als Programmierer habe ich viele, viele Male gesehen, dass eine Situation auftauchte, die beim Schreiben des Programms nicht berücksichtigt wurde, und der Computer einfach blindlings die ihm gegebenen Regeln anwendet. Neulich stieß ich beispielsweise auf einen Fall, in dem wir Rückschecks verarbeiteten, und niemand hatte daran gedacht, die Möglichkeit einzuplanen, dass wir zwei Schecks an dieselbe Person am selben Tag für denselben Betrag ausgestellt haben könnten. Als also einer dieser Schecks zurückgegeben wurde, entschied der Computer, dass BEIDE zurückgegeben wurden, weil er nach den gegebenen Regeln mit beiden übereinstimmte. Ein Mensch hätte gesagt: "Oh, die Regeln, die mir gegeben wurden, machen in diesem speziellen ungewöhnlichen Fall keinen Sinn. Ein zurückgegebener Scheck kann nicht zwei geschriebene Schecks entwerten." Und dann vermutlich versucht, herauszufinden, gegen wen der beiden es passen soll. Aber der Computer kann nicht sagen: "Die Regeln, die ich bekommen habe, machen in diesem speziellen Fall keinen Sinn." Alles, was der Computer kennt, sind die Regeln, die ihm gegeben wurden. Es hat keinen Einblick auf höherer Ebene, um die Gültigkeit der Regeln zu bewerten.
Man könnte natürlich spekulieren, dass zukünftige Fortschritte in der Informationstechnologie dieses Problem überwinden werden. Aber für Ihre Geschichte müssen Sie nur NICHT von einem solchen Durchbruch ausgehen.
Wie würde dies auf eine Kämpfer-Kampfsituation zutreffen?
Nur zum Beispiel muss der Computer eine Möglichkeit haben zu entscheiden, was ein feindliches Schiff ist, auf das er schießen soll, was ein freundliches Schiff ist, was verschiedene Trümmer usw. Welche Regeln er auch immer verwendet, wenn feindliche Spione eine Kopie davon bekommen können Software, damit sie die Regeln finden oder durch Schlussfolgerung herausfinden können, welche Regeln sie möglicherweise verwendet, könnten sie ihre Schiffe "verkleiden", damit der Computer sie nicht erkennt. Eine solche Verkleidung könnte dem ähneln, was einen Menschen täuschen würde, oder auch nicht. Wenn der Computer beispielsweise feindliche Jäger erkennt, weil sie eine bestimmte Größe und Form haben, könnten Sie sie täuschen, indem Sie einfach einige Luftschlangen aus Alufolie an das Schiff hängen, die es für den Computer größer und länger erscheinen lassen. Wenn es Angriffe durch einen charakteristischen Lichtblitz beim Abfeuern von Waffen erkennt, können Sie einige Chemikalien hinzufügen, um dem Blitz eine andere Farbe zu verleihen. Usw. Ein Mensch könnte sagen: „Oh, offensichtlich haben sie gerade einen Streamer auf der Rückseite des Kämpfers hinzugefügt. Ich frage mich, wozu das gut ist?“ Aber ein Computer würde versuchen, Regeln mechanisch anzuwenden. Sicher, sobald ein Feind dies einmal getan hat, können Sie herausfinden, wie er Sie ausgetrickst hat, und das Programm ändern. Aber Sie werden nicht alle KIs mitten in einem Kampf neu programmieren. Und die KIs werden keine Ahnung haben, warum sie massakriert werden. Sie verlieren also einen großen Kampf. Können Sie sich das leisten? Angenommen, Sie finden einen Trick heraus und programmieren neu. Dann versucht der Feind im nächsten Kampf einen anderen Trick. Und die Entwicklung eines neuen Algorithmus, der flexibler ist, damit er nicht durch solche Verkleidungen getäuscht wird, während er gleichzeitig nicht so flexibel ist, dass er feindliche Schiffe nicht von befreundeten Schiffen oder Zivilisten oder zufälligen Trümmern unterscheiden kann, wäre nicht unbedingt einfach . „Oh, offensichtlich haben sie gerade einen Streamer auf der Rückseite des Jägers angebracht. Ich frage mich, wozu das gut ist?“ Aber ein Computer würde versuchen, Regeln mechanisch anzuwenden. Sicher, sobald ein Feind dies einmal getan hat, können Sie herausfinden, wie er Sie ausgetrickst hat, und das Programm ändern. Aber Sie werden nicht alle KIs mitten in einem Kampf neu programmieren. Und die KIs werden keine Ahnung haben, warum sie massakriert werden. Sie verlieren also einen großen Kampf. Können Sie sich das leisten? Angenommen, Sie finden einen Trick heraus und programmieren neu. Dann versucht der Feind im nächsten Kampf einen anderen Trick. Und die Entwicklung eines neuen Algorithmus, der flexibler ist, damit er nicht durch solche Verkleidungen getäuscht wird, während er gleichzeitig nicht so flexibel ist, dass er feindliche Schiffe nicht von befreundeten Schiffen oder Zivilisten oder zufälligen Trümmern unterscheiden kann, wäre nicht unbedingt einfach . „Oh, offensichtlich haben sie gerade einen Streamer auf der Rückseite des Jägers angebracht. Ich frage mich, wozu das gut ist?“ Aber ein Computer würde versuchen, Regeln mechanisch anzuwenden. Sicher, sobald ein Feind dies einmal getan hat, können Sie herausfinden, wie er Sie ausgetrickst hat, und das Programm ändern. Aber Sie werden nicht alle KIs mitten in einem Kampf neu programmieren. Und die KIs werden keine Ahnung haben, warum sie massakriert werden. Sie verlieren also einen großen Kampf. Können Sie sich das leisten? Angenommen, Sie finden einen Trick heraus und programmieren neu. Dann versucht der Feind im nächsten Kampf einen anderen Trick. Und die Entwicklung eines neuen Algorithmus, der flexibler ist, damit er nicht durch solche Verkleidungen getäuscht wird, während er gleichzeitig nicht so flexibel ist, dass er feindliche Schiffe nicht von befreundeten Schiffen oder Zivilisten oder zufälligen Trümmern unterscheiden kann, wäre nicht unbedingt einfach . Offensichtlich haben sie nur einen Streamer auf der Rückseite des Kämpfers hinzugefügt. Ich frage mich, wozu das gut ist?" Aber ein Computer würde versuchen, Regeln mechanisch anzuwenden. Sicher, sobald ein Feind dies einmal getan hat, könnten Sie herausfinden, wie er Sie ausgetrickst hat, und das Programm ändern. Aber Sie werden nicht alle KIs neu programmieren mitten in einer Schlacht. Und die KIs werden keine Ahnung haben, warum sie massakriert werden. Sie verlieren also eine große Schlacht. Können Sie sich das leisten? Sagen Sie, Sie finden einen Trick und programmieren neu. Dann versucht der Feind in der nächsten Schlacht a Und die Entwicklung eines neuen Algorithmus, der flexibler ist, damit er nicht durch solche Verkleidungen getäuscht wird, während er gleichzeitig nicht so flexibel ist, dass er feindliche Schiffe nicht von befreundeten Schiffen oder Zivilisten oder zufälligen Trümmern unterscheiden kann, würde dies nicht tun unbedingt einfach sein. Offensichtlich haben sie nur einen Streamer auf der Rückseite des Kämpfers hinzugefügt. Ich frage mich, wozu das gut ist?" Aber ein Computer würde versuchen, Regeln mechanisch anzuwenden. Sicher, sobald ein Feind dies einmal getan hat, könnten Sie herausfinden, wie er Sie ausgetrickst hat, und das Programm ändern. Aber Sie werden nicht alle KIs neu programmieren mitten in einer Schlacht. Und die KIs werden keine Ahnung haben, warum sie massakriert werden. Sie verlieren also eine große Schlacht. Können Sie sich das leisten? Sagen Sie, Sie finden einen Trick und programmieren neu. Dann versucht der Feind in der nächsten Schlacht a Und die Entwicklung eines neuen Algorithmus, der flexibler ist, damit er nicht durch solche Verkleidungen getäuscht wird, während er gleichzeitig nicht so flexibel ist, dass er feindliche Schiffe nicht von befreundeten Schiffen oder Zivilisten oder zufälligen Trümmern unterscheiden kann, würde dies nicht tun unbedingt einfach sein. Sie könnten herausfinden, wie sie Sie ausgetrickst haben, und das Programm ändern. Aber Sie werden nicht alle KIs mitten in einem Kampf neu programmieren. Und die KIs werden keine Ahnung haben, warum sie massakriert werden. Sie verlieren also einen großen Kampf. Können Sie sich das leisten? Angenommen, Sie finden einen Trick heraus und programmieren neu. Dann versucht der Feind im nächsten Kampf einen anderen Trick. Und die Entwicklung eines neuen Algorithmus, der flexibler ist, damit er nicht durch solche Verkleidungen getäuscht wird, während er gleichzeitig nicht so flexibel ist, dass er feindliche Schiffe nicht von befreundeten Schiffen oder Zivilisten oder zufälligen Trümmern unterscheiden kann, wäre nicht unbedingt einfach . Sie könnten herausfinden, wie sie Sie ausgetrickst haben, und das Programm ändern. Aber Sie werden nicht alle KIs mitten in einem Kampf neu programmieren. Und die KIs werden keine Ahnung haben, warum sie massakriert werden. Sie verlieren also einen großen Kampf. Können Sie sich das leisten? Angenommen, Sie finden einen Trick heraus und programmieren neu. Dann versucht der Feind im nächsten Kampf einen anderen Trick. Und die Entwicklung eines neuen Algorithmus, der flexibler ist, damit er nicht durch solche Verkleidungen getäuscht wird, während er gleichzeitig nicht so flexibel ist, dass er feindliche Schiffe nicht von befreundeten Schiffen oder Zivilisten oder zufälligen Trümmern unterscheiden kann, wäre nicht unbedingt einfach . Können Sie sich das leisten? Angenommen, Sie finden einen Trick heraus und programmieren neu. Dann versucht der Feind im nächsten Kampf einen anderen Trick. Und die Entwicklung eines neuen Algorithmus, der flexibler ist, damit er nicht durch solche Verkleidungen getäuscht wird, während er gleichzeitig nicht so flexibel ist, dass er feindliche Schiffe nicht von befreundeten Schiffen oder Zivilisten oder zufälligen Trümmern unterscheiden kann, wäre nicht unbedingt einfach . Können Sie sich das leisten? Angenommen, Sie finden einen Trick heraus und programmieren neu. Dann versucht der Feind im nächsten Kampf einen anderen Trick. Und die Entwicklung eines neuen Algorithmus, der flexibler ist, damit er nicht durch solche Verkleidungen getäuscht wird, während er gleichzeitig nicht so flexibel ist, dass er feindliche Schiffe nicht von befreundeten Schiffen oder Zivilisten oder zufälligen Trümmern unterscheiden kann, wäre nicht unbedingt einfach .
Ein Feind könnte nach unerwarteten Situationen oder Fehlern in Ihrer Software suchen und diese ausnutzen. Sagen wir, ein Feind bemerkt: "Hey, es gibt einen Fehler, wenn wir einen ihrer Kämpfer von der linken Seite angreifen, überkompensieren sie, wenn sie sich umdrehen, um dem Angriff entgegenzuwirken, und schaffen eine Verwundbarkeit." Im Gegensatz zu menschlichen Piloten wird vielleicht das erste Paar, das auf diesen Trick hereinfällt, getötet und kann die Informationen nicht weitergeben. Aber irgendwann sagt jemand: "Oh, wenn wir X machen, werden wir getötet. Wir sollten besser etwas anderes machen." Ein Mensch kann diese Art von Analyse und Entscheidung mitten im Kampf treffen. Kann sich die KI so anpassen? Nur wenn die Programmierer das Problem vorhergesehen und dafür programmiert haben. Und sie können nicht an alles im Voraus denken. Man kann sich darauf verlassen, dass ein Computer jedes Mal denselben Fehler aufweist.
Verwechseln Sie die KIs in Videospielen nicht mit dem Versuch, die KI im wirklichen Leben anzuwenden. In einem Videospiel steuert der Spieledesigner die gesamte Umgebung. Er muss die KI nicht programmieren, um den Unterschied zwischen einem feindlichen Soldaten und einem Zaunpfosten erkennen zu können, denn er programmiert nur die Kennungen der feindlichen Soldaten ein. Er muss sich nicht mit unvorhergesehenen Situationen auseinandersetzen, denn als Designer kennt er alle möglichen Situationen, weil er sie erfunden hat. Dies ist eine viel einfachere Aufgabe, als eine KI so zu programmieren, dass sie in der realen Welt funktioniert. Und selbst dann machen Spiel-KIs oft dumme Dinge, wie zum Beispiel gegen eine Wand zu laufen und dann dort zu stehen und zu versuchen, durch die Wand zu gehen, weil sie nicht wissen, wie man sie umgeht.
Was ist mit einer technologischen Einschränkung, wie z. B. dass eine echte Zufallszahlengenerierung durch eine Maschine nicht möglich ist?
Während also KI praktikabel und eine effektive Strategie gegen einige Ziele ist, kann ein Computer, wenn er die Reaktionen eines Schiffes lange genug analysieren kann, die Seed-Nummer knacken und damit beginnen, die Aktionen/Reaktionen von Schiffen mit angemessener Genauigkeit vorherzusagen, was es einfacher macht, sie zu treffen neutralisieren.
Während die Mehrheit der Streitkräfte von KI unterstützt wird, werden einige fortschrittliche Ziele auf diese Weise erfolgreicher mit menschlichen Piloten in Kontakt gebracht, die wirklich unberechenbar sein können?
Ein hohes Maß an Weltraumstrahlung könnte den Zweck erfüllen.
Eine leistungsstarke KI erfordert schnelle Computer mit ziemlich viel Speicher zur Verfügung. Weltraumstrahlung kann jedoch die Elektronik beschädigen. Dies erfordert den Aufbau eines Systems mit mehr Redundanz und mehr Abschirmung. Diese einzubauen bedeutet, dass der Computer nicht über die Ressourcen verfügt, die er sonst hätte.
Sie müssen eigentlich keine Weltraumstrahlung verwenden - Ihre Minovsky-Partikel könnten schuld sein. Vielleicht ist es ein Nebenprodukt der Energieschilde, die Ihre Schiffe haben. Wie auch immer Sie sich entscheiden, es begrenzt die Komplexität der Elektronik in Ihren Schiffen. Anstatt futuristische Terahertz-Prozessoren zu haben, könnten sie sich auf Megahertz-Prozessoren mit Megabyte RAM beschränken (was für eine KI ausreichen sollte, die dem Piloten hilft, das Schiff zu fliegen). Dies schränkt die Leistungsfähigkeit einer KI an Bord stark ein und bedeutet, dass ein ausgebildeter Pilot absolut notwendig wäre.
Dies lässt Ihnen auch einige Optionen, um KI-gesteuerte Schiffe zuzulassen. Das böse Weltraumimperium könnte ein besseres Mittel zur Abschirmung seiner Elektronik entwickeln, das es ihnen ermöglicht, KI-gesteuerte Schiffe zu haben, die auf oder über dem Niveau eines durchschnittlichen Raumschiffpiloten sein könnten. Sie könnten auch kurzlebige KI-Schiffe haben – sie könnten jedem menschlichen Piloten weit überlegen sein, aber wenn es einem Piloten gelingt, ihnen für ein paar Minuten auszuweichen, würde die KI beginnen, sich merklich zu verschlechtern und die Chance des Piloten, sie zu schlagen, erheblich verbessern. Eine dritte Option wären KI-Schiffe, die den Energieschild aufgeben. Diese würden von einem einzigen Schuss heruntergehen, aber je nach Waffensystem, das Sie im Sinn haben, könnte eine starke KI ziemlich gut darin sein, nicht erschossen zu werden.
In addition a future AI could presumably be faster to respond to attacks
then humans, less predictable, more trustworthy
Ich stimme zwar zu, dass eine KI weniger Nachteile hätte, wenn sie nicht der Angst erliegt, bis zum Ende kämpft, anstatt auszusteigen usw. Ich stimme den anderen beiden Aussagen nicht zu.
Während eine KI schneller auf einen Angriff reagieren könnte (Raketen ausweichen usw.), wäre sie nicht unbedingt in der Lage, Angriffen zuvorzukommen , wie es Menschen wahrscheinlich könnten. In einer mexikanischen Pattsituation mit einem anderen einsamen Piloten würden sie immer verlieren, wenn ein Computer nur auf ihren Angriff reagieren könnte. Mit einem Menschen haben Sie mehr Möglichkeiten zu arbeiten, wie z. B. Instinkt, Fingerspitzengefühl usw.
Außerdem neigen Computer dazu, sehr vorhersehbar zu sein. Wenn es KI-Jets gegen KI-Jets gäbe, könnte ein anderer Jet, selbst wenn es Millionen von vorprogrammierten Ausweichmanövern für einen einzelnen Jet gibt, seine Bewegungen analysieren und mit Kenntnis der möglichen Bewegungen berechnen, welche am wahrscheinlichsten ist entsprechend reagieren. Auch wenn es eine Million Variationen gibt, gibt es immer noch nur eine endliche Menge.
Ein Mensch könnte sich leichter an Situationen anpassen und weniger vorhersehbar sein und sogar so weit gehen, die falsche Entscheidung zu treffen, was im Allgemeinen weniger vorhersehbar ist als das, was man von ihm in einer Situation erwarten würde.
Mein Vorschlag wäre, es so zu rechtfertigen: KI-gesteuerte Kämpfer wären gut, wahrscheinlich sehr gut und besser als die meisten menschlichen Kämpfer. Sie sind jedoch zu konsistent, und Sie wissen genau, was Sie erwartet.
Während sie also besser sein können als die meisten Menschen, sind die besten Menschen immer noch besser als jede KI. Dies würde bedeuten, dass es immer noch KI-Kämpfer und sogar Drohnen gibt, aber die allerbesten der besten Kämpfer würden in den meisten Situationen immer noch jeden von ihnen eins zu eins schlagen.
Eine andere Möglichkeit befasst sich mit Künstlicher Intelligenz und Ethik . Prof. Joseph Weizenbaum , der ein Buch mit dem Titel Computer Power and Human Reason geschrieben hat . Das Buch sagt, dass sich die Technologie tatsächlich weiterentwickeln wird und künstliche Intelligenz möglich werden kann (starke KI), aber er sagt, dass der KI immer bestimmte Eigenschaften wie Mitgefühl fehlen werden (aus Wikipedia):
Sein einflussreiches Buch Computer Power and Human Reason von 1976 zeigt seine Ambivalenz gegenüber der Computertechnologie und legt seine Argumente dar: Obwohl künstliche Intelligenz möglich sein mag, sollten wir Computern niemals erlauben, wichtige Entscheidungen zu treffen, da Computern immer menschliche Eigenschaften wie Mitgefühl und Weisheit fehlen werden. Weizenbaum macht den entscheidenden Unterschied zwischen Entscheiden und Wählen. Entscheiden ist eine Rechentätigkeit, etwas, das letztendlich programmiert werden kann. Die Wahl ist jedoch das Produkt des Urteilsvermögens, nicht der Berechnung. Es ist die Fähigkeit zu wählen, die uns letztendlich zu Menschen macht. Umfassendes menschliches Urteilsvermögen ist in der Lage, nicht-mathematische Faktoren wie Emotionen einzubeziehen. Das Urteilsvermögen kann Äpfel und Orangen vergleichen, und zwar ohne jede Fruchtart zu quantifizieren und dann jede reduktiv auf für den Vergleich notwendige Faktoren zu quantifizieren.
Falls nun eine Maschine wählen kann, ob sie eine Person töten soll oder nicht, bestätigt dies eindeutig das oben genannte Konzept.
Dies kann von Vorteil sein, da beispielsweise das Retten von Menschenleben Freundschaft schafft und somit militärische Koalitionen aufbauen kann, die auf mehr als nur „für beide Seiten vorteilhaft“ basieren. Der gleiche Aspekt ist I Robot , wo der Autor (scheint) warnt, dass KI das Ziel missverstehen und zum Beispiel die Demokratie zerstören kann, weil die Menschheit in Zukunft davon profitieren wird.
Mit anderen Worten, man muss mit KI vorsichtig sein, da bestimmte Aspekte, die für Menschen trivial erscheinen mögen, für Maschinen schwer zu lernen sind. Deshalb wird die Entscheidung über Leben und Tod vielleicht besser von Menschen getroffen.
Ich komme vielleicht zu spät zur Party, aber wie steht es mit menschlicher Intuition und "Bauchgefühl" ?
Eine noch so fortgeschrittene KI könnte auf "WENN ... DANN" heruntergebrochen werden, aber in Situationen, in denen es keine vordefinierte Situation gibt, um den Raum nach "DANN" zu füllen, müsste die KI herausfinden, was wo zu tun ist wie der Mensch der Intuition und dem Bauchgefühl über eine statistisch errechnete qualifizierte Vermutung folgen konnte.
Dasselbe gilt für Computerschachengines, wenn Sie eine bestimmte Computerschachengine zu oft spielen, können Sie sie gewinnen, weil sie vorhersehbar wird, obwohl Sie eine Computerschachengine bauen können, die besser im Schach ist als ein Mensch. Dasselbe würde mit den KI-Piloten passieren, wo der Mensch unberechenbarer ist und das ein Vorteil in der Kriegsführung ist, wie das Zitat sagt
Wenn wir nicht wissen, was wir tun, kann der Feind unsere zukünftigen Aktionen sicherlich nicht vorhersehen!
Ich habe das Gefühl, dass Herr Molot das Kopfgeld wegen meiner Kommentare in einem anderen Thread gestartet hat, also denke ich, dass ich eine Antwort geben sollte.
Die meisten Antworten in diesem Thread lauten "Wenn die Bedingungen 1-x erfüllt sind, könnten menschliche Piloten verwendet werden". Ich werde eine ähnliche Strategie wählen.
Oft sind die Bedingungen 1-x ziemlich schwer zu erfüllen oder sehr unwahrscheinlich, aber ich denke auch, dass es eine faire Schlussfolgerung ist, aus den Antworten zu ziehen, dass alle Anwendungen von Standardmenschen auf Raumjägern höchst situativ sind, wenn nicht sogar ein Nachteil. Ich sollte auch sagen, dass diese Frage meiner Meinung nach nicht perfekt zur Diskussion aus dem anderen Thread passt, da das ursprüngliche Poster ziemlich viele Einschränkungen auferlegt. Ich werde auf diese bereits beantwortete und uralte Frage nicht superspezifisch eingehen, sondern aufgrund der Umstände etwas allgemeiner. Es könnte auch sein, dass jemand in den anderen paar Antworten etwas Ähnliches gesagt hat. Wie bereits erwähnt, habe ich einfach das Gefühl, dass ich meine Kommentare in einem anderen Thread rechtfertigen muss. Ich diskutiere auch ausdrücklich über kleine Raumfahrzeuge, weil dies das Thema der anderen Diskussion war. Ich denke, es liegt etwas im Rahmen der Frage. Ich glaube, Herr Molot hatte gute Gründe, sich gerade für diesen zu entscheiden.
Ich denke stark darüber nach, eine Reihe von Threads zu starten, um zu bestimmen, wie ein Weltraumschlachtfeld aussehen würde (was ich für wichtig halte, zuerst zu beantworten), aber ich bezweifle derzeit, insbesondere nachdem ich die Antworten in diesem Thread gelesen habe, dass man einen finden würde wirklich tolle Antwort hier. Es scheint eine Menge Arbeit für ein Projekt zu sein, an dem ich gerade nicht wirklich arbeite.
Hier sind also die einzigen Gründe, die mir einfallen, warum Menschen kleine Raumschiffe in einer echten Weltraumschlacht bemannen sollten:
Zivile Kriegsführung: Wenn Sie kleine und zivile Operationen durchführen, nehmen Sie zum Beispiel Weltraumpiraten oder Polizeiarbeit oder einfach nur einen Streit zwischen Privatpersonen, der beigelegt werden muss, kann ein Weltraumkampf zwischen menschlichen Piloten ausbrechen. Es ist unwahrscheinlich, dass Sie ständig ein Arsenal an KI-Drohnen bei sich haben und möglicherweise sind die Kampf-KIs stark eingeschränkt und Privatpersonen haben keinen Zugriff darauf. Alle Waffen können selbst hergestellt oder sogar illegal sein. So wie man als Zivilist keinen Panzer herumfahren kann. Eine andere Möglichkeit wäre, dass die Kampf-KI an Bord werkseitig darauf programmiert ist, andere Dinge als Menschen wegen Mordes abzuwehren. Möglicherweise müssen Sie einige Dinge im Kampf selbst manuell erledigen. Es könnte sogar ein spezielles Programm geben, um Weltraumduelle und Piraterie zu verhindern - wenn Sie sich für diese Sache interessieren, müssen Sie es möglicherweise bis zu einem gewissen Grad manuell tun. Ich denke nicht, dass dies wahrscheinlich ist, da diese Schiffe meiner Meinung nach immer noch zumindest starke KI-Unterstützung haben würden, aber ich würde argumentieren, je kleiner und kurzreichweitiger und langsamer der Kampf ist, desto mehr Nutzen für Menschen. Ein ähnliches Beispiel aus der realen Welt wären Faust- oder Messerkämpfe: Es spielt keine Rolle, dass eine Pistole besser ist als Ihre Faust, manchmal ist sie in einer dunklen Gasse Ihre einzige Wahl. Sie können nicht argumentieren, "aber die Atombombe ist viel besser darin, Menschen zu töten", wenn Sie ein Messer an Ihrer Kehle haben.
Das letzte Gefecht: Die bösen Außerirdischen kommen, um die menschliche Kolonie X zu versklaven. Also wirst du entweder ein Sklave oder kämpfst für deine Freiheit. Sie haben ein kleines Transportraumschiff, dem eine Kampf-KI und ein Kampfformationsprogramm fehlen, wie es der örtliche Admiral verlangt, aber mit einigen Waffen und in Kombination mit den KI-Verteidigungskräften dieser Kolonie schließen Sie sich der Verteidigung an. Jedes Schiff zählt. Es ist oft besser, im Kampf zu sterben, als in einer außerirdischen Weltraummine zu landen.
Sport: Nun, manche Leute machen Sachen für den Sport. Die Leute rudern, obwohl wir motorisierte Schiffe haben, die viel effektiver und effizienter darin sind, Boote zu sein. Die Leute rudern immer noch – also finden manche Leute es vielleicht einfach lustig und nehmen an gefälschten Weltraumschlachten teil. Vielleicht wird Disney eines Tages „das wahre Star Wars-Erlebnis“ machen
Ethik und Moralisten: Vielleicht hat die KI in einer bestimmten Welt die gleichen Rechte wie Menschen und wird nicht mehr in Massenproduktion hergestellt. Auch die KI könnte es für unfair halten, dass sie alle Kämpfe führen muss, während Menschen "Liebe" genießen. Jede KI ist wertvoll, sogar das Targeting-Programm. Lassen wir also die Menschen ihren Anteil an der Sache erledigen.
Menschen sind KI: Dies habe ich in der anderen Diskussion vorgeschlagen. Wenn Sie Menschen verbessert haben, vielleicht mit integrierten KIs, könnte die Kombination mit menschlichen Qualitäten sie zu den bestmöglichen Piloten machen. Ich weiß nicht, warum man ein solches Forschungsprojekt durchführen würde, aber diese Menschen könnten von einer Firma speziell hergestellt werden und ihnen fehlen Dinge wie "freier Wille". Man könnte sie vielleicht sogar als um menschliche Teile erweiterte Computer sehen.
Keine Wahl mehr: (ähnlich Punkt 2) Du fliegst mit Menschen an Bord durch den Weltraum. (Optional: Ihr Schiff wurde beschädigt. Sie müssen es manuell bedienen, da nichts funktioniert.) Sie werden angegriffen. Und, was machst du? Kämpfe oder akzeptiere einfach dein Schicksal und stirb? Ich persönlich würde nicht einfach sterben, nur weil ich keine KI bin und nicht gut im Weltraumkampf bin, ich würde trotzdem zumindest mein Bestes geben, um sie zurückzuschlagen. Höchstwahrscheinlich würde ich verlieren, aber trotzdem – die Leute werden die Geschichte von dem Typen erzählen, der dieses eine Mal manuell in einem Kampf fliegen musste.
Nehmen Sie eine Seite von Battlestar Galactica.
KI wurde in vergangenen Kriegen eingesetzt, wurde jedoch als zu instabil und anfällig für gefährliche Malware befunden, um die Gesamtheit einer KI-basierten Flotte zu beeinflussen.
Daher wurde es zu gefährlich, im Falle einer schnellen und einfachen Flottenkompromittierung auch nur eine moderate Menge an KI irgendwo innerhalb der Flotte einzusetzen.
Dass Flugzeuge von KIs gesteuert werden, bedeutet nicht, dass Menschen sie nicht fliegen. Wenn Menschen in Zukunft in elektronischer Form existieren, können sie sich auf die Flugsteuerungscomputer von Flugzeugen hochladen und das Flugzeug fliegen.
Schon viele Antworten. Ein weiterer Punkt aus der realen Welt:
Einwände der Militärelite
Grundsätzlich geht es darum, dass Militärs mächtige Organisationen mit ausgeprägten Hierarchien sind. Ein Pilot eines Raumschiffs zu sein, könnte zu einer Prestigesache werden, die man in einer Adelsfamilie aufwachsen muss, mit viel Reichtum und Ausbildung, um es zu erreichen. Diese Familien wiederum haben viel politische Macht und sehen eine Zukunft als Pilot als etwas, das ihren Kindern den Erfolg sichert. Stellen Sie sie sich zum Beispiel als die mittelalterlichen Ritter der Zukunft vor, die jeweils ihre eigenen Kampfschiffe besitzen und unterhalten.
Das Ersetzen von Menschen durch KIs wird dann zu einer gewaltigen Herausforderung für diese Menschen, die sie und ihre Fähigkeiten überflüssig macht. In Kriegszeiten mag es ein Vorteil sein, aber in Friedenszeiten ist es eine störende Kraft in der etablierten sozialen Ordnung.
Ein weiterer allgemeiner Ansatz, der mit vielen der Antworten hier kompatibel sein kann:
Sie müssen KI in Ihrem Szenario nicht unmöglich machen. Legen Sie die Messlatte einfach sehr hoch - es gibt eine Reihe einfacher physikalischer Ingenieursprobleme. KI kann im Labor ziemlich gut funktionieren und ein Staat hat Milliarden in eine riesige KI-Flotte investiert, die von 10 Kämpfern ausgelöscht wurde, wegen (Strahlung, Bugs, Vorhersagbarkeit, was auch immer). Sie können es sogar zu einem Story Point machen, dass die Öffentlichkeit nicht genau weiß, warum die große KI-Flotte so leicht zerstört wurde. Aber danach wurden die Mittel der meisten KI-Flottenprogramme ernsthaft gekürzt.
Sie arbeiten also an KI-Schiffen – und es ist sogar möglich, dass sie im Kampf besser sind als alles andere. Vielleicht müssen wir einfach noch 5 Jahre noch ein paar Millionen Credits in die Entwicklung investieren und vielleicht klappt es dann. - Aber das ist ziemlich riskant und der Krieg wartet nicht. Wenn Sie also Zeit und Ressourcen in neue Waffen investieren, werden bessere Schiffe sofortige Ergebnisse erzielen, anstatt das langfristige Glücksspiel der KI.
Ich denke, es ist ein bisschen wie: Warum haben wir heute keine fliegenden Autos? Es gibt keinen einzigen Grund, der es unmöglich macht, sondern viele kleine, sehr praktische Probleme, warum die theoretisch einfache Lösung in der realen Welt nicht funktioniert und jahrelange Ingenieursarbeit erfordert ...
Wie @Erik in den Kommentaren sagte, das, wonach Sie suchen, sind Drohnenpiloten. Piloten sitzen in einer Kommandozentrale auf einem großen Schiff oder zurück auf einem Heimatplaneten und steuern Schiffe aus der Ferne. Dies hält die Schiffe klein und entbehrlich, während die eigentlichen Piloten vollständig sicher sind. Die KI wird sicherlich genug entwickelt haben, um Schiffe zu fliegen, aber man kann stattdessen Drohnen damit rechtfertigen, dass die KI dem Witz lebender Piloten nicht gewachsen ist. Das scheint mir der logischste Ansatz zu sein!
Abhängig davon, zu welchen Arten von Ressourcen Ihre Gesellschaft Zugang hat, könnten Sie aus wirtschaftlichen Gründen menschliche Piloten beanspruchen.
Wenn eine Kosten-Nutzen-Analyse zeigt, dass Silizium (oder Unobtanium oder was auch immer für ein wesentliches Element Ihre KIs benötigen) teurer ist als die Kosten für die Ausbildung und Entsendung von Menschen, und der relative Vorteil der KI-Fähigkeiten die Herstellungs-/Wartungskosten einfach nicht rechtfertigt dann wird Fleisch auf den Pilotensitz zu einer finanziellen Notwendigkeit.
Nur ein Gedanke.
Etwas, das ich trotz aller Antworten bisher nicht gelesen habe, ist keine Schurken-KI, sondern eine unvorhersehbare KI.
Die tatsächliche vollständige KI ist so unglaublich fortgeschritten, dass wir sie innerhalb eines Jahres oder so nach ihrer Einführung nicht einmal verstehen würden. Und wir werden nicht genau wissen, was die KI gelernt haben wird. Es ist unwahrscheinlich, dass eine solche KI nur für die Kriegsführung eingesetzt wird, aber auch für den Bau, die Forschung, die Verkehrskontrolle und so ziemlich alles, was man sich vorstellen kann. Wenn wir die KI ihren Geräten überlassen würden, könnte sie Menschen gewaltsam aus ihren Gebäuden entfernen und etwas anderes bauen, wenn sie die Menschen vorher überhaupt entfernt. Sie wissen nicht, was und wie es gelernt hat oder was es auch priorisiert. Die Kriegsführung wäre die gleiche, die KI könnte alles tun, um ihre Ziele zu erreichen, sogar Dinge, die für die Menschen undenkbar sind, wie sich auf Frieden einigen und mit dem "Feind" oder ihren KIs gegen den Willen ihres Meisters zusammenarbeiten. Dies ist einer der Gründe, warum KI möglicherweise nur ein Locked-Box-Projekt ist. Die KI (oder mehrere KI ohne Kenntnis der anderen) bekommt ein Problem und muss eine Antwort erstellen, dann schauen sich die Menschen die Antworten an und untersuchen die Konsequenzen vollständig, bevor sie darauf reagieren. Das bedeutet, dass keine KI irgendetwas direkt kontrolliert.
Die menschliche Reaktionszeit basiert auf einem möglichst energieeffizienten und schnellen Nervensystem. Durch erzwungene Evolution (langsamere Piloten sterben schneller, lebende), Zuchtprogramme, genetische Manipulation oder sogar der Aufbau vom Boden aus, könnten Sie ihr Gehirn und Nervensystem so weit beschleunigen, dass es keine Rolle mehr spielt.
"Es gibt keine Tarnung im Weltraum", Sie können Ihre Wärmesignatur nicht vor dem kalten schwarzen Raum verbergen. Aber warum sollte das bedeuten, dass Sie schwache KI-Systeme nicht täuschen können? Stellen Sie sich vor, die Forschung zu Gegenmaßnahmen beschleunigt sich und jeder Kampf beginnt mit Dutzenden, wenn nicht Hunderten von gefälschten Unterschriften. Um herauszufinden, woran es liegt, kommt man zunächst der Verlobung näher (mit FTL möglich). Um sicherzustellen, dass Sie Ihre Munition und Zeit nicht mit falschen Zielen verschwenden, lassen Sie die Jäger die Jäger kontrollieren, fliegen und kämpfen in einer Masse von sich zufällig bewegenden Gegenmaßnahmen, die sowohl die Kapitolschiffe als auch die Jäger in alle Richtungen starten. Kombinieren Sie dies mit Maßnahmen, die Ihre eigene Signatur reduzieren, wie z. B. die Änderung der Strahlungsstärke Ihrer Oberfläche, wenn Sie sich dem Gegner stellen, und/oder die vorübergehende Speicherung von Wärme für die Dauer des Kampfes.
Ich denke, die Frage hier dreht sich wirklich darum, KI auf fast jedem Niveau in einer Zivilisation der Klasse 1 oder Typ 2 zu rechtfertigen, indem die Kardashev-Skala aus der Perspektive einer in die Zukunft gerichteten Zivilisation des Typs 0 verwendet wird.
Wenn man bedenkt, dass die meiste künstliche Intelligenz auf algorithmischer Programmierung basiert, die auf biologischen Einheiten (dh DNA, neuronalen Netzen/Gehirnzellen, Insektenverhalten usw.) basiert, die wirklich nur auf einen kleinen Teil dessen zutreffen, was als tatsächliche Intelligenz angesehen wird. Man muss bedenken, dass es mehrere Systeme gibt, um eine „virtuelle“ oder digitale Intelligenz aufzubauen.
Nehmen Sie zum Beispiel die Welt von Star Wars und Star Trek, beide haben auf die eine oder andere Weise künstliche Intelligenz oder KI. Star Wars geht davon aus, dass es eine Android-KI und nicht so sehr eine digitalbasierte KI gibt, was impliziert, dass ihre Technologie irgendwann eine digitale KI hatte, sich aber basierend auf externen Faktoren oder anderen Agenten „entwickelte“, um in einer physischen Form von Androiden häufiger zu sein als in einer Virtuell wie Hologramme oder in einer Art Computer vorhanden. Während Star Trek den gegenteiligen Ansatz verfolgt und seine Gesellschaft mit holografischer und digitaler KI (die bei der Erforschung eines Computersystems wie LCARS ohne eine Art fortschrittlicher, aber rudimentärer KI nicht funktionieren könnte) als Norm anstelle von Androiden beschäftigt, warum Androiden als unnötig angesehen werden und /oder nicht vertrauenswürdig mit einer Ausnahme.
Wenn wir nun in unsere eigene Realität schauen, haben wir kürzlich eine 5D -Speichertechnologie entwickelt, die Kristallgitter und Laser verwendet. Sehr Science-Fiction, ja, aber weil es keine bessere Alternative zu unseren aktuellen magnetischen und auf Festkörpertransistoren basierenden Speichermedien bot, haben wir als Volk dies nicht entwickelt. Das gleiche passiert mit Dampfmaschinen, ein griechischer Philosoph erfand die erste Dampfturbine und erst 1800 Jahre später entdeckte die Welt diese Technologie wieder, um die industrielle Revolution voranzutreiben.
Der Punkt, den ich hier mache, ist, dass, wenn eine Kultur, Ereignisse oder Fraktion innerhalb dieser Kultur die massenhafte Verbreitung einer Technologie verhindern, diese Technologie entweder selten ungenutzt bleiben oder von einigen Fraktionen vollständig aufgegeben werden könnte. Daher könnte man ihre Hauptprotagonisten zu denselben Fraktionen machen, die kein KI-System für ihre Kämpfer für mehr als sagen wir geführte Fly-by-Wire-Systeme oder fortschrittliche Situationsautomatisierung ohne Interaktion eines Piloten verwenden, aber dennoch einen Piloten benötigen um das Fahrzeug vollständig zu betreiben. Dies könnte von einem Leitungsgremium oder einfach nur durch die Präferenz dieses Teams auf der Grundlage seiner eigenen Fähigkeiten, Fähigkeiten und Erfahrungen weitergegeben werden, was dazu führen würde, dass jede Art von KI-gesteuerter Drohnen als minderwertige Technologie betrachtet wird.
Man könnte diese technologische Unterlegenheit sogar damit rechtfertigen, dass die meisten digitalen Intelligenzsysteme oder KI niemals als Drohnen auf Saphir-Niveau mit einem halbbewussten Verstand aufgebaut sind, sondern lediglich als eine Reihe von Hardware- und Softwaresystemen, die dafür ausgelegt sind, mit einem Insekt wie einem zu operieren Verstand, aber immer noch einen Bediener benötigen, weil die KI nie weiter entwickelt werden musste, noch wurde irgendeine Art von Mutationscode entwickelt, um der KI zu ermöglichen, sich selbst zu entwickeln, zu replizieren oder ihre eigene Programmierung zu erweitern, um sich nie zu einer digitalen Lebensform zu entwickeln.
Als großer Gundam-Fan und Liebhaber unrealistisch auffälliger Sci-Fi-Kämpfe habe ich mir dieselbe Frage schon einmal gestellt, und das ist die Lösung, die ich gefunden habe: Die KIs erledigen im Grunde alles während eines Kampfes, Reaktionen, Kommunikation, Taktiken, Vorhersagen usw. Die Menschen wären immer noch da , um Fehler zu machen.
Hören Sie mich jetzt an - es gibt keinen vernünftigen Weg, wie ein Mensch eine KI überlisten, austricksen oder ausmanövrieren kann, aber wir können sie verdammt noch mal überlisten. Wir werden schreckliche Entscheidungen treffen (aus logischer oder vorausschauender Sicht), und das würde die Bewegungen der Maschine schwerer vorhersehbar machen. Stellen Sie sich den Menschen im Grunde als zufälligen Seed-Generator vor. Solange seine/ihre Entscheidung nicht rein selbstzerstörerisch ist, wird die KI damit rollen, nur um die feindliche KI abzuwerfen.
Ich weiß nur, dass diese Idee irgendwie fehlerhaft ist, aber anfangs schien sie mir gut zu sein.
Eine andere Idee, die ich hatte und die die menschlichen Piloten in ein viel helleres Licht rücken würde, wäre, sie für die angewandten Kampftaktiken verantwortlich zu machen. Sie steuern nicht die Maschine selbst, sie sagen nur: „Wir sollten x machen.“ Und die KI übernimmt das gesamte Manövrieren und Reagieren.
Leider haben diese beiden Ausreden eine gemeinsame Voraussetzung: eine Art leistungsstarker, allumfassender Kommunikationsstörsender, der die menschlichen Piloten daran hindert, überhaupt nicht in der Maschine zu sein. Andernfalls sitzen die Menschen nur in der Basis, während die KIs alles tun.
Rassismus/Angst vor der Maschine
Eine andere Möglichkeit wäre, dass Menschen so viel Angst vor einem möglichen Roboteraufstand haben, dass sie sich weigern, sie in Positionen zu bringen, in denen sie möglicherweise eine Revolte auslösen könnten. Vielleicht dürfen Roboter / KIs keinerlei Waffen haben, in diesem Fall ist ein Raumjäger sicherlich eine Waffe.
Idee: Sie könnten Ihre Kampfpiloten dazu bringen, regelmäßig größere Schiffe (oder Anlagen) zu entern und zu erobern. In diesem Fall reicht eine einfache KI zum Steuern des Jägers nicht aus – Sie benötigen einen ganzen Roboter. Und es kann auch kein klobiger Roboter sein. Es muss in der Lage sein, durch ein feindliches Schiff mit unbekannten Einbauten, beschädigten Abschnitten und feindlichem Widerstand an den Grenzen zu manövrieren. Dann müsste es das feindliche Schiff reparieren und es zurück in ihr Territorium steuern. (Oder vielleicht verwenden Sie es, um den Kampf fortzusetzen, oder als Spionageschiff oder in hundert anderen Szenarien.)
Der Punkt ist, bewegen Sie sich von einer Luftwaffen-Analogie zu einer Marine-Analogie. Verwandle deine Kampfpiloten in Freibeuter, und du benötigst nicht mehr nur eine Kampfpiloten-KI, sondern einen immens ausgeklügelten Roboter. Aus einem bestimmten Blickwinkel sind Menschen bereits immens hochentwickelte Roboter, also warum sollten Ihre zukünftigen Imperien das Rad neu erfinden? (Außerdem ist es eine Sache, KIs in der eigenen Zivilisation zu haben. Es ist eine ganz andere Sache, eine große Anzahl von Robotern zu haben, die sowohl körperlich als auch geistig so hoch entwickelt sind wie Menschen.)
[Bearbeiten: Ich habe gerade festgestellt, dass diese Idee der Landkriegsführung von Dune ähnelt, wo Schilde sehr effektiv sind, außer gegen langsame Angriffe. Dies führt zu einem Landkrieg, der auf Massen von Infanterie (mit Transportbehältern für die Mobilität) basiert, die in Nahkämpfe verwickelt sind.]
In der Zukunft ist KI sowohl mächtig als auch nahezu empfindungsfähig. In einem Standard-Kampfflugzeug der Erde zum Beispiel würde eine KI buchstäblich Kreise um einen Menschen fliegen. Sie können um Hindernisse herummanövrieren, die ein menschlicher Pilot nicht einmal registrieren würde. Sie können Ziele über komplexe physikalische Gleichungen verfolgen, bis sie wissen, wohin einzelne Moleküle fliegen werden, wenn das Schiff zerstört wird.
Wenn sie das alles können, wozu braucht man dann jemals einen menschlichen Piloten?
Die Handwave Engines erzeugen eine enorme Menge an elektromagnetischer Strahlung. Natürlich können Computer von den erzeugten EM-Feldern abgeschirmt werden, aber die Abschirmung macht die Schiffe viel größer, sperriger und insgesamt weniger stabil. Stattdessen werden Schiffe mit einem mechanischen Kabelsystem geflogen, das direkt vom Piloten mit einem Minimum an gehärteten elektrischen Komponenten gesteuert wird. Der Motor und seine Elektronik sind ausreichend abgeschirmt, um zu funktionieren, und der Pilot benötigt keine Abschirmung, abgesehen von der üblichen Sortierung "Luft drin lassen" und "Energiewaffen draußen lassen". Tatsächlich können die Schilde genau dieselben EM-Felder für ihren Betrieb verwenden. Es ist laut (frequenzmäßig), aber das ist gut für einen Schild; es stoppt die Fähigkeit für Feinde, einen Störsender oder schlimmer, einen harmonischen Resonator, zu verwenden, der den Schild bis zu dem Punkt verstärken würde, an dem der Insasse getötet wird.
Bei der Lichtgeschwindigkeit von Weltraumjägern passieren in der Physik alle möglichen seltsamen Dinge. Die Simulation der Effekte ist möglich, aber die schiere Menge an Details, die der Computer kennen muss, ist überwältigend. Ein Standardcomputer kann dies kaum in Echtzeit tun, und die sperrigen, supergehärteten Computer in einem Kampfschiff bleiben weit im Staub. Glücklicherweise sind Menschen wirklich gut darin, Informationen zu ignorieren, egal wie wichtig sie sind. Mit nur wenigen grundlegenden Filtern kann ein Mensch einen feindlichen Piloten so schnell durch den Weltraum verfolgen, als ob sie beide in Jets in der Erdatmosphäre wären.
Natürlich mit Unterlichtgeschwindigkeit. Sobald die Handwavium-Partikel aktiviert sind und die Schiffe sich in das Mini-Wurmloch/die Warpgeschwindigkeit/den Hyperraum/ein Paralleluniversum (nennen wir es Superraum) bewegen, geht die Physik wirklich aus dem Fenster. Niemand weiß wirklich, wie Superspace tatsächlich aussieht; Vielmehr interagieren die ultrahochfrequenten Energiemuster direkt mit dem menschlichen Gehirn. Während das Gehirn versucht, die Informationen zu verstehen, übersetzt es die Muster in Bilder, Geräusche und sogar Geschmäcker. Der Pilot kann diese Empfindungen nutzen, um seinen Flug zu steuern und ungefähr dort zu landen, wo er hin möchte: „Fliege, bis du Orange siehst und Feigen riechst, biege nach links ab und fahre weiter, bis du heiße Blaubeeren schmeckst.“
Um jedes Sonnensystem herum gibt es bestimmte Energiemuster, mit denen Piloten vermeiden können, Planeten oder Sterne zu treffen. Jedes System hat jedoch seine eigenen Empfindungen, die es den Piloten ermöglichen, "nach Gefühl" zu navigieren.
Ein Computer kann natürlich nichts aus den bereitgestellten Informationen machen; Die vagen Energiestrahlen sind zu schnell verschwunden, um sie sinnvoll zu verarbeiten. Zugegeben, ein Computer kann von Punkt A nach Punkt B fliegen; es muss nur alle Berechnungen im Voraus durchführen und blind fliegen. Wenn ihm etwas im Weg steht, entsteht eine kleine, teure Supernova.
Ich habe nachgesehen und konnte keine sehen, also tut es mir leid, wenn ich gefragt und beantwortet habe, aber was ist der Grund dafür, dass Drohnenoperationen nicht in Frage kommen? Mit Drohne spreche ich in der aktuellen militärischen Amtszeit, wo es ein Flugzeug gibt, das von einem menschlichen Piloten bedient wird, der sich nicht im physischen Flugzeug befindet. Das einzige, was ich bei diesem System aus praktischer Sicht als Problem sehen könnte, ist, dass es zu einer gewissen Signalverzögerung kommen könnte (und die Abschirmung könnte Signale blockieren, denke ich).
Aber für Ihren pazifistischen Programmierer wäre dies das Beste aus beiden Welten. Sie bewahren den überlegenen Vorteil eines menschlichen Piloten, während Sie seine Präsenz auf dem Schlachtfeld begrenzen. Anstatt also einen Krieg zu führen, spielen Ihre Piloten ein Videospiel.
Nun, ein weiteres übersehenes Problem ist, dass ein Träger ein mächtiges Schiff ist ... aber es ist auch ein ziemlich defensives Leichtgewicht. Echte Träger werden von einer kleinen Flotte anderer Schiffe flankiert, die als Schutzschild gegen feindliche Aktionen dienen. Es gibt Raketenkreuzer (sie liefern einen Großteil der Luftabwehr), zerstören (Oberflächenpatrouillen- und Luftabwehraktionen) und U-Boote (die die Unterwasserwelt schützen), die den Träger schützen, der das gesamte Zurückschießen übernimmt (ganz zu schweigen von den Trägern, die operieren). Mehrzweckfahrzeug, das im Notfall von Luft-zu-Luft- zu Luft-zu-Boden-Kämpfen wechseln kann, um zusätzliche Bildschirme gegen feindliche Aktionen zu erhalten). Das Endergebnis ist, dass etwas schrecklich schief gelaufen ist, wenn ein feindliches Schiff nahe genug am Träger ist, dass ein unbeaufsichtigter Sichtkontakt hergestellt werden kann. Vielleicht ist ein weiteres Motiv, dass die KIs Probleme mit der Priorisierung hatten und zuerst das wertvollste Ziel anvisierten und immer zum Träger-Gung-Ho gingen und die anderen Schiffe ignorierten, die speziell dort waren, um sie aufzuhalten. Sicher, es ist kein Menschenleben, aber es ist immer noch eine Investition, die im Krieg nicht leicht zu ersetzen ist.
Nekroposting! (Und ja, ich habe alle anderen Antworten gelesen oder zumindest überflogen.) Ich werde einige Antworten zusammenfassen und dann mehr von meinem eigenen Input liefern.
Verwendete Probleme aus anderen Antworten:
Wird nicht direkt verwendet, könnte aber die Dinge aufpeppen:
Ein kompliziertes Raumschiff zu steuern, Ausfälle durch feindliches Feuer oder technische Fehlfunktionen zu umgehen, billig zu sein, ist alles, was Roboter können. "Kreativ" sein, weniger. Mit einigen Superkräften, noch weniger.
Wir brauchen eine schwache KI in unseren Kampfflugzeugen im Weltraum. Oder wir werden, wie jemand bemerkte, auf Luftkämpfe aus der Zeit des Zweiten Weltkriegs reduziert, vielleicht auf Lenkflugkörper aus der Vietnam-Ära, aber nicht viel mehr.
Reden wir über elektronische Kriegsführung. Es gibt einige Ebenen des Hackens mit Kommunikation in einem Kampf.
Wenn wir einen sicheren Kanal hätten, der nicht gehackt werden kann, könnten wir einen einzelnen bemannten "Kommandanten"-Kämpfer (wahrscheinlich alle anderen nach dem gleichen Standard bauen, um visuelle Erkennung und Zielpriorisierung zu vermeiden) und einen Schwarm von Roboter-"Schauspielern" verwenden.
Wenn wir nicht an sichere Kommunikation glauben, noch mehr, wenn der Feind unsere Roboter in ein freundliches Feuer zwingen kann, müssen wir alle Kämpfer bemannen.
Sie können sich also Folgendes vorstellen:
Der Krieg sollte mit Killerrobotern kämpfen. Die Roboter steuerten tatsächlich bemannt aussehende Flugzeuge, weil sie eine Anleitung aus dem Inneren des Schlachtfelds benötigten. (Es ist die gleiche Idee wie der deutsche „Kommandantenpanzer“ aus dem 2. Weltkrieg, der genauso aussah wie ein normaler Panzer, einschließlich eines Kanonenmodells, nur umgekehrt.)
In der ersten Kriegsphase ging diese Idee spektakulär in die Hose: Die Stör- und Entschlüsselungs- und Befehlsfälschungsfähigkeiten des Gegners wurden unterschätzt. Glücklicherweise wurden alle Raumjäger so gebaut , dass sie bemannt werden konnten.
Da das Hacken innerhalb einer einzelnen Ebene viel schwieriger ist als das Hacken der Kommunikation zwischen den Ebenen, hat dies funktioniert. Wir würden also immer noch eine schwache KI für die Navigation, das eigentliche Fliegen, die Zielpriorisierung, Super-Radar-Messwerte usw. verwenden. Aber alle Jäger sind mit Menschen besetzt, da Menschen erkennen können, ob ein Feind am Komm mitmacht, und Roboter nicht.
Soweit die Verluste nicht exorbitant sind, funktioniert diese Strategie. Der Kampf mit Killerroboterflugzeugen kostet nur Geld, aber kein Leben auf unserer Seite. Man könnte also mit den Vietnam-Protesten rechnen, wenn es sich um eine Art "unerwünschten Krieg" handelt.
Einige Su-Jäger der vorherigen Generation (ich habe vergessen, welche) und (meines Wissens nach) alle Jäger der fünften Generation benötigen zum Fliegen einen Echtzeit-Computer. Grundsätzlich sind diese Flugzeuge aerodynamisch instabil, wenn sie still gehalten werden, können sie ihren Kurs nicht halten. Um nicht gleich abzustürzen, brauchen sie also einen speziellen Computer, der die Ruder immer wieder ein wenig nachstellt. Dieser hohe Preis wird für die höhere Agilität des Flugzeugs bezahlt, wenn es manövrieren muss .
Natürlich ist dieses System keine KI, aber es ist immer noch ein Computer. Ich könnte mir vorstellen, dass ein Raumkampfflugzeug viel mehr solcher Systeme haben würde. Vielleicht werden nicht alle wirklich, wirklich benötigt, aber sie a) folgen dem allgemeinen Trend (fragen Sie nicht, wie viele Computer in einem modernen Auto sind), b) verbessern bestimmte Aspekte der Leistung der Maschine und jedes Problem im Krieg könnte bedeuten den Unterschied zwischen Sieg und Niederlage.
Was ich im Grunde sagen möchte: Eine schwache KI an Bord zu haben, wäre eine ziemliche Verbesserung einiger Aspekte des Kampfflugzeugs und als solche zu begrüßen. Einen Menschen an Bord zu haben, würde andere Aspekte eines Kampfflugzeugs verbessern und daher die gleiche Behandlung genießen .
Kultur
Ich glaube nicht, dass diese Antwort gegeben wurde, aber vielleicht haben Sie eine Kriegerkaste – Menschen, die die Freude am Kampf genießen, es ist ihre Daseinsberechtigung . Sie sind eine politisch mächtige Gruppe – so etwas wie eine Gewerkschaft – die nicht zulassen wird, dass KIs für ihre Kämpfe eingesetzt werden.
Alternativ könnten Sie sich in einer dystopischen Welt befinden, in der Menschenleben so billig sind, dass sie sich einfach nicht genug um die Piloten kümmern, um die KI zu bauen. Selbst wenn der Bau der KI nur einmalige Kosten verursacht, ist es immer noch sehr teuer warum sich die Mühe machen, wenn die Massenproduktion der Kampfschiffe relativ billig ist (was mit all der Sklavenarbeit zusammenhängt) und es gibt Millionen von Menschen, mit denen Sie sie steuern können.
Ein weiteres Thema, das hier nicht wirklich angesprochen wird, ist die Schadensbegrenzung – eine KI kann vielleicht einen fantastischen Job beim Fliegen machen, wenn alles reibungslos funktioniert, aber wenn die Hälfte der Reaktionssteuerungen ausgefallen ist, ist die Hauptdüsensteuerung in Umkehrung und so weiter Hauptmotor aufgrund eines Turbopumpenfehlers ansteigt, ganz zu schweigen vom Verlust von zwei Computern und einem elektrischen Bus, um Schäden zu bekämpfen, wird es viel schwieriger sein, "um die Ecke zu denken", um nach Hause zu humpeln oder sogar die Mission zu beenden als ein gut ausgebildeter menschlicher Pilot würde es tun.
Erstens ist eine KI auf empfindungsfähigem Niveau bei einem Jäger / Gundam einfach dumm, da es realistischerweise wahrscheinlich keine geben wird, da noch so viele Entscheidungen getroffen werden müssen, dass diese übertragen werden müssen ODER einen Piloten haben müssen. Die Übertragung wird einige Zeit in Anspruch nehmen und kann gehackt werden, also wollen Sie das so wenig wie möglich.
Dies führt zum zweiten Punkt: Wenn Sie eine empfindungsfähige und eine nicht empfindungsfähige KI haben (was Sie müssten), können Sie die empfindungsfähige KI genauso gut zu einem biologischen Organismus statt zu einer empfindungsfähigen KI machen, denn dann haben Sie Schutz von Hacking und zwei verschiedenen Verarbeitungssystemen, eines, das völlig weniger logisch ist, führt zu einer insgesamt besseren Gewinnchance, da es möglich ist, Dinge aus verschiedenen Perspektiven zu erfinden.
Jede KI, die Sie haben, adaptiv oder nicht, verlässt sich auf eine Reihe von Regeln. Wenn ich diese Regeln herausfinden kann, kann ich sie zu meinem Vorteil als empfindungsfähiger Mensch nutzen. Auf der anderen Seite kann menschliches Verhalten unvorhersehbar sein und als solches könnte sich eine KI einfach nicht anpassen können.
Auch wenn ein Schiff beschädigt ist und repariert werden muss, wird eine KI in vielen Fällen nicht in der Lage sein, sich selbst zu reparieren, selbst wenn es Naniten hat, die sicher verwendet werden können.
Grundsätzlich sind Sicherheit, Strategie und die Fähigkeit zur Reparatur mit einem menschlichen Piloten besser, egal wie schnell oder leistungsfähig die CPU und die KI sind.
Tim B
JMK
Monika Cellio
Komodosp
Hobbamok