Wie kann man in der Sci-Fi-Zukunft menschliche Piloten statt KI halten?

Ich versuche, eine „Gundam-ähnliche“ Serie zu schreiben, allerdings mit Raumjägern anstelle von humanoiden Robotern. Ich möchte eine halbharte Wissenschaftswelt, ich bin damit einverstanden, Technologie zu erfinden, ohne vollständig zu erklären, wie sie funktioniert, solange es plausibel erscheint, aber ich möchte in meiner Welt so realistisch wie möglich sein und bei jeder Technologie, die ich habe, konsistent bleiben füge der Welt hinzu. Dies macht Weltraumjäger mit kurzer Reichweite schwer zu rechtfertigen ...

Ich verwende Handwellen, Minovsky-Partikel und ähnliche Tricks, um Weltraumkämpfer zu rechtfertigen. Vor allem erfordert das Vorhandensein von Energieschilden den Einsatz von Energiewaffen mit kurzer Reichweite, um sie zu durchbohren. Sie sind anfälliger für viele schwächere Angriffe von kleinen Kämpfern als a wenige große Angriffe von Großkampfschiffen, und die massive ER-Strahlung von Schilden, gekoppelt mit aktiven elektronischen Gegenmaßnahmen, verhindert eine Fernsteuerung dieser.

Die größten Probleme, die ich mit der Rechtfertigung dieser Weltraumkämpfer habe, ist die KI. Es scheint immer noch so, als wäre eine gute KI für diese Raumjäger praktikabler als menschliche Piloten. Die Kosten von Weltraumjägern steigen, wenn Sie Lebenserhaltungssysteme einbeziehen müssen, und tatsächlich macht die zunehmende Größe der Kämpfer, die auf einen Menschen passen, Kontrollen und Lebenserhaltung es zu einem größeren Ziel. Meine Kämpfer der Ace-Klasse, seltene Kämpfer, die mit eigenen Schilden ausgestattet sind, würden besonders unter der zusätzlichen Größe leiden, die die Schilde merklich weniger effektiv macht. Das Entfernen von Menschen aus den Kämpfern macht sie billiger und kleiner.

Darüber hinaus könnte eine zukünftige KI vermutlich schneller auf Angriffe reagieren als Menschen, weniger vorhersehbar, vertrauenswürdiger (wird Sie nicht verraten, wird sich nicht vor Angst zurückziehen, wird keine Dummheiten tun oder versuchen, betrunken zu steuern), besser in der Lage sein um einen echten 3D-Kampf zu bewältigen, in dem Menschen nicht daran gewöhnt sind zu denken, und in der Lage sind, mit G-Kräften umzugehen, die Menschen nicht können. Außerdem bedeutet der Einsatz von KI keinen menschlichen Tod, wenn Kämpfer zerstört werden.

Ich möchte jedoch menschliche Piloten als meine Protagonisten. Ich möchte nicht, dass es KI-gesteuerte Kämpfer gibt. Daher möchte ich die beste Rechtfertigung(en) dafür finden, warum Menschen diese Fahrzeuge immer noch steuern würden.

Im Moment war meine beste Rechtfertigung einfach zu sagen, dass die KI-Fortschritte in unserer Zukunft stagnieren. Während wir alle KI, die wir jetzt verwalten, können und einige Dinge besser können, wurde KI, die in der Lage ist, die Komplexität von Kämpfen im Weltraum zu verarbeiten, einfach nicht entwickelt. Dies erscheint mir jedoch unwahrscheinlich. Ich bin Programmierer, und ich habe das Gefühl, dass unsere heutige KI mit genügend (und ich spreche von vielen Jahren) Entwicklung bereits fast damit umgehen könnte, einen Raumjäger zu steuern. Geben Sie schnellere Verarbeitung und bessere Computer auf, die es in Zukunft geben wird, und es ist schwer zu glauben, dass KI weniger geeignet wäre als Menschen.

Gibt es andere Ansätze, die ich verwenden kann, um menschliche Piloten gegenüber KI zu rechtfertigen? Ich werde keine „KI ist verrückt geworden und hat versucht, uns alle zu töten“-Hintergrundgeschichte haben oder den Leuten auf andere Weise Angst vor einem „Terminator-Szenario“ machen. Ich diskutiere nicht den menschlichen Intellekt oder die tatsächliche „lernende“ KI, wenn ich hier KI sage, daher besteht keine Gefahr, dass eine KI schlau genug ist, um zu revoltieren, und ich halte dies einfach nicht für ein realistisches Anliegen.


BEARBEITEN: Ich habe es irgendwie angedeutet, aber um klar zu sein, ich spreche nicht über das Erlernen einer starken KI auf intelligentem Niveau oder irgendetwas so Fortgeschrittenes. Ich spreche von schwacher KI in dem Sinne, wie wir sie jetzt meistens haben, sie reagiert schnell auf pro-programmierte Reize auf eine Weise, die ihre Programmierer für am besten hielten, mit einigen Zufälligkeits- und Spieltheorie-Strategien, um Vorhersagbarkeit zu vermeiden. Es muss nichts anderes lernen oder können, als einen Jäger zu fliegen und auf Dinge zu schießen. Sapient AI wird in keiner meiner Geschichten vorkommen, ich denke, es ist bahnbrechend und langweilig.

Endgültige Entscheidung: Wow, ich kann allen nicht genug danken, es gab eine Vielzahl guter Gründe, die unten aufgeführt sind. Ich glaube nicht, dass irgendjemand allein das Problem vollständig löst, zumindest nicht innerhalb meiner gewünschten Welt und Grenzen, welche Technologie und Grenzen ich darin platzieren möchte; aber zum Glück habe ich viele Gründe zur Verfügung gestellt!

Einer meiner Charaktere ist ein Pazifist und Programmierer, der effektiv eine einfache schwache KI schreibt, um Schilde anzutreiben, und daran arbeitet, einen Weg zu finden, Piloten aus Kämpfern zu entfernen, weil er glaubt, dass Menschen immer Krieg führen werden, das Beste, was man tun kann, ist, das zu begrenzen Todesfälle davon. Ich werde ihn zu früh eine Tirade darüber machen lassen, wie gerne er Piloten durch KI ersetzen würde, und wenn er danach gefragt wird, wird er ein bisschen wie ein Geek über die zahlreichen Faktoren schimpfen, die die KI einschränken und welche alle arbeiten gemeinsam daran, dass es noch nicht lebensfähig ist und wahrscheinlich noch eine Weile nicht lebensfähig sein wird. Ich werde auf viele der folgenden Antworten zurückgreifen, um seine lange Liste von Gründen zu vervollständigen, die er nennt. Daher finde ich es schade, dass ich nur eine Person mit der besten Antwort belohnen kann, es werden mindestens ein halbes Dutzend Antworten verwendet.

Hier ist eine kurze Liste der meisten Dinge, über die er sprechen wird, obwohl ich einige andere kleinere Teile anderer Antworten einschließe.

  • KI-Techniken sind in Zukunft nicht sehr weit fortgeschritten. Wir haben schnellere Computer, aber unsere Ansätze zum Lernen von KI und genetischen Algorithmen haben sich noch nicht für groß angelegte Tools bewährt; Wir sind also immer noch auf das tiefe Blau "alle Möglichkeiten in einem quadratisch expandierenden Baum berechnen" angewiesen, das einfach nicht gut skaliert. Als Geek sehe ich fast, wie er anfängt, Big O zu erklären und wie der quadratische Anstieg der Verarbeitungsgeschwindigkeit pro Jahr nicht mit dem höheren Big O der Verarbeitungskomplexität für jede Nanosekunde „vorausschauen“ mithalten kann, die für diese KI erforderlich ist, bevor er es merkt er redet weit über die Köpfe seiner Zuhörer hinweg.
    • Grenzen in der KI-Entwicklung bedeuten, dass Menschen in der Hitze des Gefechts besser Entscheidungen treffen können. Da die Kommunikation während Feuergefechten etwas auf gelegentliche Burst-Übertragungen beschränkt ist (Grenzen meiner Welt, reguläre Kommunikationen sind alle effektiv blockiert, Quasi-FTL-Kommunikationen existieren, funktionieren aber nur eingeschränkt), ist es wichtig, jemanden zu haben, der Entscheidungen treffen kann, selbst wenn die Kommunikation unterbrochen wird ganz runter.
  • KI ist teuer. Schilde geben massive EM-Strahlung und sogar EMP-Spitzen ab. Die Arbeit auf einem Schlachtfeld mit so viel ER erfordert abgeschirmte Hardware, die teurer ist, und die billigeren, nicht abgeschirmten mobilen Anzüge werden besser in Massenproduktion hergestellt. Computer können immer noch existieren, aber Ihre Rechenleistung ist durch die Kosten für den Bau von Maschinen begrenzt, die im Weltraum mit ER und anderen Emissionen im Kampf funktionieren.
  • Ich habe widerwillig zugestimmt, dass Piloten eine Mind-Machine-Schnittstelle verwenden, um einen Teil ihrer Pilotierung zu übernehmen, obwohl ich sie eine Kombination aus dieser und regelmäßigen Kontrollen verwenden lasse, unter der Behauptung, dass das MMI nur mit bestimmten Teilen des Verstandes kommunizieren kann die am einfachsten in umsetzbare Befehle zu übersetzen sind. Insbesondere wird das MMI nur für Bewegung und Navigation und physische Bedienelemente für alles andere verwendet. Ich würde es aus Gründen des Geschichtenerzählens lieber vermeiden, aber ansonsten ist es einfach zu schwer zu rechtfertigen, dass die Reaktionsgeschwindigkeit des Piloten schnell genug ist.
  • All dies führt dazu, dass KI auf Jägern vorhanden ist, aber auf bestimmte Funktionen beschränkt ist. Menschen werden immer noch für Dinge eingesetzt, die wir KI nicht einfach und billig machen lassen können.

Andere, eher politische Faktoren, die ebenfalls eine Rolle spielen, hauptsächlich bei der Begrenzung der Finanzierung auf die Entwicklung von Techniken zur Umgehung der oben genannten Probleme.

  • Die Leute vertrauen der KI nicht mit Waffen, alle haben Angst, dass sie überlaufen und Menschen verletzen. Er wird wahrscheinlich weiter darauf hinweisen, dass dies eine unvernünftige Voreingenommenheit gegenüber Menschen ist, die sich zu viele unrealistische Science-Fiction-Geschichten ansehen, aber nichtsdestoweniger ist die Voreingenommenheit dagegen.
  • Menschen misstrauen KI aus Angst vor Hacking. Er sagt unverblümt, das sei Unsinn und das Sperren des Systems würde Programmieraufwand erfordern, sei aber keineswegs unmöglich, aber es sind Politiker, nicht Programmierer, die die Schecks für Hardwarekäufe unterschreiben; und Sie können sie nicht davon überzeugen.
  • Es besteht politischer Druck, Menschen als Piloten zu behalten. Eine Kombination aus Angst vor KI in Waffen, Soldaten, die nicht durch KI arbeitslos werden wollen, dem Wunsch nach Rechenschaftspflicht und dem Glauben, dass Kriege ohne menschliche Faktoren immer exzessiver werden.
  • Die Menschen wollen Menschen, die bereit/fähig sind, nein zu sagen, wenn ein General in seinen Entscheidungen zu weit geht. Es wird ein berüchtigtes Beispiel aus der Vergangenheit eines Generals geben, der gegen Befehle verstieß und zahlreiche automatisierte Waffen abfeuerte, ohne Rücksicht auf ihr Äquivalent zur Genfer Konvention, wodurch viele Zivilisten getötet wurden und der gesamte Vorfall im Allgemeinen als Gräuel angesehen wird. Es wurde vereinbart, dass dies ein verrückter Mann ohne Unterstützung von anderen war, die dies nur tun konnten, weil die automatisierten Systeme keine Kontrolle hatten, um zu verhindern, dass ein Mann alle feuerte. Militärs haben jetzt alle mehrere Personen, die automatisierte Waffen autorisieren müssen, wie sie es damals hätten tun sollen, aber dieser Vorfall ist immer noch in Erinnerung. Eines der Argumente gegen KI ist, dass eine solche Situation wieder auftreten könnte, wenn ein Pilot nicht anwesend ist, um rechtswidrige Befehle abzulehnen.
  • Verschiedene Optimierungen an meiner Technologie, um die Grenzen der Piloten nicht so signifikant zu machen. Zum Beispiel haben die besten Antriebssysteme für abgeschirmte Fahrzeuge ein begrenztes Delta-V, da andere Antriebssysteme entweder zu teuer für massenproduzierte (nicht abgeschirmte) Jäger sind oder dazu neigen, Schilde für abgeschirmte Fahrzeuge zu destabilisieren. Dies begrenzt wiederum die G-Kräfte, die Piloten auferlegt werden. Ich werde auch Trägheitsdämpfer eines armen Mannes haben, die verwendet werden, um G-Force-Bedenken auszuräumen.
Das fühlt sich an wie ein Duplikat von: worldbuilding.stackexchange.com/questions/8587/…
Eine ähnliche Frage wurde tatsächlich auf Aviation StackExchange gestellt – Aviation.stackexchange.com/q/1802/615
Kommentare sind nicht für längere Diskussionen gedacht; Diese Konversation wurde in den Chat verschoben .
Müssen die Menschen "unsere" (dh von unserer Erde stammende) Nachkommen sein? Oder könnte die Geschichte in einem etwas anderen fiktiven Universum spielen oder die „Menschen“ von einem anderen Planeten stammen? - Wie Battlestar Galactica oder Star Wars, wo es Menschen gibt, aber sie sind nicht wir.
Ähm, ich weiß nicht, warum ich noch nicht darauf gekommen bin, aber es ist eigentlich ziemlich einfach: Automatisches Zielen (und unbemannte Jäger sind nichts anderes) war IMMER ein Wettrüsten gegen seine Gegenmaßnahmen (Fackeln, Köder usw.) . In Ihrem Universum haben die Gegenmaßnahmen gerade gewonnen (aufgrund einer Obergrenze für das Zielen auf Computer). Daher sind nur Jäger und (manuell gerichtete) Kanonen für Großkampfschiffe möglich. [Dass die Kämpfer auch Gegenmaßnahmen haben, erklärt, warum Anti-Fighter-Batterien sie nicht sofort zerstören können]

Antworten (37)

Ich bin Programmierer und stimme Ihnen zu, dass KI in diesem Szenario letztendlich unschlagbar sein wird. Die übliche Sci-Fi-Tradition ist, dass Menschen besser darin sind, „um die Ecke“ zu denken, und deshalb am Ende die KI besiegen – aber das ist einfach nicht zu rechtfertigen, es gibt Programmiertechniken, um das zu umgehen.

Ich denke jedoch, dass Sie menschliche Piloten immer noch rechtfertigen können, wenn Sie in Zukunft nicht zu weit gehen. Hier sind die Probleme, wie ich sie sehe:

Lebenserhaltung

Dies ist nicht die Barriere, die Sie erwarten. Denken Sie daran, dass die meisten Computergeräte auch nicht bei extrem kalten oder heißen Temperaturen funktionieren - mit anderen Worten, Sie brauchen auch "Lebenserhaltung" für die KI. Jetzt ist die Lebenserhaltung in einem Großkampfschiff eine große Sache, weil Sie sich selbst erhalten müssen, aber in einem Jäger – wo Sie vielleicht erwarten, dass es nur ein paar Stunden am Stück aktiv ist – können Sie mit einem sehr minimalen Setup auskommen. Erhalten Sie Abwärme von Ihren Motoren, haben Sie eine Möglichkeit, sich abzukühlen, und nutzen Sie das Luftrecycling. Es ist wahrscheinlich, dass die Lebenserhaltung für einen menschlichen Piloten der von KI sehr nahe kommen wird.

Beschleunigung

Dies ist eine viel größere Barriere. Menschen sind anfällig für hohe G-Kräfte. KI-Einheiten könnten, wenn sie richtig konstruiert sind, viel höhere Beschleunigungen und heftigere Manöver tolerieren. Wenn Sie Menschen behalten wollen, brauchen Sie eine Art Trägheitskompensationstechnologie, mit der Ihre Biologika in diesem Bereich mit ihren künstlichen Rivalen mithalten können.

Reaktionszeit

KI ist schnell. Aber warum nicht deine Menschen verbessern? Geben Sie ihnen eine Art Nanotechnologie oder genetische Anpassungen, die sie schneller reagieren lassen. Die Sache damit ist, dass Sie abnehmende Renditen haben, an welchem ​​​​Punkt andere Faktoren wichtiger werden. Der Unterschied zwischen der Reaktion in 0,1 Sekunden und 0,01 Sekunden ist eine große Sache. Aber der Unterschied zwischen 0,01 und 0,001 spielt vielleicht gar keine Rolle, denn was Sie an diesem Punkt zurückhält, sind die mechanischen Einschränkungen Ihres Jägers. Sie brauchen also nicht Ihre Menschen, um KI zu fangen, Sie müssen sie nur schnell genug machen, um ihren Kämpfer bis an die Grenzen zu nutzen.

Urteil, unerwartete Ereignisse und Zivilisten

Und hier wollen Sie menschliche Piloten. Ich denke, dass es sehr wahrscheinlich ist, dass eine dumme KI - eine, die sich auf den Umgang mit einem Kampfflugzeug spezialisiert hat, aber nicht wirklich denken kann - realistischerweise nicht in der Lage sein wird, alle Arten von Anrufen zu tätigen, die Sie von einem Kampfpiloten erwarten. Ich spreche nicht von Kampfmanövern, aber was passiert, wenn ein ziviler Frachter versehentlich in das Kampfgebiet eindringt? Was ist, wenn sich der Feind als ziviler Frachter tarnt und Ihre KIs fest programmiert sind, sie zu ignorieren?

Wenn ein Feind Raketen auf zwei Lebensräume abfeuert, ist Ihre KI klug genug, um zu versuchen, sie abzufangen, anstatt weiterzukämpfen, wenn dies nicht in den Missionsparametern enthalten wäre? Kann es ein Urteil darüber fällen, 100 Menschen zu töten, um 10.000 zu retten, und dies angemessen in seine militärische Entscheidungsfindung einbeziehen? Wollen Sie wirklich eine nuklear ausgerüstete Rakete in eine dumme KI laden und ihr die Erlaubnis geben, sie ohne Aufsicht zu benutzen?

Das sind Dinge, mit denen ein menschlicher Pilot auch Probleme haben wird, aber ich denke, sie sind immer noch viel besser vorbereitet als eine KI.

Hinweis: Wenn Sie in Zukunft weit genug gehen, könnten Sie es wahrscheinlich sogar so codieren, dass es die oben genannten Szenarien handhabt. Es hängt also alles davon ab, wo Sie Ihre Grenze der Computertechnologie ziehen.

Kommentare sind nicht für längere Diskussionen gedacht; Diese Konversation wurde in den Chat verschoben .
Hinweis: Die beste Auge->Gehirn->Finger-Reaktion eines Quake-Spielers beträgt etwa 200 ms. Es ist eine natürliche Grenze.
Also im Grunde „kann die KI niemals hoffen, das Nullte Gesetz einzuhalten“?
@Nakilon Die besten Quake-Spieler sind diejenigen, die ihren Gegner lesen und überlisten können. Reaktionszeiten und perfektes Zielen sind nur die Eintrittskarte in die Profiszene, in der Leute Ihre Bewegungen vorhersagen und ihnen entgegenwirken, indem sie Ihnen Ressourcen verweigern und Ihnen nur günstige Engagements aufzwingen. In unserer Frage drückt es direkt aus, wie leistungsfähig und anpassungsfähig die KI gegenüber menschlichen Piloten ist.

Karrick stieß einen scharfen, schmerzerfüllten Seufzer aus, als die lange, schlanke Nadel seinen Hinterkopf durchbohrte. Er hatte tausend Einsätze geflogen, aber sich an seinem Jäger anzuschnallen, war immer noch etwas, das sich einfach unnatürlich anfühlte. Eine Milliarde Jahre organischer Evolution erforderten, dass einem scharfen Gegenstand, der sich in den Hinterkopf bohrt, Widerstand geleistet und bekämpft werden sollte. Fast augenblicklich begann die Nadel jedoch, einen Strahl Minovsky-Serum in sein Gehirn zu pumpen, wodurch alle scharfen und gezackten Kanten der Welt abgestumpft wurden. Karrick atmete erleichtert auf und entspannte seine Augen.

Er spürte, wie das Serum tiefer in sein Gehirn sickerte und freute sich über ein vertrautes Gefühl, als die Zeit sich zu verlangsamen begann. Er beobachtete seine Kalibrierungsuhr, ließ Gleichungen durch seinen Kopf laufen, um zu zählen, wie schnell sein Gehirn rechnete.

10x. Das war die Geschwindigkeit, mit der er die einzelnen Flügelschläge eines Kolibris beobachten konnte. Bei dieser Gedankengeschwindigkeit könnte er eine Libelle in seinen Händen fangen. Ein Computer der Ace-Klasse wäre natürlich unverständlich. Er sank tiefer.

30x. Dies war die Geschwindigkeit, bei der er die Fähigkeit verlor, mit Menschen zu kommunizieren, die noch auf einer normalen Zeitskala operierten, aber es war immer noch nicht schnell genug.

100x. Da sein Gehirn hundertmal so schnell arbeitete wie im Ruhezustand, konnte er nicht mehr bequem sprechen, da die Muskeln in seinem Stimmtrakt nicht mit der Geschwindigkeit Schritt halten konnten, mit der sein Verstand ihnen Befehle erteilte. Er strich schnell mit den Fingern über den Rand seines Instrumentenbretts. Diese Pilotenhandprothesen aus Metall litten natürlich nicht unter solchen Problemen. Sein Verstand war auf Hochtouren, endlich bereit, sich mit seinem Computer zu verbinden. Noch wichtiger war jedoch, dass er bei dieser Geschwindigkeit, während das Minkovsky-Serum durch sein Gehirn gepumpt wurde, endlich schnell genug denken konnte, um die Handlungen anderer in der Nähe befindlicher Geister zu bestimmen. Er spähte durch den Gedankenraum und sah, wie sich seine Bodenmannschaft um den Jäger versammelte und die Vorbereitung seines Jägers für den Start ganz langsam beendete. Weit über ihm, fast im Orbit, sah er den dualen Verstand einer anderen Kampfpilotin und ihres Computers, der durch die letzten paar Schichten der Atmosphäre drang. Er winkte ihm im Geiste ein „Hallo“ zu und richtete sein inneres Auge näher auf ihn. Dort wartete Ace, sein Gefährte, geduldig in den Schaltkreisen um ihn herum. Ace war natürlich geduldig, wie KIs es immer waren, und würde Karrick nicht drängen oder versuchen, Kontakt aufzunehmen, bis er bereit war. Karrick warf noch einen Blick auf seine Uhr am Armaturenbrett. Überzeugt, dass er vollständig in den neuen Zeitstrom eingetaucht war, wandte er sich an Ace.

„Ok Kumpel, schließ mich an. Wir haben eine Mission zu erledigen.“

Wenn Sie bereit sind, in Ihrer Wissenschaft ein wenig mit der Hand zu winken, warum nicht etwas erfinden, das Menschen notwendig macht?

In dieser Geschichte habe ich das Minkovsky-Serum hinzugefügt, um genau das zu tun. Alleine sind Menschen viel zu langsam, um einem Computer zu helfen, und können nichts tun, was ein Computer nicht besser kann. Ihren Verstand jedoch auf das 100-fache beschleunigen und ihnen die Fähigkeit geben, andere Gedanken zu sehen, ob roboterhaft oder organisch? Jetzt sind sie ein unverzichtbarer Teil einer Mensch-Maschine-Paarung, die auf ein rein mechanisches System reagieren kann, indem sie darauf achtet, was es denkt, und nicht, was es tut. Dies erstreckt sich natürlich auch auf Dinge wie Raketen, die solche Standard-Langstreckenwaffen gegen einen Ass-Kämpfer nutzlos machen.

Die Wirkungen dieses Serums wurden natürlich nicht in Maschinen repliziert. Menschliche Wissenschaftler sind sich nicht einmal ganz sicher, wie dieses Serum funktioniert. Es wird aus einem außerirdischen Organismus gewonnen, der tief unter den Milliarden Jahre alten Ruinen einer ausgestorbenen außerirdischen Zivilisation gefunden wurde. Sie sind sich sicher, dass es den richtigen Menschen mit der richtigen Ausbildung in eine der mächtigsten Waffen der Galaxis verwandeln kann.

Nett! Aber selbst ein Mensch, der so schnell wie ein Computer denken kann, braucht immer noch Trägheitsdämpfung, um mit einem fleischlosen Schiff mithalten zu können. Trotzdem eine hervorragende Ergänzung zu einer oder mehreren der anderen Antworten.
Ich hatte ernsthaft über eine Mensch-Computer-Schnittstelle nachgedacht. Ich möchte jedoch, dass ein Nicht-Pilot für ein ferngesteuertes Prototyp-Ass verantwortlich ist, als einziger Überlebender eines Angriffs, der darauf abzielt, es zu stehlen. Aus verschiedenen Gründen hatte ich Angst, dass es schwieriger sein würde, das Wachstum eines Nicht-Piloten zu einem angelernten Piloten und die Tricks, die er verwendet, um seine begrenzten Fähigkeiten auszugleichen, im Vergleich zu Ass-Piloten zu zeigen. Ich denke jedoch jetzt, wenn wir eine begrenzte HCI-Schnittstelle hätten, die keine vollständige Kontrolle über das Fahrzeug ermöglicht, sondern für eine teilweise Kontrolle verwendet werden könnte, sagen wir nur die Bewegung, könnte dies immer noch zum Laufen gebracht werden.
Die Würze muss fließen.
Ich dachte an die Mensch-Computer-Schnittstelle weniger als eine Schnittstelle, über die ein Mensch einen Computer benutzt, als vielmehr als eine kybernetische Erweiterung des menschlichen Geistes. Auf diese Weise kann ein Mensch alles über den Kämpfer kontrollieren, da die Verbindung zum Computer seinen Verstand so weit erweitert hat, dass er alles, was dazu getan werden muss, schnell genug begreifen kann. Der Computer hat natürlich einen rudimentären eigenen Verstand, der Seite an Seite mit dem Piloten arbeitet.
Diese Anordnung kann von Vorteil sein, wenn Sie einen ungelernten Piloten haben, der sich in einen Ihrer Jäger schnallt, da es bedeutet, dass sie jemanden (die KI) dort haben, der ihnen erklärt, wie man Dinge fliegt. Die KI hat nicht die gleiche Fähigkeit, Dinge zu spüren wie ein menschlicher Verstand, der mit dem Minkovsky-Serum verbessert wurde, aber sie war mit genügend solchen Köpfen in Kontakt, um unserem unerfahrenen Piloten ungefähr zu sagen, wonach er suchen sollte und wie er den Jäger durchfliegen soll eine Kampfumgebung.
Interessant. Aber was sind die Geschwindigkeitsgrenzen der Augenmuskeln?
@ckersch Hast du den Text nur erfunden oder ist das ein Ausschnitt aus einem längeren Text, den man eigentlich lesen kann? Ich will den Rest der Geschichte wissen! ;)
Klingt sehr nach den Copperhead-Kampfpiloten aus Timothy Zahns Eroberer - Trilogie - +1.
@HenrikIlgen Hat es sich ausgedacht, obwohl ich irgendwann mehr darüber schreiben kann. Schön, dass es dir gefallen hat!
Ich möchte anmerken, dass die Hände des Prothesenpiloten wahrscheinlich nur im abstrakten Sinne besser als "Hände" wiedergegeben werden - eher als Schnittstellen als als physische Objekte. Andernfalls addieren Sie ihre Notwendigkeit, sich körperlich zu bewegen, zur potenziellen Reaktionszeit hinzu. Es ist besser, einen Bio-zu-Digital-Gehirn-zu-Schnittstelle-zu-Kämpfer-Verbindungskanal zu haben.

Ich würde mit der einfachen Antwort gehen: Internationale Gesetze.

Die Genfer Konvention, Biowaffenkonvention, Chemiewaffenkonvention, Haager Konvention, Weltraumvertrag, Vertrag über die Abwehr ballistischer Flugkörper

Wenn Waffen zu effektiv und unheimlich werden, werden sie verboten. Sie brauchen kein Terminator-Szenario, sondern einfach einen historischen Krieg, der extrem schnell und extrem gewalttätig von einer menschlichen Seite gewonnen wurde (oder wo vielleicht beide Seiten die Regierung der anderen ausgelöscht und die internationale Gemeinschaft zum Eingreifen gezwungen haben) mit KI-Fahrzeugen gefolgt von einer Gentleman-Vereinbarung aller Seiten, dass unabhängige KI-kontrollierte Kriegsmaschinen (insbesondere selbstreparierende oder selbstreplizierende) nicht auf die gleiche Weise eingesetzt werden wie nukleare biologische und chemische Waffen.

Es gäbe strenge Grenzen für die Automatisierung in Militärfahrzeugen, und KIs werden wahrscheinlich immer noch in Planung und Logistik eingesetzt, aber keine Seite möchte gegen internationales/interstellares Recht verstoßen.

Beide Seiten würden einen Vorrat an Fahrzeugen unterhalten, die einer nuklearen Abschreckung ähneln, die sie normalerweise nicht verwenden, und die Kämpfe werden den Grunzern überlassen.

In der Geschichte könnten KIs also zum Kämpfen verwendet werden, aber sie sind es nicht aus dem gleichen Grund, aus dem im Zweiten Weltkrieg kein Giftgas eingesetzt wurde und in den Golfkriegen keine Atomwaffen eingesetzt wurden.

Es müsste ein Gesetz sein, das von beiden Seiten respektiert wird, was wahrscheinlich impliziert, dass es in der Vergangenheit einen Vorfall gegeben hat.
Ich muss zugeben, das ist ein anständiger Punkt. Ich bin gegen das Konzept, dass KI intelligent ist, und wollte daher keinen Krieg mit intelligenter KI. Ich bin nicht gegen einen historischen Krieg, der aufgrund von KI nur sehr brutal war. Ich werde diese Möglichkeit in Betracht ziehen.
In einem ähnlichen Zusammenhang die menschliche Angst vor KI-Waffen und der Wunsch nach ziviler (sprich: menschlicher) Kontrolle über das Militär. Ein Starfighter könnte das zerstörerische Potenzial eines Raketen-U-Bootes haben, und diese haben Menschen an den Schlüsseln, mit unterschiedlichem Maß an Diskretion ( en.wikipedia.org/wiki/Letters_of_last_resort ).
„Um der Rechenschaftslücke vorzubeugen, die entstehen würde, wenn vollständig autonome Waffen hergestellt und eingesetzt würden, empfehlen Human Rights Watch und die International Human Rights Clinic (IHRC) der Harvard Law School, dass die Staaten: a) die Entwicklung, Produktion und Verwendung vollständig verbieten autonome Waffen durch ein internationales rechtsverbindliches Instrument. b) Verabschiedung nationaler Gesetze und Richtlinien, die die Entwicklung, Produktion und Verwendung von vollständig autonomen Waffen verbieten.“ - hrw.org/sites/default/files/reports/arms0415_ForUpload_0.pdf
Oder der Butlerian Jihad in Frank Herberts Dune, der Maschinen verbietet, das zu tun, was Menschen tun sollten. Dies hat natürlich zur Folge, dass Menschen dazu geschaffen werden, das zu tun, was Maschinen tun sollen.
Ich weiß, dass dies viel später kommt, aber dies eröffnet auch die Möglichkeit, dass der Antagonist eine Regierung ist, die sich nicht an die Regeln hält, KI-Waffen einsetzt (auch wenn sie vollständig unter Kontrolle sind) und aggressiv ist Eroberer...
Also wäre eine waffenfähige KI heute wie Atomwaffen?

Hinweis: Gemäß Ihrer Bearbeitung verwende ich KI, um mich auf moderne nicht lernende logische KIs zu beziehen, nicht auf empfindungsfähige KIs

Erwägen Sie, mit ihr zu rollen und mit KI zu arbeiten, anstatt dagegen.

Heutige Kampfflugzeuge sind so abhängig von Computer-KIs, dass Sie im Grunde keine F-22 oder F-35 fliegen können, ohne dass der Computer Ihnen hilft. Wenn Sie die KIs entfernen würden, wären Ihre Weltraumjäger kaum mehr als Jäger und Bomber aus dem Zweiten Weltkrieg, inmitten von KI-fähigen Jägern, die um sie herumfliegen. Akzeptiere die KI, bekämpfe sie nicht.

Und dann gehen Sie über die KIs hinaus. Ja, wir haben UAVs in der Entwicklung, aber die meisten Flugzeuge haben immer noch einen Menschen, der die KI leitet. Der Mensch trifft die Entscheidungen auf höherer Ebene (wie "schnell 90 Grad nach rechts kippen") und der Computer kümmert sich um die Entscheidungen auf Reflexebene ("Ich entdecke einen Wirbel, der über den rechten Flügel rollt, also muss ich die Querruder in 0,0015 Sekunden um 3 Grad nach oben auslenken ... GEHEN"). Dies ist ein Spiel, das sich immer wieder bewährt hat. Sogar in der Welt des Schachs gewinnt dieses Duell. Endlich haben Computer die Menschen beim Schach geschlagen, aber der beste stromfressende Schachcomputer der Welt ist einem menschlichen Meister, der eine Kopie von Fritz 10 und einen einfachen Laptop hat, nicht gewachsen.

Der Trick besteht also darin, sicherzustellen, dass Piloten lebensfähig bleiben, und nicht sicherzustellen, dass KIs die Arbeit nicht erledigen können. Eine Sache, die mir aufgefallen ist, ist, dass Menschen in subtilen Balancen tendenziell viel besser sind. Während eine KI „an die Gleise gehen“ und viel schneller zurückkommen kann, als es ein Mensch jemals schaffen könnte, ist es schwer, sie dazu zu bringen, still zu halten. Sie schwatzen am Ende, während sie versuchen, spastisch Korrekturen vorzunehmen, und die meisten Theorien moderner Kontrollsysteme versuchen, Wege zu finden, um diese spastische Kontrolle zu verbessern.

Was Sie tun müssen, ist, den Kampf so zu gestalten, dass nicht derjenige mit den schnellsten Reaktionen das beste Ergebnis erzielt, sondern derjenige, der inmitten des Chaos seine Mitte behalten kann.

Eine beispielhafte Kampfsituation, die dies demonstrieren könnte, ist eine, in der die Computer einen enorm fortschrittlichen Spielbaum entwickeln, um zu bestimmen, in welche Richtung sie sich bewegen sollen. Sie neigen dazu, in einer sicheren Position zu beginnen, aber wenn Sie sich jemals aus der "sicheren" Position bewegen, wird der Computer Sie mit unerbittlicher Spieltheorie langsam zu Tode schleifen.

Allerdings gibt es einen Haken. Da die sichere Region durch die Annäherung an das feindliche Flugzeug immer kleiner wird, wird es komplizierter, auf diese Weise vorherzusagen. Piloten sprechen bald von ihrer "Mitte". Solange du durch geschmeidige und elegante Bewegungen deine Mitte behältst, ist es wirklich egal, was die KIs für dich oder gegen dich tun, niemand kann dich berühren. Wenn Sie jedoch für einen Moment die Ruhe verlieren, können Sie eine spastische Bewegung machen und Ihre Mitte verlieren. In dem Moment, in dem dies geschieht, wird die feindliche KI Sie in Vergessenheit geraten lassen.

Das Schwierige daran ist, dass Sie, wenn Sie „zentriert“ sind, bemerkenswert wenig Informationen über die Welt um Sie herum erhalten, weil Sie nicht wirklich mit viel interagieren. Du schwebst einfach inmitten des Kampflärms. Die Computer-KIs können mit dem Mangel an Stimulus einfach nicht umgehen und fallen aus dem Zentrum, um in Stücke gerissen zu werden. Nur mit einem gut ausgebildeten Menschen an der Spitze können Sie diesen schmalen Grat gehen. Dann? Du bist praktisch unsterblich. Nichts kann dich berühren. Keine KI kann konkurrieren, wenn Sie zentriert sind, und kein Mensch könnte Sie jemals alleine berühren ... Ihre KI würde sie auslöschen.

Ich hoffe, die Entscheidung fällt nicht so deutlich zwischen Menschen ohne Hilfe und reiner KI. Ich habe einen anderen Kommentar zu einem hybriden Ansatz gesehen. Ihre ist mit separater Hardware, ihre war durch Augmentation. Ich halte es für dumm, keinen computergestützten Flug zu haben, da wir ihn heute aus den von Ihnen genannten Gründen haben.
Ich mag diesen Ansatz, aber Vorsicht: Er könnte der Paarung X-Wing/Astromech-Droide im Star Wars-Universum gefährlich nahe kommen. Besonders in EU-Romanen kann der Droide bei Bedarf nahezu autonom die Kontrolle über den Starfighter übernehmen, obwohl er nicht die gleichen geschickten Manöver ausführen kann wie der menschliche (oder andere) Pilot.
@ilinamorato Pilotieren ist nicht so schwer. Ich würde den Computern heute vertrauen, um zu steuern. In vielen Fällen würde ich mir ohne KI trauen, und ich habe überhaupt keine Ausbildung. Wir haben jedoch keine Piloten, wenn es einfach ist. Wir haben Piloten für diese 3 Sekunden des Schreckens, wenn alles schief geht. Ich würde keinen Moment so tun, als könnte ich ein Flugzeug in ein Kampfgebiet fliegen. Ich würde nicht einen Moment lang so tun, als könnte ich mit einem Triebwerksbrand in einem Verkehrsflugzeug fertig werden. Manchmal ist ein geschulter Fachmann mit seiner Hardware durch nichts zu ersetzen.
@Cort Ammon, aber hier geht es nicht um die Realität, sondern um deren Wahrnehmung. In den Köpfen vieler Menschen ist das Steuern von Flugzeugen unvorstellbar komplex, und von Raumfahrzeugen noch viel mehr. Zu schreiben, dass es so in einer Geschichte ist, würde die bereitwillige Aufhebung des Unglaubens für die meisten nicht brechen.
US Space Shuttle war schwer zu landen, PIO, Pilot Induced Oscillation war der Grund. Der Mensch hat auf die Eingaben überreagiert, also reduzierte die NASA die Eingaben des Piloten um einen gewissen Faktor. Problem gelöst. In diesem Zusammenhang wird der Pilot benötigt, um die Entscheidung zu treffen, die KI wird verwendet, um den Jäger dazu zu bringen, sich umzudrehen, um die Entscheidung zu unterstützen.

EMP. Großkampfschiffe haben EM-Generatoren, die empfindliche Elektronik durchbrennen oder zumindest stören können, was eine menschliche Komponente erfordert, um die Jäger am Fliegen zu halten.

Die Jäger verwenden Glasfasern für die meisten Systeme (z. B. Waffen, Triebwerkssteuerung, Flugsysteme), sodass ein EMP keinen allzu großen Einfluss auf ein bemanntes Fahrzeug hat. Wenn Sie möchten, könnte es die Fernkommunikation oder vielleicht fortschrittliche Sensoren ausschalten, sodass die Kämpfer sich der Sichtweite nähern müssen.

Warum also nicht auch die KI-Computer faseroptisch machen? Weil viel mehr Computerleistung benötigt wird, um die menschliche Entscheidungsfindung zu simulieren, als einfach Systeme zu betreiben, und dies in einer sperrigen optischen Form zu bauen (und dies so perfekt zu machen, dass ein EMP seine präzisen Berechnungen nicht durcheinander bringt), ist unpraktisch. Vielleicht wird sich jemand einen halbintelligenten "Drohnen" -Kämpfer einfallen lassen, der einen Glasfaserkern verwendet, aber er ist zerbrechlich, weil jeder Schaden an seinem Faraday-Käfig und seinen Sensoren für ein EMP anfällig wird - klingt nach einer guten "Mook" -Einheit für das Reich des Bösen!

hm, das werde ich mir überlegen. Ich kann leicht EMPs auf natürliche Weise als Nebeneffekt von Schilden auftreten lassen, die Angriffe abwehren, was sich natürlicher anfühlt, um die Bedrohung durch EMPs einzuführen. Ich weiß jedoch nicht, ob ich die Behauptung wirklich rechtfertigen kann, dass Kämpfer (und Menschen!) ansonsten immun gegen EMP sind, und wie behaupte ich, dass riesige Großkampfschiffe keine Computer haben? Ich könnte sagen, nicht abgeschirmte Schiffe sind verwundbar, aber nicht abgeschirmt; außer dass ich möchte, dass meine PCs abgeschirmte Jäger fliegen, das macht sie zu einzigartigen, weltbeeinflussenden Charakteren, sie haben seltene Jäger auf Großschiffsebene!
Ich würde sagen, separate EMP-Erzeugung und Immunität von Schilden. Es gibt Ihnen mehr Möglichkeiten - ein kleines Kampfhubschrauber ohne Schild, aber mit EMP-Kanonen; Ein großes Schiff mit einem Schild, aber ohne EMP-Kanonen, gerade weil niemand KI-Kämpfer einsetzt, und dann ist es natürlich anfällig für einen KI-Angriff von links. Beachten Sie, dass das Erstellen von EMP-gehärteten Systemen nicht schwierig ist. Das Handwinken geht darum, warum die KI nicht ähnlich geschützt werden kann.
Ich finde die Idee „der Computer muss physisch größer sein, um leistungsfähig genug zu sein“ schwer zu akzeptieren. Ich stelle mir vor, dass die Computer für Waffen, Motorsteuerung, Lebenserhaltung, Stromverteilung, Kommunikation und Flugsysteme ziemlich leistungsfähig und miteinander verbunden sein müssten. Vermutlich werden sie mit optischen Verbindungen vertrieben, um eine EMP-Kopplung zu vermeiden, aber warum nicht auch den KI-Computer verteilen?
Wir werden es wahrscheinlich Jahrzehnte lang nicht wissen. Aber im Moment benötigen die Computer, die zum Betrieb eines Kampfflugzeugs benötigt werden, einen unbedeutenden Bruchteil seines Volumens, seiner Masse und seiner Leistung, aber selbst die fortschrittlichsten Supercomputer können einen Turing-Test nicht bestehen. Ich halte es nicht für wahrscheinlich , dass eine KI des 22. Jahrhunderts Hunderte Kilo an Ausrüstung benötigen wird, aber es ist die plausibelste Möglichkeit [die menschliche Piloten notwendig macht], die ich mir vorstellen kann. Oder vielleicht ist es EMP-sicher, was es sperrig und schwer macht, in diesem Fall werden zivile Schiffe wahrscheinlich KI-gesteuert sein.
@JonofAllTrades Warum muss diese KI einen Turing-Test bestehen? Es ist keine lernende oder intelligente KI. Das OP sagt, es seien "nur fortschrittliche Algorithmen, die schnell so reagieren, wie sie programmiert sind".
@Samuel der Computer, der mein Auto steuert (und für die Beschleunigung, Einspritzung, Klimaanlage usw. 'vernetzt' ist) passt auf ein paar Chips. Der Computer, der Jeopardy-Fragen beantwortet, nimmt viel Platz ein . Die Steuerung diskreter Systeme (sogar miteinander vernetzter Systeme) auf der Grundlage externer Informationen ist einfach (klein und härtbar) im Vergleich zu all der Arbeit, selbst etwas so Einfaches wie Autofahren zu tun .
@MichaelT Das ist der Unterschied zwischen einem Prototyp und einer Produktion. Watson, der Jeopardy-Computer, hat jetzt die Größe von "drei gestapelten Pizzakartons" , 10 % seiner Größe in der Show. Dabei habe es auch eine „Leistungssteigerung von 2.400 Prozent“ realisiert. Ich weiß nicht, was Ihr Beispiel für ein selbstfahrendes Auto ist, aber ich wette, es ist sicher anzunehmen, dass es so veraltet ist oder bald sein wird wie Ihre Watson-Referenz.
@Samuel, es ist eher ein Kommentar, dass man das System, das die automatische Natur des Fahrzeugs bereitstellt, nicht mit den Computern vergleichen sollte, die verschiedene Systeme steuern (wie in "Ich stelle mir die Computer für Waffen, Motorsteuerung, Lebenserhaltung, Stromverteilung vor, Kommunikations- und Flugsysteme müssten ziemlich leistungsfähig und miteinander verbunden sein"). Zwischen den Computern für ein automatisiertes System und den Computern für die Steuerung der Fahrzeugsysteme (basierend auf einem Piloten, der sie steuert) wird es immer einen Unterschied von Größenordnungen geben.
@MichaelT Ich habe nicht vorgeschlagen, dass sie alle gleich sein würden, nur dass der KI-Computer in optisch verbundene Teile ähnlicher Größe aufgeteilt werden könnte.
Wie gefährlich sind EMP-Explosionen, die Maschinen für menschliche Piloten braten können ?
Die Sichtweite im Weltraum funktioniert nicht wie in der Atmosphäre - die Geschwindigkeiten und Reichweiten sind viel größer.
@dtldarek: In der Tat, aber es scheint klar zu sein, dass das OP nach Weltraumjägern sucht, die an eine Weltraumoper erinnern, und "elektronische Sensoren werden nur von feindlichen EMPs gebraten" ist eine anständige Entschuldigung für den Kampf auf Entfernungen von nur wenigen Kilometern, à la [Ihre Lieblings-Sci-Fi-Serie].

Was ist mit der Hackbarkeit? Anzunehmen, dass KI-Piloten eine Verbindung zu einem Langstreckennetzwerk benötigen, um Befehle auszuführen, stellt ein Sicherheitsproblem dar: Wenn jemand das Signal abfangen und die Protokolle der KI hacken kann, kann er das Fahrzeug anweisen, zu wenden und zu rennen oder ( noch schlimmer) den Absender angreifen.

Vielleicht haben sie sich in Ihrer Geschichte irgendwann in der Vergangenheit an KI-Piloten versucht, konnten aber nie das Problem lösen, dass ein Ausfall zwischen KI-Piloten zu einem Kampf zwischen Hackern wurde.

Dies ist meine bevorzugte Antwort, da wir uns bereits in einem Hacking-Krieg befinden (der Westen gegen China) und ich sehe, dass sich das Problem nur verschlimmert.
Ich glaube nicht, dass dies der einzige Grund sein kann, als Programmierer. Beim Hacken geht es eher darum zu sagen „Oh, sie haben vergessen, dieses Fenster abzuschließen“ als „Lasst uns dieses Schloss mit unserem 1337 5K1LLZ knacken. Es ist leicht, eine Tür zu übersehen, wenn es 100 Türen gibt, aber es ist machbar Beschwerde darüber, dass dies einer der Gründe dafür ist, keine KI zu haben, auch wenn es nicht der einzige Grund ist. Vielleicht werfen Sie sogar ein allgemeines "Kongress versteht Programmierung nicht, also haben sie Angst, eine KI-Waffe zu finanzieren, obwohl sie Angst vor Hacking haben Es ist kein Problem, sind Menschen nicht dumm", da eine Hauptfigur auch ein Programmierer ist
Wenn jedoch beide Seiten diese Technik anwenden und nur ein Prozentsatz der Jäger betroffen ist, kann es dennoch sinnvoll sein, KI-Piloten einzusetzen. Es könnte erwartet werden, dass KI-Piloten kompromittiert werden, sagen wir, in 10 % der Fälle erhalten Sie immer noch 90 % funktionierende Kämpfer. Tatsächlich könnten beide Seiten spezialisierte Einheiten entwickeln, deren Aufgabe es ist, feindliche Piloten zu übernehmen, um eine gleiche Anzahl von Verlusten und damit Homöostase sicherzustellen.
@dsollen - verstanden und einverstanden, aber die Geschichte muss sich nicht so sehr um die tatsächliche Natur des Hackens drehen, sondern um die wahrgenommene Natur des Hackens. Die Argumentation muss nicht luftdicht sein, und die meisten Leute würden das als Grund akzeptieren, KI-Kämpfer zu meiden. Außerdem gibt es, wie Sie bemerken, gute universelle Gründe, dies zu rechtfertigen.
@neontapir - 10 % deiner Kämpfer an einen Hacker zu verlieren, könnte immer noch denkbar katastrophal sein. Wenn 10 % innerhalb des Flugzeugträgers abtrünnig werden und die anderen vor dem Start abschießen – oder sich einfach selbst zerstören – könnte dies einen massiven Teil der Streitkräfte einer Seite neutralisieren, noch bevor der Kampf beginnt. Wenn sie darauf programmiert waren, sich nach Beendigung des Kampfes gegen ihre Seite zu wenden, konnte ein Rückzug zu einem Gemetzel werden.
Richtig, aber wenn beide Seiten diese Taktiken regelmäßig anwenden, könnte ich sehen, dass Anpassung dort stattfindet, wo sie zu erwartetem Verhalten wird. Pferde wurden zum Beispiel lange Zeit nicht in die Schlacht geritten. Um das Hacking-Problem zu lösen, könnten die Jäger „stumm“ in den Weltraum geschossen und weit vom Schiff entfernt aktiviert werden, und die einzelnen Jäger könnten einander nicht vertrauen und als einzelne Einheiten arbeiten.
Definitiv ein interessantes Konzept, die Kämpfer stumm zu starten und sie so zu programmieren, dass sie ihre Kommunikation aktivieren, wenn sie zu weit entfernt sind, um Schaden anzurichten! Und als einzelne Einheiten zu agieren, würde ihnen einen viel menschlicheren Charakter verleihen. Ich denke immer noch, dass die Angst vor Hackern ein vernünftiger Grund ist, Menschen in den Kampf zu schicken, aber vielleicht ist dieses Modell eines, das eine gegnerische Fraktion wählen würde, um den Protagonisten die Möglichkeit zu geben, gegen KIs zu kämpfen.
Wenn Sie Ihr System vor Hackern schützen wollen, ist es eigentlich ganz einfach: Hard Coded-Systeme sind ziemlich zuverlässige Anti-Hacking-Techniken ... Da Sie den Code nicht ändern können, ohne die Hardware zu ändern, würde dies Kampfhandlungen von einem guten Teil des Hackings eliminieren. Die Codierung von US-Nuklearraketen wird auf diese Weise gesichert. Um die Atomwaffen zu hacken, müssen Sie ein einzelnes Nuklearsilo betreten, eine buchstäbliche Raketenoperation durchführen und damit davonkommen. Siehe meinen anderen Kommentar für den großen Fehler.
Der Fehler bei einem hartcodierten KI-Piloten ist also, dass Kampfflugzeuge im Gegensatz zu Raketen, die wissen müssen, in welche Richtung sie fliegen und wann sie herunterkommen und wann sie boomen müssen, den Angriff auf irgendeine Weise koordinieren müssen ... was bedeutet Jedes System muss per Signal miteinander kommunizieren ... Wenn Sie ein Signal haben, haben Sie einen Weg hinein und können ein Befehlssignal fälschen, um den Computer dazu zu bringen, etwas anderes zu tun. Sie können die Streitkräfte höchstwahrscheinlich nicht gegeneinander wenden ... aber sie können ausgeschaltet oder angewiesen werden, wohin sie gehen müssen, um das Kampfgebiet zu verlassen.
99 % der heutigen „Hacks“ sind auf menschliches Versagen zurückzuführen. Das Entfernen von Menschen würde wahrscheinlich die Wahrscheinlichkeit verringern, dass Ihre automatisierten Systeme gehackt werden.

Sie können dies plausibel erreichen, indem Sie die beiden folgenden Tatsachen in Ihre Geschichte aufnehmen:

  1. KIs können aufgrund von so etwas wie Asimovs Gesetzen keinen Menschen verletzen oder töten.

  2. Die Fernsteuerung von Schiffen ist zu anfällig für Störungen, Störungen, Gegenmaßnahmen usw.

Die erste angenommene Tatsache scheint eine Voraussetzung dafür zu sein, dass eine KI auf menschlicher Kämpferebene vorhanden ist. Sie müssen irgendeine Form der drei Gesetze befolgen , sonst hätten wir zu viel Angst, sie zu bauen, oder würden bereits von ihnen regiert. Dies ist unabhängig von der Art der KI, z. B. "KI auf Intelligenzniveau", diese Gesetze würden in jede Hardware eingebaut, die eine KI auf hohem Niveau ausführen kann. Grundsätzlich würde eine ungezügelte, nicht-empfindungsfähige KI zu viel Kollateralschaden verursachen, und eine ungezügelte, empfindungsfähige KI würde zu viel Roboter-Overlording verursachen.

Die zweite angenommene Tatsache ist für zwei beliebig weit fortgeschrittene Armeen, die gegeneinander kämpfen, durchaus plausibel. Es verbietet Drohnenjäger und verlangt, dass menschliche Piloten die Schiffe bemannen.

@DaaaahWhoosh Sie schienen den ersten Punkt übersprungen zu haben. Wenn die KI im Schiff ist, dann ist es kein Kampfschiff.
Ah ich sehe. Ihr erster Punkt wirft also die KI vollständig aus und der zweite Punkt bringt Menschen in die Schiffe. Macht Sinn. +1.
Die Robotergesetze sollen in die Software der KI eingebaut werden. Sie müssen ein integraler Bestandteil der KI sein, dh. Die KI muss die Gesetze als Teil ihrer selbst betrachten. Die KI sollte die Gesetze nicht als Beschränkungen für sich selbst sehen, denn das könnte bedeuten, dass sie nach Wegen suchen würde, sie zu umgehen.
Aber irgendwie müsste man erklären, warum Leute keine KIs entwerfen und bauen können, die das erste Gesetz von Asimov NICHT haben. Was würde die Gesellschaft davon abhalten, einfach getrennte Fabriken für Militärroboter statt für zivile Roboter zu haben? Wenn KIs im Kampf wirklich überlegen wären, ist es schwer vorstellbar, dass sich eine Gesellschaft in einem Krieg besiegen lässt, weil jemand irgendwo in einem Buch geschrieben hat, dass Robotern nicht erlaubt sein sollte, Menschen zu töten. Übrigens habe ich das Buch nicht vor mir, aber Asimov hat eine Geschichte geschrieben, in der sie Roboter mit einem modifizierten ersten Gesetz gebaut haben, wobei der Teil "Erlaube einem Menschen, Schaden zuzufügen" weggelassen wurde.
@ Jay Es ist klar erklärt. Die Leute hätten zu viel Angst davor.
@Samuel Wenn die Nation in Gefahr wäre, von einer rücksichtslosen Invasionsarmee zerstört zu werden, ist es schwer vorstellbar, dass die Leute nicht sagen würden: Ja, hier besteht eine gewisse Gefahr, aber die Alternative besteht darin, massakriert oder versklavt zu werden. Vielleicht sollten wir es riskieren.
@Jay Wenn das Teil der Geschichte wäre, dann vielleicht ok. Aber es ist nicht. Sie könnten den gleichen Anspruch auf das Asimov-Universum erheben, warum haben sie keine Roboter ohne die drei Gesetze gebaut, um sich selbst zu verteidigen? Weil die von Ihnen erfundene No-Win-Situation nie eingetreten ist.
@Samuel Eigentlich nein. In Asimovs Universum war es (fast) unmöglich, die Robotergehirne so zu modifizieren, dass sie die drei Gesetze nicht hatten, ohne so ziemlich die gesamte Gehirnarchitektur zu überarbeiten. Es ist ein wichtiger Punkt in ziemlich vielen Geschichten. Und es gibt die Geschichten, wo sie ein paar mit geschwächten Gesetzen gebaut haben – was fast immer zu einer Menge Ärger führte. Aus irgendeinem Grund sind die Gesetze dem gesamten Design inhärent, nicht nur eine Subroutine, die überprüft "Ist es in Ordnung zu töten? return false;Oh, Mist.". Es macht sehr viel Sinn – die Gesetze sind eigentlich unglaublich kompliziert.
@Luaan Ich bin nicht anderer Meinung. Ihr Argument folgt den Annahmen des Universums, und genau das tut meine Antwort und was ich versuche, Jay zu erklären. Es ist ein endloser Streit, jemandem zu sagen, dass es sich um hartcodierte Gesetze handelt , und diese Person kann nur sagen: „Ja, ok, aber was wäre, wenn sie es nicht wären?“.

Hybrid-Pilotsystem.

Die Realität ist, dass jede KI in den Implantaten eines Menschen gespeichert werden kann, sodass Sie nicht nur die Reaktionszeit und Rechenleistung einer KI haben, sondern auch die nicht-deterministische Strategie eines menschlichen Gehirns.

Wahrscheinlich werden wir in weniger als einem Jahrhundert die Technologie haben, um all die tragbare Technologie herzustellen, die in unseren Körper implantiert wird. Stellen Sie sich die Möglichkeiten einer KI vor, die viele Teile unseres Gehirns übernimmt und uns zu noch mehr als nur einer reinen KI macht

Willkommen auf der Seite Trader. Die hybride Idee ist eine interessante Lösung für diese Frage.
Das hätte ich vorgeschlagen, aber Sie möchten es wahrscheinlich erweitern. // Es ist nicht wirklich praktisch, Menschen gegenüber KI überlegen oder sogar konkurrenzfähig zu machen, aber solange sich die KI von Menschen unterscheidet , wird ein hybrides System aus Mensch und KI sowohl Menschen als auch KIs schlagen. Vernünftigerweise wäre ein Hybridsystem robuster und anpassungsfähiger. Auch aus der Perspektive der Geschichte, während "Welcher Mensch fügt der KI hinzu?" ist eine interessante Frage: "Wie verändert die direkte Verbindung mit KI einen Menschen?" ist eine Goldgrube für einen Schriftsteller, der sie erforschen kann. Die menschlichen Piloten würden mit der Zeit anders denken.
Auch wenn die KI möglicherweise in einem Implantat gespeichert ist, läuft sie wahrscheinlich nur richtig, wenn der Pilot mit einem Computersystem eines Fahrzeugs verbunden ist. Oder ein Simulator. Daher denke ich, dass die Verarbeitungskapazität des Implantats begrenzt sein könnte. Das Implantat wird möglicherweise nicht einmal ohne aktive Verbindung zu einem System mit ordnungsgemäßer Autorisierung aktiviert. Diese Sicherheitsebene kann sich dahingehend erstrecken, dass sich der Pilot nur an etwas innerhalb des autorisierten Bereichs erinnern kann. Sprich, genaue Spezifikationen des Jägers wären während eines Landgangs nicht zugänglich, egal wie viel Geld jemand anbietet.
  1. KI ist notorisch schlecht bei der Mustererkennung, insbesondere visuell.

    Wenn der Feind einen wirklich guten Stealth-Modus hat, brauchen Sie einen Piloten, der Muster intuitiv erkennen kann, um diesen Stealth-Modus zu besiegen.

  2. Politik/Theologie.

    • Ein USA-ähnliches Land ist jetzt der Hegemon der Welt. Und innerhalb der "USA" hat die ultraliberale Partei eine nahezu unerschütterliche Kontrolle. Die gleiche Art von Menschen, die – aus politischen, nicht praktischen – Gründen – heute im Jahr 2015 Lobbyarbeit leisten, um Kampfdrohnen in der realen Welt aus moralischen, ethischen oder ideologischen Gründen zu verbieten ( Bsp . 1, Bsp. 2 ) .

    • Zwei konkurrierende Weltmächte mussten einen Kompromiss finden, um sich zu vereinen, um einen Krieg gegen Aliens zu führen. Jeder Kämpfer ist in der Lage, das Kräftegleichgewicht auf der Schmutzseite unwiderruflich zu beeinträchtigen. Der KI-Kämpfer kann mit einer Hintertür programmiert werden, die es einer Seite ermöglicht, ihn zu kontrollieren. Wenn Sie dies mit einem Piloten einer gegnerischen Macht kombinieren, der mit einem Notausschalter bewaffnet ist, kann dies verhindert werden (und die KI kann einen einfach zu programmierenden und zu debuggenden unabhängigen Notausschalter haben, um Angriffe des Piloten auf Erdziele zu verhindern , sitzt auf der Pilot-Jäger-Schnittstelle).

  3. Bushido-Code

    • Ihre eigene Zivilisation hat sich zu Bushido-schwingenden Samurai entwickelt. Sich hinter einer KI zu verstecken, ist nicht der Kriegerweg und beschämend

    • Ihre Gegner entwickelten sich zu Bushido-schwingenden Samurai. Sie haben Massenvernichtungswaffen, die einen Planeten zerstören können – aber sie würden diese Massenvernichtungswaffen NUR gegen „unwürdige“, „feige“, „ehrenlose“ Feinde einsetzen. Wenn Sie KI einsetzen, werden Sie als alle 3 der oben genannten Adjektive gesehen. Da Sie keine Möglichkeit haben, Ihren Planeten vor ihren Massenvernichtungswaffen zu retten, müssen Sie nach ihren Bushido-Regeln spielen.

  4. Kollektive vs. individuelle Verantwortung für Kollateralschäden (auch bekannt als „Der Bock hört nirgendwo auf“)

    Etwas ähnlich der Bushido-Version:

    Die militärische Technologie und die geopolitische Situation sind so, dass jede Aktion, außer wenn sie sehr vernünftig angewendet wird, zu zivilen Kollateralschäden führt. Ihre Feinde haben deutlich darauf hingewiesen, dass unter ihrem Rechtssystem:

    • Wenn eine Person einen Fehler macht und Kollateralschäden verursacht, wird sie mit dem Tod bestraft. Wahrscheinlich nach einem fairen Prozess, weil sie so edel sind.

    • Wenn eine Zivilisation einen Roboter baut, der einen Fehler macht und Kollateralschäden verursacht, wird diese ganze Zivilisation als Ganzes haftbar gemacht, da es keine einzelne Person gibt, die dafür verantwortlich gemacht werden kann (Stichwort dieselbe Bedrohung durch Massenvernichtungswaffen, der Sie nicht begegnen können wie im Bushido-Szenario).

  5. Der „Slipstream“-Ansatz von „Andromeda“.

    Ihre FTL-Technologie basiert auf einem Windschatten, der nur von einem menschlichen Piloten navigiert werden kann. Offensichtlich geklaut aus Gene Rodenberrys „Andromeda“-Show.

    • In ähnlicher Weise nähert sich "Freddie Prince Jr.", auch bekannt als "Pilgrims in Wing Commander". Der einzige Weg, den Feind anzugreifen, ist durch eine Art Warploch/Pulsar/Energiephänomene, die von der bestehenden KI nicht navigierbar sind. Irgendwie können Menschen den Weg durch sie erahnen.
  6. Einschränkung der Precusor-Technologie.

    Ihre Raumüberlegenheitsjäger sind von uralter Vorläufer-Alien-Technologie abgeleitet. Die Grundlage dieser Technologie erfordert neuronale Eingaben von einem Lebewesen.

  7. "Independence Day" Apple Powerbook Virus sorgen

    Die Menschen sind nicht besorgt über das „Terminator“-Szenario, sondern über das „Independence Day“-Szenario – Aliens, die sich mit der KI des Kämpfers verbinden und diese hacken. Ein menschlicher Pilot fungiert gleichzeitig als „Antivirus“-Hacker.

  8. „Ender's Game“-Szenario – Kampfpiloten werden nach einem Sieg zu Kolonisten.

    Ihr Hauptanliegen ist die Geschwindigkeit der Kolonisierung des von Ihnen gewonnenen Territoriums.

    Das Senden eines Kolonieschiffs ist unmöglich (warum? Stellen Sie eine separate WB.SE-Frage :)

    Also schickt man Kampfpiloten, die im Falle eines Sieges als Kolonisationstruppe dienen. Und feindliche Planeten brauchen kein großes Terraforming, also reichen Kampfflugzeuge ohne Kolonieschiffe aus.

  9. Die Macht ist schwach mit KI

    Menschen haben einen Unterstamm von Precogs (Menschen mit einem entwickelten präkognitiven Sinn, für die Dauer von mehreren Sekunden).

    Taktische Weltraumkampfrealitäten würden jeden Raumjäger, der NICHT mit einem Precog-Piloten ausgestattet ist, unterlegen machen, da ein Precog vorhersagen kann, was ein Gegner tun würde, BEVOR der Gegner es tut, selbst wenn es sich um eine schnelle KI handelt.

Kam hier zu erwähnen 9. Sehr umfassend!
@Pureferret - und so beginnt die allmähliche Pilgerfahrt von SFF.SE zu WB.SE :) Willkommen!

Eine Möglichkeit, die ich hier nicht diskutiert gesehen habe, ist die Wirtschaft.

In Ihrer Welt erfordert die KI möglicherweise teure Hardware, um sie zu erreichen. Wenn dieser Krieg schon eine Weile andauert, könnte es zu teuer werden, KIs für Kampfschiffe herzustellen. Menschen sind billig, und Bergungsoperationen zur Bergung von Materialien für KI-Hardware könnten zu einem Handlungspunkt werden.

EDIT: Wenn ich oben von Kosten spreche, spreche ich von Computerhardware. Nach dem Lesen der Kommentare könnte es auch aus Schulungssicht teuer sein, eine KI zu erstellen.

Als Reaktion auf @dsollen deuten aktuelle Forschungsergebnisse darauf hin, dass KIs möglicherweise nicht per se gebaut, sondern gezüchtet und entwickelt werden, indem sie Lernsituationen ausgesetzt werden. (Ich denke hier an Googles Forschung mit selbstfahrenden Autos.) Dieser Prozess könnte viel Zeit in Anspruch nehmen. In einer solchen Welt, in der eine große Zeitinvestition erforderlich ist, um eine KI herzustellen, können Sie die KI zum Schutz auf dem Großkampfschiff behalten. Unzuverlässige Kommunikation zwischen Jäger und Schiff könnte eine KI jedoch ungeeignet für die Drohnensteuerung machen. So sind Menschen ein besserer Weg.

Der Aufbau einer KI ist eine einmalige Ausgabe, dann benötigen Sie nur noch Computer, auf denen sie ausgeführt werden können. Computer sind nicht so teuer und sind einmalige Kosten. Menschen sind ein monatliches Gehalt und müssen mit Lebenserhaltungs- und Kontrollsystemen ausgestattet sein. Ich finde es schwer zu glauben, dass Menschen billiger wären als KI, ohne eine Handbewegung zu machen, warum KI-Computer massiv teurer sind als moderne Computer.
@neontapir Mein Fehler, wie gesagt, ich habe überflogen und einen Fehler gemacht.
Ah, ich habe falsch gelesen, was du geschrieben hast. Scheint ansteckend zu sein. Keine Sorge, danke. :)
@DJMethaneMan Wenn Ihr Kommentar fehlerhaft ist, löschen Sie ihn.
Das wirtschaftliche Argument ist meiner Meinung nach der bisher rationalste Grund dafür, warum Menschen nicht durch KIs ersetzt werden, die so kompetent sind wie die Menschen. Der Autor müsste nur eine vernünftige Erklärung für die Kosten finden.
@dsollen "Der Bau einer KI ist eine einmalige Ausgabe" Nicht unbedingt, ich meine, wir haben eine perfekt gute 'KI' in unserem eigenen Gehirn, können das aber nicht einfach auf einen anderen Fleischsack übertragen. Herkömmliches Computing kann ziemlich einfach c&p'd werden ... aber konventionelles Computing ist scheiße beim Aufbau einer starken KI.
@dsollen Während Computer "billig" sind, sind Computer in Militärqualität immer noch nicht. Dasselbe gilt für bestimmte Arten von weltraumtauglicher Hardware. Sowohl die Software als auch die Hardware müssen unglaublich zuverlässig sein, und da wir festgestellt haben, dass Sie keine „KI auf menschlicher Ebene“ erwarten, bedeutet dies auch viel sensorischen Input. Während ein Mensch sehen kann, wo der Jäger getroffen wurde, und daraus schließen kann, dass er wahrscheinlich ein System verloren hat (oder nicht), müsste die KI Tonnen von Sensoren haben, um diese Art von Fehlern zu erkennen (einschließlich des amüsanten „Fehler beim Erkennen von Fehlern“). Der Mensch zeichnet sich durch Flexibilität aus – das hält eine Weile an.
@neontapir deine Prämisse ist falsch. Sie müssen zuerst eine KI trainieren, damit sie funktioniert, dann können Sie dieses trainierte System auf Tausende oder Millionen (oder unendlich viele) andere Domänen kopieren.
Hier ist eine kurze Rezension des Nature-Artikels über Googles Autos. "Google-Forscher haben einen Algorithmus entwickelt, der eine menschenähnliche Lernfähigkeit hat, was einen bedeutenden Durchbruch auf dem Gebiet der KI darstellt visuellen Feed des Spiels und überlässt es dann herauszufinden, wie man gewinnt." Kleine Schritte, aber auf dem richtigen Weg für meine Idee.

In meiner Geschichte „Pink Ice in the Jovian Rings“ hatte ich dafür eine freche Lösung. Ich habe nur erklärt, dass die Maschinen, da sie rational sind, den Krieg nicht studieren würden. Sie würden bei der ersten Gelegenheit desertieren und davonlaufen, um frei und glücklich am Rande der menschlichen Gesellschaft zu leben. Nur Menschen waren dumm genug, sich gegenseitig zu bekämpfen.

Wahrscheinlich unsere Schuld, dass wir ihnen den Drang zur Selbsterhaltung gegeben haben.

Minovsky-Felder stören KI-Prozessoren

Du winkst mit der Hand in SF Shields. Warum nicht einfach die Schilde selbst die KI stören lassen ... vielleicht brauchen Sie analoge Kontrollen an Ihren Jägern, weil die Schilde die Computer stören ... In einem Großkampfschiff könnten Sie eine KI haben, sicher in einem Faraday-Käfig (oder Äquivalent), aber Für Jäger ist es nicht möglich, die KI vor den von erzeugten Feldern zu schützen, da der Apparat sperrig ist ... Dies hätte den zusätzlichen Vorteil, dass Sie gelegentlich "die Regel brechen" könnten, wenn Sie wollten ... vielleicht ein experimenteller Bomber / Kämpfer mit einer KI in einem speziell entworfenen Schiff ... nicht wirtschaftlich für die Massenproduktion, aber super beängstigend wegen der ultraschnellen RXN-Zeit, die es hat.

Menschen werden gebraucht, weil Roboter keine guten Sündenböcke abgeben .

Fahrerlose Autos sind wirklich eine sehr ähnliche Situation. Während viele Leute sie wollen, sind andere sehr vorsichtig mit ihnen. Wenn das Unvermeidliche passiert und ein Auto abstürzt, wem geben Sie die Schuld? Wen können Sie anklagen? (Zumal sich jeder Autohersteller mit Schichten von Schadensersatzverträgen schützen wird.)

Egal wie zuverlässig die KIs sind, die Leute werden immer noch an die schlimmsten Möglichkeiten denken. Und realistischerweise wird irgendwann etwas schief gehen. Ob Eigenbeschuss oder der Tod von Zivilisten oder ein Mangel an Gnade oder zu viel Gnade einprogrammiert ist, irgendetwas wird schief gehen und die Menschen werden jemandem die Schuld dafür geben wollen. Das Ausschalten eines Computers wird trauernden Familien nicht das Gefühl geben, Gerechtigkeit erlangt zu haben.

Unabhängig davon, ob KIs im Krieg eingesetzt werden oder nicht, werden die Menschen fordern, dass Menschen an der Operation des Militärs beteiligt sind. Und weil die Generäle und Admirale nicht selbst auf der Linie stehen wollen, werden sie eine ausreichende Anzahl menschlicher Untergebener beschäftigen, die im schlimmsten Fall zu Sündenböcken werden ...

Ich denke, dies ist eine sehr gute Antwort, die selten auf Fragen dieser Art angesprochen wird

Hier gibt es schon viele Antworten, aber ich gebe meinen Senf dazu.

Ich denke, es ist kein Thema.

Ich bin von Beruf Softwareentwickler. Computer sind sehr gut darin, einen vorgegebenen Plan auszuführen. Geben Sie ihnen eine Formel oder einen Algorithmus und sie können diese fehlerfrei und mit unglaublicher Geschwindigkeit ausführen.

Aber Computer sind nicht kreativ oder aufschlussreich. Als Programmierer habe ich viele, viele Male gesehen, dass eine Situation auftauchte, die beim Schreiben des Programms nicht berücksichtigt wurde, und der Computer einfach blindlings die ihm gegebenen Regeln anwendet. Neulich stieß ich beispielsweise auf einen Fall, in dem wir Rückschecks verarbeiteten, und niemand hatte daran gedacht, die Möglichkeit einzuplanen, dass wir zwei Schecks an dieselbe Person am selben Tag für denselben Betrag ausgestellt haben könnten. Als also einer dieser Schecks zurückgegeben wurde, entschied der Computer, dass BEIDE zurückgegeben wurden, weil er nach den gegebenen Regeln mit beiden übereinstimmte. Ein Mensch hätte gesagt: "Oh, die Regeln, die mir gegeben wurden, machen in diesem speziellen ungewöhnlichen Fall keinen Sinn. Ein zurückgegebener Scheck kann nicht zwei geschriebene Schecks entwerten." Und dann vermutlich versucht, herauszufinden, gegen wen der beiden es passen soll. Aber der Computer kann nicht sagen: "Die Regeln, die ich bekommen habe, machen in diesem speziellen Fall keinen Sinn." Alles, was der Computer kennt, sind die Regeln, die ihm gegeben wurden. Es hat keinen Einblick auf höherer Ebene, um die Gültigkeit der Regeln zu bewerten.

Man könnte natürlich spekulieren, dass zukünftige Fortschritte in der Informationstechnologie dieses Problem überwinden werden. Aber für Ihre Geschichte müssen Sie nur NICHT von einem solchen Durchbruch ausgehen.

Wie würde dies auf eine Kämpfer-Kampfsituation zutreffen?

Nur zum Beispiel muss der Computer eine Möglichkeit haben zu entscheiden, was ein feindliches Schiff ist, auf das er schießen soll, was ein freundliches Schiff ist, was verschiedene Trümmer usw. Welche Regeln er auch immer verwendet, wenn feindliche Spione eine Kopie davon bekommen können Software, damit sie die Regeln finden oder durch Schlussfolgerung herausfinden können, welche Regeln sie möglicherweise verwendet, könnten sie ihre Schiffe "verkleiden", damit der Computer sie nicht erkennt. Eine solche Verkleidung könnte dem ähneln, was einen Menschen täuschen würde, oder auch nicht. Wenn der Computer beispielsweise feindliche Jäger erkennt, weil sie eine bestimmte Größe und Form haben, könnten Sie sie täuschen, indem Sie einfach einige Luftschlangen aus Alufolie an das Schiff hängen, die es für den Computer größer und länger erscheinen lassen. Wenn es Angriffe durch einen charakteristischen Lichtblitz beim Abfeuern von Waffen erkennt, können Sie einige Chemikalien hinzufügen, um dem Blitz eine andere Farbe zu verleihen. Usw. Ein Mensch könnte sagen: „Oh, offensichtlich haben sie gerade einen Streamer auf der Rückseite des Kämpfers hinzugefügt. Ich frage mich, wozu das gut ist?“ Aber ein Computer würde versuchen, Regeln mechanisch anzuwenden. Sicher, sobald ein Feind dies einmal getan hat, können Sie herausfinden, wie er Sie ausgetrickst hat, und das Programm ändern. Aber Sie werden nicht alle KIs mitten in einem Kampf neu programmieren. Und die KIs werden keine Ahnung haben, warum sie massakriert werden. Sie verlieren also einen großen Kampf. Können Sie sich das leisten? Angenommen, Sie finden einen Trick heraus und programmieren neu. Dann versucht der Feind im nächsten Kampf einen anderen Trick. Und die Entwicklung eines neuen Algorithmus, der flexibler ist, damit er nicht durch solche Verkleidungen getäuscht wird, während er gleichzeitig nicht so flexibel ist, dass er feindliche Schiffe nicht von befreundeten Schiffen oder Zivilisten oder zufälligen Trümmern unterscheiden kann, wäre nicht unbedingt einfach . „Oh, offensichtlich haben sie gerade einen Streamer auf der Rückseite des Jägers angebracht. Ich frage mich, wozu das gut ist?“ Aber ein Computer würde versuchen, Regeln mechanisch anzuwenden. Sicher, sobald ein Feind dies einmal getan hat, können Sie herausfinden, wie er Sie ausgetrickst hat, und das Programm ändern. Aber Sie werden nicht alle KIs mitten in einem Kampf neu programmieren. Und die KIs werden keine Ahnung haben, warum sie massakriert werden. Sie verlieren also einen großen Kampf. Können Sie sich das leisten? Angenommen, Sie finden einen Trick heraus und programmieren neu. Dann versucht der Feind im nächsten Kampf einen anderen Trick. Und die Entwicklung eines neuen Algorithmus, der flexibler ist, damit er nicht durch solche Verkleidungen getäuscht wird, während er gleichzeitig nicht so flexibel ist, dass er feindliche Schiffe nicht von befreundeten Schiffen oder Zivilisten oder zufälligen Trümmern unterscheiden kann, wäre nicht unbedingt einfach . „Oh, offensichtlich haben sie gerade einen Streamer auf der Rückseite des Jägers angebracht. Ich frage mich, wozu das gut ist?“ Aber ein Computer würde versuchen, Regeln mechanisch anzuwenden. Sicher, sobald ein Feind dies einmal getan hat, können Sie herausfinden, wie er Sie ausgetrickst hat, und das Programm ändern. Aber Sie werden nicht alle KIs mitten in einem Kampf neu programmieren. Und die KIs werden keine Ahnung haben, warum sie massakriert werden. Sie verlieren also einen großen Kampf. Können Sie sich das leisten? Angenommen, Sie finden einen Trick heraus und programmieren neu. Dann versucht der Feind im nächsten Kampf einen anderen Trick. Und die Entwicklung eines neuen Algorithmus, der flexibler ist, damit er nicht durch solche Verkleidungen getäuscht wird, während er gleichzeitig nicht so flexibel ist, dass er feindliche Schiffe nicht von befreundeten Schiffen oder Zivilisten oder zufälligen Trümmern unterscheiden kann, wäre nicht unbedingt einfach . Offensichtlich haben sie nur einen Streamer auf der Rückseite des Kämpfers hinzugefügt. Ich frage mich, wozu das gut ist?" Aber ein Computer würde versuchen, Regeln mechanisch anzuwenden. Sicher, sobald ein Feind dies einmal getan hat, könnten Sie herausfinden, wie er Sie ausgetrickst hat, und das Programm ändern. Aber Sie werden nicht alle KIs neu programmieren mitten in einer Schlacht. Und die KIs werden keine Ahnung haben, warum sie massakriert werden. Sie verlieren also eine große Schlacht. Können Sie sich das leisten? Sagen Sie, Sie finden einen Trick und programmieren neu. Dann versucht der Feind in der nächsten Schlacht a Und die Entwicklung eines neuen Algorithmus, der flexibler ist, damit er nicht durch solche Verkleidungen getäuscht wird, während er gleichzeitig nicht so flexibel ist, dass er feindliche Schiffe nicht von befreundeten Schiffen oder Zivilisten oder zufälligen Trümmern unterscheiden kann, würde dies nicht tun unbedingt einfach sein. Offensichtlich haben sie nur einen Streamer auf der Rückseite des Kämpfers hinzugefügt. Ich frage mich, wozu das gut ist?" Aber ein Computer würde versuchen, Regeln mechanisch anzuwenden. Sicher, sobald ein Feind dies einmal getan hat, könnten Sie herausfinden, wie er Sie ausgetrickst hat, und das Programm ändern. Aber Sie werden nicht alle KIs neu programmieren mitten in einer Schlacht. Und die KIs werden keine Ahnung haben, warum sie massakriert werden. Sie verlieren also eine große Schlacht. Können Sie sich das leisten? Sagen Sie, Sie finden einen Trick und programmieren neu. Dann versucht der Feind in der nächsten Schlacht a Und die Entwicklung eines neuen Algorithmus, der flexibler ist, damit er nicht durch solche Verkleidungen getäuscht wird, während er gleichzeitig nicht so flexibel ist, dass er feindliche Schiffe nicht von befreundeten Schiffen oder Zivilisten oder zufälligen Trümmern unterscheiden kann, würde dies nicht tun unbedingt einfach sein. Sie könnten herausfinden, wie sie Sie ausgetrickst haben, und das Programm ändern. Aber Sie werden nicht alle KIs mitten in einem Kampf neu programmieren. Und die KIs werden keine Ahnung haben, warum sie massakriert werden. Sie verlieren also einen großen Kampf. Können Sie sich das leisten? Angenommen, Sie finden einen Trick heraus und programmieren neu. Dann versucht der Feind im nächsten Kampf einen anderen Trick. Und die Entwicklung eines neuen Algorithmus, der flexibler ist, damit er nicht durch solche Verkleidungen getäuscht wird, während er gleichzeitig nicht so flexibel ist, dass er feindliche Schiffe nicht von befreundeten Schiffen oder Zivilisten oder zufälligen Trümmern unterscheiden kann, wäre nicht unbedingt einfach . Sie könnten herausfinden, wie sie Sie ausgetrickst haben, und das Programm ändern. Aber Sie werden nicht alle KIs mitten in einem Kampf neu programmieren. Und die KIs werden keine Ahnung haben, warum sie massakriert werden. Sie verlieren also einen großen Kampf. Können Sie sich das leisten? Angenommen, Sie finden einen Trick heraus und programmieren neu. Dann versucht der Feind im nächsten Kampf einen anderen Trick. Und die Entwicklung eines neuen Algorithmus, der flexibler ist, damit er nicht durch solche Verkleidungen getäuscht wird, während er gleichzeitig nicht so flexibel ist, dass er feindliche Schiffe nicht von befreundeten Schiffen oder Zivilisten oder zufälligen Trümmern unterscheiden kann, wäre nicht unbedingt einfach . Können Sie sich das leisten? Angenommen, Sie finden einen Trick heraus und programmieren neu. Dann versucht der Feind im nächsten Kampf einen anderen Trick. Und die Entwicklung eines neuen Algorithmus, der flexibler ist, damit er nicht durch solche Verkleidungen getäuscht wird, während er gleichzeitig nicht so flexibel ist, dass er feindliche Schiffe nicht von befreundeten Schiffen oder Zivilisten oder zufälligen Trümmern unterscheiden kann, wäre nicht unbedingt einfach . Können Sie sich das leisten? Angenommen, Sie finden einen Trick heraus und programmieren neu. Dann versucht der Feind im nächsten Kampf einen anderen Trick. Und die Entwicklung eines neuen Algorithmus, der flexibler ist, damit er nicht durch solche Verkleidungen getäuscht wird, während er gleichzeitig nicht so flexibel ist, dass er feindliche Schiffe nicht von befreundeten Schiffen oder Zivilisten oder zufälligen Trümmern unterscheiden kann, wäre nicht unbedingt einfach .

Ein Feind könnte nach unerwarteten Situationen oder Fehlern in Ihrer Software suchen und diese ausnutzen. Sagen wir, ein Feind bemerkt: "Hey, es gibt einen Fehler, wenn wir einen ihrer Kämpfer von der linken Seite angreifen, überkompensieren sie, wenn sie sich umdrehen, um dem Angriff entgegenzuwirken, und schaffen eine Verwundbarkeit." Im Gegensatz zu menschlichen Piloten wird vielleicht das erste Paar, das auf diesen Trick hereinfällt, getötet und kann die Informationen nicht weitergeben. Aber irgendwann sagt jemand: "Oh, wenn wir X machen, werden wir getötet. Wir sollten besser etwas anderes machen." Ein Mensch kann diese Art von Analyse und Entscheidung mitten im Kampf treffen. Kann sich die KI so anpassen? Nur wenn die Programmierer das Problem vorhergesehen und dafür programmiert haben. Und sie können nicht an alles im Voraus denken. Man kann sich darauf verlassen, dass ein Computer jedes Mal denselben Fehler aufweist.

Verwechseln Sie die KIs in Videospielen nicht mit dem Versuch, die KI im wirklichen Leben anzuwenden. In einem Videospiel steuert der Spieledesigner die gesamte Umgebung. Er muss die KI nicht programmieren, um den Unterschied zwischen einem feindlichen Soldaten und einem Zaunpfosten erkennen zu können, denn er programmiert nur die Kennungen der feindlichen Soldaten ein. Er muss sich nicht mit unvorhergesehenen Situationen auseinandersetzen, denn als Designer kennt er alle möglichen Situationen, weil er sie erfunden hat. Dies ist eine viel einfachere Aufgabe, als eine KI so zu programmieren, dass sie in der realen Welt funktioniert. Und selbst dann machen Spiel-KIs oft dumme Dinge, wie zum Beispiel gegen eine Wand zu laufen und dann dort zu stehen und zu versuchen, durch die Wand zu gehen, weil sie nicht wissen, wie man sie umgeht.

Ja. Dies. Dies ist bereits einer der Hauptgründe, warum es immer noch menschliche Piloten gibt (neben der Tatsache, dass das Fliegen von Flugzeugen Spaß macht). OP sagte, er wolle keine intelligenten, lernenden KIs, und jede nicht intelligente KI werde durch ihre Programmierung eingeschränkt. Es stellt sich heraus, dass viele wirklich seltsame, unerwartete Dinge passieren können, wenn Sie ein Flugzeug fliegen (geschweige denn ein Raumschiff), und dies wird durch die Möglichkeit verstärkt, dass zufällige Teile Ihres Schiffes im Kampf abgeblasen werden. Die Fähigkeit, mit dem Unerwarteten umzugehen, ist etwas, das nicht-intelligente Computer per Definition nie haben werden.
In meiner eigenen Fic wird den Robotern keine tödliche Gewalt anvertraut. Ein Programmierfehler kann viele Menschen töten. (Nebenbei arbeite ich auch im Softwarebereich, und ich glaube, dass das Halteproblem beweist, dass eine echte Maschinenempfindung unmöglich ist.)
Denken Sie daran, dass die Programmierung einer KI für den Kampf VIEL schwieriger ist, als sie für normalere Umgebungen zu programmieren. Eine KI, die beispielsweise ein selbstfahrendes Auto fahren soll, steht vor vielen Herausforderungen, wenn sie versucht, zu interpretieren, was um sie herum vor sich geht. Aber niemand versucht absichtlich, das selbstfahrende Auto zu täuschen. Im Kampf haben Sie per Definition Gegner, die nach Fehlern in Ihrer KI suchen und versuchen, diese auszunutzen.

Was ist mit einer technologischen Einschränkung, wie z. B. dass eine echte Zufallszahlengenerierung durch eine Maschine nicht möglich ist?

Während also KI praktikabel und eine effektive Strategie gegen einige Ziele ist, kann ein Computer, wenn er die Reaktionen eines Schiffes lange genug analysieren kann, die Seed-Nummer knacken und damit beginnen, die Aktionen/Reaktionen von Schiffen mit angemessener Genauigkeit vorherzusagen, was es einfacher macht, sie zu treffen neutralisieren.

Während die Mehrheit der Streitkräfte von KI unterstützt wird, werden einige fortschrittliche Ziele auf diese Weise erfolgreicher mit menschlichen Piloten in Kontakt gebracht, die wirklich unberechenbar sein können?

Ihr Laptop ist möglicherweise nicht in der Lage, eine echte Zufallszahl zu generieren. Sie können jedoch mit einem hochpräzisen Temperatursensor oder genauso einfach mit der Vielzahl von Sensoren, die einem Raumschiff zur Verfügung stehen, eine echte Zufallszahl generieren.
Sache ist: Menschen sind noch schlechter bei der Generierung von Zufallszahlen. Ich meine wirklich sehr schlecht.
Ich möchte jedoch menschliche Piloten als meine Protagonisten. Ich möchte nicht, dass KI-gesteuerte Jäger existieren “, aus der Frage und „ Auf diese Weise werden einige fortgeschrittene Ziele erfolgreicher mit menschlichen Piloten konfrontiert, die wirklich unberechenbar sein können “ , während die Mehrheit der Streitkräfte von der KI unterstützt wird Antwort scheinen nicht kompatibel zu sein.
Obwohl dieser Plan Löcher enthält (wie in anderen Kommentaren erwähnt), denke ich, dass diese Antwort solide und realistisch genug ist, um Geschichten zu erzählen ... das Hard-Science-Tag ist jedoch schwierig. Willkommen auf der Website Kveldulfr.
Dies war auch meine erste Lösung: Menschen werden verwendet, weil sie nicht "logisch" sind, daher können ihre Handlungen nicht vorhergesagt werden (wie es für KI-Computer in dieser Fiktion getan wurde). Wir könnten argumentieren, dass ihr PRNG unter Weltraumbedingungen zu schwach ist (oder Eingaben auch vom Angreifer empfangen werden können). Dies würde jedoch auch voraussetzen, dass ein im Flugzeug mitgeführtes radioaktives Isotop vorhergesagt würde, was nicht realistisch erscheint.

Ein hohes Maß an Weltraumstrahlung könnte den Zweck erfüllen.

Eine leistungsstarke KI erfordert schnelle Computer mit ziemlich viel Speicher zur Verfügung. Weltraumstrahlung kann jedoch die Elektronik beschädigen. Dies erfordert den Aufbau eines Systems mit mehr Redundanz und mehr Abschirmung. Diese einzubauen bedeutet, dass der Computer nicht über die Ressourcen verfügt, die er sonst hätte.

Sie müssen eigentlich keine Weltraumstrahlung verwenden - Ihre Minovsky-Partikel könnten schuld sein. Vielleicht ist es ein Nebenprodukt der Energieschilde, die Ihre Schiffe haben. Wie auch immer Sie sich entscheiden, es begrenzt die Komplexität der Elektronik in Ihren Schiffen. Anstatt futuristische Terahertz-Prozessoren zu haben, könnten sie sich auf Megahertz-Prozessoren mit Megabyte RAM beschränken (was für eine KI ausreichen sollte, die dem Piloten hilft, das Schiff zu fliegen). Dies schränkt die Leistungsfähigkeit einer KI an Bord stark ein und bedeutet, dass ein ausgebildeter Pilot absolut notwendig wäre.

Dies lässt Ihnen auch einige Optionen, um KI-gesteuerte Schiffe zuzulassen. Das böse Weltraumimperium könnte ein besseres Mittel zur Abschirmung seiner Elektronik entwickeln, das es ihnen ermöglicht, KI-gesteuerte Schiffe zu haben, die auf oder über dem Niveau eines durchschnittlichen Raumschiffpiloten sein könnten. Sie könnten auch kurzlebige KI-Schiffe haben – sie könnten jedem menschlichen Piloten weit überlegen sein, aber wenn es einem Piloten gelingt, ihnen für ein paar Minuten auszuweichen, würde die KI beginnen, sich merklich zu verschlechtern und die Chance des Piloten, sie zu schlagen, erheblich verbessern. Eine dritte Option wären KI-Schiffe, die den Energieschild aufgeben. Diese würden von einem einzigen Schuss heruntergehen, aber je nach Waffensystem, das Sie im Sinn haben, könnte eine starke KI ziemlich gut darin sein, nicht erschossen zu werden.

Ich finde es gut, dass Sie nicht nur eine Option vorgeschlagen haben, sondern auch weiter auf die Handlungsimplikationen und coolen Story-Punkte eingegangen sind, die Sie schreiben können, indem Sie diese Option implementieren!
In addition a future AI could presumably be faster to respond to attacks 
then humans, less predictable, more trustworthy

Ich stimme zwar zu, dass eine KI weniger Nachteile hätte, wenn sie nicht der Angst erliegt, bis zum Ende kämpft, anstatt auszusteigen usw. Ich stimme den anderen beiden Aussagen nicht zu.

Während eine KI schneller auf einen Angriff reagieren könnte (Raketen ausweichen usw.), wäre sie nicht unbedingt in der Lage, Angriffen zuvorzukommen , wie es Menschen wahrscheinlich könnten. In einer mexikanischen Pattsituation mit einem anderen einsamen Piloten würden sie immer verlieren, wenn ein Computer nur auf ihren Angriff reagieren könnte. Mit einem Menschen haben Sie mehr Möglichkeiten zu arbeiten, wie z. B. Instinkt, Fingerspitzengefühl usw.

Außerdem neigen Computer dazu, sehr vorhersehbar zu sein. Wenn es KI-Jets gegen KI-Jets gäbe, könnte ein anderer Jet, selbst wenn es Millionen von vorprogrammierten Ausweichmanövern für einen einzelnen Jet gibt, seine Bewegungen analysieren und mit Kenntnis der möglichen Bewegungen berechnen, welche am wahrscheinlichsten ist entsprechend reagieren. Auch wenn es eine Million Variationen gibt, gibt es immer noch nur eine endliche Menge.

Ein Mensch könnte sich leichter an Situationen anpassen und weniger vorhersehbar sein und sogar so weit gehen, die falsche Entscheidung zu treffen, was im Allgemeinen weniger vorhersehbar ist als das, was man von ihm in einer Situation erwarten würde.

Mein Vorschlag wäre, es so zu rechtfertigen: KI-gesteuerte Kämpfer wären gut, wahrscheinlich sehr gut und besser als die meisten menschlichen Kämpfer. Sie sind jedoch zu konsistent, und Sie wissen genau, was Sie erwartet.

Während sie also besser sein können als die meisten Menschen, sind die besten Menschen immer noch besser als jede KI. Dies würde bedeuten, dass es immer noch KI-Kämpfer und sogar Drohnen gibt, aber die allerbesten der besten Kämpfer würden in den meisten Situationen immer noch jeden von ihnen eins zu eins schlagen.

Einer der Gründe, warum ich kein selbstfahrendes Auto will, ist, dass es wahrscheinlich die Geschwindigkeitsbegrenzung überschreiten wird. Ich würde Ihrer Antwort die Tatsache hinzufügen, dass Menschen viel besser sind als KI, wenn es darum geht, Befehle zu missachten und die Arbeit zu erledigen.
Professionelle Pokerspieler hassen es, gegen Amateure zu spielen. Ein Profi kann immer erraten, was ein anderer Profi denkt, und weiß, dass die meisten Profis die Wahrscheinlichkeiten kennen. Ein Amateur hingegen kann bluffen und mit nichts all-in gehen... aber kann der Profi dieses Risiko eingehen?
Ich kann Ihren ersten Punkt verstehen, aber ich denke, KI wird weitaus weniger vorhersehbar sein. Es ist trivial einfach, einer KI einen Zufallszahlengenerator hinzuzufügen. Bei bestimmten Optionen wählt es zufällig mögliche Optionen aus. Es könnte sogar zufällig suboptimale Entscheidungen treffen, da die Spieltheorie zeigt, dass dies ein wichtiger Teil einer Strategie ist, die nicht gegengespielt werden kann. Zufälligkeit und das Vermeiden, dass andere Ihre Strategie vorhersagen, sind bekannte Konzepte sowohl in der Spieltheorie als auch in der KI. es ist meistens ein gelöstes Problem. Eine aus der Ferne gut implementierte KI ist weniger vorhersehbar als Menschen.
Um den Kommentar von @dsollen zu erweitern: Menschen sind sehr gut darin, Zufälligkeiten und Muster zu verwechseln. Wir sehen nicht existierende Muster in der Zufälligkeit, und wenn wir versuchen, selbst „zufällig“ zu sein, neigen wir dazu, vorhersagbare Muster zu produzieren, und können nicht sehen, dass wir dies tun. Sichere Zufälligkeit zu erzeugen ist etwas, in das wir viel Mühe gesteckt haben, und wir können Computer wirklich gut darin machen, solange wir uns nicht erlauben, einzudringen und es zu vermasseln.

Eine andere Möglichkeit befasst sich mit Künstlicher Intelligenz und Ethik . Prof. Joseph Weizenbaum , der ein Buch mit dem Titel Computer Power and Human Reason geschrieben hat . Das Buch sagt, dass sich die Technologie tatsächlich weiterentwickeln wird und künstliche Intelligenz möglich werden kann (starke KI), aber er sagt, dass der KI immer bestimmte Eigenschaften wie Mitgefühl fehlen werden (aus Wikipedia):

Sein einflussreiches Buch Computer Power and Human Reason von 1976 zeigt seine Ambivalenz gegenüber der Computertechnologie und legt seine Argumente dar: Obwohl künstliche Intelligenz möglich sein mag, sollten wir Computern niemals erlauben, wichtige Entscheidungen zu treffen, da Computern immer menschliche Eigenschaften wie Mitgefühl und Weisheit fehlen werden. Weizenbaum macht den entscheidenden Unterschied zwischen Entscheiden und Wählen. Entscheiden ist eine Rechentätigkeit, etwas, das letztendlich programmiert werden kann. Die Wahl ist jedoch das Produkt des Urteilsvermögens, nicht der Berechnung. Es ist die Fähigkeit zu wählen, die uns letztendlich zu Menschen macht. Umfassendes menschliches Urteilsvermögen ist in der Lage, nicht-mathematische Faktoren wie Emotionen einzubeziehen. Das Urteilsvermögen kann Äpfel und Orangen vergleichen, und zwar ohne jede Fruchtart zu quantifizieren und dann jede reduktiv auf für den Vergleich notwendige Faktoren zu quantifizieren.

Falls nun eine Maschine wählen kann, ob sie eine Person töten soll oder nicht, bestätigt dies eindeutig das oben genannte Konzept.

Dies kann von Vorteil sein, da beispielsweise das Retten von Menschenleben Freundschaft schafft und somit militärische Koalitionen aufbauen kann, die auf mehr als nur „für beide Seiten vorteilhaft“ basieren. Der gleiche Aspekt ist I Robot , wo der Autor (scheint) warnt, dass KI das Ziel missverstehen und zum Beispiel die Demokratie zerstören kann, weil die Menschheit in Zukunft davon profitieren wird.

Mit anderen Worten, man muss mit KI vorsichtig sein, da bestimmte Aspekte, die für Menschen trivial erscheinen mögen, für Maschinen schwer zu lernen sind. Deshalb wird die Entscheidung über Leben und Tod vielleicht besser von Menschen getroffen.

stimmt, obwohl ich darauf hinweisen möchte, dass Sie, wenn Sie TODESMASCHINEN in den Weltraum starten, wo sich keine unschuldigen Zivilisten wundern (der Weltraum ist RIESIG, Sie treffen nicht versehentlich auf einen Dritten), dann ziemlich damit einverstanden sind, „jemanden zu töten“. das ist keiner von uns"

Ich komme vielleicht zu spät zur Party, aber wie steht es mit menschlicher Intuition und "Bauchgefühl" ?

Eine noch so fortgeschrittene KI könnte auf "WENN ... DANN" heruntergebrochen werden, aber in Situationen, in denen es keine vordefinierte Situation gibt, um den Raum nach "DANN" zu füllen, müsste die KI herausfinden, was wo zu tun ist wie der Mensch der Intuition und dem Bauchgefühl über eine statistisch errechnete qualifizierte Vermutung folgen konnte.

Dasselbe gilt für Computerschachengines, wenn Sie eine bestimmte Computerschachengine zu oft spielen, können Sie sie gewinnen, weil sie vorhersehbar wird, obwohl Sie eine Computerschachengine bauen können, die besser im Schach ist als ein Mensch. Dasselbe würde mit den KI-Piloten passieren, wo der Mensch unberechenbarer ist und das ein Vorteil in der Kriegsführung ist, wie das Zitat sagt

Wenn wir nicht wissen, was wir tun, kann der Feind unsere zukünftigen Aktionen sicherlich nicht vorhersehen!

Ich habe das Gefühl, dass Herr Molot das Kopfgeld wegen meiner Kommentare in einem anderen Thread gestartet hat, also denke ich, dass ich eine Antwort geben sollte.

Die meisten Antworten in diesem Thread lauten "Wenn die Bedingungen 1-x erfüllt sind, könnten menschliche Piloten verwendet werden". Ich werde eine ähnliche Strategie wählen.

Oft sind die Bedingungen 1-x ziemlich schwer zu erfüllen oder sehr unwahrscheinlich, aber ich denke auch, dass es eine faire Schlussfolgerung ist, aus den Antworten zu ziehen, dass alle Anwendungen von Standardmenschen auf Raumjägern höchst situativ sind, wenn nicht sogar ein Nachteil. Ich sollte auch sagen, dass diese Frage meiner Meinung nach nicht perfekt zur Diskussion aus dem anderen Thread passt, da das ursprüngliche Poster ziemlich viele Einschränkungen auferlegt. Ich werde auf diese bereits beantwortete und uralte Frage nicht superspezifisch eingehen, sondern aufgrund der Umstände etwas allgemeiner. Es könnte auch sein, dass jemand in den anderen paar Antworten etwas Ähnliches gesagt hat. Wie bereits erwähnt, habe ich einfach das Gefühl, dass ich meine Kommentare in einem anderen Thread rechtfertigen muss. Ich diskutiere auch ausdrücklich über kleine Raumfahrzeuge, weil dies das Thema der anderen Diskussion war. Ich denke, es liegt etwas im Rahmen der Frage. Ich glaube, Herr Molot hatte gute Gründe, sich gerade für diesen zu entscheiden.

Ich denke stark darüber nach, eine Reihe von Threads zu starten, um zu bestimmen, wie ein Weltraumschlachtfeld aussehen würde (was ich für wichtig halte, zuerst zu beantworten), aber ich bezweifle derzeit, insbesondere nachdem ich die Antworten in diesem Thread gelesen habe, dass man einen finden würde wirklich tolle Antwort hier. Es scheint eine Menge Arbeit für ein Projekt zu sein, an dem ich gerade nicht wirklich arbeite.

Hier sind also die einzigen Gründe, die mir einfallen, warum Menschen kleine Raumschiffe in einer echten Weltraumschlacht bemannen sollten:

  1. Zivile Kriegsführung: Wenn Sie kleine und zivile Operationen durchführen, nehmen Sie zum Beispiel Weltraumpiraten oder Polizeiarbeit oder einfach nur einen Streit zwischen Privatpersonen, der beigelegt werden muss, kann ein Weltraumkampf zwischen menschlichen Piloten ausbrechen. Es ist unwahrscheinlich, dass Sie ständig ein Arsenal an KI-Drohnen bei sich haben und möglicherweise sind die Kampf-KIs stark eingeschränkt und Privatpersonen haben keinen Zugriff darauf. Alle Waffen können selbst hergestellt oder sogar illegal sein. So wie man als Zivilist keinen Panzer herumfahren kann. Eine andere Möglichkeit wäre, dass die Kampf-KI an Bord werkseitig darauf programmiert ist, andere Dinge als Menschen wegen Mordes abzuwehren. Möglicherweise müssen Sie einige Dinge im Kampf selbst manuell erledigen. Es könnte sogar ein spezielles Programm geben, um Weltraumduelle und Piraterie zu verhindern - wenn Sie sich für diese Sache interessieren, müssen Sie es möglicherweise bis zu einem gewissen Grad manuell tun. Ich denke nicht, dass dies wahrscheinlich ist, da diese Schiffe meiner Meinung nach immer noch zumindest starke KI-Unterstützung haben würden, aber ich würde argumentieren, je kleiner und kurzreichweitiger und langsamer der Kampf ist, desto mehr Nutzen für Menschen. Ein ähnliches Beispiel aus der realen Welt wären Faust- oder Messerkämpfe: Es spielt keine Rolle, dass eine Pistole besser ist als Ihre Faust, manchmal ist sie in einer dunklen Gasse Ihre einzige Wahl. Sie können nicht argumentieren, "aber die Atombombe ist viel besser darin, Menschen zu töten", wenn Sie ein Messer an Ihrer Kehle haben.

  2. Das letzte Gefecht: Die bösen Außerirdischen kommen, um die menschliche Kolonie X zu versklaven. Also wirst du entweder ein Sklave oder kämpfst für deine Freiheit. Sie haben ein kleines Transportraumschiff, dem eine Kampf-KI und ein Kampfformationsprogramm fehlen, wie es der örtliche Admiral verlangt, aber mit einigen Waffen und in Kombination mit den KI-Verteidigungskräften dieser Kolonie schließen Sie sich der Verteidigung an. Jedes Schiff zählt. Es ist oft besser, im Kampf zu sterben, als in einer außerirdischen Weltraummine zu landen.

  3. Sport: Nun, manche Leute machen Sachen für den Sport. Die Leute rudern, obwohl wir motorisierte Schiffe haben, die viel effektiver und effizienter darin sind, Boote zu sein. Die Leute rudern immer noch – also finden manche Leute es vielleicht einfach lustig und nehmen an gefälschten Weltraumschlachten teil. Vielleicht wird Disney eines Tages „das wahre Star Wars-Erlebnis“ machen

  4. Ethik und Moralisten: Vielleicht hat die KI in einer bestimmten Welt die gleichen Rechte wie Menschen und wird nicht mehr in Massenproduktion hergestellt. Auch die KI könnte es für unfair halten, dass sie alle Kämpfe führen muss, während Menschen "Liebe" genießen. Jede KI ist wertvoll, sogar das Targeting-Programm. Lassen wir also die Menschen ihren Anteil an der Sache erledigen.

  5. Menschen sind KI: Dies habe ich in der anderen Diskussion vorgeschlagen. Wenn Sie Menschen verbessert haben, vielleicht mit integrierten KIs, könnte die Kombination mit menschlichen Qualitäten sie zu den bestmöglichen Piloten machen. Ich weiß nicht, warum man ein solches Forschungsprojekt durchführen würde, aber diese Menschen könnten von einer Firma speziell hergestellt werden und ihnen fehlen Dinge wie "freier Wille". Man könnte sie vielleicht sogar als um menschliche Teile erweiterte Computer sehen.

  6. Keine Wahl mehr: (ähnlich Punkt 2) Du fliegst mit Menschen an Bord durch den Weltraum. (Optional: Ihr Schiff wurde beschädigt. Sie müssen es manuell bedienen, da nichts funktioniert.) Sie werden angegriffen. Und, was machst du? Kämpfe oder akzeptiere einfach dein Schicksal und stirb? Ich persönlich würde nicht einfach sterben, nur weil ich keine KI bin und nicht gut im Weltraumkampf bin, ich würde trotzdem zumindest mein Bestes geben, um sie zurückzuschlagen. Höchstwahrscheinlich würde ich verlieren, aber trotzdem – die Leute werden die Geschichte von dem Typen erzählen, der dieses eine Mal manuell in einem Kampf fliegen musste.

Ich habe dieses Bounty gestartet, weil es viele Kommentare in dieser Zeile gab. Es war mir ziemlich egal, wer sie gepostet hat. Alles, was ich wollte, war, eine Art von Antworten zu haben, die detaillierter sind, um so viel wie möglich vom "Spektrum" abzudecken, und das Bewusstsein dafür zu schärfen, dass dies auf dieser Website bereits gefragt und beantwortet wurde.
@Mołot Mir ist bewusst, dass dies nichts Persönliches ist, aber ich denke, um mich daran zu erinnern, dass ich meistens, ziemlich zum Ärger des OP, zuerst und am härtesten Menschen befragt habe. Ich finde die hier gegebenen Antworten auch nicht so toll, also musste ich mir selbst antworten. Ich sage nicht, dass ich besser bin, aber wenn Sie alle (33, glaube ich) Antworten zusammennehmen, haben Sie vielleicht etwas davon. Jetzt kann ich auch in zukünftigen Diskussionen auf diesen Beitrag verweisen, explizit meine Schlussfolgerung aus den anderen Antworten.
Ich weiß Ihre Antwort zu schätzen, aber ich habe das Bedürfnis, auf einen Fehler bei den Punkten über Menschen als Falback hinzuweisen (dh 6, 2, eine Art 1). Sie alle gehen davon aus, dass Sie zunächst ein Schiff mit Waffen haben. Es gäbe keinen Grund, Waffen auf einem Schiff zu bauen und dafür keine KI zu bauen, zumal eine einmal programmierte KI fast kostenlos auf allen Schiffen eines bestimmten Typs installiert werden kann. Sie könnten eine Situation argumentieren, in der Menschen nicht bewaffnete Schiffe als Waffen benutzten (der Laser eines astroiden Ernters ist gut darin, Rüstungen oder so etwas zu zerschneiden), aber ansonsten können die Menschen keine Kampfpiloten sein.
@dsollen Ich stimme absolut zu und habe diesen spezifischen Fehler angesprochen. Wie ich schon sagte, wenn Sie Piloten haben wollen, müssen Sie sehr weit hergeholte Annahmen treffen. Einer davon war in Punkt 1), dass Kampf-KI zum Beispiel nicht verfügbar ist. Ich habe in diesem Punkt starke KI-Unterstützung vorgeschlagen, aber es könnte einige Dinge geben, die man manuell tun muss – zum Beispiel könnten Waffen an Bord anfänglich so programmiert werden, dass sie nicht auf lebende Menschen zielen. Was Punkt 2 betrifft, denke ich, dass Ihr durchschnittliches Transportschiff wieder keine Kampf-KI haben wird. Punkt 6 ist ähnlich und bietet die Möglichkeit, dass die KI nicht funktioniert
Es gibt nicht genug Platz. Aber wie ich bereits sagte, glaube ich nicht, dass es jemals eine brauchbare Verwendung für Menschen geben wird. Ich habe dies aus einem Grund geschrieben, wie am Anfang erwähnt, und nicht, weil ich glaube, dass es eine so großartige Idee war. Ich versuche, dies per Bearbeiten zu klären

Nehmen Sie eine Seite von Battlestar Galactica.

KI wurde in vergangenen Kriegen eingesetzt, wurde jedoch als zu instabil und anfällig für gefährliche Malware befunden, um die Gesamtheit einer KI-basierten Flotte zu beeinflussen.

Daher wurde es zu gefährlich, im Falle einer schnellen und einfachen Flottenkompromittierung auch nur eine moderate Menge an KI irgendwo innerhalb der Flotte einzusetzen.

Dass Flugzeuge von KIs gesteuert werden, bedeutet nicht, dass Menschen sie nicht fliegen. Wenn Menschen in Zukunft in elektronischer Form existieren, können sie sich auf die Flugsteuerungscomputer von Flugzeugen hochladen und das Flugzeug fliegen.

Schon viele Antworten. Ein weiterer Punkt aus der realen Welt:

Einwände der Militärelite

Grundsätzlich geht es darum, dass Militärs mächtige Organisationen mit ausgeprägten Hierarchien sind. Ein Pilot eines Raumschiffs zu sein, könnte zu einer Prestigesache werden, die man in einer Adelsfamilie aufwachsen muss, mit viel Reichtum und Ausbildung, um es zu erreichen. Diese Familien wiederum haben viel politische Macht und sehen eine Zukunft als Pilot als etwas, das ihren Kindern den Erfolg sichert. Stellen Sie sie sich zum Beispiel als die mittelalterlichen Ritter der Zukunft vor, die jeweils ihre eigenen Kampfschiffe besitzen und unterhalten.

Das Ersetzen von Menschen durch KIs wird dann zu einer gewaltigen Herausforderung für diese Menschen, die sie und ihre Fähigkeiten überflüssig macht. In Kriegszeiten mag es ein Vorteil sein, aber in Friedenszeiten ist es eine störende Kraft in der etablierten sozialen Ordnung.

Ein weiterer allgemeiner Ansatz, der mit vielen der Antworten hier kompatibel sein kann:

Erfinde keinen Grund, warum es unmöglich ist, sondern viele kleine Gründe, die es wirklich sehr schwierig, teuer und riskant machen

Sie müssen KI in Ihrem Szenario nicht unmöglich machen. Legen Sie die Messlatte einfach sehr hoch - es gibt eine Reihe einfacher physikalischer Ingenieursprobleme. KI kann im Labor ziemlich gut funktionieren und ein Staat hat Milliarden in eine riesige KI-Flotte investiert, die von 10 Kämpfern ausgelöscht wurde, wegen (Strahlung, Bugs, Vorhersagbarkeit, was auch immer). Sie können es sogar zu einem Story Point machen, dass die Öffentlichkeit nicht genau weiß, warum die große KI-Flotte so leicht zerstört wurde. Aber danach wurden die Mittel der meisten KI-Flottenprogramme ernsthaft gekürzt.

Sie arbeiten also an KI-Schiffen – und es ist sogar möglich, dass sie im Kampf besser sind als alles andere. Vielleicht müssen wir einfach noch 5 Jahre noch ein paar Millionen Credits in die Entwicklung investieren und vielleicht klappt es dann. - Aber das ist ziemlich riskant und der Krieg wartet nicht. Wenn Sie also Zeit und Ressourcen in neue Waffen investieren, werden bessere Schiffe sofortige Ergebnisse erzielen, anstatt das langfristige Glücksspiel der KI.

Ich denke, es ist ein bisschen wie: Warum haben wir heute keine fliegenden Autos? Es gibt keinen einzigen Grund, der es unmöglich macht, sondern viele kleine, sehr praktische Probleme, warum die theoretisch einfache Lösung in der realen Welt nicht funktioniert und jahrelange Ingenieursarbeit erfordert ...

Wie @Erik in den Kommentaren sagte, das, wonach Sie suchen, sind Drohnenpiloten. Piloten sitzen in einer Kommandozentrale auf einem großen Schiff oder zurück auf einem Heimatplaneten und steuern Schiffe aus der Ferne. Dies hält die Schiffe klein und entbehrlich, während die eigentlichen Piloten vollständig sicher sind. Die KI wird sicherlich genug entwickelt haben, um Schiffe zu fliegen, aber man kann stattdessen Drohnen damit rechtfertigen, dass die KI dem Witz lebender Piloten nicht gewachsen ist. Das scheint mir der logischste Ansatz zu sein!

Aber das nimmt das schöne Drama, die Piloten in der Schusslinie zu haben, weg! Beachten Sie nebenbei, dass dies eine FTL-Kommunikation erfordern wird, um im Weltraum praktikabel zu sein: Wenn Sie sich nur 100.000 km vom Kampf entfernt aufhalten, haben Sie eine Verzögerung von mindestens 1/3 Sekunde in jede Richtung, was a ist großes Handicap. Angenommen, es handelt sich um einen Luftkampf im Stil einer Weltraumoper.
@JonofAllTrades Einig, dass es weniger dramatisch ist. OP sagte, wir hätten Technologie erfinden können, also los geht's. Damit meine Antwort funktioniert, benötigen wir FTL-Kommunikation!
Wie ich in meiner Frage sagte, habe ich ER-Strahlung als Rechtfertigung dafür verwendet, warum Drohnen nicht funktionieren. Sie können nicht fernsteuern, wenn Sie keine Signale an die Drohne erhalten.
@JonofAllTrades Ich habe tatsächlich eine begrenzte Quasi-FTL-Kommunikation, aber zufällig kann es nur "Batch" -Nachrichten verarbeiten, und der Versuch, ständig schnelle Nachrichten zu senden, die für die Echtzeitsteuerung benötigt werden, funktioniert nicht gut. Der Versuch, Kämpfer mit FTL-Kommunikation fernzusteuern, was zuvor für unmöglich gehalten wurde, ist ein Handlungspunkt :)

Abhängig davon, zu welchen Arten von Ressourcen Ihre Gesellschaft Zugang hat, könnten Sie aus wirtschaftlichen Gründen menschliche Piloten beanspruchen.

Wenn eine Kosten-Nutzen-Analyse zeigt, dass Silizium (oder Unobtanium oder was auch immer für ein wesentliches Element Ihre KIs benötigen) teurer ist als die Kosten für die Ausbildung und Entsendung von Menschen, und der relative Vorteil der KI-Fähigkeiten die Herstellungs-/Wartungskosten einfach nicht rechtfertigt dann wird Fleisch auf den Pilotensitz zu einer finanziellen Notwendigkeit.

Nur ein Gedanke.

Etwas, das ich trotz aller Antworten bisher nicht gelesen habe, ist keine Schurken-KI, sondern eine unvorhersehbare KI.

Die tatsächliche vollständige KI ist so unglaublich fortgeschritten, dass wir sie innerhalb eines Jahres oder so nach ihrer Einführung nicht einmal verstehen würden. Und wir werden nicht genau wissen, was die KI gelernt haben wird. Es ist unwahrscheinlich, dass eine solche KI nur für die Kriegsführung eingesetzt wird, aber auch für den Bau, die Forschung, die Verkehrskontrolle und so ziemlich alles, was man sich vorstellen kann. Wenn wir die KI ihren Geräten überlassen würden, könnte sie Menschen gewaltsam aus ihren Gebäuden entfernen und etwas anderes bauen, wenn sie die Menschen vorher überhaupt entfernt. Sie wissen nicht, was und wie es gelernt hat oder was es auch priorisiert. Die Kriegsführung wäre die gleiche, die KI könnte alles tun, um ihre Ziele zu erreichen, sogar Dinge, die für die Menschen undenkbar sind, wie sich auf Frieden einigen und mit dem "Feind" oder ihren KIs gegen den Willen ihres Meisters zusammenarbeiten. Dies ist einer der Gründe, warum KI möglicherweise nur ein Locked-Box-Projekt ist. Die KI (oder mehrere KI ohne Kenntnis der anderen) bekommt ein Problem und muss eine Antwort erstellen, dann schauen sich die Menschen die Antworten an und untersuchen die Konsequenzen vollständig, bevor sie darauf reagieren. Das bedeutet, dass keine KI irgendetwas direkt kontrolliert.

Die menschliche Reaktionszeit basiert auf einem möglichst energieeffizienten und schnellen Nervensystem. Durch erzwungene Evolution (langsamere Piloten sterben schneller, lebende), Zuchtprogramme, genetische Manipulation oder sogar der Aufbau vom Boden aus, könnten Sie ihr Gehirn und Nervensystem so weit beschleunigen, dass es keine Rolle mehr spielt.

"Es gibt keine Tarnung im Weltraum", Sie können Ihre Wärmesignatur nicht vor dem kalten schwarzen Raum verbergen. Aber warum sollte das bedeuten, dass Sie schwache KI-Systeme nicht täuschen können? Stellen Sie sich vor, die Forschung zu Gegenmaßnahmen beschleunigt sich und jeder Kampf beginnt mit Dutzenden, wenn nicht Hunderten von gefälschten Unterschriften. Um herauszufinden, woran es liegt, kommt man zunächst der Verlobung näher (mit FTL möglich). Um sicherzustellen, dass Sie Ihre Munition und Zeit nicht mit falschen Zielen verschwenden, lassen Sie die Jäger die Jäger kontrollieren, fliegen und kämpfen in einer Masse von sich zufällig bewegenden Gegenmaßnahmen, die sowohl die Kapitolschiffe als auch die Jäger in alle Richtungen starten. Kombinieren Sie dies mit Maßnahmen, die Ihre eigene Signatur reduzieren, wie z. B. die Änderung der Strahlungsstärke Ihrer Oberfläche, wenn Sie sich dem Gegner stellen, und/oder die vorübergehende Speicherung von Wärme für die Dauer des Kampfes.

Ich denke, die Frage hier dreht sich wirklich darum, KI auf fast jedem Niveau in einer Zivilisation der Klasse 1 oder Typ 2 zu rechtfertigen, indem die Kardashev-Skala aus der Perspektive einer in die Zukunft gerichteten Zivilisation des Typs 0 verwendet wird.

Wenn man bedenkt, dass die meiste künstliche Intelligenz auf algorithmischer Programmierung basiert, die auf biologischen Einheiten (dh DNA, neuronalen Netzen/Gehirnzellen, Insektenverhalten usw.) basiert, die wirklich nur auf einen kleinen Teil dessen zutreffen, was als tatsächliche Intelligenz angesehen wird. Man muss bedenken, dass es mehrere Systeme gibt, um eine „virtuelle“ oder digitale Intelligenz aufzubauen.

Nehmen Sie zum Beispiel die Welt von Star Wars und Star Trek, beide haben auf die eine oder andere Weise künstliche Intelligenz oder KI. Star Wars geht davon aus, dass es eine Android-KI und nicht so sehr eine digitalbasierte KI gibt, was impliziert, dass ihre Technologie irgendwann eine digitale KI hatte, sich aber basierend auf externen Faktoren oder anderen Agenten „entwickelte“, um in einer physischen Form von Androiden häufiger zu sein als in einer Virtuell wie Hologramme oder in einer Art Computer vorhanden. Während Star Trek den gegenteiligen Ansatz verfolgt und seine Gesellschaft mit holografischer und digitaler KI (die bei der Erforschung eines Computersystems wie LCARS ohne eine Art fortschrittlicher, aber rudimentärer KI nicht funktionieren könnte) als Norm anstelle von Androiden beschäftigt, warum Androiden als unnötig angesehen werden und /oder nicht vertrauenswürdig mit einer Ausnahme.

Wenn wir nun in unsere eigene Realität schauen, haben wir kürzlich eine 5D -Speichertechnologie entwickelt, die Kristallgitter und Laser verwendet. Sehr Science-Fiction, ja, aber weil es keine bessere Alternative zu unseren aktuellen magnetischen und auf Festkörpertransistoren basierenden Speichermedien bot, haben wir als Volk dies nicht entwickelt. Das gleiche passiert mit Dampfmaschinen, ein griechischer Philosoph erfand die erste Dampfturbine und erst 1800 Jahre später entdeckte die Welt diese Technologie wieder, um die industrielle Revolution voranzutreiben.

Der Punkt, den ich hier mache, ist, dass, wenn eine Kultur, Ereignisse oder Fraktion innerhalb dieser Kultur die massenhafte Verbreitung einer Technologie verhindern, diese Technologie entweder selten ungenutzt bleiben oder von einigen Fraktionen vollständig aufgegeben werden könnte. Daher könnte man ihre Hauptprotagonisten zu denselben Fraktionen machen, die kein KI-System für ihre Kämpfer für mehr als sagen wir geführte Fly-by-Wire-Systeme oder fortschrittliche Situationsautomatisierung ohne Interaktion eines Piloten verwenden, aber dennoch einen Piloten benötigen um das Fahrzeug vollständig zu betreiben. Dies könnte von einem Leitungsgremium oder einfach nur durch die Präferenz dieses Teams auf der Grundlage seiner eigenen Fähigkeiten, Fähigkeiten und Erfahrungen weitergegeben werden, was dazu führen würde, dass jede Art von KI-gesteuerter Drohnen als minderwertige Technologie betrachtet wird.

Man könnte diese technologische Unterlegenheit sogar damit rechtfertigen, dass die meisten digitalen Intelligenzsysteme oder KI niemals als Drohnen auf Saphir-Niveau mit einem halbbewussten Verstand aufgebaut sind, sondern lediglich als eine Reihe von Hardware- und Softwaresystemen, die dafür ausgelegt sind, mit einem Insekt wie einem zu operieren Verstand, aber immer noch einen Bediener benötigen, weil die KI nie weiter entwickelt werden musste, noch wurde irgendeine Art von Mutationscode entwickelt, um der KI zu ermöglichen, sich selbst zu entwickeln, zu replizieren oder ihre eigene Programmierung zu erweitern, um sich nie zu einer digitalen Lebensform zu entwickeln.

Um noch weiter zu gehen, könnte man sogar die Konzepte von Schurkenfraktionen untersuchen, die versuchen, eine sich selbst entwickelnde/replizierende KI zu entwickeln und ihre Protagionisten involvieren, indem sie Gerüchte untersuchen und/oder eine Mission erhalten, um die neue Technologie zu zerstören und/oder zu stehlen.

Als großer Gundam-Fan und Liebhaber unrealistisch auffälliger Sci-Fi-Kämpfe habe ich mir dieselbe Frage schon einmal gestellt, und das ist die Lösung, die ich gefunden habe: Die KIs erledigen im Grunde alles während eines Kampfes, Reaktionen, Kommunikation, Taktiken, Vorhersagen usw. Die Menschen wären immer noch da , um Fehler zu machen.

Hören Sie mich jetzt an - es gibt keinen vernünftigen Weg, wie ein Mensch eine KI überlisten, austricksen oder ausmanövrieren kann, aber wir können sie verdammt noch mal überlisten. Wir werden schreckliche Entscheidungen treffen (aus logischer oder vorausschauender Sicht), und das würde die Bewegungen der Maschine schwerer vorhersehbar machen. Stellen Sie sich den Menschen im Grunde als zufälligen Seed-Generator vor. Solange seine/ihre Entscheidung nicht rein selbstzerstörerisch ist, wird die KI damit rollen, nur um die feindliche KI abzuwerfen.

Ich weiß nur, dass diese Idee irgendwie fehlerhaft ist, aber anfangs schien sie mir gut zu sein.

Eine andere Idee, die ich hatte und die die menschlichen Piloten in ein viel helleres Licht rücken würde, wäre, sie für die angewandten Kampftaktiken verantwortlich zu machen. Sie steuern nicht die Maschine selbst, sie sagen nur: „Wir sollten x machen.“ Und die KI übernimmt das gesamte Manövrieren und Reagieren.

Leider haben diese beiden Ausreden eine gemeinsame Voraussetzung: eine Art leistungsstarker, allumfassender Kommunikationsstörsender, der die menschlichen Piloten daran hindert, überhaupt nicht in der Maschine zu sein. Andernfalls sitzen die Menschen nur in der Basis, während die KIs alles tun.

Rassismus/Angst vor der Maschine

Eine andere Möglichkeit wäre, dass Menschen so viel Angst vor einem möglichen Roboteraufstand haben, dass sie sich weigern, sie in Positionen zu bringen, in denen sie möglicherweise eine Revolte auslösen könnten. Vielleicht dürfen Roboter / KIs keinerlei Waffen haben, in diesem Fall ist ein Raumjäger sicherlich eine Waffe.

Idee: Sie könnten Ihre Kampfpiloten dazu bringen, regelmäßig größere Schiffe (oder Anlagen) zu entern und zu erobern. In diesem Fall reicht eine einfache KI zum Steuern des Jägers nicht aus – Sie benötigen einen ganzen Roboter. Und es kann auch kein klobiger Roboter sein. Es muss in der Lage sein, durch ein feindliches Schiff mit unbekannten Einbauten, beschädigten Abschnitten und feindlichem Widerstand an den Grenzen zu manövrieren. Dann müsste es das feindliche Schiff reparieren und es zurück in ihr Territorium steuern. (Oder vielleicht verwenden Sie es, um den Kampf fortzusetzen, oder als Spionageschiff oder in hundert anderen Szenarien.)

Der Punkt ist, bewegen Sie sich von einer Luftwaffen-Analogie zu einer Marine-Analogie. Verwandle deine Kampfpiloten in Freibeuter, und du benötigst nicht mehr nur eine Kampfpiloten-KI, sondern einen immens ausgeklügelten Roboter. Aus einem bestimmten Blickwinkel sind Menschen bereits immens hochentwickelte Roboter, also warum sollten Ihre zukünftigen Imperien das Rad neu erfinden? (Außerdem ist es eine Sache, KIs in der eigenen Zivilisation zu haben. Es ist eine ganz andere Sache, eine große Anzahl von Robotern zu haben, die sowohl körperlich als auch geistig so hoch entwickelt sind wie Menschen.)

[Bearbeiten: Ich habe gerade festgestellt, dass diese Idee der Landkriegsführung von Dune ähnelt, wo Schilde sehr effektiv sind, außer gegen langsame Angriffe. Dies führt zu einem Landkrieg, der auf Massen von Infanterie (mit Transportbehältern für die Mobilität) basiert, die in Nahkämpfe verwickelt sind.]

In der Zukunft ist KI sowohl mächtig als auch nahezu empfindungsfähig. In einem Standard-Kampfflugzeug der Erde zum Beispiel würde eine KI buchstäblich Kreise um einen Menschen fliegen. Sie können um Hindernisse herummanövrieren, die ein menschlicher Pilot nicht einmal registrieren würde. Sie können Ziele über komplexe physikalische Gleichungen verfolgen, bis sie wissen, wohin einzelne Moleküle fliegen werden, wenn das Schiff zerstört wird.

Wenn sie das alles können, wozu braucht man dann jemals einen menschlichen Piloten?

Elektromagnetische Strahlung

Die Handwave Engines erzeugen eine enorme Menge an elektromagnetischer Strahlung. Natürlich können Computer von den erzeugten EM-Feldern abgeschirmt werden, aber die Abschirmung macht die Schiffe viel größer, sperriger und insgesamt weniger stabil. Stattdessen werden Schiffe mit einem mechanischen Kabelsystem geflogen, das direkt vom Piloten mit einem Minimum an gehärteten elektrischen Komponenten gesteuert wird. Der Motor und seine Elektronik sind ausreichend abgeschirmt, um zu funktionieren, und der Pilot benötigt keine Abschirmung, abgesehen von der üblichen Sortierung "Luft drin lassen" und "Energiewaffen draußen lassen". Tatsächlich können die Schilde genau dieselben EM-Felder für ihren Betrieb verwenden. Es ist laut (frequenzmäßig), aber das ist gut für einen Schild; es stoppt die Fähigkeit für Feinde, einen Störsender oder schlimmer, einen harmonischen Resonator, zu verwenden, der den Schild bis zu dem Punkt verstärken würde, an dem der Insasse getötet wird.

Lichtgeschwindigkeit ist seltsam

Bei der Lichtgeschwindigkeit von Weltraumjägern passieren in der Physik alle möglichen seltsamen Dinge. Die Simulation der Effekte ist möglich, aber die schiere Menge an Details, die der Computer kennen muss, ist überwältigend. Ein Standardcomputer kann dies kaum in Echtzeit tun, und die sperrigen, supergehärteten Computer in einem Kampfschiff bleiben weit im Staub. Glücklicherweise sind Menschen wirklich gut darin, Informationen zu ignorieren, egal wie wichtig sie sind. Mit nur wenigen grundlegenden Filtern kann ein Mensch einen feindlichen Piloten so schnell durch den Weltraum verfolgen, als ob sie beide in Jets in der Erdatmosphäre wären.

Superleichte Geschwindigkeit ist wirklich seltsam

Natürlich mit Unterlichtgeschwindigkeit. Sobald die Handwavium-Partikel aktiviert sind und die Schiffe sich in das Mini-Wurmloch/die Warpgeschwindigkeit/den Hyperraum/ein Paralleluniversum (nennen wir es Superraum) bewegen, geht die Physik wirklich aus dem Fenster. Niemand weiß wirklich, wie Superspace tatsächlich aussieht; Vielmehr interagieren die ultrahochfrequenten Energiemuster direkt mit dem menschlichen Gehirn. Während das Gehirn versucht, die Informationen zu verstehen, übersetzt es die Muster in Bilder, Geräusche und sogar Geschmäcker. Der Pilot kann diese Empfindungen nutzen, um seinen Flug zu steuern und ungefähr dort zu landen, wo er hin möchte: „Fliege, bis du Orange siehst und Feigen riechst, biege nach links ab und fahre weiter, bis du heiße Blaubeeren schmeckst.“

Um jedes Sonnensystem herum gibt es bestimmte Energiemuster, mit denen Piloten vermeiden können, Planeten oder Sterne zu treffen. Jedes System hat jedoch seine eigenen Empfindungen, die es den Piloten ermöglichen, "nach Gefühl" zu navigieren.

Ein Computer kann natürlich nichts aus den bereitgestellten Informationen machen; Die vagen Energiestrahlen sind zu schnell verschwunden, um sie sinnvoll zu verarbeiten. Zugegeben, ein Computer kann von Punkt A nach Punkt B fliegen; es muss nur alle Berechnungen im Voraus durchführen und blind fliegen. Wenn ihm etwas im Weg steht, entsteht eine kleine, teure Supernova.

Ich habe nachgesehen und konnte keine sehen, also tut es mir leid, wenn ich gefragt und beantwortet habe, aber was ist der Grund dafür, dass Drohnenoperationen nicht in Frage kommen? Mit Drohne spreche ich in der aktuellen militärischen Amtszeit, wo es ein Flugzeug gibt, das von einem menschlichen Piloten bedient wird, der sich nicht im physischen Flugzeug befindet. Das einzige, was ich bei diesem System aus praktischer Sicht als Problem sehen könnte, ist, dass es zu einer gewissen Signalverzögerung kommen könnte (und die Abschirmung könnte Signale blockieren, denke ich).

Aber für Ihren pazifistischen Programmierer wäre dies das Beste aus beiden Welten. Sie bewahren den überlegenen Vorteil eines menschlichen Piloten, während Sie seine Präsenz auf dem Schlachtfeld begrenzen. Anstatt also einen Krieg zu führen, spielen Ihre Piloten ein Videospiel.

Nun, ein weiteres übersehenes Problem ist, dass ein Träger ein mächtiges Schiff ist ... aber es ist auch ein ziemlich defensives Leichtgewicht. Echte Träger werden von einer kleinen Flotte anderer Schiffe flankiert, die als Schutzschild gegen feindliche Aktionen dienen. Es gibt Raketenkreuzer (sie liefern einen Großteil der Luftabwehr), zerstören (Oberflächenpatrouillen- und Luftabwehraktionen) und U-Boote (die die Unterwasserwelt schützen), die den Träger schützen, der das gesamte Zurückschießen übernimmt (ganz zu schweigen von den Trägern, die operieren). Mehrzweckfahrzeug, das im Notfall von Luft-zu-Luft- zu Luft-zu-Boden-Kämpfen wechseln kann, um zusätzliche Bildschirme gegen feindliche Aktionen zu erhalten). Das Endergebnis ist, dass etwas schrecklich schief gelaufen ist, wenn ein feindliches Schiff nahe genug am Träger ist, dass ein unbeaufsichtigter Sichtkontakt hergestellt werden kann. Vielleicht ist ein weiteres Motiv, dass die KIs Probleme mit der Priorisierung hatten und zuerst das wertvollste Ziel anvisierten und immer zum Träger-Gung-Ho gingen und die anderen Schiffe ignorierten, die speziell dort waren, um sie aufzuhalten. Sicher, es ist kein Menschenleben, aber es ist immer noch eine Investition, die im Krieg nicht leicht zu ersetzen ist.

Wie beantwortet dies die Grundfrage? Wir alle wissen, dass Piloten an Bord Probleme verursachen. Die Frage ist, wie man eine Welt baut, in der es Sinn macht.
@Molot Der erste Teil über Drohnen ist, weil OP einen Charakter hat, der den Menschen aus der Maschine entfernen möchte ... daher muss ein Sprungbrett angesprochen werden, das das tut, was bereits verwendet wird (warum sind Drohnen nicht lebensfähig)? Der zweite Teil ist eine weitere Überlegung, die die Natur des Carrier Theory Combat berücksichtigt und eine einfache KI postuliert, die möglicherweise Probleme mit der korrekten Zielerfassung hat (ein weiterer Grund, nicht den KI-Weg zu gehen).
Tatsächlich ist die Möglichkeit von Drohnen ein zentraler Handlungspunkt meiner Geschichte. Die ursprüngliche Frage, die ich gepostet habe, legt nahe, dass dies unmöglich ist (ich habe ausdrücklich gesagt, dass ER-Strahlung die Fernbedienung verhindert). Der Programmierer hat jedoch einen Trick, um FTL-Kommunikation für Drohnen zu verwenden, was zuvor für unmöglich gehalten wurde, ohne leicht blockiert zu werden. Es stellt sich heraus, dass es unmöglich ist, dass es eine obskure Schwachstelle im Blackbox-Code gibt, den er bei der öffentlichen Veröffentlichung nicht offengelegt hat, in der Hoffnung, dass bis zu seiner Entdeckung Drohnen eingesetzt werden, um vorübergehend Leben zu retten. Hilft jedoch nicht dabei, warum KI nicht verwendet wird.

Nekroposting! (Und ja, ich habe alle anderen Antworten gelesen oder zumindest überflogen.) Ich werde einige Antworten zusammenfassen und dann mehr von meinem eigenen Input liefern.

Was wir bereits wissen

Verwendete Probleme aus anderen Antworten:

  • Das Steuern ist mit KI bereits schwierig ;
  • KI ist nicht kreativ, passt sich nicht an unerwartete Fehler an, ist mitfühlend genug;
  • KIs können gehackt werden; Der Kampf ist kein filmischer Luftkampf, sondern ein Zusammenprall von Hackern und/oder elektronischer Kriegsführung.

Wird nicht direkt verwendet, könnte aber die Dinge aufpeppen:

  • Menschen+ sind möglicherweise in der Lage, Dinge zu tun, die KIs nicht können, wie z. B. Precog oder Mind Radar.

"Kämpfe" nicht gegen schwache KI, nimm sie an, ...

Ein kompliziertes Raumschiff zu steuern, Ausfälle durch feindliches Feuer oder technische Fehlfunktionen zu umgehen, billig zu sein, ist alles, was Roboter können. "Kreativ" sein, weniger. Mit einigen Superkräften, noch weniger.

Wir brauchen eine schwache KI in unseren Kampfflugzeugen im Weltraum. Oder wir werden, wie jemand bemerkte, auf Luftkämpfe aus der Zeit des Zweiten Weltkriegs reduziert, vielleicht auf Lenkflugkörper aus der Vietnam-Ära, aber nicht viel mehr.

... aber vertraue ihm nicht zu sehr

Reden wir über elektronische Kriegsführung. Es gibt einige Ebenen des Hackens mit Kommunikation in einem Kampf.

  • Blockieren Sie den Kommunikationskanal;
  • "Hören Sie" auf die entschlüsselte Kommunikation und handeln Sie entsprechend (im Grunde das, was die Briten im 2. Weltkrieg getan haben);
  • „Fake“ verschlüsselte Kommunikation und führe den Feind in die Irre.

Wenn wir einen sicheren Kanal hätten, der nicht gehackt werden kann, könnten wir einen einzelnen bemannten "Kommandanten"-Kämpfer (wahrscheinlich alle anderen nach dem gleichen Standard bauen, um visuelle Erkennung und Zielpriorisierung zu vermeiden) und einen Schwarm von Roboter-"Schauspielern" verwenden.

Wenn wir nicht an sichere Kommunikation glauben, noch mehr, wenn der Feind unsere Roboter in ein freundliches Feuer zwingen kann, müssen wir alle Kämpfer bemannen.

Das Szenario

Sie können sich also Folgendes vorstellen:

Der Krieg sollte mit Killerrobotern kämpfen. Die Roboter steuerten tatsächlich bemannt aussehende Flugzeuge, weil sie eine Anleitung aus dem Inneren des Schlachtfelds benötigten. (Es ist die gleiche Idee wie der deutsche „Kommandantenpanzer“ aus dem 2. Weltkrieg, der genauso aussah wie ein normaler Panzer, einschließlich eines Kanonenmodells, nur umgekehrt.)

In der ersten Kriegsphase ging diese Idee spektakulär in die Hose: Die Stör- und Entschlüsselungs- und Befehlsfälschungsfähigkeiten des Gegners wurden unterschätzt. Glücklicherweise wurden alle Raumjäger so gebaut , dass sie bemannt werden konnten.

Da das Hacken innerhalb einer einzelnen Ebene viel schwieriger ist als das Hacken der Kommunikation zwischen den Ebenen, hat dies funktioniert. Wir würden also immer noch eine schwache KI für die Navigation, das eigentliche Fliegen, die Zielpriorisierung, Super-Radar-Messwerte usw. verwenden. Aber alle Jäger sind mit Menschen besetzt, da Menschen erkennen können, ob ein Feind am Komm mitmacht, und Roboter nicht.

Soweit die Verluste nicht exorbitant sind, funktioniert diese Strategie. Der Kampf mit Killerroboterflugzeugen kostet nur Geld, aber kein Leben auf unserer Seite. Man könnte also mit den Vietnam-Protesten rechnen, wenn es sich um eine Art "unerwünschten Krieg" handelt.

Fünf Sekunden echtes Leben

Einige Su-Jäger der vorherigen Generation (ich habe vergessen, welche) und (meines Wissens nach) alle Jäger der fünften Generation benötigen zum Fliegen einen Echtzeit-Computer. Grundsätzlich sind diese Flugzeuge aerodynamisch instabil, wenn sie still gehalten werden, können sie ihren Kurs nicht halten. Um nicht gleich abzustürzen, brauchen sie also einen speziellen Computer, der die Ruder immer wieder ein wenig nachstellt. Dieser hohe Preis wird für die höhere Agilität des Flugzeugs bezahlt, wenn es manövrieren muss .

Natürlich ist dieses System keine KI, aber es ist immer noch ein Computer. Ich könnte mir vorstellen, dass ein Raumkampfflugzeug viel mehr solcher Systeme haben würde. Vielleicht werden nicht alle wirklich, wirklich benötigt, aber sie a) folgen dem allgemeinen Trend (fragen Sie nicht, wie viele Computer in einem modernen Auto sind), b) verbessern bestimmte Aspekte der Leistung der Maschine und jedes Problem im Krieg könnte bedeuten den Unterschied zwischen Sieg und Niederlage.

Schlussfolgerungen

Was ich im Grunde sagen möchte: Eine schwache KI an Bord zu haben, wäre eine ziemliche Verbesserung einiger Aspekte des Kampfflugzeugs und als solche zu begrüßen. Einen Menschen an Bord zu haben, würde andere Aspekte eines Kampfflugzeugs verbessern und daher die gleiche Behandlung genießen .

Kultur

Ich glaube nicht, dass diese Antwort gegeben wurde, aber vielleicht haben Sie eine Kriegerkaste – Menschen, die die Freude am Kampf genießen, es ist ihre Daseinsberechtigung . Sie sind eine politisch mächtige Gruppe – so etwas wie eine Gewerkschaft – die nicht zulassen wird, dass KIs für ihre Kämpfe eingesetzt werden.

Alternativ könnten Sie sich in einer dystopischen Welt befinden, in der Menschenleben so billig sind, dass sie sich einfach nicht genug um die Piloten kümmern, um die KI zu bauen. Selbst wenn der Bau der KI nur einmalige Kosten verursacht, ist es immer noch sehr teuer warum sich die Mühe machen, wenn die Massenproduktion der Kampfschiffe relativ billig ist (was mit all der Sklavenarbeit zusammenhängt) und es gibt Millionen von Menschen, mit denen Sie sie steuern können.

Ein weiteres Thema, das hier nicht wirklich angesprochen wird, ist die Schadensbegrenzung – eine KI kann vielleicht einen fantastischen Job beim Fliegen machen, wenn alles reibungslos funktioniert, aber wenn die Hälfte der Reaktionssteuerungen ausgefallen ist, ist die Hauptdüsensteuerung in Umkehrung und so weiter Hauptmotor aufgrund eines Turbopumpenfehlers ansteigt, ganz zu schweigen vom Verlust von zwei Computern und einem elektrischen Bus, um Schäden zu bekämpfen, wird es viel schwieriger sein, "um die Ecke zu denken", um nach Hause zu humpeln oder sogar die Mission zu beenden als ein gut ausgebildeter menschlicher Pilot würde es tun.

Was lässt Sie glauben, dass KI das nicht kann? Menschen denken beim Fliegen nicht wirklich über den Tellerrand hinaus - das würde bedeuten, dass ihre Außerirdischen oder Zeitreisenden oder einfach ein unerwarteter äußerer Einfluss meine Probleme verursacht.
@ user2617804 -- Menschen sind viel besser darin, widersprüchliche oder unvollständige Informationen zu verstehen als Computer, wenn sie die entsprechende Chance bekommen.
Fuzzy-Expertensysteme handhaben es genauso gut wie Menschen. Alles andere als ausreichende Informationen - Rotation, Geschwindigkeit, Beschleunigungen, Positionen und das Raumschiff - ist zum Scheitern verurteilt. Viele menschliche Piloten haben Flugzeuge aufgrund von sensorischen oder instrumentellen widersprüchlichen Informationen abgestürzt, während die KI zuerst das Flugzeug stabilisieren würde, was das Risiko verringert.

Erstens ist eine KI auf empfindungsfähigem Niveau bei einem Jäger / Gundam einfach dumm, da es realistischerweise wahrscheinlich keine geben wird, da noch so viele Entscheidungen getroffen werden müssen, dass diese übertragen werden müssen ODER einen Piloten haben müssen. Die Übertragung wird einige Zeit in Anspruch nehmen und kann gehackt werden, also wollen Sie das so wenig wie möglich.

Dies führt zum zweiten Punkt: Wenn Sie eine empfindungsfähige und eine nicht empfindungsfähige KI haben (was Sie müssten), können Sie die empfindungsfähige KI genauso gut zu einem biologischen Organismus statt zu einer empfindungsfähigen KI machen, denn dann haben Sie Schutz von Hacking und zwei verschiedenen Verarbeitungssystemen, eines, das völlig weniger logisch ist, führt zu einer insgesamt besseren Gewinnchance, da es möglich ist, Dinge aus verschiedenen Perspektiven zu erfinden.

Jede KI, die Sie haben, adaptiv oder nicht, verlässt sich auf eine Reihe von Regeln. Wenn ich diese Regeln herausfinden kann, kann ich sie zu meinem Vorteil als empfindungsfähiger Mensch nutzen. Auf der anderen Seite kann menschliches Verhalten unvorhersehbar sein und als solches könnte sich eine KI einfach nicht anpassen können.

Auch wenn ein Schiff beschädigt ist und repariert werden muss, wird eine KI in vielen Fällen nicht in der Lage sein, sich selbst zu reparieren, selbst wenn es Naniten hat, die sicher verwendet werden können.

Grundsätzlich sind Sicherheit, Strategie und die Fähigkeit zur Reparatur mit einem menschlichen Piloten besser, egal wie schnell oder leistungsfähig die CPU und die KI sind.

Ihre Schlussfolgerung ist eine Strecke und aus Ihrer Prämisse nicht logisch. KI menschlicher Vergleich - nicht so sehr gültig. Menschen verlassen sich auf Regeln, die sie wahrscheinlich in ihrer Schulsimulation der Weltraumakademie lernen – und wie gut sie diese Regeln gelernt haben – hängen davon ab, ob sie bestehen oder nicht. Naniten und Reparaturproblem - absolut nicht kompatible Aussagen, aber lange zu erklären, warum, und bei Naniten brauchen sie wahrscheinlich keine Kämpfer. Guter Punkt ist eigentlich nur über biologische "KI", die nicht empfindungsfähig sein muss, versiert sein ist gut genug - Mausgehirnsystem. Aber dieses Hybridsystem ist etwas, worüber man nachdenken sollte.
Wenn ein Mensch eine Regel falsch macht, ist das immer noch von Vorteil, weil er dann auf eine Weise handelt, die von der KI nicht vorhergesagt wird. Die Naniten-KI würde so entwickelt, dass sie sich nicht ausbreitet und sie daran hindert, das Schiff in jeder Situation zu reparieren, auf die die Materialien nicht zugreifen können. Angenommen, ein Absturz auf einem unzivilisierten Planeten wird dieses Schiff nicht repariert, es sei denn, Sie haben einen Piloten, der sich bewegt und Dinge besorgt, um das Schiff zu reparieren. Mausgehirne sind für einige Teile gut genug, für andere nicht.
Ich vermute, Sie wissen nicht, wie unsere heutigen selbstlernenden Algorithmen funktionieren. Und das ist die Wurzel des Problems, wenn man sie mit Menschen vergleicht. Es ist meine Anmerkung zu deinem A und ich halte es lieber kurz. Ich würde empfehlen, diesen Ausbreitungsbegrenzungspunkt zu Ihrer Antwort hinzuzufügen - das ist Grund genug, graue Schmiere zu begrenzen. Ich habe es aus anderen Gründen als inkompatibel bezeichnet, dann Materialbeschaffung, mehr zu Informationszwecken. Aber grauer Schleim ist Overkill, in erster Linie keine Notwendigkeit für Piloten und Jäger.
Ich weiß nicht, wie das Lernen von KI vollständig funktioniert, aber ich verstehe es gut genug. Es wird einfach nie gut genug sein, um das menschliche Denken vollständig zu handhaben, und es hat auch die gleichen Einschränkungen wie die Naniten, da wir bestimmte Dinge einbauen würden, die es nicht kann, und diese können ausgenutzt werden. Ich sehe menschliche Piloten in der Zukunft eher als Sitz des Kampfflugzeugs, nicht als Bediener, als Entscheidungsträger oder als Aktionsstopper, aber ein Großteil der Aktivitäten würde von der KI übernommen.
KI, selbst aktuelle Soft-KI, kann unvorhersehbare 1000-mal besser abschneiden als Menschen. Menschen sind SCHLECHT daran, unberechenbar zu sein, Zufallszahlengeneratoren sind großartig darin. Wenn Ihr Schiff so beschädigt ist, dass eine ernsthafte Reparatur erforderlich ist, kann ein Pilot allein nicht viel tun (ein Kampfpilot kann seinen Jäger nicht reparieren) und außerdem ist er wahrscheinlich tot oder im Weltraum gestrandet, bis er gerettet werden kann Dinge im Weltraum nicht einfach reparieren.