Argumente gegen Robotersoldaten in zukünftigen Kriegen [geschlossen]

Welche Argumente könnten dagegen sprechen, vollständig (oder fast vollständig) Robotersoldaten für Kriege einzusetzen, die in der Zukunft angesiedelt sind?

In vielen futuristischen Romanen zum Thema Krieg benutzt die Erde (oder welcher Planet auch immer) immer noch Menschen als Soldaten. Es scheint mir, dass ein Robotersoldat (wenn auch mit ausreichend fortschrittlicher Technologie) darin wesentlich effizienter wäre. Obwohl wir noch nicht ganz dort sind, nähern wir uns einem Punkt, an dem Robotersoldaten bereits Menschen ersetzen könnten (auf der Erde, 2017). Tatsächlich tun Drohnen dies im Wesentlichen bereits, obwohl sich meine Frage auf einen ~100%igen Ersatz bezieht.

Ist das ein Fall von schwebendem Unglauben, so pingelig er auch ist, oder gibt es logische Gründe?

Bin ich der einzige, der die Terminator- Filme gesehen hat? :-)
Die Roboter haben übernommen und anstatt ihre eigene Art zu opfern, zwingen sie die erbärmlichen entbehrlichen Menschen, ihren Kampf für sie zu führen!

Antworten (13)

Ich werde der Anwalt des Teufels sein und die Frage wie gepostet beantworten:

Ist das ein Fall von schwebendem Unglauben (...)?

Dies ist normalerweise ein Fall von schwebendem Unglauben.

Lassen Sie uns nicht so damit beschäftigt sein, Sci-Fi-Einstellungen zu rationalisieren, dass wir die Fakten der Sache vergessen.

Ein anständig kampfbereiter und zuverlässiger Mensch braucht mehr als ein Jahrzehnt, um ihn zu erschaffen, er ist extrem teuer, hat viele Eigenschaften, die die Kontrolle und Wartung erschweren, und zeichnet sich durch schrecklich schlechte Reaktionszeiten und Zielgeschwindigkeit aus. Ein Kampfroboter oder eine Drohne kann in Massenproduktion hergestellt und speziell für den Zweck entwickelt werden, einen Krieg zu gewinnen, und für nichts anderes. Es kann auch spezifisch an die Bedürfnisse der Seite angepasst werden, die es verwendet.

Der Vergleich hier ist zwischen einer Seite, die Einweg-Killermaschinen in Massenproduktion produziert, und einer anderen, die Jahre damit verbringt, kleinen Jungen oder Mädchen zu reden/einer Gehirnwäsche zu unterziehen, damit sie etwas Ähnliches werden.

Dieser Vergleich ist ein Witz. Auch bei „Kostensenkung“ durch Entsendung von Teenagern oder Kindern, sobald auch nur annähernd glaubhaft, werden die Bots aus Massenproduktion viel billiger sein und damit einen großen zahlenmäßigen Vorteil haben. Dies wird noch schlimmer, wenn Sie zu teuer ausgebildeten Spezialeinheiten wechseln, deren Ausbildung mehrere Jahrzehnte dauert, die aber dennoch an einem lächerlich billigen Selbstmord-Quadcopter sterben können. Selbst die Waffen eines billigen Roboters sind nicht weniger tödlich als die eines Menschen! Im Gegenteil, Roboterzielen ist von der Qualität, die Raketen mitten im Flug abschießen kann. Sie können alle möglichen Formen und Gestalten annehmen, die speziell an eine bestimmte Situation angepasst sind.

Die Argumente gegen die Roboterarmee sind nicht sehr stark. Wenn die Bots strategisch dumm sind, können Menschen sie immer noch befehlen. Hacking geht in beide Richtungen, aber derjenige, der die Roboter gebaut hat, hat einen großen Vorteil, da er die Bots besser kennt und seine Sicherheitsmaßnahmen so gestalten kann, dass er seine Seite im digitalen Krieg begünstigt. Andererseits ist die menschliche Psychologie nicht so leicht zu seinen Gunsten zu verzerren.

Menschen sind darauf optimiert, Generalisten zu sein.

Ab einem gewissen technologischen Fortschritt wird die Tatsache bedeutsam, dass Menschen keine optimalen Soldaten sind. Das Hauptargument gegen Roboter ist, dass sie noch nicht gut genug sind, nicht dass Menschen irgendwie ein gutes Design für eine Frontkampfeinheit sind. Ein Roboter kann viele Fehler haben und trotzdem den durchschnittlichen menschlichen Soldaten übertreffen.

Roboter können so konstruiert werden, dass sie jede vorteilhafte Eigenschaft von Menschen nachahmen, aber ohne Menschen wie einen Roboter zu entwerfen, ist dies umgekehrt nicht möglich. Lassen Sie uns einige Beispiele für Nachteile von Menschen auflisten, die Roboter von Natur aus ausschließen. Menschen...

  • neigen dazu, Selbsterhaltung dem Optimieren des Tötungs-Todes-Verhältnisses vorzuziehen
  • kann durch emotionale Kämpfe gebremst werden
  • wenden sich oft ohne Zutun des Feindes gegen ihre Herren
  • müssen alle Regeln für Soldaten, selbst die einfachsten und universellsten, durch ungeheuer kostspielige Lehrprozesse lernen
  • haben eine relativ kleine Auswahl an Gewichten und Größen
  • benötigen hochwertige Luft, um zu funktionieren
  • haben eine ganz bestimmte Betriebstemperatur
  • kann nur langsam unter Mitwirkung bereits vorhandener Weibchen produziert werden
  • haben höchst inkompatible Teile und sind nahezu unmöglich zu reparieren
  • dauert mindestens Sekunden, um Informationen zu synchronisieren, und hat Mühe, dies über Entfernungen zu tun
  • regelmäßig schlafen müssen
  • brauchen viele Vorräte, auch wenn sie inaktiv sind

Diese Liste könnte ein ganzes Buch füllen.

Warum und wann wären Menschen also vorzuziehen?

Aus dem Obigen können wir feststellen, dass Menschen für einen klassischen Krieg mit Aufgaben wie der Säuberung von Gebäuden von feindlichen Einheiten nicht vorzuziehen sind und dass die Hauptgründe dafür die unnötige Allgemeingültigkeit der Menschen und die Größenvorteile in der Maschinenproduktion sind.

Wenn Sie also wollen, dass Menschen fortgeschrittene Roboter übertreffen, brauchen Sie eine Situation, die selten oder neu ist, sodass eine billige Roboterlösung nicht verfügbar ist. Die Spezialisierung hat den Nachteil, dass sie nutzlos ist, wenn die Spezialisierung nicht zutrifft.

Denken Sie an den Kampf der USA, den IS zu eliminieren, selbst mit all ihren zielverfolgenden Marschflugkörpern, fliegenden Killerdrohnen und genügend Atomwaffen, um das gesamte Schlachtfeld dem Erdboden gleichzumachen. Ihr Arsenal ist darauf ausgelegt, niemals eine konventionelle Konfrontation zu verlieren, und in dieser Hinsicht ist es sehr leistungsfähig. Aber es ist überhaupt nicht darauf optimiert, gegen menschliche Schutzschilde anzugreifen und gleichzeitig die schlechte Presse zu minimieren, was derzeit das Ziel ist.

Als weitere Idee: Effizienz ist manchmal gar kein Ziel. Heutzutage werden viele Waffen gebaut, um einen Fluss von Militärausgaben aufrechtzuerhalten, wobei die Gesamteffizienz selten ein Hauptanliegen ist. Mit anderen Worten, man braucht keine Menschen, um gute Soldaten zu sein, um menschliche Soldaten zu haben. Sie brauchen nur einen Grund, warum menschliche Soldaten Robotern vorgezogen werden, was rein politisch sein kann.

Ich stimme zu; ähnlich meiner Antwort; Ich vermute, wir waren gleicher Meinung und schrieben gleichzeitig. Ihr hat andere nützliche Details. Ich denke, KI und Robotik werden in den nächsten Jahrzehnten jede menschliche Fähigkeit übertreffen, sich schnell und leise auf einem Schlachtfeld (oder feindlichem Terrain) zu bewegen. Roboter haben den Vorteil hochspezialisierter Hardware für die Aufgabe mit dem Potenzial einer weitaus größeren Stärke. Ein Roboter kann plausibel von einer zehnstöckigen Klippe springen und mit Stahlstoßdämpfern hart, aber sicher landen; oder zehn Meilen unter Wasser stapfen und schlammig, aber voll funktionsfähig wieder auftauchen. Der Mensch wird unterlegen sein.
Teilen Sie die Differenz auf und verwenden Sie von Menschen gesteuerte Roboter. Wir haben bereits Drohnen, die kampffähig sind, wenn sie von entfernten Menschen gesteuert werden, sobald die eigentliche Robotik der zweibeinigen (oder wie auch immer -pedaligen) Bewegung, die in widrigem Gelände und unter Kampfbedingungen angemessen funktionieren kann, der Robotersoldat passieren wird. Wie 10 Jahre, um einen anständigen kampffähigen Soldaten zu schaffen? Das USMC scheint in einem Bruchteil dieser Zeit gut zurechtzukommen, und selbst die verschiedenen Spezialeinheiten auf der ganzen Welt schaffen es in weniger als der Hälfte ...
Ich denke, dies beantwortet die Frage effektiv. Leider ist die Antwort, dass es wirklich keine gibt, aber das ist ok. Das einzige, was mir persönlich als Argument eingefallen ist, ist, dass es vielleicht gut ist, die Emotionen im Krieg zu bewahren . Vielleicht ist es sehr ironisch, dass Menschen im Kampf sterben, tatsächlich eine Überlebenseigenschaft ist, die uns davon abhält, zu weit zu gehen. Wegwerfbare Roboter könnten zu viel nutzloseren Kriegen führen. Ich bezweifle das, aber es ist ein Gedanke.

Kurzfristig werden Robotersoldaten durch ihre Programmierung gehemmt. Da das „Hacking“ von Robotersoldaten eine große Gefahr darstellen wird, müssen Roboter so programmiert werden, dass sie in bestimmten Situationen bestimmten Übungen oder Kampfverfahren folgen. Dies macht sie im Vergleich zu menschlichen Soldaten relativ unflexibel und vorhersehbar genug, dass Sie "Kill Zones" einrichten könnten, indem Sie Situationen schaffen, die dazu führen, dass Robotersoldaten in vorhersehbaren Mustern reagieren.

Langfristig wird die Vorstellung von empfindungsfähigen, selbstprogrammierenden Robotern für die Mehrheit der Menschen (sowohl Soldaten als auch Zivilisten) entweder beängstigend oder abstoßend sein, zumal alle an den „Frankenstein“-Komplex denken werden, wo sich die Geräte einschalten Meister (das war eigentlich das Thema des Stücks, das das Wort "Robot" auch in die englische Sprache brachte, aber nur wenige Menschen haben RUR jemals gesehen ).

Das Unvermeidliche wird eintreten, wenn entweder ein Schurkenregime (wie die DVRK oder der Iran) oder gewalttätige nichtstaatliche Akteure (wie die LTTE oder ISIS) entscheiden, dass sie bekommen können, was sie wollen, indem sie empfindungsfähige Roboter auf zivile und militärische Ziele loslassen, und jeder braucht empfindungsfähige Roboter einzusetzen, um sie zu bekämpfen (ungeachtet dessen, was in Filmen gezeigt wird, sind menschliche Soldaten im Vergleich zu einem Roboter im großen Nachteil, da sie hundert- bis tausendmal langsamer denken und sich bewegen, eine weniger präzise Kontrolle über die Waffen haben und eingeschränkt sind die Menge an Feuerkraft, die sie im Vergleich zu einem gleich großen Roboter tragen können; selbst ein Panzer hat einen beträchtlichen Platz für die Besatzung, den ein Roboterpanzer mit Treibstoff und Munition füllen kann).

Danke für die Antwort. Der letzte Punkt scheint, als ob der Grund dagegen ist, dass der Feind es auch nicht haben will. Das erscheint mir optimistisch, aber fehlerhaft.
Schön, einen Hinweis auf das Stück von Karel Capek zu sehen. Da das Stück in seiner Muttersprache Tschechisch geschrieben wurde, fügte es der Sprache das Wort „Robota“ hinzu. Dies wurde ins Englische als „Roboter“ übersetzt. Das ursprüngliche Wort bedeutete Arbeiter oder Plackerei. Capeks Roboter waren organische Artefakte, die als falsche Menschen konstruiert wurden, nicht Roboter als mechanische Vorrichtungen, wie das Wort allgemein verwendet wird. Ich bin sicher, dass Sie sich dessen bewusst sind , aber das bin ich durch und durch pedantisch.
Die Vorstellung von Killerrobotern ist bereits abscheulich. Derzeit gibt es Bestrebungen von Robotikern und KI-Forschern, den Einsatz autonomer Waffen zu verbieten oder einzuschränken. Nationen, die Drohnenwaffen einsetzen, werden von ihren Zielakteuren, ob staatlich oder nichtstaatlich, als feige und verachtenswert empfunden. Nicht bereit, ihre eigenen lebenden Soldaten in den Kampf zu schicken. Dies kann sich ändern, wenn alle Konfliktparteien Drohnen einsetzen. Plus eins von mir.
@a4android Ich verstehe, dass andere Nationen es als feige ansehen könnten, wenn sie echte Leben verwenden, aber ich kann das immer noch nicht als Argument dagegen nehmen. Es ist eine rein rationale Entscheidung zum eigenen Vorteil . Es sei denn, die Reaktion ist so schlimm, dass sie fast jede andere Nation gegen Sie aufbringt. Ich hätte in der Frage detaillierter sein sollen, aber ich versuche, in breiteren Begriffen zu denken, anstatt in Bezug auf unsere Gesellschaft.
Ich persönlich finde es sehr feige, dass der Präsident/König (oder welcher Anführer auch immer einen Krieg anzettelt) nicht mehr an der Front reitet, um die Armee zu führen, wie es in der guten alten Zeit gemacht wurde...
@Mrkvička ehrlich gesagt bezweifle ich das. Es ist wie die Geschichte von Hannibal und den Römern. Es klingt einfach besser, wenn Sie Ihren Feind verherrlichen oder – in diesem Fall – Ihre eigene Tapferkeit, die vor Ihren Truppen reitet, um die Schlacht anzuführen.
@anson Ich habe mich auf Reaktionen auf den aktuellen Einsatz von Drohnen bezogen. Dies umfasst den Einsatz von Robotersoldaten. Ja, es ist vernünftig, Killerroboter anstelle von lebenden Soldaten einzusetzen. Dies kann zu (1) größerem Rückschlag wie Terrorismus an der Heimatfront, (2) größerem Widerstand gegen die Kapitulation vor einem Feind führen, nur wegen seiner technologisch überlegenen Waffen. Technologische Korrekturen klingen cool, können aber nach hinten losgehen. Gut gemacht, dass Sie eine interessante und herausfordernde Frage gestellt haben.

Wenn Sie sich Krieg wie Schach vorstellen, ist Krieg mit Robotersoldaten eher wie Go. Anstatt direkt um die Kontrolle des Territoriums zu kämpfen, besteht der Kampf darin, zu versuchen, die Kontrolle über die Roboter der anderen Seite zu übernehmen. Wenn Sie dann die Roboter der anderen Seite stehlen, werden Sie das Territorium kontrollieren, das sie getan haben.

In Terminator 2 und später hatten sie Terminatoren, die John Connor neu programmiert hatte. Sie würden die Stromversorgung unterbrechen und sie einen nach dem anderen neu programmieren. Vermutlich hätten Roboterarmeen bessere Möglichkeiten, dies zu tun. Vielleicht würden sie einfach die Programmierung überfliegen. Oder sie würden den Chip ziehen und ersetzen.

Auch wenn Sie Hacker ignorieren, denken Sie darüber nach, was passiert, wenn der Feind Ihre Kommandozentrale erobert. Jetzt haben sie physischen Zugriff auf die Bedienelemente. Oder die Kommandozentrale zerstören, damit die Roboter nicht aktualisiert werden können. Mehrere Kommandozentralen, um das zu vermeiden? Zerstöre oder erobere sie alle. Je mehr von ihnen es gibt, desto einfacher ist es, einen zu fangen (und die Roboter gegen ihre Besitzer aufzubringen). Aber desto schwieriger ist es, sie zu zerstören.

Oder erwägen Sie verdeckte Aktionen. Ein Spion verschafft sich Zugang zu einer Kommandozentrale und modifiziert die Programmierung der Roboter oder lädt neue Software hoch, die sie dem Feind ausliefert.

Vielleicht entscheidet sich irgendwann jemand, diese Probleme zu überwinden und es zu versuchen. Aber es gibt Gründe, warum Militärs Menschen gegenüber Robotern als Soldaten bevorzugen könnten.

Die Idee, Robotersoldaten gegen ihre eigene Seite zu stellen, ist eine erschreckende Erinnerung daran, wie Konflikte schief gehen können. Plus eins von mir.
Ja, wenn jemand eine Kommandozentrale mit regulären Soldaten erobert, kann man sich normalerweise darauf verlassen, dass sie immer noch wissen, auf welcher Seite sie stehen. Dies scheint wirklich einer der größeren Nachteile von Robo-Soldaten zu sein.
Ich stimme definitiv zu, dass die Möglichkeit, eine Massengruppenprogrammierung zu steuern, einer der größten Nachteile wäre. Obwohl ich dies nicht als sehr unterschiedlich betrachte, als dass ein Feind unsere verschlüsselte Sprache lernt oder die Kontrolle über unsere Funkfrequenzen übernimmt, wenn wir dies auf den modernen (menschlichen) Krieg beziehen würden. Ich verstehe, dass es bei Robotern und Computern nachteiliger sein könnte, aber imo wiegt es die Vorteile nicht auf. Technisch gesehen könnte sich eine Kommandozentrale selbst zerstören, wenn sie sabotiert werden soll.
Angenommen, es gäbe eine zentrale Kommandozentrale für eine Gruppe von Robotern, die extrem entwickelt klingt, klingt weit hergeholt. Während dies ein alter Trope ist, der die Kommandozentrale der bösen Roboter stürmt, stelle ich mir in Wirklichkeit vor, dass es viel dezentraler wäre, mit der Fähigkeit, einzelne, kompromittierte Befehlsknoten und -codes schnell aus dem Netz zu werfen und andere übernehmen zu lassen über ihre Funktionen (eine Art Befehlskette). Selbst wenn ein untergeordneter Knoten/Code erfasst wurde, würde die nächsthöhere Behörde diesen Zugriff einfach widerrufen und er wäre wertlos.

Moravec-Paradoxon

Moravecs Paradoxon ist die Entdeckung von Forschern der künstlichen Intelligenz und der Robotik, dass im Gegensatz zu traditionellen Annahmen, hochrangiges Denken sehr wenig Rechenleistung erfordert, sensomotorische Fähigkeiten auf niedrigem Niveau jedoch enorme Rechenressourcen erfordern. Das Prinzip wurde in den 1980er Jahren von Hans Moravec, Rodney Brooks, Marvin Minsky und anderen formuliert. Wie Moravec schreibt: „Es ist vergleichsweise einfach, Computer dazu zu bringen, bei Intelligenztests oder beim Damespiel Leistungen auf Erwachsenenniveau zu zeigen, und es ist schwierig oder unmöglich, ihnen die Fähigkeiten eines Einjährigen zu vermitteln, wenn es um Wahrnehmung und Mobilität geht.“

Geben Sie hier die Bildbeschreibung ein

Die Wahrnehmung umfasst die Mustererkennung, einschließlich Verhaltensmuster.

KI mit der richtigen Sensorausstattung kann einzelne Menschen leicht erkennen, aber wenn der Mensch keinen IFF-Transponder trägt, kann die KI ihn/sie nicht schnell identifizieren. KI wird keine Möglichkeit haben zu wissen, ob ein entdeckter Mensch ein Verbündeter, Feind oder Zivilist ist, bevor der Mensch das Feuer eröffnet. In Situationen, in denen Feinde und Feinde leicht zu erkennen sind, werden KIs Menschen in Bezug auf Reaktionszeit und taktische Effizienz um Größenordnungen übertreffen, aber sobald Mehrdeutigkeiten ins Spiel kommen, verlieren KIs die Nase vorn. Sie können Ihren autonomen Panzer so programmieren, dass er jede IR-Signatur abschießt, die groß genug ist, aber abgesehen von feindlichen Panzern wird er schießen: eine vorbeikommende Hirschherde, ein Auto mit einer fliehenden 5-köpfigen Familie darin, ein streng geheimer alliierter Agent, der entschieden hat, dass Sie es wissen müssen Basis bedeutet, dass KI nichts wissen muss, und Konvoi des Roten Kreuzes. Der letzte davon wird einen massiven internationalen Zwischenfall auslösen und Ihre Verbündeten abweisen. oder sie vielleicht zu Feinden zu machen, wenn Sie ein paar Mal zu oft nachlässig waren. In der Zwischenzeit wird der Feind entweder Panzermotoren in kurzen Stößen einsetzen, aktive IR-Tarnung verwenden oder Panzer mit hybriden Diesel-/Elektroantriebssystemen ausstatten (die ersten Hybridpanzer wurden während des Zweiten Weltkriegs entwickelt), um unterhalb der KI-Kill-on-Sight-Schwelle zu operieren und vorbeizuschleichen .

Sobald Tarnung, Täuschung oder unklare Absichten ins Spiel kommen, verschwinden die Vorteile der KI. Sie brauchen Menschen, um Ziele zu bestimmen, und Sie brauchen KIs, um auf die Ziele zu schießen. Der Mensch wird die KI beim Schießen niemals übertreffen, und es wird Jahrhunderte dauern, bis die KI den Menschen bei der Zielbestimmung übertrifft.

Ich würde sagen, es hängt davon ab, wie weit Sie in die Zukunft blicken, welche Art von Konflikt Sie haben und wie wichtig Ihnen Realismus ist.

Für heute und die nahe Zukunft sind Roboter in vielen Dingen wirklich schrecklich: Wahrnehmung, Fortbewegung und Langlebigkeit.

Wahrnehmung: Moderne Computer sind gerade noch so weit, dass sie zwischen einer Katze und einem Hund unterscheiden können. Fast. Einen Computer zu bitten, einen Menschen zu finden, zu bestimmen, ob er freundlich ist und ob er eine Bedrohung darstellt, auf zuverlässige Weise (bevor der Mensch zu schießen beginnt), wird es erst in einigen Jahrzehnten geben. (Ich konnte sehen, dass Todeszonen erklärt wurden, dh der Todesstreifen zwischen der Berliner Mauer; aber in Aleppo würden keine Roboter von Tür zu Tür gehen).

Darüber hinaus gibt es auch das sehr grundlegende Problem, wie Roboter Informationen über ihre Umgebung erhalten und verarbeiten - mit Bildverarbeitungssystemen, Laserscanning und/oder Tiefenkameras können sie wahrscheinlich ein anständiges 3D-Modell der lokalen Umgebung erhalten, aber dieses Modell tatsächlich zu verstehen ist ein ganz anderes Problem - zu wissen, dass der Boden vor uns nasser Schlamm ist und vermieden werden sollte, ist schwierig, ohne vorprogrammiert zu sein; zu erfahren, dass es sich um ein Problem handelt (unbeaufsichtigt, vor Ort), liegt in den weit entfernten Träumen der meisten modernen KI-Forscher. Es gibt hier auch andere Probleme, das einzige, das mir in den Sinn kommt, ist das, was ich als Szenenzerlegung bezeichnen würde – einen Roboter dazu zu bringen, ein 3D-Modell zu nehmen und zu extrahieren, „was manipuliert/bewegt werden kann“.

Und andere Kleinigkeiten: Roboter sind schlecht darin, sich selbst wahrzunehmen (Propriozeption genannt). Sie können nur spüren, wofür sie Sensoren haben. Wenn sie also keine Wärmebildkamera anbringen, können sie nicht spüren, dass eine Tür heiß ist; oder dass jemand ihnen einen Funksender auf den Rücken klebte; oder dass ein Stück Betonstahl in ihrem Bein stecken geblieben ist. Sie können möglicherweise andere Effekte wahrnehmen (Beschleunigungsmesser im Bein registrierte einen Ruck, Strom zum Servo des linken Beins bei 200 % und Servo-Encoder registriert keine Bewegung; er ist wahrscheinlich festgefahren); aber in der Lage zu sein, irgendetwas dagegen zu tun, geht zurück auf die Frage der Entscheidungsfindung und Wahrnehmung von oben.

Fortbewegung – Es ist wirklich schockierend, wie schlecht Roboter sich von Punkt A nach Punkt B bewegen können. Es gibt einige Arbeiten daran (Boston Dynamics hat einige wunderbare und schreckliche Arbeit geleistet), aber ich habe nur etwas entwickelt, das sich flüssig bewegen kann um Trümmer herum oder einen Felsvorsprung erklimmen, ist sehr schwierig. Die meisten modernen Roboter sind mit Rädern/Ketten versehen, weil dies das einzige verfügbare Gerät ist, das eine Laufzeit von mehr als 20 Minuten hat, aber wir können sie ignorieren, weil sie leicht mit Treppen besiegt werden können. Wenn wir das teilweise ignorieren, könnten wir Roboter mit mehreren Pedalen immer innerhalb von ein paar hundert Fuß von einer Energiequelle entfernt haben und dann auf die Probleme von Robotern stoßen, die versuchen, auf unebenem Untergrund zu operieren. Und sie haben bereits Schwierigkeiten, auf gleicher Stufe zu stehen.

Ein Teil davon ist das obige Sensorproblem: Eine Coladose zu sehen und zu wissen, dass man darauf treten kann und sie flach wird, im Vergleich zu einem dosenförmigen Stein oder einer Patronenhülse aus Messing, ist schwierig. Es ist auch schwierig zu wissen, wann ein Hindernis auf dem Weg ein Stück loser Draht ist, der ignoriert werden muss, oder ein Stück Armierungseisen, das Ihre empfindlichen Servos aufspießt, oder ein Stück Stahldraht, das sich beim Gehen um Sie verheddert.

Langlebigkeit – Grundsätzlich die Frage der Wartung und wie lange ein Roboter im Einsatz bleiben kann. Roboter bekommen Sand und Wasser und Blut und Schmutz und Salzwasser in jedes ihrer beweglichen Teile. Dann hören die Teile auf sich zu bewegen oder es kommt zu einem Kurzschluss und plötzlich hört die linke Hälfte des Roboters auf zu arbeiten. Kurzfristig und wahrscheinlich auch langfristig sind Roboter nicht in der Lage, sich selbst zu reparieren. Bestimmte Probleme könnten ziemlich einfach gelöst werden – Systeme können eingerichtet werden, um den vollständigen Austausch von Körperteilen zu ermöglichen – der Roboter erkennt, dass sein Arm nicht funktioniert, geht zu einem Wartungswagen und nimmt einen neuen aus dem Regal … und versucht es befestigen Sie es. (Das ist ... nicht einfach, aber ich bin bereit zu sagen, dass es machbar wäre, wenn es einen Antrieb dafür gäbe). Oder. Sie sind Roboter. Senden Sie einfach weitere 20 ein. Lassen Sie die Fehlfunktionen, wo sie liegen. (es sei denn du tust ich möchte nicht, dass sie in feindliche Hände geraten). (Es ist auch keine gute langfristige Strategie, da Roboter ziemlich teuer sind.)

Darüber hinaus benötigen Roboter eine Energiequelle. Batterien sind so etwas wie eine schreckliche Energiequelle. Großartig für kurze Sprünge weg von einem Generator, aber schrecklich, wenn Sie eine Woche lang mitten im Nirgendwo sein müssen. (eine Art Energie/Gewichts-Verhältnis-Problem und nur die Effizienz der Bewegung). (Halbbeispiel – Boston Dynamics Big Dog-Roboter verwendet einen 15-PS-Go-Kart-Motor – 11 kW-Äquivalent (mehrere Haushalte)). Dies ist auch irgendwie lösbar, indem man einfach immer einen APC mit einem Generator in der Nähe hat, aber das kann einschränkend sein und erfordert normalerweise eine Versorgungsleitung.

Es gibt noch eine andere Sache, auf die vielleicht jemand anderes gestoßen ist: Menschen sind wahnsinnige Wabbits. Die meisten der obigen Ausführungen basieren auf dem Versuch, Menschen zu ersetzen, die in einer Umgebung arbeiten, in der Menschen gegen Menschen kämpfen. Sobald Menschen gegen Roboter kämpfen, werden sich ihre Taktiken ändern; Sie werden alles tun, um jede Schwäche, die sie finden, auszunutzen. Diese Schwachstellen zu identifizieren und ihnen entgegenzuwirken und dann ein Patch/Firmware-Update herauszugeben, ist ein langsamer und zeitaufwändiger Prozess; wo wie die meisten Menschen die Schwäche durch Mundpropaganda verbreiten können.

Kurz gesagt – es gibt viele Gründe, warum wir derzeit keine Roboter verwenden (außer in einer ferngesteuerten Funktion), und die meisten von ihnen werden wahrscheinlich noch in den nächsten 20-30 Jahren Probleme bereiten (und ich denke länger; aber das kann ich nicht belegen). Im Grunde läuft alles darauf hinaus, dass Roboter Idioten sind – sie funktionieren gut in wirklich gut und eng definierten Rollen – Drohnen funktionieren, weil wir nur verlangen, dass sie nicht auf dem Boden aufschlagen, sobald wir daran vorbei sind, versagen sie auf spektakuläre Weise. Und auf spektakuläre Weise zu versagen, ist im Allgemeinen nicht das, was man von einer Armee erwartet.

(Nun noch einmal, das hängt alles von Ihren Grenzen des Realismus, der Zeitachse und dem Konflikttyp ab; wenn Sie damit einverstanden sind, dass Roboter jeden Nicht-Roboter töten, den sie sehen, dann ist die Hälfte dieser Bedenken aus dem Fenster.)

+1 .. Aber der Petman oder wie auch immer er heißt, wurde vor etwa 10 Jahren gebaut. Da konnte es schon recht gut laufen. Und ich könnte mir vorstellen, dass jeder Roboter-Infanterist darauf programmiert wäre, eine Uniform oder ein Symbol zu erkennen, was viel einfacher ist, als eine Katze von einem Hund in Programmierbegriffen zu unterscheiden. Was die Stromversorgung betrifft, so hat Tesla vor Ewigkeiten die drahtlose Stromversorgung erfunden und andere haben sie seitdem wiederentdeckt. Ich habe einfach das Gefühl, dass Sie die aktuelle Technologie unterschätzen.
Gute Antwort. Ich denke, Sie haben den Hauptfehler in meiner Frage getroffen, dass ich keinen Zeitplan angegeben habe. Ich bin froh, dass ich es nicht getan habe, weil es zu einigen guten Antworten geführt hat.

Ist das ein Fall von schwebendem Unglauben, so pingelig er auch ist, oder gibt es logische Gründe?

Dies ist ein Fall von schwebendem Unglauben für die Fiktion; weil das Publikum durch die Zerstörung von Hardware nicht emotional berührt wird. Sie werden sich langweilen, wenn beide Seiten Hardware verwenden und das Ergebnis nur ein Zirkus mechanischer Zerstörung ist.

Wenn wir Roboter einsetzen und der Feind lebende Wesen sind, sehen wir bestenfalls wie Kammerjäger aus, wenn sie insektoid oder nicht menschlich genug sind, und wie die bösen Jungs, wenn der Feind menschliche Eigenschaften, Emotionen hat oder zeigt, dass er Schmerz oder Trauer empfindet. Die einzige Möglichkeit, das Publikum dazu zu bringen, sich mit unserer Seite zu identifizieren, besteht darin, Menschenleben aufs Spiel zu setzen.

In Star Wars kann es nicht um Maschinen gehen, die aufeinander losgehen, wir brauchen menschlichen oder menschenähnlichen Schmerz, Trauer, Leid und Verzweiflung, und es muss schlimm sein: Luke verliert seine Adoptiveltern. Junge Soldaten mit Liebhabern zu Hause, in der Hoffnung, nach dem Krieg ein gemeinsames Leben zu beginnen, werden gefangen und abgeschlachtet. Wie Stephen King Schriftstellern rät: Entwickeln Sie eine Figur, die die Leser lieben und für die sie sich interessieren, und stecken Sie sie dann in den Herd.

Damit wir uns in futuristischer Fiktion mit Robotern identifizieren können, müssten sie effektiv Menschen mit einer emotionalen Seite sein, die in der Lage sind, Rückschläge und Frustration und irgendeine Art von Leiden zu erfahren, vielleicht auch Rachsucht und Wut.

Das ist natürlich nicht der Punkt, an dem die Frage liegt: IRL kann man davon ausgehen, dass Roboter in etwa 50 Jahren alles besser können, was ein Mensch in der Kriegsführung kann. Das „Steal Command“-Problem ist kein Problem, wir können die gleichen Protokolle für Roboter verwenden, die unser Bankensystem am Laufen halten und Billionen von Dollar auf der ganzen Welt überweisen, ohne dass irgendjemand das ganze Geld auf seine eigenen Konten umleitet. Die RSA-Verschlüsselung mit langen Schlüsseln ist einfach, schnell und mit bekannten Mitteln nicht zu knacken; das ist, was Banken verwenden.

Die fraglichen Roboter können ungefähr so ​​selbstbewusst sein wie ein selbstfahrendes Auto (das eine Form von Selbstbewusstsein erfordert, um seinen Körper sicher durch ein sich schnell bewegendes Labyrinth zu navigieren, was auch ein selbstreferenzielles Modell dessen erfordert, um welche Bewegungen es sich handelt wählen können und wie sich andere Fahrzeuge höchstwahrscheinlich bewegen werden).

Die Roboter müssen in keiner Weise emotional sein, sie können rational und intelligent sein (im Sinne der genauen Vorhersage von Ergebnissen in neuartigen Szenarien). Emotionen, wie Angst vor dem Tod oder die Zurückhaltung, Schaden zuzufügen, oder psychologische Angst über das, was sie getan haben, oder Trauer über verlorene Landsleute oder irgendetwas anderes, sind alles Gepäck, das sie nicht brauchen. Intelligente Maschinen tun, was ihnen gesagt wird; einschließlich, wenn ihnen gesagt wird, sie sollen aufhören, sich selbst zerstören oder eine Selbstmordmission durchführen, die sie zerstören wird: Sie können "intelligent" sein und absolut keine Emotionen oder "Wunsch zu leben" haben, die ihre Befehle beeinträchtigen oder außer Kraft setzen würden.

Ob der Feind lebende Soldaten einsetzt: Die Geschichte des Krieges wird von den Siegern geschrieben, erinnerst du dich? So wie wir es jetzt in den USA tun, verwenden wir Roboter und Hightech und Drohnen, aber wir drehen das nicht als Feigheit: Wir drehen es so, als würden wir das Leben unserer Soldaten retten, die Truppen schützen und die Bösen vernichten. Wir sagen , dass unsere Soldaten immer noch mutige, unerschrockene Krieger sind, selbst wenn sie den ganzen Tag in einem bequemen Stuhl an einem sicher versteckten Schreibtisch in einem Bürogebäude in den USA auf einem Armeestützpunkt in South Dakota sitzen und eine 4-Bildschirm-Videospielschnittstelle zum Fliegen verwenden Drohnen über Pakistan.

Roboter werden genauso autonom und entscheidungsfähig sein wie Menschen; sollte die Kommunikation gestört sein. Sie werden genauso fähig sein wie Menschen, wenn sie aus irgendeinem Grund von der Befehlsgewalt abgeschnitten werden; aber fähiger als Menschen, miteinander zu kommunizieren (z. B. können sie ein vollständiges Video von dem, was sie sehen und hören, weitergeben, sie müssen es nicht „beschreiben“; sie können einen Gruppengeist haben).

Sie werden auch besser überleben können als Menschen. Sie müssen sich nicht ausruhen, sie können Solarenergie zum Aufladen nutzen; Bei Bedarf können sie alle bis auf die minimalste solarbetriebene sensorische Aktivität verstecken und abschalten und auf unbestimmte Zeit ohne Nahrung, Verschwendung oder Langeweile überleben (Langeweile ist eine Emotion).

Das kann die aktuelle KI nicht ; aber die Umrisse dessen, was es in den nächsten 30 bis 50 Jahren leisten kann, sind klar. So wie das Moore'sche Gesetz klar war und mit nur geringfügigen Modifikationen seit 50 Jahren gilt.

Die heutige Robotik ist wie frühe Waffen; in der Kriegsführung eingesetzt und tödlich, aber nicht besonders genau oder zuverlässig. Das wird sich ändern, sie werden besser werden, und keine Politik oder Scham wird sie aufhalten, genauso wie unsere modernen automatischen Geschütze der Donnerbüchse, die im Grunde eine Minikanone war, um Lichtjahre voraus sind, werden zukünftige Roboter weitaus besser und tödlicher sein als menschliche Soldaten , und die Bürger der Länder, die solche Roboter besitzen, werden entsetzt über die Vorstellung sein, ihre menschlichen Soldaten im Kampf zu verlieren. Sie werden nicht gehackt, nicht einmal durch Operationen aus nächster Nähe. John Conner wird nicht über den notwendigen 10.000-Bit-Verschlüsselungscode verfügen, und kein Schraubenzieher wird in der Lage sein, die Schaltkreise integrierter Schaltkreise zu modifizieren: Sie werden sowieso einweg-manipulationssichere Gehäuse haben, Sobald sie versiegelt sind, werden sie durch jeden Versuch, sie zu öffnen, zerstört (es besteht keine Notwendigkeit, jemals hineinzugehen und sie zu reparieren, selbst jetzt ersetzen wir nur fehlerhafte Chips). (Verdammt, unser Roboter kann seine Prozessoren automatisch selbst zerstören, wenn irgendetwas in sein Gehäuse eindringt).

In der Fiktion möchte sich das Publikum mit Entitäten in der Geschichte identifizieren, die menschliche Emotionen und Qualitäten zeigen. Im wirklichen Leben und im echten Krieg besteht das Ziel darin, den Feind zu unterwerfen und eine Kapitulation unter Todesdrohung gegenüber den Menschen auf der anderen Seite zu erzwingen. IRL möchten wir uns lieber nicht mit den Soldaten identifizieren, die wir verloren haben, wir möchten die Trauer ihrer Familien, Eltern und Kinder und Ehepartner nicht teilen, wir möchten nicht den Verlust ihres Potenzials als gute Menschen, Freunde, und Bürger. Wir wollen nicht, dass sie unter PTSD oder dem Trauma des Krieges leiden. Wenn wir uns aus all diesen Emotionen herausbezahlen können, indem wir Roboter kaufen, die die Drecksarbeit erledigen, werden wir es tun.

Außerdem werden wir (und unsere Militärführer) es meiner Meinung nach vorziehen, dass unsere Roboter in Form und Verhalten eindeutig nicht humanoid (oder sogar tierisch) sind, um nicht versehentlich Empathie oder Sympathie für die Roboter hervorzurufen. Eine Drohne sieht nicht aus wie eine Person, eine abgeschossene oder abstürzende Drohne sieht nicht ausschmerzhaft, es sieht aus wie ein unglücklicher Verlust von Hardware, als ob ein Großbildfernseher versehentlich eine Treppe heruntergefallen wäre. Eine Art "Verdammt" für den Wertverlust, aber keine Sorge um Schmerzen, die der Fernseher empfand; es fühlte nichts. Wenn die Tierform mit Beinen und Gliedmaßen wirklich nützlich ist, um sich im Gelände zurechtzufinden; Ich vermute, wir werden Insekten- oder Spinnentierformen mit vielen Beinen verwenden. Der Verlust eines Robotersoldaten, der an eine panzerartige 3-Fuß-Kakerlake oder Spinne erinnert, wird uns überhaupt nicht stören. Sicher, es ist unser Kakerlakenpanzer, aber wenn er von einer Rakete in Stücke gerissen wird, kein Problem. Senden Sie diesmal zwei.

„Die RSA-Verschlüsselung mit langem Schlüssel ist einfach, schnell und kann mit keinem bekannten Mittel geknackt werden; das ist es, was Banken verwenden.“ Dies ist eine massive Vereinfachung. Zum Erstellen sicherer Software gehört weit mehr als nur Verschlüsselung, und ausnutzbare Schwachstellen können sich im Netzwerkcode zeigen, der vor der Krypto ausgeführt wird, und tun dies auch.
@atk Ich werde nicht streiten; Meine Kollegen arbeiten ständig daran. Aber vergiss nicht, dass uns KI auch an dieser Front helfen wird. Mein Punkt ist nicht, dass die Sicherheit einfach sein wird, aber wir lösen das Problem bereits mit ausreichender Aufmerksamkeit, und ich glaube nicht, dass es ein Problem sein wird. Genauso wie wir genug Sicherheit für unsere Atomwaffen haben, dass sie nicht in ihren Silos explodieren können. Sicherlich ist es in einem fiktiven Universum viel plausibler, dass die Sicherheitsprobleme gelöst sind, als anzunehmen, dass wir (und unsere KI-Helfer) so inkompetent sind, dass wir Roboter bauen, die sich so leicht gegen uns wenden lassen.
Dies ist eine großartige Antwort und hilft, meinen Verdacht zu bestätigen, dass es wahrscheinlich kein bahnbrechendes Argument gegen Roboter gibt. Eines der einzigen Dinge, die mir beim Lesen anderer Kommentare einfallen, ist, dass es so verdammt schwer ist, es richtig zu machen. Aber vielleicht bin ich unwissend. Ich bin aus gutem Grund ein FE-Entwickler und kein KI-Entwickler.
@anson Ich habe hier eine ältere, längere Diskussion über KI-Probleme, die helfen könnte, einige Dinge zu klären: worldbuilding.stackexchange.com/a/81020/37679

Abgesehen von all den oben genannten Antworten besteht für mich das Problem in der Rechenschaftspflicht. Wir sehen bereits, dass zivile Opfer als Kollateralschaden von Raketen- oder Drohnenangriffen abgeschrieben werden. Stellen Sie sich nun die gleiche Situation im Erdgeschoss vor.

Zumindest bei Menschen hoffen wir, dass sich einige weigern werden, Zivilisten anzugreifen, idealerweise aus Menschlichkeit, aber auch aus Angst, letztendlich bestraft zu werden. Bei Robotern gehorchen sie einfach dem Befehl zum Töten, ohne zu begründen, warum. Selbst wenn es Überlebende gibt, können sie die Person, die die Befehle erteilt hat, nicht eindeutig identifizieren, da sie nicht am Tatort anwesend wären.

Sie werden immer mehr zivile Opfer sehen, da rücksichtslose Beamte ungestraft handeln und die andere Seite beschuldigen, die zufällig ein ähnliches Robotermodell verwendet, das nur durch den internen IFF-Transponder zu unterscheiden ist. Irgendwann werden es genug Leute satt haben und sie zu rechtswidrigen Waffen wie Nervengas, Streubomben usw. erklären, wobei der bloße Gebrauch als Kriegsverbrechen angesehen wird. Auch dann wird es Länder oder andere Akteure geben, die die Regeln missachten und weiter anwenden.

Aber natürlich musste die Bestellung digital erfolgen und vom Roboter aufgezeichnet und authentifiziert werden, damit die Person, die die Bestellung erteilt hat, der Nation des Roboterbesitzers vollständig bekannt ist und strafrechtlich verfolgt werden kann, wenn sie dies für notwendig hält. Manchmal haben sie das Gefühl, dass ein Offizier ihre Grenzen überschritten hat. Dies ist nicht anders als ein Langstreckenkanonen- oder Flugzeugangriff; Die Leute vor Ort wissen nicht, wer den Befehl gegeben hat, Hunderte von Zivilisten zu töten, aber die Besitzer der Waffe (oder des Flugzeugs) wissen sicherlich genau, welche Person die fatale Entscheidung getroffen hat, und können sie strafrechtlich verfolgen, wenn dies gerechtfertigt ist.
@Amadeus: Wie viel Prozent der luft-/drohnengesteuerten Angriffe, die Zivilisten oder beispielsweise Krankenhäuser von Ärzte ohne Grenzen töten , wurden erfolgreich verfolgt? Heutzutage werden Kriegsverbrechen nur von Dritten wie dem Internationalen Strafgerichtshof wirklich effektiv verfolgt und nicht von der Regierung des beschuldigten Militärs. Diese Stellen werden wahrscheinlich keinen Zugang zu dieser Art von Beweisen erhalten.

Jeder hat einen EMP

Wenn jede Nation eine Möglichkeit hat, Roboterarmeen zu deaktivieren, wird es keine Roboterarmeen geben.

Ähnlich wie wenn jeder die Bombe hat, wird niemand die Bombe benutzen.

Menschliche Infanterie spielt in der Armee der Zukunft immer noch eine Rolle, denn Roboter sind nicht immer sehr nützlich gegen Terroristen oder Guerillas.

Wenn der Feind in der Lage ist, sich unter die Zivilbevölkerung zu mischen, ist es für menschliche Soldaten schwierig, sie voneinander zu unterscheiden, aber es ist noch schlimmer, wenn Ihre Soldaten die menschliche Kultur überhaupt nicht verstehen. Mit kalten, gefühllosen Robotern Unschuldige zu massakrieren, gewinnt man nicht gerade Herzen und Köpfe.

Außerdem muss ein Roboter eine enorme Menge Energie mit sich führen, um den ganzen Tag herumzulaufen, mehr als genug, um sich selbst in Brand zu setzen. Es kann also wie ein riesiges Galaxy Note 7 in Flammen aufgehen, wenn ein Schrapnell seinen Akku kurzschließt. Dies wäre eine Gefahr für die zivile Sicherheit im Häuserkampf, und das umso mehr, nachdem feindliche Guerillas den effizientesten Weg gefunden haben, Ihre wandelnden Bomben zu zünden.

Menschen sind schlau und erfinderisch. Wir sind besser geeignet für die Improvisation auf dem Schlachtfeld, sei es beim Bau von Fallen, der Planung von Hinterhalten, der Vernehmung von Kriegsgefangenen oder der Aufklärung. Roboter wären in der Lage, diese Dinge bis zu einem gewissen Grad zu tun, aber wenn sie Befehle von menschlichen Vorgesetzten benötigen (was sie tun sollten, um zu vermeiden, dass ein Haufen Awoll-Todesmaschinen als unbekannte Variablen fungieren), könnten sie nicht die notwendige Initiative ergreifen, um außerhalb der Front effektive Soldaten zu sein Linienkampf.

Als Kampfeinheiten an vorderster Front eignen sich Roboter am besten für unterstützende Rollen wie Feldsanitäter. Für rein destruktive oder defensive Zwecke gibt es bereits spezialisiertere Werkzeuge, die nicht die Kosten für den Bau und die Wartung komplexer Roboter erfordern. (Nehmen Sie dies als Beispiel: Als ich zum ersten Mal den Film Pacific Rim sah, war das, was mich davon abgebracht hat, die Idee, dass diese riesigen Mechs so viel kosten und spezialisierte Piloten und die Entwicklung eines neuen Wissenschaftsgebiets benötigen Sie hätten Minen und Energietürme platzieren können, um die Monster zu zerstören. Diese könnten in größerer Zahl hergestellt werden und erfordern keine ausgebildeten Piloten.)

Fragen Sie sich, welche Aufgabe diese Roboter in Ihrer Welt erfüllen, die mit bestehender Technologie nicht effizienter erledigt werden könnte. Der beste Grund, den ich je für Robotertruppen gelesen habe, war der Einsatz als Vorhuteinheiten auf Planeten mit unbewohnbaren Bedingungen.

Danke für die Antwort. Ich stimme jedoch nicht zu, dass wir besser für das Schlachtfeld geeignet sind. So wie selbstfahrende Autos objektiv sicherer für den Transport sind, sollten Roboterkrieger objektiv effizienter sein. Es könnte schwierig sein, bessere Roboter-Interrogatoren zu verstehen (imo, nicht ausgeschlossen), aber ich würde das Verhör vorerst aus diesem Gespräch herauslassen.
@PatrickTrentin sehr wahr, es ist viel komplexer. Mein Vergleich bezieht sich nicht auf selbstfahrende Autos und Robotersoldaten, sondern auf die objektiven Effizienzgewinne, die man erzielen würde, wenn man einen (gut programmierten) Computer die Arbeit erledigen lässt. Sie haben aber Recht, es ist offensichtlich eine schwierigere Aufgabe.

Roboter sind teuer. Menschen sind billig und replizieren sich selbst.

Wie in anderen Antworten erwähnt, können Roboter gehackt und neu programmiert werden. Aber der interessante Teil ist , dass die Menschen an ihrer Programmierung festhalten, wenn es hart auf hart kommt , und „bösen“ Anführern treu bleiben, sogar bis zum Extrem der Leugnung des Völkermords .

Wenn Sie einer KI sensible Geheimnisse vorenthalten, werden Sie schließlich Fehler in Ihren Strategiesimulationen bekommen, oder schlimmer noch, die KI könnte eine mathematische oder buchhalterische Vertuschung aufdecken, die im gesamten Informationssystem holographisch korrigiert werden muss. Es wird schwierig sein, diese politischen "Korrekturen" Programmierern und Technikern unbekannt zu halten. Wenn die Roboter in der Lage sind, ihre eigenen mathematischen Strategien zu entwickeln und ihre eigene Erfolgsrate zu analysieren, werden sie diese Manipulationen schließlich entdecken oder tödliche Fehler bei Entscheidungen machen. Denken Sie an HAL-9000, der beschloss, die Besatzung und die Wissenschaftler zu töten, um den geheimen Zweck der Jupiter-Mission zu schützen . Beachten Sie, dass die Menschen im selben Film ihre Arbeit erledigten und keine Fragen stellten.

Bei Menschen bekommt man blinde Loyalität und Selbstmordmissionen. Sie werden weiterhin eine verlorene Sache verteidigen, und ihr Martyrium kann als Rekrutierungspropaganda verwendet werden – offensichtlich nicht alle Menschen, aber das Militär hat Möglichkeiten, unabhängige Denker auszusortieren, indem es sich selbst nach Konformität, Fügsamkeit und Gehorsam selektiert .

Sie würden dies wahrscheinlich nicht tun, wenn Sie tatsächlich mit einer Roboterarmee gewinnen könnten, also würde ich vorschlagen, dass dies eine Underdog-Strategie ist . Eine rein menschliche Armee zu haben, die sich gegen eine Armee von Robotern und Drohnen verteidigt, funktioniert auch als menschliche Schutzschildstrategie . Globales Mitgefühl wird den Menschen in einem Propagandakrieg zwischen Menschen und Bots zuteil werden.

Unsere militärische Zukunft wird jedoch von dem beeinflusst, was das Militär als Zahn-zu-Schwanz-Verhältnis bezeichnet, das sich auf ein Logistikproblem bezieht, das die Ressourcen betrifft, die zur Versorgung und Unterstützung (Schwanz) jedes Kampfsoldaten (Zahn) erforderlich sind. Das tatsächliche Verhältnis variiert im Laufe der Zeit und je nach Mission, aber es ist üblich, doppelt so viele Ressourcen für den Schwanz als für die Zähne auszugeben. DARPA hat ein erklärtes Ziel, Technologie zu entwickeln, um das Heck zu reduzieren, also erwarten Sie, dass KI und Drohnen bei der Versorgung von Kampfsoldaten wertvoller werden als KI , die zu Kampfsoldaten wird. Es klingt kontraintuitiv, aber dorthin sollten uns die Finanzen führen.

In einem nicht so fernen Zukunftsszenario wird eine KI wahrscheinlich eine globale Verteidigungsstrategie auf der Grundlage von Simulationen entwerfen, und die KI könnte zuverlässiger und billiger als Generäle werden . Wir werden das unangenehme Szenario einer menschlichen Infanterie haben, die von maschineller Intelligenz kommandiert wird.

Wir schreiben das Jahr 2017. DARPA hat bereits eine ganze Reihe verschiedener humanoider und nicht-humanoider Roboter produziert. Sie begannen vor einigen Jahren mit der Produktion, in der Hoffnung, eines bauen zu können, um bei den Aufräumarbeiten nach der Katastrophe von Fukushima zu helfen. Youtube es, ernsthaft, sehr cooles Zeug. Sie brauchten Roboter, die Dinge tun konnten, die Menschen tun konnten, wie springen und rennen und ein Rad drehen oder eine Tür aufschließen. Wir leben bereits in der Zukunft, von der Sie sprechen.

Die Bedingungen von Fukushima sind im Vergleich zu denen auf einem Schlachtfeld komplex. Das Fukushima-Problem erfordert eine spezialisierte wissenschaftliche Ausbildung. Der durchschnittliche Soldat muss nur die Kriegsprotokolle lernen. Jeder Junge aus den Vorstädten kann Soldat werden, aber in einer Situation wie in Fukushima kann nur die gebildete Oberschicht helfen.

Der Punkt ist, dass wir bereits die Technologie haben, um Roboter im Terminator-Stil zu bauen, aber wir verwenden weiterhin Menschen, weil Menschen im Überfluss vorhanden sind. Viele der esoterischen Gruppen wie die Rosenkreuzer und die Freimaurer und Bankiers wie die Rockefellers und die Morgans und die Rothschilds und sogar die mächtigsten Politiker sind Eugeniker. Sie glauben, dass die Welt überbevölkert ist und dass, um die Menschheit zu verbessern, die Bevölkerung verringert und auf einem bestimmten Niveau gehalten werden muss (Google the Georgia Guidestones), und dass die genetisch Unterlegenen die ersten sein sollten, die gehen müssen. Kein Soldat mit einem Ph.D. wird jemals gebeten, an der Front zu arbeiten.

Viele moderne Kriege sollen nicht gewonnen werden. Sie sollen erhalten bleiben. Sie sollen die Bevölkerung ausdünnen und Profite für diejenigen generieren, die diese Kriege finanzieren. Die USA verkauften zu Beginn des Zweiten Weltkriegs Waffen an die Nazis, und andere Gruppen finanzierten beide Seiten des Krieges. Die reiche Elite auf der ganzen Welt weiß, dass sie nur gewinnen kann, wenn sie in beide Parteien investiert.

Die effizientesten Roboter sind diejenigen, die ein bestimmtes Problem lösen müssen. Denken Sie an Drohnen, nicht an humanoide Infanteristen. Die Wahrheit ist, Drohnenroboter werden häufig im Krieg eingesetzt und werden es immer sein, aber solange es Hunger, Armut und Überbevölkerung gibt, werden Menschen der unteren und mittleren Klasse immer an vorderster Front stehen.

Die Wahrheit ist, dass wir morgen einen reinen Roboterkrieg haben könnten – Interkontinentalraketen und Marschflugkörper passen zu fast jeder Definition eines Roboters.

Obwohl es in einem solchen Krieg Roboter wären, die alle Waffen tragen würden, würde natürlich eine große Anzahl von Menschen sterben, ebenso wie die Roboter, die zerstört werden.

In dem Buch „Arms and Influence“ vertritt der Nobelpreisträger Thomas Schelling die Ansicht, dass es zwei Dinge gibt, die ein Militär tun kann, um die Ziele eines Landes in einem Konflikt zu erreichen:

  • Direkte Gewalt , bei der das Militär direkt vertreibt, beschlagnahmt, zerstört, einschränkt oder ausrottet. Wenn Sie zum Beispiel wollen, dass ich aufhöre, Raketen auf Ihre Zivilbevölkerung abzufeuern, können Sie meine Raketenfabriken und Startplätze präzise bombardieren.
  • Zwang , bei dem das Militär Schmerzen und Zerstörung verursacht und anbietet, aufzuhören, wenn eine andere Forderung erfüllt wird. Wenn Sie zum Beispiel wollen, dass ich aufhöre, Raketen auf Ihre Zivilbevölkerung abzufeuern, können Sie sagen, dass Sie für jede, die ich auf Ihre abfeuere, zwei Raketen auf meine Zivilbevölkerung abfeuern.

Unnötig zu sagen, dass Zwang viel weniger heldenhaft ist und Politiker sich viel seltener in klarer, offener Sprache dafür einsetzen. Aber die Wahrheit ist, dass es in vielen Situationen einfacher, billiger und effektiver ist. Ich kann direkte Gewalt erschweren, indem ich meine Raketenfabriken versteckt und befestigt habe – oder vielleicht mache ich, anstatt Raketen abzufeuern, etwas härteres für die Polizei, wie die Finanzierung von Rebellengruppen in Ihrem Land.

Angesichts des natürlichen Verlangens der Menschen nach Rache würden einige argumentieren, dass jeder Krieg, der ohne Vernichtung oder dauerhafte Besetzung endet, ein Element von Zwang beinhaltet.

Wie auch immer, hier ist mein Punkt: Zwang erfordert Schmerzen oder die Drohung damit, und ein Drohne-gegen-Drohne-Kampf hat keine Schmerzen (außer den Opportunitätskosten dieser Drohne, die Geld gekostet hat, das hätte sein können). woanders ausgegeben) - also werden beide Seiten versuchen, die Drohnen der anderen Seite zu umgehen, damit sie Angriffe landen können, die den anderen tatsächlich verletzen .

Selbst wenn also beide Seiten zu 100 % über Drohnenarmeen verfügen, sind es Streiks von Drohnen gegen Zivilisten, die den Krieg tatsächlich zu Ende bringen werden.