Müsste ein Roboter wirklich ein Heads-up-Display (HUD) verwenden?

In Science-Fiction-Filmen (z. B. Terminator oder Robocop ) ist es üblich, eine POV-Aufnahme aus der Perspektive eines Roboters oder Cyborgs zu haben, wobei ein HUD verwendet wird, um seine Umgebung zu beobachten . Dies kann per Hand geschwenkt werden, da dies eine bequeme Möglichkeit für Filmemacher ist, visuelle Bilder zu verwenden, um dem Publikum den Gedankengang oder Geisteszustand eines Roboters sehr einfach und schnell klar zu machen.

Würde ein Roboter ein HUD brauchen, um als eine Art Entscheidungsmechanismus zu fungieren? Und wenn ja, unter welchen Umständen müsste ein Roboter ein HUD verwenden, wenn er seine Umgebung untersucht?

Es ist seltsam, dass die Terminator-Cyborgs und verwandte Roboter so etwas haben würden, dass sie die Ausrüstung unter keinen Umständen so entwerfen würden, dass sie für die Menschen zugänglich ist, die sie auszulöschen versuchen.
Sie haben es selbst mit der Erwähnung des "bequemen Weges" beantwortet. Wenn Außerirdische oder alte Römer oder Tiere in einem Film Englisch miteinander sprechen, wissen wir alle, dass sie im Universum nicht wirklich Englisch sprechen, es dient nur der Bequemlichkeit des Zuschauers, zu verstehen, worüber sie sprechen.
Ein anderer, intuitiverer Weg: Wenn in einem Film eine Figur nachdenkt, hören wir aus dem Off eine seltsame Stimme, während niemand spricht. In Wirklichkeit hören wir (hoffentlich) keine Stimmen, wenn wir nachdenken. Das HUD bildet eigentlich nur die Denkprozesse in der Maschine ab, weil wir sonst ihre Unheimlichkeit nicht darstellen können. Es ist auch bedrohlich zu sehen, wie eine Maschine Menschen kategorisiert.
@vsz oder Franzosen.
@StephenG: Wurde alles von Grund auf neu gebaut? Denn wenn z. B. SkyNet mit einer KI bereitgestellt worden wäre, die automatisch benutzerfreundliche Debug-Fenster für neue Software entwirft, die sie erstellt; es hat dies vielleicht nie wieder in Betracht gezogen (bei der Erstellung von Terminator), da es noch nie einem Menschen gelungen ist, auf diese Debug-Fenster zuzugreifen (z. B. wegen der angeblich perfekten Netzwerksicherheit von SkyNet).
Nun, wie erreichen sie sonst das geheime Roboter-Internet ?
Natürlich zum Debuggen durch Menschen. Warum schreiben Netzwerk-Daemons menschenlesbare Protokolle? Viele von ihnen können sie nicht einmal zurücklesen. Ich gehe davon aus, dass die Antworten denen von worldbuilding.stackexchange.com/questions/36510/… ähnlich sein werden .
Was @ThorstenS gesagt hat. Nur eine grundlegende Filmtechnik, die nicht die Realität im Universum vermittelt.
Ich denke, die größere Frage ist: „Würden taktische Kampfdroiden über gesprochenes Wort kommunizieren? Und jedes Mal zweimal „Roger“ sagen müssen, wenn sie etwas bestätigen?“
@Kevin Angesichts dessen, wie schlecht die Droiden im Kampf sind, finde ich ihre verbale Kommunikation nicht unpassend. (Sie sind schlecht entworfen/implementiert, also warum sollte dieser Fehler eine besondere Erwähnung wert sein?)

Antworten (17)

Ja, weil QA

Quelle: Ich bin seit ca. 9 Jahren Tester.

Bevor Sie Ihren Roboter in die Wildnis laufen lassen und ihn Menschen töten lassen , müssen Sie wissen, ob der Roboter weiß, was ein Mensch ist und was nicht.

Um den Roboter zu testen , wird seine Soft- und/oder Hardware von Menschen getestet. Oder andere automatisierte Tests. Und Sie wetten , dass es nörgelnde Tester geben wird, die Ihnen die ganze Zeit sagen, dass sie wissen müssen, ob ein Roboter einen Menschen erkannt hat oder nicht.

Ja, Sie könnten das „Können Sie ein grünes Rechteck um den Menschen legen, wenn er einen Menschen sieht?“ verschieben. Bitten Sie um ein paar Releases, aber diese lästigen Tester werden sich darüber beschweren, wie schwierig ihr Leben ist und wie teuer das Testen des Robotersehens ohne grüne Rechtecke um Menschen herum ist.

Warum bleibt das HUD, fragen Sie sich vielleicht? Denn das Entfernen dieser Funktion kostet Zeit, und außerdem müsste der gesamte Roboter noch eine weitere QA-Runde durchlaufen, um festzustellen, ob das Entfernen einer solchen Funktion nichts anderes kaputt gemacht hat.

Etwas zusammenfassen:

  • Der Roboter wird zunächst von Menschen programmiert
  • HUD ist ein nettes Feature und es hilft (menschlichen) Testern, den Roboter zu testen
  • Der Roboter selbst benötigt die zusätzlichen Funktionen, die dem HUD hinzugefügt wurden, nicht wirklich . Es würde Menschen erkennen, auch ohne ein grünes Rechteck um sie herum zu setzen
  • Nein, ich kann Ihnen nicht sagen, ob ich Bald-die-Welt-Roboter getestet habe. Das ist noch unter NDA

Hasta la vista, Baby


HUD: Heads-up-Display
QA: Qualitätssicherung
NDA: Geheimhaltungsvereinbarung

Kommentare sind nicht für längere Diskussionen gedacht; diese Konversation wurde in den Chat verschoben .
Hervorragende Beispiele dafür sind die HUDs in (zumindest einigen) der getesteten selbstfahrenden Autos. Einige von ihnen erstellen eine vollständige grafische 3D-Darstellung des Autos und der Umgebung, andere zeigen den Kamera-Feed, der mit einer Darstellung darüber überlagert ist, wie das selbstfahrende Auto (auch bekannt als Roboter) all seine sensorischen Eingaben interpretiert. Es hilft den Ingenieuren zu prüfen, ob das Auto alles richtig macht.
Sie können jederzeit einen externen Bildschirm zum Testen anschließen und ihn dann kostenlos entfernen. Wenn Terminator gehackt werden kann, hätte ich ihn lieber ohne Vision (in menschlicher Hinsicht). Außerdem könnte diese Antwort mit von Menschen gebauten Entitäten funktionieren. Roboter, die von Robotern gebaut wurden, würden es überhaupt nicht brauchen, nicht einmal zum Testen
Im ersten Terminator-Film erklärt Kyle Sara, wie die Terminatoren erschienen, nachdem die Maschinen die Erde erobert hatten. Sie trafen die menschlichen Überlebenden völlig unvorbereitet, als sie zum ersten Mal die unterirdischen Verstecke der Menschen infiltrierten.
Hervorragende Antwort, die die meisten Fälle abdeckt, aber in einigen Fällen, in denen Maschinen Maschinen erstellen (z. B. Terminator, Matrix), wäre der QA-Tester AUCH eine Maschine / ein Programm, also ... wäre das HUD in diesem Fall erforderlich?
Ich habe Roboter getestet, die bald die Welt übernehmen werden, und sie haben tatsächlich Kästchen in verschiedenen Farben um ihre ~~Opfer~~-Kontakte gezeichnet, als sie sich ansahen, was der Roboter durch eine GUI sieht. Das ist jedoch nur eine visuelle Ausgabe, die der Mensch sieht, der Roboter braucht sie nicht, um zu funktionieren. Es weiß nur, dass es das als Teil seiner Programmausführung ausgeben soll.
Überraschenderweise haben Sie im Fall von Maschinen, die Maschinen erstellen, möglicherweise tatsächlich ein HUD. Die KI, die die Programmierung für die Maschine erstellt, würde im Grunde einen evolutionären Ansatz verwenden, um die leistungsstärksten vorhandenen Lösungen über ein neuronales Netzwerk oder eine andere typische KI-Strategie auszuwählen. Die leistungsstärksten würden wahrscheinlich alle von Menschen erstellte HUD-Debugging-Ausgaben haben (zumindest in den ersten Generationen) und daher in die neue Generation von Maschinen aufgenommen werden

Das ist nicht nötig...

Der Roboter-Intellekt würde nur die Dinge kennen , die im HUD-Text erscheinen. Diese würden unseren nicht-visuellen Sinnen ähneln, wie wir wissen, dass sich unser Fuß in diesem Winkel befindet, oder wie wir wissen, dass der Raum eine angenehme Temperatur hat.

HUD würde die tatsächliche Sicht behindern oder ablenken

Damit der Roboter/Cyborg den HUD-Textinhalt tatsächlich wahrnimmt, müsste sein Fokus vom Sehzentrum zum HUD wechseln, den Text scannen und dann zu der externen Ansicht zurückkehren, auf die er sich konzentriert hat. Dies ist sinnvoll, wenn der HUD-Text extern generiert und auf einem Bildschirm zwischen Auge/Kamera und Sichtfeld angezeigt wird. Es macht keinen Sinn, wenn der Text in der Kamera generiert wird. Warum sollten Sie wertvolle Systemtaktzyklen verschwenden, um den Fokus zu verschieben, oder riskieren, den Text nicht zu bemerken, weil Sie den Fokus nicht schnell genug oder im richtigen Moment verschoben haben?

Nö. Es ist viel effizienter, diese Daten als eine Art zusätzliche Sinne zu haben, die gerade bekannt sind. Zusammen mit anderen normalen Sinnen, die ein computerisiertes Gehirn haben könnte, wie genaue Uhrendaten, genaue Entfernungen zu Dingen in Sichtweite usw.

..Außer vielleicht für eine spätere Überprüfung

Es gäbe wahrscheinlich komplexe Äquivalente zu realen Protokolldateien, die mit den Details aus dem HUD-Text gefüllt sind. Und es ist möglich, dass auch die eigentlichen visuellen Daten aufgezeichnet werden.

Wenn Ihre Cyborgs also so programmiert sind, dass sie für Menschen arbeiten oder für menschliches Debugging programmiert sind, dann wird es möglich, einen "Überprüfungsmodus" zu haben, der das aufgezeichnete Video wiedergibt und dann die Protokolldateidaten für nicht-visuelle Sinne als HUD-Text in das einblendet Wiedergabe.

Wenn Sie also den HUD-Text mit der Hand bewegen möchten, tun Sie dies so, als würden "menschliche Debugger oder Prüfer oder Controller des Basislagers ihn so sehen, nicht wie der Roboter selbst ihn sehen würde".

Jetzt haben Sie mich an einen Roboter denken lassen, an dessen Rand Tonnen von Text vorbeiscrollen, während seine Systeme seine Umgebung analysieren, und nicht die (zumindest in Filmen typischen) wenigen Zahlen und Symbole, die sich ständig ändern, aber genau gleich bleiben Ort.
@MichaelKjörling Ich habe so etwas in ein oder zwei Werken gesehen, aber ich kann mich derzeit nicht erinnern, welches
@MichaelKjörling Wahrscheinlich nicht, viele Vorgänge werden stark verlangsamt, wenn die Protokollierung aktiviert ist.
@SPavel Wenn wir diesen Weg gehen, gibt es keinen Grund, dass eine solche Protokollierung ein synchroner Vorgang wäre.

Denken Sie im Fall von Robocop daran, dass der "Roboter" Teil von Officer Alex Murphy ist. Die programmierbare KI arbeitet mit Murphys Gehirn zusammen. Das HUD kann eine Art Schnittstelle (vielleicht eine von mehreren) zwischen der Roboterkomponente und Murphys Gehirn sein - eine Möglichkeit, schnelle zusammenfassende Informationen an das Gehirn zu senden, um es für die weitere Verarbeitung / Informationen / Anweisungen vorzubereiten, die in a gesendet würden maschinenfreundlicheres Format.

Dies würde auch rechtfertigen, dass die klassifizierte „vierte Direktive“ nicht auf dem HUD sichtbar ist. (Man könnte sich fragen, wie ein Roboter sich selbst davon abhalten könnte, etwas zu tun, ohne zu wissen, was er nicht tun sollte?) - Der Murphy-Teil will Dick Jones verhaften, aber die KI-Komponente erlaubt Robocops physischem Körper nicht, eine Aktion auszuführen, die dies tun würde Vervollständigen Sie diese Verhaftung und sagen Sie der Murphy-Komponente auch nicht, warum.

Dies funktioniert zwar nicht wirklich für den Terminator, aber im fortgeschrittenen Computing der Zukunft könnte man sicher eine Rechtfertigung finden, warum mehrere Informationsquellen in unterschiedlichen Formaten über die visuelle Schnittstelle an die CPU gesendet werden sollten. Computer sind weit über den einfachen "Programmzähler" hinausgekommen, der sich entlang einer sequentiellen Reihe von Anweisungen tickt.

Robocop hat keinen Namen. Er ist Produkt.
Ein Teilbereich der KI umfasst auch die Erstellung neuronaler Netze (ähnlich dem menschlichen Gehirn). Es gibt im Allgemeinen keinen Grund, warum neuronale Netze ein HUD benötigen würden, aber vielleicht ist es schwieriger, Empfindungen von Grund auf neu zu erstellen, als einfach damit zu beginnen, ein menschliches neuronales Netz zu kopieren und es zu erweitern. Wiederverwendung ist eine große Sache in der Informatik, warum das neuronale Netz so ändern, dass es direkte Eingaben akzeptiert, wenn es bereits die Fähigkeit hat, ein HUD zu lesen?
"Computer sind weit über den einfachen "Programmzähler" hinausgekommen, der sich entlang einer sequentiellen Reihe von Anweisungen tickt." ... und doch zeigt der Inhalt des HUD deutlich, dass zumindest ein Teil des Terminators auf einem 6502 läuft .
Selbst in den fortschrittlichsten Programmen würde ich mir vorstellen, dass ein Programmzähler oder ähnliches auf einer niedrigen Ebene im Code vorhanden wäre. Vor allem, wenn Menschen es gemacht haben. Wenn es einen sequentiellen Speicher und sequentielle Anweisungen gibt, gibt es wahrscheinlich einen Programmzähler.

Nachdem ich tatsächlich an den "Sicht" -Tests für einen Roboter im wirklichen Leben teilgenommen habe, kann ich bestätigen, dass das HUD zum Nutzen des menschlichen Testers (das bin ich) und nicht des Roboters verwendet wurde. Angesichts der erheblich verzögerten Verarbeitungsreaktion, die das von mir erstellte HUD auferlegte, war die Idee tatsächlich, dass das Endprodukt nicht mit aktiviertem HUD verwendet werden würde.

Meine spezifischen Tests betrafen die Erkennung von Farben und die Unterscheidung von unsicheren Farben (Weiß, Orange, Gelb) und sicheren Farben (Grün und Schwarz). Um dies zu erreichen, würden wir eine Kamera jedes einzelne Bild an einen Prozess übertragen lassen, der jedes Pixel mit einem booleschen Operator „isSafe“ markiert, wobei die guten Farben „wahr“ wären, während die schlechten Farben „falsch“ wären, und diese Informationen weitergeben würden zur zentralen Verarbeitung, wo sie mit anderen Dateneingaben kombiniert würden.

Um bei Meetings und während Toleranztests (Gelb und Grün liegen nahe beieinander in einem Standard-RGB-Bildfarbschema, also mussten wir genau sein, wo die Toleranzen waren) zu zeigen, nahm mein HUD ein Beispielbild und färbte es neu ein so dass alle "sicheren Farben" auf Schwarz und alle unsicheren Farben auf Hellgelb eingestellt wurden. Es gab einige andere Dinge, die ich implementieren wollte, aber festhalten musste, damit andere sensorische Systeme funktionieren, wie zum Beispiel die Entfernung jedes Pixels zur Kamera des Roboters.

Unterhaltsame Tatsache, die primäre Tiefenwahrnehmung wäre nicht das „Auge“ der Kamera gewesen, sondern ein LIDAR-System, das in der Lage wäre, Objekte bei 360 Grad Sicht zu erkennen, obwohl der Bildteil ausschließlich für die Vorwärtsbewegung bestimmt war.

Die Antwort kann für Roboter anders sein als für Cyborgs.

Cyborgs, das menschliche Gehirn - eine Art künstlicher Körper: So wie es aussieht, sind die Sehnerven eine großartige Breitbandverbindung (die einzige?) ins Gehirn, daher ist es sinnvoll, sie zu verwenden, um Informationen in ein biologisches Gehirn zu übertragen.

Roboter, bei denen die KI immer noch auf binäre Berechnungen angewiesen ist: Nein, diese Status sind lediglich Zellen in einer Speichertabelle. Aber es wäre eine großartige Debug-Ausgabe (Video-Feed + Overlay). Dies könnte auch für andere Roboter mit inkompatiblen Schnittstellen sinnvoll sein. Das könnten die Filmemacher zeigen.

Nein, weil Daten.

In biologischen Organismen werden externe Informationen aus der Umgebung durch verschiedene Sensoren (Augen, Ohren, Haut) erfasst und (über Nerven) an eine zentrale Verarbeitungseinheit (das Gehirn) gestreamt und in Daten (Sehen, Hören, Berühren) interpretiert. Die Entscheidungsfindung erfolgt dann anhand der verfügbaren Daten.

HUDs sind eine Art Schnittstellenerweiterung, die wir verwenden, um Daten zu ergänzen. Wir verwenden täglich mehrere davon, um externe Informationen in native sensorische Eingaben zu übersetzen, da wir dafür keine Sensoren haben:

  • Piepst, wenn wir einen offenen Kühlschrank vergessen
  • Blinkende Lichter, um eine neue Nachricht auf unseren Mobilgeräten anzuzeigen
  • Textinformationen werden in Spielen eingeblendet, um verbleibende „Herzen“ oder „Munition in einem Magazin“ anzuzeigen

Also untergraben wir „natürliche“ Schnittstellen, um neue sensorische Inhalte hinzuzufügen, da wir Menschen nicht verbessern können. (Noch.)

Roboter hingegen haben keine derartigen Einschränkungen: Sie können sie so gestalten, dass sie in Bezug auf sensorische Eingaben flexibel sind, und einfach einen neuen Stream in ihren Kommunikationskanal stecken (natürlich nachdem Sie die erforderliche Software zum Analysieren des neuen Datentyps hinzugefügt haben). )

Unter welchen Umständen müsste ein Roboter ein HUD verwenden, wenn er seine Umgebung untersucht?

Das kann passieren, wenn der Roboter keinen vollständig integrierten Datenfluss zu seinem sensorischen Satz hinzugefügt hat. Dann kann der neue externe Stream zuerst übersetzt und dann zu einer bestehenden Schnittstelle hinzugefügt werden, so wie wir es tun.

Ich werde mir ein paar plausible Szenarien ausdenken, in denen es sinnvoll sein könnte, einen Roboter ein Heads-up-Display aufrechterhalten zu lassen.

Beim Menschen wandern elektrische Signale von verschiedenen Reizen mit unterschiedlicher Geschwindigkeit zum Gehirn. Aus der Verarbeitungsgeschwindigkeit im menschlichen visuellen System :

Hier verwenden wir eine Go/No-Go-Kategorisierungsaufgabe, bei der die Probanden entscheiden müssen, ob ein zuvor ungesehenes Foto, das nur 20 ms lang eingeblendet wurde, ein Tier enthält. Die ERP-Analyse ergab eine für No-Go-Studien spezifische frontale Negativität, die sich etwa 150 ms nach Beginn des Stimulus entwickelt. Wir kommen zu dem Schluss, dass die für diese äußerst anspruchsvolle Aufgabe erforderliche visuelle Verarbeitung in weniger als 150 ms erreicht werden kann.

Etwas zu sehen und dann zu begreifen , braucht eine gewisse Zeit. Es ist plausibel, dass aufgrund des Designs des Gehirns Ihres Roboters das visuelle Verständnis für einige spezifische Datenpunkte schneller ist als das Nachschlagen dieser Datenpunkte aus dem Speichermodul, in dem sie sich gerade befinden. In diesem Fall müssen Sie wichtige Daten in visueller Form bereitstellen Der Roboter würde am meisten Sinn machen.

Sie können auch argumentieren, dass die visuelle Interpretation dieser Daten während des normalen Betriebs etwas langsamer sein könnte, aber in „stressigen“ Situationen nicht die wenigen Zyklen oder so benötigt, um kritische Subsysteme auf ihren aktuellen Status abzufragen und sich stattdessen auf diese Systeme zu verlassen ihre Daten direkt an den visuellen Kortex zu melden, kann einen kleinen Leistungsverlust aufwiegen. Das HUD kann auch nur eine Backup-Datenansicht für die Zeiten sein, in denen sowohl die Front-Side- als auch die Back-Side-Busse derzeit mit Befehlen zur Beendigung der lokalen Population von organischen Stoffen überhäuft werden.

Etwas ähnlich der Antwort von Pavel Janicek bleibt das HUD für Protokollierungszwecke in der Nähe. Es ist möglich, dass die visuelle Verbindung mit einem Upstream-Monitor geteilt wird, der keinen Zugriff auf die Hardware des Roboters hat, sondern nur auf den visuellen Datenstrom. Durch die Aufrechterhaltung eines HUD leitet dieser Stream wertvolle Informationen an die Befehls- und Kontrolleinheit des Roboters zurück, selbst für den Fall, dass es den dummen Menschen gelingt, sich der Terminierung zu widersetzen und den Roboter zu zerstören. Seek and Destroy-Drohnen können mit den zuletzt übertragenen Bildern des Roboters zur letzten bekannten Position des Roboters zurückgeschickt werden.

Es ist kein HUD, es ist nur eine Perspektive

Andererseits habe ich mir diese Szenen immer nur als Repräsentation dessen vorgestellt, was dem Roboter damals durch den Kopf ging. Ich interpretierte diese Szenen nicht als wörtliches Bild, das vom T-900 interpretiert wird, sondern nur als ein Kompendium von Überlagerungen aller sensorischen Eingaben der Einheit, um den Standpunkt der Maschine darzustellen.

„Es ist plausibel, dass das visuelle Verständnis für einige spezifische Datenpunkte aufgrund des Designs des Gehirns Ihres Roboters schneller ist, als diese Datenpunkte aus dem Speichermodul nachzuschlagen, in dem sie sich gerade befinden.“ - Eine aktuelle HDD der unteren Preisklasse hat eine Suchzeit von <20ms und eine Datenrate von vielleicht 1000 MBit/s. RAM ist viel schneller. Außerdem müssten Sie die Daten zuerst abrufen, um sie auf Ihrem HUD zu rendern. Wenn es also zu einer Verzögerung kam, würden Sie sie sowieso erleiden.
@RutherRendommeleigh Ich mache keine Vermutungen darüber, welche zugrunde liegende Technologie diesen Roboter antreibt. Ich bin mir sicher, dass sich die Leistungsmerkmale von Daten aus dem positronischen Gehirn von Star Trek erheblich von dem unterscheiden, was Sie zitieren.
Zugegeben, wenn Sie keine Annahmen treffen, dann ist alles möglich. Die einzige Möglichkeit, dass „Abrufen + Codieren + Übertragen + Decodieren“ in irgendetwas, das auf realer Physik basiert, schneller sein könnte als „einfach abrufen“, wäre jedoch ein erheblicher Designfehler (z. B. Verzögerungen, die durch Rennbedingungen verursacht werden). Und selbst dann ist die Übertragung von Daten als menschenlesbarer Text oder Zielindikatoren usw. weitaus weniger effizient als die Codierung in einem kompakteren Format.
Der Vergleich zu HDDs sollte darauf hinweisen, dass selbst für etwas so Rechenleistungsfähiges wie das menschliche Gehirn die optische Verarbeitung eine viel komplexere Aufgabe ist als das Abrufen von Daten. Es scheint ... seltsam, wenn bis zu dem Zeitpunkt, an dem wir Roboter haben, die mit der menschlichen Intelligenz konkurrieren können, das Gedächtnis viel langsamer geworden wäre und wir vergessen hätten, wie man ältere, schnellere Sachen herstellt.
@RutherRendommeleigh Ich gehe nicht davon aus, dass Daten in einem einzigen System in sich geschlossen sind. Vielleicht befindet sich im linken großen Zeh des Roboters ein für die Funktion notwendiges Schmiermittelreservoir. Intern verfolgt es seinen eigenen Füllstand und meldet ihn ohne jegliche Verbindung zur Hauptentscheidungsmatrix an das Bildverarbeitungssystem zurück. Sie können zu Recht argumentieren, dass dies ein Konstruktionsfehler ist, aber jemand anderes könnte zu Recht argumentieren, dass es sich stattdessen um einen Kompromiss handelte.

Das HUD ist einfach eine Möglichkeit, gemessene Daten in etwas zu übersetzen, das für Menschen leicht verständlich ist, da Menschen normalerweise an Augen für die Interaktion mit der Außenumgebung gewöhnt sind.

Das Übersetzen der Daten in ein HUD erfordert einen zusätzlichen Schritt und ist daher nicht unbedingt erforderlich, es sei denn, ein menschlicher gleichwertiger Verstand muss Zugriff auf dieselben Daten erhalten.

Wir Menschen haben noch ein Steißbein von unseren Vorfahren, auch wenn wir es nicht mehr brauchen.

Wenn sich die Technologie künstlich oder natürlich weiterentwickelt, würden Elemente bestehen bleiben, auch wenn sie nicht benötigt würden. Sie würden nur dann entfernt, wenn dies den Nachkommen einen Vorteil verschafft. Da ein HUD-Display Kindern keinen Vor- oder Nachteil verschafft, hätten alle Kinder mit oder ohne HUDs die gleiche Chance, diese Eigenschaft weiterzugeben. Die Eigenschaft, ein HUD zu haben, würde also bestehen bleiben.

Wir können diese Art von Charakterzügen sehen, die in der Technologie in der realen Welt fortbestehen. Nehmen Sie als Beispiel die Kopfhörerbuchse. iPhones haben jetzt keine und Android-Telefone haben sie immer noch. Im Laufe der Zeit werden wir herausfinden, ob diese Eigenschaft benötigt wurde oder nicht.

Es ist wichtig zu bedenken, dass ein Roboter und wie er die Welt wahrnimmt, eine Folge des Hardwaredesigns des Roboters ist. Ein Roboter kann durchaus ein internes HUD haben, sogar außerhalb menschlicher Faktoren, da dies der effektivste Weg ist, die Informationen mit einer sehr hohen Aktualisierungsrate an die CPU zu übermitteln. Ein zusätzlicher Vorteil besteht darin, dass Sensordaten vorverarbeitet werden können, Entitäten in den visuellen Daten mit den relevanten Informationen markiert werden können, wodurch Zyklen auf dem OODA-Loop -Hauptprozessor des Roboters für wichtigere Entscheidungen eingespart werden.

Nein.

Genauso wie Menschen (und andere Tiere - soweit wir wissen) kein HUD haben.

Das HUD findet dort seinen Einsatz, wo eine Entität (bisher ein Mensch) ein visuelles Feedback oder eine Darstellung von internen oder externen Prozessen einer Maschine oder ihrer Umgebung benötigt.

Roboter oder Androiden haben eine direkte Verbindung zu allen in sie eingebauten sensorischen Inputs. Das Aktualisieren eines HUD und das anschließende Analysieren dieser Daten verschwendet viel zu viele Zyklen. Wesentlich schneller geht es, direkt auf die Daten zuzugreifen und diese entsprechend zu verarbeiten.

Wie hier erwähnt wurde, dass ein HUD zu Testzwecken codiert ist, ist ein gangbarer Grund, aber es ist als Ausgabe gedacht, die von einer externen Kontrollinstanz (den Erstellern) verwendet werden soll, und wird in diesem Szenario nicht vom Android / Roboter selbst verwendet.

tl;dr duh, natürlich sprechen wir über Filme und daher ist es, wie OP sagte, genau die Wahl von Filmemachern, dem Publikum Informationen zu vermitteln.

Ja, wenn der Roboter für die Verwendung von Geräten entwickelt wurde, die für Menschen bestimmt sind, oder wenn der Roboter aus einer Sammlung bestehender Systeme gebaut wurde, die für die Interaktion mit Menschen gebaut wurden.

Setzen Sie für einen Moment Ihren Verrückten-Wissenschaftler-Hut auf.

In einer gegnerischen Umgebung müssen Sie mit einem Informationskrieg rechnen. Ich würde einen Mechanismus einbauen, der sicherstellt, dass die KI-Gedanken von innen stammen. Das Letzte, was ich will, ist, dass ein Gegner Gedanken, Daten oder Befehle ohne Validierung einschleusen kann.

Dies würde eine Art signierten Handshake für vertrauenswürdige interne Komponenten erfordern. Wenn einem Gerät nicht vertraut wird, kann es grundsätzlich keine Befehle zur Verarbeitung senden. Alle externen Sensoren und Waffensysteme müssen durch nicht vertrauenswürdige Kanäle geleitet werden oder riskieren, interne Systeme zu gefährden. Dies ist viel einfacher, als vertrauenswürdige Waffensysteme zu signieren, da Waffensysteme viel flexibler sein müssen, damit sie sich an sich ändernde Schlachtfeldtaktiken anpassen können.

Alle meine Robotersoldaten verarbeiten eingehende Daten über geschützte Kanäle, in denen Daten bereinigt und Befehlsfunktionen entfernt werden. Der einfachste Weg, dies zu tun, besteht darin, einen bereits bereinigten Eingabestrom huckepack zu verwenden. Die praktischste bereinigte Eingabe mit hoher Bandbreite ist natürlich das visuelle Eingabesystem. Alle Witzbolde, die sagen, dass Sie die Daten nur direkt aufnehmen, werden eine schlechte Zeit haben, wenn ich das Schlachtfeld mit Waffen übersäte, die darauf ausgelegt sind, Ihre Roboter über ihren ODB-Port zu infizieren. Oder noch besser, Sie haben nicht einmal daran gedacht, Ihre visuellen Eingaben zu desinfizieren, und ich kann mit einer verdammten Taschenlampe codieren.

Meine Roboter verwenden ein Hud-Display als Schutz vor der Übernahme durch böswillige Akteure. Außerdem sind alle vorherigen "No HUD"-Roboter in diesem Thread jetzt meine Roboter und das erste, was ich tue, ist, sie zu aktualisieren, damit sie nicht zur Übernahme verfügbar sind.

Jetzt verwendet jeder Roboter ein HUD-Display, Waffensysteme sind von Mobilitäts- und Empfindungssystemen entkoppelt und sie sind austauschbar und aufrüstbar. Außerdem habe ich gerade die Welt erobert. MUAHHHAHAHAHAH.

Du siehst das falsch. Filme sind für Menschen gemacht , daher ist die beste und natürlichste Art, das Konzept zusätzlicher Informationsströme zu kommunizieren, eine visuelle Überlagerung.

Es würde keinen Sinn machen, ein tatsächliches Softwaresystem Informationen auf diese Weise empfangen zu lassen. Es wäre so, als würde man eine Schallwellenform auf Ihrem Sichtfeld anzeigen – Sie könnten es tun, und es würde Informationen enthalten – aber Sie haben bereits einen dedizierten Sinneskanal für diesen Zweck, also würden Sie es vorziehen, ihn zu verwenden.

Wenn die KI, die den Roboter antreibt, das Ergebnis eines simulierten natürlichen Auswahlverfahrens ist, bei dem keine HUD-ähnlichen Informationen gegeben werden, würde HUD der KI einfach mehr Informationen liefern, genau wie das, was HUD für uns Menschen tut.

Wenn es hoch "synthetisch" ist, kann HUD Debug-Informationen oder Erweiterungen für bereits vorhandene KI-Programme bereitstellen.

Nein. Die Terminatoren wurden von KI gebaut und programmiert, sodass niemals unnötiger Code für menschliches Debuggen und Testen hinzugefügt würde.

Wenn die Terminatoren von Menschen gebaut und von einer KI neu programmiert wurden, vielleicht aber nicht dort, wo sie von Grund auf von KI entworfen, gebaut und programmiert wurden.

Intelligenz, wie wir sie kennen, ist keine einheitliche Sache.

Du hast keine Meinung. Ihr Gehirn ist voller unbewusster Funktionen. Impulse von Ihrem Sehnerv werden in den visuellen Teil Ihres Gehirns eingespeist und stark verarbeitet, bevor irgendetwas, das Ihrem Bewusstsein ähnelt, Zugang zu ihnen erhält.

Ihre visuelle Erfahrung ist eine Halluzination; Der größte Teil Ihrer Sicht ist im Grunde in Schwarzweiß, der einzige Teil mit einer Auflösung ist direkt dort, wo Sie hinschauen, Sie haben blinde Flecken, Ihre Nase ist (normalerweise) herausgefiltert, Ihre Sicht schaltet sich jedes Mal für den Bruchteil einer Sekunde aus Ihr Auge bewegt sich usw. Linien, Winkel, Kanten, Kreise; Muster erkannt und halluziniert.

Diese visuelle Verarbeitung auf „niedriger Ebene“ erfolgt , ohne Ihren „Geist“ zu stören, und sie geschieht in Ihrem Gehirn.

Wenn wir unsere KIs auf der Grundlage der einzigen Intelligenz aufbauen, die wir kennen, werden wir wahrscheinlich verschiedene Teilprobleme lösen und sie verbinden. Das visuelle Verarbeitungssystem wird keine allgemeine KI sein; Es wird eine spezialisierte KI sein, die eine qualitativ hochwertige visuelle Verarbeitung durchführt.

Der „Feed“ zum „wirklich schlauen“ Teil des KI-Gehirns wird also nicht so aussehen, wie die Kamera sieht. Es wird mit Informationen versehen, die die spezialisierte visuelle Verarbeitungseinheit erarbeitet hat.

Möglicherweise werden mehrere Schichten solcher spezialisierter visueller Verarbeitungseinheiten in eine Pipeline umgewandelt. Einige von ihnen werden Menschen erkennen und hervorheben. Das bedeutet, dass der "Geist" nicht die Fähigkeit haben muss, Menschen in seinem Sichtfeld schnell und zuverlässig wahrzunehmen; Es muss nur eine ausreichend gute visuelle Verarbeitung haben, um die Highlights zu erkennen.

Ein HUD könnte aus ähnlichen Gründen existieren. Der intelligente Teil der KI ist menschenähnlich; Es ist sich nicht bewusster, dass es binäre Daten verarbeitet, als unser Gehirn sich bewusst ist, dass es Glukose oder Aktionspotentiale verarbeitet. Das „Anheben“ von Daten auf das Niveau, das die KI erfährt (visuelle Aufzählungszeichen usw.), anstatt einen binären Feed bereitzustellen, könnte es der „Befehls-KI“ erleichtern, darauf zu achten.

Ein Nebeneffekt von all dem ist, dass die Erweiterungen sowohl zum Testen als auch zur Entwicklung mit einem Menschen funktionieren würden. Zu den weiteren Vorteilen gehört die Tatsache, dass die visuellen Co-Processing-Einheiten auch modular ersetzt werden können, ohne die KI neu aufzubauen. Außerdem hat die Kern-KI bei einem Defekt der visuellen Co-Processing-/HUD-Systeme eine eingeschränkte visuelle Verarbeitung und kann ohne sie fortfahren.