In Science-Fiction-Filmen (z. B. Terminator oder Robocop ) ist es üblich, eine POV-Aufnahme aus der Perspektive eines Roboters oder Cyborgs zu haben, wobei ein HUD verwendet wird, um seine Umgebung zu beobachten . Dies kann per Hand geschwenkt werden, da dies eine bequeme Möglichkeit für Filmemacher ist, visuelle Bilder zu verwenden, um dem Publikum den Gedankengang oder Geisteszustand eines Roboters sehr einfach und schnell klar zu machen.
Würde ein Roboter ein HUD brauchen, um als eine Art Entscheidungsmechanismus zu fungieren? Und wenn ja, unter welchen Umständen müsste ein Roboter ein HUD verwenden, wenn er seine Umgebung untersucht?
Quelle: Ich bin seit ca. 9 Jahren Tester.
Bevor Sie Ihren Roboter in die Wildnis laufen lassen und ihn Menschen töten lassen , müssen Sie wissen, ob der Roboter weiß, was ein Mensch ist und was nicht.
Um den Roboter zu testen , wird seine Soft- und/oder Hardware von Menschen getestet. Oder andere automatisierte Tests. Und Sie wetten , dass es nörgelnde Tester geben wird, die Ihnen die ganze Zeit sagen, dass sie wissen müssen, ob ein Roboter einen Menschen erkannt hat oder nicht.
Ja, Sie könnten das „Können Sie ein grünes Rechteck um den Menschen legen, wenn er einen Menschen sieht?“ verschieben. Bitten Sie um ein paar Releases, aber diese lästigen Tester werden sich darüber beschweren, wie schwierig ihr Leben ist und wie teuer das Testen des Robotersehens ohne grüne Rechtecke um Menschen herum ist.
Warum bleibt das HUD, fragen Sie sich vielleicht? Denn das Entfernen dieser Funktion kostet Zeit, und außerdem müsste der gesamte Roboter noch eine weitere QA-Runde durchlaufen, um festzustellen, ob das Entfernen einer solchen Funktion nichts anderes kaputt gemacht hat.
Etwas zusammenfassen:
Hasta la vista, Baby
HUD: Heads-up-Display
QA: Qualitätssicherung
NDA: Geheimhaltungsvereinbarung
Der Roboter-Intellekt würde nur die Dinge kennen , die im HUD-Text erscheinen. Diese würden unseren nicht-visuellen Sinnen ähneln, wie wir wissen, dass sich unser Fuß in diesem Winkel befindet, oder wie wir wissen, dass der Raum eine angenehme Temperatur hat.
HUD würde die tatsächliche Sicht behindern oder ablenken
Damit der Roboter/Cyborg den HUD-Textinhalt tatsächlich wahrnimmt, müsste sein Fokus vom Sehzentrum zum HUD wechseln, den Text scannen und dann zu der externen Ansicht zurückkehren, auf die er sich konzentriert hat. Dies ist sinnvoll, wenn der HUD-Text extern generiert und auf einem Bildschirm zwischen Auge/Kamera und Sichtfeld angezeigt wird. Es macht keinen Sinn, wenn der Text in der Kamera generiert wird. Warum sollten Sie wertvolle Systemtaktzyklen verschwenden, um den Fokus zu verschieben, oder riskieren, den Text nicht zu bemerken, weil Sie den Fokus nicht schnell genug oder im richtigen Moment verschoben haben?
Nö. Es ist viel effizienter, diese Daten als eine Art zusätzliche Sinne zu haben, die gerade bekannt sind. Zusammen mit anderen normalen Sinnen, die ein computerisiertes Gehirn haben könnte, wie genaue Uhrendaten, genaue Entfernungen zu Dingen in Sichtweite usw.
Es gäbe wahrscheinlich komplexe Äquivalente zu realen Protokolldateien, die mit den Details aus dem HUD-Text gefüllt sind. Und es ist möglich, dass auch die eigentlichen visuellen Daten aufgezeichnet werden.
Wenn Ihre Cyborgs also so programmiert sind, dass sie für Menschen arbeiten oder für menschliches Debugging programmiert sind, dann wird es möglich, einen "Überprüfungsmodus" zu haben, der das aufgezeichnete Video wiedergibt und dann die Protokolldateidaten für nicht-visuelle Sinne als HUD-Text in das einblendet Wiedergabe.
Wenn Sie also den HUD-Text mit der Hand bewegen möchten, tun Sie dies so, als würden "menschliche Debugger oder Prüfer oder Controller des Basislagers ihn so sehen, nicht wie der Roboter selbst ihn sehen würde".
Denken Sie im Fall von Robocop daran, dass der "Roboter" Teil von Officer Alex Murphy ist. Die programmierbare KI arbeitet mit Murphys Gehirn zusammen. Das HUD kann eine Art Schnittstelle (vielleicht eine von mehreren) zwischen der Roboterkomponente und Murphys Gehirn sein - eine Möglichkeit, schnelle zusammenfassende Informationen an das Gehirn zu senden, um es für die weitere Verarbeitung / Informationen / Anweisungen vorzubereiten, die in a gesendet würden maschinenfreundlicheres Format.
Dies würde auch rechtfertigen, dass die klassifizierte „vierte Direktive“ nicht auf dem HUD sichtbar ist. (Man könnte sich fragen, wie ein Roboter sich selbst davon abhalten könnte, etwas zu tun, ohne zu wissen, was er nicht tun sollte?) - Der Murphy-Teil will Dick Jones verhaften, aber die KI-Komponente erlaubt Robocops physischem Körper nicht, eine Aktion auszuführen, die dies tun würde Vervollständigen Sie diese Verhaftung und sagen Sie der Murphy-Komponente auch nicht, warum.
Dies funktioniert zwar nicht wirklich für den Terminator, aber im fortgeschrittenen Computing der Zukunft könnte man sicher eine Rechtfertigung finden, warum mehrere Informationsquellen in unterschiedlichen Formaten über die visuelle Schnittstelle an die CPU gesendet werden sollten. Computer sind weit über den einfachen "Programmzähler" hinausgekommen, der sich entlang einer sequentiellen Reihe von Anweisungen tickt.
Nachdem ich tatsächlich an den "Sicht" -Tests für einen Roboter im wirklichen Leben teilgenommen habe, kann ich bestätigen, dass das HUD zum Nutzen des menschlichen Testers (das bin ich) und nicht des Roboters verwendet wurde. Angesichts der erheblich verzögerten Verarbeitungsreaktion, die das von mir erstellte HUD auferlegte, war die Idee tatsächlich, dass das Endprodukt nicht mit aktiviertem HUD verwendet werden würde.
Meine spezifischen Tests betrafen die Erkennung von Farben und die Unterscheidung von unsicheren Farben (Weiß, Orange, Gelb) und sicheren Farben (Grün und Schwarz). Um dies zu erreichen, würden wir eine Kamera jedes einzelne Bild an einen Prozess übertragen lassen, der jedes Pixel mit einem booleschen Operator „isSafe“ markiert, wobei die guten Farben „wahr“ wären, während die schlechten Farben „falsch“ wären, und diese Informationen weitergeben würden zur zentralen Verarbeitung, wo sie mit anderen Dateneingaben kombiniert würden.
Um bei Meetings und während Toleranztests (Gelb und Grün liegen nahe beieinander in einem Standard-RGB-Bildfarbschema, also mussten wir genau sein, wo die Toleranzen waren) zu zeigen, nahm mein HUD ein Beispielbild und färbte es neu ein so dass alle "sicheren Farben" auf Schwarz und alle unsicheren Farben auf Hellgelb eingestellt wurden. Es gab einige andere Dinge, die ich implementieren wollte, aber festhalten musste, damit andere sensorische Systeme funktionieren, wie zum Beispiel die Entfernung jedes Pixels zur Kamera des Roboters.
Unterhaltsame Tatsache, die primäre Tiefenwahrnehmung wäre nicht das „Auge“ der Kamera gewesen, sondern ein LIDAR-System, das in der Lage wäre, Objekte bei 360 Grad Sicht zu erkennen, obwohl der Bildteil ausschließlich für die Vorwärtsbewegung bestimmt war.
Die Antwort kann für Roboter anders sein als für Cyborgs.
Cyborgs, das menschliche Gehirn - eine Art künstlicher Körper: So wie es aussieht, sind die Sehnerven eine großartige Breitbandverbindung (die einzige?) ins Gehirn, daher ist es sinnvoll, sie zu verwenden, um Informationen in ein biologisches Gehirn zu übertragen.
Roboter, bei denen die KI immer noch auf binäre Berechnungen angewiesen ist: Nein, diese Status sind lediglich Zellen in einer Speichertabelle. Aber es wäre eine großartige Debug-Ausgabe (Video-Feed + Overlay). Dies könnte auch für andere Roboter mit inkompatiblen Schnittstellen sinnvoll sein. Das könnten die Filmemacher zeigen.
In biologischen Organismen werden externe Informationen aus der Umgebung durch verschiedene Sensoren (Augen, Ohren, Haut) erfasst und (über Nerven) an eine zentrale Verarbeitungseinheit (das Gehirn) gestreamt und in Daten (Sehen, Hören, Berühren) interpretiert. Die Entscheidungsfindung erfolgt dann anhand der verfügbaren Daten.
HUDs sind eine Art Schnittstellenerweiterung, die wir verwenden, um Daten zu ergänzen. Wir verwenden täglich mehrere davon, um externe Informationen in native sensorische Eingaben zu übersetzen, da wir dafür keine Sensoren haben:
Also untergraben wir „natürliche“ Schnittstellen, um neue sensorische Inhalte hinzuzufügen, da wir Menschen nicht verbessern können. (Noch.)
Roboter hingegen haben keine derartigen Einschränkungen: Sie können sie so gestalten, dass sie in Bezug auf sensorische Eingaben flexibel sind, und einfach einen neuen Stream in ihren Kommunikationskanal stecken (natürlich nachdem Sie die erforderliche Software zum Analysieren des neuen Datentyps hinzugefügt haben). )
Unter welchen Umständen müsste ein Roboter ein HUD verwenden, wenn er seine Umgebung untersucht?
Das kann passieren, wenn der Roboter keinen vollständig integrierten Datenfluss zu seinem sensorischen Satz hinzugefügt hat. Dann kann der neue externe Stream zuerst übersetzt und dann zu einer bestehenden Schnittstelle hinzugefügt werden, so wie wir es tun.
Ich werde mir ein paar plausible Szenarien ausdenken, in denen es sinnvoll sein könnte, einen Roboter ein Heads-up-Display aufrechterhalten zu lassen.
Beim Menschen wandern elektrische Signale von verschiedenen Reizen mit unterschiedlicher Geschwindigkeit zum Gehirn. Aus der Verarbeitungsgeschwindigkeit im menschlichen visuellen System :
Hier verwenden wir eine Go/No-Go-Kategorisierungsaufgabe, bei der die Probanden entscheiden müssen, ob ein zuvor ungesehenes Foto, das nur 20 ms lang eingeblendet wurde, ein Tier enthält. Die ERP-Analyse ergab eine für No-Go-Studien spezifische frontale Negativität, die sich etwa 150 ms nach Beginn des Stimulus entwickelt. Wir kommen zu dem Schluss, dass die für diese äußerst anspruchsvolle Aufgabe erforderliche visuelle Verarbeitung in weniger als 150 ms erreicht werden kann.
Etwas zu sehen und dann zu begreifen , braucht eine gewisse Zeit. Es ist plausibel, dass aufgrund des Designs des Gehirns Ihres Roboters das visuelle Verständnis für einige spezifische Datenpunkte schneller ist als das Nachschlagen dieser Datenpunkte aus dem Speichermodul, in dem sie sich gerade befinden. In diesem Fall müssen Sie wichtige Daten in visueller Form bereitstellen Der Roboter würde am meisten Sinn machen.
Sie können auch argumentieren, dass die visuelle Interpretation dieser Daten während des normalen Betriebs etwas langsamer sein könnte, aber in „stressigen“ Situationen nicht die wenigen Zyklen oder so benötigt, um kritische Subsysteme auf ihren aktuellen Status abzufragen und sich stattdessen auf diese Systeme zu verlassen ihre Daten direkt an den visuellen Kortex zu melden, kann einen kleinen Leistungsverlust aufwiegen. Das HUD kann auch nur eine Backup-Datenansicht für die Zeiten sein, in denen sowohl die Front-Side- als auch die Back-Side-Busse derzeit mit Befehlen zur Beendigung der lokalen Population von organischen Stoffen überhäuft werden.
Etwas ähnlich der Antwort von Pavel Janicek bleibt das HUD für Protokollierungszwecke in der Nähe. Es ist möglich, dass die visuelle Verbindung mit einem Upstream-Monitor geteilt wird, der keinen Zugriff auf die Hardware des Roboters hat, sondern nur auf den visuellen Datenstrom. Durch die Aufrechterhaltung eines HUD leitet dieser Stream wertvolle Informationen an die Befehls- und Kontrolleinheit des Roboters zurück, selbst für den Fall, dass es den dummen Menschen gelingt, sich der Terminierung zu widersetzen und den Roboter zu zerstören. Seek and Destroy-Drohnen können mit den zuletzt übertragenen Bildern des Roboters zur letzten bekannten Position des Roboters zurückgeschickt werden.
Es ist kein HUD, es ist nur eine Perspektive
Andererseits habe ich mir diese Szenen immer nur als Repräsentation dessen vorgestellt, was dem Roboter damals durch den Kopf ging. Ich interpretierte diese Szenen nicht als wörtliches Bild, das vom T-900 interpretiert wird, sondern nur als ein Kompendium von Überlagerungen aller sensorischen Eingaben der Einheit, um den Standpunkt der Maschine darzustellen.
Das HUD ist einfach eine Möglichkeit, gemessene Daten in etwas zu übersetzen, das für Menschen leicht verständlich ist, da Menschen normalerweise an Augen für die Interaktion mit der Außenumgebung gewöhnt sind.
Das Übersetzen der Daten in ein HUD erfordert einen zusätzlichen Schritt und ist daher nicht unbedingt erforderlich, es sei denn, ein menschlicher gleichwertiger Verstand muss Zugriff auf dieselben Daten erhalten.
Wir Menschen haben noch ein Steißbein von unseren Vorfahren, auch wenn wir es nicht mehr brauchen.
Wenn sich die Technologie künstlich oder natürlich weiterentwickelt, würden Elemente bestehen bleiben, auch wenn sie nicht benötigt würden. Sie würden nur dann entfernt, wenn dies den Nachkommen einen Vorteil verschafft. Da ein HUD-Display Kindern keinen Vor- oder Nachteil verschafft, hätten alle Kinder mit oder ohne HUDs die gleiche Chance, diese Eigenschaft weiterzugeben. Die Eigenschaft, ein HUD zu haben, würde also bestehen bleiben.
Wir können diese Art von Charakterzügen sehen, die in der Technologie in der realen Welt fortbestehen. Nehmen Sie als Beispiel die Kopfhörerbuchse. iPhones haben jetzt keine und Android-Telefone haben sie immer noch. Im Laufe der Zeit werden wir herausfinden, ob diese Eigenschaft benötigt wurde oder nicht.
Es ist wichtig zu bedenken, dass ein Roboter und wie er die Welt wahrnimmt, eine Folge des Hardwaredesigns des Roboters ist. Ein Roboter kann durchaus ein internes HUD haben, sogar außerhalb menschlicher Faktoren, da dies der effektivste Weg ist, die Informationen mit einer sehr hohen Aktualisierungsrate an die CPU zu übermitteln. Ein zusätzlicher Vorteil besteht darin, dass Sensordaten vorverarbeitet werden können, Entitäten in den visuellen Daten mit den relevanten Informationen markiert werden können, wodurch Zyklen auf dem OODA-Loop -Hauptprozessor des Roboters für wichtigere Entscheidungen eingespart werden.
Nein.
Genauso wie Menschen (und andere Tiere - soweit wir wissen) kein HUD haben.
Das HUD findet dort seinen Einsatz, wo eine Entität (bisher ein Mensch) ein visuelles Feedback oder eine Darstellung von internen oder externen Prozessen einer Maschine oder ihrer Umgebung benötigt.
Roboter oder Androiden haben eine direkte Verbindung zu allen in sie eingebauten sensorischen Inputs. Das Aktualisieren eines HUD und das anschließende Analysieren dieser Daten verschwendet viel zu viele Zyklen. Wesentlich schneller geht es, direkt auf die Daten zuzugreifen und diese entsprechend zu verarbeiten.
Wie hier erwähnt wurde, dass ein HUD zu Testzwecken codiert ist, ist ein gangbarer Grund, aber es ist als Ausgabe gedacht, die von einer externen Kontrollinstanz (den Erstellern) verwendet werden soll, und wird in diesem Szenario nicht vom Android / Roboter selbst verwendet.
tl;dr duh, natürlich sprechen wir über Filme und daher ist es, wie OP sagte, genau die Wahl von Filmemachern, dem Publikum Informationen zu vermitteln.
Ja, wenn der Roboter für die Verwendung von Geräten entwickelt wurde, die für Menschen bestimmt sind, oder wenn der Roboter aus einer Sammlung bestehender Systeme gebaut wurde, die für die Interaktion mit Menschen gebaut wurden.
Setzen Sie für einen Moment Ihren Verrückten-Wissenschaftler-Hut auf.
In einer gegnerischen Umgebung müssen Sie mit einem Informationskrieg rechnen. Ich würde einen Mechanismus einbauen, der sicherstellt, dass die KI-Gedanken von innen stammen. Das Letzte, was ich will, ist, dass ein Gegner Gedanken, Daten oder Befehle ohne Validierung einschleusen kann.
Dies würde eine Art signierten Handshake für vertrauenswürdige interne Komponenten erfordern. Wenn einem Gerät nicht vertraut wird, kann es grundsätzlich keine Befehle zur Verarbeitung senden. Alle externen Sensoren und Waffensysteme müssen durch nicht vertrauenswürdige Kanäle geleitet werden oder riskieren, interne Systeme zu gefährden. Dies ist viel einfacher, als vertrauenswürdige Waffensysteme zu signieren, da Waffensysteme viel flexibler sein müssen, damit sie sich an sich ändernde Schlachtfeldtaktiken anpassen können.
Alle meine Robotersoldaten verarbeiten eingehende Daten über geschützte Kanäle, in denen Daten bereinigt und Befehlsfunktionen entfernt werden. Der einfachste Weg, dies zu tun, besteht darin, einen bereits bereinigten Eingabestrom huckepack zu verwenden. Die praktischste bereinigte Eingabe mit hoher Bandbreite ist natürlich das visuelle Eingabesystem. Alle Witzbolde, die sagen, dass Sie die Daten nur direkt aufnehmen, werden eine schlechte Zeit haben, wenn ich das Schlachtfeld mit Waffen übersäte, die darauf ausgelegt sind, Ihre Roboter über ihren ODB-Port zu infizieren. Oder noch besser, Sie haben nicht einmal daran gedacht, Ihre visuellen Eingaben zu desinfizieren, und ich kann mit einer verdammten Taschenlampe codieren.
Meine Roboter verwenden ein Hud-Display als Schutz vor der Übernahme durch böswillige Akteure. Außerdem sind alle vorherigen "No HUD"-Roboter in diesem Thread jetzt meine Roboter und das erste, was ich tue, ist, sie zu aktualisieren, damit sie nicht zur Übernahme verfügbar sind.
Jetzt verwendet jeder Roboter ein HUD-Display, Waffensysteme sind von Mobilitäts- und Empfindungssystemen entkoppelt und sie sind austauschbar und aufrüstbar. Außerdem habe ich gerade die Welt erobert. MUAHHHAHAHAHAH.
Du siehst das falsch. Filme sind für Menschen gemacht , daher ist die beste und natürlichste Art, das Konzept zusätzlicher Informationsströme zu kommunizieren, eine visuelle Überlagerung.
Es würde keinen Sinn machen, ein tatsächliches Softwaresystem Informationen auf diese Weise empfangen zu lassen. Es wäre so, als würde man eine Schallwellenform auf Ihrem Sichtfeld anzeigen – Sie könnten es tun, und es würde Informationen enthalten – aber Sie haben bereits einen dedizierten Sinneskanal für diesen Zweck, also würden Sie es vorziehen, ihn zu verwenden.
Wenn die KI, die den Roboter antreibt, das Ergebnis eines simulierten natürlichen Auswahlverfahrens ist, bei dem keine HUD-ähnlichen Informationen gegeben werden, würde HUD der KI einfach mehr Informationen liefern, genau wie das, was HUD für uns Menschen tut.
Wenn es hoch "synthetisch" ist, kann HUD Debug-Informationen oder Erweiterungen für bereits vorhandene KI-Programme bereitstellen.
Nein. Die Terminatoren wurden von KI gebaut und programmiert, sodass niemals unnötiger Code für menschliches Debuggen und Testen hinzugefügt würde.
Wenn die Terminatoren von Menschen gebaut und von einer KI neu programmiert wurden, vielleicht aber nicht dort, wo sie von Grund auf von KI entworfen, gebaut und programmiert wurden.
Intelligenz, wie wir sie kennen, ist keine einheitliche Sache.
Du hast keine Meinung. Ihr Gehirn ist voller unbewusster Funktionen. Impulse von Ihrem Sehnerv werden in den visuellen Teil Ihres Gehirns eingespeist und stark verarbeitet, bevor irgendetwas, das Ihrem Bewusstsein ähnelt, Zugang zu ihnen erhält.
Ihre visuelle Erfahrung ist eine Halluzination; Der größte Teil Ihrer Sicht ist im Grunde in Schwarzweiß, der einzige Teil mit einer Auflösung ist direkt dort, wo Sie hinschauen, Sie haben blinde Flecken, Ihre Nase ist (normalerweise) herausgefiltert, Ihre Sicht schaltet sich jedes Mal für den Bruchteil einer Sekunde aus Ihr Auge bewegt sich usw. Linien, Winkel, Kanten, Kreise; Muster erkannt und halluziniert.
Diese visuelle Verarbeitung auf „niedriger Ebene“ erfolgt , ohne Ihren „Geist“ zu stören, und sie geschieht in Ihrem Gehirn.
Wenn wir unsere KIs auf der Grundlage der einzigen Intelligenz aufbauen, die wir kennen, werden wir wahrscheinlich verschiedene Teilprobleme lösen und sie verbinden. Das visuelle Verarbeitungssystem wird keine allgemeine KI sein; Es wird eine spezialisierte KI sein, die eine qualitativ hochwertige visuelle Verarbeitung durchführt.
Der „Feed“ zum „wirklich schlauen“ Teil des KI-Gehirns wird also nicht so aussehen, wie die Kamera sieht. Es wird mit Informationen versehen, die die spezialisierte visuelle Verarbeitungseinheit erarbeitet hat.
Möglicherweise werden mehrere Schichten solcher spezialisierter visueller Verarbeitungseinheiten in eine Pipeline umgewandelt. Einige von ihnen werden Menschen erkennen und hervorheben. Das bedeutet, dass der "Geist" nicht die Fähigkeit haben muss, Menschen in seinem Sichtfeld schnell und zuverlässig wahrzunehmen; Es muss nur eine ausreichend gute visuelle Verarbeitung haben, um die Highlights zu erkennen.
Ein HUD könnte aus ähnlichen Gründen existieren. Der intelligente Teil der KI ist menschenähnlich; Es ist sich nicht bewusster, dass es binäre Daten verarbeitet, als unser Gehirn sich bewusst ist, dass es Glukose oder Aktionspotentiale verarbeitet. Das „Anheben“ von Daten auf das Niveau, das die KI erfährt (visuelle Aufzählungszeichen usw.), anstatt einen binären Feed bereitzustellen, könnte es der „Befehls-KI“ erleichtern, darauf zu achten.
Ein Nebeneffekt von all dem ist, dass die Erweiterungen sowohl zum Testen als auch zur Entwicklung mit einem Menschen funktionieren würden. Zu den weiteren Vorteilen gehört die Tatsache, dass die visuellen Co-Processing-Einheiten auch modular ersetzt werden können, ohne die KI neu aufzubauen. Außerdem hat die Kern-KI bei einem Defekt der visuellen Co-Processing-/HUD-Systeme eine eingeschränkte visuelle Verarbeitung und kann ohne sie fortfahren.
StephenG - Helfen Sie der Ukraine
vsz
Torsten S.
Prl
Flacher
Macht
Oleg W. Wolkow
Mazura
Herr Lister
Kevin
Agi Hammerthief