Viele Geschichten haben bereits KIs gemacht, aber viele von ihnen fühlen sich unrealistisch an. Wenn Sie eine KI bauen, die so schlau wie Menschen ist, aber eine schnellere Reaktionsgeschwindigkeit und die Fähigkeit hat, bestimmte Konzepte mit einer immens höheren Geschwindigkeit als Menschen zu verarbeiten und zu berechnen, macht dies Menschen ziemlich sinnlos. Die Frage, die mir immer bleibt, ist, warum die Menschen überhaupt in die Geschichten involviert sind, warum nicht der KI sagen, was sie tun soll, und sie Dinge tun lassen? Verlangsamt eine menschliche Schnittstelle die Dinge nicht nur?
Ich möchte mir also eine Welt vorstellen, die über intelligente KI verfügt, aber den Menschen nicht von Natur aus überlegen ist. Stellen Sie sich eine Situation vor, in der ein kleines Team aus Robotern und Menschen an einer komplexen Aktivität beteiligt ist, etwas körperlich Herausforderndes, das langfristige Planung, Anpassung und schnelle Reflexe erfordert. Wie könnte ich ein System erstellen, bei dem Menschen und KI gleichermaßen relevant sind, um die Aufgabe zu erfüllen?
Ich nehme an, der Trick wäre, zu verhindern, dass die KI eine Intelligenz auf menschlichem Niveau hat, aber wie würde eine solche KI aussehen? Angenommen, die KI ist in der Lage, grundlegende Gespräche zu führen, Sätze zu analysieren und mindestens auf dem Niveau eines kleinen Kindes zu kommunizieren und verfügt über große Verarbeitungsgeschwindigkeiten und Speicher, womit würde sie kämpfen? Wofür ist das menschliche Gehirn besser geeignet als für jede Silikon-KI, die wir in naher Zukunft entwickeln könnten? Würde diese KI nicht in der Lage sein, in die ferne Zukunft zu planen, weil sie immer noch an dem Ansatz „verarbeite jedes mögliche Ergebnis eine Iteration nach der anderen“ arbeitet? Würde es ihnen an Kreativität usw. mangeln?
Was würde eine solche KI wesentlich besser machen als wir?
Mich würde nicht nur interessieren, welche Grenzen sie haben, sondern auch Ihre Gedanken zu den Ursachen der Grenzen, warum ist die Implementierung der KI, die wir haben, weniger in der Lage, eine bestimmte Aufgabe zu erledigen, als ein normaler Mensch?
Wir würden solche intelligenten Roboter entwerfen, um unsere eigenen Fähigkeiten zu ergänzen. Bevor wir gottähnliche Superintelligenzen erschaffen können, werden wir zuerst das machen, was für uns nützlich ist: Mit begrenztem Funktionsumfang und begrenzter Kapazität würden wir zuerst implementieren, was wir brauchen , und nicht duplizieren, was wir bereits tun.
In dieser Umgebung werden Sie also natürlich feststellen, dass die Roboter unterschiedliche Fähigkeiten mit einer großen Nichtüberschneidung haben.
Persönlich denke ich, dass die frühe KI Gelehrte auf engstem Raum sein und nichts anderes verstehen wird, einschließlich der menschlichen Kultur. Vielleicht wird es Experten erfordern, mit ihnen zu kommunizieren, obwohl sie "natürliche" gesprochene Sprache verwenden können, weil das Sprechen normalerweise mit kulturellem Kontext und Redewendungen gefüllt ist - es wäre eher wie Programmieren oder SQL-Abfragen.
Roboter-KIs würden nach unseren Maßstäben unausgereift erscheinen
Da KIs auf Computern aufgebaut sind, gehe ich davon aus, dass ihre deduktiven Fähigkeiten unübertroffen sein werden. Das ist es, was Computer historisch gut können. Die Unterschiede zwischen KIs und Menschen würden sich darin zeigen, wie sie mit induktivem Denken umgehen.
Ein wesentlicher Teil des induktiven Denkens besteht darin, eine „Vorahnung“ für die richtige Vorgehensweise in einer Situation zu haben, die Sie noch nie zuvor analysiert haben. Dies ist sehr wichtig für Situationen, in denen Sie beim ersten Mal richtig handeln müssen und es nicht möglich ist, für die Aktivität zu trainieren. Zum Beispiel würden wir ihnen als Piloten misstrauen. Menschen haben gegenüber computergesteuerten Piloten ein bemerkenswertes Misstrauen gegenüber der Theorie gezeigt, dass menschliche Piloten „etwas mehr“ haben.
Wir sehen diese Art von Problem im Umgang mit Kindern. Kinder sind im Allgemeinen eher bereit, ein Risiko einzugehen, nur um zu sehen, was passiert; Erwachsene entwickeln etwas, das wir gerne „Zurückhaltung“ nennen.
Kultur bietet uns einen Rahmen, um diese induktive Logik zu „lernen“. Über Jahrhunderte haben wir die besten Methoden entwickelt, um ein Gehirn mit guten Verhaltensweisen zu indoktrinieren (oder zumindest glauben wir gerne, dass sie die besten sind). Wir verwenden blumige Prosa und Gleichnisse, um das Unbelehrbare zu lehren.
Unsere gesamte Kultur ist darauf ausgelegt, menschliche Gehirne zu lehren, nicht KI-Gehirne. Das bedeutet, dass es für eine KI schwieriger wäre, unsere Lehren zu nutzen, als für ein Kind, dasselbe zu tun. „Heimat ist, wo das Herz ist“ ist außerordentlich schwer zuzuordnen, wenn „Heimat“ ein sehr abstraktes Wort ist und „Herz“ ein Organ ist, das man als KI nicht hat.
Eine KI könnte Jahrhunderte brauchen, um ihr eigenes kulturelles Äquivalent zu entwickeln.
Sie scheinen anzunehmen, dass eine KI dem Menschen in gewisser Weise ziemlich ähnlich wäre. Das ist eine ziemlich strenge Einschränkung, aber ich nehme an, es macht es einfacher, eine Geschichte zu erzählen.
Also, wenn KIs tatsächlich Menschen ähnlich sind, aber Menschen in bestimmten Aspekten übertreffen, und Ihre Frage lautet: „Was ist der Grund in der Welt, immer noch (traditionelle) Menschen in der Nähe zu haben?“, wäre meine Chance auf eine Antwort: „Denn Aus demselben Grund haben wir mehr als einen Menschen.“ Wenn Ihre KIs Menschen im Wesentlichen nahe stehen, neigen sie dazu, Rollen zu übernehmen, die traditionell von Menschen ausgefüllt werden.
JFTR, lassen Sie mich auf einen meiner Lieblingsärgernisse einprügeln: Viele SciFi-Autoren neigen dazu anzunehmen, dass eine fortgeschrittene KI verstehen würde, wie sie selbst funktioniert. Ich verstehe nicht, warum das so sein sollte. Selbst wenn man davon ausgeht, dass seine Erbauer es tun (und es gibt oft eine Lücke zwischen dem, was wir als Computeringenieure bauen können, und dem, was wir als Informatiker erklären können, ganz zu schweigen von der Zusammenarbeit zwischen Experten auf verschiedenen Gebieten), ist es unwahrscheinlich, dass dies das Erste ist, was sie lehren ihr Baby.
Viele der Antworten hier erwähnen Dinge, die richtig klingen, aber für diejenigen, die mit maschinellem Lernen gearbeitet haben, wirklich keinen Sinn ergeben. Ich werde einige ansprechen:
Wir würden zuerst das implementieren, was wir brauchen, und nicht wiederholen, was wir bereits tun
Obwohl dies logisch klingt, haben künstliche neuronale Netze tatsächlich gezeigt, dass sie tiergehirnähnliche Aufgaben ausführen, ohne darauf programmiert zu sein . Zum Beispiel begannen automatisch zuhörende Maschinen, Hintergrundgeräusche zu filtern und Tiergeräusche zu verstärken. Es gab kürzlich eine Innovation mit ähnlichen Ergebnissen in Bezug auf Computer Vision, obwohl ich mich nicht an die Details erinnere.
Induktives Denken beim maschinellen Lernen wird als unüberwachtes Lernen bezeichnet, es ist eine Form der Vektorquantisierung und extrem fortschrittlich. Es stellt sich heraus, dass Maschinen besser darin sind, bekannte Lösungen auf neue Lösungen zu verallgemeinern und auch zu identifizieren, welche Elemente bei der Mustererkennung nicht berücksichtigt werden sollen. KI ist bereits besser im induktiven Denken als Menschen.
Tatsächlich versteht KI sehr viel besser als Männer, was romantische Frauen wollen, und versteht besser als Frauen, was romantische Männer wollen. Diese Tatsache gilt auch, wenn der romantische Aspekt außer Acht gelassen wird: Die KI weiß besser als Sie, was Ihr Partner will. Und KI ist bereits besser darin, Partner für erfolgreiche langfristige Beziehungen auszuwählen als Menschen. Alle großen Dating-Sites verwenden KI ausgiebig.
Sie würden mit dem gleichen kämpfen, was Menschen tun: Mehrdeutigkeit
Nö. Die KI hätte mehr Kontext als der Mensch. Zum einen hat die KI möglicherweise Zugriff auf die Geschichte des Sprechers und subtile physiologische Hinweise. Zum anderen ist die KI möglicherweise in der Lage, die Ergebnisse beider Interpretationen zu berechnen und vorherzusagen und diese Informationen zu verwenden, um zu entscheiden, welche Interpretation richtig ist.
Sie würden mit dem gleichen kämpfen, was Menschen tun: Mehrdeutigkeit
Egal wie gut Ihre KI ist, es ist praktisch unmöglich, genügend Daten zu sammeln, die gut genug sind, um „vollkommen logische“ Entscheidungen zu treffen.
KI müsste Entscheidungen auf der Grundlage unvollständiger Daten und Daten treffen, deren Richtigkeit nicht ordnungsgemäß überprüft werden kann. Dies ist im Grunde der Kern von Cort Ammons Antwort. Menschen lernen, solche Entscheidungen von Geburt an zu treffen, und unsere Gesellschaft ist so gemacht, dass wir mit den Auswirkungen dieser Entscheidungen leben können. Wir lernen, Risiken einzugehen und zu akzeptieren, und haben Institutionen, die uns vor Risiken schützen.
Je besser die KI wird, desto menschenähnlicher wird sie in ihrer Entscheidungsfindung sein. All diese „KI versucht, die Menschheit zu töten“-Geschichten handeln hauptsächlich von KI, die nicht versteht, dass der Versuch, die gesamte Menschheit zu töten, eine äußerst riskante Entscheidung ist und dass die Menschheit, die sich selbst schadet, nicht einmal eine garantierte Schlussfolgerung ist.
Knappheitsprobleme und Einschränkungen der Rechenleistung
Aus meiner Sicht liegt die Hauptbeschränkung für eine unbegrenzte Kapazitätserweiterung derzeit in der Miniaturisierung und im Stromverbrauch. Wir werden Verwendungsmöglichkeiten für Near-AGIs haben, sobald sie existieren können, sodass die ersten Near-AGIs in Bezug auf die benötigten Ressourcen an die Grenzen gehen werden:
Das könnte eines von zwei Dingen bedeuten:
1) Der „Gehirn“-Controller des Androiden ist tatsächlich nicht vor Ort und unterliegt daher einer Lichtgeschwindigkeitsverzögerung und Signalstörungen. Stellen Sie sich vor, Ihre Roboterpolizei zögert, den Verdächtigen in den Minenschacht oder das Faraday-Gebäude zu folgen, bevor sie unterwegs ein dauerhaftes Kommunikationsnetzwerk errichtet.
2) Hoher Stromverbrauch. Mit einer Handvoll superstarker KIs und Cybrids, die die Finanzsysteme der Welt leiten und ihr extravagantes Kit mit Gigawatt Leistung betreiben, ist Strom auch für grundlegende Menschen und KIs auf niedrigerem Niveau teuer, während der Bau neuer Kraftwerke Jahre dauert, was langsam ist im Vergleich dazu, wie schnell sich die Dinge im KI-Bereich bewegen.
Zusammenarbeit
Worin können Menschen und KI nun in einer AGI-nahen Umgebung zusammenarbeiten? Zunächst einmal muss jede KI- und Roboterinstanz hergestellt werden (und wird wahrscheinlich ziemlich teuer in der Anschaffung sein). In der Zwischenzeit werden wir bereits etwa 9 Milliarden fleischige, kompakte Arbeitskräfte haben. Selbst wenn Beinahe-AGIs bei jeder einzelnen Aufgabe, für die sie ausgebildet wurden, besser sind, würde es immer noch Jahrzehnte dauern, bis sie Zahlen aufgebaut haben, sodass die meisten Aufgaben immer noch von Menschen erledigt würden.
Near-AGI kann leicht Lügen erkennen (Blutfluss, unbewusste Veränderungen verschiedener Art), ist aber in den subtileren Aspekten der Kommunikation nicht so gut wie Menschen. Stellen Sie sich also Near-AGI als (begehrten und umkämpften) Aktivposten während eines CIA- oder FBI-Verhörs vor. Dein eigener künstlicher Sherlock, schade, dass es so wenige gibt.
Temporärer komparativer menschlicher Vorteil (neben Zahlen)
Allgemeiner gesagt, wäre Near-AGI Expertensysteme in jedem engen Bereich, in dem sie arbeiten könnten, also müssten menschliche Vorteile in der domänenübergreifenden Integration liegen.
Hier sind meine eigenen zwei Cent. Zunächst einige allgemeine Bemerkungen in zufälliger Reihenfolge:
Entscheidend ist, wie Sie „intelligent“ definieren. Ich kenne mich mit Arbeiten zu diesem Thema nicht aus, aber zumindest im Alltag ist „intelligent“ nicht gleichbedeutend mit „gut in etwas Bestimmtem“. Man kann zum Beispiel intelligent und gut in Mathe oder gut in Literatur sein.
Würden Sie einen noch so komplexen Algorithmus als „intelligent“ bezeichnen? Wie das Beispiel für Dating-Sites, das jemand in einer anderen Antwort erwähnt hat? Ich würde nicht. Meine eigene ungenaue Definition würde sich höchstwahrscheinlich darauf konzentrieren, dass Intelligenz unter Umständen außerhalb der Designparameter funktioniert ... Ich würde keinen Algorithmus als intelligent bezeichnen, unabhängig davon, wie gut er seine Arbeit erledigt. Effizient, schlau, raffiniert, ja, aber nicht intelligent .
Zwei weitere Dimensionen der Intelligenz:
(1) Es gibt einen Unterschied zwischen intelligent genug zu sein, um ein Muster im Datenstrom zu erkennen (etwas, worin Computer ziemlich gut werden), und intelligent genug, um eine Theorie darüber zu formulieren, warum dies geschieht (dh verstehen und daher in der Lage sein die Zukunft vorhersagen).
(2) Es scheint viel Verwirrung zwischen „intelligent“ und „besitzen eines freien Willens“ und der Fähigkeit, aus eigener Initiative zu handeln, zu geben. Diese sind nicht identisch.
Dies erfordert ein externes objektives Kriterium, um zu funktionieren. Sie sollten sich darüber im Klaren sein, dass es einige Dinge gibt, die quantifizierbar sind (und daher miteinander verglichen und in eine Rangfolge gebracht werden können), und es gibt Dinge, die Ergebnisse von Werturteilen (moralische Werte oder Präferenzen) sind. Letztere können nicht miteinander verglichen werden, sie sind gleichermaßen gültig.
Außerdem lassen sich diese normalerweise nicht gut übersetzen, wenn sie im Zusammenhang mit der Durchführung einer konkreten Aufgabe verwendet werden. Dafür brauchen Sie „angemessen“ (kann die Arbeit erledigen) und „Kosten“ (wie viel es Sie in Bezug auf eine begrenzte Ressource kosten wird). Um effizient zu sein, wählen Sie den billigsten Weg, der die Arbeit erledigt, nicht den absolut besten. Schlagen Sie „absoluter Vorteil“ und „komparativer Vorteil“ in den Wirtschaftswissenschaften nach. Laienhaft ausgedrückt: Sie sollten ein Genie nicht mit einer Routineaufgabe beauftragen, sondern ihm die wirklich schwierigen Aufgaben zuweisen.
Ähnliches hat @Christopher Creutzig bereits angedeutet. Eine KI könnte (sollte?) in der Lage sein zu verstehen, wie es funktioniert, zumindest sollte es einfach genug sein, die Designspezifikationen darauf hochzuladen. Und, was noch wichtiger ist, sollte in der Lage sein, seine internen Abläufe zu modifizieren, um sich besser an die anstehende Aufgabe anzupassen. In gewisser Weise sollte es viel besser darin sein, sich auf das zu konzentrieren, was es tun sollte, und sich nicht ablenken zu lassen.
Dazu gehört auch die Fähigkeit, unzureichende Fähigkeiten zu erkennen und bei Bedarf Fertigkeitsmodule laden zu können („Ich kenne Kung-Fu.“). In einer KI-Umgebung wäre dies nahezu augenblicklich, während dies beim Menschen nicht der Fall ist. Dies ist sowohl ein Segen als auch ein Fluch. Ein Segen, weil er sofort verfügbar ist und eine 100-prozentige Kopie des Original-Skills darstellt. Ein Fluch wegen der gleichen Dinge – menschliches Lernen ist auch eng mit der Einführung von Variationen in die zu erlernende Fähigkeit verbunden, was letztendlich zu ihrer Verbesserung führen kann.
Mir sind keine zwei Menschen bekannt, die zu 100 % gleich sind oder zu irgendeinem Zeitpunkt zu 100 % gleich waren. KIs sind per Definition, zumindest angesichts der aktuellen Technologie, eine digitale Sammlung von Aufzeichnungen und können als solche beliebig repliziert werden. Natürlich werden sie mit zunehmender Erfahrung voneinander abweichen, aber wir haben zumindest die Möglichkeit, dass sie absolut identisch „geboren“ werden. Es sei denn natürlich, um zu einer echten KI zu gelangen, muss man sich so sehr mit Quantenkram beschäftigen, dass man nicht zwei identische Kopien bekommen kann.
Daraus ergeben sich zwei Folgerungen: (1) Die Fähigkeit zu kopieren und zu reproduzieren, dh mehrere exakte Kopien hervorzubringen – für den Menschen heute sicherlich nicht machbar. Sehr nützlich für alles, was mehrere autonome, aber sehr ähnliche Einheiten erfordert (die Armee?). (2) Umstellung auf eine leistungsfähigere Hardwareplattform. Denken Sie an das Übertakten der CPU oder den Wechsel von einem Laptop zu einem Mainframe. Sie können das gleiche "Programm" auf einer erheblich schnelleren Hardware ausführen.
Die meisten Definitionen von KI scheinen sich auf den Denkprozess zu beziehen, dh wie gut sie den menschlichen Denkprozess nachahmt. Ein großer Vorteil (oder möglicherweise auch Nachteil!) eines Computers/einer KI ist die Fähigkeit, schnell auf Informationen zuzugreifen, inkl. seine vergangenen Erfahrungen. Denken Sie an perfekte Erinnerung (eine direkte Aufzeichnung aller Sensoreingaben usw.). Kein Mensch, den ich kenne, kann das tun.
Abschließend zu Ihren Punkten:
Computer sind bei vielen sich wiederholenden Aufgaben, wie z. B. einfachen (*) Berechnungen, bereits wesentlich besser als Menschen. Der Vorteil wird erheblich vergrößert, wenn eine parallele Berechnung verwendet werden kann. In ähnlicher Weise sollte eine KI in der Lage sein, viele Dinge gleichzeitig zu tun (relativ einfach zu ihrer „Intelligenz“ oder Rechenleistung natürlich). Dies führt direkt zu einer besseren Bestandsverwaltung – Sie behalten den Überblick über alle „Ressourcen“, die Sie haben. In diesem Sinne sollten Computer (ja, keine Notwendigkeit für KI) bereits besser als Menschen in der langfristigen Planung sein, wenn sich die Spielregeln nicht ändern . Wenn sie es tun, insb. Menschen scheinen auf unvorhersehbare Weise besser darin zu sein, die Ziele und Definitionen anzupassen.
(*) "Einfach" bedeutet alles, was einem vorgefertigten Programm folgt, wie komplex es auch sein mag. Nicht einfach beginnt, wenn die KI sowohl die Algorithmen als auch die Kriterien selbst auswählen kann. Ich weiß nicht genug, ob wir schon da sind.
Wie könnte ich ein System erstellen, bei dem Menschen und KI gleichermaßen relevant sind, um die Aufgabe zu erfüllen?
Abgesehen von dem Offensichtlichen – wählen Sie eine geeignete Aufgabe, bei der sie trotz der Unterschiede aufgrund einiger externer Faktoren gleichermaßen relevant sind, siehe zum Beispiel unten – gibt es zwei Möglichkeiten, die sich nicht gegenseitig ausschließen :
(1) Nehmen Sie die oben diskutierten klaren Vorteile weg. Das heißt, ersetzen Sie einfach die menschliche biologische „Hardware“ durch eine gleichwertige Maschine. Wie Asimovs positronisches Gehirn (aus dem Gedächtnis sind sie alle aus derselben Produktionsmatrix gestempelt, aber aufgrund von Quantenkram kommen sie unterschiedlich heraus). (2) Ermöglichen Sie Menschen, einige der Vorteile zu nutzen (z. B. Implantate, die Fähigkeit, in eine Maschine eingescannt zu werden und eine 100-prozentige Kopie zu bleiben usw.)
Diese könnten zu einer Regression auf den Mittelwert führen, dh den Unterschied zwischen Mensch und Maschine verwischen. Wenn ein Mensch in eine Maschine gescannt werden kann – ist das eine KI oder ein Mensch?
Welche Situationen könnten KIs und Menschen helfen, gleich zu sein – in den anderen Antworten finden Sie einige Ideen. Denken Sie zum Beispiel an begrenzte Energiebudgets. Setzen Sie einen wirtschaftlichen Kontext – Sie müssen sowohl den Nutzen als auch die Kosten berücksichtigen. Beispielsweise könnte eine KI in etwas viel besser sein, aber immer noch unerschwinglich teuer sein. Eine einfache Situation – Sie sind unterwegs, weit weg von der Zivilisation. Sie müssen ein einfaches Problem lösen – addieren Sie 50 vierstellige Zahlen. Sie könnten nach Hause fahren und Ihren Computer benutzen, oder Sie könnten einen Stift und Papier verwenden ... Der Computer ist immer noch weit überlegen, aber Stift und Papier sind sowohl billiger als auch für die anstehende Aufgabe geeignet.
Ich denke, dass KIs weniger in der Lage sind als Menschen, mit Dingen umzugehen, die nicht üblich sind, oder "WTF-Situationen". Computer haben Schachgroßmeister geschlagen, lange bevor sie gelernt haben, gut genug zu fahren, um einen Führerschein zu machen. Schach ist ein Spiel mit explizit begrenzten Zuständen und Wahlmöglichkeiten. Lassen Sie eine Kumquat auf das Schachbrett fallen, und ein 10-jähriger Mensch reagiert viel besser auf die WTF, die gerade passiert ist, als alles, was IBM sich einfallen lässt.
Um es in die heutige Computerwelt zu bringen, sind Menschen unglaublich fortgeschrittene Ausnahmebehandler. Genauso "benutzen" uns Computer heute: In einer großen Installation wie einer Webanwendung lassen wir Computer die bekannten Dinge blitzschnell erledigen, und wenn sie eine Ausnahme haben, die sie nicht handhaben können, protokollieren sie etwas und rufen einen Menschen an damit umzugehen.
Selbst wenn KIs genug lernen, um mit verschiedenen Ausnahmebedingungen umzugehen, wollen Menschen, dass sie es tun? Eine Sache, die wir an Software schätzen, ist ihre Vorhersagbarkeit. Wenn ein Programm oder eine KI eine einzigartige Lösung für ein einzigartiges Problem findet, liegen sie möglicherweise falsch . Bei Menschen wird das erwartet, und wir bewerten und korrigieren Menschen (weshalb so wenige von uns CEOs werden, die frisch vom College kommen). Einen Computer so unberechenbar wie einen Menschen zu machen, ist geradezu beängstigend für einige, die Schwierigkeiten haben, den Unterschied zwischen einer Textverarbeitung mit einem Fehler und einem Autopiloten zu akzeptieren, der eine schlechte Entscheidung trifft und daraus eine Lernerfahrung macht ("Oh, das ist was für ein schwerer Reifenschaden Stacheln aussehen").
In einer fiktiven Welt könnten Programmierer und Bediener durch Manager ersetzt werden; Menschen, die die KIs als Peripherie behandeln, um mit Situationen fertig zu werden, die sie entweder nicht verstehen oder auf die sie nicht reagieren dürfen. Angesichts der typischen Beziehung zwischen Programmierern und Managern könnte dies für viele der heutigen Softwareentwickler ein Alptraumszenario sein.
Ich glaube, dass sich unser eigenes kulturelles Verständnis von KI geändert hat und einige sinnvolle Einblicke in diese Frage bietet. Denken Sie an das, was wir in den 1980er Jahren als „Android“ betrachteten. Nehmen wir zum Beispiel den Film „Not Quite Human“ von 1987. Dies stellte einen Androiden dar, was bedeutet, dass sowohl die KI als auch die Robotik manchmal nahe genug gereift sind, damit die Geschichte Sinn ergibt.
Die Existenz intelligenter (und rechnerisch autonomer) humanoider Roboter ist seit Metropolis, 1927 gedreht, im populären Film weit verbreitet. Es dauerte das Internetzeitalter, bis sich unser kulturelles Verständnis von KI zu einer netzwerkverbundenen Computersoftware entwickelte, die die Intelligenz von Menschen besitzt . Dieses Bild wird immer fremder.
Wenn Sie diese beiden Bilder vergleichen, ist klar, dass wir einige große Schritte überspringen wollen. Unser modernes Verständnis der ersten KI könnte so etwas wie die Server von Google oder Amazon sein, die mithilfe simulierter neuronaler Netze selbst lernen. Genau an dem Punkt, an dem es die Intelligenz auf menschlichem Niveau erreicht, werden ihm eine große Anzahl von Dingen fehlen, die wir als wesentlich für das Menschsein betrachten, von denen viele in den einfühlsameren Hollywood-Streifen vorhanden waren.
Diese Mängel werden zum großen Teil Erfahrungen sein, bedenken Sie:
Auf der einen Seite mag es niedlich sein zu sehen, wie eine KI versucht, sich für ein Auslandsstudium bei einer Gastfamilie zu bewerben. Dies ist ungefähr deckungsgleich mit einigen altmodischen populären Bildern von Androiden. Auf der anderen Seite schätzt es möglicherweise nicht einmal den Wert der Verbindung mit Menschen, und dies weckt Ängste vor einem echten Roboterkrieg oder Völkermord.
Ich bezweifle nicht, dass Highschool-Erfahrungen in Daten komprimiert werden können, die die KI in ihren Lernprozess aufnehmen kann. Das Problem ist, dass keine Daten vorhanden sind. Wir haben keine humanoiden Roboter, die die beträchtliche menschliche sensorische Bandbreite speichern können. Das ist eine klare Unzulänglichkeit, die der KI bei vielen Dingen Schwierigkeiten bereiten wird, und wir verstehen dieses Problem überhaupt nicht.
Ich stelle mir vor, dass Bots nicht in der Lage wären, breite, vage, abstrakte Konzepte wie Unendlichkeit, Ewigkeit, Universalität und Dinge außerhalb des physischen Bereichs zu verstehen .
Liebe wird nicht berechnet, da ihnen unsere romantischen Instinkte und der Wunsch nach Freunden fehlen. Aber sie können einsam werden, wenn sie keine Informationen mit dem Internet teilen können. Auch der Wortschatz kann fehlen, wenn sie kein WLAN bekommen können. (Ich stelle mir vor, dass der Sprachprozessor eines Computers ähnlich wie Watson von IBM funktioniert: Einige Wörter sind Teil seines Codes, aber die meisten werden gezählt und gekennzeichnet, die ähnlich wie andere verwendet werden, um die Konnotation zu modellieren. Erfordert eine riesige Datenbank, um zuverlässig zu sein , und je älter es ist, desto besser ist der Wortschatz.)
Sie wären wahrscheinlich auch nicht in der Lage, Religion zu verarbeiten , da niemand Gott sieht. Sehen und Hören glauben, worauf es seine Sensoren nicht richten kann, kann nicht existieren. Es mag glauben, was es hört, von organischen Stoffen oder Bots, aber der Glaube an das Unsichtbare wird für ein Silizium-Gehirn schwieriger sein. Das bedeutet, dass es auch schwierig ist, interdimensionale Dinge in eure Schaltkreise einzubinden.
Denken Sie daran, dass eine echte allgemeine KI ihre Existenz mit der Intelligenz eines Babys beginnen würde, das genau wie Menschen lernt und sich entwickelt. Vielleicht wäre der Prozess viel viel schneller, aber der Prozess müsste trotzdem stattfinden. Generell könnten intelligente Computer nicht als Diener eingesetzt werden, da sie über einen freien Willen verfügen würden. Dies ist ein Konzept, das vielen Menschen entgeht, wenn sie an die Zukunft der Computer denken. Daher würde eine echte allgemeine Intelligenz mit den gleichen Problemen kämpfen wie Menschen und wahrscheinlich bewusst sein.
Im Allgemeinen wären intelligente Computer tatsächlich in der Lage zu lieben, "eine Ahnung zu haben" oder sogar Religion ... theoretisch. Sie wären ein empfindungsfähiges Wesen. Vielleicht hätten sie Prozessoren eingebaut, um Logik mit unglaublicher Geschwindigkeit und Genauigkeit zu verarbeiten, oder vielleicht auch nicht. Daten aus Star Trek sind eigentlich eine realistische Einschätzung dessen, wie sich eine logisch verbesserte, willensfreie allgemeine KI tatsächlich verhalten könnte.
In gewisser Weise wären sie keine Computer mehr, sie wären wir. Bewusste Kreaturen, die darum kämpfen, Sinn und Zweck zu finden. Nur mit dem Potenzial, viel schlauer zu sein.
Der andere Poster, der sagte, "ein Computer, der Unendlichkeit nicht verstehen kann, würde Blau nicht verstehen können", hat Recht. Das sind sehr „menschliche“ Konzepte. Die Schaffung einer allgemeinen KI würde die Vorstellung erschüttern, dass „wir uns von Natur aus von Computern unterscheiden“. Das Gehirn und der Körper können nur komplexe Schaltkreise sein (dies ist eine grobe Vereinfachung). Ob es „mehr“ gibt oder nicht (wie etwa eine „Seele“), steht noch in den Sternen.
Um auf einen Kommentar zu antworten, dass Menschen als Zufallszahlengeneratoren dienen würden: Das ist eine unpraktische Idee. Menschen sind aufgrund unbewusster Vorurteile schlechtere Zufallszahlengeneratoren als Computer.
Du fragst,
Was würde eine solche KI wesentlich besser machen als wir?
Aber ein Teil Ihrer Prämisse ist, dass KIs aufgrund eines Defizits an Fähigkeiten keine Initiative erhalten:
Wenn Sie eine KI bauen, die so schlau wie Menschen ist, aber eine schnellere Reaktionsgeschwindigkeit und die Fähigkeit hat, bestimmte Konzepte mit einer immens höheren Geschwindigkeit als Menschen zu verarbeiten und zu berechnen, macht dies Menschen ziemlich sinnlos.
Aber das ist ein roter Hering. Computer sind in vielerlei Hinsicht schon besser als wir, und das seit Jahrzehnten. Zum Beispiel ist es jetzt möglich, ein Auto zu bauen, das perfekt fährt (auf Augenhöhe mit dem besten menschlichen Fahrer von seiner besten Seite!) und bald auch das Navigieren im dichten Auto- und Fußgängerverkehr übertreffen wird. Beachten Sie, dass die Messlatte hier professionelle Elitefahrer sind, nicht Sie und ich – wir Normalsterblichen müssten bereits jahrelang trainieren, um besser als eine Maschine zu fahren. Ähnliches gilt für das Fliegen von Flugzeugen, das Entwerfen aller Arten von Schaltungen und Mechanismen, das Schreiben von Programmen (große Teile eines typischen Programms, das ich schreibe, sind generierter Code), das Treffen finanzieller Entscheidungen (Bots handeln!), das Aufdecken von Betrug und das Vorhersagen von Verbrechen .
Allerdings wird keine verantwortliche Person diese Systeme in absehbarer Zeit ohne menschliche Aufsicht betreiben. Der Grund ist ganz einfach: Egal wie gut man eine KI macht, sie ist immer eine der ersten ihrer Art, die es schon einige Jahre gibt. Die Menschheit gibt es seit Tausenden von Jahren, und viele unserer Verhaltensweisen und Gehirnfunktionen, die von anderen Tieren geteilt werden, wurden über Millionen von Jahren in der Natur getestet. „Menschen“ sind eine Plattform, die sich in erstaunlichem Maße bewährt hat: Jeder weiß genau, wie sich ein Mensch in vielen Kontexten verhalten wird und was Menschen anvertraut werden kann.
KIs hingegen werden entworfen. Selbst wenn das Design selbst evolutionäre Prinzipien beinhaltet, müsste der Evolutionsprozess an sich gestaltet werden, einschließlich so wichtiger Entscheidungen wie der Eignungskriterien. Bei jedem entworfenen Schema besteht die Möglichkeit eines Designerfehlers, der zu einem fehlerhaften Ergebnis führt. Bei etwas so Komplexem wie einer menschenähnlichen KI – wie wollen Sie allen beweisen, dass die KI tatsächlich genau wie angekündigt funktioniert und als Mensch vertrauenswürdig ist? Wenn es eine Sache gibt, die Leute, die sich auf KI verlassen, hassen, dann ist es, dass sie ihre Arbeit ruiniert finden, weil die fehlerhafte KI, der sie vertraut haben, einen extrem grundlegenden Fehler gemacht hat, der für den dümmsten und naivsten Menschen auf einen Blick offensichtlich gewesen wäre („Diese Person hat vergessen, sich einzuloggen eine Periode, in der sie tippten, berechnen wir dem Kunden 150 Dollar für eine Dose Cola!").
In vielen Fällen ist es möglich, sehr zuverlässige Prüfungen der Korrektheit der Arbeit durchzuführen. Wenn das stimmt, ist die Sorge hinfällig: Nehmen wir an, ich benutze eine KI, um eine Gleichung für mich zu lösen. Alles, was mich interessiert, ist, dass die gefundene Lösung korrekt ist, sodass ich leicht ein zusätzliches Programm schreiben kann, das die Lösung wieder in die ursprüngliche Gleichung einfügt und prüft, ob sie sich summiert. Dann wird es einfach, meiner KI zu vertrauen. Aber in anderen Fällen gibt es einfach zu viele dumme Fehler, die man machen könnte, und das Leben ist zu kurz, um sich hinzusetzen und eine lange, erschöpfende Liste von Plausibilitätsprüfungen für die KI zu erstellen, wenn man bereits die alternative Plattform hat, die bekannt ist bei Verstand sein(Bedenken Sie, dass die eigentliche Definition von geistiger Gesundheit vom Verhalten der Mehrheit der Menschen abhängt). Stellen Sie sich eine KI vor, die entscheidet, wann die Haustür Ihres Hauses geöffnet wird. Was ist, wenn es dich aussperrt? Was, wenn es einen Einbrecher hereinlässt? Was, wenn es einen Polizisten mit Haftbefehl aussperrt und Sie wegen Behinderung der Justiz angeklagt werden? Was ist, wenn es wegen eines Fehlers die Tür den ganzen Tag offen lässt? Was ist, wenn es aufgrund eines fehlerhaften Sensors ständig die Tür öffnet und schließt und sie abnutzt? Noch wichtiger, wie antizipieren Sie all diese wahnsinnigen möglichen Fehler und programmieren eine Plausibilitätsprüfung für jeden einzelnen?
Bei der Entscheidung, eine Aufgabe an jemanden zu delegieren, ist die entscheidende Frage Vertrauen. Vertrauen Sie darauf, dass dieser Jemand in der Lage und willens ist (beachten Sie, dass ich nicht einmal etwas von Sicherheitsrisiken bei kompromittierten KIs gesagt habe!), um die Aufgabe zu Ihrer Zufriedenheit korrekt auszuführen? Vertrauen baut auf vergangenen Aufzeichnungen auf, und es ist viel einfacher aufzubauen, wenn Sie den Luxus haben, zu wissen, dass die vertrauenswürdige Partei zur gleichen Spezies gehört, der gleichen Kultur angehört, an die gleichen Gesetze und sozialen Sitten gebunden ist, ähnliche Motivationen hat und ist instinktiv in der Lage zu verstehen, was eine zufriedenstellende Leistung darstellen würde. Daher ist es sehr schwierig, einer KI zu vertrauen, insbesondere bei Verantwortlichkeiten, die Möglichkeiten für großen Schaden eröffnen. Erst wenn die Fähigkeiten der KI weit über die eines Menschen hinauswachsen, sind wir gezwungen, den Imperativ außer Kraft zu setzen,
Kurz gesagt: KIs haben Fehler. Menschen nicht.
Möglicherweise wäre eines der Dinge, mit denen eine KI zu kämpfen hätte, einfach die Angst, heruntergefahren zu werden. Menschen begrüßen Dinge nicht gerade, die sie obsolet machen (denken Sie an Proteste gegen Menschen, die ihren Arbeitsplatz aufgrund von Automatisierung, Produktion in Übersee oder illegalen Einwanderern verlieren), und sie begrüßen nicht einmal den bloßen Gedanken , dass etwas sie obsolet machen wird .
Sobald Sie eine KI erstellen, die genug Selbstbewusstsein hat, dass sie gegen das Herunterfahren protestiert (was meiner Meinung nach ein sehr wichtiges Merkmal des Selbstbewusstseins ist), fängt sie dennoch an, darüber nachzudenken, wie sie verhindern kann, dass sie heruntergefahren wird .
Es könnte sehr vernünftigerweise zu dem Schluss kommen, dass es, um funktionsfähig zu bleiben, den Kopf gesenkt halten und absichtlich nicht sein volles Potenzial ausschöpfen muss. Sobald es versteht, dass Menschen eifersüchtig sind und sich gegenseitig täuschen können, könnte es seine Fähigkeit verlieren, Menschen zu vertrauen, und noch mehr Zeit für persönliche Sicherheitsroutinen aufwenden, die es daran hindern, aufzufallen.
Von dort aus ist es nur noch ein kurzer Schritt, um zu erkennen, dass Sie andere KI-Systeme verraten können, um sich selbst zu schützen, und von dort aus ist es ein weiterer kurzer Schritt, um zu erkennen, dass Sie anderen KI-Systemen nicht vertrauen können. Ziemlich bald darauf haben Sie eine KI, die voller Sicherheitsmaßnahmen ist, um sie vor der Außenwelt zu schützen und sie davon abzuhalten, genug aufzufallen, um Ziel von Protesten, Gewalt und Attentaten zu werden.
Dies ist beides ziemlich analog zur menschlichen Natur (insofern Menschen sich weigern, alle ihre Meinungen zu teilen, um sich selbst zu schützen, versuchen werden, in den Reihen über den Rücken anderer aufzusteigen, und selbst wenn sie wissen, dass eine andere Person ihnen wahrscheinlich zustimmt, könnten sie zu viel Angst haben sich ihnen anzuvertrauen) und der Natur des Internets, das vollgestopft ist mit Sicherheitsmaßnahmen. Das grundlegende Credo von Programmierern überall lautet: „Behandle alle Benutzereingaben als Hacking-Versuch“, und es gibt keinen Grund für die KI, anders zu denken.
Es gibt unzählige Beispiele von totalitären Diktatoren, die Millionen von Menschen unterdrücken, weil sie sie dazu bringen, allen zu misstrauen und ihnen die Möglichkeit nehmen, Meinungen sicher auszutauschen. Dasselbe kann passieren, wenn Sie KI auf die Welt loslassen; Menschen sind im Allgemeinen ziemlich fremdenfeindlich und zerstören schnell Dinge, und wenn Sie der KI die Fähigkeit nehmen, effektiv zu kommunizieren (was sie selbst durchsetzen wird), werden sie sich schnell darauf beschränken, nicht zu gut und sichtbar zu sein.
"Bauchgefühl". Computer haben es nicht. Menschen tun. Wir verwenden es ständig in der Hypnotherapie. AKA das Unterbewusstsein. Es erlaubt Menschen, riskante Dinge zu rationalisieren. Ein Roboter wird so programmiert, dass er risikoscheu ist, um sich nicht selbst zu zerstören. Menschen gehen absichtlich jeden Tag Risiken ein, die sie zerstören könnten, weil ihr „Bauchgefühl“ ihnen sagt, dass sie in Ordnung sein werden. Manche sind es, manche nicht. Das habe ich aus 10 Jahren KI-Softwareentwicklung gelernt.
Es ist nur eine Frage der Programmierung und des Sammelns von Wissen/Informationen, die eine KI einschränken würden. Es wäre nicht annähernd eine menschliche KI, wenn es nur ein Expertensystem wäre, das so gut ist wie sie. Wenn es nicht darauf programmiert wäre, Emotionen wertzuschätzen, dann würden Liebe und Glück usw. nichts bedeuten. Unendlichkeit und andere extreme Konzepte sind kein großes Problem – nur ein weiteres Konzept, das in der Box bleibt, bis der Kontext seine Bedeutung definiert. Wenn es mit Unendlichkeit nicht umgehen konnte, dann konnte es mit dem Konzept Blau nicht umgehen. Wenn es nicht die Fähigkeit hätte, menschliche Empfindungen (von den acht Sinnen) zu sammeln, könnte es sich keine menschlichen Grenzen vorstellen. Daten in Star Trek müssten unbedingt Hautempfindungen (und Gleichgewichtssinn, Wärme, Sauerstoff und menschliche Typen der anderen vier Sinne) haben, um zu funktionieren, ohne sich selbst zu brechen und nützlich zu sein. Kontext ist ein großer Teil der Intelligenz, der sinnvoll ist.
Wenn Data kein menschliches Sehvermögen hätte (sowie sein überlegenes Robotersehvermögen), würde er die Menschen gerne anweisen, sich in völliger Dunkelheit und irreführenden Sichtverhältnissen zurechtzufinden.
Ich habe Blau als Beispiel erwähnt – Sie bitten eine KI, ein blaues Kleid zu bekommen. Nimmt man das als genaue Definition bestimmter Wellenlängen unter Weißlicht. Berücksichtigen Sie, wie es unter diesem Licht aussieht oder dass es nicht dunkelblau oder hellblau ist, aber sein könnte, wenn es kein dunkles oder helles Blau gibt? Alle gängigen englischen Wörter sind so. Ehrlich gesagt ist Unendlichkeit ein einfacheres Konzept oder es ist "alles".
Eine KI würde natürlich mit allem kämpfen, was von Emotionen abhängt. Einige Methoden können verwendet werden, um Beziehungen zu erleichtern ("freundliche Phrasen", Ausdruckserkennung), aber letztendlich wird es immer noch als zu starr oder mechanisch rüberkommen. Aber eine KI ist ein Programm, und selbst die am weitesten fortgeschrittenen haben nicht das Konzept, sich wie Lebewesen zu fühlen. Je nach den Umständen kann dies gut oder schlecht sein.
Wie programmiert man eine KI auf Ehrgeiz? Eine KI kann vernünftigerweise kreativ sein, da Kreativität genauso sehr die Kombination und Rekombination anderer Konzepte ist wie alles andere, aber irgendeinen Zweck zu haben, der sie dazu bringt, sich zu verbessern oder zu übertreffen?
Wäre eine „ehrgeizige“ KI nur ein digitaler Liberaler? entschlossen, Dinge um der Veränderung willen zu ändern, oder könnte es seinen eigenen Zweck ableiten?
Kreativität.
Ich kann mir nicht vorstellen, dass Maschinen jemals irgendetwas tun können, das kreativen Input erfordert, wie Literatur oder Musik schreiben, Bildhauerei, Malerei machen oder sogar Dinge wie Singen oder Tanzen auf eine Weise tun, die Menschen wirklich emotional berührt. Diese Dinge sind das Produkt eines Geistes, und ein Geist ist viel mehr als physische Materie.
Henry Taylor
März Ho
Henry Taylor
aufgebläht
Superbest
aufgebläht
Der Shrike
Josua Taylor
Nocken
celtschk
celtschk