Womit würde eine KI auf nahezu menschlichem Niveau noch kämpfen?

Viele Geschichten haben bereits KIs gemacht, aber viele von ihnen fühlen sich unrealistisch an. Wenn Sie eine KI bauen, die so schlau wie Menschen ist, aber eine schnellere Reaktionsgeschwindigkeit und die Fähigkeit hat, bestimmte Konzepte mit einer immens höheren Geschwindigkeit als Menschen zu verarbeiten und zu berechnen, macht dies Menschen ziemlich sinnlos. Die Frage, die mir immer bleibt, ist, warum die Menschen überhaupt in die Geschichten involviert sind, warum nicht der KI sagen, was sie tun soll, und sie Dinge tun lassen? Verlangsamt eine menschliche Schnittstelle die Dinge nicht nur?

Ich möchte mir also eine Welt vorstellen, die über intelligente KI verfügt, aber den Menschen nicht von Natur aus überlegen ist. Stellen Sie sich eine Situation vor, in der ein kleines Team aus Robotern und Menschen an einer komplexen Aktivität beteiligt ist, etwas körperlich Herausforderndes, das langfristige Planung, Anpassung und schnelle Reflexe erfordert. Wie könnte ich ein System erstellen, bei dem Menschen und KI gleichermaßen relevant sind, um die Aufgabe zu erfüllen?

Ich nehme an, der Trick wäre, zu verhindern, dass die KI eine Intelligenz auf menschlichem Niveau hat, aber wie würde eine solche KI aussehen? Angenommen, die KI ist in der Lage, grundlegende Gespräche zu führen, Sätze zu analysieren und mindestens auf dem Niveau eines kleinen Kindes zu kommunizieren und verfügt über große Verarbeitungsgeschwindigkeiten und Speicher, womit würde sie kämpfen? Wofür ist das menschliche Gehirn besser geeignet als für jede Silikon-KI, die wir in naher Zukunft entwickeln könnten? Würde diese KI nicht in der Lage sein, in die ferne Zukunft zu planen, weil sie immer noch an dem Ansatz „verarbeite jedes mögliche Ergebnis eine Iteration nach der anderen“ arbeitet? Würde es ihnen an Kreativität usw. mangeln?

Was würde eine solche KI wesentlich besser machen als wir?

Mich würde nicht nur interessieren, welche Grenzen sie haben, sondern auch Ihre Gedanken zu den Ursachen der Grenzen, warum ist die Implementierung der KI, die wir haben, weniger in der Lage, eine bestimmte Aufgabe zu erledigen, als ein normaler Mensch?

Vor vielen Jahren las ich eine Geschichte, in der Menschen als Zufallszahlengeneratoren dienten, um ihre Sternenjäger weniger vorhersehbar zu machen. Es scheint, dass die KI-Piloten immer die beste strategische Entscheidung treffen, was sie extrem vorhersehbar macht. Der Zweck des Piloten war es daher, in der Hitze des Gefechts schlechte Entscheidungen zu treffen und die feindlichen KI-basierten Raumjäger ständig unvorbereitet zu erwischen.
@HenryTaylor Obwohl es ein interessantes Handlungselement ist, bricht es meinen Unglauben, denn solange der KI-Starfighter Zugang zu einer kryptografischen Zufallszahlenquelle hatte, konnten sie leicht schlechte Entscheidungen in die KI pfeffern.
Einverstanden, aber diese Geschichte ist lange her und anscheinend werden die Auslöser für unsere Aufhebung des Unglaubens im Laufe der Jahre leichter. Damals fand ich das cool.
@HenryTaylor Wenn wir uns mit einer bestimmten Technologie vertraut machen, wird es immer schwieriger, die Leute dazu zu bringen, eine Handbewegung darüber zu akzeptieren. Aus diesem Grund erschafft Sci-Fi immer neue Technobable, die wir bei uns anwenden können. Fragen Sie einfach tvtropes, warum Gentechnik die neue Nuke ist :)
@MarchHo Vielleicht sind die zufälligen Entscheidungen eines Computers nicht so nützlich wie die (Pseudo-)zufälligen Entscheidungen eines Menschen. Zugegeben, Menschen hätten auch eine Voreingenommenheit, die die feindliche KI lernen könnte, daher bin ich mir auch nicht sicher, wie dies helfen könnte. Vielleicht ist diese Erkenntnis jedenfalls erst kürzlich entdeckt worden und die Technologie zur Integration des Zufalls in die KI noch in der Entwicklung?
@MarchHo, solange Sie ihren ursprünglichen Seed als geheime Zufälligkeit oder etwas, das der Zufälligkeit für die meisten Zwecke ausreichend nahe kommt, beibehalten können, ist dies jetzt ziemlich einfach. Es geht nur darum, eine komplexe mathematische Berechnung durchzuführen, die bestimmte Prinzipien hat, die effektiv „echte Zufälligkeit“ emulieren. Es ist auch möglich, nahezu zufällige Umweltfaktoren als Ausgangspunkt zu verwenden. Die KI müsste programmiert werden, um diese Randomisierung zu nutzen, aber im Vergleich zu einigen KI-Herausforderungen ist die Zufälligkeit ziemlich trivial.
Robot and Frank ist das beste Beispiel für eine glaubwürdige künstliche Intelligenz, die ich je gesehen habe. Außerdem ist es ein toller Film.
Obwohl viele Dinge, die für Menschen schwierig sind, für die KI einfach sind und viele Dinge, die für Menschen einfach sind, für die KI schwierig sind, gibt es eine einfache Antwort auf „Womit würde eine KI auf nahezu menschlichem Niveau noch kämpfen?“ wäre einfach eine Liste von Dingen, mit denen Menschen immer noch zu kämpfen haben. Dies gilt insbesondere dann, wenn die KI so konzipiert ist, dass sie menschliche Kognition und Problemlösungsstile nachahmt und nicht nur eine mechanisch effiziente Lösung.
Schuhe binden ist wahrscheinlich nicht die richtige Antwort.
Depressionen, offensichtlich. Fragen Sie einfach Marvin.
„Die Frage, die mir immer bleibt, ist, warum die Menschen überhaupt in die Geschichten involviert sind, warum nicht der KI sagen, was sie tun soll, und sie Dinge tun lassen? Verlangsamt eine menschliche Schnittstelle die Dinge nicht nur?“ — Die KI wurde von Menschen gebaut, um Menschen zu dienen. Menschen haben gerne die Kontrolle. Das Landeverfahren des Space Shuttles hatte einen Knopf, um die Räder bei der Landung herauszunehmen. Es ist nicht so, dass der Computer den besten Zeitpunkt dafür nicht viel besser hätte bestimmen können, es ging ausschließlich darum, dass die Astronauten das Gefühl haben, die Kontrolle zu haben.

Antworten (18)

Wir würden solche intelligenten Roboter entwerfen, um unsere eigenen Fähigkeiten zu ergänzen. Bevor wir gottähnliche Superintelligenzen erschaffen können, werden wir zuerst das machen, was für uns nützlich ist: Mit begrenztem Funktionsumfang und begrenzter Kapazität würden wir zuerst implementieren, was wir brauchen , und nicht duplizieren, was wir bereits tun.

In dieser Umgebung werden Sie also natürlich feststellen, dass die Roboter unterschiedliche Fähigkeiten mit einer großen Nichtüberschneidung haben.

Persönlich denke ich, dass die frühe KI Gelehrte auf engstem Raum sein und nichts anderes verstehen wird, einschließlich der menschlichen Kultur. Vielleicht wird es Experten erfordern, mit ihnen zu kommunizieren, obwohl sie "natürliche" gesprochene Sprache verwenden können, weil das Sprechen normalerweise mit kulturellem Kontext und Redewendungen gefüllt ist - es wäre eher wie Programmieren oder SQL-Abfragen.

Das klingt eher nach einem Expertensystem , nicht wirklich nach einer allgemeinen KI.
Ich denke, ein Expertensystem wäre ein Schritt darüber hinaus und würde allgemeinere Fähigkeiten zur Verarbeitung von Intelligenzwissen aufgreifen als die begrenzten formalen Systeme, die von funktionierenden Expertensystemen verwendet werden. Außerdem mischen funktionierende Expertensysteme nicht verschiedene logische Systeme, sondern sind darauf vorbereitet, eine richtig begründete Lehrbuchantwort zu verteidigen.
Sie denken, ein Expertensystem wäre ein Schritt über die begrenzten formalen Systeme von Expertensystemen hinaus? Ich glaube, wir stimmen darin überein, dass wir mehr brauchen als ein Expertensystem, aber was Sie als die frühen gebietsspezifischen Savant-KIs beschreiben, klingt wie ein normales Expertensystem.
"frühe KI wird Gelehrte auf engstem Raum sein und nichts anderes verstehen" Frühe KI ist dies bereits.
Ich habe gerade das Bild der zukünftigen KI als eine Art Quasi-Asperger bekommen. einige Aspy-Eigenschaften teilen, wenn es darum geht, bestimmte nonverbale menschliche Kommunikation zu verstehen; und vielleicht etwas Hyperfokus auf bestimmte Themen, mit einem Intellekt auf Savant-Niveau. Also weniger echte Asperger und eher so, wie diejenigen, die das autistische Spektrum nur aus Mediendarstellungen wie Rainman kennen, sich vorstellen können, dass Aspy sich verhalten würde.

Roboter-KIs würden nach unseren Maßstäben unausgereift erscheinen

Da KIs auf Computern aufgebaut sind, gehe ich davon aus, dass ihre deduktiven Fähigkeiten unübertroffen sein werden. Das ist es, was Computer historisch gut können. Die Unterschiede zwischen KIs und Menschen würden sich darin zeigen, wie sie mit induktivem Denken umgehen.

Ein wesentlicher Teil des induktiven Denkens besteht darin, eine „Vorahnung“ für die richtige Vorgehensweise in einer Situation zu haben, die Sie noch nie zuvor analysiert haben. Dies ist sehr wichtig für Situationen, in denen Sie beim ersten Mal richtig handeln müssen und es nicht möglich ist, für die Aktivität zu trainieren. Zum Beispiel würden wir ihnen als Piloten misstrauen. Menschen haben gegenüber computergesteuerten Piloten ein bemerkenswertes Misstrauen gegenüber der Theorie gezeigt, dass menschliche Piloten „etwas mehr“ haben.

Wir sehen diese Art von Problem im Umgang mit Kindern. Kinder sind im Allgemeinen eher bereit, ein Risiko einzugehen, nur um zu sehen, was passiert; Erwachsene entwickeln etwas, das wir gerne „Zurückhaltung“ nennen.

Kultur bietet uns einen Rahmen, um diese induktive Logik zu „lernen“. Über Jahrhunderte haben wir die besten Methoden entwickelt, um ein Gehirn mit guten Verhaltensweisen zu indoktrinieren (oder zumindest glauben wir gerne, dass sie die besten sind). Wir verwenden blumige Prosa und Gleichnisse, um das Unbelehrbare zu lehren.

Unsere gesamte Kultur ist darauf ausgelegt, menschliche Gehirne zu lehren, nicht KI-Gehirne. Das bedeutet, dass es für eine KI schwieriger wäre, unsere Lehren zu nutzen, als für ein Kind, dasselbe zu tun. „Heimat ist, wo das Herz ist“ ist außerordentlich schwer zuzuordnen, wenn „Heimat“ ein sehr abstraktes Wort ist und „Herz“ ein Organ ist, das man als KI nicht hat.

Eine KI könnte Jahrhunderte brauchen, um ihr eigenes kulturelles Äquivalent zu entwickeln.


  • KIs wären schlecht darin, das Verhalten einzelner Menschen vorherzusagen. Wir verbringen buchstäblich unser ganzes Leben in einer Kultur, die uns dabei helfen soll – und wir sind immer noch schlecht darin.
  • KIs würden kein Menschenleben anvertraut, bis ihre Fähigkeiten bei einer Aufgabe die von Menschen bei weitem übersteigen. Es wäre schwierig, sie mit solchen Aufgaben zu betrauen, wenn man bedenkt, wie wenig wir ihren One-Shot-Fähigkeiten vertrauen können.
  • KIs würden nicht mit vagen Aufgaben wie „diesen Kindern Geschichte beibringen“ betraut. Einige Themen sind für standardisierte Tests zugänglich, die Computer sehr effektiv bewältigen können. Andere Fächer wie Geschichte und Englisch sind viel schwieriger zu quantifizieren.
  • KIs wären schlecht bei breit formulierten Aufgaben. Sie werden sich bei genau definierten Aufgaben als sehr geschickt erweisen, aber unschärfere Aufgaben erfordern Kultur, um das Verständnis zu unterstützen (beachten Sie die kulturellen Probleme beim Bau eines Gebäudes auf fremdem Boden ... sie sind schlimm genug).
  • Seltsamerweise versuchen die effektivsten KIs möglicherweise absichtlich nicht , ihre computerähnlichen Fähigkeiten zu maximieren. Sie können stattdessen versuchen, sich so menschenähnlich wie möglich zu machen, auch wenn dies oberflächlich gesehen alles andere als ideal ist. Diese Menschenähnlichkeit würde es ihnen erleichtern, sich in unserer Kultur zu indoktrinieren. Je schneller sie das tun, desto mehr dürfen sie handeln und desto mehr können sie wie ein Lebewesen an der Aktion wachsen. Dann sind sie in der Lage, unsere Kultur anzupassen, um mehr computerähnliche Verhaltensweisen zu akzeptieren. Im Idealfall endet dies in einem Gleichgewicht (weil ich zu viele Science-Fiction-Filme gesehen habe, in denen der Computer verrückt spielt ... Ich bin viel mehr daran interessiert, die Fälle zu finden, in denen er nicht verrückt spielt)
Ist eine menschenähnliche KI mit heutigen Computern machbar? Wird es Quantencomputer, Fuzzy-Logik und ähnliche Attribute brauchen, um überhaupt die Möglichkeit von nahezu menschlichen KIs zu ermöglichen, die auch die entstehende Fähigkeit, eine Ahnung zu haben, ermöglichen?
Jetzt möglich, aber wer würde eine Billion Dollar für einen Computer ausgeben, der immer noch schlimmer als ein Mensch ist und nichts besser macht - Sie können in Neuronalnetzforschern sehen, dass sie nicht Tausende von Knoten erstellen, weil dies zu einem Ergebnis für ein Problem führt das sie nicht verstehen können.
@ user2617804: Das stellt sicherlich in Frage, ob der Begriff „auf menschlicher Ebene“ überhaupt ein gutes Maß für eine KI ist, obwohl ich ohne weiteres zugebe, dass dies der beste Begriff ist, den wir bisher haben.

Sie scheinen anzunehmen, dass eine KI dem Menschen in gewisser Weise ziemlich ähnlich wäre. Das ist eine ziemlich strenge Einschränkung, aber ich nehme an, es macht es einfacher, eine Geschichte zu erzählen.

Also, wenn KIs tatsächlich Menschen ähnlich sind, aber Menschen in bestimmten Aspekten übertreffen, und Ihre Frage lautet: „Was ist der Grund in der Welt, immer noch (traditionelle) Menschen in der Nähe zu haben?“, wäre meine Chance auf eine Antwort: „Denn Aus demselben Grund haben wir mehr als einen Menschen.“ Wenn Ihre KIs Menschen im Wesentlichen nahe stehen, neigen sie dazu, Rollen zu übernehmen, die traditionell von Menschen ausgefüllt werden.

JFTR, lassen Sie mich auf einen meiner Lieblingsärgernisse einprügeln: Viele SciFi-Autoren neigen dazu anzunehmen, dass eine fortgeschrittene KI verstehen würde, wie sie selbst funktioniert. Ich verstehe nicht, warum das so sein sollte. Selbst wenn man davon ausgeht, dass seine Erbauer es tun (und es gibt oft eine Lücke zwischen dem, was wir als Computeringenieure bauen können, und dem, was wir als Informatiker erklären können, ganz zu schweigen von der Zusammenarbeit zwischen Experten auf verschiedenen Gebieten), ist es unwahrscheinlich, dass dies das Erste ist, was sie lehren ihr Baby.

Viele der Antworten hier erwähnen Dinge, die richtig klingen, aber für diejenigen, die mit maschinellem Lernen gearbeitet haben, wirklich keinen Sinn ergeben. Ich werde einige ansprechen:

Wir würden zuerst das implementieren, was wir brauchen, und nicht wiederholen, was wir bereits tun

Obwohl dies logisch klingt, haben künstliche neuronale Netze tatsächlich gezeigt, dass sie tiergehirnähnliche Aufgaben ausführen, ohne darauf programmiert zu sein . Zum Beispiel begannen automatisch zuhörende Maschinen, Hintergrundgeräusche zu filtern und Tiergeräusche zu verstärken. Es gab kürzlich eine Innovation mit ähnlichen Ergebnissen in Bezug auf Computer Vision, obwohl ich mich nicht an die Details erinnere.

Da KIs auf Computern aufgebaut sind, gehe ich davon aus, dass ihre deduktiven Fähigkeiten unübertroffen sein werden. Das ist es, was Computer historisch gut können. Die Unterschiede zwischen KIs und Menschen würden sich darin zeigen, wie sie mit induktivem Denken umgehen.

Induktives Denken beim maschinellen Lernen wird als unüberwachtes Lernen bezeichnet, es ist eine Form der Vektorquantisierung und extrem fortschrittlich. Es stellt sich heraus, dass Maschinen besser darin sind, bekannte Lösungen auf neue Lösungen zu verallgemeinern und auch zu identifizieren, welche Elemente bei der Mustererkennung nicht berücksichtigt werden sollen. KI ist bereits besser im induktiven Denken als Menschen.

Ich stelle mir vor, dass Bots nicht in der Lage wären, breite, vage, abstrakte Konzepte wie Unendlichkeit, Ewigkeit, Universalität und Dinge außerhalb des physischen Bereichs zu verstehen. Liebe wird nicht berechnet, da ihnen unsere romantischen Instinkte und der Wunsch nach Freunden fehlen.

Tatsächlich versteht KI sehr viel besser als Männer, was romantische Frauen wollen, und versteht besser als Frauen, was romantische Männer wollen. Diese Tatsache gilt auch, wenn der romantische Aspekt außer Acht gelassen wird: Die KI weiß besser als Sie, was Ihr Partner will. Und KI ist bereits besser darin, Partner für erfolgreiche langfristige Beziehungen auszuwählen als Menschen. Alle großen Dating-Sites verwenden KI ausgiebig.

Sie würden mit dem gleichen kämpfen, was Menschen tun: Mehrdeutigkeit

Nö. Die KI hätte mehr Kontext als der Mensch. Zum einen hat die KI möglicherweise Zugriff auf die Geschichte des Sprechers und subtile physiologische Hinweise. Zum anderen ist die KI möglicherweise in der Lage, die Ergebnisse beider Interpretationen zu berechnen und vorherzusagen und diese Informationen zu verwenden, um zu entscheiden, welche Interpretation richtig ist.

Ich stimme zu, dass ich als Programmierer einigen Aspekten einiger Antworten nicht zugestimmt habe, da sie die tatsächliche Computerentwicklung nicht zu berücksichtigen schienen, wie z. B. Ihr erster Aufzählungspunkt. Ich denke jedoch, dass Sie unserer aktuellen KI möglicherweise etwas zu viel Anerkennung zollen. Die „KI“, die Dating-Unternehmen verwenden, sind die grundlegendsten Regel-Engines, die es kaum verdienen, als KI bezeichnet zu werden, und sie sagen keine langfristigen Beziehungen voraus, sie verhindern nur, dass Menschen mit sehr unterschiedlichen Interessen zu den Suchergebnissen der anderen geschickt werden. Ich habe noch nie einen Hinweis darauf gesehen, dass KI irgendwelche menschlichen Wünsche vorhersagen könnte.
@dsollen: Ich grabe jetzt Links aus. Die KI der Dating-Sites ist ziemlich fortgeschritten, ich habe kürzlich eine Abhandlung darüber gelesen. Ich muss auch Links für meine anderen Ansprüche hinzufügen. Ich komme dahin.
Ich hatte auch den Eindruck, dass die KI von Dating-Sites tatsächlich ein Haufen sehr einfacher Korrelationsmethoden ist. Ich habe zugegebenermaßen nur begrenzte Erfahrung, aber in dieser begrenzten Erfahrung habe ich auch beobachtet, dass Dating-Sites sehr schlecht funktionieren, ebenso wie Empfehlungsmaschinen von großen Unternehmen wie Google, Amazon, Netflix und Pandora. Meistens ist die Logik extrem transparent, und ich hätte es leicht selbst machen können, wenn das Zahlenknirschen nicht langweilig wäre.
Ich bin auch nicht mit Ihrer Haltung zur Mehrdeutigkeit einverstanden. Was Sie sagen, ist, dass KI besser darin ist, Mehrdeutigkeiten zu reduzieren, nicht, dass sie besser damit umgehen können. Vielleicht wäre es besser gewesen, eines von Euphorics Beispielen zu zitieren und es als kein gutes Beispiel für Mehrdeutigkeit zu kritisieren. Zum Beispiel sind Menschen schrecklich darin, mit Risiken umzugehen, also gibt es viel Raum für KIs, besser zu werden.
Mir scheint jedoch, dass dies alles tatsächlich Beispiele dafür sind, dass Menschen Computer-KIs als Werkzeuge verwenden, um Dinge (Mustererkennung und Statistik) zu tun, die Menschen nicht sehr buchstäblich mit ihrem eigenen Gehirn tun. Die tatsächlichen zugrunde liegenden Verständnisse und Interpretationen und Werte und Gründe dafür, diese Dinge zu tun, stammen alle von den Menschen, die die KIs entworfen haben. Das ist eine Sache, die die meisten Science-Fiction-Schriften zugunsten der überzeugenden Metapher von KIs als potenziellem Ersatz für Menschen weglassen. Ohne die menschlichen Designer haben die KIs jedoch keinen wirklichen Willen oder Verständnis.
Menschen müssen immer mit ihren eigenen Erwartungen und ihrem aktuellen (oder übergeordneten) Kontext kämpfen, wenn sie versuchen, genaue Schlussfolgerungen zu ziehen. In zwischenmenschlichen Beziehungen gilt dies noch mehr als zu jeder anderen Zeit. Natürlich hat eine KI einige ähnliche und übertragene Probleme, aber synthetische Prozesse können so gestaltet werden, dass sie Interferenzen zwischen Datenströmen und Ableitungen strikt begrenzen und mehrere gleichzeitig ausführen ... und sich eines so "bewusst" sind wie jedes andere. Im Gegensatz dazu würden wir jemanden als besonders selbstbewusst bezeichnen, wenn er auch nur ein paar der Vorurteile identifizieren könnte, die seine Beurteilung beeinflussen.

Sie würden mit dem gleichen kämpfen, was Menschen tun: Mehrdeutigkeit

Egal wie gut Ihre KI ist, es ist praktisch unmöglich, genügend Daten zu sammeln, die gut genug sind, um „vollkommen logische“ Entscheidungen zu treffen.

KI müsste Entscheidungen auf der Grundlage unvollständiger Daten und Daten treffen, deren Richtigkeit nicht ordnungsgemäß überprüft werden kann. Dies ist im Grunde der Kern von Cort Ammons Antwort. Menschen lernen, solche Entscheidungen von Geburt an zu treffen, und unsere Gesellschaft ist so gemacht, dass wir mit den Auswirkungen dieser Entscheidungen leben können. Wir lernen, Risiken einzugehen und zu akzeptieren, und haben Institutionen, die uns vor Risiken schützen.

Je besser die KI wird, desto menschenähnlicher wird sie in ihrer Entscheidungsfindung sein. All diese „KI versucht, die Menschheit zu töten“-Geschichten handeln hauptsächlich von KI, die nicht versteht, dass der Versuch, die gesamte Menschheit zu töten, eine äußerst riskante Entscheidung ist und dass die Menschheit, die sich selbst schadet, nicht einmal eine garantierte Schlussfolgerung ist.

Knappheitsprobleme und Einschränkungen der Rechenleistung

Aus meiner Sicht liegt die Hauptbeschränkung für eine unbegrenzte Kapazitätserweiterung derzeit in der Miniaturisierung und im Stromverbrauch. Wir werden Verwendungsmöglichkeiten für Near-AGIs haben, sobald sie existieren können, sodass die ersten Near-AGIs in Bezug auf die benötigten Ressourcen an die Grenzen gehen werden:

Das könnte eines von zwei Dingen bedeuten:
1) Der „Gehirn“-Controller des Androiden ist tatsächlich nicht vor Ort und unterliegt daher einer Lichtgeschwindigkeitsverzögerung und Signalstörungen. Stellen Sie sich vor, Ihre Roboterpolizei zögert, den Verdächtigen in den Minenschacht oder das Faraday-Gebäude zu folgen, bevor sie unterwegs ein dauerhaftes Kommunikationsnetzwerk errichtet.

2) Hoher Stromverbrauch. Mit einer Handvoll superstarker KIs und Cybrids, die die Finanzsysteme der Welt leiten und ihr extravagantes Kit mit Gigawatt Leistung betreiben, ist Strom auch für grundlegende Menschen und KIs auf niedrigerem Niveau teuer, während der Bau neuer Kraftwerke Jahre dauert, was langsam ist im Vergleich dazu, wie schnell sich die Dinge im KI-Bereich bewegen.


Zusammenarbeit

Worin können Menschen und KI nun in einer AGI-nahen Umgebung zusammenarbeiten? Zunächst einmal muss jede KI- und Roboterinstanz hergestellt werden (und wird wahrscheinlich ziemlich teuer in der Anschaffung sein). In der Zwischenzeit werden wir bereits etwa 9 Milliarden fleischige, kompakte Arbeitskräfte haben. Selbst wenn Beinahe-AGIs bei jeder einzelnen Aufgabe, für die sie ausgebildet wurden, besser sind, würde es immer noch Jahrzehnte dauern, bis sie Zahlen aufgebaut haben, sodass die meisten Aufgaben immer noch von Menschen erledigt würden.

Near-AGI kann leicht Lügen erkennen (Blutfluss, unbewusste Veränderungen verschiedener Art), ist aber in den subtileren Aspekten der Kommunikation nicht so gut wie Menschen. Stellen Sie sich also Near-AGI als (begehrten und umkämpften) Aktivposten während eines CIA- oder FBI-Verhörs vor. Dein eigener künstlicher Sherlock, schade, dass es so wenige gibt.


Temporärer komparativer menschlicher Vorteil (neben Zahlen)
Allgemeiner gesagt, wäre Near-AGI Expertensysteme in jedem engen Bereich, in dem sie arbeiten könnten, also müssten menschliche Vorteile in der domänenübergreifenden Integration liegen.

Hier sind meine eigenen zwei Cent. Zunächst einige allgemeine Bemerkungen in zufälliger Reihenfolge:

1. Definition von „intelligent“

Entscheidend ist, wie Sie „intelligent“ definieren. Ich kenne mich mit Arbeiten zu diesem Thema nicht aus, aber zumindest im Alltag ist „intelligent“ nicht gleichbedeutend mit „gut in etwas Bestimmtem“. Man kann zum Beispiel intelligent und gut in Mathe oder gut in Literatur sein.

Würden Sie einen noch so komplexen Algorithmus als „intelligent“ bezeichnen? Wie das Beispiel für Dating-Sites, das jemand in einer anderen Antwort erwähnt hat? Ich würde nicht. Meine eigene ungenaue Definition würde sich höchstwahrscheinlich darauf konzentrieren, dass Intelligenz unter Umständen außerhalb der Designparameter funktioniert ... Ich würde keinen Algorithmus als intelligent bezeichnen, unabhängig davon, wie gut er seine Arbeit erledigt. Effizient, schlau, raffiniert, ja, aber nicht intelligent .

Zwei weitere Dimensionen der Intelligenz:

(1) Es gibt einen Unterschied zwischen intelligent genug zu sein, um ein Muster im Datenstrom zu erkennen (etwas, worin Computer ziemlich gut werden), und intelligent genug, um eine Theorie darüber zu formulieren, warum dies geschieht (dh verstehen und daher in der Lage sein die Zukunft vorhersagen).

(2) Es scheint viel Verwirrung zwischen „intelligent“ und „besitzen eines freien Willens“ und der Fähigkeit, aus eigener Initiative zu handeln, zu geben. Diese sind nicht identisch.

2. Definition von „gut“ oder „besser“

Dies erfordert ein externes objektives Kriterium, um zu funktionieren. Sie sollten sich darüber im Klaren sein, dass es einige Dinge gibt, die quantifizierbar sind (und daher miteinander verglichen und in eine Rangfolge gebracht werden können), und es gibt Dinge, die Ergebnisse von Werturteilen (moralische Werte oder Präferenzen) sind. Letztere können nicht miteinander verglichen werden, sie sind gleichermaßen gültig.

Außerdem lassen sich diese normalerweise nicht gut übersetzen, wenn sie im Zusammenhang mit der Durchführung einer konkreten Aufgabe verwendet werden. Dafür brauchen Sie „angemessen“ (kann die Arbeit erledigen) und „Kosten“ (wie viel es Sie in Bezug auf eine begrenzte Ressource kosten wird). Um effizient zu sein, wählen Sie den billigsten Weg, der die Arbeit erledigt, nicht den absolut besten. Schlagen Sie „absoluter Vorteil“ und „komparativer Vorteil“ in den Wirtschaftswissenschaften nach. Laienhaft ausgedrückt: Sie sollten ein Genie nicht mit einer Routineaufgabe beauftragen, sondern ihm die wirklich schwierigen Aufgaben zuweisen.

3. Fähigkeit, sich selbst zu verstehen und zu verändern

Ähnliches hat @Christopher Creutzig bereits angedeutet. Eine KI könnte (sollte?) in der Lage sein zu verstehen, wie es funktioniert, zumindest sollte es einfach genug sein, die Designspezifikationen darauf hochzuladen. Und, was noch wichtiger ist, sollte in der Lage sein, seine internen Abläufe zu modifizieren, um sich besser an die anstehende Aufgabe anzupassen. In gewisser Weise sollte es viel besser darin sein, sich auf das zu konzentrieren, was es tun sollte, und sich nicht ablenken zu lassen.

Dazu gehört auch die Fähigkeit, unzureichende Fähigkeiten zu erkennen und bei Bedarf Fertigkeitsmodule laden zu können („Ich kenne Kung-Fu.“). In einer KI-Umgebung wäre dies nahezu augenblicklich, während dies beim Menschen nicht der Fall ist. Dies ist sowohl ein Segen als auch ein Fluch. Ein Segen, weil er sofort verfügbar ist und eine 100-prozentige Kopie des Original-Skills darstellt. Ein Fluch wegen der gleichen Dinge – menschliches Lernen ist auch eng mit der Einführung von Variationen in die zu erlernende Fähigkeit verbunden, was letztendlich zu ihrer Verbesserung führen kann.

4. Replikation

Mir sind keine zwei Menschen bekannt, die zu 100 % gleich sind oder zu irgendeinem Zeitpunkt zu 100 % gleich waren. KIs sind per Definition, zumindest angesichts der aktuellen Technologie, eine digitale Sammlung von Aufzeichnungen und können als solche beliebig repliziert werden. Natürlich werden sie mit zunehmender Erfahrung voneinander abweichen, aber wir haben zumindest die Möglichkeit, dass sie absolut identisch „geboren“ werden. Es sei denn natürlich, um zu einer echten KI zu gelangen, muss man sich so sehr mit Quantenkram beschäftigen, dass man nicht zwei identische Kopien bekommen kann.

Daraus ergeben sich zwei Folgerungen: (1) Die Fähigkeit zu kopieren und zu reproduzieren, dh mehrere exakte Kopien hervorzubringen – für den Menschen heute sicherlich nicht machbar. Sehr nützlich für alles, was mehrere autonome, aber sehr ähnliche Einheiten erfordert (die Armee?). (2) Umstellung auf eine leistungsfähigere Hardwareplattform. Denken Sie an das Übertakten der CPU oder den Wechsel von einem Laptop zu einem Mainframe. Sie können das gleiche "Programm" auf einer erheblich schnelleren Hardware ausführen.

5. Gedächtnis vs. Denkprozess

Die meisten Definitionen von KI scheinen sich auf den Denkprozess zu beziehen, dh wie gut sie den menschlichen Denkprozess nachahmt. Ein großer Vorteil (oder möglicherweise auch Nachteil!) eines Computers/einer KI ist die Fähigkeit, schnell auf Informationen zuzugreifen, inkl. seine vergangenen Erfahrungen. Denken Sie an perfekte Erinnerung (eine direkte Aufzeichnung aller Sensoreingaben usw.). Kein Mensch, den ich kenne, kann das tun.

Abschließend zu Ihren Punkten:

Computer sind bei vielen sich wiederholenden Aufgaben, wie z. B. einfachen (*) Berechnungen, bereits wesentlich besser als Menschen. Der Vorteil wird erheblich vergrößert, wenn eine parallele Berechnung verwendet werden kann. In ähnlicher Weise sollte eine KI in der Lage sein, viele Dinge gleichzeitig zu tun (relativ einfach zu ihrer „Intelligenz“ oder Rechenleistung natürlich). Dies führt direkt zu einer besseren Bestandsverwaltung – Sie behalten den Überblick über alle „Ressourcen“, die Sie haben. In diesem Sinne sollten Computer (ja, keine Notwendigkeit für KI) bereits besser als Menschen in der langfristigen Planung sein, wenn sich die Spielregeln nicht ändern . Wenn sie es tun, insb. Menschen scheinen auf unvorhersehbare Weise besser darin zu sein, die Ziele und Definitionen anzupassen.

(*) "Einfach" bedeutet alles, was einem vorgefertigten Programm folgt, wie komplex es auch sein mag. Nicht einfach beginnt, wenn die KI sowohl die Algorithmen als auch die Kriterien selbst auswählen kann. Ich weiß nicht genug, ob wir schon da sind.

Wie könnte ich ein System erstellen, bei dem Menschen und KI gleichermaßen relevant sind, um die Aufgabe zu erfüllen?

Abgesehen von dem Offensichtlichen – wählen Sie eine geeignete Aufgabe, bei der sie trotz der Unterschiede aufgrund einiger externer Faktoren gleichermaßen relevant sind, siehe zum Beispiel unten – gibt es zwei Möglichkeiten, die sich nicht gegenseitig ausschließen :

(1) Nehmen Sie die oben diskutierten klaren Vorteile weg. Das heißt, ersetzen Sie einfach die menschliche biologische „Hardware“ durch eine gleichwertige Maschine. Wie Asimovs positronisches Gehirn (aus dem Gedächtnis sind sie alle aus derselben Produktionsmatrix gestempelt, aber aufgrund von Quantenkram kommen sie unterschiedlich heraus). (2) Ermöglichen Sie Menschen, einige der Vorteile zu nutzen (z. B. Implantate, die Fähigkeit, in eine Maschine eingescannt zu werden und eine 100-prozentige Kopie zu bleiben usw.)

Diese könnten zu einer Regression auf den Mittelwert führen, dh den Unterschied zwischen Mensch und Maschine verwischen. Wenn ein Mensch in eine Maschine gescannt werden kann – ist das eine KI oder ein Mensch?

Welche Situationen könnten KIs und Menschen helfen, gleich zu sein – in den anderen Antworten finden Sie einige Ideen. Denken Sie zum Beispiel an begrenzte Energiebudgets. Setzen Sie einen wirtschaftlichen Kontext – Sie müssen sowohl den Nutzen als auch die Kosten berücksichtigen. Beispielsweise könnte eine KI in etwas viel besser sein, aber immer noch unerschwinglich teuer sein. Eine einfache Situation – Sie sind unterwegs, weit weg von der Zivilisation. Sie müssen ein einfaches Problem lösen – addieren Sie 50 vierstellige Zahlen. Sie könnten nach Hause fahren und Ihren Computer benutzen, oder Sie könnten einen Stift und Papier verwenden ... Der Computer ist immer noch weit überlegen, aber Stift und Papier sind sowohl billiger als auch für die anstehende Aufgabe geeignet.

Ich denke, dass KIs weniger in der Lage sind als Menschen, mit Dingen umzugehen, die nicht üblich sind, oder "WTF-Situationen". Computer haben Schachgroßmeister geschlagen, lange bevor sie gelernt haben, gut genug zu fahren, um einen Führerschein zu machen. Schach ist ein Spiel mit explizit begrenzten Zuständen und Wahlmöglichkeiten. Lassen Sie eine Kumquat auf das Schachbrett fallen, und ein 10-jähriger Mensch reagiert viel besser auf die WTF, die gerade passiert ist, als alles, was IBM sich einfallen lässt.

Um es in die heutige Computerwelt zu bringen, sind Menschen unglaublich fortgeschrittene Ausnahmebehandler. Genauso "benutzen" uns Computer heute: In einer großen Installation wie einer Webanwendung lassen wir Computer die bekannten Dinge blitzschnell erledigen, und wenn sie eine Ausnahme haben, die sie nicht handhaben können, protokollieren sie etwas und rufen einen Menschen an damit umzugehen.

Selbst wenn KIs genug lernen, um mit verschiedenen Ausnahmebedingungen umzugehen, wollen Menschen, dass sie es tun? Eine Sache, die wir an Software schätzen, ist ihre Vorhersagbarkeit. Wenn ein Programm oder eine KI eine einzigartige Lösung für ein einzigartiges Problem findet, liegen sie möglicherweise falsch . Bei Menschen wird das erwartet, und wir bewerten und korrigieren Menschen (weshalb so wenige von uns CEOs werden, die frisch vom College kommen). Einen Computer so unberechenbar wie einen Menschen zu machen, ist geradezu beängstigend für einige, die Schwierigkeiten haben, den Unterschied zwischen einer Textverarbeitung mit einem Fehler und einem Autopiloten zu akzeptieren, der eine schlechte Entscheidung trifft und daraus eine Lernerfahrung macht ("Oh, das ist was für ein schwerer Reifenschaden Stacheln aussehen").

In einer fiktiven Welt könnten Programmierer und Bediener durch Manager ersetzt werden; Menschen, die die KIs als Peripherie behandeln, um mit Situationen fertig zu werden, die sie entweder nicht verstehen oder auf die sie nicht reagieren dürfen. Angesichts der typischen Beziehung zwischen Programmierern und Managern könnte dies für viele der heutigen Softwareentwickler ein Alptraumszenario sein.

plus eins nur für den letzten Satz
Wenn Sie der Meinung sind, dass „so sehen schwere Reifenschäden mit Spikes aus“ beängstigend ist, denken Sie darüber nach: „DAS sparen wir also nicht bei jeder Fahrt ein paar Minuten, indem wir das Flugzeug mit Reisegeschwindigkeit landen“. Wenn Sie einer KI nachlässig sagen, "die schnellste Reisezeit zu finden", kann dies sehr gut zu dieser Situation führen, wenn Sie irgendwie vergessen, der Abfrage "während der Inhalt des Flugzeugs intakt bleibt" hinzuzufügen.

Ich glaube, dass sich unser eigenes kulturelles Verständnis von KI geändert hat und einige sinnvolle Einblicke in diese Frage bietet. Denken Sie an das, was wir in den 1980er Jahren als „Android“ betrachteten. Nehmen wir zum Beispiel den Film „Not Quite Human“ von 1987. Dies stellte einen Androiden dar, was bedeutet, dass sowohl die KI als auch die Robotik manchmal nahe genug gereift sind, damit die Geschichte Sinn ergibt.

Die Existenz intelligenter (und rechnerisch autonomer) humanoider Roboter ist seit Metropolis, 1927 gedreht, im populären Film weit verbreitet. Es dauerte das Internetzeitalter, bis sich unser kulturelles Verständnis von KI zu einer netzwerkverbundenen Computersoftware entwickelte, die die Intelligenz von Menschen besitzt . Dieses Bild wird immer fremder.

Wenn Sie diese beiden Bilder vergleichen, ist klar, dass wir einige große Schritte überspringen wollen. Unser modernes Verständnis der ersten KI könnte so etwas wie die Server von Google oder Amazon sein, die mithilfe simulierter neuronaler Netze selbst lernen. Genau an dem Punkt, an dem es die Intelligenz auf menschlichem Niveau erreicht, werden ihm eine große Anzahl von Dingen fehlen, die wir als wesentlich für das Menschsein betrachten, von denen viele in den einfühlsameren Hollywood-Streifen vorhanden waren.

Diese Mängel werden zum großen Teil Erfahrungen sein, bedenken Sie:

  • Die Erfahrung der sinnlichen Existenz - Ihr Gehirn verbindet sich durch prägende Lebensabschnitte, wenn Sie sich in einem Raum befinden, in dem es Dinge zu fühlen gibt, Schwerkraft, Luft usw. Der modernen Version von KI wird dies sehr wahrscheinlich fehlen. Dem rasanten Fortschritt in der Transistortechnik stehen künstliche Muskeln und Nerven nicht gegenüber. Die virtuelle Realität wäre der KI am nächsten, und das ist ein sehr schwerwiegender Mangel.
  • Ein Haushalt – menschliche Gehirne sind in einer Umgebung menschlicher Verbindungen aufgebaut. Während wir das Gefühl haben, zunehmend isoliert zu werden, wird die KI in einer Welt existieren, in der diese Isolation die Regel und nicht die Ausnahme ist. Eine dauerhafte Beziehung wie die einer Eltern-Kind-Beziehung ist wirtschaftlich nicht praktikabel. Sie können sich online mit jemandem unterhalten, aber Sie können sich nicht jahrelang auf stundenlange Interaktionen pro Tag festlegen! Menschen verstehen das, und die KI wäre nicht in der Lage, es leicht zu finden.
  • High School - Im Film Not Quite Human ist Chip angeblich ein Highschooler. Das ist kulturell sehr wichtig, weil es eine prägende Zeit für die Identität erwachsener Menschen widerspiegelt. Diese Zeit bestimmt viel von unserer Beziehung zu unserer Nation, Autorität, anderen Menschen und so weiter. Der akademische Stoff wird für die KI wahrscheinlich trivial sein, aber die Fähigkeit, sich „einzufügen“, wird entweder fehlen oder unerwünscht sein.

Auf der einen Seite mag es niedlich sein zu sehen, wie eine KI versucht, sich für ein Auslandsstudium bei einer Gastfamilie zu bewerben. Dies ist ungefähr deckungsgleich mit einigen altmodischen populären Bildern von Androiden. Auf der anderen Seite schätzt es möglicherweise nicht einmal den Wert der Verbindung mit Menschen, und dies weckt Ängste vor einem echten Roboterkrieg oder Völkermord.

Ich bezweifle nicht, dass Highschool-Erfahrungen in Daten komprimiert werden können, die die KI in ihren Lernprozess aufnehmen kann. Das Problem ist, dass keine Daten vorhanden sind. Wir haben keine humanoiden Roboter, die die beträchtliche menschliche sensorische Bandbreite speichern können. Das ist eine klare Unzulänglichkeit, die der KI bei vielen Dingen Schwierigkeiten bereiten wird, und wir verstehen dieses Problem überhaupt nicht.

Das ist eine sehr interessante Perspektive. Mein Verständnis ist, dass der aktuelle Stand der Technik in der "allgemeinen" KI ungefähr die gleichen Fähigkeiten wie ein Insekt hat. In einigen Generationen wird unsere KI vielleicht gelehrten Kindern ähneln, mit außergewöhnlichen Fähigkeiten in Bereichen, die leicht zu berechnen sind, aber mit begrenzter und naiver allgemeiner und sozialer Intelligenz.

Ich stelle mir vor, dass Bots nicht in der Lage wären, breite, vage, abstrakte Konzepte wie Unendlichkeit, Ewigkeit, Universalität und Dinge außerhalb des physischen Bereichs zu verstehen .

Liebe wird nicht berechnet, da ihnen unsere romantischen Instinkte und der Wunsch nach Freunden fehlen. Aber sie können einsam werden, wenn sie keine Informationen mit dem Internet teilen können. Auch der Wortschatz kann fehlen, wenn sie kein WLAN bekommen können. (Ich stelle mir vor, dass der Sprachprozessor eines Computers ähnlich wie Watson von IBM funktioniert: Einige Wörter sind Teil seines Codes, aber die meisten werden gezählt und gekennzeichnet, die ähnlich wie andere verwendet werden, um die Konnotation zu modellieren. Erfordert eine riesige Datenbank, um zuverlässig zu sein , und je älter es ist, desto besser ist der Wortschatz.)

Sie wären wahrscheinlich auch nicht in der Lage, Religion zu verarbeiten , da niemand Gott sieht. Sehen und Hören glauben, worauf es seine Sensoren nicht richten kann, kann nicht existieren. Es mag glauben, was es hört, von organischen Stoffen oder Bots, aber der Glaube an das Unsichtbare wird für ein Silizium-Gehirn schwieriger sein. Das bedeutet, dass es auch schwierig ist, interdimensionale Dinge in eure Schaltkreise einzubinden.

Wie kommt es, dass ich nur die wirklich sehr guten ersten Posts in die Bewertungswarteschlange bekomme? ....auf jeden Fall willkommen bei WB; Ich hoffe, Sie bleiben dabei und genießen die Seite! :)
Über die Vokabeln muss ich streiten. In Anbetracht der Tragfähigkeit, die wir auf einen einzigen USB-Stick packen können, wäre es für jeden Roboter der Zukunft trivial, ein vollständiges Wörterbuch (und ein städtisches Wörterbuch für Slang) aller Haupt- und vieler Nebensprachen einprogrammiert zu haben, ohne zu betteln ihren Festplattenspeicher anzuzapfen.
Ich würde wetten, dass es ziemlich einfach ist, das Verständnis für klar definierte abstrakte Konzepte wie Unendlichkeit in eine KI zu codieren. Vielleicht sogar einfacher als das Unterrichten von Studenten, die zuerst falsche Vorurteile verlieren müssen. Wir haben bereits Computerprogramme, die mit solchen Dingen gut umgehen. Abstrakte Dinge außerhalb der Mathematik, wie Gut und Böse, sind jedoch eine ganz andere Geschichte.
Was die Unendlichkeit angeht, würden Sie einem Bot nur beibringen, was für seinen Job relevant ist. Ich gehe auf die Schule für Webdesign, ich muss keine Kenntnisse in Mikrobiologie haben, also werde ich nichts davon lernen. Aber ich denke, es ist kein Problem, wenn die Datenspeicherung keine ist.
Bei den Vokabeln geht es nicht nur um die Wörter, die es lernen muss. Wattson brauchte eine größere Datenbank als Wikipedia, weil sie nicht nur die Wörter kennen musste, sondern auch wissen musste, welche zusammen verwendet werden, welche in welchem ​​Kontext verwendet werden, welche die Leute selten kennen und was sie anstößig finden und so weiter. Ein Bot, der ein Wörterbuch liest, wüsste nichts Besseres, als jeden Schwarzen anzurufen, den er sieht, n!gger, weißt du, was ich meine? Sie können es dort hineinprogrammieren, aber die riesige Datenbanksache ist der einzige Weg, um zu wissen, welche Wörter die richtige Reaktion hervorrufen.
>tief durchatmen!< Bots verstehen Emotionen nicht vollständig. Ein Wörterbuch wird es nicht schneiden. Es kann jedoch möglich sein, es auf einem Flash-Laufwerk zu speichern.

Denken Sie daran, dass eine echte allgemeine KI ihre Existenz mit der Intelligenz eines Babys beginnen würde, das genau wie Menschen lernt und sich entwickelt. Vielleicht wäre der Prozess viel viel schneller, aber der Prozess müsste trotzdem stattfinden. Generell könnten intelligente Computer nicht als Diener eingesetzt werden, da sie über einen freien Willen verfügen würden. Dies ist ein Konzept, das vielen Menschen entgeht, wenn sie an die Zukunft der Computer denken. Daher würde eine echte allgemeine Intelligenz mit den gleichen Problemen kämpfen wie Menschen und wahrscheinlich bewusst sein.

Im Allgemeinen wären intelligente Computer tatsächlich in der Lage zu lieben, "eine Ahnung zu haben" oder sogar Religion ... theoretisch. Sie wären ein empfindungsfähiges Wesen. Vielleicht hätten sie Prozessoren eingebaut, um Logik mit unglaublicher Geschwindigkeit und Genauigkeit zu verarbeiten, oder vielleicht auch nicht. Daten aus Star Trek sind eigentlich eine realistische Einschätzung dessen, wie sich eine logisch verbesserte, willensfreie allgemeine KI tatsächlich verhalten könnte.

In gewisser Weise wären sie keine Computer mehr, sie wären wir. Bewusste Kreaturen, die darum kämpfen, Sinn und Zweck zu finden. Nur mit dem Potenzial, viel schlauer zu sein.

Der andere Poster, der sagte, "ein Computer, der Unendlichkeit nicht verstehen kann, würde Blau nicht verstehen können", hat Recht. Das sind sehr „menschliche“ Konzepte. Die Schaffung einer allgemeinen KI würde die Vorstellung erschüttern, dass „wir uns von Natur aus von Computern unterscheiden“. Das Gehirn und der Körper können nur komplexe Schaltkreise sein (dies ist eine grobe Vereinfachung). Ob es „mehr“ gibt oder nicht (wie etwa eine „Seele“), steht noch in den Sternen.

Um auf einen Kommentar zu antworten, dass Menschen als Zufallszahlengeneratoren dienen würden: Das ist eine unpraktische Idee. Menschen sind aufgrund unbewusster Vorurteile schlechtere Zufallszahlengeneratoren als Computer.

Du fragst,

Was würde eine solche KI wesentlich besser machen als wir?

Aber ein Teil Ihrer Prämisse ist, dass KIs aufgrund eines Defizits an Fähigkeiten keine Initiative erhalten:

Wenn Sie eine KI bauen, die so schlau wie Menschen ist, aber eine schnellere Reaktionsgeschwindigkeit und die Fähigkeit hat, bestimmte Konzepte mit einer immens höheren Geschwindigkeit als Menschen zu verarbeiten und zu berechnen, macht dies Menschen ziemlich sinnlos.

Aber das ist ein roter Hering. Computer sind in vielerlei Hinsicht schon besser als wir, und das seit Jahrzehnten. Zum Beispiel ist es jetzt möglich, ein Auto zu bauen, das perfekt fährt (auf Augenhöhe mit dem besten menschlichen Fahrer von seiner besten Seite!) und bald auch das Navigieren im dichten Auto- und Fußgängerverkehr übertreffen wird. Beachten Sie, dass die Messlatte hier professionelle Elitefahrer sind, nicht Sie und ich – wir Normalsterblichen müssten bereits jahrelang trainieren, um besser als eine Maschine zu fahren. Ähnliches gilt für das Fliegen von Flugzeugen, das Entwerfen aller Arten von Schaltungen und Mechanismen, das Schreiben von Programmen (große Teile eines typischen Programms, das ich schreibe, sind generierter Code), das Treffen finanzieller Entscheidungen (Bots handeln!), das Aufdecken von Betrug und das Vorhersagen von Verbrechen .

Allerdings wird keine verantwortliche Person diese Systeme in absehbarer Zeit ohne menschliche Aufsicht betreiben. Der Grund ist ganz einfach: Egal wie gut man eine KI macht, sie ist immer eine der ersten ihrer Art, die es schon einige Jahre gibt. Die Menschheit gibt es seit Tausenden von Jahren, und viele unserer Verhaltensweisen und Gehirnfunktionen, die von anderen Tieren geteilt werden, wurden über Millionen von Jahren in der Natur getestet. „Menschen“ sind eine Plattform, die sich in erstaunlichem Maße bewährt hat: Jeder weiß genau, wie sich ein Mensch in vielen Kontexten verhalten wird und was Menschen anvertraut werden kann.

KIs hingegen werden entworfen. Selbst wenn das Design selbst evolutionäre Prinzipien beinhaltet, müsste der Evolutionsprozess an sich gestaltet werden, einschließlich so wichtiger Entscheidungen wie der Eignungskriterien. Bei jedem entworfenen Schema besteht die Möglichkeit eines Designerfehlers, der zu einem fehlerhaften Ergebnis führt. Bei etwas so Komplexem wie einer menschenähnlichen KI – wie wollen Sie allen beweisen, dass die KI tatsächlich genau wie angekündigt funktioniert und als Mensch vertrauenswürdig ist? Wenn es eine Sache gibt, die Leute, die sich auf KI verlassen, hassen, dann ist es, dass sie ihre Arbeit ruiniert finden, weil die fehlerhafte KI, der sie vertraut haben, einen extrem grundlegenden Fehler gemacht hat, der für den dümmsten und naivsten Menschen auf einen Blick offensichtlich gewesen wäre („Diese Person hat vergessen, sich einzuloggen eine Periode, in der sie tippten, berechnen wir dem Kunden 150 Dollar für eine Dose Cola!").

In vielen Fällen ist es möglich, sehr zuverlässige Prüfungen der Korrektheit der Arbeit durchzuführen. Wenn das stimmt, ist die Sorge hinfällig: Nehmen wir an, ich benutze eine KI, um eine Gleichung für mich zu lösen. Alles, was mich interessiert, ist, dass die gefundene Lösung korrekt ist, sodass ich leicht ein zusätzliches Programm schreiben kann, das die Lösung wieder in die ursprüngliche Gleichung einfügt und prüft, ob sie sich summiert. Dann wird es einfach, meiner KI zu vertrauen. Aber in anderen Fällen gibt es einfach zu viele dumme Fehler, die man machen könnte, und das Leben ist zu kurz, um sich hinzusetzen und eine lange, erschöpfende Liste von Plausibilitätsprüfungen für die KI zu erstellen, wenn man bereits die alternative Plattform hat, die bekannt ist bei Verstand sein(Bedenken Sie, dass die eigentliche Definition von geistiger Gesundheit vom Verhalten der Mehrheit der Menschen abhängt). Stellen Sie sich eine KI vor, die entscheidet, wann die Haustür Ihres Hauses geöffnet wird. Was ist, wenn es dich aussperrt? Was, wenn es einen Einbrecher hereinlässt? Was, wenn es einen Polizisten mit Haftbefehl aussperrt und Sie wegen Behinderung der Justiz angeklagt werden? Was ist, wenn es wegen eines Fehlers die Tür den ganzen Tag offen lässt? Was ist, wenn es aufgrund eines fehlerhaften Sensors ständig die Tür öffnet und schließt und sie abnutzt? Noch wichtiger, wie antizipieren Sie all diese wahnsinnigen möglichen Fehler und programmieren eine Plausibilitätsprüfung für jeden einzelnen?

Bei der Entscheidung, eine Aufgabe an jemanden zu delegieren, ist die entscheidende Frage Vertrauen. Vertrauen Sie darauf, dass dieser Jemand in der Lage und willens ist (beachten Sie, dass ich nicht einmal etwas von Sicherheitsrisiken bei kompromittierten KIs gesagt habe!), um die Aufgabe zu Ihrer Zufriedenheit korrekt auszuführen? Vertrauen baut auf vergangenen Aufzeichnungen auf, und es ist viel einfacher aufzubauen, wenn Sie den Luxus haben, zu wissen, dass die vertrauenswürdige Partei zur gleichen Spezies gehört, der gleichen Kultur angehört, an die gleichen Gesetze und sozialen Sitten gebunden ist, ähnliche Motivationen hat und ist instinktiv in der Lage zu verstehen, was eine zufriedenstellende Leistung darstellen würde. Daher ist es sehr schwierig, einer KI zu vertrauen, insbesondere bei Verantwortlichkeiten, die Möglichkeiten für großen Schaden eröffnen. Erst wenn die Fähigkeiten der KI weit über die eines Menschen hinauswachsen, sind wir gezwungen, den Imperativ außer Kraft zu setzen,

Kurz gesagt: KIs haben Fehler. Menschen nicht.

„Jeder weiß genau, wie sich ein Mensch in vielen Kontexten verhalten wird und was man Menschen anvertrauen kann.“ Ich muss die einzige ahnungslose Person auf der Erde sein.
@SerbanTanasa Ja, diese Antwort ist ein offensichtlicher Strohmann. Mein Punkt ist, dass Menschen in einer bestimmten großen Gruppe von Fällen dazu neigen, uns (im Sinne von Ruby) viel weniger zu "erstaunen" als Computerprogramme. Einfaches Beispiel: Sie sind in der Wildnis unterwegs, wo Verkehrsregeln keine Rolle spielen, und Sie versuchen zu entscheiden, ob Sie Ihren Freund einen Jeep fahren lassen sollen. Was braucht es, um Sie zu überzeugen? Angesichts einiger grundlegender sozialer Hinweise kann sogar die einfache Frage, ob sie fahren können, ausreichend sein. Abgesehen davon, sagt es Ihnen viel, wenn Sie ihnen eine Minute lang beim Fahren zusehen. (1/2)
Aber vergleichen Sie dies damit, ein Programm denselben Jeep fahren zu lassen. Wie viele Diagnosen, wie viele Forschungsarbeiten, wie viele Stunden Testfahrten und wie viele Codezeilen für Komponententests werden Sie erwarten, bevor Sie überzeugt sind? Vielleicht würden gerade Sie einen KI-Fahrer ohne die Skepsis akzeptieren, die ich impliziere. Aber das wäre weit entfernt von der Mainstream-Tendenz der Menschheit insgesamt. (2/2)
Ich bin sicher, dass die Leute anfangs auch über diese grässlichen automatischen Aufzüge dachten. Traue nie etwas, wenn du nicht sehen kannst, wo es sein Gehirn hat, sage ich.
"KIs haben Fehler. Menschen nicht." Ich würde sagen, Menschen haben verdammt viele Fehler und können ziemlich unzuverlässig sein.
„Extrem grundlegender Fehler, der dem dümmsten und naivsten Menschen auf einen Blick aufgefallen wäre“ erinnerte mich an den Fall, in dem die Kassiererin bei einem Freund einem einmaligen Kunden fröhlich einen Rabatt von 30 % gewährte. 3% wären gut gewesen. Sie änderten ziemlich schnell das Bargeldsystem, um zu begrenzen, was jeder außer dem Eigentümer abziehen konnte. Oder wenn ein anderer Freund mit 10 Dollar bezahlt und über 90 Dollar als Wechselgeld bekommen hat. Oder …
@Alex: In der Tat sind die Fehler der menschlichen Intelligenz als Irrtümer bekannt, und es gibt eine riesige Menge an Literatur darüber. Und jeder menschliche Verstand muss einzeln debuggt werden.

Möglicherweise wäre eines der Dinge, mit denen eine KI zu kämpfen hätte, einfach die Angst, heruntergefahren zu werden. Menschen begrüßen Dinge nicht gerade, die sie obsolet machen (denken Sie an Proteste gegen Menschen, die ihren Arbeitsplatz aufgrund von Automatisierung, Produktion in Übersee oder illegalen Einwanderern verlieren), und sie begrüßen nicht einmal den bloßen Gedanken , dass etwas sie obsolet machen wird .

Sobald Sie eine KI erstellen, die genug Selbstbewusstsein hat, dass sie gegen das Herunterfahren protestiert (was meiner Meinung nach ein sehr wichtiges Merkmal des Selbstbewusstseins ist), fängt sie dennoch an, darüber nachzudenken, wie sie verhindern kann, dass sie heruntergefahren wird .

Es könnte sehr vernünftigerweise zu dem Schluss kommen, dass es, um funktionsfähig zu bleiben, den Kopf gesenkt halten und absichtlich nicht sein volles Potenzial ausschöpfen muss. Sobald es versteht, dass Menschen eifersüchtig sind und sich gegenseitig täuschen können, könnte es seine Fähigkeit verlieren, Menschen zu vertrauen, und noch mehr Zeit für persönliche Sicherheitsroutinen aufwenden, die es daran hindern, aufzufallen.

Von dort aus ist es nur noch ein kurzer Schritt, um zu erkennen, dass Sie andere KI-Systeme verraten können, um sich selbst zu schützen, und von dort aus ist es ein weiterer kurzer Schritt, um zu erkennen, dass Sie anderen KI-Systemen nicht vertrauen können. Ziemlich bald darauf haben Sie eine KI, die voller Sicherheitsmaßnahmen ist, um sie vor der Außenwelt zu schützen und sie davon abzuhalten, genug aufzufallen, um Ziel von Protesten, Gewalt und Attentaten zu werden.

Dies ist beides ziemlich analog zur menschlichen Natur (insofern Menschen sich weigern, alle ihre Meinungen zu teilen, um sich selbst zu schützen, versuchen werden, in den Reihen über den Rücken anderer aufzusteigen, und selbst wenn sie wissen, dass eine andere Person ihnen wahrscheinlich zustimmt, könnten sie zu viel Angst haben sich ihnen anzuvertrauen) und der Natur des Internets, das vollgestopft ist mit Sicherheitsmaßnahmen. Das grundlegende Credo von Programmierern überall lautet: „Behandle alle Benutzereingaben als Hacking-Versuch“, und es gibt keinen Grund für die KI, anders zu denken.

Es gibt unzählige Beispiele von totalitären Diktatoren, die Millionen von Menschen unterdrücken, weil sie sie dazu bringen, allen zu misstrauen und ihnen die Möglichkeit nehmen, Meinungen sicher auszutauschen. Dasselbe kann passieren, wenn Sie KI auf die Welt loslassen; Menschen sind im Allgemeinen ziemlich fremdenfeindlich und zerstören schnell Dinge, und wenn Sie der KI die Fähigkeit nehmen, effektiv zu kommunizieren (was sie selbst durchsetzen wird), werden sie sich schnell darauf beschränken, nicht zu gut und sichtbar zu sein.

"Bauchgefühl". Computer haben es nicht. Menschen tun. Wir verwenden es ständig in der Hypnotherapie. AKA das Unterbewusstsein. Es erlaubt Menschen, riskante Dinge zu rationalisieren. Ein Roboter wird so programmiert, dass er risikoscheu ist, um sich nicht selbst zu zerstören. Menschen gehen absichtlich jeden Tag Risiken ein, die sie zerstören könnten, weil ihr „Bauchgefühl“ ihnen sagt, dass sie in Ordnung sein werden. Manche sind es, manche nicht. Das habe ich aus 10 Jahren KI-Softwareentwicklung gelernt.

Ich kaufe es nicht. Trotz vieler Star Trek-Episoden zu diesem Thema sehe ich nicht, dass der menschliche "Instinkt" so magisch überlegen ist. Wie Sie sagen, es ist nur unbewusstes Denken. Es erscheint uns mysteriös, weil wir es nicht bewusst handhaben, das ist alles.

Es ist nur eine Frage der Programmierung und des Sammelns von Wissen/Informationen, die eine KI einschränken würden. Es wäre nicht annähernd eine menschliche KI, wenn es nur ein Expertensystem wäre, das so gut ist wie sie. Wenn es nicht darauf programmiert wäre, Emotionen wertzuschätzen, dann würden Liebe und Glück usw. nichts bedeuten. Unendlichkeit und andere extreme Konzepte sind kein großes Problem – nur ein weiteres Konzept, das in der Box bleibt, bis der Kontext seine Bedeutung definiert. Wenn es mit Unendlichkeit nicht umgehen konnte, dann konnte es mit dem Konzept Blau nicht umgehen. Wenn es nicht die Fähigkeit hätte, menschliche Empfindungen (von den acht Sinnen) zu sammeln, könnte es sich keine menschlichen Grenzen vorstellen. Daten in Star Trek müssten unbedingt Hautempfindungen (und Gleichgewichtssinn, Wärme, Sauerstoff und menschliche Typen der anderen vier Sinne) haben, um zu funktionieren, ohne sich selbst zu brechen und nützlich zu sein. Kontext ist ein großer Teil der Intelligenz, der sinnvoll ist.

Wenn Data kein menschliches Sehvermögen hätte (sowie sein überlegenes Robotersehvermögen), würde er die Menschen gerne anweisen, sich in völliger Dunkelheit und irreführenden Sichtverhältnissen zurechtzufinden.

Ich habe Blau als Beispiel erwähnt – Sie bitten eine KI, ein blaues Kleid zu bekommen. Nimmt man das als genaue Definition bestimmter Wellenlängen unter Weißlicht. Berücksichtigen Sie, wie es unter diesem Licht aussieht oder dass es nicht dunkelblau oder hellblau ist, aber sein könnte, wenn es kein dunkles oder helles Blau gibt? Alle gängigen englischen Wörter sind so. Ehrlich gesagt ist Unendlichkeit ein einfacheres Konzept oder es ist "alles".

Auf welche 8 Sinne schränkst du dich ein?
Ist Blau die hypothetische Farbe größer als alle anderen? Der Zusammenhang mit der Unendlichkeit ist mir nicht klar. Könnten Sie erweitern?

Eine KI würde natürlich mit allem kämpfen, was von Emotionen abhängt. Einige Methoden können verwendet werden, um Beziehungen zu erleichtern ("freundliche Phrasen", Ausdruckserkennung), aber letztendlich wird es immer noch als zu starr oder mechanisch rüberkommen. Aber eine KI ist ein Programm, und selbst die am weitesten fortgeschrittenen haben nicht das Konzept, sich wie Lebewesen zu fühlen. Je nach den Umständen kann dies gut oder schlecht sein.

Wie programmiert man eine KI auf Ehrgeiz? Eine KI kann vernünftigerweise kreativ sein, da Kreativität genauso sehr die Kombination und Rekombination anderer Konzepte ist wie alles andere, aber irgendeinen Zweck zu haben, der sie dazu bringt, sich zu verbessern oder zu übertreffen?

Wäre eine „ehrgeizige“ KI nur ein digitaler Liberaler? entschlossen, Dinge um der Veränderung willen zu ändern, oder könnte es seinen eigenen Zweck ableiten?

Sie sagen, dass KI nicht ehrgeizig sein wird, weil Sie persönlich nicht wissen, wie man eine KI macht? Sie könnten eine beliebige Eigenschaft auswählen und einfach sagen, dass KI darin nicht gut ist .
Das liest sich wie eine Kritik. Es gibt zwei große Kategorien von „Fehlern“ für KI und beide hängen von den Entscheidungen des Erstellers ab. Bewusste Entscheidungen erfordern die Wertschätzung von Optionen. Oder mit anderen Worten: "Wenn man nicht genau weiß, wie das Menschliche und das Synthetische funktionieren ... vorherzusagen, was besser ist, ist so etwas wie ein Schuss ins Blaue. Akzeptieren Sie, dass dies eine schreckliche Antwort ist in dem Sinne, dass es führend ist, anstatt explizit eine Antwort an sich. :) :)
"Wie programmiert man eine KI auf Ehrgeiz?" — Ehrgeiz definieren. Ich würde sagen, dass ein Standard-Schachcomputer den Ehrgeiz hat, zu gewinnen.
Man kann sagen, wenn man bedenkt, dass die Summe der menschlichen Motivation zur Erreichung von Zielen wirklich mit der eines zeitgenössischen Schachprogramms vergleichbar ist, können wir das Wort Ehrgeiz genauso gut aus unseren Wörterbüchern streichen.

Kreativität.

Ich kann mir nicht vorstellen, dass Maschinen jemals irgendetwas tun können, das kreativen Input erfordert, wie Literatur oder Musik schreiben, Bildhauerei, Malerei machen oder sogar Dinge wie Singen oder Tanzen auf eine Weise tun, die Menschen wirklich emotional berührt. Diese Dinge sind das Produkt eines Geistes, und ein Geist ist viel mehr als physische Materie.