Warum sollte sich KI irrational verhalten? [geschlossen]

Fallstudie

Ein Verkehrspolizistenbot kann mit der Rotlichtkamera an der Straßenkreuzung ein 3D-Selfie aufnehmen und mit einem hochauflösenden Satellitenbild überlagern, das in Echtzeit aufgenommen wurde, um seine Kabel und Filterlinsen anzupassen, während er ein paar Hundert Arbeiterameisen mit kleinen Amputierten beim Überqueren hilft eine Straße während der morgendlichen Hauptverkehrszeit.

Fragen

  1. Wir wollen, dass sich Roboter so verhalten wie wir, aber wir hoffen, dass sie nicht so sind wie wir. Wäre es besser, wenn sie irrational wie wir denken könnten, damit wir bis ans Ende unserer Tage glücklich leben können?

  2. Diese Frage ist eher technischer Natur, also hier geht es weiter: Wie misst KI Irrationalität? (Ich spreche nicht von der Liouville-Nummer)

Worüber redest du?
@Samuel: Das ist eigentlich ein Turing-Test! Leider scheinen diejenigen, die für das Schließen gestimmt haben, es nicht geschafft zu haben. Können Sie trotzdem genauer sein, damit ich mein OP verbessern kann? Danke.
Berechnet nicht. Ihre Fallstudie scheint nichts mit Ihren nicht verwandten Fragen zu tun zu haben.
@ user6760 du hast mich auch dorthin gebracht. Ich habe auf dieser Seite einfach überlebt, weil sie kein CAPTCHA hatte. Jetzt bin ich geflasht...
Liebe Bots! Die Fallstudie selbst ist eine fortgeschrittenere Art von CAPTCHA, um Leute wie Sie herauszufiltern, es funktioniert so gut, dass die Tränen weiter fließen und meine Knie weich werden ... Ich bitte Sie, Ihre Stimmen zu widerrufen! Gibt es eine Möglichkeit, mein OP zu verbessern?
Ich habe die Antwort, aber Sie werden nicht zufrieden sein mit... Die Antwort ist 42.
@Cyrus: natürlich bin ich nicht glücklich, weil du nur eine meiner Fragen beantwortest :(

Antworten (2)

Das Logikproblem

KIs (zumindest die von uns entwickelten) und Roboter handeln manchmal irrational. Sicher, Menschen können ihre Handlungen rechtfertigen und behaupten, dass diese logisch sind, aber psychotische Personen können logisch handeln, je nachdem, was sie glauben.

Es hat alles mit den Werten / Axiomen / Mandaten / Programmierungen der KI zu tun. Für Ihre Fallstudie ist dies sinnvoll ("ist logisch"), wenn:

  • Der Polizei-Bot ist beauftragt/programmiert, Leben zu retten und denen zu helfen, die versuchen, Leben zu retten. So rettet es Ameisenleben, indem es den Verkehr stoppt. Beachten Sie, dass dieses Mandat nie gesagt hat, welche Leben gerettet werden sollen.
  • Der Polizei-Bot ist auch so programmiert, dass er alle öffentlichen Ereignisse, an denen er beteiligt sein könnte, „dreht“. So wird das Selfie aufgenommen. Es wird wahrscheinlich auf Facebook mit der Überschrift „Schaut euch diesen Polizei-Bot an, der Leben rettet!“ gepostet. oder "Ich diene hier dem Gemeinwohl bei ROADNAME1 und ROADNAME2."

Das ist rational , oder? Nein? Vielleicht können wir Irrationalität (der nicht-mathematischen Art) wie folgt definieren:

Der Versuch von Handlungen, die nicht mit Ihren Überzeugungen, grundlegenden Axiomen oder Ihrem Zweck übereinstimmen.

Sie könnten eine Statistik darüber erstellen, wie oft solche Aktionen auftreten, sowohl für eine Gruppe als Ganzes als auch für Einzelpersonen. Dies könnte sich zu einer Metrik entwickeln (vielleicht der Vergleich der logischen Zahl einer Person mit der „durchschnittlichen“ logischen Zahl), sodass wir wissen, wie logisch/unlogisch jemand ist.

Hilft uns das, miteinander auszukommen?

Es gibt auch viele Polizisten, die wie wir irrational denken können, und die Leute mögen sie auch nicht. Warum sollte ein irrationaler Roboter besser sein? Wenn überhaupt, ist ein irrationaler Roboter schlimmer, weil er das Potenzial hat, in der gleichen Zeit so viel mehr Dinge falsch zu machen.

Es würde mir sicher nicht helfen , mit Robotern klarzukommen.

Wow! sehr beeindruckend und danke, dass du ein Mensch bist und herausfindest, was ich versuche zu bekommen [Ich wische mir meine Tränen mit meiner Zunge ab, da Wasser sehr kostbar ist, ich recycel es gerne übrigens +1]

Ich stelle mir vor, dass Sie „Rationalität“ in dem Sinne verwenden, dass Sie in Übereinstimmung mit einem weithin akzeptierten Satz von Normen handeln, die der Interessengesellschaft Struktur und Ordnung verleihen. In diesem Fall könnte sich ein Roboter „irrational“ verhalten, weil er Aktionen ausführt, die wir für unangemessen halten oder die nicht auf einer Argumentationslinie beruhen, der wir folgen können.

Man kann jedoch argumentieren, dass ein künstliches Konstrukt immer nach Regeln der Logik handelt – Logik im Sinne unveränderlicher Ursache-Wirkungs-Beziehungen, die auf den physikalischen Eigenschaften seiner Komponenten und der Art und Weise beruhen, wie sie kombiniert und in Beziehung gesetzt werden. In diesem Fall handelt der Computer/Roboter immer gemäß den Argumenten der Physik, aber ob diese Handlungen von menschlichen Gesellschaften als "rational" angesehen werden, ist eine andere Geschichte.

Aber um deine Fragen direkter zu beantworten:

  1. Menschen sind rationale Wesen, und alles, was Sie tun, hat einen Grund. Der Grund, der sich durchsetzt und Sie dazu veranlasst, eine Aktion auszuführen, ist jedoch nicht das Ergebnis einfacher Ursache-Wirkungs-Beziehungen, sondern das Gegengewicht mehrerer harter und weicher Überlegungen, die durch die unmittelbaren Umstände und Ihre persönlichen Werte definiert werden.
    Wenn eine KI eines Tages komplex genug sein sollte, um eine entsprechende Anzahl von ausgleichenden Faktoren in ihre Entscheidungen einzubeziehen, wäre sie rational in dem Sinne, dass sie sich aller Faktoren bewusst ist, obwohl ihre Entscheidungen so offensichtlich „irrational“ sein können wie Entscheidungen, die von getroffen werden Fleischmenschen. Auf der anderen Seite führt dies zu dem Argument, dass eine ausreichend fortgeschrittene KI nicht von einem Menschen zu unterscheiden ist und als Mensch betrachtet werden kann, wenn auch als digitaler Mensch, oder als eine andere exotische Bezeichnung.
    Und an diesem Punkt können verschiedene Menschen es mögen oder nicht mögen, so wie wir unsere Mitmenschen mögen oder nicht mögen.

  2. Wenn sich eine KI aller Faktoren bewusst wäre, die ihre Entscheidungen beeinflussen, dann muss die KI „Irrationalität“ nicht daran messen, wie sie Entscheidungen trifft, die nicht auf Vernunft beruhen (weil sie alle Argumentationslinien und Gegengewichte kennt), sondern an a eine Menge vorgegebener "richtiger" Aktionen oder Bedingungen. Diese Menge kann von uns Menschen bereitgestellt oder von einer lernenden KI abgeleitet werden – in diesem Fall wäre sie auf keinen Fall irrational, da die Menge der „richtigen“ Aktionen das Ergebnis derselben komplexen Entscheidungen wäre.