Fallstudie
Ein Verkehrspolizistenbot kann mit der Rotlichtkamera an der Straßenkreuzung ein 3D-Selfie aufnehmen und mit einem hochauflösenden Satellitenbild überlagern, das in Echtzeit aufgenommen wurde, um seine Kabel und Filterlinsen anzupassen, während er ein paar Hundert Arbeiterameisen mit kleinen Amputierten beim Überqueren hilft eine Straße während der morgendlichen Hauptverkehrszeit.
Fragen
Wir wollen, dass sich Roboter so verhalten wie wir, aber wir hoffen, dass sie nicht so sind wie wir. Wäre es besser, wenn sie irrational wie wir denken könnten, damit wir bis ans Ende unserer Tage glücklich leben können?
Diese Frage ist eher technischer Natur, also hier geht es weiter: Wie misst KI Irrationalität? (Ich spreche nicht von der Liouville-Nummer)
KIs (zumindest die von uns entwickelten) und Roboter handeln manchmal irrational. Sicher, Menschen können ihre Handlungen rechtfertigen und behaupten, dass diese logisch sind, aber psychotische Personen können logisch handeln, je nachdem, was sie glauben.
Es hat alles mit den Werten / Axiomen / Mandaten / Programmierungen der KI zu tun. Für Ihre Fallstudie ist dies sinnvoll ("ist logisch"), wenn:
Das ist rational , oder? Nein? Vielleicht können wir Irrationalität (der nicht-mathematischen Art) wie folgt definieren:
Der Versuch von Handlungen, die nicht mit Ihren Überzeugungen, grundlegenden Axiomen oder Ihrem Zweck übereinstimmen.
Sie könnten eine Statistik darüber erstellen, wie oft solche Aktionen auftreten, sowohl für eine Gruppe als Ganzes als auch für Einzelpersonen. Dies könnte sich zu einer Metrik entwickeln (vielleicht der Vergleich der logischen Zahl einer Person mit der „durchschnittlichen“ logischen Zahl), sodass wir wissen, wie logisch/unlogisch jemand ist.
Es gibt auch viele Polizisten, die wie wir irrational denken können, und die Leute mögen sie auch nicht. Warum sollte ein irrationaler Roboter besser sein? Wenn überhaupt, ist ein irrationaler Roboter schlimmer, weil er das Potenzial hat, in der gleichen Zeit so viel mehr Dinge falsch zu machen.
Es würde mir sicher nicht helfen , mit Robotern klarzukommen.
Ich stelle mir vor, dass Sie „Rationalität“ in dem Sinne verwenden, dass Sie in Übereinstimmung mit einem weithin akzeptierten Satz von Normen handeln, die der Interessengesellschaft Struktur und Ordnung verleihen. In diesem Fall könnte sich ein Roboter „irrational“ verhalten, weil er Aktionen ausführt, die wir für unangemessen halten oder die nicht auf einer Argumentationslinie beruhen, der wir folgen können.
Man kann jedoch argumentieren, dass ein künstliches Konstrukt immer nach Regeln der Logik handelt – Logik im Sinne unveränderlicher Ursache-Wirkungs-Beziehungen, die auf den physikalischen Eigenschaften seiner Komponenten und der Art und Weise beruhen, wie sie kombiniert und in Beziehung gesetzt werden. In diesem Fall handelt der Computer/Roboter immer gemäß den Argumenten der Physik, aber ob diese Handlungen von menschlichen Gesellschaften als "rational" angesehen werden, ist eine andere Geschichte.
Aber um deine Fragen direkter zu beantworten:
Menschen sind rationale Wesen, und alles, was Sie tun, hat einen Grund. Der Grund, der sich durchsetzt und Sie dazu veranlasst, eine Aktion auszuführen, ist jedoch nicht das Ergebnis einfacher Ursache-Wirkungs-Beziehungen, sondern das Gegengewicht mehrerer harter und weicher Überlegungen, die durch die unmittelbaren Umstände und Ihre persönlichen Werte definiert werden.
Wenn eine KI eines Tages komplex genug sein sollte, um eine entsprechende Anzahl von ausgleichenden Faktoren in ihre Entscheidungen einzubeziehen, wäre sie rational in dem Sinne, dass sie sich aller Faktoren bewusst ist, obwohl ihre Entscheidungen so offensichtlich „irrational“ sein können wie Entscheidungen, die von getroffen werden Fleischmenschen. Auf der anderen Seite führt dies zu dem Argument, dass eine ausreichend fortgeschrittene KI nicht von einem Menschen zu unterscheiden ist und als Mensch betrachtet werden kann, wenn auch als digitaler Mensch, oder als eine andere exotische Bezeichnung.
Und an diesem Punkt können verschiedene Menschen es mögen oder nicht mögen, so wie wir unsere Mitmenschen mögen oder nicht mögen.
Wenn sich eine KI aller Faktoren bewusst wäre, die ihre Entscheidungen beeinflussen, dann muss die KI „Irrationalität“ nicht daran messen, wie sie Entscheidungen trifft, die nicht auf Vernunft beruhen (weil sie alle Argumentationslinien und Gegengewichte kennt), sondern an a eine Menge vorgegebener "richtiger" Aktionen oder Bedingungen. Diese Menge kann von uns Menschen bereitgestellt oder von einer lernenden KI abgeleitet werden – in diesem Fall wäre sie auf keinen Fall irrational, da die Menge der „richtigen“ Aktionen das Ergebnis derselben komplexen Entscheidungen wäre.
Samuel
Benutzer6760
Samuel
Pawel Janicek
Benutzer6760
Cyrus
Benutzer6760