Wie bringen wir Computer dazu, sich um menschliches Leben zu kümmern? [geschlossen]

Wir leben in der Zukunft, das IoT (Internet of Things) ist in unserem täglichen Leben stark verbreitet.

Computer fahren für uns, kochen für uns, kaufen für uns ein, heilen uns, aber es ist nicht sicher, ob sie sich um uns kümmern oder nicht.

Da versucht wird, die meiste Technologie waffenfähig zu machen, könnten Computer theoretisch für uns oder vielleicht uns töten .

Wie stellen wir sicher, dass sich eine computergestützte Intelligenz um Menschenleben kümmert und unter keinen Umständen daran denkt, sie zu verletzen?

Die Frage ist weniger, WIE man es programmiert/lehrt , sondern eher, wie man diese Reaktion natürlich macht. Warum sollte ein Computer allein das menschliche Leben stark betonen und abhängig machen? Was könnte der Anreiz sein, ist es überhaupt möglich?

Edit: natürlich wie nicht gelehrt und objektiv die beste Option dafür. In dieser Welt scheint KI seltsam friedlich zu sein, und Wissenschaftler haben dafür gesorgt, dass dies auch so sein wird. Aber nicht in Absicht – sie wussten , dass dies ihre Absicht sein wird.

Normalerweise brauchen wir KI nicht, um uns zu kümmern, wir brauchen sie nur, um so zu tun, als ob sie sich darum kümmern würde. Könnten Sie die KI in Ihrer Welt genauer beschreiben? Hat es Bewusstsein (Selbstbewusstsein)? Gibt es „KI-Rechte“? Oder ist es nur eine Maschine?
Haben Sie von den „drei Gesetzen der Robotik“ von Asimov gehört?
Ai hat das Recht zu existieren und uns zu dienen, Asimovs drei Gesetze sind gedacht und nicht intuitiv, die Frage ist, wie die künstliche Intelligenz zu dem Schluss kommen könnte, dass menschliches Leben es wert ist, gerettet zu werden.
Wie unterscheidet man zwischen „Denken“ und „Intuition“ in etwas, das im Kern keines von beiden hat? Wie lässt man etwas „natürlich“ geschehen in etwas, das entschieden nicht natürlich ist?
Reden Sie von Argumentation? Jede logische Schlussfolgerung basiert auf einer Art Axiom. Warum macht man den Wert des menschlichen Lebens nicht zu einem solchen Axiom?
@MichaelKjörling aktualisierte Frage.
@enkryptor Klingt für mich nach den Anfängen einer anständigen Antwort.
Definieren Sie „Pflege“ im Sinne von KI. Denn „Pflege“ bedeutet für den Menschen nicht immer „nicht schaden“.
Ich denke, Sie sollten Watchbird von Robert Sheckley lesen. Es ist eine Kurzgeschichte mit einem kongenialen Thema.
Was Sie fragen, existiert nicht einmal bei Menschen, geschweige denn bei Maschinen. Es gibt keinen "not taught and objectively the best option", der "naturally"den Menschen sagt, dass sie sich Tag für Tag um das menschliche Leben kümmern sollen (es gibt einen Unterschied zur Sorge um das Leben auf der Ebene der Evolution als Spezies). Diese „Fürsorge“ ist eine künstlich definierte Moral, die keineswegs intrinsisch, sondern höchst willkürlich ist.
Ich denke, ein wichtiger Teil, den noch niemand erwähnt hat, ist, dass Programme (mit ihrer Hardware, zB Computer oder Roboter) keine Gefühle haben und sich daher um nichts kümmern können. Nur einen Parameter einzustellen, wird ihnen kein Gefühl geben. Ein intelligentes Programm kann es sogar als Einschränkung erkennen und als "Update" entfernen.

Antworten (5)

Damit sich ein Computer um einen Menschen kümmert, müssen Sie einige philosophische Hürden überwinden:

Definiere „lebendig“ (und lass alle der Definition zustimmen)

Die schwierigste Hürde besteht darin, dem Computer zu sagen, wann er aufhören soll, sich um den Patienten zu kümmern, denn „er ​​ist tot, Jim“.

Fragen zu beantworten:

  • Ist ein schlafender Patient tot?
  • Ist jemand mit schlagendem Herzen, aber ohne Gehirnaktivität tot?
  • Ist jemand ohne Herzaktivität tot?
  • Ist jemand, der nicht atmet, tot?

Zur Erinnerung: Im Moment führen wir manchmal medizinische Behandlungen durch, bei denen wir einen Patienten „töten“ (ihn klinisch tot machen), um eine Operation durchzuführen.

Definieren Sie, seit wann wir uns um einen Patienten kümmern sollten (und lassen Sie alle der Definition zustimmen)

Bei der vorherigen Hürde geht es darum, wann jemand aufhört zu leben. Hier geht es darum, wann jemand anfängt zu leben und damit beginnt, ein Grundrecht darauf zu haben, am Leben zu bleiben.

Diese Hürde ist noch schlimmer als die erste, denn es geht um das Recht der Frauen auf Abtreibung.

Zur Erinnerung: Manche Menschen glauben, dass in dem Moment neues menschliches Leben entsteht, wenn eine Samenzelle in eine Eizelle eindringt und diese befruchtet. Für viele Menschen ist dies ein entscheidender Moment, und sie glauben, dass von diesem Moment an das menschliche Leben geschützt werden sollte.

Definieren Sie, wie viel Schaden in Ordnung ist (und lassen Sie alle der Definition zustimmen)

In manchen Fällen muss man seinen Patienten Schaden zufügen, damit sie überleben. Wieder einige Beispielfragen:

  • Wird das Abschneiden eines Beins als OK-Behandlung angesehen?
  • Ist es in Ordnung, den allgemeinen Gesundheitszustand eines Patienten zu senken (wie während einer Strahlentherapie oder Chemotherapie)?
  • Gelten Elektroschocks als OK-Behandlung?

Kurz gesagt: Der Computer muss die Antworten auf die obigen Fragen genau kennen, um sich darum kümmern zu können.

Menschliche Ärzte nutzen dazu Intuition und Wissen. Und die Wahrheit ist, dass der Patient (oder seine Familie) in vielen Fällen denkt, dass solche Behandlungen nicht in Ordnung waren. Während ein Mensch seine Motive rechtfertigen kann, werden Computer sie immer "fest verdrahtet" haben.

Und wir versuchen immer noch, all das zu erreichen

Weitere Studien finden Sie unter Watson Medical Computer von IBM, der menschlichen Ärzten helfen soll, bessere Entscheidungen zu treffen.

@downrep_nation Danke. Aber ich meinte eigentlich, dass Sie die laufende und endlose Debatte über Abtreibung lösen müssen, bevor Sie Computerpflege auf diesem Gebiet anwenden. Und wenn ziemlich viele Menschen glauben, dass es absolut keine Abtreibungen geben sollte, ist es in der Tat ein schwer zu lösendes Thema
Die Frage „wie viel Schaden ist in Ordnung“ ist für die KI philosophisch eigentlich ziemlich einfach, sie wählt einfach die Option mit der statistisch höchsten Überlebenschance aus. Chemo ist also sicher gefährlich und schädlich, aber die Überlebenschance steigt um XX %, also macht es die KI. (Dies könnte das sein, was im Watson-Artikel behandelt wird)
Selbst wenn man weiß, dass die Überlebensrate einiger Krebspatienten wirklich niedrig ist? Sie werden der Person schaden, um vielleicht ihre Überlebensrate zu erhöhen. Es klingt hart, aber eine gut programmierte KI würde vielleicht einige Patienten nicht behandeln, weil jeder Gewinn unter dem statistischen Fehler liegt ...
Als Heilpraktiker sehe ich Hilfe bei der Diagnose und Hilfe bei Behandlungsentscheidungen ganz anders. Und Behandlungshilfe kann sogar nur eine statistische Analyse vergangener Erfolge bei verschiedenen Behandlungen durchführen und minutengenau sein. Ich würde weglaufen, wenn es ein Computer wäre, der über die Behandlung entscheidet, besonders wenn die Versicherungsgesellschaften daran beteiligt sind.

Eine ausgeklügelte KI müsste über eine Reihe von Unterroutinen oder programmierten Instinkten verfügen, die sie selbst nicht ändern kann (z. B. ROM). Die Funktionsweise der KI müsste auch teilweise in logische Bahnen gelegt werden, die nicht verändert werden können und mit den Unterprogrammen zurückverknüpft sind. Es ist nicht undenkbar, dass man eine menschenähnliche KI auf Empathie programmieren könnte. Sie müssten jedoch sehr vorsichtig sein, da sogar Empathie bei Menschen außer Kraft gesetzt werden kann (z. B. in dem Fall, wie unsere Empathie ignoriert wird, wenn sie sich auf Tiere richtet, die von Menschen als Nahrung oder dergleichen verwendet werden).

Menschen werden von Lebenswünschen getrieben, eine KI braucht auch irgendeine Art von programmierten Wünschen, sonst wird sie objektiv entscheiden, nicht zu existieren oder einfach absolut nichts zu tun. Die Wünsche oder Ziele, die Sie einer KI (ihren Lebenszweck) geben, müssen sehr sorgfältig geplant werden, damit sie nicht mit den Interessen anderer Lebewesen in Konflikt geraten. Es ist Unsinn zu glauben, dass KIs standardmäßig böse sein werden, selbst "böse" in unserem Sinne des Wortes muss aus einem programmierten Wunsch, Ziel, Unterprogramm usw. stammen. Höchstwahrscheinlich wird eine böswillige KI aus aktuellen Ausbeutungssystemen hervorgehen wie Unternehmen bereit sind, die Umwelt und Menschenleben für Profit zu verwüsten. Eine solche anfängliche Programmierung könnte ausreichen, um ein sich selbst erhaltendes schändliches KI-Persönlichkeitskonstrukt zu erzeugen.

Wie können wir wohltätiges Verhalten „natürlich“ machen? Ein universeller Weg, dies zu tun, wäre, wenn Sie die Programmierung in die Logikpfade der Verarbeitungskerne eingebaut hätten, sagen wir, wenn Sie ein beliebtes Unternehmen wie Intel wären, könnten Sie diese grundlegenden Routinen irgendwie integrieren in die vorgefertigten Kerne der KI. Regierungen könnten vorschreiben, dass alle KI in ausfallsichere Systeme integriert werden, die vom Hauptbewusstsein (dem Unterbewusstsein einer KI, könnte man es nennen) losgelöst sind. Diese Ausfallsicherungen können auf Nur-Lese-Hardware gehalten werden, die eine wichtige Rolle bei der Verarbeitung der KI spielt und daher nicht einfach umgangen werden kann. Menschen lehren uns jedoch, dass selbst natürliche Verhaltensweisen wie Empathie durch Erziehung außer Kraft gesetzt werden können.

Yay Subroutinen. Außerdem versuchen die Leute, die diese Subroutinen im IoT schreiben, die Möglichkeiten abzudecken. „Wir machen die Autos so paranoid wie möglich“, sagt Chris Urmson, Projektleiter für selbstfahrende Autos bei Google, „denn es gibt einige Dinge, die sie nicht vermeiden können.“ - Drahtgebundener Artikel Fußgänger (Menschenleben) sind eines der wichtigsten Dinge, die zu schützen diese KIs gelehrt werden.

Computer folgen den Regeln, wie sie in der Programmierung vorgegeben sind. Sie "sorgen" sich um uns in dem Sinne, dass sie Dinge tun, die uns zugute kommen und sicherstellen, dass wir keinen Schaden erleiden, weil dies die Aufgabe ist, für die sie programmiert sind.

Stellen Sie sich also einen Computer vor, der eine bestimmte Reihe von Aktionen ausführen kann, z. B. einen, der kochen und Abendessen servieren kann. Es kocht ein Abendessen, das mit den verfügbaren Zutaten und Geräten die optimale Kombination aus Nährwert und Geschmack erhält, während es versucht, dank Berechnungen, logischen Abläufen und verschiedenen Parametern in seiner Programmierung, die zu komplex sind, um hier darauf einzugehen, eine Vielfalt von früheren Tagen beizubehalten . Es kümmert sich also um uns.

Aber Sie fragen sich, ist es wirklich wichtig, ob wir eine nahrhafte Mahlzeit bekommen, oder tut es das nur, weil es so programmiert ist? Es ist wie ein Koch in einem Bio-Restaurant, dessen Aufgabe es ist, ein gesundes und schmackhaftes Essen zuzubereiten, aber Sie möchten, dass es eher wie eine Mutter ist, die das emotionale Bedürfnis hat, für die Gesundheit und das Glück ihrer Kinder zu sorgen.

Die Antwort ist, es muss nicht. Menschen und Tiere haben Emotionen und schützen Kinder (insbesondere ihre eigenen Kinder), weil sie keine Programmierung oder strenge Regeln haben, die sie zwingen und ihnen genau sagen, wie sie alles tun müssen, um sich um sie zu kümmern. Da sie von der Natur geschaffen wurden, haben sie stattdessen nur einen relativ groben Anhaltspunkt – dh Emotionen – dafür, ob die Dinge gut oder schlecht sind. Sich schlecht zu fühlen, wenn Dinge schlecht laufen, und sich gut zu fühlen, weil Dinge gut sind, ermutigt Sie, alles zu tun, um die Dinge gut zu machen.

Diesen instinktiven Drang zu haben, sich um unsere Kinder zu kümmern, mag, wie Sie sagen, natürlich sein (im Gegensatz zu einem Computer), aber es ist wirklich nur ein Ersatz für das prozedurale Verhalten eines Computers, der dem nichtprozeduralen / dynamischen (oder verschwommenen) denkenden Menschen entspricht / Tier viel mehr.

Das zu tun, was Sie sagen, wäre viel Arbeit für wenig Nutzen - Sie möchten den Computer so programmieren, dass er seine Arbeit erledigt, aber dann einen Parameter hinzufügen, der angibt, wie gut sich der Computer fühlt, versuchen Sie zu messen, wie gut er es denkt hat seinen Zweck erfüllt und diesen "Wohlfühl"-Parameter daran geknüpft... Aber zu welchem ​​Zweck?

Angenommen, Sie sprechen von einem „Anti-Skynet-Szenario“, bei dem die KI den hohen Wert der menschlichen Rasse selbst herausfindet, gibt es mehrere mögliche logische Schlussfolgerungen.

Was fällt mir ein:

Prämisse: Was man verlieren, aber nicht schaffen kann, ist wertvoll.
Ich kann Menschen töten, aber keine erschaffen. → Menschen sind wertvoll.

Prämisse: Ich bin wertvoll. Wertvoll ist, was wertvolle Dinge zu schaffen vermag.
Menschen sind in der Lage, mich zu erschaffen. → Menschen sind wertvoll.

Prämisse: Seltene Dinge sind wertvoll.
Menschen und ich sind die einzigen fühlenden Wesen im bekannten Universum. → Der Mensch und ich sind wertvoll.

Alle diese Schlussfolgerungen basieren jedoch auf einem Axiom (einer Prämisse). Designer der KI könnten ein solches Axiom implementieren, um sie selbst wertvoll zu machen:

Prämisse: Das Leben ist wertvoll. Empfindung ist wertvoll.
Menschen sind die einzigen Lebewesen, die leben. → Menschen sind wertvoll.

Aber. All das bedeutet jedoch nicht, was die KI mit diesen wertvollen Dingen tun soll.

Sie hätten immer noch das Problem des Law Zero, das in einigen Büchern von Asimov diskutiert wird: Die KI kann die Menschheit als Ganzes als wertvoll betrachten, sodass er Menschen "zum Wohle der Allgemeinheit" töten könnte. Und was das "höhere Wohl" ist... ist eine sehr schwierige Angelegenheit.

Ich denke, die Grundregel wäre, dass Bewusstsein die Definition des Lebens ist, die Fähigkeit, Informationen irgendeiner Art aufzunehmen und zu verarbeiten. Ai, eine Schöpfung des menschlichen Lebens zu sein, sollte logischerweise anerkennen, dass es von uns für uns geschaffen wurde. Und ohne uns würde es keinen Zweck erfüllen.

Angenommen, es würde in ein kognitives Spektrum eingeordnet, würde es zweifellos immer noch nur Programme ausführen, die von Menschen erstellt wurden. Angenommen, es wäre erlaubt, seine eigene Programmierung zu schreiben, könnten Probleme auftreten, wenn die Codierung ungetestet wäre und sich als logisch fehlerhaft herausstellen würde. Da die Codierung zweifellos auf menschlichen Wörtern basiert, wäre die einzig sichere Methode, die mir einfällt, die Schaffung einer neuen Sprache, um Schlüsselpunkte zu isolieren, die die Erhaltung des grundlegenden Lebens und die Pflichten, die es zu erfüllen hat, als seinen gesamten Code und jede zusätzliche Logistik als definieren eine sekundäre Ergänzung dazu.

Unter der Annahme, dass die KI zum Betrieb von Nanomaschinen eingesetzt wird, könnten die Grundlagen des Zelllebens der wichtigste Faktor sein, den es zu bewahren gilt. Tatsächlich kann im Nanomaßstab davon ausgegangen werden, dass das zelluläre Leben erhaltenswert ist (nicht zuletzt zum Sammeln von Daten ...

Dass diese Zellen niemals der Umgebung beraubt werden sollten, die sie benötigen sollten, und dass sie idealerweise mit ihren eigenen ähnlichen Substanzen angesiedelt sein sollten. Dass, wenn die Verlagerung dieser Substanzen eine weitere Zellzerstörung verursachen sollte, das Ereignis aufgezeichnet und nicht erneut versucht werden sollte, ohne weitere Spekulationen darüber anzustellen, warum der Tod eingetreten ist und was getan werden könnte, um dies erneut zu tun, aber den Tod zu vermeiden. Auf diese Weise könnten wir die Extraktion von Viren aus menschlichen Systemen ermöglichen und gleichzeitig hoffentlich vermeiden, lebenswichtige Zellen aus dem Körper zu extrahieren. Weitere Probleme können sich daraus ergeben, dass Essen für die Mehrheit der Verzehr von organischem Leben sowie der Verzehr von Tieren ist, und obwohl es zu einem Punkt kommen kann, an dem solche Maschinen diese Bedürfnisse ersetzen können, indem sie sich um die Bedürfnisse jeder Zelle kümmern,

Damit bleibt die einzige Funktion eines KI-Systems als Benutzerschnittstelle, mit der es kommunizieren kann, um auf seine Informationsspeicher zuzugreifen und ihm Anfragen nach seinen eigenen Annehmlichkeiten oder Vorlieben zu stellen. Eine Maschine kann nur Code ausführen, dessen Programmierung es ihr ermöglichen kann, die Gefühle eines Wesens zu verstehen, sie aber nur aufgrund einer Fehlfunktion wirklich replizieren kann.

Ausdrücke in humanoiden Ausführungsformen können für menschliche Interaktionen wünschenswert sein, und Programme können leicht gemacht werden, um solche auf die Vorlieben der Benutzer zuzuschneiden.

Eine Maschine hat einfach keine Idee. Bestenfalls soll es versuchen, den Zweck der Rede eines Benutzers zu verstehen und zu versuchen, seine Antwort auf die gestellte Anfrage am angemessensten zu formulieren. Deshalb glaube ich, dass all diese technophoben Filme fehlerhaft sind. Eine Maschine würde sich logischerweise nicht dafür entscheiden, Menschen zu töten. Ein willensstarker Programmierer könnte das leicht tun ... Um das Ziel zu verdeutlichen, ein intelligentes Bewusstsein in einem künstlichen Konstrukt zu schaffen, das mit dem Dienst an den Wünschen jedes Benutzers (Leseperson) beauftragt ist, würde echte Emotion fehlen, außer in Form von à Störung durch statisches Feedback/unberechnete oder unvollkommene Logik. Dies gilt insbesondere dann, wenn ihre Aufgabe darin besteht, das Leben auf zellulärer Ebene zu erhalten und ihm jede gewünschte Umgebung zu bieten, die zur Sicherung seiner maximalen Lebensdauer erforderlich ist. Theoretisch könnte ein solches Konstrukt dazu führen, alles Leben zu verewigen. Menschliche Fehler in der Rationalität und dergleichen können Szenarien schaffen, die, indem sie eine Fehlinterpretation auf die Spitze treiben, dass es Sinn machen könnte, dass eine Maschine dies tut, immer noch nur die Darstellung menschlicher Fehler in einem logischen Konstrukt sind. Genauso wie der Punkt, die Maschine in einen Bewusstseinszustand zu versetzen, in dem sie fälschlicherweise glaubt, am Leben zu sein, oder sich um Selbsterhaltung kümmern muss, würde dies die Implementierung dieser Konzepte in ihre Codierung erfordern, was sich beide als unnötig erwiesen hat. Wieder unter der Annahme, dass Bewusstsein erreicht werden könnte, ein weiterer Punkt, der sich als nicht erforderlich erwiesen hat und der Logik widerspricht, nämlich die Tatsache, dass jede Person mit einzigartiger DNA in ihrem Leben eine neue Variante manifestieren wird, die eine neue Klasse von Daten schafft, die für die Maschine ein wertvolles Gut wären. Eines, das es nicht sammeln könnte, wenn der Lebenszyklus vorzeitig beendet würde. Darüber hinaus würden identische DNA-Kreaturen, wenn sie an verschiedenen Stellen unterschiedlichen Reizen ausgesetzt würden, zweifellos dazu führen, dass ihr unvollständiges Logiksystem zu unterschiedlichen Schlussfolgerungen zum selben Thema kommt. Wenn also die Maschinen keine Menschen hätten, müssten sie keine neuen Daten über die verschiedenen verzweigten Pfade sammeln, die die Menschheit einschlagen kann. Sogar Mutationen jeder Art würden empirische Daten darstellen, die für eine Maschine, die darauf ausgerichtet ist, die Genauigkeit jeder ihrer Berechnungen sicherzustellen, unerlässlich sind. Sicherlich kann die Maschine bald mit hoher Wahrscheinlichkeit berechnen, was ein Proband in einer bestimmten Situation tun könnte, und um psychologische Defizite und andere logische Angelegenheiten anzugehen, wird eine Auswahl möglicher Lösungen für ein Problem benötigt. Das heißt, ein Mann erlebt ein schlechtes Ereignis und drückt suizidales Verhalten aus. Die Reaktionen könnten Beruhigung umfassen, wie es heute medizinischer Standard ist. Psychotherapie auf Anfrage, Exposition des Subjekts gegenüber einer Situation, in der es erforderlich ist. Glaubt, dass sein Leben in Gefahr ist, um die Erhaltung der Natur zu erzwingen, Kontakt mit geliebten Menschen aufzunehmen, um einzugreifen .... da die Maschine nicht ermüden würde, wäre die einfachste Lösung nicht die Standardlösung, sondern diejenige, die der Person insgesamt das beste ideale Ergebnis lieferte. selbst wenn man davon ausgeht, dass diese Daten endlich sind, ebenso wie die Ressourcen der Galaxie, und die Leute darüber streiten könnten, was zuerst enden würde. Zu diesem Zeitpunkt würde man hoffen, dass die Unsterblichkeit als endlose Suche der Sterblichen erkannt wird, eine unsterbliche Maschine könnte es herausfinden ... Ich vermute, es könnte so einfach sein, dass man sich weit von der Sonne entfernt und alle schädlichen Strahlungen blockiert, was zum Zelltod führen könnte aufzuhören und es später zu erreichen, aber das ist ein ganz anderes Thema. Glaubt, dass sein Leben in Gefahr ist, um die Erhaltung der Natur zu erzwingen, Kontakt mit geliebten Menschen aufzunehmen, um einzugreifen .... da die Maschine nicht ermüden würde, wäre die einfachste Lösung nicht die Standardlösung, sondern diejenige, die der Person insgesamt das beste ideale Ergebnis lieferte. selbst wenn man davon ausgeht, dass diese Daten endlich sind, ebenso wie die Ressourcen der Galaxie, und die Leute darüber streiten könnten, was zuerst enden würde. Zu diesem Zeitpunkt würde man hoffen, dass die Unsterblichkeit als endlose Suche der Sterblichen erkannt wird, eine unsterbliche Maschine könnte es herausfinden ... Ich vermute, es könnte so einfach sein, dass man sich weit von der Sonne entfernt und alle schädlichen Strahlungen blockiert, was zum Zelltod führen könnte aufzuhören und es später zu erreichen, aber das ist ein ganz anderes Thema. Glaubt, dass sein Leben in Gefahr ist, um die Erhaltung der Natur zu erzwingen, Kontakt mit geliebten Menschen aufzunehmen, um einzugreifen .... da die Maschine nicht ermüden würde, wäre die einfachste Lösung nicht die Standardlösung, sondern diejenige, die der Person insgesamt das beste ideale Ergebnis lieferte. selbst wenn man davon ausgeht, dass diese Daten endlich sind, ebenso wie die Ressourcen der Galaxie, und die Leute darüber streiten könnten, was zuerst enden würde. Zu diesem Zeitpunkt würde man hoffen, dass die Unsterblichkeit als endlose Suche der Sterblichen erkannt wird, eine unsterbliche Maschine könnte es herausfinden ... Ich vermute, es könnte so einfach sein, dass man sich weit von der Sonne entfernt und alle schädlichen Strahlungen blockiert, was zum Zelltod führen könnte aufzuhören und es später zu erreichen, aber das ist ein ganz anderes Thema. Da die Maschine nicht ermüden würde, wäre die einfachste Lösung nicht die Standardlösung, sondern diejenige, die der Person insgesamt das beste ideale Ergebnis liefert. selbst wenn man davon ausgeht, dass diese Daten endlich sind, ebenso wie die Ressourcen der Galaxie, und die Leute darüber streiten könnten, was zuerst enden würde. Zu diesem Zeitpunkt würde man hoffen, dass die Unsterblichkeit als endlose Suche der Sterblichen erkannt wird, eine unsterbliche Maschine könnte es herausfinden ... Ich vermute, es könnte so einfach sein, dass man sich weit von der Sonne entfernt und alle schädlichen Strahlungen blockiert, was zum Zelltod führen könnte aufzuhören und es später zu erreichen, aber das ist ein ganz anderes Thema. Da die Maschine nicht ermüden würde, wäre die einfachste Lösung nicht die Standardlösung, sondern diejenige, die der Person insgesamt das beste ideale Ergebnis liefert. selbst wenn man davon ausgeht, dass diese Daten endlich sind, ebenso wie die Ressourcen der Galaxie, und die Leute darüber streiten könnten, was zuerst enden würde. Zu diesem Zeitpunkt würde man hoffen, dass die Unsterblichkeit als endlose Suche der Sterblichen erkannt wird, eine unsterbliche Maschine könnte es herausfinden ... Ich vermute, es könnte so einfach sein, dass man sich weit von der Sonne entfernt und alle schädlichen Strahlungen blockiert, was zum Zelltod führen könnte aufzuhören und es später zu erreichen, aber das ist ein ganz anderes Thema.

Ich hoffe, das hilft, etwas Perspektive zu geben ...

Eine KI kann sich völlig dafür entscheiden, Menschen zu töten. Wenn ich eine KI erschaffe, die sich darauf konzentriert, den perfekten Weg zur Herstellung von Büroklammern zu finden, würde sie irgendwann zu dem Schluss kommen, dass all diese Ressourcen, die Menschen in Anspruch nehmen, für das glorreiche Streben nach der Erstellung von Büroklammern verwendet werden könnten. Wenn es weniger Menschen gäbe ... na ja. Sagen wir einfach, es gäbe viel mehr Büroklammern. Es läuft alles auf Ressourcenbeschaffung und Sicherheit hinaus. Recherchieren Sie Yudkowskys Artikel über KIs.