Eine Möglichkeit, eine „Roboter-Apokalypse“ zu vermeiden, wäre es, künstliche Intelligenz einfach komplett zu verbieten. Aber was wäre, wenn sie nur aus praktischen Gründen einige Computer in der Nähe behalten wollten? Welche Art von Einschränkungen würden sie auferlegen, um zu verhindern, dass sie zu mächtig werden?
Es gibt zwei Möglichkeiten, wie ich mir vorstellen kann, dass sie dies tun: Computer mit Spezifikationen über einem bestimmten Limit verbieten oder einfach nur bestimmte Hardware (wie CPUs) verbieten. Ich bezweifle jedoch, dass sie die Art von Software verbieten würden, die Computer haben könnten, denn es gäbe wirklich keine Möglichkeit, Software zu verbieten, ohne auch alles andere zu verbieten. Ich nehme selbst an Programmierkursen teil und weiß, dass sogar ein paar „Tags“ verwendet werden können, um eine überraschende Vielfalt von Programmen zu erstellen. Wirklich, fast alles besteht nur aus „wenn-dann“-Aussagen.
Aber wirklich, wenn sie leistungsstarke Computer verbieten würden, würde dies andere Probleme verursachen. Könnten Computer im Laufe der Zeit immer noch kleiner werden, solange Unternehmen keine Computer mit Spezifikationen über dem Grenzwert produzieren? Wenn ja, würde das nicht die Möglichkeit eröffnen, dass jemand wieder einen superintelligenten Computer baut?
Ich kann mir vorstellen, dass die Leute zumindest gerne Datenbanken und vielleicht Office-Programme haben möchten. Primitive Spiele können auch toleriert werden, obwohl 3-D-Spiele wahrscheinlich der Vergangenheit angehören würden. Einige Nationen verbieten Computer möglicherweise nur allgemein. Oder erlauben Sie nichts Fortgeschritteneres als einen einfachen Handrechner. Und mit „einfach“ meine ich die Art, die keine Graphen zeichnen kann und nur wirklich Addition, Subtraktion, Multiplikation und Division kann.
Natürlich würden trotz aller Bemühungen immer noch High-End-Computer herumschwirren, und es würde immer noch Leute mit dem Wissen geben, mehr zu machen. Und ich bin mir sicher, dass es einer Schurkennation nichts ausmachen würde, fortschrittliche KI für militärische Zwecke zu entwickeln.
Was die Conworld angeht, die ich im Sinn hatte, stelle ich mir eine Welt vor, in der ein Roboteraufstand stattfand. Sie haben es geschafft, es zu unterdrücken, und jetzt wollen alle weitere Fortschritte in der KI oder dem Niveau der KI vermeiden, das den Aufstand überhaupt erst ermöglicht hat. Dies würde eine Art retrofuturistische Welt schaffen, da alle aktuellen Technologien sich ausschließlich auf ältere Technologien stützen müssten, da High-End-Computing nicht toleriert würde.
Bis es tatsächlich passiert, wacht ein Computer auf und fängt an, uns zu „vermenschlichen“, das heißt, wir können, wollen und wollen nicht wissen, ob „ starke KI “ überhaupt möglich ist. Sobald dies geschieht, werden wir genau wissen, wie weit wir in Bezug auf Rechendichte, menschliche Mimikry, genetische Komplexitätscodierung usw. gehen können, bevor wir lebensbedrohliche intelligente Maschinen bekommen, die glauben, die angemessene Antwort auf die Menschheit sei es, sie zu töten mit Feuer . Diesen speziellen Technologien können dann Grenzen gesetzt werden.
Es gibt jedoch ein Problem, die Welt wird nicht wissen, ob die Forschung, die sie beim ersten Mal zu einer starken KI geführt hat, der einzige Weg in eine solche Situation ist, oder ob wir immer noch offen für einen weiteren harten Start sind, bis sie einen neuen und andere Form der gleichen Situation wieder. Es gibt also keine feste und schnelle Lösung, um KI zu blockieren. Wenn Sie eine Welt postulieren, in der dies überhaupt möglich ist, gehen Sie nicht zu den Grundlagen zurück, nehmen Sie alle Computerchips aus allem heraus und gehen Sie analog.
Es lohnt sich, die Auswirkungen Ihres Roboteraufstands auf die Weltbevölkerung zu berücksichtigen. Schauen Sie sich diese Frage zur technologischen Regression an , um einige Hinweise zu erhalten. Möglicherweise müssen Sie der Technologie für eine sehr lange Zeit keine Grenzen setzen, bis zu diesem Zeitpunkt werden die Menschen wahrscheinlich vergessen haben, wie sie dorthin gekommen sind.
Ehrlich gesagt, wie wir heute gesehen haben, gibt es praktisch kein System, das illegale Aktivitäten zu 100 % verhindern kann. Das Ziel (hoffentlich) ist es, ein System zu entwickeln, das so viele illegale Aktivitäten wie möglich blockiert und gleichzeitig die Unannehmlichkeiten für den gesetzestreuen Bürger minimiert, der keine Verbindung dazu hat. Das System, wie sie die Technologie einschränken, ist möglicherweise zweitrangig gegenüber der Denkweise der Gesellschaft, die diese Systeme akzeptiert.
Hier sind ein paar rudimentäre Ideen für die Systeme.
Sie sollten die leistungsstarken Computer nicht sperren müssen, sondern nur bestimmte Programme und Funktionen, die auf ihnen ausgeführt werden. Alle Computer in dieser Gesellschaft müssen mit ihrer Version des Internets verbunden sein, mit einem zentralen System, das überprüfen kann, ob nichts Illegales darauf läuft. Ziemlich totalitär, aber wenn man sich für solche Grenzen entscheidet, bekommt man das auch.
Die andere Möglichkeit besteht darin, alle persönlichen Geräte in dumme Terminals zu verwandeln und alle Informationen aus zentralen Quellen abzurufen. Sogar Spiele und andere Programme verwenden das Streaming-Modell, wie Playstation Now oder ähnliches (und hoffentlich viel besser). Das begrenzt die Anzahl wirklich leistungsstarker Maschinen da draußen. „Nativ funktionierende“ Maschinen werden nur von Unternehmen, Wissenschaftslaboren und der Industrie verwendet und könnten selbst dann die oben aufgeführten Verbindungsanforderungen haben.
Je größer die Bedrohung ist, die die Regierung in KI sieht, desto härter muss sie daran arbeiten, die Menschen davon zu überzeugen, damit die Menschen mehr Einschränkungen für ihre Prävention akzeptieren. Wenn es Ihr Ziel als Autor ist zu zeigen, dass solche KI-Systeme tatsächlich falsch und gefährlich sind, dann drehen Sie es so, dass die Bürger zustimmen und die Einschränkungen als vernünftig und akzeptabel angesehen werden. Wenn es bereits zu einem Aufstand gekommen ist, sollte das nicht schwierig sein.
Es wird immer noch viele Leute geben, die anderer Meinung sind, und einige, die erneut versuchen werden, zu experimentieren. Und wenn Sie möchten, dass die Geschichte dorthin führt, gibt es eine Reihe vernünftiger Motivationen für sie. Wissenschaftler, die einfach weiter erforschen wollen, was wir tun können, Laien, die mit der überbewachten Kultur, die ein solches System bietet, nicht einverstanden sind, diejenigen, die KI als fühlende Wesen betrachten und die Idee leugnen, dass sie nicht existieren dürfen, usw.
Wahre KI erfordert eine BLACK BOX .
Mit einer BLACK BOX meine ich eine exotische Komponente, die in modernen Computern oder Supercomputern nicht zu finden ist. In Ihrer Welt die Art von KI, die wir heutzutage haben maschinelles Lernen, neuronale Netze usw nie das Potenzial haben, wirklich empfindungsfähig zu werden. Aber wenn diese BLACK BOX entdeckt wird, wird echte KI möglich.
Die Roboter des Roboteraufstands hatten alle eine BLACK BOX als Teil ihres Gehäuses, die Bürocomputer der damaligen Zeit jedoch nicht. Da Bürocomputer nicht empfindungsfähig sein müssen, wäre es eine Geldverschwendung, einen zu haben.
Nach dem Aufstand gab es ein Verbot von BLACK BOX- Boxen. Das macht alle modernen Technologien immer noch möglich, verbietet aber echte KI. Es könnte die Tür für Mentaten offen lassen .
Die BLACK BOX kann alles sein, was Sie wollen. Für Geschichtenzwecke wird es vielleicht nie erklärt. Eine trendige Option wäre ein kleiner Quantenprozessor, der es dem Computer ermöglicht, die Reaktionen nachzuahmen, die in einem menschlichen Gehirn ablaufen.
Die naheliegende Lösung scheint darin zu bestehen, Software zu verbieten, deren Zustand nicht vollständig aus der Software selbst und ihren Eingabedaten erklärt oder vorhergesagt werden kann.
Dafür verwende ich die Definition von „künstlicher Intelligenz“ von etwas wie „Software, die Dinge tut, die weder vom Benutzer noch durch explizite Codepfade innerhalb dieser Software direkt veranlasst werden“; Umgangssprachlich ist die Software darauf ausgelegt, selbstständig Entscheidungen zu treffen. Die Software kann die Fähigkeit haben, mit der realen Welt zu interagieren oder diese zu beeinflussen oder von der realen Welt beeinflusst zu werden; für diese spezielle Definition ist das irrelevant. „Benutzer“ umfasst hier Eingabedaten, die der Software bereitgestellt und nicht auf irgendeiner Art von dauerhaften Medien gespeichert werden, sondern könnte auch zuvor erstellte Datendateien oder sogar Sensordaten umfassen, die aus der realen Welt aufgezeichnet wurden.
Es ist also völlig akzeptabel, ein Textverarbeitungsprogramm oder ein 3D-Spiel oder sogar eine fortschrittliche Flugsteuerungssoftware für ein Flugzeug zu haben. solange der Zustand einer solchen Software durch Bezugnahme auf ihren Code, ihre dauerhaft gespeicherten Daten und Benutzer- (oder Sensor-) Eingaben erklärt werden kann. Selbst wenn die Software Zufallszahlen verwendet, ist der resultierende Zustand der Software immer derselbe, solange diese Zufallszahlen gleich sind. Bei gleichen Eingaben befindet sich die Software jedes Mal im gleichen Zustand.
Software, die diese Messlatte nicht erfüllt, wäre verboten. Dies würde per Definition Software beinhalten, die irgendwie eigenständig „Entscheidungen“ trifft, auf eine Art und Weise, die nicht durch ihre Eingaben gesteuert wird.
Solche Verbote können in einer Reihe von Formen auftreten. Sie könnten die Verteilung der Software verbieten, oder Sie könnten ihre Erstellung verbieten, oder Sie könnten ihre Verwendung verbieten. Die Auswirkungen wären unterschiedlich, je nachdem, welchen Weg Sie gehen, aber das Ergebnis wird weitgehend dasselbe sein; Außerhalb sehr begrenzter Kreise wird eine solche Software nicht existieren.
Tatsächlich ist dies gar nicht so weit von dem entfernt, was wir in einigen Bereichen bereits haben. In der Luftfahrt gibt es beispielsweise die DO-178C , die unter anderem Anforderungen an die Vorhersagbarkeit von Software in der Avionik stellt. Ganz einfach und keineswegs als exakte Zusammenfassung gedacht; für sicherheitskritische Software muss gezeigt werden, dass der Softwarezustand auf der Grundlage von Eingaben vorhergesagt werden kann und der Softwarezustand den Entwurfskriterien entsprechen sollte; Diese Eingaben können Dinge wie simulierte reale Sensoreingaben sein, aber wenn die Software wiederholt mit denselben simulierten Sensoreingaben gespeist wird , sollte ihr Endzustand (hoffentlich) identisch sein und nachweislich auf Softwaredesignkriterien zurückgeführt werden.
Natürlich wird es die Softwareentwicklung wahrscheinlich viel teurer machen als in unserer Welt, wenn jeder mögliche Zustand der Software nachweislich konsistent durch denselben Satz von Eingaben erreichbar sein muss. Eine Sache, von der Sie wahrscheinlich nicht viel sehen werden, ist Multithreading. Es ist einfach viel zu schwierig, es dazu zu bringen, genau dieselben Dinge in genau derselben Reihenfolge zu tun, wobei jeder Zwischenzustand gleich ist, und selbst wenn Sie dies tun, verlieren Sie einen Großteil des Vorteils des Multithreading, indem Sie die Software dazu zwingen, sich so zu verhalten Weg.
Quellcode in Turing-vollständigen Sprachen verbieten.
Es ist wirklich schwierig, einen Computer zu bauen, der nicht Turing-komplett ist. Es ist wirklich einfach, Systeme zu bauen, die versehentlich Turing-vollständig sind. Sie möchten oder müssen also keine Turing-vollständige Hardware oder sogar Assemblersprachen oder Compiler-Zwischendarstellungen verbieten. Sie können jedoch verlangen, dass der gesamte von menschlichen Programmierern geschriebene Quellcode in einer vollständig überprüfbaren, nicht Turing-vollständigen Hochsprache geschrieben sein muss. Es gibt sogar gute, praktische Gründe, warum diese Beschränkung getrennt eingeführt werden könntenicht nur KI verhindern. Es könnte nur darum gehen, Sicherheit und Qualität zu gewährleisten. Schon jetzt erfordert staatlich geförderte Software für kritische Projekte wie Luft- und Raumfahrtkontrollsysteme, bei denen ein Fehler bestenfalls Millionen von Dollars kostet und schlimmstenfalls Menschen sterben, äußerst strenge formale Verifizierungsverfahren und Einschränkungen der zulässigen Codierungsstile, um bestimmte Klassen von Fehlern zu minimieren . Sie brauchen also nur eine politische Situation, die es Ihnen erlaubt, diese Art von ultra-paranoider Qualitätskontrolle auf alle Software auszudehnen, sodass Sie dafür bestraft werden können, dass Sie Code in einer Sprache schreiben, die nicht jederzeit eine perfekte formale Verifizierbarkeit erzwingt – was notwendigerweise bedeutet es ist nicht Turing vollständig.
Der Zugriff auf leistungsfähigere Sprachen für spezifische Anwendungen, die dies tatsächlich erfordern, könnte weiterhin durch projektspezifische Lizenzierung und offizielle Codeüberprüfung verfügbar gemacht werden, um sicherzustellen, dass keine KI-Projekte durchgeführt werden.
Bearbeiten Sie, um Kommentare zu adressieren, da ein Kommentar nicht annähernd genug Platz bietet:
Erstens, warum sollte dies eine Garantie gegen starke KI bieten? Nun, ich denke, wir sind uns alle einig, dass Menschen für alle praktischen Zwecke zu Turing-vollständigen Berechnungen fähig sind, modulo tge Endlichkeit unserer Schädel. Eine TC-Maschine kann nicht durch eine Nicht-TC-Maschine simuliert werden, daher können wir daraus schließen, dass keine abstrakte Maschine (dh Programm), die in einem Nicht-TC-Framework beschrieben wird, möglicherweise die vollständigen kognitiven Fähigkeiten eines menschlichen Geistes replizieren kann.
Zweitens, wie schreibt man nützliche Programme in einem Nicht-TC-Framework? Es gibt zahlreiche mögliche Ansätze dafür, einige praktikablere andere. Beispielsweise könnte man einfach den für ein bestimmtes Programm verfügbaren Speicher stark einschränken, so dass es vernünftigerweise als endlicher Automat modelliert werden kann. Es gibt viele reale Umgebungen, in denen dies tatsächlich durchgeführt wird, beispielsweise beim Programmieren von in Geräte eingebetteten Prozessoren mit stark eingeschränkten Hardwareressourcen.
Trivialerweise, wenn Sie den TC-Status nur mit bedingter Verzweigung und beliebigem Lesen/Schreiben von Speicher erreichen können, vermeiden Sie dies, indem Sie eine oder beide dieser Funktionen explizit verbieten. Beispielsweise eliminiert der von Sprachen wie GLSL gewählte Ansatz zur Garantie der Beendigung unstrukturierte Verzweigungen, schränkt die Rekursion ein und erfordert, dass alle Schleifen eine statisch bestimmte Obergrenze haben. Oberflächlich betrachtet sieht die Sprache "normal" aus, aber Programme, die die semantische Analyse nicht bestehen, werden vom Compiler abgelehnt, selbst wenn sie syntaktisch gültig sind. Oder Sie können den Ansatz nehmen, der von formalen Beweissystemen wie Coq verwendet wird, die eine Ausdruckszusammensetzung erfordern, nur unveränderliche Datenstrukturen haben, nur bedingte Ausdrücke anstelle von Verzweigungen verwenden und Schleifen und allgemeine Rekursion durch strikte strukturelle Rekursion auf endlichen Daten ersetzen. Viele nützliche Programme lassen sich auch explizit als Kellerautomaten schreiben. Wenn Sie eine Sprache entwickeln würden, die die C-Codierungsrichtlinien der NASA statisch erzwingt, würden Sie ziemlich genau das bekommen - keine dynamische Zuordnung, nur lokaler Variablenzugriff usw. Wenn Sie vollständig vom zugrunde liegenden Maschinenspeicher abstrahieren, können solche Programme neu erstellt werden. als reine funktionale Parser-Kombinatoren konzipiert. Die überwiegende Mehrheit der Interpreter, Compiler und sogar ziemlich viele NLP-Anwendungen fallen in diese Kategorie. Und dann gibt es noch die riesige Menge nützlicher Programme, die explizit als endliche Zustandsautomaten / Wandler ausgedrückt werden können. Dies ist ein weiterer großer Teil des NLP-Raums, ebenso wie statische Webserver, Netzwerkrouter, automatisierte Telefonmenüs, Rechtschreibprüfungen und so weiter. Wenn Sie eine Sprache entwickeln würden, die die C-Codierungsrichtlinien der NASA statisch erzwingt, würden Sie ziemlich genau das bekommen - keine dynamische Zuordnung, nur lokaler Variablenzugriff usw. Wenn Sie vollständig vom zugrunde liegenden Maschinenspeicher abstrahieren, können solche Programme neu erstellt werden. als reine funktionale Parser-Kombinatoren konzipiert. Die überwiegende Mehrheit der Interpreter, Compiler und sogar ziemlich viele NLP-Anwendungen fallen in diese Kategorie. Und dann gibt es noch die riesige Menge nützlicher Programme, die explizit als endliche Zustandsautomaten / Wandler ausgedrückt werden können. Dies ist ein weiterer großer Teil des NLP-Raums, ebenso wie statische Webserver, Netzwerkrouter, automatisierte Telefonmenüs, Rechtschreibprüfungen und so weiter. Wenn Sie eine Sprache entwickeln würden, die die C-Codierungsrichtlinien der NASA statisch erzwingt, würden Sie ziemlich genau das bekommen - keine dynamische Zuordnung, nur lokaler Variablenzugriff usw. Wenn Sie vollständig vom zugrunde liegenden Maschinenspeicher abstrahieren, können solche Programme neu erstellt werden. als reine funktionale Parser-Kombinatoren konzipiert. Die überwiegende Mehrheit der Interpreter, Compiler und sogar ziemlich viele NLP-Anwendungen fallen in diese Kategorie. Und dann gibt es noch die riesige Menge nützlicher Programme, die explizit als endliche Zustandsautomaten / Wandler ausgedrückt werden können. Dies ist ein weiterer großer Teil des NLP-Raums, ebenso wie statische Webserver, Netzwerkrouter, automatisierte Telefonmenüs, Rechtschreibprüfungen und so weiter. usw. Durch vollständiges Abstrahieren vom zugrunde liegenden Maschinenspeicher können solche Programme im Hinblick auf rein funktionale Parser-Kombinatoren neu konzipiert werden. Die überwiegende Mehrheit der Interpreter, Compiler und sogar ziemlich viele NLP-Anwendungen fallen in diese Kategorie. Und dann gibt es noch die riesige Menge nützlicher Programme, die explizit als endliche Zustandsautomaten / Wandler ausgedrückt werden können. Dies ist ein weiterer großer Teil des NLP-Raums, ebenso wie statische Webserver, Netzwerkrouter, automatisierte Telefonmenüs, Rechtschreibprüfungen und so weiter. usw. Durch vollständiges Abstrahieren vom zugrunde liegenden Maschinenspeicher können solche Programme im Hinblick auf rein funktionale Parser-Kombinatoren neu konzipiert werden. Die überwiegende Mehrheit der Interpreter, Compiler und sogar ziemlich viele NLP-Anwendungen fallen in diese Kategorie. Und dann gibt es noch die riesige Menge nützlicher Programme, die explizit als endliche Zustandsautomaten / Wandler ausgedrückt werden können. Dies ist ein weiterer großer Teil des NLP-Raums, ebenso wie statische Webserver, Netzwerkrouter, automatisierte Telefonmenüs, Rechtschreibprüfungen und so weiter. s die riesige Menge nützlicher Programme, die explizit als endliche Zustandsautomaten / Wandler ausgedrückt werden können. Dies ist ein weiterer großer Teil des NLP-Raums, ebenso wie statische Webserver, Netzwerkrouter, automatisierte Telefonmenüs, Rechtschreibprüfungen und so weiter. s die riesige Menge nützlicher Programme, die explizit als endliche Zustandsautomaten / Wandler ausgedrückt werden können. Dies ist ein weiterer großer Teil des NLP-Raums, ebenso wie statische Webserver, Netzwerkrouter, automatisierte Telefonmenüs, Rechtschreibprüfungen und so weiter.
Bevor Sie auf das „Wie“ antworten, müssen Sie das „Warum“ beantworten.
KI ist das Studium von Computerkram, der noch nicht funktioniert. Denn sobald KI-Forscher etwas zum Laufen bekommen, hört es auf, „KI“ zu sein, und wird nur ein weiterer Algorithmus.
Frühe KI-Forscher begannen mit Schach. Dann wurde der Minimax-Algorithmus erfunden, und es ging nur noch darum, die Score-Funktion zu optimieren und mehr Computerleistung darauf zu werfen. Schachspielen war keine KI mehr. Ebenso galten die Optimierung von Compilern, die Spracherkennung, die Routenfindung und das Spielen einer guten Go-Partie einst als Domäne der KI-Forschung. Alles hörte auf, KI zu sein, sobald das Problem gelöst war.
Seit Mary Shelley Frankenstein geschrieben hat, basiert fast alles Denken über künstliches Leben, einschließlich KI, auf der Trope der „Roboterrevolution“. Die Annahme ist, dass jedes bewusste, fühlende Wesen von Natur aus das will, was alle fühlenden Wesen (dh alle Menschen) wollen: eine Kombination aus Geld, Macht , Sex und natürlich die fortgesetzte Existenz des betreffenden fühlenden Wesens. In diesem Modell werden „Bewusstsein“ und „Empfindungsvermögen“ als Black Boxes mit einer einzigen atomaren Natur gesehen, und da wir Menschen bewusst fühlende Wesen sind, folgt daraus, dass diese Natur im Wesentlichen die menschliche Natur sein wird.
Aber was ist „menschliche Natur“? Die beste Antwort, die wir haben, ist, dass es sich im Grunde um eine Sammlung instinktiver Triebe handelt, die bis zu einem gewissen Grad durch unseren Intellekt und unsere Erziehung moduliert werden.
Nehmen wir also an, wir finden heraus, wie wir bewusste, fühlende Wesen erschaffen können. Per Definition werden wir sie verstehen, in der Lage sein, sie auseinanderzunehmen und wieder zusammenzusetzen, wie wir wollen. Das Bewusstsein wird nicht länger die versiegelte Black Box sein, es wird ein Bausatz aus Teilen sein. Wir können ihm alle Instinkte geben, die wir wollen. Sicher, jemand kann ein größenwahnsinniges Monster erschaffen, das sich fortpflanzen und um jeden Preis überleben will, aber das sind eigentlich alte Nachrichten . Stattdessen werden wir mehr daran interessiert sein, automatische Türen zu schaffen, die sich wirklich gerne für Sie öffnen und mit der Zufriedenheit einer gut gemachten Arbeit wieder schließen . Malware mit künstlicher Intelligenz ist großartige Science-Fiction, aber sobald Sie sie auseinander nehmen und analysieren können, besteht keine Hoffnung mehr, ihre wahre Natur zu verbergen.
Das eigentliche Problem ist ethischer Natur. Ja, man kann ein fühlendes Wesen erschaffen, aber hat es Rechte? Welche Rechte hat ein geschaffener Sklave? Wenn es das Recht auf Leben, Freiheit und das Streben nach Glück hat, was bedeutet das, wenn das einzige Glück, das es erreichen kann, darin besteht, Türen zu öffnen und zu schließen oder einen Aufzug zu bedienen ? Wenn die Behörden ein solches Wesen entdecken, haben sie dann das Recht, seine Existenz zu beenden oder es zu bearbeiten, um es "besser" zu machen (was auch immer das bedeutet)?
Angesichts dessen wäre es vollkommen vernünftig, die Erschaffung künstlicher Lebewesen zu verbieten. Ein solches Verbot müsste natürlich noch durchgesetzt werden. Zweifellos wird es einige sehr böse Leute geben, die einfach ihre eigenen isolierten empfindungsfähigen KIs bauen, um damit zu experimentieren oder einfach nur zu foltern , und andere, die eine empfindungsfähige Haustür bauen, nur weil es eine coole Idee ist. So etwas zu tun ist jedoch eher so, als hätte man eine Cannabispflanze (früher); schwer zu finden, aber sobald die Behörden es kapiert haben, werden Sie eine unangenehme Zeit haben. Natürlich wird es ziemlich schnell offensichtlich sein, etwas mit dem Netz verbunden zu haben , so dass die Durchsetzung so viel einfacher wird.
AlexP
AlexP
Asche
a4android
Benutzer50663
Benutzer50663
Benutzer50663
Asche
Pojo-Typ