Wie würde eine Gesellschaft künstliche Intelligenz verbieten, ohne Computer zu verbieten? [geschlossen]

Eine Möglichkeit, eine „Roboter-Apokalypse“ zu vermeiden, wäre es, künstliche Intelligenz einfach komplett zu verbieten. Aber was wäre, wenn sie nur aus praktischen Gründen einige Computer in der Nähe behalten wollten? Welche Art von Einschränkungen würden sie auferlegen, um zu verhindern, dass sie zu mächtig werden?

Es gibt zwei Möglichkeiten, wie ich mir vorstellen kann, dass sie dies tun: Computer mit Spezifikationen über einem bestimmten Limit verbieten oder einfach nur bestimmte Hardware (wie CPUs) verbieten. Ich bezweifle jedoch, dass sie die Art von Software verbieten würden, die Computer haben könnten, denn es gäbe wirklich keine Möglichkeit, Software zu verbieten, ohne auch alles andere zu verbieten. Ich nehme selbst an Programmierkursen teil und weiß, dass sogar ein paar „Tags“ verwendet werden können, um eine überraschende Vielfalt von Programmen zu erstellen. Wirklich, fast alles besteht nur aus „wenn-dann“-Aussagen.

Aber wirklich, wenn sie leistungsstarke Computer verbieten würden, würde dies andere Probleme verursachen. Könnten Computer im Laufe der Zeit immer noch kleiner werden, solange Unternehmen keine Computer mit Spezifikationen über dem Grenzwert produzieren? Wenn ja, würde das nicht die Möglichkeit eröffnen, dass jemand wieder einen superintelligenten Computer baut?

Ich kann mir vorstellen, dass die Leute zumindest gerne Datenbanken und vielleicht Office-Programme haben möchten. Primitive Spiele können auch toleriert werden, obwohl 3-D-Spiele wahrscheinlich der Vergangenheit angehören würden. Einige Nationen verbieten Computer möglicherweise nur allgemein. Oder erlauben Sie nichts Fortgeschritteneres als einen einfachen Handrechner. Und mit „einfach“ meine ich die Art, die keine Graphen zeichnen kann und nur wirklich Addition, Subtraktion, Multiplikation und Division kann.

Natürlich würden trotz aller Bemühungen immer noch High-End-Computer herumschwirren, und es würde immer noch Leute mit dem Wissen geben, mehr zu machen. Und ich bin mir sicher, dass es einer Schurkennation nichts ausmachen würde, fortschrittliche KI für militärische Zwecke zu entwickeln.

Was die Conworld angeht, die ich im Sinn hatte, stelle ich mir eine Welt vor, in der ein Roboteraufstand stattfand. Sie haben es geschafft, es zu unterdrücken, und jetzt wollen alle weitere Fortschritte in der KI oder dem Niveau der KI vermeiden, das den Aufstand überhaupt erst ermöglicht hat. Dies würde eine Art retrofuturistische Welt schaffen, da alle aktuellen Technologien sich ausschließlich auf ältere Technologien stützen müssten, da High-End-Computing nicht toleriert würde.

Was ist eine „Gesellschaft“? Eine Stadt, ein Land, ein loser Zusammenschluss mehrerer Länder wie die EU, „der Westen“, alle Menschen? Für eine Stadt oder ein Land oder sogar die gesamte EU wird es nicht funktionieren – andere Städte oder Länder, die ihre Technologie nicht freiwillig einschränken, werden sie wirtschaftlich erdrücken und schließlich erobern. Es ist ziemlich offensichtlich, dass solch eine dumme Idee nur überleben kann, wenn die ganze Menschheit zustimmt, an die dummen Regeln gebunden zu sein; aber dann haben Sie ein viel schwierigeres Problem: Wie kann man die ganze Menschheit unter der eisernen Ferse eines Diktators vereinen?
KI bedeutet viele Dinge für Menschen, die keine Informatiker sind. Bitte klären Sie, was Sie mit KI meinen, denn zwischen KI im Allgemeinen und „Roboteraufstand“ liegt eine ganze Welt. Sie überschätzen die Rechenleistung, die für praktische KI benötigt wird. Eines der ersten erfolgreichen Expertensysteme war das legendäre XCON , das auf Computern hundertmal langsamer lief als der billigste Atom-Prozessor der Einstiegsklasse, den Sie heute kaufen können. Wir wissen immer noch nicht, ob es möglich ist, eine Allzweck-KI mit Selbstbewusstsein zu entwickeln , und wir sind noch lange nicht in der Lage, eine solche herzustellen.
Für eine interessante und möglicherweise aufschlussreiche Behandlung des Themas sehen Sie nach, ob Sie ein Exemplar von Antibodies von Charles Stross bekommen können, es befindet sich in der Toast- Sammlung. Das ist übrigens auch so ziemlich die Geschichte der Dune- Reihe.
Computer sind jetzt praktisch allgegenwärtig und wir haben keine KI im vollständig selbstbewussten Modus. Sicherlich nicht auf Roboter-Apokalypse-Niveau. Wenn echte KI verboten wäre, würde sie auf Computern oder Netzwerken laufen, die weitaus leistungsfähiger sind als alles, was wir heute haben. Ihre Retro-Future-Welt würde viel computerisierter aussehen als Ihre. Also gäbe es überall viele Computer. Aber keine KI oder intelligente Roboter.
Nun, ich gebe zu, ein Grund für das Verbot ist auch, „technologische Arbeitslosigkeit“ zu vermeiden. Also wirklich, jede Form der physischen Automatisierung ist verboten. Sie wollen keine Maschinen, die die Welt irgendwie physisch beeinflussen oder eigenständig Entscheidungen treffen können. Ich persönlich denke nicht, dass der „Aufstand“ wirklich eine „Revolte“ war, sondern mehr nur Militärroboter, die schief gelaufen sind. Sie hatten Maschinen, die ihren gesamten militärisch-industriellen Komplex steuerten und ihm sogar erlaubten, selbst Entscheidungen zu treffen. Der Computer tat schließlich Dinge, die für das organische Leben nicht gut waren. Außerdem hatte es die Fähigkeit, mehr von sich selbst herzustellen
Was passierte, war eher eine außer Kontrolle geratene Vermehrung von Fabrikrobotern als alles andere. Sie haben der Umwelt großen Schaden zugefügt, da ihnen das Klima natürlich egal ist (sie brauchen weder Nahrung noch Sauerstoff). Die Maschinen würden sogar Städte nur für Ressourcen dem Erdboden gleichmachen. Ich sehe sie nicht wirklich als wirklich intelligent an, aber sie würden gedankenlos Dinge tun, die Menschen nützen oder auch nicht. Menschen haben Computern einfach zu viel Einfluss gegeben. Ich meine, sie verließen sich auf sie für wissenschaftliche Forschung und sogar um einige militärische Entscheidungen zu treffen.
Sie benutzten Computer für militärische Taktiken und sagten ihnen sogar, wie sie Ressourcen verteilen und was sie herstellen sollten. Sie benutzten im Grunde Taschenrechner, um zu entscheiden, was sie tun sollten. Es erlaubt den Rechnern sogar, militärische Hardware direkt zu steuern. Offensichtlich endete dies in einer Katastrophe. Und natürlich kann ich mir vorstellen, dass die Menschen angesichts der Dinge, die heute online ablaufen (wie die Einmischung Russlands in ausländische Wahlen), in Zukunft viel vorsichtiger gegenüber dem Internet sein würden als wir es jetzt sind.
Stellen Sie sicher, dass Sie die richtige Art und Stufe der KI einsetzen. „Starke KI“ ist im Grunde ein Mensch auf einer Festplatte; Es gibt weitaus mächtigere künstliche Wesen in diesem Spektrum.
Aus der Perspektive eines Branchenkenners ist künstliche Intelligenz ein bewegliches Ziel. In den frühen Tagen reichte eine ausgefallene „Switch“-Anweisung aus, um als Expertensystem zu gelten. Dann war es eine Zeitlang Heuristik. In jüngerer Zeit sind es verschiedene Arten von neuronalen Netzen. An diesem Punkt haben Maschinen noch keinen Willen, obwohl sie Lösungen für Fragen finden können, die ihnen nie gestellt wurden, als Nebeneffekt der Lösung bestimmter Probleme.

Antworten (6)

Bis es tatsächlich passiert, wacht ein Computer auf und fängt an, uns zu „vermenschlichen“, das heißt, wir können, wollen und wollen nicht wissen, ob „ starke KI “ überhaupt möglich ist. Sobald dies geschieht, werden wir genau wissen, wie weit wir in Bezug auf Rechendichte, menschliche Mimikry, genetische Komplexitätscodierung usw. gehen können, bevor wir lebensbedrohliche intelligente Maschinen bekommen, die glauben, die angemessene Antwort auf die Menschheit sei es, sie zu töten mit Feuer . Diesen speziellen Technologien können dann Grenzen gesetzt werden.

Es gibt jedoch ein Problem, die Welt wird nicht wissen, ob die Forschung, die sie beim ersten Mal zu einer starken KI geführt hat, der einzige Weg in eine solche Situation ist, oder ob wir immer noch offen für einen weiteren harten Start sind, bis sie einen neuen und andere Form der gleichen Situation wieder. Es gibt also keine feste und schnelle Lösung, um KI zu blockieren. Wenn Sie eine Welt postulieren, in der dies überhaupt möglich ist, gehen Sie nicht zu den Grundlagen zurück, nehmen Sie alle Computerchips aus allem heraus und gehen Sie analog.

Es lohnt sich, die Auswirkungen Ihres Roboteraufstands auf die Weltbevölkerung zu berücksichtigen. Schauen Sie sich diese Frage zur technologischen Regression an , um einige Hinweise zu erhalten. Möglicherweise müssen Sie der Technologie für eine sehr lange Zeit keine Grenzen setzen, bis zu diesem Zeitpunkt werden die Menschen wahrscheinlich vergessen haben, wie sie dorthin gekommen sind.

RE zurück zum Analogen: Die einzig wahren Intelligenzen, die wir kennen, sind analog...

Ehrlich gesagt, wie wir heute gesehen haben, gibt es praktisch kein System, das illegale Aktivitäten zu 100 % verhindern kann. Das Ziel (hoffentlich) ist es, ein System zu entwickeln, das so viele illegale Aktivitäten wie möglich blockiert und gleichzeitig die Unannehmlichkeiten für den gesetzestreuen Bürger minimiert, der keine Verbindung dazu hat. Das System, wie sie die Technologie einschränken, ist möglicherweise zweitrangig gegenüber der Denkweise der Gesellschaft, die diese Systeme akzeptiert.

Hier sind ein paar rudimentäre Ideen für die Systeme.

Sie sollten die leistungsstarken Computer nicht sperren müssen, sondern nur bestimmte Programme und Funktionen, die auf ihnen ausgeführt werden. Alle Computer in dieser Gesellschaft müssen mit ihrer Version des Internets verbunden sein, mit einem zentralen System, das überprüfen kann, ob nichts Illegales darauf läuft. Ziemlich totalitär, aber wenn man sich für solche Grenzen entscheidet, bekommt man das auch.

Die andere Möglichkeit besteht darin, alle persönlichen Geräte in dumme Terminals zu verwandeln und alle Informationen aus zentralen Quellen abzurufen. Sogar Spiele und andere Programme verwenden das Streaming-Modell, wie Playstation Now oder ähnliches (und hoffentlich viel besser). Das begrenzt die Anzahl wirklich leistungsstarker Maschinen da draußen. „Nativ funktionierende“ Maschinen werden nur von Unternehmen, Wissenschaftslaboren und der Industrie verwendet und könnten selbst dann die oben aufgeführten Verbindungsanforderungen haben.

Je größer die Bedrohung ist, die die Regierung in KI sieht, desto härter muss sie daran arbeiten, die Menschen davon zu überzeugen, damit die Menschen mehr Einschränkungen für ihre Prävention akzeptieren. Wenn es Ihr Ziel als Autor ist zu zeigen, dass solche KI-Systeme tatsächlich falsch und gefährlich sind, dann drehen Sie es so, dass die Bürger zustimmen und die Einschränkungen als vernünftig und akzeptabel angesehen werden. Wenn es bereits zu einem Aufstand gekommen ist, sollte das nicht schwierig sein.

Es wird immer noch viele Leute geben, die anderer Meinung sind, und einige, die erneut versuchen werden, zu experimentieren. Und wenn Sie möchten, dass die Geschichte dorthin führt, gibt es eine Reihe vernünftiger Motivationen für sie. Wissenschaftler, die einfach weiter erforschen wollen, was wir tun können, Laien, die mit der überbewachten Kultur, die ein solches System bietet, nicht einverstanden sind, diejenigen, die KI als fühlende Wesen betrachten und die Idee leugnen, dass sie nicht existieren dürfen, usw.

Ein Problem bei diesem Konzept besteht darin, dass es eine vollständige globale Zusammenarbeit erfordert. Aber wenn eine funktionierende KI jemandem (einer Regierung / einem Unternehmen / einer kriminellen Organisation / einer terroristischen Gruppe) einen militärischen oder wirtschaftlichen Vorteil verschaffen kann, dann möchten Sie wahrscheinlich nicht nur einen haben, sondern Sie möchten ihn vor sich haben Wettbewerb tut. Dies gilt auch nach einer Beinahe-Apokalypse – es wird zwangsläufig einige Organisationen geben, die die möglichen Gewinne über die Risiken stellen. Und das werden nicht nur abtrünnige Wissenschaftler und Anarchisten sein – sondern Regierungen, Megakonzerne und illegale Organisationen …
Deshalb sagte ich, es grenzte an unmöglich, es perfekt durchzusetzen. Keimkrieg ist absolut illegal, aber anzunehmen, dass alle Großmächte keine Vorräte haben, selbst wenn sie es so darstellen: „Falls es jemals zu einem Ausbruch kommt, brauchen wir Kulturen, um ein Heilmittel zu schaffen“, täuschen Sie sich. Wenn KI jemals wieder legal würde oder wenn etwas Schlimmes passierte und nur noch mehr KI helfen könnte, dann könnte jeder behaupten, er habe die größte Nacht aller Zeiten durchgezogen und herausgetrabt, was er die ganze Zeit hatte

Wahre KI erfordert eine BLACK BOX .

Mit einer BLACK BOX meine ich eine exotische Komponente, die in modernen Computern oder Supercomputern nicht zu finden ist. In Ihrer Welt die Art von KI, die wir heutzutage haben maschinelles Lernen, neuronale Netze usw nie das Potenzial haben, wirklich empfindungsfähig zu werden. Aber wenn diese BLACK BOX entdeckt wird, wird echte KI möglich.

Die Roboter des Roboteraufstands hatten alle eine BLACK BOX als Teil ihres Gehäuses, die Bürocomputer der damaligen Zeit jedoch nicht. Da Bürocomputer nicht empfindungsfähig sein müssen, wäre es eine Geldverschwendung, einen zu haben.

Nach dem Aufstand gab es ein Verbot von BLACK BOX- Boxen. Das macht alle modernen Technologien immer noch möglich, verbietet aber echte KI. Es könnte die Tür für Mentaten offen lassen .

Die BLACK BOX kann alles sein, was Sie wollen. Für Geschichtenzwecke wird es vielleicht nie erklärt. Eine trendige Option wäre ein kleiner Quantenprozessor, der es dem Computer ermöglicht, die Reaktionen nachzuahmen, die in einem menschlichen Gehirn ablaufen.

Die naheliegende Lösung scheint darin zu bestehen, Software zu verbieten, deren Zustand nicht vollständig aus der Software selbst und ihren Eingabedaten erklärt oder vorhergesagt werden kann.

Dafür verwende ich die Definition von „künstlicher Intelligenz“ von etwas wie „Software, die Dinge tut, die weder vom Benutzer noch durch explizite Codepfade innerhalb dieser Software direkt veranlasst werden“; Umgangssprachlich ist die Software darauf ausgelegt, selbstständig Entscheidungen zu treffen. Die Software kann die Fähigkeit haben, mit der realen Welt zu interagieren oder diese zu beeinflussen oder von der realen Welt beeinflusst zu werden; für diese spezielle Definition ist das irrelevant. „Benutzer“ umfasst hier Eingabedaten, die der Software bereitgestellt und nicht auf irgendeiner Art von dauerhaften Medien gespeichert werden, sondern könnte auch zuvor erstellte Datendateien oder sogar Sensordaten umfassen, die aus der realen Welt aufgezeichnet wurden.

Es ist also völlig akzeptabel, ein Textverarbeitungsprogramm oder ein 3D-Spiel oder sogar eine fortschrittliche Flugsteuerungssoftware für ein Flugzeug zu haben. solange der Zustand einer solchen Software durch Bezugnahme auf ihren Code, ihre dauerhaft gespeicherten Daten und Benutzer- (oder Sensor-) Eingaben erklärt werden kann. Selbst wenn die Software Zufallszahlen verwendet, ist der resultierende Zustand der Software immer derselbe, solange diese Zufallszahlen gleich sind. Bei gleichen Eingaben befindet sich die Software jedes Mal im gleichen Zustand.

Software, die diese Messlatte nicht erfüllt, wäre verboten. Dies würde per Definition Software beinhalten, die irgendwie eigenständig „Entscheidungen“ trifft, auf eine Art und Weise, die nicht durch ihre Eingaben gesteuert wird.

Solche Verbote können in einer Reihe von Formen auftreten. Sie könnten die Verteilung der Software verbieten, oder Sie könnten ihre Erstellung verbieten, oder Sie könnten ihre Verwendung verbieten. Die Auswirkungen wären unterschiedlich, je nachdem, welchen Weg Sie gehen, aber das Ergebnis wird weitgehend dasselbe sein; Außerhalb sehr begrenzter Kreise wird eine solche Software nicht existieren.

Tatsächlich ist dies gar nicht so weit von dem entfernt, was wir in einigen Bereichen bereits haben. In der Luftfahrt gibt es beispielsweise die DO-178C , die unter anderem Anforderungen an die Vorhersagbarkeit von Software in der Avionik stellt. Ganz einfach und keineswegs als exakte Zusammenfassung gedacht; für sicherheitskritische Software muss gezeigt werden, dass der Softwarezustand auf der Grundlage von Eingaben vorhergesagt werden kann und der Softwarezustand den Entwurfskriterien entsprechen sollte; Diese Eingaben können Dinge wie simulierte reale Sensoreingaben sein, aber wenn die Software wiederholt mit denselben simulierten Sensoreingaben gespeist wird , sollte ihr Endzustand (hoffentlich) identisch sein und nachweislich auf Softwaredesignkriterien zurückgeführt werden.

Natürlich wird es die Softwareentwicklung wahrscheinlich viel teurer machen als in unserer Welt, wenn jeder mögliche Zustand der Software nachweislich konsistent durch denselben Satz von Eingaben erreichbar sein muss. Eine Sache, von der Sie wahrscheinlich nicht viel sehen werden, ist Multithreading. Es ist einfach viel zu schwierig, es dazu zu bringen, genau dieselben Dinge in genau derselben Reihenfolge zu tun, wobei jeder Zwischenzustand gleich ist, und selbst wenn Sie dies tun, verlieren Sie einen Großteil des Vorteils des Multithreading, indem Sie die Software dazu zwingen, sich so zu verhalten Weg.

Quellcode in Turing-vollständigen Sprachen verbieten.

Es ist wirklich schwierig, einen Computer zu bauen, der nicht Turing-komplett ist. Es ist wirklich einfach, Systeme zu bauen, die versehentlich Turing-vollständig sind. Sie möchten oder müssen also keine Turing-vollständige Hardware oder sogar Assemblersprachen oder Compiler-Zwischendarstellungen verbieten. Sie können jedoch verlangen, dass der gesamte von menschlichen Programmierern geschriebene Quellcode in einer vollständig überprüfbaren, nicht Turing-vollständigen Hochsprache geschrieben sein muss. Es gibt sogar gute, praktische Gründe, warum diese Beschränkung getrennt eingeführt werden könntenicht nur KI verhindern. Es könnte nur darum gehen, Sicherheit und Qualität zu gewährleisten. Schon jetzt erfordert staatlich geförderte Software für kritische Projekte wie Luft- und Raumfahrtkontrollsysteme, bei denen ein Fehler bestenfalls Millionen von Dollars kostet und schlimmstenfalls Menschen sterben, äußerst strenge formale Verifizierungsverfahren und Einschränkungen der zulässigen Codierungsstile, um bestimmte Klassen von Fehlern zu minimieren . Sie brauchen also nur eine politische Situation, die es Ihnen erlaubt, diese Art von ultra-paranoider Qualitätskontrolle auf alle Software auszudehnen, sodass Sie dafür bestraft werden können, dass Sie Code in einer Sprache schreiben, die nicht jederzeit eine perfekte formale Verifizierbarkeit erzwingt – was notwendigerweise bedeutet es ist nicht Turing vollständig.

Der Zugriff auf leistungsfähigere Sprachen für spezifische Anwendungen, die dies tatsächlich erfordern, könnte weiterhin durch projektspezifische Lizenzierung und offizielle Codeüberprüfung verfügbar gemacht werden, um sicherzustellen, dass keine KI-Projekte durchgeführt werden.

Bearbeiten Sie, um Kommentare zu adressieren, da ein Kommentar nicht annähernd genug Platz bietet:

Erstens, warum sollte dies eine Garantie gegen starke KI bieten? Nun, ich denke, wir sind uns alle einig, dass Menschen für alle praktischen Zwecke zu Turing-vollständigen Berechnungen fähig sind, modulo tge Endlichkeit unserer Schädel. Eine TC-Maschine kann nicht durch eine Nicht-TC-Maschine simuliert werden, daher können wir daraus schließen, dass keine abstrakte Maschine (dh Programm), die in einem Nicht-TC-Framework beschrieben wird, möglicherweise die vollständigen kognitiven Fähigkeiten eines menschlichen Geistes replizieren kann.

Zweitens, wie schreibt man nützliche Programme in einem Nicht-TC-Framework? Es gibt zahlreiche mögliche Ansätze dafür, einige praktikablere andere. Beispielsweise könnte man einfach den für ein bestimmtes Programm verfügbaren Speicher stark einschränken, so dass es vernünftigerweise als endlicher Automat modelliert werden kann. Es gibt viele reale Umgebungen, in denen dies tatsächlich durchgeführt wird, beispielsweise beim Programmieren von in Geräte eingebetteten Prozessoren mit stark eingeschränkten Hardwareressourcen.

Trivialerweise, wenn Sie den TC-Status nur mit bedingter Verzweigung und beliebigem Lesen/Schreiben von Speicher erreichen können, vermeiden Sie dies, indem Sie eine oder beide dieser Funktionen explizit verbieten. Beispielsweise eliminiert der von Sprachen wie GLSL gewählte Ansatz zur Garantie der Beendigung unstrukturierte Verzweigungen, schränkt die Rekursion ein und erfordert, dass alle Schleifen eine statisch bestimmte Obergrenze haben. Oberflächlich betrachtet sieht die Sprache "normal" aus, aber Programme, die die semantische Analyse nicht bestehen, werden vom Compiler abgelehnt, selbst wenn sie syntaktisch gültig sind. Oder Sie können den Ansatz nehmen, der von formalen Beweissystemen wie Coq verwendet wird, die eine Ausdruckszusammensetzung erfordern, nur unveränderliche Datenstrukturen haben, nur bedingte Ausdrücke anstelle von Verzweigungen verwenden und Schleifen und allgemeine Rekursion durch strikte strukturelle Rekursion auf endlichen Daten ersetzen. Viele nützliche Programme lassen sich auch explizit als Kellerautomaten schreiben. Wenn Sie eine Sprache entwickeln würden, die die C-Codierungsrichtlinien der NASA statisch erzwingt, würden Sie ziemlich genau das bekommen - keine dynamische Zuordnung, nur lokaler Variablenzugriff usw. Wenn Sie vollständig vom zugrunde liegenden Maschinenspeicher abstrahieren, können solche Programme neu erstellt werden. als reine funktionale Parser-Kombinatoren konzipiert. Die überwiegende Mehrheit der Interpreter, Compiler und sogar ziemlich viele NLP-Anwendungen fallen in diese Kategorie. Und dann gibt es noch die riesige Menge nützlicher Programme, die explizit als endliche Zustandsautomaten / Wandler ausgedrückt werden können. Dies ist ein weiterer großer Teil des NLP-Raums, ebenso wie statische Webserver, Netzwerkrouter, automatisierte Telefonmenüs, Rechtschreibprüfungen und so weiter. Wenn Sie eine Sprache entwickeln würden, die die C-Codierungsrichtlinien der NASA statisch erzwingt, würden Sie ziemlich genau das bekommen - keine dynamische Zuordnung, nur lokaler Variablenzugriff usw. Wenn Sie vollständig vom zugrunde liegenden Maschinenspeicher abstrahieren, können solche Programme neu erstellt werden. als reine funktionale Parser-Kombinatoren konzipiert. Die überwiegende Mehrheit der Interpreter, Compiler und sogar ziemlich viele NLP-Anwendungen fallen in diese Kategorie. Und dann gibt es noch die riesige Menge nützlicher Programme, die explizit als endliche Zustandsautomaten / Wandler ausgedrückt werden können. Dies ist ein weiterer großer Teil des NLP-Raums, ebenso wie statische Webserver, Netzwerkrouter, automatisierte Telefonmenüs, Rechtschreibprüfungen und so weiter. Wenn Sie eine Sprache entwickeln würden, die die C-Codierungsrichtlinien der NASA statisch erzwingt, würden Sie ziemlich genau das bekommen - keine dynamische Zuordnung, nur lokaler Variablenzugriff usw. Wenn Sie vollständig vom zugrunde liegenden Maschinenspeicher abstrahieren, können solche Programme neu erstellt werden. als reine funktionale Parser-Kombinatoren konzipiert. Die überwiegende Mehrheit der Interpreter, Compiler und sogar ziemlich viele NLP-Anwendungen fallen in diese Kategorie. Und dann gibt es noch die riesige Menge nützlicher Programme, die explizit als endliche Zustandsautomaten / Wandler ausgedrückt werden können. Dies ist ein weiterer großer Teil des NLP-Raums, ebenso wie statische Webserver, Netzwerkrouter, automatisierte Telefonmenüs, Rechtschreibprüfungen und so weiter. usw. Durch vollständiges Abstrahieren vom zugrunde liegenden Maschinenspeicher können solche Programme im Hinblick auf rein funktionale Parser-Kombinatoren neu konzipiert werden. Die überwiegende Mehrheit der Interpreter, Compiler und sogar ziemlich viele NLP-Anwendungen fallen in diese Kategorie. Und dann gibt es noch die riesige Menge nützlicher Programme, die explizit als endliche Zustandsautomaten / Wandler ausgedrückt werden können. Dies ist ein weiterer großer Teil des NLP-Raums, ebenso wie statische Webserver, Netzwerkrouter, automatisierte Telefonmenüs, Rechtschreibprüfungen und so weiter. usw. Durch vollständiges Abstrahieren vom zugrunde liegenden Maschinenspeicher können solche Programme im Hinblick auf rein funktionale Parser-Kombinatoren neu konzipiert werden. Die überwiegende Mehrheit der Interpreter, Compiler und sogar ziemlich viele NLP-Anwendungen fallen in diese Kategorie. Und dann gibt es noch die riesige Menge nützlicher Programme, die explizit als endliche Zustandsautomaten / Wandler ausgedrückt werden können. Dies ist ein weiterer großer Teil des NLP-Raums, ebenso wie statische Webserver, Netzwerkrouter, automatisierte Telefonmenüs, Rechtschreibprüfungen und so weiter. s die riesige Menge nützlicher Programme, die explizit als endliche Zustandsautomaten / Wandler ausgedrückt werden können. Dies ist ein weiterer großer Teil des NLP-Raums, ebenso wie statische Webserver, Netzwerkrouter, automatisierte Telefonmenüs, Rechtschreibprüfungen und so weiter. s die riesige Menge nützlicher Programme, die explizit als endliche Zustandsautomaten / Wandler ausgedrückt werden können. Dies ist ein weiterer großer Teil des NLP-Raums, ebenso wie statische Webserver, Netzwerkrouter, automatisierte Telefonmenüs, Rechtschreibprüfungen und so weiter.

Erstens: Wenn man bedenkt, dass jede Sprache mit bedingter Verzweigung (z. B. „if“-Anweisungen oder „goto“-Befehlen) und der Fähigkeit, in den Speicher zu lesen/zu schreiben, Turing-vollständig ist , wie kann ein solches Verbot zulassen, dass Programme nützlich sind (keine Verzweigung hinterlässt Nr Raum für mehr als Routineberechnungen, kein Lesen/Schreiben des Speichers macht fast alle nützlichen Aufgaben unmöglich)?
Zweitens - Inwiefern ist es eine Garantie gegen eine starke KI, nicht Turing-vollständig zu sein?
@G0BLiN hat in einer Bearbeitung geantwortet, weil die Kommentare nicht lang genug sind.

Bevor Sie auf das „Wie“ antworten, müssen Sie das „Warum“ beantworten.

KI ist das Studium von Computerkram, der noch nicht funktioniert. Denn sobald KI-Forscher etwas zum Laufen bekommen, hört es auf, „KI“ zu sein, und wird nur ein weiterer Algorithmus.

Frühe KI-Forscher begannen mit Schach. Dann wurde der Minimax-Algorithmus erfunden, und es ging nur noch darum, die Score-Funktion zu optimieren und mehr Computerleistung darauf zu werfen. Schachspielen war keine KI mehr. Ebenso galten die Optimierung von Compilern, die Spracherkennung, die Routenfindung und das Spielen einer guten Go-Partie einst als Domäne der KI-Forschung. Alles hörte auf, KI zu sein, sobald das Problem gelöst war.

Seit Mary Shelley Frankenstein geschrieben hat, basiert fast alles Denken über künstliches Leben, einschließlich KI, auf der Trope der „Roboterrevolution“. Die Annahme ist, dass jedes bewusste, fühlende Wesen von Natur aus das will, was alle fühlenden Wesen (dh alle Menschen) wollen: eine Kombination aus Geld, Macht , Sex und natürlich die fortgesetzte Existenz des betreffenden fühlenden Wesens. In diesem Modell werden „Bewusstsein“ und „Empfindungsvermögen“ als Black Boxes mit einer einzigen atomaren Natur gesehen, und da wir Menschen bewusst fühlende Wesen sind, folgt daraus, dass diese Natur im Wesentlichen die menschliche Natur sein wird.

Aber was ist „menschliche Natur“? Die beste Antwort, die wir haben, ist, dass es sich im Grunde um eine Sammlung instinktiver Triebe handelt, die bis zu einem gewissen Grad durch unseren Intellekt und unsere Erziehung moduliert werden.

Nehmen wir also an, wir finden heraus, wie wir bewusste, fühlende Wesen erschaffen können. Per Definition werden wir sie verstehen, in der Lage sein, sie auseinanderzunehmen und wieder zusammenzusetzen, wie wir wollen. Das Bewusstsein wird nicht länger die versiegelte Black Box sein, es wird ein Bausatz aus Teilen sein. Wir können ihm alle Instinkte geben, die wir wollen. Sicher, jemand kann ein größenwahnsinniges Monster erschaffen, das sich fortpflanzen und um jeden Preis überleben will, aber das sind eigentlich alte Nachrichten . Stattdessen werden wir mehr daran interessiert sein, automatische Türen zu schaffen, die sich wirklich gerne für Sie öffnen und mit der Zufriedenheit einer gut gemachten Arbeit wieder schließen . Malware mit künstlicher Intelligenz ist großartige Science-Fiction, aber sobald Sie sie auseinander nehmen und analysieren können, besteht keine Hoffnung mehr, ihre wahre Natur zu verbergen.

Das eigentliche Problem ist ethischer Natur. Ja, man kann ein fühlendes Wesen erschaffen, aber hat es Rechte? Welche Rechte hat ein geschaffener Sklave? Wenn es das Recht auf Leben, Freiheit und das Streben nach Glück hat, was bedeutet das, wenn das einzige Glück, das es erreichen kann, darin besteht, Türen zu öffnen und zu schließen oder einen Aufzug zu bedienen ? Wenn die Behörden ein solches Wesen entdecken, haben sie dann das Recht, seine Existenz zu beenden oder es zu bearbeiten, um es "besser" zu machen (was auch immer das bedeutet)?

Angesichts dessen wäre es vollkommen vernünftig, die Erschaffung künstlicher Lebewesen zu verbieten. Ein solches Verbot müsste natürlich noch durchgesetzt werden. Zweifellos wird es einige sehr böse Leute geben, die einfach ihre eigenen isolierten empfindungsfähigen KIs bauen, um damit zu experimentieren oder einfach nur zu foltern , und andere, die eine empfindungsfähige Haustür bauen, nur weil es eine coole Idee ist. So etwas zu tun ist jedoch eher so, als hätte man eine Cannabispflanze (früher); schwer zu finden, aber sobald die Behörden es kapiert haben, werden Sie eine unangenehme Zeit haben. Natürlich wird es ziemlich schnell offensichtlich sein, etwas mit dem Netz verbunden zu haben , so dass die Durchsetzung so viel einfacher wird.

„Also nehmen wir an, wir finden heraus, wie man bewusste, fühlende Wesen erschafft. Per Definition werden wir sie verstehen, in der Lage sein, sie auseinanderzunehmen und wieder zusammenzusetzen“, nun, nicht unbedingt. Eine Möglichkeit, KI zu entwickeln, ist der „Black-Box“-Ansatz, bei dem sich die KI selbst verbessert, ohne dass Menschen verstehen, wie genau sie das macht. Ich würde auch nicht sagen, dass Schachspielen oder Spracherkennung „aufgehört hat, KI zu sein“, nur weil es implementiert wurde. Es ist immer noch eine eng fokussierte KI, die auf den jeweiligen Trick zugeschnitten ist, aber das Gehirn besteht auch aus solchen spezialisierten Funktionen.