Wie leistungsfähig ist ein Computer, um ein menschliches Gehirn zu simulieren und zu emulieren?

Der Titel ist ziemlich selbsterklärend. Wie leistungsfähig muss ein Computer sein, bevor er über die Hardwarefähigkeit verfügt, einen menschlichen Geist in Echtzeit zu simulieren und zu emulieren?

Ich lasse die Frage nach der benötigten Software für später, aber Sie können sie gerne ansprechen, wenn sie ein wichtiger Teil der Antwort ist.

Kriterien für die Beurteilung einer Antwort:

  • Das sollte fast selbstverständlich sein, aber ein System mit einer solchen Fähigkeit sollte den Turing-Test bestehen können .
  • Die Fähigkeit muss mindestens echtzeitfähig sein , dh es kann nicht 5 Monate dauern, um 10 Sekunden Gehirnaktivität zu simulieren.
  • Die Fähigkeit muss dauerbetriebfähig sein , dh sie darf nicht für eine Minute an und für den Rest des Jahres aus sein. Dauerbetrieb muss jedoch nicht zwingend sein.
  • Die Fähigkeit muss so sein, dass das „Gehirn“ auf neue Informationen reagieren, lernen und seine Ergebnisse kommunizieren kann.
  • Idealerweise hätte ich gerne eine physikalisch genaue Antwort oder Reichweite . Ich bin mir nicht sicher, was die geeignete Metrik ist, also werde ich in Ermangelung besserer Ideen sagen, dass wir uns für Petaflops entscheiden. Wenn Sie eine bessere Metrik haben, können Sie diese stattdessen verwenden.
  • Bonuspunkte: (Nicht obligatorisch, aber schön zu haben) Wie schnell können wir dort ankommen und wie hoch wäre die Stromrechnung? Wie klein können wir es im Limit machen? Wie schnell können wir es schaffen, im Limit?

Die Motivation hinter der Platzierung in Worldbuilding besteht darin, eine kanonische Referenzantwort auf Fragen der Berechnung im Zusammenhang mit emulationsbasierten Pfaden zur Singularität , Computronium, Sim-Menschen und anderen verwandten Themen zu haben, um beim Aufbau einer realistischen futuristischen Gesellschaft zu helfen. Die Frage setzt natürlich voraus, dass die Konstruktion solcher Emulationen möglich ist.

PS Um ontologische Verwirrung zu vermeiden, weitere Definitionen:
Emulation ist der Prozess der Nachahmung des äußerlich beobachtbaren Verhaltens, um es einem bestehenden Ziel anzupassen. Der interne Zustand des Emulationsmechanismus muss den internen Zustand des Ziels, das er emuliert, nicht genau widerspiegeln.
Bei der Simulation hingegen wird der zugrunde liegende Zustand des Ziels modelliert. Das Endergebnis einer guten Simulation ist, dass das Simulationsmodell das Ziel emuliert, das es simuliert.

Schöne Fragen, hoffe auf aufschlussreiche Antworten. Obwohl ich der Sache selbst stark widersprechen muss: "Du sollst keine Maschine nach dem Vorbild des menschlichen Geistes bauen"
Alle Wähler sind eingeladen und willkommen, Kommentare zu hinterlassen! Gerne verfeinern Sie die Frage bei Bedarf.
Muss der betreffende Computer von dem Typ sein, den wir derzeit haben? Das heißt, muss ihre zugrunde liegende Logik boolesch sein und wie die Computer der meisten Leute aufgebaut sein?
Hmm, die Verwendung von "das menschliche Gehirn simulieren" fühlt sich nicht so an, als würde es die Singularität wirklich ansprechen. Eine verwandte Frage "biete echte künstliche Intelligenz" wäre besser.
@TimB Nun, das würde teilweise von der Geschwindigkeit der Simulation abhängen. Eine Version einer menschenähnlichen Simulation, die mit einer Geschwindigkeit von 10e6 läuft, wäre effektiv eine übermenschliche KI, obwohl sie keine subjektiv übermenschlichen Fähigkeiten hat. Es gibt natürlich auch andere AI-Versionen.
Ich denke nicht, dass "den Turing-Test bestehen" eine so starke Anforderung ist. Ungeachtet der Debatten über den richtigen Standard und die Durchführung des Tests wurde der Turing-Test bereits ohne den Einsatz von Supercomputern bestanden.
@KSmarts Ich mache mir hauptsächlich Sorgen um die Hardware. Das Turing-Testbit dient lediglich dazu, den Bereich akzeptabler Antworten einzuschränken. Obwohl es vielleicht ein schwacher Test ist, kenne ich keinen besser gestalteten.
@SerbanTanasa Mein Punkt ist, dass "wahre" künstliche Intelligenz mit ziemlicher Sicherheit nicht aus der Simulation eines menschlichen Gehirns stammen wird. Die Simulation eines menschlichen Gehirns wäre für alle möglichen Dinge nützlich, aber es ist unwahrscheinlich, dass es ein effizienter Weg ist, KI zu erstellen.
Ich denke auch, dass der Versuch, ein lebendes, voll aktives Gehirn zu simulieren, unglaublich schwierig wäre – seine Eingabe, Ausgabe und Chemie müssten simuliert werden – vielleicht in 100 Jahren machbar.
Lassen Sie uns eine menschliche Intelligenz als natürliche Intelligenz (NI) im Gegensatz zu künstlicher Intelligenz (KI) bezeichnen. Ich verstehe diese Frage so, dass sie die Mindestanforderungen für eine von Maschinen gehostete NI mit menschlicher Geschwindigkeit stellt.
Da muss ich @TimB zustimmen. Wir können keine „wahre“ künstliche Intelligenz erreichen, bis wir verstehen, was Intelligenz und Bewusstsein eigentlich sind. Vorzugeben, intelligent zu sein, ist etwas anderes, als intelligent zu sein.
Menschliche Gehirne arbeiten nicht ein Jahr lang ununterbrochen ... warum sollte man das der Computerversion hinzufügen?
> Bonuspunkte: (Nicht obligatorisch, aber schön zu haben) Wie schnell können wir dort ankommen und wie hoch wäre die Stromrechnung? Wie klein können wir es im Limit machen? Wie schnell können wir es schaffen, im Limit? Wie schnell können wir dort ankommen? Schreiben Sie zuerst Ihre Software (!). Dann schreiben Sie einen Virus, der das ganze Internet übernimmt. Sie hätten dort wahrscheinlich genug Rechenleistung, aber sie würde bald heruntergefahren werden. Wie hoch wäre die Stromrechnung? Fast null für Sie, wenn Sie das oben Gesagte getan haben. Die weltweite Rechnung wäre genau die gleiche wie jetzt, aber Sie würden sie nicht bezahlen. Weiter geht's ... **Wie klein kann
Erstens, der Grund, warum ich nicht kommentiere, ist, dass ich nicht genug Ruf habe, um zu kommentieren, zweitens, also kann PAMA im Minecraft-Story-Modus Episode 7 nicht existieren? Ich meine, der Computer, der nicht jeden mit einem Redstone-Chip übernimmt, Spoiler-Alarm für diejenigen, die ihn noch nicht gespielt haben.
Die Frage geht auch davon aus, dass der menschliche Intellekt vollständig das Produkt des menschlichen Gehirns ist.

Antworten (7)

Eine umfassende Zusammenfassung befindet sich auf dieser Wikipedia-Seite .Geben Sie hier die Bildbeschreibung ein

Wenn Sie bereits wüssten, wie das Gehirn arbeitet, um Intelligenz zu produzieren, müssten Sie dieses Programm ziemlich direkt schreiben 10 fünfzehn FLOPS (Blue Gene/P circa 2007) und 100 Terabyte. Ohne das emergente Verhalten zu verstehen, würde es dauern, nur die Neuronen zu simulieren 10 18 zu 10 19 FLOPS und 10.000 Terabyte Speicher, die 2019 voraussichtlich eine Million Dollar kosten werden.

Aus dem Diagramm können Sie ersehen, wie viel Berechnung erforderlich wäre, um den Stoffwechsel zu simulieren und das Neuronenverhalten selbst entstehen zu lassen usw.

Das Blue Brain-Projekt untersucht Tiefensimulationen eines kleinen Teils des Neokortex des Gehirns , was zu dem Verständnis führt, das Verhalten von kortikalen Säulen und Gruppen von Nervenzellen zu simulieren, was 100-mal effizienter ist als detaillierte Simulationen der einzelnen Zellen. Das würde es zwischen die beiden oben genannten Zeilen bringen, aber viel weniger Speicher verbrauchen als die obere Zeile.

Das heißt, ohne zu verstehen, welches Verhalten durch das Anschließen eines denkenden menschlichen Kortex entsteht, wird das Anschließen von Softwaresimulationen dieser „Säulen“ (die modular sind und viele Verbindungen innerhalb der Einheit haben) 10 bis 100 Petaflops verbrauchen, was in war die Reichweite der Supercomputer seit 2012 ( derzeit 33,8 Petaflops , genau in der Mitte dieser Bandbreite).

Aber eine funktionierende Gehirnsimulation könnte speziell gebaut sein, um die richtige Mischung aus Verarbeitung und lokaler Speicherung und Konnektivität zu haben und damit schneller zu sein als die Zahlen fressenden Supercomputing-Cluster.

Meine Meinung dazu: Die Datenerfassung und -studie ist langsamer als die projizierte Hardware-Moore-Kurve. Projekte wie Blue Brain werden ihren Lauf nehmen, und Folgemaßnahmen zum Design von Cortical-Column-Simulationen werden auf Universitätslaborgeräten stattfinden, wobei größere Durchläufe auf University High Performance Computing oder verteilten Computerressourcen möglich sind. Wenn ein solider Plan fertig ist, kostet die Hardware für eine vollständige Implementierung des menschlichen Gehirns weniger als eine Million Dollar, aber sie beginnen mit kleineren Systemen wie Mäusen, Hunden usw. Wenn die Hardware kundenspezifisch ist, Prototypen und kleine Chargen wird Hardware für die Mäuse usw. bereitstellen. Ob es auf dem Allzweck-Hochleistungscomputer (bis dahin nicht als Supercomputer eingestuft) laufen kann, wissen Siejemand wird es versuchen, lange bevor es fertig ist.


Update: Computerphile-Video Dies ist ein aufstrebendes neuronales Netzwerkprojekt (siehe blaue Linie in der Grafik mit diesem Namen, Trends zum schnellsten Supercomputer im Jahr 2019 oder 2020) mit dem Namen SpiNNaker . Auf dem Bildschirm zeigten sie ein fertiges Rack mit 100.000 Kernen, die 25 Millionen Neuronen emulierten (bei ¼ der Effizienz – es wird schließlich 1.000 Neuronen pro Kern betreiben). Das gesamte Projekt wird 1 Milliarde Neuronen umfassen.

Das eine Gestell – das jetzt funktioniert – ist das funktionale Äquivalent eines Mausgehirns. Jetzt können sie damit spielen, um mehr Details eines funktionsfähigen Mausgehirns herauszufinden.

Während ein Rack funktionell einem Mausgehirn entspricht, kann es nicht die Dinge tun, die eine Maus tun kann. Es kann keinen Käse finden, Katzen meiden, einen geeigneten Partner finden, seine Nachkommen am Leben erhalten. Warum nicht? Weil es niemand darauf programmiert hat. Niemand hat einen „Schnüffler“ programmiert, um Käse und die Richtung, aus der er kommt, zu erkennen, niemand hat ihn so programmiert, dass er aufhört, sich zu bewegen und zu lauschen, wenn es Katzengeräusche gibt, und was auch immer Mäuse sonst tun. Sicher, Sie können die Rechenleistung haben, um ein menschliches Gehirn zu emulieren, aber wer programmiert den Computer so, dass er wie eines denkt?
Ich denke, dass vorhandene natürliche Gehirne gescannt werden.
Wie wandelt man ein Gehirn in Binär um? Ich würde einen Arm geben, um die Quelldateien meines Gehirns zu sehen. Ich würde auf jeden Fall damit beginnen, die Funktion compulsively_check_worldbuilding_for_comments() zu löschen
Ein Scan sagt Ihnen, wie Sie die neuronale Simulation anschließen . Es sagt Ihnen nicht, wie man eine Funktionssimulation schreibt .
Ich denke, Heisenberg lässt Sie keine exakte Zustandsreplikation eines Gehirns erstellen, daher glaube ich nicht, dass eine neuronale Simulation funktionieren wird. Aber das ist ziemlich spekulativ, also hat es keinen Sinn, wirklich zu streiten. Wir werden herausfinden, ob du Recht hast, bevor wir sterben, schätze ich.
Der Zustand, welche Neuronen wo verbunden sind, und die möglichen Einstellungen liegen gut im klassischen Regime und sind nicht Quanten. Bedenken Sie, dass das Umdrehen von Spins (in einem CT-Scanner) keine Auswirkung auf die Funktion des Gehirns hat, obwohl es die Quantenebene durcheinander bringt.

Bei der Verwendung moderner Technologie besteht die Herausforderung nicht darin, Hardware herzustellen, die dasselbe kann wie ein menschliches Gehirn, sondern darin, die Hardware dafür zu programmieren .

Betrachten Sie den von Fujitsu gebauten K-Supercomputer . Es hat mehr Speicher und führt mehr Operationen pro Sekunde aus als das menschliche Gehirn. Er kann jedoch keinen imitieren, nicht nur, weil die Architektur nicht dafür ausgelegt ist, sondern auch, weil wir nicht wissen, wie man einen Computer so programmiert, dass er sich wie ein Mensch verhält.

Es hat jedoch die rohe Hardwarekapazität, um sich wie ein Mensch zu verhalten. Der K-Supercomputer verbraucht 9,9 Millionen Watt und hat eine Kapazität von ungefähr vier Gehirnen. Bei einer angenommenen Leistung von 2500 Kilowatt und einem Strompreis von 15 Cent pro kWh würde der Betrieb unseres Gehirns für eine Stunde 375 $/Stunde kosten. Unsere Supercomputer sind ein bisschen besser geworden, seit wir den K gebaut haben, mit dem derzeit leistungsstärksten Supercomputer, dem Tianhe-2 , der umgerechnet 730 Kilowatt Leistung pro menschlichem Gehirn an Leistung verbraucht.

Die Kosten für die Emulation im Vergleich zur Simulation eines Gehirns hängen davon ab, wie gut wir in jedem dieser Dinge sind und wie hoch die Auflösung in unserer Simulation sein soll. Theoretisch sollte die Ausführung der gleichen Operationen, die das menschliche Gehirn durchführt, die gleiche Rechenleistung wie das menschliche Gehirn erfordern. Wenn wir jedoch die internen chemischen Reaktionen in jedem Kalziumkanal simulieren wollen, brauchen wir um Größenordnungen mehr Rechenleistung.

Sind Sie von dieser Quelle überzeugt? Die in der Grafik dargestellte Petaflop-Zahl für ein menschliches Gehirn scheint etwas niedrig zu sein ...
Petaflop-Schätzungen für das menschliche Gehirn variieren je nach Quelle erheblich. Die meisten Schätzungen liegen zwischen 2 und 50 Petaflops, also könnte meine Antwort um einen Faktor von etwa 20 abweichen.
Dieser 8Pflops-Supercomputer aus dem Jahr 2011 wird von einem neuen chinesischen Supercomputer mit 33,8 Pflops (Stand August 2014) umgehauen. 15 Cent pro kWh sind hoch: Ich gebe 6 aus, plus Verteilungskosten, die es auf fast 11 bringen. Stellen Sie den Supercomputer neben das Kraftwerk, um die Verteilungskosten und Übertragungsverluste zu reduzieren. Setzen Sie in Island ein, das von geothermischer Energie und Umgebungskühlung betrieben wird.
Wenn überhaupt, ist die Flop-Anzahl, die sie für das menschliche Gehirn angegeben haben, komisch hoch. FLOPs messen Gleitkommaoperationen, ein menschliches Gehirn, das 2,2 Exaflops leisten kann, wie sie behaupteten, wäre in der Lage, 2,2 Quintillionen 32-Bit-Zahlen pro Sekunde zu addieren. Was eindeutig falsch ist. Gehirne können 2,2 Quintillionen Dinge pro Sekunde tun, aber diese Dinge sind sicherlich keine Flops.
Die Unfähigkeit, es zu programmieren, ist ein Punkt, der viel beschönigt wird. Wenn wir wüssten, wie es geht, könnten wir es heute tun, mit der Technologie von Best Buy. Es würde einfach sehr, sehr langsam laufen, bis die Hardware aufholte. Das heißt, wenn ein Gehirn X Berechnungen pro Sekunde benötigt, um "Echtzeit" auszuführen, und die Hardware nur X/10000 ausführen kann, dann funktioniert das Gehirn, aber mit 1/10.000 der Geschwindigkeit, die es sollte, als würde man versuchen, eine riesige Suche durchzuführen Datenbank auf einem 8086. Es wird funktionieren, wenn Sie den Code dafür haben; es wird nur langsam. Was wir heute haben, ist kein Mangel an Geschwindigkeit, sondern ein Mangel an Wissen darüber, wie man es überhaupt baut.
Nehmen Sie eine der einfachsten kognitiven Aufgaben, die ein Kleinkind ausführen kann: Betrachten Sie ein Bild oder eine Zeichnung eines vertrauten Objekts und identifizieren Sie, was es ist. Die fortschrittlichsten KI-Programmiertechniken, die wir bisher entwickelt haben, können zu Fehlidentifikationen ausgetrickst werden, die nicht nur „off“, sondern spektakulär falsch sind. evolvingai.org/fooling theverge.com/2017/11/2/16597276/…

Das größte Hindernis bei der Verwendung der CPU für die Gehirnemulation besteht darin, dass sie Befehle nacheinander verarbeitet, während alle Neuronen parallel arbeiten. Sie würden eine überwältigende Anzahl von CPU-Kernen benötigen, um auch nur annähernd die Geschwindigkeit des menschlichen Gehirns zu erreichen. Somit ist CPU übrigens nicht dabei. Wir brauchen einen Chip, der vieles parallel verarbeiten kann: FPGA.

Mit 4 Millionen Logikzellen und ungefähr 10 Zellen zur Emulation eines einzelnen Neurons kann ein einzelnes FPGA-Board 400.000 Neuronen gleichzeitig emulieren und gleichzeitig arbeiten. Mit 86 Milliarden Neuronen in einem menschlichen Gehirn müssten Sie etwa 215.000 FPGA-Chips miteinander verbinden, um die Gehirnkapazität zu erreichen.

23 x 23 mm für den kleinsten Formfaktor des verknüpften FPGA, sagen wir, 40 x 40 mm, um eines auf einer Leiterplatte zu enthalten, das wären 344 m^2 Leiterplatte; Teilen Sie es in 20 x 50 cm. Nehmen Sie ein typisches Rack mit 42 HE ; Es würde 40 Platinen von 0,5 mx 0,5 m plus ihre Stromversorgung und Netzwerkinfrastruktur aufnehmen, was 10 m² PCB bedeutet. 35 solcher Racks ergeben einen Serverraum von sehr bescheidener Größe.

Fügen wir 20.000 USD für den neuen Chip hinzu. 43 Millionen Dollar allein für die Chips, wahrscheinlich näher an 100 Millionen USD für das gesamte Projekt.

Und das ist nur die Hardware. Jetzt kommt der schwierige Teil: Verbinden Sie die 86 Milliarden Neuronen so, wie sie im menschlichen Gehirn verbunden sind. DESHALB wurde es noch nicht gemacht.

Verbinden: In der Tat liegt der Fan-In bei etwa 10000. Das Anschließen von Siliziumneuronen würde Ihnen um Größenordnungen mehr Verbinden als Nervenkörper geben. Ein realistischerer Ansatz besteht darin, eine Reihe von Neuronen in einem Prozessor zu virtualisieren und auch Busse zum Routen von Signalen zu verwenden und keine parallele Synchronisation durchzuführen.
Ein kleiner Nitpick - Sie würden wahrscheinlich FPGAs zum Experimentieren verwenden, aber sobald Sie ein gutes Design hatten und groß rauskommen wollten, würden Sie Ihr Design auf einen ASIC verschieben, der über eine feste interne Logik verfügt, aber für einen viel geringeren Preis in Massenproduktion hergestellt werden kann Kosten als FPGAs.
@ScottWhitlock: Nicht unbedingt: Das Gehirn kann neue Verbindungen bilden, ähnlich wie beim "Neuverdrahten" des FPGA im laufenden Betrieb. Während Signalstärken/neuronale Pfade in der Software enthalten wären, würde das Ändern der physischen Neuronenkarte eine "Neuverkabelung" des Systems erfordern, was in FPGA einfach ist, nicht so in ASIC.
@SF - stimmt, aber ich hatte angenommen, dass die Verbindungen in einer separaten Verbindungsschicht modelliert würden. Das FPGA/ASIC war nur das Neuronenmodell. Zugegeben, es ist lange her, dass ich mich mit neuronalen Netzen beschäftigt habe.
@ScottWhitlock: Bei der Anzahl der Verbindungen in einem Gehirn würde die schiere Anzahl der GPIO, die zum Isolieren von Verbindungen von Neuronen erforderlich sind, dies unmöglich machen. Zwar gäbe es Verbindungen über ein Netzwerk oder einen Bus zwischen den Chips, die Neuronenverbindungen zwischen ihnen simulieren (Clustering zu kontinuierlichem "Gewebe"), aber das wäre eine relativ kleine Zahl im Vergleich zur Gesamtsumme - Oberfläche vs. Volumen. Und es würde nicht wirklich den mathematischen/CS-"neuronalen Netzen" ähneln, da es eine viel nähere Annäherung an "Wetware" ist als die mathematische Abstraktion.

Ich kann Ihre Frage wahrscheinlich aus einem einfachen Grund nicht beantworten - wir wissen nicht genug über das Gehirn, um es zu simulieren. Wir lernen immer noch, wie es funktioniert - wie kann man etwas simulieren, wenn man nicht weiß, wie es funktioniert?

Ich probiers aber mal aus:

1) Jedes Neuron könnte als Bit (ein/aus) und der Zustand der Synapsen als Byte (ein/aus, Widerstand) gespeichert werden. Sie benötigen also einen Computer mit mindestens 410 GB RAM, um den Zustand zu speichern jedes Neuron und jede Synapse (200 GB für Neuronen, 200 GB für Synapsen, 10 GB für Berechnungen zum Ausführen der Simulation)

2) Sie brauchen Prozessoren, die schnell genug sind, um herauszufinden, wie all diese Neuronen und Synapsen interagieren, und sie alle zu aktualisieren - tausende Male pro Sekunde. Dies setzt voraus, dass es Regeln und Algorithmen dafür gibt, wie Elektrizität durch das Gehirn fließt.

3) Sie benötigen noch mehr Verarbeitungsleistung und RAM, um die Ausgabe des Gehirns und die sensorische Eingabe an das Gehirn zu verarbeiten (und eine Möglichkeit, sensorische Eingaben zu erhalten).

4) Sie müssen Neuronen abbilden, die in Gedanken feuern - das kann unmöglich sein, was bedeutet, dass Sie ein simuliertes Gehirn haben würden, das seine Welt in keiner Weise lernen oder kontrollieren könnte.

Für ein vereinfachtes Gehirn auf Neuronen-/Synapsenebene benötigen Sie also einen Computer mit vielleicht 500 GB RAM (der vorzugsweise als Cache für die Echtzeitsimulation dienen sollte) und einen 2-THz-Prozessor.

Auf diese Weise können Sie eine mathematische Darstellung des Gehirns simulieren , die 1 Million Mal pro Sekunde aktualisiert wird (na ja, etwas langsamer, da Busse nicht augenblicklich sind und ich viel runde und vereinfache.)

Das Problem ist nicht die Hardware oder Software, die für die Simulation benötigt wird, es geht darum, Daten auf eine Weise zur und von der Simulation zu bekommen, die die Simulation (und Sie) interpretieren können.

#4 verstehe ich nicht.
Menschen können kommunizieren, weil wir unser Gehirn benutzen, um unseren Körper zu kontrollieren. Wenn Sie nur eine Simulation eines eigenen Gehirns haben, hat es keine Möglichkeit zu kommunizieren - es kann nichts kontrollieren. Es kann nur denken.
@RyanKrage Geht es dir anders ?
Eigentlich sind 410 GB RAM nicht so viel, wie es vielleicht klingt. 64-128 GB ist eine kleine Menge an Arbeitsspeicher auf vielen Servern, die verschiedene Arten von RAM-intensiven Aufgaben erledigen. 256 GB sind sicher keine Seltenheit. Zwei der letzteren, die zusammenarbeiten, würden Sie dorthin bringen, wo Sie Platz haben, und das könnten wir heute tun, mit Hardware, die mehr oder weniger von der Stange erhältlich ist (etwas teuer vielleicht, aber Unternehmen kaufen diese bereits, um Dinge zu tun, die viel sind weniger komplex als die Simulation eines menschlichen Gehirns).

Ich bin überrascht, dass niemand Quantencomputer erwähnt hat. Aufgrund der Superpositionsgesetze und der Theorie der Quantenverschränkung kann ein einzelnes Quantenbit entweder eine Null oder eine Eins sein, also würde es Ihnen erlauben, jede mögliche Lösung zusammen mit mehreren Bytes zu berechnen, wie hier, wenn ein Byte acht hat Bits Jedes Bit würde Ihnen 256 mögliche Lösungen ermöglichen. Wenn Sie 50 Qbits hätten, könnten Sie zwei hoch fünfzig Lösungen im Tandem berechnen. Dies würde es Ihnen ermöglichen, eine komplexe Simulation des Gehirns bis auf die subatomare Ebene zu erstellen, vorausgesetzt, Sie skalieren die Hardware entsprechend. Dies wäre eine ideale Lösung, aber das Problem ist, dass ein Quantencomputer eine massive, sperrige Maschine ist, die eine kryogene Kühlung erfordert, und die kleinste Bewegung kann die Quantenzustände stören und Fehler verursachen.

Die Intelligenz auf menschlicher Ebene ist nicht nur ein Spiegelbild der beteiligten Rechenleistung.

Zunächst einmal macht die Evolution in ihrem Designprozess Tonnen von Fehlern und dummen Entscheidungen, die nicht immer korrigiert werden, und infolgedessen könnten wir wirklich nur einen kleinen Bruchteil der Leistung benötigen, die unser Gehirn hat.

Zweitens, vorausgesetzt, wir haben die Verarbeitungsfähigkeit, kennen wir nicht die richtigen Algorithmen, um ein Gehirn zum Laufen zu bringen. Wir kommen uns in verschiedenen Bereichen näher, aber das ist die Sache, verschiedene Bits arbeiten unterschiedlich und erfordern, dass jeder Bereich programmiert und dann auf die richtige Weise miteinander verbunden wird.

Drittens: Angenommen, Sie haben keine menschliche Intelligenz / kein menschliches Gehirn, wie Sie es erkennen würden. Sie haben eine Sache, die sich unter den richtigen Umständen zu einer entwickeln kann. Die richtigen Umstände würden ziemlich ausgeklügelte Biotechnologien oder Simulationen erfordern, mit denen Menschen auf einer 1-zu-1-Basis interagieren können.

Sobald Sie das getan haben, haben Sie vielleicht ein menschliches Gehirn und können Ihre Frage beantworten, aber um das herauszufinden, müssen Sie das von Ihnen entwickelte Gehirn nehmen und dann eines dieser evolutionären Programme schreiben, die eine Änderung und einen Test vornehmen es gegen eine Reihe bekannter Ausgaben (in diesem Fall die Daten aus dem Gehirn, die wir erstellt haben) und laufen weiter, wobei diejenigen verworfen werden, die weniger übereinstimmen.

Sobald Sie das optimalste Design erhalten haben, können Sie dann sagen, wie viel Verarbeitung es erfordert ...

Aber einigen Websites zufolge hat das Internet vor einigen Jahren den Punkt überschritten, an dem 1 menschliches Gehirn zusammenpasst, und es wird vorhergesagt, dass Supercomputer bis 2020 in der Lage sein werden, die rohen „Flops“ zu berechnen, die allgemein als die Rechenleistung eines menschlichen Gehirns berechnet werden , aber wir wissen es nicht genau.

Ich denke, dass wir uns mit der Weiterentwicklung der Technologie natürlich in Richtung „Wetware“ bewegen werden, weil sie viel energieeffizienter ist. Mit Wetware meine ich biologische Chips. Unser Gehirn verbraucht nur wenige Watt Leistung. Selbst wenn wir einen 1-nm-Prozess verwenden, wird Silizium niemals so energieeffizient sein wie Proteine. Ich bin mir da nicht sicher, aber ich denke, DNA hat auch eine enorme Datendichte. Die TV-Show Battle Star Galactica hat auf interessante Weise darauf hingewiesen. Wenn eine KI schlau genug wäre, um ein Bewusstsein zu erlangen und sich selbst zu duplizieren, würde sie Forschung und Entwicklung betreiben und mit dem Bau von Androiden beginnen. Mit der Zeit entwickeln sie sich natürlich zu "biologischen" Robotern.