Was hat die NASA mit dem „größten Quantencomputer der Welt“ gemacht? (zu Frage von 2013)

Frage von @TildalWave aus dem Jahr 2013 Was plant die NASA mit dem größten Quantencomputer der Welt? hat mehrere Antworten, darunter eine in einem Kommentar :

Es wird erwartet, dass die Wartung dieses Computers dem 18. Kongressbezirk von Kalifornien neue, hochbezahlte Jobs bringen wird.

und natürlich ist so etwas noch nie passiert.

Frage: Aber acht Jahre später, wie ist es gelaufen? Was hat die NASA Ames mit dem damals größten Quantencomputer der Welt gemacht, einem 512-Qubit-D-Wave-Two™-Quantencomputer, der im Quantum Artificial Intelligence Laboratory (QuAIL) in seiner NASA Advanced Supercomputing (NAS)-Einrichtung untergebracht ist Partnerschaft mit der unabhängigen, gemeinnützigen Forschungsgesellschaft Universities Space Research Association (USRA)?

@user1271772 Ich habe Ihren Änderungsvorschlag gesehen, aber wir können nicht sicher sein, dass "zwei Antworten" in Zukunft immer wahr sein werden. Stack Exchange ist ein lebendiges, dynamisches Dokument und in Zukunft könnten neue Antworten erscheinen. Das etwas vage "mehrere" ist also wahrscheinlich besser als eine bestimmte Aufzählung. Wer sich mit QM auskennt, sollte sich mit einer kleinen "Unsicherheit" wohlfühlen :-)
Verstanden! Vielleicht ist "mehrere" besser, da mehrere 2 oder 3 oder 4 oder mehrere bedeuten können. Das Wort „mehrere“ erweckt bei mir den Eindruck, dass es mehr als 2 gibt. Mir ist aufgefallen, dass „DID“ in Großbuchstaben geschrieben wurde, und ich habe die vorgeschlagene Änderung vorgenommen, um es stattdessen in „tat“ zu ändern .
@ user1271772 Ich habe "tat" betont, weil ich diese Frage von der vorherigen Frage kontrastiere und unterscheide. Man könnte fragen (oder sich sogar beschweren), warum nicht Antworten als Aktualisierungen zur vorherigen Frage hinzugefügt werden, anstatt eine neue Frage zu stellen, also wollte ich deutlicher machen, wie sich diese Frage von der vorherigen unterscheidet. Ich stelle viele SE-Fragen (mittlerweile über 3.000) und habe bestimmte Muster entwickelt, um zu versuchen, mit verschiedenen nahen Gründen fertig zu werden/zurechtzukommen, damit die Frage offen bleiben kann und Antworten gepostet und von zukünftigen Lesern gesehen werden können .
@ user1271772 Wenn ich sprechen würde, würde ich DID betonen, indem ich es lauter und in einem etwas höheren Ton sage. Da wir für den Textteil von Titeln hauptsächlich auf ASCII beschränkt sind und keine Kursivschrift zur Verfügung haben und haben werden , ist dies die einzige andere Möglichkeit, Hervorhebungen hinzuzufügen. Die Großschreibung wird die Verfügbarkeit in Suchmaschinenergebnissen nicht beeinträchtigen und die Art der Frage klarer machen. Ich denke, es ist in diesem Fall in Ordnung.
@ user1271772 Es gibt jedoch einen Mechanismus, um Bedenken hinsichtlich der Titel von Fragen zu äußern
Meine vorgeschlagene Bearbeitung hat "did" für den Titel in römischer Schriftart und nur für den Fragetext in kursiver Schriftart verwendet, aber wenn Sie es stattdessen in Großbuchstaben bevorzugen, ist das Ihr Recht :)
@ user1271772 Ich denke, es gibt allgemeine Richtlinien zum Bearbeiten von Beiträgen, aber ich weiß im Moment nicht, wo sie niedergeschrieben sind. Wenn etwas rein stilistisch ist und keine sinnvolle Verbesserung bringt, lassen wir es normalerweise in Ruhe. Diese Seite enthält etwa 40.000 Frage-Antwort-Beiträge, die in einer Vielzahl von Stilen verfasst sind. Jede Bearbeitung stellt die Frage zurück in die aktive Warteschlange. Wenn wir also anfangen würden, stilistische oder suboptimale Wortwahlen in jeder zu "reparieren", würde die aktive Warteschlange überlaufen. In diesem Fall würde es keinen Unterschied machen, da Ihre Antwort diese Seite bereits in die aktive Warteschlange eingereiht hat
darum geht es hier nicht so sehr. Aber für dieses "tat" kann ich keine Kursivschrift im Titel haben, es sei denn, ich habe MathJax oder einige kursive Unicodes wie 𝑑𝑖𝑑 (von hier: d , i ) verwendet. Mal sehen, wie das fliegt ...
Verwenden Sie keine stilisierten Glyphen wie im Titel; Sie funktionieren nicht gut mit Screenreadern. Der Titel liest sich gut ohne besondere typografische Betonung. Im Hauptteil wäre Kursivschrift angemessener als Großbuchstaben.
@RussellBorogove Ich werde zurückrollen.

Antworten (1)

Das Quantum Artificial Intelligence Lab wurde etwa im Mai 2013 von der NASA und Google ins Leben gerufen , und hier ist der ursprüngliche Blogbeitrag , in dem dieser Start von Hartmut Neven (Leiter des Quantenteams bei Google) angekündigt wurde. Dort sieht man, dass das erklärte Ziel darin bestand, zu untersuchen, wie Quantencomputer für maschinelles Lernen eingesetzt werden könnten. In Wirklichkeit sind 512 Qubits bei weitem nicht annähernd genug, um ein echtes Problem des maschinellen Lernens zu lösen, das ein jahrzehntealter klassischer Computer nicht bereits lösen konnte, also war „maschinelles Lernen“ möglicherweise nur das Schlagwort, das verwendet wurde, um die Genehmigung zu erhalten um dieses Projekt zu starten, bei dem es wirklich darum ging, die neueste Hardware von D-Wave auszuprobieren.

Von den Papieren, die mit der 512-Qubit-D-Wave 2 in Verbindung stehen und von Autoren der NASA veröffentlicht wurden, fällt mir keine ein, die für diese Frage und dieses Publikum relevant wäre. Das bedeutendste von der NASA oder Google veröffentlichte Papier, das D-Wave-Hardware verwendete, war sicherlich dieses von Google , das D-Wave 2X verwendete. Interessanterweise kommen die Wörter „NASA“, „QuAIL“ und „USRA“ nirgendwo in der Zeitung vor, obwohl die tatsächlich verwendete D-Wave-Hardware bei NASA Ames untergebracht war. Dies weist darauf hin, dass die durchgeführte und in dem Papier veröffentlichte Forschung von Google-Forschern durchgeführt wurde und die Beteiligung der NASA darin bestand, dass das Gerät (die D-Wave 2), das zur Durchführung der Experimente verwendet wurde, bei der NASA untergebracht war (etwas, von dem ich erwarten würde, dass es erwähnt wird im Abschnitt "Danksagungen", aber nicht alle Autoren haben die gleichen Standards für Danksagungen an andere, und vielleicht gibt es einen anderen Grund, warum sie es nicht getan haben, von dem ich nichts weiß). Es gibt eine weitere lose Verbindung zur NASA, nämlich dass Vadim Smelyanskiy (der 6. von 8 Autoren) bis mindestens 2014 bei der NASA arbeitete, bevor er zu Google wechselte.

Die Bedeutung dieses Google-Papiers, von dem ich sage, dass es das bedeutendste Papier im Zusammenhang mit der D-Wave-Hardware war, kann in dieser Abbildung zusammengefasst werden:

Geben Sie hier die Bildbeschreibung ein

Hier sehen Sie, dass die D-Wave-Hardware bei einer Problemgröße von etwa 900 Bit die Lösung etwa 7 Größenordnungen schneller findet als der klassische Computer mit dem QMC-Algorithmus ( 10 11 vs 10 4 Mikrosekunden Laufzeit).

Der klassische Computer verwendete nur 1 CPU-Kern, aber selbst mit 100 % Parallelisierungseffizienz würden Sie das brauchen 10 7 Kerne für den klassischen Computer, um hier an die Geschwindigkeit der D-Wave-Hardware heranzukommen. Auf der APS-Konferenz 2016 sagte Hartmut Neven in einem vollen Saal , dass etwa 1 Million Dollar für die Berechnungen in der grünen Kurve ausgegeben wurden.

Ein Folgepapier , in dem der 3. Autor (von 4) bei der NASA arbeitete und alle anderen nicht, verglich die D-Wave-Laufzeiten mit einigen klassischeren Computeralgorithmen, einschließlich "Parallel Tempering", die mehr als einen verwenden würden CPU-Kern parallel und stellte fest, dass die D-Wave-Hardware bis zu einer Problemgröße von 625 Bit immer noch schneller war als jeder klassische Computeralgorithmus (die Quadratwurzeln sind ein äußerst ungeschickter Tippfehler der Autoren und sollten ignoriert werden, bitte lesen 625 als nur 625, nicht 25):

Geben Sie hier die Bildbeschreibung ein

Jenseits von 625 Bit schlagen zwei der klassischen Algorithmen die D-Wave-Hardware, aber nirgendwo in der Zeitung kann ich die Wörter "CPU" oder "Kerne" finden, und ohne zu wissen, wie viele CPUs verwendet wurden, sagt das Ergebnis nichts aus. Da dieses Papier innerhalb eines Monats nach der Veröffentlichung des obigen Google-Papiers (August 2015) geschrieben wurde, würde ich sagen, dass das erste aus diesem Zeitraum zuverlässiger ist.

Schließlich, während ich oben beschrieben habe, was meiner Meinung nach das bedeutendste Ergebnis in dem bedeutendsten Papier ist, das mit der D-Wave-Hardware verbunden ist, die bei der NASA untergebracht ist, und es zeigte, dass das D-Wave-Gerät es ist 10 7 mal schneller als die klassische CPU, wäre diese Antwort unvollständig, ohne zu sagen, was die realen Konsequenzen davon sind. Leider dies 10 7 Beschleunigung ist nur für ein ganz bestimmtes Problem, das "QUBO" genannt wird. Ich sehe keine zufriedenstellende Antwort auf die Frage, ob QUBO reale Anwendungen hat, die nicht mit anderen Mitteln effizienter gelöst werden können, siehe diese beiden Fragen aus dem Operations Research Stack Exchange:

Meine Güte, was für eine gründliche und gut fundierte Antwort, danke!