Wie kommen Physik und Informatik zusammen? [abgeschlossen]

Wie wird die theoretische Informatik mit der Physik vereint? Phänomene wie Quantum Computing nutzen Quantenmechanik, um Dinge berechnen zu können, wie helfen Computer nicht nur dabei, unsere Gleichungen zu modellieren, sondern tatsächlich neue Gleichungen vorherzusagen, was uns hilft, den rechnerischen Aspekt der Natur zu sehen und wie verschiedene Dinge aus neuen Perspektiven betrachtet werden mit Informatik?

siehe auch Physikergebnisse in TCS tcs.se
Im Grunde ist alles Physik ...

Antworten (3)

Dies ist eine breite, komplexe, etwas knifflige Frage mit vielen Blickwinkeln, über die eine ganze Umfrage oder ein ganzes Buch geschrieben werden könnte, aber leider scheint man es noch nicht getan zu haben. Hier ist eine "Wundertüte" einiger tiefer Parallelen, die im Laufe der Jahre festgestellt wurden und die ein solches Buch möglicherweise abdeckt und "Forschungshinweise" für weitere Untersuchungen enthält.

  • Modellierung und Simulation . Da die Rechenleistung zugenommen hat, kann in Physiksimulationen eine größere Wahrscheinlichkeit/Genauigkeit erreicht werden. dies hat große Auswirkungen zB in der Fluid-/Aerodynamik oder auch molekulardynamischen Simulationen. der jüngste Nobelpreis 2013 wurde für genaue Molekularmodellierungsalgorithmen vergeben. Dies wird auch in der Teilchenphysik häufig verwendet, um Teilchenspuren zu klassifizieren und neue Teilchen zu erkennen. auch signifikante Fortschritte/Fortschritte beim Problem der Proteinfaltung gehen weiter.

  • QM-Computing hat eine extrem enge Kopplung zwischen dem Physical-Computing-Modell und seinen theoretischen Fähigkeiten. In gewisser Weise scheint es ein Schritt von der Abstraktion des klassischen CS-Modells der Turing-Maschine entfernt zu sein, da die QM-Abstraktion anscheinend fast die gleiche Dynamik wie die QM-Realität enthält (es ist keine große Vereinfachung wie die TM). Führer im QM-Bereich, zB Wheeler, haben eine zunehmend informationszentrische Sichtweise der QM-Physik eingenommen. Der bahnbrechende Shors-Algorithmus scheint darauf hinzudeuten, dass eine strenge Analyse des physikalischen Rechenmodells erforderlich ist, um die inhärente Rechenkomplexität eines Problems (in diesem Fall Faktorisierung) genau zu messen.

  • ein (ein halbes Jahrhundert) alter berühmter/klassischer Aufsatz zu dem Thema, der eine Aktualisierung für das "algorithmische Zeitalter" verdient: Die unangemessene Wirksamkeit der Mathematik in den Naturwissenschaften von Wigner, 1960, wo "Algorithmus" fast "Mathematik" ersetzen könnte in Titel und Inhalt. Die modernere Parallele scheint das zu sein, was als "algorithmische Linse" bezeichnet wird, und hat eine breite Anwendbarkeit in mehreren Wissenschaften, insbesondere in Physik und Bioinformatik .

  • das Übergangspunktphänomen in NP-vollständigen Problemen und anderen CS-Problemen. Wie von Walsh beschrieben, ist es ein breites Phänomen , das sehr tief mit Phänomenen der statistischen Physik verbunden ist. das war esp. von Mezard erforscht / entwickelt.

  • Wie bereits erwähnt, scheint die Informationsentropie starke Verbindungen zu physikalischen Entropiekonzepten zu haben, und diese Verbindung ist ein laufendes/aktives Forschungsgebiet. Es scheint, dass sich wichtige CS-Probleme im Zusammenhang mit Trennungen von Komplexitätsklassen um ein Konzept/Phänomen von „Ordnung versus Unordnung“ oder „Zufälligkeit“ handeln, das der Entropie ähnlich ist, z. B. wie in dem Konzept/Papier Natural Proofs .

  • Rolf Landauers Forschung zeigt tiefe Verbindungen zwischen Physik und Informationsverarbeitung zB in Grenzen der Energiedissipation. „Rolf Landauer hat mehr als jeder andere dazu beigetragen, die Physik der Informationsverarbeitung als ernsthaftes Thema wissenschaftlicher Forschung zu etablieren“, sagt Bennett.

Zusammenfassend lässt sich sagen, dass viele Überschneidungen / Verknüpfungen zwischen Physik / Informatik im Schlüsselwort "Information" und auch in der breiten Interpretation des Wortes "Algorithmus" liegen. außerdem ist DNA-Computing ein Bereich starker/aufkommender Überschneidungen.
Andere großartige Zahlen, die diese Synergie veranschaulichen: Der mit dem Nobelpreis ausgezeichnete Physiker Feynman ist der konzeptionelle Urheber des QM-Computing, nicht irgendeine TCS-Figur! und wolfram mit promovierter physik ist wohl einer der begründer (zusammen mit fredkin ) der "algorithmischen linse", die jetzt durch die wissenschaften wirbelt ....
deutsch ist auch eine Querschnittsfigur bei der Gründung des QM-Computing

Es gibt zahlreiche Beispiele für Menschen, die beispielsweise genetische Algorithmen verwenden, um einige Ergebnisse zu optimieren, bei denen eine tatsächliche Lösung der Gleichung sonst unmöglich wäre. Die Informationsentropie, ein generisches Rechenkonzept, hat einen gewissen Einfluss auf die statistische Physik. Aber ich kann mich an keinen Fall erinnern, den ich gesehen habe, wo ein Konzept aus der Spitzeninformatik direkt eine neue physikalische Theorie beeinflusst hätte. Fortgeschrittene CS-Konzepte landen normalerweise als Werkzeuge im Arsenal eines Physikers oder informieren über neue Entdeckungen, aber ich glaube nicht, dass ein Computer etwas vorhergesagt hat, das allgemein als "Grundlagenphysik" angesehen wird.

Die Verbindung zwischen Informatik und Physik kann manchmal sehr subtil sein. Betrachten Sie zum Beispiel diesen Artikel:

http://arxiv.org/abs/1010.0128

Der Punkt ist folgender. Betrachten Sie einen Quantenalgorithmus, um ein NP-vollständiges Problem zu lösen (dh: ein schwieriges Problem, von dem angenommen wird, dass es nicht in polynomieller Zeit lösbar ist). Betrachten Sie nun eine klassische Simulation dieses Problems. Natürlich wird die klassische Simulation in einem klassischen Computer durchgeführt ... und kann daher die Lösung nicht in polynomieller Zeit liefern. Entweder es schlägt fehl oder es dauert länger. Der Artikel diskutiert eine bestimmte Simulationstechnik für Quantencomputer, von der bekannt ist, dass sie die richtigen Ergebnisse liefert, aber in unbekannter Zeit. Wenn wir davon ausgehen, dass NP-vollständige Probleme nicht in polynomieller Zeit gelöst werden können (wie vermutet), dann muss „etwas“ die klassische Simulation daran hindern. Im diskutierten Fall muss es die während des Eingriffs erreichte maximale Verschränkung sein,

Fazit: Die Arbeit extrahiert einige physikalische Vorhersagen aus einer "Vermutung" der Informatik. Das ist nicht so seltsam, wie es klingt, denn Theoretische Informatik und Rechenkomplexität sind Zweige der Mathematik.