Meine Beweggründe, diese Frage zu stellen, sind philosophischer Natur, aber ich denke, dass dies eine Frage ist, die am besten von der Physik-Community beantwortet wird.
Es gibt ein Problem in der Wissenschaftsphilosophie, das als „Unterdeterminierungsproblem“ bezeichnet wird. Es gibt zwei Versionen.
Einer ist die Idee, dass die Wahl der Theorie für jeden Datensatz unterbestimmt ist. Es könnte mehrere Theorien geben, die die Daten auf die gleiche Weise erklären, und wir haben noch nicht die Fähigkeit oder die erforderlichen Daten, um auf rein empirischer Grundlage zwischen ihnen zu wählen.
Dies ist die Idee, dass zwei Theorien in allen Situationen genau dasselbe vorhersagen könnten, aber unterschiedliche nicht beobachtbare Entitäten verwenden, um es zu erklären.
Soweit ich weiß (zumindest zu Beginn des Prozesses), könnte die Lorentzsche Interpretation von SR mit Einsteins Interpretation von SR auf diese Weise verglichen werden. Beide machten ähnliche oder die gleichen Vorhersagen, aber viele bevorzugten SR im Hinblick auf seine Einfachheit, da sie nicht die Existenz eines nicht beobachtbaren Äthers postulieren mussten. (Offensichtlich wurden später die empirischen Unterschiede ausgewertet und die Äthertheorie musste modifiziert werden, um ihre gescheiterten Vorhersagen zu berücksichtigen und verlor langsam an Gunst, aber diese empirischen Überlegungen sind nicht wirklich der Punkt dieses Beitrags).
Daraus ergeben sich drei Hauptfragen:
Was sind die Hauptkriterien, an denen sich Physiker orientieren, wenn sie zwischen zwei Theorien entscheiden, die dieselben Vorhersagen machen oder die noch experimentell entschieden werden müssen?
Ist es überhaupt möglich, empirisch identische Theorien zu konstruieren, die verschiedene nicht beobachtbare Entitäten postulieren, um Phänomene zu erklären? Gibt es einen Grund zu der Annahme, dass dies unmöglich ist?
Kommt das in der Praxis jemals vor?
Ps. Es scheint, als ob der Konflikt zwischen der Lorentzschen und der Einsteinschen Interpretation (zumindest früh) ein Beispiel dafür war, aber ich habe vielleicht einige Details über die Geschichte dieser Ideen falsch. Soweit ich weiß, konnte die Lorentzsche Interpretation modifiziert werden, um sie an experimentelle Fehler anzupassen, wurde aber später mit der Begründung abgelehnt, dass sie viel komplexer war (ich nehme an, das bedeutet, dass sie viele zusätzliche Annahmen erforderte?) und daher von der abgelehnt wurde Gemeinschaft im Allgemeinen.
Es scheint jedoch, dass beide Interpretationen etwas nicht Beobachtbares postulieren. Im Fall von Lorentz scheint es, als würde er direkt die Existenz eines Äthers annehmen. Im Einsteinschen Fall gibt es eine unbeobachtbare Verzerrung der Raumzeit. Ich sage, diese Verzerrung ist nicht beobachtbar, weil Sie nur die Auswirkungen davon beobachten können, obwohl dies auch falsch sein kann. Wenn also irgendjemand irgendwelche Missverständnisse ausräumen möchte, die ich über die wichtigen Unterschiede zwischen dem Äther und Einsteins Idee der Raumzeitverzerrung habe, tun Sie dies bitte. Wenn ich falsch liege, wenn ich sage, dass nur die Auswirkungen der Raumzeitverkrümmung beobachtet werden können, korrigieren Sie mich bitte. Obwohl ich zu diesem Zeitpunkt nicht weiß, was es bedeuten würde, die Verzerrung der Raumzeit direkt zu beobachten, da die Raumzeit die Leinwand ist, auf der wir Beobachtungen machen??
Das Schlagwort „Populärwissenschaft“ steht hier, weil ich nicht viel in theoretischer Physik studiert habe. Ich habe gerade das Abitur in Physik abgeschlossen (irgendwo zwischen High School und Universität nach US-Standards) und möchte Theoretische Physik an der Universität studieren, weshalb ich das Problem so interessant finde und das Argument Einstein vs. Lorentz als Beispiel dafür verwendet habe Frage, weil ich während meines Studiums einen Bericht über dieses Argument und über einfache Ableitungen von Lorentz-Transformationen usw. gemacht habe ... also ist es ein Argument, mit dem ich vertrauter bin als mit anderen.
Ich nehme an, eine ähnliche Debatte hätte es während der ursprünglichen Entwicklung der kinetischen Theorie gegeben, als kinetische Theoretiker die Existenz von Atomen postulierten, die zu dieser Zeit nicht beobachtbar waren, um bestimmte Phänomene zu erklären, die mit einer anderen Art von nicht beobachtbarem (vielleicht I weiß nicht)?
anzusprechen,
Was sind die Hauptkriterien, an denen sich Physiker orientieren, wenn sie zwischen zwei Theorien entscheiden, die dieselben Vorhersagen machen oder die noch experimentell entschieden werden müssen?
Zuallererst sollte angemerkt werden, dass die Gemeinschaft ohne experimentelle Beweise, die für eine sprechen, wahrscheinlich die Entwicklung aller brauchbaren konkurrierenden Theorien bis zu einem gewissen Grad fortsetzen wird, natürlich.
Wenn keine experimentelle Unterstützung verfügbar ist, verlassen sich Theoretiker auf zwei wichtige Faktoren:
Letzteres lässt sich leichter quantitativ demonstrieren, während ersteres sich bis zu einem gewissen Grad auf eine subjektive Sichtweise mathematischer Schönheit oder Anziehungskraft stützt, obwohl zum Beispiel ad hoc von Hand gesetzte Einschränkungen ein potenzielles Warnsignal wären.
Ein Beispiel für eine „schöne Theorie“ ist sicherlich die Allgemeine Relativitätstheorie im Sinne des Lovelockschen Theorems: z , bis zur zweiten Ableitung in , die Wahl ist die einzige Möglichkeit.
Nehmen Sie aus Gründen der Konsistenz Ihre bevorzugte Streuamplitude auf Baumebene aus der Quantenelektrodynamik, und in der klassischen Grenze sollte sie dem Querschnitt für den Prozess entsprechen, der unter Verwendung der nichtrelativistischen Quantenmechanik bewertet wird.
Die obigen Antworten sind ziemlich umfassend, daher werde ich nur einen Punkt als Analogie hinzufügen, der meiner Meinung nach eine Intuition dafür gibt, warum Physiker (und Wissenschaftler im Allgemeinen) einfachere Theorien bevorzugen und eher dazu neigen zu glauben, dass sie irgendwie grundlegend richtig sind wenn Sie geben die richtigen Vorhersagen.
In der Wissenschaft ist es üblich, eine "Kurvenanpassung" durchzuführen, bei der man im Allgemeinen viele Messreihen hat (um ein konkretes Beispiel zu geben, sagen wir, wir haben 50 Messungen der Kraft zwischen zwei neu entdeckten Teilchen und des Abstands zwischen ihnen). mit etwas Rauschen und Messfehlern und muss bestimmen, wie gut sie mit einem Modell übereinstimmen. In unserem Beispiel könnten wir ein Kraftmodell wo haben . Hier haben wir einen einzigen Parameter, , also müssen wir zwei Fragen beantworten - welchen Wert von passt das Modell am besten zu unseren gemessenen Daten, und wenn wir es gefunden haben, wie gut passt es? Normalerweise passt es nicht perfekt, selbst wenn das Modell korrekt war, weil die Maße nie perfekt sind, aber im Allgemeinen können wir uns umso mehr auf das Modell verlassen, je besser die Passform ist. Wir können zwei Modelle vergleichen, indem wir fragen, welches besser zu den Daten passt.
Allerdings müssen wir mit dieser Argumentation vorsichtig sein, wegen eines Phänomens namens „Overfitting“. Nehmen wir an, jemand anderes kommt daher und behauptet, dass die Kraft durch ein Polynom 100. Grades beschrieben wird, dh . Wie sich herausstellt, gegeben eine Reihe von Paaren von Messungen, können wir diese Daten perfekt mit einer anpassen Polynom 100. Grades, so dass unser Polynom 100. Grades perfekt an unsere 50 Messungen angepasst werden kann.
Aber offensichtlich bedeutet dies nicht, dass das Modell im Fall unserer zwei neuen Teilchen korrekt ist, weil wir diese Datenpunkte unabhängig von der zugrunde liegenden Physik immer hätten anpassen können. Dies wird als „Overfitting“ bezeichnet. Aus diesem Grund berücksichtigen die meisten Urteile darüber, wie gut ein Modell mit Daten übereinstimmt, nicht nur, wie genau es passt, sondern mit wie vielen Freiheitsgraden das Modell herumspielen musste.
Im Allgemeinen haben wir bei der Diskussion physikalischer Theorien möglicherweise nicht viele einfach zu zählende numerische Parameter. Ob die eine oder andere Theorie mehr oder weniger metaphorische Parameter hat, ist nicht offensichtlich, und zwei Theorien, von denen eine komplizierter erscheint, können sich als mathematisch oder sogar konzeptionell identisch erweisen. Daher sind Physiker gezwungen, sich auf ein intuitives Gespür für „Eleganz“ zu verlassen, ein Bauchgefühl, das besagt, dass eine Theorie „einfach“ und „unvermeidlich“ ist, dass sie entweder richtig oder falsch ist und nicht einfach an widersprüchliche Beobachtungen angepasst werden kann leicht. Ich glaube, Feynman hat das Gefühl einmal auf den Punkt gebracht, als er so etwas sagte wie „Man kann einer perfekten Sache keine Unvollkommenheiten hinzufügen, man muss stattdessen eine neue perfekte Sache erfinden“. Vielleicht werden wir eines Tages herausfinden, wie wir diese Idee quantifizieren können, aber jetzt
Zur weiteren Beantwortung
Ist es überhaupt möglich, empirisch identische Theorien zu konstruieren, die verschiedene nicht beobachtbare Entitäten postulieren, um Phänomene zu erklären?
Ein weiteres Beispiel für das Problem der Unterbestimmung ist die Interpretation der Quantenmechanik. Hier haben Sie mehrere konkurrierende Theorien darüber, wie sich die Natur auf kleinen Skalen verhält, die alle angeblich mit den Vorhersagen von QM übereinstimmen (zumindest bisher ...). Dazu gehören die Viele-Welten-, Pilotwellen-, Transaktions- und Kopenhagen-Interpretationen. Diese Theorien bieten dramatisch unterschiedliche Visionen des Universums, aber aufgrund ihrer Konstruktion haben sie die gleichen experimentellen Vorhersagen.
Wie wählt man also eine Interpretation aus? Wie bereits erwähnt, sind ästhetische Attraktivität, Einfachheit, Konsistenz und Nützlichkeit für Vorhersagen oft wichtig. Aber da QM eine so große Abweichung von unserer alltäglichen Intuition erfordert, denke ich, dass jemand auch eine Interpretation wählen wird, die seine Sensibilität am wenigsten verletzt. Wenn Sie zum Beispiel wirklich Determinismus wollen, aber nichts gegen Nichtlokalität haben (dh gruselige Aktionen auf Distanz), wählen Sie Bohmsche Pilotwellen. Aber wenn Sie lieber die Lokalität auf Kosten einer milden Retrokausalität sparen möchten, entscheiden Sie sich für die transaktionale Interpretation. Wenn Sie nicht darüber nachdenken möchten und lieber eine Theorie auswählen möchten, die auf Vertrautheit und Allgegenwärtigkeit basiert, wählen Sie Kopenhagen.
Mir persönlich gefällt es, wie die Transaktionsinterpretation Ihnen die Bornsche Wahrscheinlichkeitsregel "kostenlos" gibt, in dem Sinne, dass sie nicht als Postulat benötigt wird (wie es für jede andere Interpretation der Fall ist); vielmehr ist es „gerechtfertigt“. Dies verstärkt die Einfachheit der Transaktionsinterpretation und meiner Meinung nach den ästhetischen Reiz.
Wenn Sie eine Antwort auf Ihre Nummer 2 haben möchten, gibt es immer einen „Zufall“, der dazu führen könnte, dass Ihre empirischen Beobachtungen „ähnlich aussehen“. Natürlich würden wiederholte Messungen dies bei jeder Messung weniger wahrscheinlich machen. Aber es bedeutet , dass es möglich ist! (was bedeutet, dass es keinen Grund gibt zu glauben, dass es unmöglich ist!).
Zweitens, um dies etwas philosophisch / augenzwinkernd anzugehen. Was Sie fragen, ist sozusagen eine Grenze für unsere „Vorstellungskraft“, denn würden Sie nicht zustimmen, dass dies das ist , was verwendet wird, um „die möglichen Gründe für das Unbeobachtbare“ zu finden?
Ich finde es auch nicht allzu schwer zu glauben, dass es 2 gleichermaßen fehlerhafte Interpretationen gibt, die beide (in ihren Beobachtungseffekten) miteinander übereinstimmen.
siehe da, einige Beispiele für schlechte Gravitations-'Interpretationen'!
Schwerkraft ist ein kleines Teilchen, das, wenn es mit Objekten kollidiert, nicht langsamer wird (es geht durch das Objekt hindurch) und „negative kinetische Energie“ ablagert (aus irgendeinem Grund?, weitere Theoriebildung erforderlich).
Die Schwerkraft ist ein vollständig verbundener Graph aus unsichtbaren, unberührbaren und unzerbrechlichen Gummibändern, mit ihrem 'entspannten' Zustand am 'Ursprungspunkt des Universums' (wo der Urknall geschah :p ), alles ist verbunden ! (sogar Photonen, da wir sehen können, wie die Schwerkraft Licht krümmt!). Außerdem ... werden die Bänder schwächer, je mehr sie gedehnt werden ... sogar bis zu dem Punkt, an dem sie nach einer bestimmten Länge wegdrücken?
^ Das sind ziemlich schlechte Theorien, aber ... Sie können sich vorstellen, dass sie zu "ähnlichen beobachtbaren Ergebnissen" führen würden (zumindest ... bis zu einem bestimmten Punkt, und die Risse beginnen sich zu zeigen ... ich denke ... oder vielleicht Die Theorie der geflickten Gummibänder ist so, wie sie funktioniert: p).
Letztendlich können wir das occam's razor
Prinzip wohl nur als loses Maß für die Glaubwürdigkeit einer Theorie / Idee anwenden.
WillO
Joe Lee-Doktor
sichere Sphäre
Philipp Holz
sichere Sphäre
Joe Lee-Doktor
Joe Lee-Doktor
sichere Sphäre
Peter Diehr
Joe Lee-Doktor
sichere Sphäre
Benutzer6873235
Peter Diehr
sichere Sphäre
sichere Sphäre
Peter Diehr
sichere Sphäre