Welche Beziehung besteht zwischen der Unsicherheit und den aus einer Messung gewonnenen Informationen?

Wenn beispielsweise eine Messung eine Position mit der doppelten Unsicherheit als eine andere Messung angibt, wie viel weniger Informationen zur Position erhalten Sie dann? Mit anderen Worten, wenn sich die Unsicherheit verdoppelt, halbiert sich dann der Informationsgewinn? Was ist die Beziehung? Entspricht unendliche Unsicherheit auch 0 Informationen?

Bearbeiten: David, ich beziehe mich auf die Messung in Bezug auf die Unsicherheitsprinzip. Wenn Sie sich dafür entscheiden, die Frequenz des Photons zu erhöhen, das zum Lokalisieren eines Elektrons verwendet wird, wird die Unsicherheit des Impulses offensichtlich zunehmen. Meine Frage ist, wenn die Unsicherheit in einer Observablen zwischen zwei Messungen steigt oder fällt, welche Auswirkung hat das auf die Informationen, die für jede Observable erhalten werden? Um es ausdrücklich auszudrücken: Wenn Sie eine Messung durchführen, die Ihnen einen genaueren Partikelort liefert, bedeutet das nicht, dass Sie mehr Informationen über diese Beobachtungsgröße erhalten? Wenn Sie mir sagen, dass sich mein Sitzplatz in einer Hockeyarena in „Abschnitt 104/Reihe E/Sitzplatz 16“ befindet, ist das nicht mehr Information, als wenn Sie mir sagen, dass mein Sitzplatz „irgendwo im Stadion“ ist?

Wie definiert man Informationen?
Mein Informationskonzept basiert auf dem Grundsatz, dass Informationen nicht erstellt oder zerstört werden können.

Antworten (4)

Angenommen, wir haben die Wahrscheinlichkeit, den Wert zu messen X ich gegeben von P ( X ich ) . Die Ungewissheit bzgl X wird dann durch Shannon-Entropie gemessen (was nicht ganz dasselbe ist wie Entropie in der Thermodynamik ):

H ( X ) = ich P ( X ich ) Protokoll P ( X ich )
(Wenn die Basis des Logarithmus ist 2 , die Entropie wird in bits gemessen , wenn es e ist , dann in nats .)

Nach der Messung A , ist die Verteilung derselben Größe durch die bedingte Wahrscheinlichkeit gegeben P ( X ich | A ) , so dass die Unsicherheit ist:

H ( X | A ) = ich P ( X ich | A ) Protokoll P ( X ich | A )
Die (bei der Messung gewonnene) Information wird dann als Reduktion der Unsicherheit definiert:
ICH ( X | A ) = H ( X ) H ( X | A ) .

Eine ausführlichere Diskussion dieser Konzepte findet sich in den Büchern zur Informationstheorie, wie z. B. Elements of Information Theory von Cover und Thomas .

@hft ja, ich war schlampig. Danke.

„Unsicherheit“ ist ein mehrdeutiger Begriff. Für eine Standardmessung in der Physik gibt es zwei anerkannte Fehlerkomponenten.

Die Genauigkeit ist ein Maß dafür, wie gut eine Messung mit dem „bekannten“ Wert übereinstimmt. Offensichtlich ist der bekannte oder wahre Wert einer Messung normalerweise nicht bekannt, aber für Situationen wie die Bestimmung der Konzentration einer Chemikalie in einem Chemieexperiment würden Sie absichtlich eine bekannte Konzentration dieser Chemikalie mischen, die als "Standard" bekannt ist. und messen Sie diese Konzentration, um sicherzustellen, dass Ihr Messgerät/Ihre Methode Ihnen einen wahren Messwert liefert.

Die Genauigkeit ist ein Maß dafür, wie viele signifikante Zahlen Sie einer bestimmten Messung zuordnen können, und hängt von dem Gerät ab, mit dem die Messung durchgeführt wurde. Bei einer Meterstabmessung, bei der der Meterstab in Zentimetern markiert ist und keine Millimetermarkierungen enthält, können Sie Längen auf den nächsten Zentimeter genau messen und den Bruchteil eines Zentimeters schätzen, der von der unbekannten Länge überschritten wird. Somit würde eine Linie, die 65,3 Zentimeter lang ist, als 0,653 Meter lang gemeldet werden, wobei die niedrigstwertige Ziffer (z. B. "3") als geschätzter Wert erkannt wird. Sie würden die Länge nicht als 0,6530 Meter angeben, da die Genauigkeitsregeln erfordern, dass Sie nur die erste geschätzte Ziffer in Ihrer Antwort schätzen und angeben. Ebenso, wenn ein anderer Meterstab in Zentimetern und Millimetern markiert war, Sie würden die gemessene Linie als 0,6532 Meter angeben, wobei wiederum die niedrigstwertige Ziffer (z. B. „2“) als geschätzter Wert erkannt wird. Beachten Sie, dass bei ordnungsgemäßer Angabe der Genauigkeit leicht zu erkennen ist, dass die erste Messung mit einem Gerät durchgeführt wurde, das in Zentimetern gekennzeichnet war, während die zweite Messung mit einem Gerät durchgeführt wurde, das in Millimetern gekennzeichnet war.

Bezüglich der oben beschriebenen "Unsicherheit" der Messungen geben BEIDE Messungen eine Antwort innerhalb der Genauigkeit des verwendeten Gerätes. JEDE Antwort ist gültige „Information“ im Sinne von Genauigkeit und Präzision. Ob eine Antwort als „besser“ oder gültiger als die andere angesehen werden kann, hängt oft davon ab, wie präzise eine Antwort für eine bestimmte Anwendung oder ein bestimmtes Experiment benötigt wird. Dies bedeutet natürlich, dass es keine streng definierte Beziehung zwischen "Unsicherheit" und "Information" gibt, da diese beiden Begriffe im Kontext etablierter physikalischer Normen mehrdeutig sind.

könnten Sie bitte auf meine Bearbeitung der Frage antworten? Ihre Antwort ist nicht das, was ich wollte.
@user21909, ich kann nur deine "klassischen" Fragen beantworten. Für eine quantenmechanische Antwort muss ich mich an die Experten auf dieser Seite wenden. Obwohl meine Antwort nicht das war, wonach Sie gesucht haben, hoffe ich, dass sie Sie dazu veranlasst hat, sie so spezifisch zu formulieren, dass jemand anderes die Art von Antwort geben kann, nach der Sie tatsächlich suchen.

„Daten sind keine Informationen. Informationen sind kein Wissen. Wissen ist nicht Weisheit. Weisheit ist nicht Wahrheit. Wahrheit ist nicht Schönheit. Schönheit ist nicht Liebe. Liebe ist keine Musik. Musik ist DAS BESTE.“ Frank Zappa

Wenn Sie etwas messen, erhalten Sie Daten. Die Informationsmenge in den Daten kann abgeschätzt werden, indem Sie Ihre Unsicherheit abschätzen. Wenn Sie vor dem Eintreffen der Daten keine Ahnung hatten, was Sie erwartet, und dann herausgefunden haben, ist das etwas. Aber wenn Sie sich ziemlich sicher waren, was Sie bekommen würden, und dann hätten Sie es bekommen, ist das viel weniger. Wenn Sie sich sicher waren, was die Daten sein würden, und sich dann geirrt haben, dann haben Sie mehr Informationen erhalten, als wenn Sie es einfach nicht wissen.

Wenn die Daten das Ergebnis eines Pferderennens waren, für das Sie Geld hatten, dann ist die eigentliche Botschaft das, was Sie interessiert. Wenn dein Pferd WIRKLICH gewonnen hat, aber das wurde nicht bekannt gegeben, verlierst du sowieso dein Geld. Aber was ist, wenn das, was Ihnen wirklich am Herzen liegt, ein allgemeines Prinzip ist? Sie haben eine Vorstellung davon, was in den Messungen vor sich geht, und jede Messung hilft Ihnen, sich davon zu überzeugen, dass Sie richtig oder falsch liegen. Wenn Sie die wichtigsten Dinge verstehen, und es gibt verschiedene Kleinigkeiten, die kleine Auswirkungen haben, können Sie einige kleine Fehler akzeptieren. Aber sobald Ihre großen Auswirkungen akzeptiert sind, könnte jemand anderes mit Theorien über die kleinen Fehler daherkommen, und für ihn sind das die wichtigen Dinge. "Das Fleisch des einen ist das Gift des anderen. Die Daten des einen sind der experimentelle Fehler des anderen."

Was also entscheidet, ob es Information oder Rauschen ist, ist das, was Sie interessiert.

Wie viele Informationen Sie erhalten, hängt im Wesentlichen davon ab, wie überrascht Sie sind, wenn Sie sie erhalten. Oder vielleicht ist es besser zu sagen, ab wie viel Ihre Unsicherheit reduziert wird.

Dieses Zeug ist schwer sinnvoll zu quantifizieren. Aber es gibt Möglichkeiten, es zu quantifizieren, die Sie unter bestimmten Umständen als sinnvoll erachten können.

Wir verstehen diese Menge Q hat einen wahren Wert Q T R u e . Wir können jedoch nur eine Reihe von Werten kennen, innerhalb derer Q T R u e Lügen. Das Ausmaß dieser Wertemenge wird als Unsicherheit bezeichnet δ Q . Da wir nicht wissen können, wo in der Menge der wahre Wert liegt, verwenden wir oft den Durchschnitt als unsere beste Schätzung Q B e S T . Es gibt andere beste Schätzungen wie den Median oder das geometrische Mittel.

Um eine Menge den Formalismus zu melden Q = Q B e S T ± δ Q wird eingesetzt. Dieser Bericht erfordert 2 Informationen.

  1. Die beste Schätzung, Q B e S T
  2. Die Unsicherheit, δ Q

Eine bessere Schätzung oder eine verbesserte Unsicherheit ändert nichts an der Anzahl der Informationen, die erforderlich sind, um die Menge vollständig zu beschreiben. Eine kleinere Ungewissheit existiert innerhalb des Ausmaßes der größeren Ungewissheit, also impliziert das eine das andere. Die Angabe der Reihen- und Sitzplatznummer ohne das Stadion ist bedeutungslos. Eine gültige Unsicherheit ist also eine einzelne Information.

wenn sich die Ungewissheit verdoppelt, halbiert sich dann der Informationsgewinn?

Nein. Es gibt nur noch zwei Mengenangaben.

Entspricht unendliche Unsicherheit auch 0 Informationen?

Nein. Die wahren Werte liegen im Umfang der Wertemenge. Die beste Schätzung kann immer noch gemacht werden. Manche würden es "das Offensichtliche sagen" nennen.

Das Unsicherheitsprinzip muss sorgfältig betrachtet werden. In diesem Fall hat "Unsicherheit" Konnotationen der Quantenmechanik, die die Bedeutung im Vergleich zur oben verwendeten Art und Weise ändern können. Das Prinzip verbindet die (bisher als unabhängig betrachteten) Unsicherheiten zweier Größen.

X T R u e = X B e S T ± δ X
P T R u e = P B e S T ± δ P
Es gibt jetzt 4 Informationen, aber das Unsicherheitsprinzip wendet eine Wendung an:
δ X 1 δ P

Das Unsicherheitsprinzip führt eine Beschränkung der Unsicherheiten ein. Wenn die Proportionalitätskonstante bekannt ist, reduziert die Einschränkung die Anzahl der Informationen auf 3. Die Konstante kann genau sein und die Anzahl der Informationen auf 4 bringen. Oder sie kann ungewiss sein, wenn die Menge der Informationen auf 5 gebracht wird.

Unsicherheit erzeugt oder zerstört keine Informationen. Durch das Reduzieren werden die vorhandenen Informationen nur aufpoliert.