Ich bin ein Physik-Enthusiast und habe eine Frage: Warum ist es sinnlos, die ' ' (Standardabweichung) Wert in Prozent?
Die Standardabweichung fügt dem Messwert Unsicherheiten hinzu: . Man kann sich schnell den Fehler ansehen (der Einheiten von in meinem Fall) und denke, der Wert könnte so niedrig sein wie oder so hoch wie ohne viel nachzudenken. Dies in einen Prozentsatz des Werts zu ändern, wäre verwirrend.
Außerdem wäre es willkürlich. Wie Martin Beckett betont, wäre es lächerlich, den Fehler (std. dev.) auf den Wert zu skalieren, da die Celsius- und Kelvin-Skalen identische Temperaturabstände, aber unterschiedliche 0-Punkte haben:
Kommt drauf an was du misst.
Wenn Sie die Temperatur eines Glases Wasser auf 20 ° C + - 0,1 ° C messen, wie hoch wäre der Prozentsatz?
Nun, was wäre es, wenn Sie es als 293 Kelvin +- 0,1 K messen würden
Quantenkrypto
Benutzer28355