Wie kann die scheinbare Helligkeit negativ sein?

Was ist der Grund für diese Skala? Liegt es daran, dass es sonst zu schwierig wäre, ein Maximum zu definieren (?). Warum wird Objekten, die (scheinbar) heller sind, eine kleinere Zahl (und bis zu einem negativen Wert) zugewiesen?

Denken Sie daran, dass das Wort Größe „Größe“ oder „Wichtigkeit“ bedeutet. Etwas von der "1. Größenordnung" ist sehr wichtig, während etwas von der "2. Größenordnung" weniger groß/wichtig ist.

Antworten (2)

Die Magnitudenskala ist eine logarithmische Skala. Eine Erhöhung um 1 Magnitude entspricht einer etwa 2,5-fachen Helligkeitsabnahme. Wega, ein heller Stern, hat eine Größe von 0, also hätte jeder Stern, der heller als Wega ist, eine Größe von weniger als 0.

Dies ist ein seltsames System; Der Grund dafür ist historisch. Die alten Griechen ordneten Sterne nach ihrer Helligkeit in Kategorien ein: Die Sterne der ersten Größenordnung waren die hellsten, die der sechsten Größenordnung die dunkelsten. Als es möglich wurde, die Lichtintensität von Sternen genau zu messen, wurde die Skala so gewählt, dass sie sich den traditionellen Größen annähert, aber bei diesen formalen Helligkeitsmessungen machte die logarithmische Natur der Skala es unvermeidlich, dass die hellsten Objekte eine Größe haben würden das war unter 1 oder sogar negativ.

Es schien einfach kein vernünftiger Maßstab zu sein, aber wenn seine Ursprünge nicht historisch sind, dann ist das in Ordnung.
Es ist nicht unvernünftiger als negative Temperaturen, aber niemand außer Wissenschaftlern verwendet die Kelvin-Skala.

Die scheinbare Helligkeit ist ein Maß dafür, wie hell ein Objekt einem Beobachter auf der Erde erscheint, was bedeutet, dass sie eine Funktion sowohl der intrinsischen Leuchtkraft des Objekts als auch seiner Entfernung von uns ist. Das Konzept der Größen geht auf die alten Griechen zurück, als die Sterne am Himmel in sechs Größen kategorisiert wurden (die hellste ist 1 und die schwächste ist 6). Jede sukzessive niedrigere Helligkeit war doppelt so hell wie die vorherige, was bedeutet, dass die Skala logarithmisch war. Aus historischen Gründen verwenden wir immer noch Magnituden, obwohl die Skala später standardisiert wurde, um die Formel zu verwenden

m x m x , 0 = 2.5 Protokoll 10 ( F x F x , 0 )

wo m x und F x sind die Größe und der Fluss des interessierenden Objekts und m x , 0 und F x , 0 sind die Größe des Flusses eines Referenzobjekts (wobei normalerweise Vega verwendet wird, um den 0-Punkt in der Größe zu definieren). Das bedeutet, dass jedes Objekt, das heller als Wega erscheint, eine negative Magnitude hat. Es gibt keine Begrenzung dafür, wie hell ein Objekt erscheinen kann, also gibt es auch keine Untergrenze für die Magnituden. Die Sonne zum Beispiel hat als hellstes Objekt an unserem Himmel eine Magnitude von etwa -27.

Als wählerisches Detail denke ich, dass es 100 ^ (1/5) ist, nicht genau 2,5.
Nein, es ist genau 2,5 in der Formel. Der Faktor von 100 1 5 ist die Zunahme/Abnahme des Flusses entsprechend einer Größenänderung von -/+ 1 mag.
Kannst du das beschaffen? Wikipedia scheint Ihnen nicht zuzustimmen.
Wikipedia stimmt mir zu - die erste Gleichung auf der Seite für die scheinbare Größe ist genau das, was ich oben habe. Außerdem heißt es im ersten Absatz auf der Seite: „Außerdem ist die Größenskala logarithmisch: Eine Differenz von eins in der Größe entspricht einer Helligkeitsänderung um einen Faktor von 100 5 oder ungefähr 2,512." Sie können dies auch mit einer einfachen Rechnung zeigen, indem Sie ein Objekt mit der Größe -1 mit einem Objekt mit der Größe 0 vergleichen: 1 = 2.5 Protokoll 10 ( F x F x , 0 ) Erträge F x F x , 0 = 10 0,4 2.512
Ich denke, es ist wichtig, den Grund anzugeben, warum nur 6 Größen gewählt wurden, nicht 5 oder 10 usw. Da das durchschnittliche menschliche Auge nur zwischen 6 verschiedenen Größen unterscheiden kann, hätten die alten Griechen es schwer gehabt, dies einzugrenzen Sterne in kleinere Kategorien (z. B. 1,5, 2,5, 3,5 usw.) ohne die Hilfe irgendeiner Art von Optik (denken Sie daran, dass auch nicht jeder eine 20/20-Sehkraft gehabt hätte).
@barrycarter: Ich denke, die Verwirrung wird durch die Tatsache verursacht, dass das Verhältnis zwischen zwei aufeinanderfolgenden Größen (100 ** (1/5) oder ungefähr 2,512) ziemlich nahe bei 2,5 liegt. Aber das 2.5in der Formel ist genau. Es ist 5 / log(100). Es gibt einfach zwei relevante Zahlen, eine ein exakter Bruch und eine eine irrationale Zahl.