Warum erscheinen Sterne als Kreise und nicht als Punkte?

Geben Sie hier die Bildbeschreibung ein

Mit Ausnahme der Sonne sind Sterne so weit entfernt, dass ihr Winkeldurchmesser praktisch Null ist. Wenn Sie sie jedoch fotografieren, erscheinen hellere Sterne als Kreise und nicht als Punkte. Wieso den?

Theoretisch sollte jeder Stern, unabhängig von seiner Helligkeit, höchstens einen kleinen Punkt des Mediums treffen, das zum Fotografieren verwendet wird. Warum reagieren auch benachbarte Punkte des Mediums? „Blutet“ übermäßig viel Licht in benachbarte Punkte, und wenn ja, ist das „Bleeding“ bei Digital- und Nicht-Digitalkameras gleich?

Hat das was mit dem Objektiv zu tun? Erweitert das Objektiv je nach Helligkeit einen einzelnen Lichtpunkt zu einem kleinen Kreis?

Ich bin darauf gestoßen, als ich versuchte, https://astronomy.stackexchange.com/questions/22474/how-to-find-the-viewing-size-of-a-star zu beantworten , das effektiv fragt: Was ist die Funktion (falls vorhanden) das die Sternhelligkeit mit der Größe einer Sternscheibe auf fotografischem Film (oder digitalen Medien) in Beziehung setzt?

Hinweis: Mir ist klar, dass die visuellen und fotografischen Größen eines Sterns unterschiedlich sein können, und ich gehe davon aus, dass die Antwort auf der fotografischen Größe basiert.

EDIT: Danke für all die Antworten, ich überprüfe sie immer noch. Hier sind einige weitere hilfreiche Links, die ich gefunden habe:

Benutzer1118321 erwähnt (Grund 1.) einen anderen wahrscheinlichen mechanischen Grund für den Effekt, unabhängig von den optischen Problemen. Ich würde diesen praktischen Grund zu den theoriebasierten von mir und anderen hinzufügen.
weitere hilfreiche Links hinzugefügt
„Theoretisch sollte jeder Stern, unabhängig von seiner Helligkeit, höchstens einen kleinen Punkt des Mediums treffen, das zum Fotografieren verwendet wird.“ Mir ist keine solche Theorie bekannt, und da sie der Beobachtung widerspricht, muss jede solche Theorie falsch sein. Was ist diese Theorie, und wie kamen Sie darauf, sie zu glauben? Ich interessiere mich dafür, zu erfahren, wie Menschen dazu kommen, falsche Dinge zu glauben.
@EricLippert Das ist ein bisschen hart ... Ich sage, der Winkeldurchmesser eines Sterns ist praktisch Null. Wenn also Licht vom Stern direkt auf fotografische Medien trifft und die fotografischen Medien "verpixelt" werden, würde das direkte Licht des Sterns aufleuchten höchstens ein Pixel. Hilft das?
Nicht die Absicht, hart zu sein; Nur-Text-Medien können beiläufige Anfragen leider wie Verhöre klingen lassen. Das hilft; Jetzt können wir die Konsequenzen Ihrer Theorie betrachten. Erstens: Wenn der Winkeldurchmesser "effektiv Null" ist, wie kann er dann eine beliebige Anzahl von Pixeln beleuchten? Ein Ding der Größe Null ist unendlich kleiner als jedes Pixel. An dieser Theorie scheint also schon etwas faul zu sein. Zweitens: Wenn der Winkeldurchmesser extrem klein ist, dann ist das Verhältnis des Durchmessers der Kameraöffnung zum wahrgenommenen Durchmesser des Objekts enorm ; das scheint ein Faktor zu sein. Ist es?
Ich hätte "fast Null" sagen sollen. Ich weiß, dass wir nur Sterne sehen, weil sie 1 Stab in unseren Augen zum Leuchten bringen. Wieder sprach ich über das Licht, das direkt auf eine ebene Oberfläche fällt und nicht durch Linsen erweitert oder anderweitig verändert wird. Um den Zorn der Mods zu vermeiden, sollten wir dies in den Chat verschieben oder mich direkt kontaktieren (Kontaktdaten im Profil).
@EricLippert Der Winkeldurchmesser "Effektiv Null" ist eigentlich eine ungefähr anständige Annäherung an eine Impulsfunktion (etwas mit einer Dauer von Null (für Zeitbereichssignale) oder einem Durchmesser von Null (für räumliche 2D-Signale), aber mit endlich messbarer Energie, wenn er über diesen Bereich integriert wird ). Die PSF / Impulsantwort beschreibt, wie das System den Impuls „ausbreitet“. Natürlich existiert die Impulsfunktion (oder funktional normalerweise) nur als mathematisches Modell, aber sie wird als Grundlage verwendet, um zu beschreiben, wie ein System auf einen Einheitsimpuls reagiert.
@barrycarter mach dir keine Sorgen über den Zorn der Mods. ;-) Wenn das System feststellt, dass eine Kette von Kommentaren zu lang oder zu geschwätzig wird, bietet es automatisch an, die Konversation in einen Chatroom zu verschieben, bevor es Ihnen erlaubt, den Kommentar zu posten. Ziemlich praktisch, nur würde ich mir wünschen, dass Sie den „Zum Chat wechseln“ früher auslösen könnten.

Antworten (6)

Immer wenn Licht eine Grenze passiert, wird es aufgrund der wellenartigen Eigenschaft des Lichts, das mit dieser Grenze interagiert , gebeugt oder gebogen. Eine typischerweise kreisförmige oder kreisähnliche Apertur in einem optischen System ist eine solche Grenze.

Wie Licht mit der Apertur wechselwirkt, wird durch die Point-Spread-Funktion (PSF) beschrieben, bzw. wie stark und wie stark sich eine punktförmige Lichtquelle beim Durchgang durch das optische System ausbreitet. Die PSF wird durch die Geometrie des Systems (einschließlich der Form und Größe der Apertur, der Form(en) der Linsen usw.) und der Wellenlänge des durch das optische System hindurchtretenden Lichts bestimmt. Die PSF ist im Wesentlichen die Impulsantwort des optischen Systems auf eine Impulsfunktion , einen Lichtpunkt mit einer Energieeinheit, die im 2D-Raum infinitesimal schmal oder eng begrenzt ist.

Die Faltung von PSF mit Objekt erzeugt ein resultierendes verbreitetes Bild von Wikimedia Commons
Die Faltung des Lichts vom Objekt mit der Punktstreufunktion führt zu einem erzeugten Bild, das breiter erscheint als das ursprüngliche Objekt. Von Wikipedia-Benutzer Default007, von Wikimedia Commons . Gemeinfrei.

Für eine perfekt runde Apertur in einem theoretisch optisch perfekten Bildgebungssystem wird die PSF-Funktion durch eine Airy-Scheibe beschrieben , bei der es sich um ein Bullseye-Target-ähnliches Muster aus konzentrischen Ringen abwechselnder Bereiche konstruktiver Interferenz handelt (wo die Lichtwellen konstruktiv interagieren). "add up") und destruktive Interferenz (bei der die Wellen des Lichts interagieren, um sich selbst aufzuheben).

Es ist wichtig zu beachten, dass das Airy-Scheibenmuster nicht das Ergebnis von unvollkommenen Linsenqualitäten oder Fehlern in Toleranzen bei der Herstellung usw. ist. Es ist ausschließlich eine Funktion der Form und Größe der Öffnung und der Wellenlänge des durch sie hindurchtretenden Lichts. Somit ist die Airy-Scheibe eine Art Obergrenze für die Qualität eines einzelnen Bildes, das durch das optische System 1 erzeugt werden kann .

Luftige Scheibe, von Wikimedia Commons
Eine punktförmige Lichtquelle, die durch eine runde Öffnung tritt, breitet sich aus, um ein Airy-Scheibenmuster zu erzeugen. Von Sakurambo , von Wikimedia Commons . Gemeinfrei.

Wenn die Blende ausreichend groß ist, so dass das meiste Licht, das durch die Linse fällt, nicht mit dem Blendenrand interagiert, sagen wir, dass das Bild nicht mehr beugungsbegrenzt ist . Etwaige nicht perfekte Bilder, die an dieser Stelle entstehen, sind nicht auf die Beugung des Lichts am Blendenrand zurückzuführen. Bei realen (nicht idealen) Abbildungssystemen umfassen diese Unvollkommenheiten (aber beschränkt auf): Rauschen (thermisch, Muster, Lesen, Schuss usw.); Quantisierungsfehler (die als eine andere Form von Rauschen betrachtet werden können); optische Aberrationen der Linse; Kalibrierungs- und Ausrichtungsfehler.


Anmerkungen:

  1. Es gibt Techniken zur Verbesserung der erzeugten Bilder, sodass die scheinbare optische Qualität des Bildgebungssystems besser als die Airy-Scheibchen-Grenze ist. Bildstapeltechniken, wie z. B. Lucky Imaging , erhöhen die scheinbare Qualität, indem mehrere (oft Hunderte) verschiedene Bilder desselben Motivs übereinander gestapelt werden. Während die Airy-Scheibe wie ein unscharfer Satz konzentrischer Kreise aussieht, stellt sie in Wirklichkeit eine Wahrscheinlichkeit darwo eine punktförmige Lichtquelle, die in das Kamerasystem eintritt, auf dem Bildgeber landet. Die resultierende Qualitätssteigerung durch Bildstapelung ist auf die Erhöhung des statistischen Wissens über die Orte der Photonen zurückzuführen. Das heißt, die Bildstapelung reduziert die probabilistische Unsicherheit, die durch die Beugung des Lichts durch die Öffnung erzeugt wird, wie durch die PSF beschrieben, indem ein Überschuss an redundanter Information auf das Problem geworfen wird.

  2. Zum Verhältnis der scheinbaren Größe zur Helligkeit des Sterns oder der Punktquelle: Eine hellere Lichtquelle erhöht die Intensität ("Höhe") der PSF, aber nicht ihren Durchmesser. Aber eine erhöhte Lichtintensität, die in ein Abbildungssystem eindringt, bedeutet, dass mehr Photonen die Grenzpixel des von der PSF beleuchteten Bereichs beleuchten. Dies ist eine Form von „Light Blooming“ oder scheinbarem „Verschütten“ von Licht in benachbarte Pixel. Dies erhöht die scheinbare Größe des Sterns.

Eine leichte Defokussierung (a/k/a physische Hardware in der realen Welt anstelle von theoretischen Linsendesigns) verteilt das Licht auch über eine noch größere Fläche, als es eine theoretisch perfekte Linse tun würde. Je intensiver die Punktlichtquelle ist, desto weiter wird die Streuung sein, bevor die Intensität am Rand die Empfindlichkeitsgrenzen für das Aufzeichnungsmedium unterschreitet. Es wird als „Grundrauschen“ für Digitalfilme bezeichnet, aber bei Filmen auf chemischer Basis ist auch eine minimale Menge an Photonenenergie erforderlich, um jedes Korn der fotografischen Emulsion zu treffen und die erforderliche chemische Reaktion in den Molekülen jedes Korns auszulösen.
@MichaelClark Sehr guter Punkt. Ja, ich habe die Diffusion, Reflexion und andere Lichtstreuung, die durch all die realen Effekte verursacht wird, wie das, was Sie beschreiben, irgendwie beschönigt.
Als Erweiterung zum Note 2 ist wohl anzumerken, dass vielen astrofotografischen Sensoren auch kein Anti-Blooming-Schutz fehlt, um zu verhindern, dass „volle“ Pixel in benachbarte überlaufen. Dies ist ein bewusster Kompromiss, der erfordert, dass der Benutzer besser darauf achtet, wann der Sensor gesättigt ist, ermöglicht aber eine wesentlich schnellere Lichtsammlung. Meistens kann der Einfluss minimal gehalten werden, indem geeignete Belichtungszeiten für jedes Bild im Bildstapel gewählt werden. Die gelegentliche Ausnahme betrifft einen sehr hellen Stern neben einem sehr schwachen Objekt, z. B. nightsky.at/Photo/Neb/B33_Newton.jpg
Dies ist eine maßgebliche Diskussion über Objektive, aber ich bin mir nicht sicher, ob dies wirklich auf eine schlüssige Erklärung dafür hinausläuft, dass Sterne in Fotos erweiterte Kleckse sind. Sind die Flecken luftige Muster? Wenn ja, wo sind die Schwingungen ? Sie können ausgewaschen werden, da jede Wellenlänge eine andere Periode hat. Wenn nicht, "blüht" es? Wenn ja, ist es ein Sensorproblem (es scheint auch bei fotografischen Emulsionen vorzukommen) oder wird das Ausblühen durch Unvollkommenheiten im Glas oder in der Beschichtung verursacht?
@uhoh, wenn das Bild unterabgetastet ist (die Airy-Disc ist um ein Vielfaches kleiner als ein einzelnes Pixel), gibt es bei weitem nicht genug Auflösung, um die Airy-Disc als etwas anderes als ungefähr ein Quadrat zu sehen (und vielleicht bekommen einige benachbarte Pixel ein bisschen davon Signal, wenn der Stern überbelichtet war.Nur wenn das Bild stark überabgetastet ist, erscheint eine Airy-Scheibe als Grafik aus Wikipedia.Es gibt einfach nicht genug Auflösung in einer Kamera, um einen Stern als 50+ (nur eine signifikante Anzahl) Pixel im Durchmesser erscheinen zu lassen um die schwachen Töne der idealisierten Airy-Scheibe aufzulösen.
@scottbb klingt gut, danke!

Die Größe des "Punktes" wird durch die wellenlängenabhängige "Point-Spread Function" (PSF) des verwendeten Linsensystems beeinflusst.

Die Lichtbeugung, die die Auflösungsgrenze des Systems bestimmt, verwischt jedes punktartige Objekt bis zu einer bestimmten minimalen Größe und Form, die als Point Spread Function bezeichnet wird. Die PSF ist dann das dreidimensionale Bild eines punktartigen Objekts in der Bildebene. Die PSF ist normalerweise höher als breit (wie ein American Football, der auf seiner Spitze steht), weil optische Systeme in Tiefenrichtung eine schlechtere Auflösung haben als in lateraler Richtung.

Der PSF variiert je nach Wellenlänge des betrachteten Lichts: Kürzere Wellenlängen des Lichts (z. B. blaues Licht, 450 nm) führen zu einem kleineren PSF, während längere Wellenlängen (z. B. rotes Licht, 650 nm) zu einem größeren PSF und damit führen schlechtere Auflösung. Auch die Numerische Apertur (NA) der von Ihnen verwendeten Objektivlinse beeinflusst die Größe und Form der PSF: Ein Objektiv mit hoher NA gibt Ihnen eine schön kleine PSF und damit eine bessere Auflösung.

Überraschenderweise ist die PSF unabhängig von der Intensität des Punktes. Dies gilt sowohl für die Astrofotografie als auch für die Mikroskopie.

Warte ab. Wenn "PSF unabhängig von der Intensität des Punktes ist", sollte das nicht bedeuten, dass alle roten Sterne unabhängig von der Helligkeit gleich groß sind? Das ist jedoch nicht das, was tatsächlich passiert.
@barrycarter: Die (optische) PSF ist unabhängig von der Intensität des Punktes. Die PSF einer richtig fokussierten Kamera neigt jedoch dazu, sehr scharfe Spitzen zu haben (konstruktionsbedingt – wenn dies nicht der Fall wäre, würde das gesamte Bild verschwommen aussehen), und bei schwachen Sternen ist nur die zentrale Spitze der PSF tatsächlich erkennbar. Je heller der Stern, desto deutlicher sind die schwachen äußeren Teile der PSF zu sehen, während die zentrale Spitze schnell hell genug wird, um den Sensor (oder Film) zu sättigen.
Die ideale PSF ist intensitätsunabhängig. Die quantisierte PSF, die jede Digitalkamera misst, ist es nicht.

Es gibt ein paar Gründe, die mir einfallen:

  1. Am häufigsten ist das Objektiv. Bei einigen Objektiven, mit denen Sie "über" unendlich fokussieren können, kann es schwierig sein, ein Objektiv auf unendlich zu fokussieren. Aber selbst wenn Sie es genau hinbekommen, kann das Objektiv selbst es immer noch etwas ausbreiten.
  2. Ein weiterer Grund ist, dass das Licht möglicherweise mehr als eine Sensorstelle trifft, entweder weil die Sensorstelle (oder Filmkörner) nicht perfekt auf jeden Stern ausgerichtet sind, oder weil die Projektion des Sterns auf den Sensor oder Film ist tatsächlich größer als eine einzelne Sensorstelle oder Filmkörnung.
  3. Die Atmosphäre verteilt auch das von den Sternen kommende Licht, was zu einem größeren Kreis für jeden führt.
Vielen Dank! Kurzer Kommentar zu 3: Astrofotografie aus dem luftlosen Weltraum zeigt den gleichen Effekt, also glaube ich nicht, dass es das ist.
Es könnte ein minimaler Effekt sein. Ich erwähne es, weil ich weiß, dass es ein Thema für die wissenschaftliche Astrofotografie ist. Ich weiß, dass sie in einigen Fällen sogar so weit gehen, einen Laser in den Himmel zu schießen, um zu sehen, wie die Atmosphäre verzerrt ist, und sie justieren ihre Linsen oder Spiegel, um dies auszugleichen. Aber vielleicht ist es für künstlerische Aufnahmen nicht so wichtig? Es kann auch ein größerer Effekt sein, wenn Sie ein längeres Objektiv (insbesondere wie ein Teleskop) aufgrund des kleineren Sichtfelds verwenden? Ich weiß es nicht wirklich, aber ich habe gehört, dass es erwähnt wurde, also habe ich es eingeschlossen.
Aus dem Weltraum aufgenommene Astrofotografie wird oft in so engen Blickwinkeln aufgenommen, dass Sterne keine dimensionslosen Punkte mehr sind.

Ich habe einen kleinen Bereich von Ihrem Foto genommen und vergrößert (um den Faktor 10 neu abgetastet).

Geben Sie hier die Bildbeschreibung ein

Ich habe zwei interessante Regionen markiert. Region A zeigt einen Stern an, der von der Optik ungefähr in eine Fläche von 3 x 3 Pixeln mit einer Spitze von 2-3 Pixeln Durchmesser verwischt wurde, würde ich sagen. Dies ist der in Scottbbs Antwort beschriebene Unschärfeeffekt .

Der helle Stern an Position B ist jedoch viel breiter und zeigt auch in der Mitte eine Sättigung. Ich vermute, dass diese zusätzliche Verbreiterung durch Pixel-Bleed-Through oder einfach durch Sättigung verursacht wird.

Ist das "Ausbluten" bei Digital- und Nicht-Digitalkameras gleich?

Wahrscheinlich nicht. Nicht-Digitalkameras haben einen viel höheren Kontrastbereich, sodass die Sättigung möglicherweise weniger problematisch ist und das Pixel-Bleeding, das ein elektronischer Effekt ist, möglicherweise überhaupt nicht auftritt.

Mit einem HDR-Aufnahmeschema in einer Digitalkamera sollte man jedoch in der Lage sein, die zusätzliche Verbreiterung zu korrigieren und Punkt B wie Punkt A aussehen zu lassen, nur viel heller.

Um die Größe des Unschärfeeffekts zu ändern, könnten Sie mit der Blende Ihrer Kamera herumspielen und Sterne abbilden (oder gedruckte Punkte auf Papier, wenn Sterne nicht verfügbar sind, oder ein kleines Loch in dunklem Karton mit einer weit entfernten Lichtquelle dahinter).

Gut untersucht von George Airy, Astronomer Royal, veröffentlicht im Jahr 1830. Jetzt als Airy-Scheibe oder Airy-Muster bezeichnet, eine Punktquelle, die Sternbilder mit abwechselnd hellen und dunklen Ringen um eine zentrale Scheibe herum abbildet. Der Durchmesser des ersten dunklen Rings beträgt 2,44 Wellenlängen für ein gut korrigiertes Objektiv mit kreisförmiger Öffnung. Dies ist eine wichtige Tatsache, wenn es um das Auflösungsvermögen eines Objektivs geht. Es ist schwierig, aber nicht unmöglich, diese konzentrischen Ringe abzubilden. Die meisten Bilder verschmelzen diese Ringe.

John Strutt, 3. Baron Rayleigh (Astronomer Royal), veröffentlichte ferner das sogenannte Rayleigh-Kriterium, das das theoretische maximale Auflösungsvermögen einer Linse abdeckt. „Das Auflösungsvermögen in Zeilen Millimeter beträgt 1392 ÷ Blendenzahl. Somit sind f/1 = maximal 1392 Linien pro Millimeter. Für f/2 = 696 Linien pro Millimeter. Für f/8 = 174 Linien pro Millimeter. Bitte beachten Sie: Das Auflösungsvermögen für Blenden größer als f/8 ist höher, als Film, der bildhaft nützlich sein soll, ausnutzen kann. Außerdem wird das Auflösungsvermögen gemessen, indem parallele Linien mit weißen Zwischenräumen abgebildet werden. Wenn zu sehen ist, dass endgültig gezogene Linien verschmelzen, ist ihr Abstand die Auflösungsgrenze für dieses Abbildungssystem. Nur wenige Objektive haben das Rayleigh-Kriterium übertroffen.

Diese Antwort ist zwar interessant, würde aber von ein paar weiteren Erklärungen in Laiensprache profitieren. Insbesondere das Zitat im zweiten Absatz enthält Informationen, die ohnehin wahrscheinlich nicht sehr nützlich sind.

Hier gibt es zwei Faktoren.

Der erste ist optischer Natur, in jedem Imaginationssystem kommen verschiedene Effekte ins Spiel, darunter Beugung, unvollkommener Fokus und bei terrestrischen Teleskopen die Auswirkungen der Atmosphäre. Diese Wirkungen kommen zusammen, um einen Lichtpunkt über einen Bereich auf dem Film oder Sensor zu verteilen, und sie können durch eine mathematische Funktion dargestellt werden, die als "Punktverteilungsfunktion" bekannt ist. Diese Funktionen haben keine scharfe Kante, je weiter Sie sich von der Mitte entfernen, desto schwächer wird das Licht (möglicherweise mit etwas Oszillation), aber es verschwindet nicht vollständig.

Die zweite besteht darin, wie der Film oder Sensor (oder sogar Ihre Netzhaut) auf Licht reagiert, es gibt einen relativ engen Bereich von Lichtintensitäten, die sinnvoll aufgezeichnet werden, zu starkes Licht wird den Film oder Sensor sättigen, Licht auch schwach wird im Rauschen untergehen. Die hellsten Objekte am Himmel sind hundertmal heller als die schwächsten, die mit bloßem Auge sichtbar sind.

Das bedeutet, dass die sichtbare Größe eines Objekts von seiner Helligkeit abhängt, bei einem schwachen Objekt sieht man nur das Zentrum der Punktbildfunktion, der Rest geht im Rauschen verloren.

Bei einem hellen Objekt wird das Zentrum der Punktbildfunktion überbelichtet und erscheint als weißer Fleck, während die Farbe des Objekts nur am Rand sichtbar wird.