Was sind körperliche Ursachen für Clipping?

Was genau begrenzt moderne digitale Kamerasensoren bei der Erfassung der Lichtintensität über einen bestimmten Punkt hinaus?

Antworten (3)

Was genau begrenzt moderne digitale Kamerasensoren bei der Erfassung der Lichtintensität über einen bestimmten Punkt hinaus?

In Bezug auf die physikalischen Eigenschaften des Sensors selbst:

Die Anzahl der Photonenschläge und die Anzahl der freien Elektronen, die aus solchen Photonenschlägen resultieren, bis keine Elektronen mehr verfügbar sind, die innerhalb jeder Photosite (a/k/a sensor, Pixelwell usw.) freigesetzt werden können, definieren ihren vollständigen Well Kapazität. Es ist nicht viel anders als beim Film, bei dem die volle Sättigung erreicht ist, wenn keine verbleibenden Silberhalogenidkristalle in der Emulsion vorhanden sind, die nicht bereits genügend „Empfindlichkeitsflecken“ aufweisen, um vom Entwickler in atomares Silber umgewandelt zu werden. Der Hauptunterschied besteht in der Form der Antwortkurven, wenn sich jede Technologie der vollen Kapazität nähert. Digital führt dazu, dass die gleiche Anzahl von Elektronen pro Photon¹ freigesetzt wird, bis die volle Well-Kapazität erreicht ist. Wenn sich der Film der vollständigen Sättigung nähert, wird immer mehr Lichtenergie (oder Entwicklungszeit) benötigt, um die verbleibenden Silbersalze zu beeinflussen.

In Bezug auf die Aufzeichnung der analogen Spannungen als digitale Daten:

Wenn die analoge Spannung von jeder Fotostelle (a/k/a 'Sensel', 'Pixel Well' usw.) vom Sensor gelesen wird, wird das Signal verstärkt. Die ISO-Einstellung der Kamera bestimmt, wie viel Verstärkung angewendet wird. Für jede Stufenerhöhung von ISO wird die doppelte Verstärkung angewendet. Wenn die „Basis“-Empfindlichkeit der Kamera (der Einfachheit halber nennen wir ISO 100 eine 1,00-fache Verstärkung, bei der die Eingangsspannung gleich der Ausgangsspannung ist) verwendet wird, sollten Fotoseiten, die die volle Kapazität erreicht haben, zu einem maximalen Spannungswert bei der Nachverstärkung führen analoge Schaltung, die den ADC speist. Wenn ISO 200 (2,0-fache Verstärkung) verwendet wird, wird die Spannung von jedem Sensor, der eine halbe (1/2) volle Well-Kapazität oder mehr erreicht hat, auf die maximal zulässige Spannung in der Nachverstärkungsschaltung verstärkt.

Jede Verstärkung von mehr als dem 1,0-fachen wird eine "Obergrenze" anwenden, die niedriger ist als die volle Well-Kapazität jeder Photosite. Wenn eine hohe Verstärkung verwendet wird, erreichen auch Signale, die schwächer als die volle Kapazität sind, die maximale Spannungskapazität der dem Verstärker nachgeschalteten Schaltungen. Jeder vorverstärkte Signalpegel, der stark genug ist, um nach der Verstärkung "das Messgerät zu fixieren", ist nicht von jedem anderen vorverstärkten Signalpegel zu unterscheiden, der ebenfalls "das Messgerät fixiert".

Wenn diese verstärkten analogen Signale durch den Analog-Digital-Wandler (ADC) in digitale Daten umgewandelt werden, wird Signalen bei der maximalen Spannungskapazität der Schaltung der maximale Wert zugewiesen, der durch die Bittiefe der Analog-Digital-Umwandlung zulässig ist. Bei der Umwandlung in 8-Bit-Werte wird den Spannungen ein binärer Wert zwischen 0-255 zugewiesen. Das maximal zulässige Signal der analogen Schaltung, die den ADC speist, würde als 255 aufgezeichnet. Bei 14-Bit wird den Spannungen ein Wert zwischen 0 und 16.383 zugewiesen, wobei dem maximalen Wert ein Binärwert von 16.383 zugewiesen wird, und so weiter.

Das Mitnehmen für das eigentliche Fotografieren:

Sie erhalten den größten Unterschied und die feinste Anzahl an Abstufungen zwischen den hellsten und dunkelsten² Elementen in der Szene, die Sie fotografieren, wenn die Verstärkung auf der „Basis“-Empfindlichkeit der Kamera liegt und Verschlusszeit und Blende kombiniert werden, um die hellsten Elemente zu erhalten die Szene gerade genug belichtet wird, um bei oder nahe der vollen Sättigung zu sein. Die Verwendung eines höheren ISO-Werts ist nützlich, wenn es nicht möglich ist, so lange oder mit einer ausreichend großen Blende zu belichten, um die volle Sättigung der Lichter in der Szene für das gewünschte Bild zu erreichen. Die Verwendung einer höheren ISO hat jedoch ihren Preis. Der Gesamtdynamikbereich wird durch die höhere Verstärkung der vom Sensor kommenden elektrischen Signale reduziert.

Warum fotografieren wir also nicht immer mit ISO 100 oder was auch immer die Basis-ISO der Kamera ist, und verschieben dann die Belichtung später in der Post? Denn auf diese Weise wird das "Rauschen" im Bild tendenziell noch stärker verstärkt als bei Aufnahmen mit höheren ISO-Werten. Wie viel mehr hängt davon ab, wie viel und wo die Rauschunterdrückung am Signal vorgenommen wird. Die Reduzierung des Rauscheinflusses durch Anwenden einer Rauschunterdrückung auf die analogen Spannungen, die vom Sensor kommen, hat jedoch auch ihren Preis - sehr schwache Punktlichtquellen werden oft als "Rauschen" herausgefiltert. Aus diesem Grund werden einige Kameras mit sehr guter Low-Light-/High-ISO-Leistung in Bezug auf die Rauschunterdrückung von Astrofotografen auch als „Sternenfresser“ bezeichnet.

¹ Je nach Schwingungsfrequenz variiert die in einem Photon enthaltene Energie geringfügig. Photonen, die mit niedrigeren Frequenzen schwingen, setzen etwas weniger Energie frei, wenn sie auf den Sensor treffen, als Photonen, die mit höheren Frequenzen schwingen. Aber für Photonen, die mit einer bestimmten Frequenz/Wellenlänge oszillieren, ist die Energiemenge, die beim Auftreffen auf den Boden einer Pixelwanne freigesetzt wird, dieselbe, bis die volle Kapazität der Wanne erreicht ist.

² Den Unterschied zwischen den dunkelsten und hellsten Elementen, die ein Sensor (oder Film) aufzeichnen kann, nennen wir den Dynamikumfang des Aufnahmemediums. Bei jeder Stufe der Empfindlichkeitssteigerung (ISO) bei einer Digitalkamera halbiert sich die lineare Spannungsdifferenz zwischen „Null“ und „Voller Sättigung“. Bei der Umwandlung in logarithmische Skalen wie „Ev“ führt die Verdoppelung der Empfindlichkeit zu einer Verringerung des Dynamikbereichs um einen „Stopp“ (bei sonst gleichen Bedingungen, was selten der Fall ist).

und beachten Sie, dass digitales Clipping paradoxerweise in einem Medium erscheint, das eher analoger Natur ist. Film kann nur ein binäres Bild erzeugen (ein bestimmtes Teilchen wird entweder aktiviert und sofort gesättigt oder reagiert überhaupt nicht), während jedes der Pixel der Digitalkamera einen (quasi-analogen) Bereich der Lichtintensität erkennt. Doch die Macht der Statistik und die große Anzahl einzelner Binärzellen in einem Film lässt ihn sich „analoger“ verhalten als digitale Sensoren.
Ich würde dieser Antwort eine Erklärung hinzufügen, dass die Pixeldaten (analog) verstärkt werden, wenn die Pixelzeilen vom Sensor verschoben werden. Wenn der Verstärkerpegel zu hoch eingestellt ist (falsche ISO-Einstellung), werden die ADC-Eingänge gesättigt. Ich glaube, ADC wird mit einer höheren Bittiefe durchgeführt, um dieses Problem zu mindern, aber es gibt immer noch Grenzen, bei denen Daten verloren gehen. Da die RGB-Kanäle separat erstellt werden, bedeutet dies auch einen Verlust von Farbinformationen (Whiteout).
@Phil Guter Punkt zu ADC und den durch die Verstärkung gesetzten Grenzen. HRGB-Kanäle werden jedoch während ADC nicht separat ausgeführt. An diesem Punkt ist alles monochrom: ein einziger Wert pro Sinn.
@szulat Nun, irgendwie, aber nicht genau. Die durch den Aufprall von Photonen auf der Oberfläche einzelner Kristalle gebildeten „Empfindlichkeitsflecken“ wandeln den gesamten Kristall erst um, wenn der Film mit Entwickler in Kontakt gebracht wird. Wie lange der Entwickler mit der Emulsion reagieren darf, bestimmt, wie viele „Empfindlichkeitsflecken“ (also wie viele „eingefangene Elektronen“) ein Kristall braucht, bevor er sich in atomares Silber verwandelt. Bis dahin besteht der Kristall immer noch hauptsächlich aus Silberhalogenid. Deshalb nennen wir ein unentwickeltes Negativ ein „latentes“ Bild.
Wow! Komplexes Thema schön und einfach erklärt. Gut gemacht!
@PhilH, "wenn die Pixelzeilen vom Sensor verschoben werden" - was bedeutet das?
@GillBates Das ist eine ungenaue Art zu sagen, "da der Sensor Pixel für Pixel ausgelesen wird".
Ich entschuldige mich, die Verschiebung ist ein präziser Begriff, der spezifisch für CCD-Sensoren ist, was ich nicht erkannt hatte, ist falsch für CMOS-Sensoren in modernen Kameras. Der allgemeine Punkt zur Verstärkung in Abhängigkeit von ISO-Werten gilt immer noch, nur auf Pixelebene und nicht auf Sensorebene. @MichaelClark: CCDs verwenden ein Schieberegister für die Pixelladungen und verschieben jeweils eine Spalte, bevor sie diese Spalte Zeile für Zeile durch den ADC verschieben. Darauf bezog ich mich.
@PhilH CCD-Sensoren verschieben Pixel nirgendwo. Sie bleiben direkt auf dem Sensor. Sie verschieben die resultierenden Daten in Form von Spannungen. vom Sensor sequentiell ab, ebenso wie CMOS-Sensoren. Der Hauptunterschied besteht darin, dass CCD-Sensoren die Zeit, in der ein Sensor "aktiv" ist (dh Photonen sammelt und in Spannungen umwandelt), global starten und stoppen können, während CMOS-Sensoren jede Photosite nur sequentiell ein- und ausschalten können.
Entschuldigung, vielleicht war ich nicht genau genug - die Ladung (Elektronen) in jeder Fotostelle wird verschoben. Aus diesem Grund erzeugen CCDs Linienartefakte; eine gegebene Photosite ist so überbelichtet, dass die Ladung die anderen Photosites überflutet. Die Ladung wird nicht in eine Spannung umgewandelt, bis sie schließlich durch einen Verstärker vor dem ADC verschoben wird. Dies ist die Wurzel des „ladungsgekoppelten“ Teils des Namens. Dagegen hat jedes CMOS-Pixel einen eigenen Verstärker (Source-Follower-Transistor).
@PhilH Bitte erklären Sie den Unterschied zwischen einer Ladung und einer Spannung. (Sie sind dasselbe - elektrische Energie in Form von Elektronen).
@MichaelClark: Fotozellen sind kapazitiv; sie speichern Ladung. Sie können die in einem Kondensator gespeicherte Ladungsmenge messen, indem Sie entweder die Potentialdifferenz (Spannung) über der Zelle erfassen oder einen Weg zur Erde bereitstellen, der den Kondensator über einen Widerstand entlädt und eine Spannungsabfallkurve erzeugt, wenn die Ladung abfließt. Die Spannung ist die Wirkung, die Ladung die Ursache.

Zusätzlich zu Michael Clarks ausgezeichneter Antwort (Beschreibung von Full-Well-Kapazitäts-Clipping und ADC-Clipping) gibt es mehrere andere Punkte in einer Digitalfotografie-Pipeline, an denen Clipping auftreten kann:

  • Bei Nicht-RAW-Bildern während der Farbkorrektur/automatischen Gammaanpassung auf dem Gerät vor der Komprimierung und während der Komprimierung selbst.

    Wenn Sie ein Bild als JPEG oder MPEG komprimieren, kürzt die Hardware die Bittiefe auf das, was das komprimierte Medium unterstützt, was normalerweise viel geringer ist als die Hardware-Bittiefe. Aufgrund dieser Kürzung gehen Werte in der Nähe beider Helligkeitsextreme verloren.

    Vor der Komprimierung wendet Ihre Kamera Farbkorrekturen und Gammaanpassungen an, die den effektiven Dynamikbereich beeinflussen können, der in die begrenzte Bittiefe passt, die vom Kompressor bereitgestellt wird. Wenn Sie beispielsweise ein Video im Canon Log-Modus aufnehmen, werden die dunkelsten und hellsten Teile der Szene mathematisch in die Mitte gezogen, sodass der effektive Dynamikbereich erheblich zunimmt und weniger Teile des Bildes an beiden Enden des Bereichs beschnitten werden.

  • Während der Nachbearbeitung. Wenn eine Nachbearbeitung durchgeführt wird, die die Helligkeit eines Bildes erheblich verändert, ist es möglich, dass frühe Stadien der Berechnung tatsächlich dazu führen, dass Werte den Bereich überschreiten, der durch die Anzahl der Bits, die verwendet werden, um sie zu speichern, korrekt dargestellt werden kann. Obwohl dies selten vorkommt, tritt dies manchmal auf, und wenn dies der Fall ist, kann es sogar in Bereichen des Fotos zu Beschneidungen kommen, die im Originalbild nicht tatsächlich beschnitten sind.

  • Während der Farbraumkorrektur beim Drucken oder Anzeigen des Bildes. Wenn Sie eine Farbkorrektur durchführen, können Sie manchmal Werte erhalten, die außerhalb des Farbraums liegen, der vom Ausgabemedium genau reproduziert werden kann. An diesem Punkt muss die Farb-Engine entscheiden, was mit diesen außerhalb des Farbumfangs liegenden Werten geschehen soll. Dies führt effektiv auch zu Clipping, obwohl es visuell etwas anders aussieht als das, was die meisten Leute denken, wenn sie über Clipping sprechen, was normalerweise dazu führt, dass Dinge in der falschen Farbe aussehen.

Die einfache empirische Erklärung:

Betrachten Sie eine sehr helle Glühbirne. Wenn das Licht hell genug ist, können Sie das Innere der Glühbirne nicht sehen, da sich Ihre Pupillen weiter schließen können und immer noch zu viel Licht auf Ihre Netzhaut trifft und sie und die Informationen, die sie erreichen, sättigen Ihr Gehirn ist abgeschnitten (Sie sehen nur helles Licht, aber nicht die Details innerhalb des Lichts). Das ist einer der Gründe, warum Sie es vermeiden sollten, direkt in die Mittagssonne eines klaren Himmels zu schauen, Sie werden die Sonne nicht sehen können, aber ein intensives Licht (Vorsicht, wenn Sie versuchen, es ohne die richtiger Schutz kann Ihre Augen oder Ihre Fotoausrüstung, Objektive und Sensoren tatsächlich dauerhaft schädigen)

Jeder Sensor verhält sich gleich (von Ihrer Kamera oder auf andere Weise). Sobald das Signal (in diesem Fall Licht) zu hoch für seine Kapazität ist (den Sättigungspegel erreicht), werden zusätzliche Informationen abgeschnitten, es kann kein weiteres Signal erkennen und nur ein flaches hohes Signal ohne wertvolle Informationen weitergeben.