Wie verhindert RAW „hässliches digitales Clipping“?

In einer weiteren Antwort schreibt Nutzerin Ilmari im Zusammenhang mit der Vermeidung von Überbelichtung:

Im Allgemeinen würde ich auch empfehlen, immer RAW zu fotografieren, sowohl um den vollen Dynamikumfang Ihrer Kamera besser einzufangen, als auch um das hässliche digitale Beschneiden überbelichteter Bereiche zu vermeiden. Für letzteres hilft es, die Aufnahmen ein wenig zu unterbelichten (z. B. ...) und dann die Belichtung auf Ihrem Computer hochzuziehen, ...

Wie verhindert RAW das Abschneiden überbelichteter Bereiche?

Das Aufnehmen in RAW garantiert nicht die Eliminierung von Highlight-Clipping. RAW-Dateien enthalten jedoch die vollständigen Informationen, die vom Bildsensor erfasst werden, was im Allgemeinen auch Hervorhebungsdetails enthält, die über das hinausgehen, was in einem JPEG-Bild erfasst würde. Denken Sie daran, dass RAW-Dateien normalerweise 12 oder 14 Bit Tonwertdaten pro Pixel haben, während JPEG auf 8 Bit begrenzt ist, sodass in einer RAW-Datei deutlich mehr Daten zum Arbeiten vorhanden sind. Ich weiß das aus erster Hand und habe mich unzählige Male von abgeschnittenen Highlights in JPEGs erholt, wenn ich die RAW-Datei in RawTherapee hochziehe. Siehe auch: photo.stackexchange.com/a/13448
(Fortsetzung) Verdammt, die Vorteile von RAW, einschließlich der Möglichkeit, nach der Veranstaltung eine effektivere Rauschunterdrückung und andere Nachbearbeitung auf einem PC durchzuführen, sind signifikant genug, dass ich Sport in RAW+JPEG fotografiere, obwohl es den Puffer drastisch reduziert Tiefe! (Mein Arbeitgeber möchte oft direkt nach einem Spiel ein sofort verwendbares JPEG-Bild für seine Website haben, und ich gebe die restlichen Bilder ein paar Werktage später ab.)

Antworten (3)

Im Allgemeinen würde ich auch empfehlen, immer RAW zu fotografieren, sowohl um den vollen Dynamikumfang Ihrer Kamera besser einzufangen, als auch um das hässliche digitale Beschneiden überbelichteter Bereiche zu vermeiden. Bei letzterem hilft es, die Aufnahmen etwas unterzubelichten [...] und dann die Belichtung am Computer hochzuziehen.

OK, ja, ich war ein bisschen knapp , als ich das schrieb . Lassen Sie mich versuchen, es ein wenig auszupacken.

Offensichtlich wird das bloße Umschalten von JPEG zu RAW nichts dazu beitragen, das Clipping selbst zu beheben. Was ich vorschlagen wollte, als ich den Absatz oben schrieb, ist:

  1. Unterbelichten Sie Ihre Fotos absichtlich so weit, dass die Highlights nicht abgeschnitten werden.

  2. Aufnahmen in RAW, das einen höheren Dynamikumfang als JPEG hat, um Schattendetails für den nächsten Schritt zu erhalten.

  3. Korrigieren Sie die Unterbelichtung in der Nachbearbeitung, indem Sie einen Algorithmus verwenden, der weiche, „filmähnliche“ Glanzlichter anstelle von hartem digitalen Clipping simuliert. (Ich glaube, jeder anständige RAW-Prozessor sollte diese Funktion integriert haben; ich weiß , dass UFRaw dies tut, und das ist kostenlose Software.)

Warum sich all diese Mühe machen, anstatt JPEG direkt mit der Standardbelichtung aufzunehmen? Nun, im Grunde (abgesehen von all den anderen Gründen, RAW zu fotografieren ), damit Sie das bekommen können:

Beispielfoto A mit weichen Highlights Beispielfoto B mit weichen Highlights

an Stelle von:

Beispielfoto A mit harten Highlights Beispielfoto B mit weichen Highlights
(Bilder zum Vergrößern anklicken.)

Natürlich habe ich ein bisschen geschummelt, indem ich diese beiden Beispielbildpaare aus denselben RAW-Dateien erstellt habe – der einzige Unterschied besteht darin, dass ich für das erste Paar den Modus „weiche, filmähnliche Highlights“ und für das Paar den Modus „hartes digitales Beschneiden“ verwendet habe zweites Paar, das simuliert, was ich bekommen hätte, wenn ich sie direkt in JPEG mit längerer Belichtung aufgenommen hätte.

Beachten Sie besonders den charakteristischen cyanfarbenen Himmel oben rechts in der beschnittenen Version des ersten Bildes, die unnatürliche Flachheit der beschnittenen Glanzlichter und die allgemeinen Farbverzerrungen um sie herum. (Bilder mit hellweißen Hintergrundelementen, wie Schnee oder Wolken, zeigen diesen Effekt tendenziell besonders deutlich, aber ich habe auf diesem Laptop keine guten Beispiele gefunden. Ich werde später versuchen, nach besseren Illustrationen zu suchen.)

Der Grund für diese Flachheit und Farbverzerrung liegt darin, dass digitale Bildsensoren im Gegensatz zu der sanft sättigenden Lichtempfindlichkeitskurve von Filmen eine (ungefähr) lineare Reaktion bis zu ihrem Sättigungspunkt und dann eine scharfe Grenze haben:

Ansprechkurven Digitaler Sensor vs. Film
(Tatsächlich ist die oben gezeichnete Filmreaktionskurve etwas irreführend, da das Umwandeln des Filmnegativs in ein tatsächliches positives Bild eine weitere Schicht von Nichtlinearität am unteren Ende der Reaktionskurve einführt, was typischerweise zu einer etwas sigmoiden kombinierten Reaktionskurve führt. Aber bei zumindest am hellen Ende des Dynamikbereichs ähneln die obigen Kurven im Allgemeinen den tatsächlichen Lichtreaktionen von Film- und Digitalkameras.)

Insbesondere in der Farbfotografie hat jeder Farbkanal (Rot, Grün und Blau) seine eigene Reaktionskurve. Bei einem digitalen Sensor bedeutet dies, dass bei zunehmender Helligkeit des einfallenden Lichts einer der R/G/B-Kanäle typischerweise vor den anderen abgeschnitten wird, wodurch die Farbe solcher teilweise abgeschnittenen Pixel verzerrt wird.

Die Flachheit der digitalen Reaktionskurve über dem Sättigungspunkt bedeutet auch, dass, während ein überbelichteter Film nur die Glanzlichter komprimiert , alle abgeschnittenen Glanzlichter in einem digitalen Foto (ob RAW oder JPEG) einfach weg sind und keine Details daraus wiederhergestellt werden können. Daher lautet die Faustregel für die Digitalfotografie, dass es immer sicherer ist, wenn Sie sich nicht sicher sind, wie die optimale Belichtung aussehen wird (oder wenn Sie wissen, dass die von Ihnen aufgenommene Szene Glanzlichter enthält, die Sie nicht beschneiden möchten). auf der niedrigen Seite zu irren. Sicher, das Erhöhen der Helligkeit eines unterbelichteten Fotos in der Nachbearbeitung verstärkt auch das Rauschen im Bild – aber eine leichte Unterbelichtung und der Verlust einiger Schattendetails durch Rauschen ist normalerweise immer noch besser als eine Überbelichtung und der vollständige Verlust von Glanzlichtern.

Natürlich erfordert keines der oben genannten Verfahren RAW-Aufnahmen – Sie können die Helligkeit von JPEG-Bildern zB in Photoshop genauso einfach erhöhen. Aber im Vergleich zu RAW hat das JPEG-Format hier zwei Probleme:

  • JPEG verwendet nur 8-Bit-Farbe; Das heißt, der kleinste Unterschied zwischen zwei Helligkeitsstufen, der gespeichert werden kann, beträgt etwa 1/256 des Unterschieds zwischen reinem Schwarz und reinem Weiß. JPEG verwendet tatsächlich eine nichtlineare Farbcodierung, was etwas hilft, aber der effektive Dynamikbereich eines JPEG-Bildes beträgt immer noch nur etwa 11 Blenden (im Gegensatz zu den 8 Blenden, die man bei einer linearen Codierung erhalten würde). Dies reicht aus, um Bilder auf dem Bildschirm anzuzeigen, ist jedoch immer noch geringer als der effektive Dynamikbereich selbst von Low-End-Kamerasensoren und lässt nicht viel Spielraum für die Anpassung der Belichtung, um Details aus den Schatten wiederherzustellen.

  • Außerdem verwendet JPEG ein verlustbehaftetes Komprimierungsschema, das darauf ausgelegt ist, die Bilddateigröße zu reduzieren, indem Details verworfen werden, die das menschliche Auge nicht leicht erkennen kann. Leider neigt diese Komprimierung auch dazu, Schattendetails ziemlich aggressiv wegzuwerfen – wenn Sie die Helligkeit eines JPEG-Bildes zu stark erhöhen, erhalten Sie wahrscheinlich ein Bild voller Farbverzerrungen und blockartiger Komprimierungsartefakte.

Im Vergleich dazu bewahrt eine RAW-Datei den vollen Dynamikbereich des Sensors Ihrer Kamera ohne verlustbehaftete Komprimierung, sodass Sie das Bild im vollen Umfang nachbearbeiten können (in diesem Fall hauptsächlich begrenzt durch das Grundrauschen des Sensors).

Wow. Prost Kumpel. ;-)

Kurz gesagt, eine RAW-Datei speichert jedes Pixel mit mehr Bits als das entsprechende JPEG.

Um zu verstehen, wie dies hilft, betrachten Sie ein einzelnes Pixel (wir ignorieren die Farbe, die gleiche Logik gilt, aber es verkompliziert nur alles). Wenn Sie 8 Bits zur Verfügung haben, um die Amplitude aufzuzeichnen (Lichtmenge, die auf dieses Pixel trifft), haben Sie 256 Stufen, einschließlich "überhaupt kein Licht" (0).

Sie müssen einen maximalen Pegel einstellen, der dem Wert 255 entspricht. Der Bereich zwischen 0 und diesem Maximum ist der im Bild darstellbare Dynamikbereich . Jedes Pixel, das mehr Licht als dieses Niveau erhält, ist gesättigt und der Maximalwert von 255 wird aufgezeichnet. Dies verursacht den Clipping-Effekt, bei dem überbelichtete Bereiche vollständig weiß aussehen.

Wenn Sie zusätzliche Bits haben, können Sie mehr Ebenen darstellen. Bei gleichem Dynamikbereich erhalten Sie feinere Schritte zwischen ihnen, oder Sie können den Bereich erweitern und zulassen, dass Pixel mit höherer (oder niedrigerer) Belichtung irgendwo im Bereich dargestellt werden.

Eine RAW-Datei enthält mehr Bits pro Pixel als das entsprechende JPEG (z. B. 14 für Canon 5D im Vergleich zu 8 für JPEG). Dadurch können mehr Belichtungsstufen erfasst werden. Pixel, die in einer 8-Bit-Darstellung gesättigt wären, können eine 14-Bit-Darstellung nicht sättigen. Dadurch werden die vollständig weißen, überbelichteten Bereiche in Grauschattierungen umgewandelt, und einige Details können noch erfasst werden.

Natürlich ist es immer noch möglich, eine Darstellung mit höherer Bittiefe zu sättigen, aber je mehr Bits Sie haben, desto mehr Informationen müssen Sie verarbeiten.

Raw ist aus einigen anderen Gründen großartig, aber natürlich kann Raw NICHT das Clipping von überbelichteten Bereichen verhindern. Sobald die digitalen Daten 255 überschreiten, werden sie abgeschnitten, was bedeutet, dass sie bei 255 bleiben und nicht länger echte Farbe darstellen. Digital hat einfach keine Möglichkeit, größere Zahlen zu speichern, die größte Kapazität ist auf 255 skaliert. Es gibt keine Möglichkeit, die abgeschnittenen Daten wiederherzustellen, außer einem weiteren Versuch mit weniger Belichtung.

Das Beispiel, das Sie zeigen, ist eine weiße Lichtfarbe. Weiß ist etwas Besonderes, da drei RGB-Komponenten nahezu gleich sind. Aber stellen Sie sich vor, die Farbe (überbelichtet) wäre wie Rot 500, Grün 250, Blau 250, was eine rote Farbe ist. Aber wenn es auf 255 gekürzt wird, kommt 255, 250, 250 heraus, eine ganz andere Farbe, jetzt ungefähr weiß. Zurücknehmen in der Nachbearbeitung auf etwa die Hälfte ist immer noch 128, 125, 125, immer noch NICHT rot.

Ihr verlinktes Beispiel war möglicherweise überhaupt nicht weiß, aber es wurde überbelichtet und bei 255, 255, 255 abgeschnitten, was weiß ist. Es gibt keine Wiederherstellung für Clipping.

Dies hängt davon ab, wie die Kamera das Rohbild auf das 8-Bit-Bild abgebildet hat. Viele Kameras verfügen über Einzelbild-HDR-Optionen, bei denen Sie diese Zuordnung ändern können. Die Standardeinstellung hat einen geringeren Dynamikbereich als andere Einstellungen. Daher hat ein 8-Bit-Bild mit abgeschnittenen Teilen normalerweise nicht die gleichen abgeschnittenen Bereiche im Rohbild. Immer den gesamten aufgezeichneten Dynamikbereich tonzuordnen, hat seinen Preis; Indem Sie nur kleine Bereiche überbelichten lassen, haben Sie den Bereich bis 255 für den Rest des Bildes zur Verfügung, was zu einem besseren Gesamtergebnis führen kann.
HDR? HDR ist eine spezielle Operation, die mehrere Belichtungsreihen kombiniert, einschließlich einer mit geringerer Belichtung. HDR ist überhaupt nichts wie normale Kamerabelichtungen. Ich habe eine Nikon D800 und HDR ist nicht einmal im Raw-Modus verfügbar. Meine vorherige Aussage ist richtig, Clipping wird durch Überbelichtung von mehr als 255 verursacht, was nicht von der Kamera abhängt.
Warte was? Typische RAWs haben 14 Bit Helligkeitsinformationen pro Pixel. Es gibt unzählige Schattierungen von fast Weiß, die aus einem RAW wiederhergestellt werden können, selbst wenn sie standardmäßig alle auf 255.255.255 in einem JPEG abgebildet würden.
14 Bit sind 16384 mögliche Werte. Die Umrechnung beträgt 2048 mögliche Werte pro Einzelschritt von 0..255. Das heißt, es gab 2048 mögliche Werte zwischen 255 und 256, die als 255 bezeichnet werden. Aber das ist wenig hilfreich, vernachlässigbare Hilfe für das Clipping, das 257 und 260 und 270 sicherlich auch verlieren würde, und vielleicht 300? Aber die können alle weg sein, denn Clipping ist Clipping. Die Vermeidung von Überbelichtung ist im digitalen Bereich sehr wichtig.
Die Bitanzahl n spielt beim Weiß-Clipping überhaupt keine Rolle. Wenn der Eingang zum ADC, der das Auslesen eines Pixels durchführt, in die Sättigung gerät, erhalten Sie den maximalen Messwert von (2 ^ n) -1. Mehr Bits helfen nicht.
Die Werte in der Antwort sind nur als beispielhaft zu sehen. Eine Umformulierung könnte helfen, dies zu verdeutlichen, möglicherweise durch Verwendung relativer Werte (90 % / 150 % ADC-Bereich). Das in der Antwort erläuterte Prinzip ist richtig.
Es hängt davon ab, wie die Kamera die 14-Bit-Rohdaten abbildet und wie sie das 8-Bit-JPEG abbildet, das sie aus diesen Daten erzeugt. Die meisten in der Kamera erzeugten JPEGs bilden NICHT nur 16384 als 255 im JPEG ab (oder nur „0“ in der rohen 14-Bit-Datei als „0“ im 8-Bit-JPEG. Wenn sie den gesamten 14-Bit-Dynamikbereich von Wenn der Sensor in 8-Bit umgewandelt wird, würde die Ausgabe ohne Kontrast flach und matt aussehen und auch zu viel Banding aufweisen.Stattdessen analysieren die Demosaicing-Algorithmen die Rohdaten und entscheiden, wo der schwarze Punkt (normalerweise irgendwo weit über 0) und der weiße Punkt (normalerweise irgendwo deutlich unter 16384).
Wenn Ihre Antwort eine Antwort auf "16-Bit-TIFF vs. JPEG" wäre, wäre sie richtig, da bei einem TIFF die Schwarz- und Weißpunkte bereits eingebrannt sind und die Rohdaten basierend auf den ausgewählten Schwarz- und Weißpunkten in 16 Bit übersetzt werden bei der Umstellung. Aber eine echte Rohdatei enthält die Daten von maskierten Pixeln und hat keine schwarzen und weißen Punkte eingebrannt. Das ist das größte Problem, das ich beim Konvertieren von Canon .cr2-Dateien in .dng habe: Die maskierten Pixel werden verworfen und das Schwarz/Weiß Punkte werden eingebrannt. Ein DNG ähnelt eher einem TIFF als einer echten Rohdatei.
Unter photo.stackexchange.com/q/55825/15871 erfahren Sie , wie in das JPEG-Format der Kamera eingeblasene Glanzlichter aus der Rohdatei wiederhergestellt werden können.
Sie können sehr helle Details wiederherstellen, aber Sie können keine beschnittenen Werte wiederherstellen. Deshalb ist der Dynamikbereich so wichtig. Darüber hinaus mischen Sie den Dynamikbereich mit der Bittiefe des ADC. Das ist überhaupt nicht dasselbe, siehe: peachpit.com/articles/article.aspx?p=1709190&seqNum=2
Zur Verdeutlichung stimme ich @Michael Clark darin zu, dass die Bittiefenbeschränkung eines 8-Bit-JPEG im Vergleich zum ursprünglichen RAW-Bild mit größerer Bittiefe zu Informationsverlust und Clipping führt. Der Dynamikbereich hingegen beschreibt einen limitierenden Faktor im Prozess vom analogen Sensor zur digitalen Anzeige, bei der die Bittiefe nur eine untergeordnete Rolle hinsichtlich des Clippings spielt. Die Antwort wäre richtig, wenn sie sich auf das Clipping aufgrund von Einschränkungen des Dynamikbereichs bezieht oder die von Michael erwähnte Zuordnung berücksichtigen muss.
So sieht ein Bild aus, wenn es so gerendert wird, wie Sie es in Ihrer Antwort beschreiben: Das erste wird linear gerendert, das zweite hat eine Gammakorrektur angewendet und 0-2047 in der 14-Bit-Datei werden als 0 in der 8-Bit-Datei und 14383 abgebildet -16383 in der 14-Bit-Datei werden als 255 in der 8-Bit-Datei abgebildet. Beim letzten Bild ist der Schwarzpunkt (0 in der 8-Bit-Datei) auf den ungefähren Wert der dunkelsten Teile der Szene gesetzt, der weit über 2047 liegt, und der Weißpunkt (255 in der 8-Bit-Datei) ist auf den gesetzt hellsten Teile der Szene, die deutlich unter 14383 liegen. photo.stackexchange.com/a/39478/15871