Warum verzeiht meine Kamera eine übertriebene Belichtung bei Aufnahmen in RAW?

Ich habe festgestellt, dass meine Kamera (Sony A99) in Bezug auf Überbelichtung bei Aufnahmen in RAW sehr nachsichtig ist. Damit meine ich, ich kann etwa eine Blende überbelichten und wenn ich zur Nachbearbeitung nach Hause komme, kann ich es wieder unterbelichten und alle Details zurückbekommen.

In jpeg geht das natürlich nicht. Außerhalb des Bereichs ganz rechts im Histogramm befinden sich keine Daten. Aber nicht dasselbe mit RAW, Daten kommen auf magische Weise zurück in das Histogramm. Wieso den? Reserviert die Kamera einen Bereich des Histogramms für mich, falls ich mich irre? Wenn ja, geht dadurch nicht ein gewisser Spielraum verloren, wenn ich richtig (perfekt belichtet) fotografiere?

Warum ist dies auch nur für Überbelichtung verfügbar? Aber keine Unterbelichtung? Ich glaube nicht, dass ich in der Lage sein werde, Details aus zerquetschten schwarzen Bereichen herauszuziehen.

Antworten (4)

Dies ist einer der Vorteile, die Sie durch Rohaufnahmen erhalten.

Sie können keine Lichter- oder Schattendetails aus einem JPEG wiederherstellen, da es 8 Bit Farbtiefe pro Farbkomponente hat, 1 , und so zugeordnet ist, dass der niedrigste Pixelwert als „Schwarz“ und der höchste als „Weiß“ interpretiert wird. Es gibt einfach nichts unter Schwarz oder über Weiß. Die Schöpfer von JPEG taten dies, weil 8 bpc für Menschen ausreichen, um ein richtig belichtetes Vollfarbbild wahrzunehmen. 2 Das menschliche Auge hat einen größeren Dynamikbereich als JPEG zulässt, aber es kann diesen vollen Bereich nicht immer sehen. 3

Die meisten Raw-fähigen Kameras können mindestens 10 bpc erfassen. 12 bpc+ ist weit verbreitet und 14 bpc+ sind mit den besten Sensoren möglich. Der Trick ist, wie man diesen zusätzlichen Dynamikbereich nutzt? Es gibt mehrere Gestaltungsräume, in denen eine Lösung gefunden werden kann:

  • Vollständige Erfassung und Anzeige

    Der Belichtungsmesser der Kamera könnte versuchen, so viel Dynamikbereich wie möglich zu erfassen, und er könnte versuchen, alles auf dem kleinen Bildschirm auf der Rückseite der Kamera anzuzeigen. Ihre Rohverarbeitungssoftware könnte ebenfalls versuchen, Ihnen den gesamten Dynamikbereich in der Bilddatei auf dem Bildschirm anzuzeigen. Beim Speichern eines JPEG könnte die Kamera diesen vollen Dynamikbereich einfach auf die offensichtliche Weise abbilden und effektiv die niederwertigsten Bits vom Sensor verwerfen.

    Niemand tut dies. 4

    Wenn Sie bei Sonnenuntergang ein Bild von einem von hinten beleuchteten Busch machen, könnte die Kamera versuchen, die schwarzen Ameisen im dunkelgrauen Schatten unter dem dichten dunkelgrünen Blattwerk einzufangen, während sie gleichzeitig Sonnenfleckdetails in der Sonnenscheibe einfängt.

    Kameras tun dies nicht, weil das resultierende Bild wie gestreifter Schlamm aussehen würde. Das menschliche Auge hat nicht den dynamischen Bereich, um die Ameisen und die Sonnenflecken gleichzeitig zu sehen, also erwartet das menschliche Gehirn nicht, solche Dinge zu sehen. 5 Wir haben auch keine Display-Technologie, die gut genug ist, um ein physikalisch korrektes Bild wiederzugeben. 6

  • Aus der Mitte schneiden

    Stattdessen könnte die Kamera ihren Begriff der „korrekten“ Belichtung einfach in die Mitte des Bereichs stellen und das 8-Bit-JPEG und die Bildschirmvorschau aus der Mitte des Bereichs extrahieren. Wenn Ihre Kamera über einen 12-Bit-Sensor verfügt, könnte dies Ihnen effektiv einen Belichtungsanpassungsbereich von ± 2 Blenden bieten, da jeder 1 bpc in fotografischer Hinsicht in 1 Blende übersetzt wird.

    Ich denke nicht, dass dies ein ganz schlechter Weg ist, aber es würde nicht die angenehmste Bildsprache ergeben. Kamerafirmen, die dies taten, würden nicht viele Kameras verkaufen.

  • Schwarzpunkt und Gammakurve

    Ein viel besserer Plan ist es, eine Helligkeitsstufe im Bild auszuwählen, um Schwarz 7 zu nennen, und dann eine Gammakurve zu wählen, um die rohen Sensordaten in diesen 8-bpc-Bereich neu abzubilden.

    Bei dieser Methode können die Kamera und die Rohdatenverarbeitungssoftware einige der Rohdaten außerhalb des zugeordneten Bereichs belassen, sodass die Rohbilddatei „schwärzer als schwarz“ und „heller als weiß“ codiert. Dies ist der Bereich, aus dem Sie ziehen, wenn Ihre Rohverarbeitungssoftware Lichter- oder Schattendetails wiederherstellt.

Es gibt keine universelle Autorität, die vorschreibt, welche Methode zu verwenden ist, und selbst wenn es eine gäbe, gibt es viele Variationen in der bestehenden Technologie und noch viel mehr Raum für weitere Variationen. Beispielsweise verwenden verlustbehaftete DNGs einen 8-bpc-Farbraum, aber durch die nichtlineare Art und Weise, wie die Eingabebilddaten Ausgabewerten zugeordnet werden, haben Sie immer noch einen kleinen Dynamikbereich, mit dem Sie außerhalb des normalerweise sichtbaren Anzeigebereichs arbeiten können.


Fußnoten:

  1. 8 bpc wird von denjenigen auch als "24-Bit" bezeichnet, die es vorziehen, alle drei für die Farbbildgebung erforderlichen Kanäle zusammen zu betrachten.

  2. Das menschliche Auge hat zu jedem Zeitpunkt einen geringeren Dynamikbereich als bei 8 bpc. Der einzige Grund, warum wir sogar so viele Bits pro Kanal verwenden, ist, dass Computer Daten gerne in 8-Bit-Blöcken verarbeiten, ebenso wie Digitalanzeigen. Jeder Wert, den eine 7-bpc- oder 9-bpc-Variante von JPEG haben könnte, wird durch jahrzehntelange historische Trägheit ausgelöscht, die uns dazu treibt, bei 8 zu bleiben.

  3. Wenn Ihre Augen jederzeit ihre volle Dynamik nutzen könnten, müssten Sie nicht eine Weile blinzeln, wenn Sie mittags aus einem schwach beleuchteten Haus nach draußen gehen oder wenn Sie im Dunkeln aufwachen, wenn Sie das Nachttischlicht einschalten.

  4. Ich habe keinen Zweifel, dass dies mehrere Male in Forschungslabors versucht wurde. Ich wäre sogar nicht überrascht zu erfahren, dass Software öffentlich verfügbar gemacht wurde, die dies tut. Wenn ich genau richtig sein wollte, müsste ich diesen Satz in etwas weniger Schlagkräftiges umschreiben wie: "Niemand war kommerziell erfolgreich bei der Herstellung von Software oder Hardware, die Bilder mit dieser Methode darstellt."

  5. Dies ist einer der Gründe, warum es schwierig ist, ein gutes HDR zu erstellen .

  6. Und wenn wir eine solche Technologie hätten, könnten Sie auf dem reproduzierten Bild genauso wenig in die Sonne schauen wie während der Aufnahme.

  7. Oder weiß, wenn Sie es vorziehen. Es ist wirklich egal. Sie können die Mathematik so oder so bearbeiten.

Noch besser ist, dass die Sony A99 einen Exmor-Sensor hat, der im Wesentlichen ISO-los ist. Das heißt, das Ziehen oder Schieben einer Belichtung um einige Stufen in der Nachbearbeitung hat im Wesentlichen die gleiche Auswirkung auf das Rauschen wie das Ändern des ISO-Werts in der Kamera um die gleiche Anzahl von Stufen.
Aktualisierte Antwort ist hervorragend!
Faszinierend. Wenn ich RAW aufnehme und dann in Lightroom importiere, verwende ich automatisch die vollständigen Rohdaten, wenn ich meine Anpassungen mit den verschiedenen Schiebereglern vornehme, oder muss ich mich mehr mit den erweiterten Optionen beschäftigen?
Gelegentlich erfindet ein Kamerahersteller eine seltsame neue Raw-Variante, die "Funktionen" enthält, die nicht den Funktionen in der Raw-Verarbeitungssoftware von Drittanbietern entsprechen, wodurch Sie gezwungen sind, die proprietäre Erstanbieter-Software zu verwenden, um die neue Funktion zu verwenden. Adobe hat Lightroom und ACR meines Wissens ein paar Mal Funktionen hinzugefügt, um solche Fehlfunktionen auszugleichen, und wahrscheinlich noch viel mehr getan, was mir nicht aufgefallen ist. In der Regel müssen Sie sich mit Lightroom von nichts wirklich Wichtigem ausgeschlossen fühlen.
@AndrewHeath Ja. Wenn ich drinnen mit meiner Canon blitzlos fotografiere, bekomme ich oft weiße Fenster im anfänglichen Standardbild und in der JPEG-Version der Kamera, aber dann schiebe ich "Highlights" nach unten und plötzlich sehe ich draußen das ganze Grün im Garten und den blauen Himmel.
Das ist aufschlussreich, aber es geht um die Wahl einer Gammakurve. Ist die Gammakurve nicht in der JPEG-Spezifikation vordefiniert, sodass nach der Auswahl eines Schwarzpunkts keine weitere Auswahl mehr möglich ist? Idealerweise wäre Gamma ein Feld in den Metadaten, sodass Sie wählen können, wie viel Dynamikbereich Ihr JPEG haben kann, auf das Risiko einer Posterisierung – Sie werden in der Lage sein, diesen Kompromiss einzugehen. Aber ich glaube nicht, dass JPEG (oder PNG oder TIFF) so flexibel sind. Sie geben eine einzelne Gammakurve an. Bitte korrigieren Sie mich, falls ich falsch liege.
Ich möchte in einer großartigen Antwort keine Nissen auswählen, aber ich denke, es ist irreführend zu sagen, dass das Auge an einem bestimmten Punkt weniger als 8 Bit Dynamikbereich hat. Stimmt, aber das Gehirn stellt Informationen aus Sakkaden zusammen, sodass der wahrgenommene Dynamikbereich größer ist und JPEG zu kurz kommt.
8 bpp sind für ein menschliches Auge nicht immer ausreichend: computergraphics.stackexchange.com/questions/3964/…

Das von Ihrer Kamera angezeigte Histogramm basiert auf der kamerainternen JPEG-Vorschau, die beim Speichern einer RAW-Datei generiert wird. In der Vorschau sind die Daten weg und nicht wiederherstellbar. Die Informationen sind jedoch immer noch in der RAW-Datei vorhanden.

Die meisten Kameras verwenden ungefähr 12 bis 14 Bit pro Farbkanal, aber der JPEG-Standard erlaubt nur 8 Bit pro Kanal. Wenn Sie Ihre RAW-Datei auf Ihrem Computer anzeigen, ist die Anzeige dort ebenfalls auf 8 Bit pro Farbkanal begrenzt. Auf Ihrem Computer passiert das Gleiche wie auf dem Vorschaubildschirm der Kamera und im Histogramm. Indem Sie die Belichtung in der Nachbearbeitung ändern, ändern Sie, welche acht der 12-14 Bit pro Farbkanal tatsächlich auf dem Monitor angezeigt werden. Indem Sie die Tonkurven anpassen, können Sie sogar mehr von diesem Dynamikbereich in nur 8 Bit quetschen.

Der Dynamikbereich ist der Unterschied zwischen dem dunkelsten und hellsten Teil eines Bildes. JPEGs müssen jede Farbe mit 8 Bits an Informationen darstellen, wobei als Rohdaten mehr Bits (also mehr mögliche Werte) verwendet werden können.

Es gibt zwei Möglichkeiten, wie die Kamera den Unterschied in der Bittiefe auflösen kann. Entweder kann es eine kleinere Variation für jeden Wert darstellen (kleinere Schritte) oder es kann einen größeren Dynamikbereich darstellen. Es könnte auch eine Kombination dazwischen tun.

Bei Kameras mit einem großen Dynamikbereich für den Sensor wird das JPEG normalerweise nur auf einen Teil des Dynamikbereichs fokussiert, um glatte Farbverläufe mit einer begrenzten Anzahl möglicher Werte zu erhalten. Die Rohdatei deckt jedoch den gesamten Dynamikbereich des Sensors ab und kann daher Informationen speichern, die sonst für das JPEG außerhalb des Bereichs liegen würden (weil sie den maximalen 8-Bit-Wert überschreiten).

Dieser zusätzliche Headroom in der RAW-Datei ermöglicht es Ihnen, die Punkte nach unten in den Bereich zu verschieben, der durch ein JPEG ausgedrückt werden kann, das Sie später manuell mit einem RAW-Dienstprogramm erstellen.

Endeffekt? Sie fragen nach der Verwendung des vollen Dynamikbereichs Ihrer Kamera, der tatsächlich den Wert überschreitet, der durch die Breite des JPEG-angepassten Histogrammrahmens Ihres A99 vorgeschlagen wird.

Hier ist ein auf UglyHedgehog veröffentlichtes Tutorial, das genau dieses Problem anspricht.

http://www.uglyhedgehog.com/t-372364-1.html