Werden Farbprofile jemals in RAW-Dateien gespeichert?

Kürzlich behauptete der Leiter in einem Tierfotografiekurs, dass die Verwendung von aRGB in den Kameraeinstellungen weniger Datenverlust in der RAW-Datei bedeutet als die Verwendung von sRGB. Da ich das nicht verstand, habe ich im Internet nachgesehen und völlig widersprüchliche Ansichten gefunden. Schließlich fand ich diese Frage , die DIE endgültige Antwort zu sein schien. Als ich dann den EXIF-Inhalt einiger meiner letzten Aufnahmen untersuchte, die mit einer Nikon-Kamera aufgenommen wurden, stellte ich fest, dass die Wahl des Farbraums in der RAW-Datei gespeichert war.

Also meine Fragen sind:

Ist der Farbraum in der RAW-Datei gespeichert?

Wenn es gespeichert wird, ist es wahr, dass die Verwendung von sRGB im Vergleich zur Verwendung von aRGB dazu führt, dass Informationen verloren gehen?

Wenn es gespeichert ist, warum spielt es keine Rolle, welche Sie wählen (was die RAW-Datei betrifft)?

Wenn es nicht gespeichert wird, warum wird die Auswahl in den EXIF-Daten gespeichert?

Mir ist bewusst, dass die Wahl des Farbraums an dem Punkt relevant ist, an dem die NEF-Datei konvertiert wird, aber meine Frage bezieht sich nur auf die RAW-Datei.

Antworten (2)

Ein Teil dieser Frage scheint im Grunde zu fragen, ob die Antworten auf die andere Frage tatsächlich richtig sind. Machen Sie sich für diesen Teil keine Sorgen - das sind sie. (Und auf diese Weise gehen keine Informationen verloren – der Leiter Ihres Kurses irrt sich. *)

Die anderen Teile der Frage fragen im Wesentlichen, ob (und warum) diese Informationen überhaupt gespeichert werden, wenn sie die Rohdaten nicht beeinflussen.

Die Antwort lautet: Wie viele andere Kameraeinstellungen als die grundlegenden Belichtungsfaktoren (Verschlusszeit, Blende und Sensorverstärkung/ISO) wird der ausgewählte Farbraum als Beratungsinformation gespeichert , sodass Sie Entscheidungen in der Kamera treffen und widerspiegeln können als Standard in der RAW-Verarbeitungssoftware. Dies ist mit dem Farbraum möglicherweise nicht sehr sinnvoll, aber berücksichtigen Sie Tonwertkurven (oder sogar den Schwarzweißmodus), den Weißabgleich und sogar das Zuschneiden. Nichts davon wird in die grundlegenden RAW-Daten selbst eingebrannt oder wirkt sich darauf aus, aber alles kann später nützlich sein.

Denken Sie daran, dass Adobe RGB nicht unbedingt besser ist als sRGB – das ist ein weit verbreiteter Mythos. Dies gilt insbesondere für 8-Bit-Bilder wie JPEGs. Siehe Was ist der Unterschied zwischen Adobe RGB und sRGB und was sollte ich in meiner Kamera einstellen? für mehr – aber machen Sie sich auch hier keine Sorgen, wenn Sie RAW verwenden. Ein größeres Problem ist, dass das hintere LCD (oder EVF, bei spiegellosen Kameras) wahrscheinlich kalibriert ist, um sRGB korrekt anzuzeigen, und die Verwendung von Adobe RBG möglicherweise zu einer geringeren Übereinstimmung zwischen dem, was Sie dort sehen, und dem, was Sie tatsächlich erfassen, führt.


* außer möglicherweise mit dem sehr geringen theoretischen Effekt, den Sie möglicherweise durch eine mögliche voreingenommene Messung sehen, wie in meiner Antwort auf diese andere Frage erläutert .

In Kürze:

EINS) Der "Anführer" war falsch, tatsächlich hat er es in gewisser Weise falsch verstanden. Eine RAW-Datei sind RAW -Bilddaten und ein Farbraum ist NICHT RAW , sondern debayered. Ein gewählter colospace hat keine Auswirkung auf die RAW-Daten, nur das eingebettete jpeg-Vorschaubild in der RAW-Datei.

ZWEI) Bitte verwenden Sie nicht aRGB, um Adobe98 zu beschreiben, wenn Sie das gemeint haben. "A" impliziert einen Alphakanal, keinen Farbraum, und Adobe ist ein Markenname, der groß geschrieben werden sollte. Das s von sRGB bedeutet „Standard“. Und aus anderen Gründen ist aRGB ein schlechter Stil ...

DREI) "Datenverlust" hat absolut nichts mit Farbräumen zu tun und alles mit BIT DEPTH .

VIER) Es gibt einen größeren Verlust an Bildtreue bei größeren Farbräumen wie AdobeRGB, es sei denn, die Bittiefe wird wesentlich erhöht. Das Einzige, was ein größerer Farbraum tut, ist, mehr Leerraum zwischen Codewerte zu legen. Bei einem 8-Bit-Bild bedeutet dies, dass Sie schnell dazu führen können, dass die deltaE-Fehler 2 überschreiten, was bedeutet, dass Artefakte sichtbar werden (z. B. Streifenbildung). Je größer der Farbraum, desto mehr Bits benötigen Sie pro Pixel.

FÜNF) sRGB ist ein idealer Farbraum für die 8-Bit-Bilddarstellung. Und wenn Sie nicht beschneiden, wie z. B. helle gesättigte Farben, profitieren Sie NULL von der Verwendung eines größeren Farbraums.

SIX) Aber nichts davon hat etwas mit RAW zu tun, bei dem es sich um Bilddaten direkt vom Sensor vor dem Debayering handelt . Bilddaten vor dem Debayering beziehen sich nicht auf einen „Farbraum“, da es sich um RAW-Daten handelt, die keine Matrix, LUT oder einen anderen Algorithmus durchlaufen haben, um die RAW-Samples in ein RGB-Bild umzuwandeln. (Sie können und sollten zwar ein Profil der RAW-Erfassungsdaten dieses Sensors erstellen, aber das ist nicht dasselbe wie ein „Farbraum“.)

Technisch gesehen hat RAW einen Farbraum, der durch die Farbfilter definiert wird. Es ist sogar ein breiter Farbraum, ähnlich wie XYZ. Da es jedoch unveränderlich ist und die Rohverarbeitungssoftware bereits darüber Bescheid weiß, macht es keinen Sinn, es in den Metadaten zu codieren.
Hallo @JeroenvanDuyn – ja, das meinte ich mit dem Profil. Ich halte es jedoch für falsch oder irreführend, das RAW-Profil als "Farbraum" zu bezeichnen, da es sich um Daten handelt, die nicht debayeriert wurden, und daher das Bild nicht "konstruiert" und die Farben nicht "definiert" sind. Damit meine ich, dass sich die Rohwerte der Filter vor dem Debayering nicht auf definierbare Farben beziehen, da das Debaying die Bildstruktur berücksichtigt, bevor einem bestimmten Pixel eine Farbe zugewiesen wird. Farbräume wie XYZ definieren eine bestimmte Farbe basierend auf Tristimuluswerten. RAW nicht (Fortsetzung)
In RAW hat ein Pixel nur eine von drei (oder vier) Farben aus dem Bayer-Filter. Für das zu konstruierende Bild müssen umgebende Pixel berücksichtigt werden, und das Bild muss somit konstruiert werden, um den Farbwert eines gegebenen Pixels zu bestimmen. Ich nehme an, es ist ein bisschen ein semantisches Argument, aber ein Farbraum kann durch eine Matrix oder eine LUT in einen anderen Raum konvertiert werden. RAW-Daten erfordern einen komplizierteren Algorithmus, der für die Kamera/den Sensor spezifisch ist. Im Wesentlichen argumentiere ich, dass ein Farbraum im Allgemeinen unabhängig von einem bestimmten Gerät ist und ein Profil im Allgemeinen für ein Gerät spezifisch ist.