Ok, ich denke daran, dass ein Bild P durch eine zweidimensionale Matrix A dargestellt werden kann, wobei jedes Element von A (auch bekannt als jedes Pixel) ein Vektor mit vier Koordinaten (Rot, Grün, Blau) ist. Welche zusätzlichen Dinge sind außer dieser Matrix in einer RAW-Datei codiert?
Eine RAW-Datei besteht nicht aus Pixeln mit mehreren Farbkoordinaten. Es besteht aus einem einzelnen Wert von jeder Sensorvertiefung auf dem Sensor. Diese Werte müssen von einem Algorithmus demosaikiert werden, der einige Kenntnisse über den Bayer oder einen anderen Filter hat, der vor den Sensorvertiefungen sitzt. Diese Algorithmen nehmen den Wert jeder Vertiefung und jene aus einer kleinen Nachbarschaft anderer Vertiefungen und erzeugen einen RGB-Pixelwert für diese Position.
RAW-Dateien enthalten normalerweise auch ein oder mehrere vorverarbeitete JPEG-Vorschaubilder, EXIF- und andere Metadaten und möglicherweise einige andere Dinge, die alle in einer Art "Archiv" -Datei verpackt sind (einige verwenden TIFF-Container mit unterschiedlichen Abschnitten für die verschiedenen Datentypen , aber das ist nicht universell), und wahrscheinlich mit einem gewissen Maß an Komprimierung.
Eine Rohbilddatei enthält einzelne Leuchtdichtewerte, die an jeder Fotostelle (a/k/a „Sensel“ oder „Pixelwell“) gemessen werden. Jeder einzelne Wert gibt an, wie viel Lichtenergie von jeder Photosite absorbiert wurde. Diese Werte werden in einer bestimmten Reihenfolge aufgelistet.
An diesem Punkt gibt es keine "Farbinformationen" in der Art und Weise, wie Sie es zu erwarten scheinen. Für jede Fotostelle gibt es nur einen einzigen Leuchtdichtewert. Jeder Fotoseite ist kein „roter“, „grüner“ oder „blauer“ Wert zugeordnet. Es ist wahr, dass in einem Farbsensor Farbfilter vor jeder Fotostelle sind, die beeinflussen, wie viele verschiedene Lichtwellenlängen durchgelassen werden und auf den Sensor treffen, aber die in Bayer-Masken verwendeten Farben korrelieren nicht auf einer Ebene. Eins-zu-Eins-Basis zu den Farben, die wir in unseren Farbwiedergabesystemen verwenden , wie RGB oder CMYK.
Die drei Farbfilter für die meisten maskierten "RGB"-Kameras von Bayer sind wirklich "Blau mit einem Hauch von Violett", "Grün mit einem Hauch von Gelb" und irgendwo zwischen "Gelb mit einem Hauch von Grün" (was das menschliche Auge nachahmt). am meisten) und 'Gelb mit viel Orange' (was für einen CMOS-Sensor einfacher zu implementieren scheint). Jeder Filter lässt nicht „nur blaues“ oder „nur grünes“ oder „nur rotes“ Licht durch. Sie lassen jeweils "mehr Blau als Grün oder Rot", "Mehr Grün als Blau oder Rot" oder "Mehr Rot als Blau oder Grün" durch, aber einige aller Wellenlängen passieren jede Farbe des Filterarrays. Genau wie bei den Zapfen in der menschlichen Netzhaut gibt es viele Überschneidungen zwischen dem, was jeder Filter durchlässt.
Die Farbempfindlichkeit eines typischen maskierten Bayer-Sensors, der die Reaktionskurve auf Lichtwellenlängen im gesamten sichtbaren Spektrum zeigt, kauft Photosites, die durch jede Farbe des Bayer-Filterarrays gefiltert werden. Die vier vertikalen Linien zeigen die Wellenlängen, die typischerweise von unseren RGB-Farbwiedergabesystemen emittiert werden, einschließlich derjenigen, die auch einen vierten Gelbkanal verwenden. Bitte beachten Sie, dass die Spitzenempfindlichkeit für jeden Farbfilter nicht den Wellenlängen entspricht, die von unseren Farbwiedergabesystemen verwendet werden.
Die Empfindlichkeiten der verschiedenen Zapfen und Stäbchen in der menschlichen Netzhaut. Beachten Sie, dass unsere "roten" Zapfen am empfindlichsten für 564-nm-Licht sind, das eher ein leicht grünstichiges Gelb als Rot ist.
Um jedem Pixel eines Bildes, das mit den Rohdaten des Sensors erstellt wurde, Farbwerte zuzuweisen, werden die relativen Helligkeiten benachbarter Fotostellen, die mit unterschiedlichen Farben gefiltert wurden, verglichen und jedem Pixel „rote“, „grüne“ und „blaue“ Werte zugewiesen des resultierenden Bildes. Dies ahmt die Art und Weise nach, wie unser menschliches Gehirn die Informationen unserer Netzhaut verarbeitet, um eine Farbwahrnehmung aus Wellenlängen und Kombinationen von Lichtwellenlängen zu erzeugen.
Zusätzlich zu den tatsächlichen Luminanzmessungen an jeder Fotostelle enthält eine Rohbilddatei Vorschaubilder und Metadaten, die es einer Rohverarbeitungsanwendung ermöglichen, einige Dinge zu wissen, die sie zur Verarbeitung dieser Daten benötigt. Dazu gehören (aber nicht beschränkt auf):
Michael C