Wie viele Datenbits werden normalerweise tatsächlich von einem Digitalkamerasensor erfasst?

In einem Kommentar zu dieser Frage schlug jemand vor, dass Kamerasensoren normalerweise nur 12-14 Datenbits ausgeben. Ich war überrascht, weil das bedeuten würde, dass 24 Farbbits nur für Fotomanipulationen nützlich sind (wobei die hinzugefügten Bits das Rauschen reduzieren, das man durch das Interpolieren von Mittelwerten aufnimmt, wenn man wiederholt mehrere Manipulationen durchführt).

Weiß jemand genug über Kamerasensoren, um die 12-14-Bit-Behauptung verbindlich beantworten zu können? Wenn ja, was sind typische Kodierungen?

Ich entschuldige mich bei Itai und Guffa, da ich alle drei Antworten sehr interessant fand, und danke für die Kommentare nach Guffas Antwort mattdm und Matt Grum. Ich wünschte, ich hätte sie alle auswählen können.

Antworten (4)

Die Photosites eines digitalen Sensors sind eigentlich analoge Geräte. Sie haben überhaupt nicht wirklich ein bisschen Tiefe. Um jedoch ein digitales Bild zu erzeugen, tastet ein Analog-Digital-Wandler (A/D-Wandler) das analoge Signal mit einer gegebenen Bittiefe ab. Dies wird normalerweise in den technischen Daten einer Kamera beworben – zum Beispiel hat die Nikon D300 einen 14-Bit-A/D-Wandler .

Beachten Sie jedoch, dass dies pro Kanal gilt, während 24-Bit-Farbe normalerweise 8 Bit pro Kanal bedeutet. Einige Dateiformate – und Arbeitsbereiche – verwenden stattdessen 16 Bit pro Kanal (für insgesamt 48 Bit), und einige verwenden sogar noch mehr.

Dies liegt teilweise daran, dass die zusätzliche Präzision akkumulierte Rundungsfehler reduzieren kann (wie Sie in Ihrer Frage anmerken), aber auch daran, dass das menschliche Sehen nicht linear ist und die von uns verwendeten Farbräume dies in der Regel auch nicht sind. Das Umschalten von einer linearen zu einer "gammakomprimierten" Kurve ist ein verlustbehafteter Vorgang (siehe eine der mehreren Fragen zu ). Mehr Bits bedeuten also einfach weniger Verlust, was besser ist, wenn Sie Ihre Meinung zu Belichtung/Kurven ändern und Don keinen Zugriff mehr auf die RAW-Datei haben.

Ich denke, diese Antwort könnte verbessert werden: Erstens gibt der Sensor keine Bits aus, das ist richtig, aber Sensorausgang und A/D-Wandler müssen übereinstimmen. Zum Beispiel macht es nicht viel Sinn, die Ausgabe eines verrauschten Sensors in 16 Bit umzuwandeln, da die meisten Bits nur Rauschen wären. Zweitens ist der Ausgang des A/-Wandlers bezüglich der Helligkeit stark nichtlinear. Drittens sind es keine Rundungsfehler , sondern Quantisierungsfehler . Eventuell solltest du den genannten "Verlust" etwas besser erklären.

Die meisten Sensorchips erfassen nur eine Farbkomponente pro Pixel, sodass ein Pixel beispielsweise 14 Datenbits für die Grünintensität enthalten kann.

Die Pixel sind in einem Raster angeordnet, wobei 50 % der Pixel grüne, 25 % rote und 25 % blaue Daten aufzeichnen:

RGRGRGRGRGRGRGR
GBGBGBGBGBGBGBG
RGRGRGRGRGRGRGR
GBGBGBGBGBGBGBG
RGRGRGRGRGRGRGR

Wenn diese Daten in RGB konvertiert werden, werden zwei Farbkomponenten pro Pixel aus den Informationen in umgebenden Pixeln interpoliert. Ein Pixel, das zum Beispiel grüne Informationen enthält, hat zwei benachbarte Pixel, die rote Daten enthalten, und zwei, die blaue Daten enthalten, die verwendet werden, um den RGB-Wert zu erzeugen.

14 Bit pro Pixel RAW-Daten erzeugen also 42 Bit pro Pixel RGB-Daten. Natürlich sind die interpolierten Daten weniger genau, aber Sie verarbeiten sie normalerweise trotzdem auf 24-Bit-RGB herunter.

42 Bit oder 56 (2× G)?
Jedes RGB-Pixel wird aus einem gewichteten Durchschnitt von potenziell vielen Pixeln erstellt, sodass Sie nicht einfach mit 3 (oder 4) multiplizieren können, um zu bestimmen, wie viele Bits an Farbdaten Sie erhalten. Wenn Sie über Farbinformationen sprechen möchten, erhalten Sie experimentell etwa 22 Bit mit einer typischen DSLR
@ Matt Grum: Ja. Die einfache Zahl sagt Ihnen, wie viele Datenbits Sie haben, aber Sie erhalten am Ende weitaus weniger tatsächliche Informationen .

Achten Sie darauf, die Bittiefe pro Pixel und die Bittiefe pro Komponente nicht zu verwechseln.

Die Ausgabe digitaler Sensoren liegt fast immer zwischen 10 und 14 Bit pro Komponente auf einer linearen Skala. Das würde zwischen 30 Bit Farbe (1 Milliarde) und 42 Bit (4 Billionen) pro Pixel ergeben.

Die Website DXOMark misst dies mit einer normalisierten Skala (erklärt in ihrem Whitepaper) und veröffentlicht die Bittiefe pro Pixel, die Rauschen berücksichtigt, das dazu neigt, die Bits niedrigerer Ordnung zu zerstören. Basierend auf ihren Erkenntnissen können DSLRs im Vollbildmodus 24,7 Bit pro Pixel erreichen, während Mittelformatkameras 26 Bit erreichen. Bei Crop-Sensor-Kameras sind 23,8 Bit das aktuelle Maximum.

"in ihrem Whitepaper" würde sehr von einer URL profitieren.

Aktuelle DSLR-Kameras erreichen die Spitze bei 14-Bit-Ausgabe. Einige Mittelformatkameras geben eine 16-Bit-Ausgabe an, aber verschiedene Leute ( wie die dpBestflow-Site von ASMP) haben argumentiert, dass die Erhöhung der Bittiefe zwischen 14 Bit und 16 Bit tatsächlich ein besseres Bild erzeugt.

Worüber die meisten Antworten nicht gesprochen haben, ist "Belichtung": Profitieren Sie von mehr Bits in den Rohdaten, wenn Ihr Magier unterbelichtet ist? Zitat aus "POYNTON, Charles, 2012. Digital Video and HD. Second Edition. Waltham MA 02451, USA: Morgan Kaufmann. ISBN 978-0-12-391926-7" (S. 325): "To Maintain 10-Bit BT.709-Genauigkeit in einem linearen Lichtsystem würde 12 Bit pro Komponente erfordern. (...) Für Video mit höherer Qualität (...) möchten wir eine höhere maximale Verstärkung. (...) Für diese Systeme linear -Light-Darstellung erfordert 4 Bits über 10 auf der nichtlinearen Skala – das heißt, 14 Bits pro Komponente.