Wie unterscheidet sich die Farbtiefe von Kamera zu Kamera?

Welcher Teil der Kamera ist für die Farbtiefe der Bilder verantwortlich?
Ist es die Eigenschaft des Bildsensors oder des Bildprozessors der Kamera? Und warum unterscheidet es sich von Kameras?

Wie viel Effekt hat ein kleiner Unterschied in der Farbtiefe auf das resultierende Bild?

Fragen Sie nach "Farbtiefe", die ich nur als Bittiefe bezeichnen kann ... oder fragen Sie wirklich nach "Farbtreue", die sich auf die Qualität und den Reichtum der von einer Kamera erzeugten Farben bezieht? Die Bittiefe ist wirklich eine Wahl, die Kamerahersteller treffen, und sie bauen ihre ADCs und Bildverarbeitungspipeline so auf, dass sie mit einer bestimmten Bittiefe arbeiten.

Antworten (3)

Im Allgemeinen sind die meisten DSLR-Kameras heutzutage 14-Bit. Kleinere Formfaktoren können niedrigere Bit-Tiefen haben, z. B. 10 oder 12. Die Bit-Tiefe einer Kamera bezieht sich letztendlich auf die Anzahl unterschiedlicher Helligkeitsstufen, die eine Kamera erzeugen kann. Dies ist ein Faktor von zwei hoch, was bedeutet, dass eine 14-Bit-Kamera in der Lage ist, 2 ^ 14 oder 16384 unterschiedliche Stufen (von Ton ... unabhängig von der Farbe) zu erzeugen. Eine 12-Bit-Kamera kann 2^12 oder 4096 Stufen erzeugen.

Ein Unterschied in der Anzahl der Tonwerte hat einen geringen Einfluss auf die Anzahl der erzeugten Farben, und in den meisten Fällen würde es wahrscheinlich schwierig sein, den Farbunterschied zwischen einer 12- und 14-Bit-Kamera zu erkennen. Eine Erhöhung der Anzahl von Tonwertstufen kann einen erheblichen Einfluss auf die Gesamttonqualität, insbesondere die Qualität von Farbverläufen, in einem Foto haben. Bei einer 12-Bit-Kamera besteht ein höheres Risiko, dass Fotos mit Tontrennung erstellt werden, ein Effekt, der aufgrund scharfer Übergänge in der Leuchtdichte normalerweise in großen Bereichen mit glatten Abstufungen oder überwiegend Volltonfarben auftritt.

Wenn es um Farbe geht, kann dies stärker von der Konstruktion des Sensors beeinflusst werden, insbesondere von der Stärke und Qualität der Farbfilter über jedem Pixel in einem Bayer-Sensor oder der Fähigkeit eines mehrschichtigen Sensors, die Anzahl der registrierten Elektronen deutlich zu erkennen für blaue, grüne und rote Auslesungen von jedem Pixel. Eine Kamera mit einem starken CFA (Farbfilter-Array) erzeugt im Allgemeinen sattere, genauere Farben als eine Kamera mit einem schwächeren CFA. Die Farbqualität oder Farbtreue, einer Kamera hängt heutzutage oft mehr von den Fähigkeiten ihres Bildprozessors oder der Präzision und Genauigkeit der Tonwertkurven (Bild- oder Bildstile) ab, die während der Verarbeitung des Sensorsignals angewendet werden. Selbst mit einem schwächeren CFA (der einen Sensor tendenziell etwas "farbenblinder" macht) kann die Farbqualität mit einem hochwertigen, genauen Bildverarbeitungsalgorithmus noch abgestimmt und verbessert werden. Dies gilt eher für JPEG als für RAW, und bei RAW hängt die Geschichte der Farbtreue wiederum etwas stärker von der Fähigkeit des Sensors ab, genaue Farben zu erkennen.

Also im Allgemeinen kleine und sogar größere Änderungen der Bittiefewirkt sich im Allgemeinen nicht auf die allgemeine Farbwahrnehmung auf einem Foto aus. Laut den meisten Studien können Menschen nur ein paar Millionen verschiedene "Farben" wirklich erkennen (bei konstanter mittlerer Beleuchtung ... wenn die Leuchtdichte berücksichtigt wird, können Menschen Billionen von Abstufungsstufen für eine bestimmte Farbe erkennen ... wie z rot oder blau ... aber wir sind immer noch nur für einige wenige unterschiedliche Farben empfindlich). Ein 10-Bit-Gerät kann über eine Milliarde Farben verarbeiten (sowohl „Chrominanz“ als auch „Luminanz“). Ein 12-Bit-Gerät kann 68 Milliarden Farben verarbeiten. Ein 14-Bit-Gerät kann 4 Billionen Farben verarbeiten. Die meisten Menschen würden sich schwer tun, den Unterschied zwischen einem 8-Bit- und einem 10-Bit-Computerbildschirm zu erkennen. Noch weniger Menschen könnten den Unterschied zwischen einem 10-Bit- und einem hypothetischen 12-Bit-Display erkennen, und diejenigen, die es könnten, würden wahrscheinlich die verbesserte Qualität der Tonabstufungen mehr bemerken als jede wahrgenommene Zunahme der beobachtbaren Farben. Der Wert einer Kamera, die Fotos mit höherer Bittiefe produziert, liegt in der Qualität des Farbtons ... der Qualität und Feinheit kleiner Helligkeitsunterschiede zwischen Pixeln. Wenn es um Farbe geht ... solange Sie die Kontrolle über die Low-Level-RGB-Tonkurven haben, die auf ein RAW-Bild angewendet werden, wenn es gerendert wird, können Sie technisch mit fast jeder Kamera jede gewünschte Farbtreue erreichen.

In Bezug auf die Dateileistung begrenzt die Anzahl der Bits pro Pixel die Farbtiefe Ihrer Kamera. Wir sprechen hier über Farbtiefe in Bits (8 Bit, 12 Bit, 14 Bit usw.), und der greifbarste Ort, um dies zu sehen, sind die von Ihrer Kamera erzeugten RAW-Dateien. Soweit ich weiß, steht dies in direktem Zusammenhang mit der Bittiefe, die von jeder Fotoseite auf dem Sensor erzeugt wird. Jede Fotostelle erzeugt dann ein schwaches Signal oder ein starkes Signal, das dem auf sie fallenden Licht entspricht, und dieses Signal wird digital in einer Treppenstufenfunktion gemäß einer Anzahl von Bits dargestellt. Ein Bit würde Ihnen "aus" oder "ein" geben, zwei geben eins von {0,1,2,3} und so weiter.

Diese technische Fähigkeit ist jedoch nur ein Teil des Leistungsumfangs. Die Konstruktion des Sensors bestimmt auch, wie empfindlich er auf einfallendes Licht reagiert, sodass Sie einen 14-Bit-Sensor haben könnten, der eine bessere Leistung als der andere erbringt. Die Sensorgröße trägt hier am meisten zur Leistung bei, aber Technologien wie Mikrolinsen tragen auch dazu bei, dass jede Fotostelle das maximal mögliche Licht sammelt.

Schließlich kann die Optik auch zur Dynamikbereichsleistung beitragen. Bessere Linsen lassen mehr Licht durch, und sie übertragen Licht neutraler – über das gesamte Lichtspektrum und über das Sichtfeld hinweg, sodass sie eine bessere Dynamikbereichsleistung erzielen als eine schwächere Linse.

Es ist das CMOS/CCD und die elektronische Konstruktion, die den Dynamikbereich, der Sättigung/Grundrauschen ist, begrenzt.

Die Bit-Tiefe sagt nur aus, wie viele Stufen auf der Treppe vom Grundrauschen bis zur Sättigung sind. Der angeborene Weißabgleich des Bayer-Musters und des Empfindlichkeitsspektrums des Sensors kommt auch ins Spiel, wenn Sie einen bestimmten Wert beschneiden müssen, um weiße Lichter weiß zu halten - dies reduziert effektiv den Sättigungsgrad. Unabhängig davon, ob der maximale Pixelwert 255 oder 65535 beträgt, ändert sich nichts daran, wie viel reales Licht integriert werden muss, um das Grundrauschen zu überwinden, und wie m

Dies ist erforderlich, um den Sensor zu sättigen. Bei der Konvertierung von diesem Maximum in ein schönes 8-Bit-Bild erhalten Sie jedoch mehr Flexibilität zum Spielen.

Das Objektiv kann nicht zum Dynamikbereich beitragen. Selbst wenn Sie durch eine Sonnenbrille geschaut haben, erhalten Sie immer noch die gleiche DR, brauchen nur eine längere Belichtungszeit, um dorthin zu gelangen, was es wiederum einfacher macht, klare Bilder in einer dynamischen Szene zu erhalten.