Warum entsteht ein Farbstich bei falschem Weißabgleich?

Ich verstehe, was Farbbalance ist und wie sie verwendet werden soll. Ich verstehe jedoch nicht ganz, warum wir sehen, was wir sehen, wenn ein falscher Weißabgleich verwendet wird.

Wenn wir zum Beispiel ein Foto bei hellem Tageslicht machen, aber den Weißabgleich auf 3200 K eingestellt haben, erscheint dieses Foto "kühler" oder hat mehr Blau.

Was versucht die Kamera zu tun, damit die blaue Farbe entsteht? Warum keine andere Farbe?

Die Tatsache, dass für mich mehr Blau vorhanden ist, bedeutet, dass entweder versucht wird, die anderen Farben zu reduzieren, oder dass versucht wird, den Blauanteil zu erhöhen, aber ich kann mir auch nicht erklären, warum dies der Fall sein sollte.

Ich habe mir diese Frage angesehen, aber entweder habe ich sie nicht verstanden, oder sie hat nicht ganz dieselbe Frage beantwortet, die ich habe: Was * genau * ist Weißabgleich?

Antworten (1)

Der Weißabgleich wird während der Verarbeitung der Rohdaten angewendet. Der Zweck des Weißabgleichs besteht darin, R = G = B für neutrale (graue, ungefärbte, unbunte) Bereiche des Bildes zu erreichen. Das ganze Problem ergibt sich aus der Tatsache, dass die Farbkanäle der Sensoren (typisch Bayer sind das R, G1, B, G2) unterschiedliche "Empfindlichkeiten" haben und die Antworten auch vom Spektrum des Lichts abhängen. Typischerweise sind grüne Kanäle bei Tageslicht etwa eine halbe bis eine Blende empfindlicher als Rot und Blau; Bei Glühlicht liegen die Reaktionen im grünen und im roten Kanal nahe beieinander, während die Reaktion im blauen Kanal hinterherhinkt. Um die Reaktionen auszugleichen, werden also Weißabgleichskoeffizienten durch Multiplikation der linearen Rohdaten in den jeweiligen Kanälen angewendet. Um es in Zahlen zu fassen,

// Olympus E-M5 CameraGroup= 6
{"Olympus", "E-M5", "Tungsten", {1.296875f, 1.0f, 3.265625f, 1.0f}},
{"Olympus", "E-M5", "3300K CCT", {1.546875f, 1.0f, 2.578125f, 1.0f}},
{"Olympus", "E-M5", "3600K CCT", {1.640625f, 1.0f, 2.367188f, 1.0f}},
{"Olympus", "E-M5", "3900K CCT", {1.734375f, 1.0f, 2.203125f, 1.0f}},
{"Olympus", "E-M5", "FL-W", {2.000000f, 1.0f, 2.601562f, 1.0f}},
{"Olympus", "E-M5", "4300K CCT", {1.851562f, 1.0f, 2.125000f, 1.0f}},
{"Olympus", "E-M5", "4500K CCT", {1.921875f, 1.0f, 2.148438f, 1.0f}},
{"Olympus", "E-M5", "4800K CCT", {1.976562f, 1.0f, 1.945312f, 1.0f}},
{"Olympus", "E-M5", "Daylight", {2.078125f, 1.0f, 1.820312f, 1.0f}},
{"Olympus", "E-M5", "Cloudy", {2.281250f, 1.0f, 1.640625f, 1.0f}},
{"Olympus", "E-M5", "6600K CCT", {2.304688f, 1.0f, 1.734375f, 1.0f}},
{"Olympus", "E-M5", "Shade", {2.476562f, 1.0f, 1.437500f, 1.0f}},
{"Olympus", "E-M5", "Flash", {2.351562f, 1.0f, 1.617188f, 1.0f}},

Um in fotografische Stopps / EV umzurechnen, berechnen Sie log2 der Zahlen. Oben sehen Sie, dass bei einer Tageslichtaufnahme der Blaukanal mit 1,8 multipliziert werden muss. Wenn der Weißabgleich auf Wolfram eingestellt ist, wird er mit einem viel größeren Betrag, dem 3,3-fachen, multipliziert. Deshalb erscheint es bläulich.

Vielen Dank, das hat mich den ganzen Tag gestört, aber das hat es klick gemacht. Wenn ich Sie richtig verstehe, würde dies bedeuten, dass der Sensor überhaupt keinen Basis- oder nativen Weißabgleich hat?
@James: Nein, Sensoren haben unter normalen Lichtquellen keinen nativen Weißabgleich. Tageslicht oder Blitz mit einem Magentafilter wie CC40m führen zu einem nahezu nativen Weißabgleich. Also Glühlampe mit starkem Blaufilter.
Die meisten Sensoren erfassen überhaupt keine Farbinformationen. Sie erfassen monochromatische Leuchtdichtewerte für jedes Pixel. Die Pixel werden nach rotem, grünem oder blauem Licht gefiltert, aber es gibt nur einen Luminanzwert für jedes Pixel. Das Konzept ähnelt der Verwendung von Farbfiltern beim Fotografieren mit Schwarzweißfilm. Ein Rotfilter bewirkt, dass das durch den Filter hindurchtretende rote Licht einen höheren Tonwert (helleres Grau) auf dem Film hat als gleich helle blaue oder grüne Objekte.
Um Farbe aus diesen Informationen zu erhalten, vergleicht der von Ihrer Kamera (JPEG) oder der Fotokonvertierungsanwendung des Computers (roh) verwendete Demosaicing-Algorithmus die relative Helligkeit benachbarter Pixel, die mit den verschiedenen Farben gefiltert wurden, und interpoliert R-, G- und B-Werte für jedes Pixel.
@ Michael Clark - sie zeichnen Informationen über Farbe auf. Die Darstellung von Farbe als Intensitäten unterscheidet sich nicht von Farb-TIFF. TIFF mit drei Kanälen, die jeweils "monochromatisch" sind, oder Bayer raw mit 4 Kanälen, die ebenfalls jeweils "monochromatisch" sind, unterscheiden sich nur räumlich.
@Michael Clark: Um Farbe zu erhalten, muss eine Farbtransformation angewendet werden. Demosaicking stellt nur fehlende Intensitätswerte wieder her. Binning ist eine Art Demosaiking, das zu vollständigen Tripletts führt, und es sind nur Farb- und Tontransformationen erforderlich, um die richtige Interpretation zuzuweisen.
Es hängt alles davon ab, wie Sie Farbinformationen definieren . Die meisten Leute nehmen an, dass jedes Pixel einen Rot-, einen Grün- und einen Blauwert aufzeichnet. Das ist nicht der Fall (außer bei spezialisierten Nicht-Bayer-Sensoren). Jedes Pixel zeichnet einen Luminanzwert auf, ist also monochromatisch. Auch wenn zum Beispiel etwas grünes und blaues Licht bis zum Boden eines rot gefilterten Pixelschachts gelangt und umgekehrt. Alles, was jedes Pixel erfasst, ist die Gesamtmenge an Licht, die den Boden des Schachts erreicht, unabhängig davon, welche Farbe es hat. Es fehlen keine Intensitätswerte . Nur interpolierte Farbe mit einem Bayer-Sensor.
@Michael Clark: Betrachten wir einen CMYK-Rasterdruck als Farbbild? Und auf der gleichen Anmerkung, Farbdisplay?
@Michael Clark: Jeder Kanal ist monochromatisch, sei es gewöhnliches TIFF oder gewöhnliches Rohmaterial. Wenn wir Demosaiking durchführen, möchten wir möglicherweise räumliche Eigenschaften wiederherstellen und fehlende Intensitäten für Farbkanäle füllen. Das interpolieren wir. Es ist nicht dasselbe wie eine Farbinterpolation. Viele Demosaiking-Algorithmen sind farbunabhängig und schneiden beim Testen mindestens so gut ab wie diejenigen, die Farbtransformationen in Lab, YCC und ähnliches beinhalten.
@IliahBorg Die Daten in einer Rohdatei sind nicht dieselben wie in einer CMYK- oder TIFF-Datei. Alle Werte in einer Rohdatei sind 0-255 (für eine 8-Bit-Tiefe). Es gibt kein 255B, 255G, 255R. Es gibt nur eine Zahl. Bei einem TIFF- oder CMYK- oder anderen Rasterbildtyp gibt es bestimmte Werte für einzelne Farben. Nicht so bei Rohdaten. Der Intensitätsunterschied zwischen benachbarten Pixeln, die für verschiedene Farben gefiltert wurden, wird verwendet, um die Farbe abzuleiten, nicht die bloßen Luminanzwerte selbst.
@Michael Clark: Lieber Michael, Daten in der Rohdatei sind genau das - Intensität von Rot, Grün, Blau, Sekundärgrün. Es kann als 0..255R usw. normalisiert werden. Wenn Sie aus dem CMYK- oder RGB-Raster interpolieren, ist es dasselbe, wenn Sie die Intensitätsdifferenz verwenden, da die implizite Hypothese darunter lautet, dass sich die Intensitäten langsam ändern.
Haben Sie schon einmal Fotos mit Farbfiltern und Schwarzweißfilmen gemacht? Die Filter schränken nicht alles andere Licht als die Farbe des Filters ein, sie reduzieren nur die Intensität dieses anderen Lichts. Dasselbe gilt für Bayer-Filter. Wenn Sie eine reine rote Lichtquelle haben, die gerade hell genug ist, um den roten Kanal zu sättigen, erkennen die grünen Pixel immer noch etwas (aber nicht annähernd die Sättigung) dieses Lichts, und selbst die blau gefilterten Pixel erkennen eine viel geringere Menge davon. Die Farbinterpolation berücksichtigt die Empfindlichkeiten der anderen Pixel gegenüber rotem Licht und kompensiert dies.
@Michael Clark: Ja. Das gilt auch für den Farbdiafilm (und übrigens ist es auch ein stochastisches Rasterbild mit räumlichen Lücken). Das Problem wird gelöst, indem der richtige Farbraum zugewiesen wird. Farbe wird nicht interpoliert, Intensitäten werden räumlich interpoliert (oder nicht, im Fall von Binning). Am Anfang versuchten diejenigen, die Rohkonverter programmierten, die Produkte der Öffentlichkeit als etwas „schwarze Magie“ zu präsentieren. Darüber sind wir längst hinaus, eigentlich war schon 2003 klar, dass Rohdaten ein normales Bild darstellen.