Ich verstehe nicht, wie die Kamera den Weißabgleich für eine bestimmte Szene ermitteln kann.
Ich könnte sehen, dass es funktioniert, wenn es einen offensichtlichen Farbstich gibt (z. B. unter fluoreszierendem Licht). Vergleicht es die Histogramme aus den verschiedenen Farbkanälen und versucht, sie bis zu einem gewissen Grad aufeinander abzustimmen? Selbst dann kann ich mir nur vorstellen, dass es unter sehr genau definierten Umständen zuverlässig funktioniert.
Kann jemand erklären, wie es in heutigen Kameras implementiert ist und wie gut es normalerweise funktioniert?
Die ursprüngliche Annahme ist, dass die durchschnittliche Szene farbneutral sein sollte. Wenn Sie daher die durchschnittliche Farbe in der Szene berechnen und dann die gleiche Korrektur auf jedes Pixel anwenden, erhalten Sie eine Szene, deren durchschnittliche Farbe neutral ist und die den richtigen Weißabgleich haben sollte . Dies wird fehlschlagen, wenn es eine dominante Farbe und die Szene gibt.
Algorithmen wurden im Laufe der Jahre mit vielen technischen Abhandlungen und Patenten, die zu diesem Thema geschrieben wurden, immer ausgefeilter. Sie fügten dem Satz bekannter Leuchtmittel weitere Intelligenz wie Klemmen hinzu.
Der genaue Algorithmus unterscheidet sich zwischen den Kameras und scheint tagsüber im Freien sehr gut zu funktionieren, wo es nur geringe Abweichungen gibt. Unter künstlichem Licht gibt es viel mehr Varianz und es ist eher ein Glücksfall. Ältere Digitalkameras waren besonders schlecht, aber es hat sich im Durchschnitt verbessert.
Die allerbeste Weißabgleichsleistung, die ich je gesehen habe, war beim HP Photosmart R967 . DC Resource bemerkte dies und kommentierte, dass sie den Nobelpreis gewinnen sollten! Einige neuere Kompaktkameras leisten ebenfalls hervorragende Arbeit. Der Vorteil einer spiegellosen Kamera gegenüber einer DSLR besteht darin, dass sie Daten vom gesamten Sensor lesen kann. DSLRs können das jetzt im Live-View-Modus.
Einige DSLRs verwenden einen völlig anderen Ansatz, nämlich den Weißabgleich zu messen . Dies ist bei der Olympus E-5 der Fall . Es verfügt über einen speziellen „externen“ Sensor, der das auf die Kamera fallende Licht misst. Sie können dies für Fälle ausschalten, in denen Sie bei einer anderen Beleuchtung als Ihr Motiv fotografieren.
Die Kamera kann nicht wissen, welchen Weißabgleich sie verwenden soll, sie kann nur anhand der Bilddaten raten (oder manchmal eines externen Sensors, wie Itai in seiner Antwort erwähnte).
Wenn ich zum Beispiel eine blaue Wand fotografiere, denkt die Kamera, dass ich eine graue Wand in blauem Licht aufgenommen habe, und das Bild wird grau statt blau. (Das ist so ziemlich das gleiche Phänomen, als wenn ich eine weiße oder schwarze Wand mit automatischer Belichtung fotografiere und die Kamera die Belichtung so einstellt, dass beide grau werden.)
Ich verwende immer den automatischen Weißabgleich und passe ihn manuell an, wenn ich aus dem Rohbild entwickle. Meine Erfahrung ist, dass der automatische Weißabgleich manchmal genau richtig ist, meistens sehr nah dran ist und in einigen seltenen Situationen weit daneben liegt.
Beachten Sie auch, dass die „richtige“ Weißabgleicheinstellung nicht immer die exakte Farbtemperatur der Lichtquelle ist. Manchmal braucht ein Bild eine leichte Farbänderung, um natürlich auszusehen, und manche brauchen sogar ziemlich viel. Ein Bild, das bei hellem Sonnenlicht aufgenommen wurde, muss möglicherweise etwas gelber sein, und ein Bild, das in den blauen Stunden aufgenommen wurde, benötigt möglicherweise viel Blau.
Die Antwort ist so vielfältig wie die vielen verschiedenen Kameramodelle und die dazugehörige Firmware.
Bei Einstellung auf AWB verwenden die meisten älteren Digitalkameras (einschließlich so ziemlich aller, als diese Frage gestellt wurde) Algorithmen, die versuchen, den Weißabgleich basierend auf der Annahme einzustellen, dass die hellsten Bereiche im Bild neutralweiß oder sehr hellgrau sein sollten . Dies funktioniert ziemlich gut, es sei denn, einige Bereiche sind in allen drei Kanälen vollständig gesättigt (bevor Belichtungsanpassungen vorgenommen werden).
Das Ergebnis kann einer der verfügbaren Voreinstellungen ähneln (Tageslicht, Kunstlicht, Bewölkt, Fluoreszierend usw.) oder sich erheblich von einer der anderen unterscheiden. Wenn die erkannte Szene nahe genug an einer der voreingestellten Optionen der Kamera liegt, wird diese möglicherweise angewendet oder nicht , abhängig vom genauen Kameramodell.
Neuere Kameras verwenden oft ausgefeiltere Algorithmen, die von einem Kameramodell zum nächsten stark variieren können. Die meisten Top-Tier-Modelle ähneln einigen Formen der Messung wie Nikons „Matrix“- oder Canons „Evaluative“-Messung, bei der die Daten aus dem Rahmen mit einer Bibliothek verglichen werden, die in die Firmware der Kamera geladen und basierend auf Anweisungen für die beste Übereinstimmung angewendet wird. Wenn die Kamera eine Szene mit hellblauem Himmel im oberen Teil des Rahmens und dunklerem Grün im unteren Rahmen erkennt, wendet sie Weißabgleich basierend auf einem Landschaftsprofil an. Wenn es eine Szene mit vielen Bereichen erkennt, die (für ihn) wie Hauttöne aussehen, wendet es einen Weißabgleich basierend auf einem Porträtprofil an. (Diese Erklärung ist aufgrund der vielen Feinheiten, die analysiert werden und das Ergebnis beeinflussen können, stark vereinfacht.)
Einige Kameras ermöglichen sogar vom Benutzer wählbare Optionen zwischen einer Ausrichtung auf die hellsten Bereiche der Szene oder einer Ausrichtung auf die durchschnittlicheren Bereiche der Szene. Canon nennt die beiden Optionen, die bei einigen seiner neuesten Modelle verfügbar sind, „White Priority AWB“ oder „Ambient Priority AWB“.
Guffa
Itai
Matt Grum
Guffa
Reid
Itai
Michael Nielsen
Michael Nielsen
Michael C