Funktioniert der automatische Weißabgleich wirklich? Wie?

Ich verstehe nicht, wie die Kamera den Weißabgleich für eine bestimmte Szene ermitteln kann.

Ich könnte sehen, dass es funktioniert, wenn es einen offensichtlichen Farbstich gibt (z. B. unter fluoreszierendem Licht). Vergleicht es die Histogramme aus den verschiedenen Farbkanälen und versucht, sie bis zu einem gewissen Grad aufeinander abzustimmen? Selbst dann kann ich mir nur vorstellen, dass es unter sehr genau definierten Umständen zuverlässig funktioniert.

Kann jemand erklären, wie es in heutigen Kameras implementiert ist und wie gut es normalerweise funktioniert?

Antworten (3)

Die ursprüngliche Annahme ist, dass die durchschnittliche Szene farbneutral sein sollte. Wenn Sie daher die durchschnittliche Farbe in der Szene berechnen und dann die gleiche Korrektur auf jedes Pixel anwenden, erhalten Sie eine Szene, deren durchschnittliche Farbe neutral ist und die den richtigen Weißabgleich haben sollte . Dies wird fehlschlagen, wenn es eine dominante Farbe und die Szene gibt.

Algorithmen wurden im Laufe der Jahre mit vielen technischen Abhandlungen und Patenten, die zu diesem Thema geschrieben wurden, immer ausgefeilter. Sie fügten dem Satz bekannter Leuchtmittel weitere Intelligenz wie Klemmen hinzu.

Der genaue Algorithmus unterscheidet sich zwischen den Kameras und scheint tagsüber im Freien sehr gut zu funktionieren, wo es nur geringe Abweichungen gibt. Unter künstlichem Licht gibt es viel mehr Varianz und es ist eher ein Glücksfall. Ältere Digitalkameras waren besonders schlecht, aber es hat sich im Durchschnitt verbessert.

Die allerbeste Weißabgleichsleistung, die ich je gesehen habe, war beim HP Photosmart R967 . DC Resource bemerkte dies und kommentierte, dass sie den Nobelpreis gewinnen sollten! Einige neuere Kompaktkameras leisten ebenfalls hervorragende Arbeit. Der Vorteil einer spiegellosen Kamera gegenüber einer DSLR besteht darin, dass sie Daten vom gesamten Sensor lesen kann. DSLRs können das jetzt im Live-View-Modus.

Einige DSLRs verwenden einen völlig anderen Ansatz, nämlich den Weißabgleich zu messen . Dies ist bei der Olympus E-5 der Fall . Es verfügt über einen speziellen „externen“ Sensor, der das auf die Kamera fallende Licht misst. Sie können dies für Fälle ausschalten, in denen Sie bei einer anderen Beleuchtung als Ihr Motiv fotografieren.

Hinweis: Eine DSLR ohne Live-View kann immer noch den Weißabgleich mit dem gesamten Sensor messen. Der Weißabgleich wird nach der Aufnahme des Bildes angewendet, was durch die Tatsache ersichtlich ist, dass die in einer Rohdatei gespeicherten Daten vor dem Weißabgleich liegen.
@Guffa - Ich glaube, Ihre Logik ist fehlerhaft. Versuchen Sie stattdessen, einen voreingestellten Weißabgleich zu verwenden, und auf die RAW-Dateidaten wird auch kein Weißabgleich angewendet. Sie haben jedoch Recht, dass jede Kamera den Weißabgleich nach der Aufnahme durchführen könnte, aber ich habe keine Beweise dafür gesehen, vielleicht ist es eine Frage der Leistung, aber ich bezweifle es. Wenn Sie die Spezifikationen einer modernen DSLR wie der Nikon D7000 lesen, steht dort so etwas wie „2016-Pixel-Weißabgleichsensor“, was stark darauf hindeutet, dass dies nicht mit dem gesamten Bildsensor getan wird.
Ich denke, es ist eine einfache Leistungsoptimierung - Sie müssen nicht jedes Pixel abtasten, und wenn Sie dies tun würden, würden Sie am Ende eine Rohkonvertierung durchführen, um den Weißabgleich zu messen, und dann eine weitere Konvertierung mit diesem Gleichgewicht in der Hand
@Itai: Es gibt keinen Fehler in der Logik, aber es basiert teilweise auf Ihrer ursprünglichen Aussage, der Sie gerade widersprochen haben. Wird ohnehin nicht der gesamte Sensor genutzt, nützt eine Fixobjektivkamera oder eine Kamera mit Live-View überhaupt nichts.
Ich bin hier etwas skeptisch - vorausgesetzt, alles ist farbneutral, könnte es gewesen sein, wie es ursprünglich gemacht wurde, aber das ist so spröde, dass ich bezweifle, dass es sehr gut funktioniert. Meine starke Vermutung wäre, dass dies unter Verwendung einer Datenbank mit Referenzbildern und / oder verschiedener Heuristiken erfolgt. Haben Sie einen Hinweis, der die Behauptung stützt, dass hauptsächlich versucht wird, die Gesamtfarbe zu neutralisieren?
@Reid - Beachten Sie die Verwendung des Welt-Originals. Kamerahersteller veröffentlichen ihre Formel nicht direkt, aber Sie können Artikel und Patente zu diesem Thema lesen, um mehr zu erfahren. Es gibt buchstäblich Hunderte von Möglichkeiten, dies zu tun, aber ich kenne keine, die Referenzbilder verwendet (Messung ist dafür bekannt, aber das ist etwas ganz anderes), nur Referenzlichtarten.
@Reid: ja, und dcraw macht Auto-WB über dem durchschnittlichen Frame und es unterscheidet sich meistens stark von der Kamerawahl. Es kann nicht wissen, ob Sie die Kamera auf ein rotes Kleid an einer rosa Wand gerichtet haben. Auch wenn Sie einen weißen Block und WB daraus auswählen, wird das Bild langweilig. Ich finde es schöner, wenn die Weißen einen Gelbstich haben.
PS: Ich habe tatsächlich ein Zimmer mit rosa Wänden :)
Anstelle der durchschnittlichen Szene gingen die meisten frühen Implementierungen in der Kamera davon aus, dass die Highlights neutral sein sollten und nicht der Durchschnitt der gesamten Szene. Seit diese Antwort geschrieben wurde, sind Kameras immer ausgefeilter geworden, und jetzt verwenden einige bibliotheksbasierte Algorithmen, um WB (basierend entweder auf den erfassten Rohdaten oder auf einem Messwert eines RGB + IR-Belichtungsmessers) so einzustellen, wie sie es bereits waren zu dem Zeitpunkt, als diese Frage ursprünglich gestellt wurde, etwas Ähnliches mit der Exposition zu tun.

Die Kamera kann nicht wissen, welchen Weißabgleich sie verwenden soll, sie kann nur anhand der Bilddaten raten (oder manchmal eines externen Sensors, wie Itai in seiner Antwort erwähnte).

Wenn ich zum Beispiel eine blaue Wand fotografiere, denkt die Kamera, dass ich eine graue Wand in blauem Licht aufgenommen habe, und das Bild wird grau statt blau. (Das ist so ziemlich das gleiche Phänomen, als wenn ich eine weiße oder schwarze Wand mit automatischer Belichtung fotografiere und die Kamera die Belichtung so einstellt, dass beide grau werden.)

Ich verwende immer den automatischen Weißabgleich und passe ihn manuell an, wenn ich aus dem Rohbild entwickle. Meine Erfahrung ist, dass der automatische Weißabgleich manchmal genau richtig ist, meistens sehr nah dran ist und in einigen seltenen Situationen weit daneben liegt.

Beachten Sie auch, dass die „richtige“ Weißabgleicheinstellung nicht immer die exakte Farbtemperatur der Lichtquelle ist. Manchmal braucht ein Bild eine leichte Farbänderung, um natürlich auszusehen, und manche brauchen sogar ziemlich viel. Ein Bild, das bei hellem Sonnenlicht aufgenommen wurde, muss möglicherweise etwas gelber sein, und ein Bild, das in den blauen Stunden aufgenommen wurde, benötigt möglicherweise viel Blau.

Hmm, aber wenn ich eine blaue Wand fotografiere, kommt sie blau heraus, nicht weiß. Ich habe meine Kamera nicht zur Hand, aber was ist mit einer cremefarbenen Wand? Wird das auf neutrales Weiß verschoben?
guter Punkt über "richtige" Balance.
Hier gilt das gleiche. Ich füge einige Testaufnahmen an derselben Stelle hinzu und beginne mit einer WB-Anpassung, die ich dann als Ausgangspunkt auf alle Aufnahmen anwende. Neulich bemerkte ich, dass ein korrekt kalibriertes Bild kalt/blau aussah: Das Gehirn erwartet , dass die Szene bernsteinfarben ist, und obwohl ein nicht korrigiertes Foto orange aussieht, vermittelt ein wenig Wärme den richtigen Eindruck.

Die Antwort ist so vielfältig wie die vielen verschiedenen Kameramodelle und die dazugehörige Firmware.

Bei Einstellung auf AWB verwenden die meisten älteren Digitalkameras (einschließlich so ziemlich aller, als diese Frage gestellt wurde) Algorithmen, die versuchen, den Weißabgleich basierend auf der Annahme einzustellen, dass die hellsten Bereiche im Bild neutralweiß oder sehr hellgrau sein sollten . Dies funktioniert ziemlich gut, es sei denn, einige Bereiche sind in allen drei Kanälen vollständig gesättigt (bevor Belichtungsanpassungen vorgenommen werden).

Das Ergebnis kann einer der verfügbaren Voreinstellungen ähneln (Tageslicht, Kunstlicht, Bewölkt, Fluoreszierend usw.) oder sich erheblich von einer der anderen unterscheiden. Wenn die erkannte Szene nahe genug an einer der voreingestellten Optionen der Kamera liegt, wird diese möglicherweise angewendet oder nicht , abhängig vom genauen Kameramodell.

Neuere Kameras verwenden oft ausgefeiltere Algorithmen, die von einem Kameramodell zum nächsten stark variieren können. Die meisten Top-Tier-Modelle ähneln einigen Formen der Messung wie Nikons „Matrix“- oder Canons „Evaluative“-Messung, bei der die Daten aus dem Rahmen mit einer Bibliothek verglichen werden, die in die Firmware der Kamera geladen und basierend auf Anweisungen für die beste Übereinstimmung angewendet wird. Wenn die Kamera eine Szene mit hellblauem Himmel im oberen Teil des Rahmens und dunklerem Grün im unteren Rahmen erkennt, wendet sie Weißabgleich basierend auf einem Landschaftsprofil an. Wenn es eine Szene mit vielen Bereichen erkennt, die (für ihn) wie Hauttöne aussehen, wendet es einen Weißabgleich basierend auf einem Porträtprofil an. (Diese Erklärung ist aufgrund der vielen Feinheiten, die analysiert werden und das Ergebnis beeinflussen können, stark vereinfacht.)

Einige Kameras ermöglichen sogar vom Benutzer wählbare Optionen zwischen einer Ausrichtung auf die hellsten Bereiche der Szene oder einer Ausrichtung auf die durchschnittlicheren Bereiche der Szene. Canon nennt die beiden Optionen, die bei einigen seiner neuesten Modelle verfügbar sind, „White Priority AWB“ oder „Ambient Priority AWB“.