Warum nehmen Kameras nicht mit dem CIE XYZ-Farbmodell auf?

Wenn das CIE XYZ-Farbmodell eine bessere Darstellung dessen darstellt, was Menschen sehen, warum erfassen dann CCD-Arrays in Kameras Daten nicht auf eine Weise, die eher darauf als auf dem RGB-Modell abgebildet wird?

Es erscheint mir besonders seltsam, da der RGB-Raum eine richtige Teilmenge von CIE XYZ ist, was bedeutet, dass es Farben gibt, die Menschen sehen können, die mit RGB nicht darstellbar sind, oder?

Wenn der Grund Displays sind, dann gilt die gleiche Frage für Displays. Warum werden sie nicht mit dem CIE XYZ-Modell angezeigt?

Die meisten Kameras, die heutzutage für die Standfotografie verwendet werden, haben keine CCD-Arrays, sondern CMOS-Sensoren.
Mit ARGYLL können Sie Ihre RAW-Datei im XYZ-Farbraum entwickeln.

Antworten (4)

Derzeit werden XYZ-Filter unter Verwendung der Dünnschichttechnologie hergestellt. Es ist nicht sehr billig und für Multi-Megapixel-Sensoren nicht sehr geeignet. Es führt auch zu etwas stachligen Spektralantwortkurven, was besonders problematisch ist, wenn die Lichtquelle ein stachliges Spektrum hat, wie Leuchtstoffröhren und einige Blitze. Ein weiterer Grund wären höhere Rauschpegel, da XYZ-Filter in bestimmten Bereichen des Spektrums eine sehr geringe Durchlässigkeit zulassen.

Bei Displays ist das Problem auch die Lichtquelle. Um XYZ-Filter effizient anwenden zu können, muss die Lichtquelle eine sehr gleichmäßige spektrale Leistungsverteilung aufweisen, die bei etwa 5500 K der eines schwarzen Körpers nahe kommt, was derzeit keine Option ist.

AFAIK, "XYZ-Filter" existieren nicht, da XYZ keine Farben sind; sie sind mathematische Konstrukte, die von CIE RGB abgeleitet sind.

Sehen Sie sich eine Kopie des Farbdiagramms an. Beachten Sie, dass es entlang der X- oder Y-Achse keine Farben gibt. XYZ repräsentiert imaginäre Farben, keine echten Farben. Es ist unmöglich, einen XYZ-Sensor herzustellen.

Der Ursprung des XYZ-Raums stammt aus den Standard-Beobachterexperimenten. Beim Kombinieren der roten, grünen und blauen Testfarben, um die Farben des Spektrums zu erzeugen, gab es viele Fälle, in denen eine Übereinstimmung nicht hergestellt werden konnte. Um eine Übereinstimmung zu erhalten, wurde eine der Testfarben zur Spektralfarbe hinzugefügt und die anderen beiden Testfarben wurden entsprechend angepasst. Dies ist dasselbe wie das Hinzufügen eines negativen Werts dieser Testfarbe. Für CIE-Zwecke waren die negativen Werte kein Problem, aber das war vor Computern, als alle Berechnungen von Hand durchgeführt wurden. Die negativen Werte führten zu menschlichen Fehlern. Die Lösung bestand darin, die RGB-Werte in einen anderen Farbraum umzuwandeln, der keine negativen Werte enthielt. Dies ist der XYZ-Farbraum. Rein ein mathematisches Konstrukt, um menschliche Fehler bei mathematischen Problemen zu reduzieren.

XYZ wird heute verwendet, da es sowohl ein Farbmodell als auch ein Farbraum ist. Ein vorgegebener Zahlensatz stellt eine bestimmte Farbe dar, wenn sie innerhalb der in der Farbtafel festgelegten Grenzen liegt. RGB ist ein Farbmodell, kein Farbraum. ARGB und sRGB sind Farbräume.

Seite 11. Sie konvertieren zu XYZ
Um das Datenblatt zu zitieren: „Die Filterreaktionskurven basieren auf dem CIE 1931-Standard. Weitere Informationen zur Farbanpassungsfunktion finden Sie beispielsweise unter: en.wikipedia.org/wiki/CIE_1931_color_space “. Wenn Sie eine Umrechnungsmatrix wie "Ausgabe nach XYZ" haben und diese signifikant ungleichmäßig ist, helfe ich Ihnen natürlich gerne bei Ihrem elektronischen Design.
Ablehnung, weil XYZ auf imaginären Farben basiert, bedeutet dies nicht, dass es unmöglich ist, einen XYZ-Sensor herzustellen, ein menschliches Auge ist ein Beispiel dafür (google LMS space).

Die Erfassung verwendet die tatsächlichen Transmissionskurven der Pigmente, die zur Herstellung der Filter verwendet werden.

Eine Raw-Datei ist das , mit dem impliziten Device "input color space". Dies in aussagekräftige Werte in einigen Standard-Spqce umzuwandeln, ist das, was Rohkonverter tun. Sie können mit einem Farbprüfer und Software von X-rite kalibrieren oder darauf vertrauen, dass die Profile des Herstellers oder die Profile von Adobe nah genug sind.

Siehe diese Antwort , wo ich danach gefragt habe: nicht vorausgesetzt, sie sind RGB, aber was sind sie?

Ich bin beeindruckt von der Ähnlichkeit zwischen den Sensorfiltern und dem menschlichen Auge. Das ist die eigentliche Antwort: bei unterschiedlichen Lichtverhältnissen genauso zu reagieren wie wir, um bei unterschiedlichen Lichtverhältnissen keine komischen Farbverschiebungen zu bekommen.

Um genaue Farben zu erfassen, müssen Kameras tatsächlich nach XYZ- oder LMS-Gewichtskurven filtern. Jede andere lineare Kombination von LMS-Filtern mit nicht negativen Gewichten ist akzeptabel, wenn sie ein besseres Signal-Rausch-Verhältnis als LMS liefern.

Es sind die RGB-Filter, die unmöglich zu realisieren sind, da sie einige negative Gewichte entlang der Kurven (Wellenlänge) haben. Versucht man direkt auf dem Sensor (also mit den Bayer-Filtern) einen RGB-Farbraum zu realisieren, macht man garantiert farbmetrische Fehler. Sie können keine optischen Filter mit negativer Verstärkung herstellen.

Unsere Augen haben die LMS-Filter (lang-mittel-kurz, ungefähr gleichbedeutend mit Rot-Grün-Blau). CIE XYZ werden davon abgeleitet, um nur nicht negativ zu sein, und so dass die Luminanz nur durch Y definiert wird. Dies ist für die Farbwissenschaft praktischer. ACES RGB ist eine weitere perfekte Konvertierung, die sich für die digitale Filmproduktion eignet.

Daten in jedem anderen RGB-Farbraum (wie sRGB = Rec.709, Adobe, DCI P3, UHD = Rec.2020) können rechnerisch von XYZ oder ACES durch eine 3x3-Matrix in linearem Licht abgeleitet werden. Eine solche Matrix hat bis zu 6 negative Koeffizienten, sodass alle Farben außerhalb des Farbraums einige negative RGB-Werte erzeugen. Diese können nicht von der OECF (Gamma-Funktion) verarbeitet werden. Wenn Sie also vorzeichenbehaftete lineare Lichtwerte speichern, müssen sie durch Gamut-Mapping eliminiert werden (oder einfach auf 0 beschnitten werden). Die Farben innerhalb des Farbraums können immer noch genau sein, weil die Mathematik genau ist.

Je größer der Farbraum im Verhältnis zum Farbumfang Ihrer Szene ist (der größte Teil der Welt hat keinen so breiten Farbumfang), desto weniger Probleme haben Sie mit dem Zuschneiden des Farbumfangs. Für wissenschaftliche Zwecke gibt es XYZ-Kameras, sie können genau das reproduzieren, was die Augen sehen. Multispektralkameras mit mehr als 3 Grundfarben können sogar mehr sehen, als das menschliche Auge unterscheiden könnte. Sie enthüllen buchstäblich das Unsichtbare.

Kurz gesagt: Ein XYZ-Sensor ist eine hervorragende Idee. Ich vermute, dass Sie im RAW-Modus genau das bekommen sollten. Die Konvertierung in einen begrenzten RGB-Farbraum erfolgt dann während der Rohverarbeitung, und dann können Sie einen Teil des Farbraums verlieren.

PS: Kameradesign nicht mit Farbdisplaydesign verwechseln. Eine XYZ-Darstellung ist nicht möglich, eine sehr breite Gamut-Darstellung benötigt viele Primärfarben (z. B. 2 Grüns). Eine Kamera mit großem Farbraum ist trivial einfach, gibt jedoch schwache Farbsignale aus, sodass es zu Rauschproblemen kommen kann.