Warum sehen wir keine Diagramme des Farbraums/Gamuts einer DSLR?

Bei vielen Displays sehen wir den Farbraum oder Farbraum, der auf Farbtafeln angezeigt wird, im Vergleich zu einigen Standardfarbräumen wie Rec. 709, sRGB, Adobe RGB und Prophoto RGB, die einen Hinweis auf die Farbwiedergabefähigkeit des Anzeigegeräts geben. Ähnliche Diagramme werden auch für viele gängige Drucker erstellt.

Aber nicht für DSLRs, wie beispielsweise der Farbraum einer Nikon D300s DSLR, der auf einer Farbtafel dargestellt ist? Warum ist das so?

Antworten (3)

Der Farbumfang ist die Eigenschaft eines Ausgabegeräts, nicht eines Aufnahmegeräts.

Das kolorimetrische Eingabegerät ist dadurch gekennzeichnet, dass es dem Maxwell-Ives-Kriterium entspricht – dh wie metamerisch nahe es dem CIE-Standardbeobachter ist – das Äquivalent zum photopischen menschlichen Sehen. Diese Übereinstimmung kann grob mit einem Wert charakterisiert werden, das Beispiel dafür ist der Metamerie-Score von DxOMark, und Metamerie ist die wichtigste Eigenschaft eines Farbaufzeichnungsgeräts, die charakterisiert werden sollte.

Theoretisch kann ein Aufnahmegerät einen begrenzten chromatischen Eingabeumfang haben, wenn es beispielsweise Farbanpassungsfunktionen mit vorhandenen negativen Antworten verwendet (ich erfinde es nur, weil es keine praktische Möglichkeit dazu gibt, ein Gerät, das dies tut, wäre ein Defekt Gerät):CIE1931CMF

Wenn die Elektronik dieses imaginären Geräts nicht in der Lage ist, negative Bilddaten zu erzeugen, liegen Wellenlängen von 400 bis 600 für ein solches Gerät außerhalb des Farbumfangs, während einige Mischungen von Wellenlängen innerhalb des Farbumfangs liegen.

Es besteht jedoch keine Verpflichtung, diese Funktionen mit negativen Teilen zu verwenden, da es vollständig positive Farbanpassungsfunktionen gibt, die ebenfalls eine genaue Metamerie liefern, denn wenn Sie vollständige chromatische Daten an allen Bildpunkten haben, können Sie arithmetische Operationen auf allen Kanälen verwenden, um die wahre Farbe abzuleiten :CIE-XYZ-CMF

Keine Kameras, die ich gesehen habe, haben tatsächlich negative Reaktionen.

Das Wichtigste - die Metamerie - geht trotzdem in allen Consumer-Kameras kaputt. Aus den Bilddaten, die eine gewöhnliche Kamera aufnimmt, kann man nicht auf echte Farben schließen. Hier ist ein Beispiel für den Versuch, True Color aus Nikon D70-Daten abzuleiten, die von http://theory.uchicago.edu/ entnommen wurden :Nikon D70 CIE beste Passform

Diese Grafik zeigt, wie gut Farben wiedergegeben werden können. Wenn Sie wissen, dass ein CIE XYZ ein Raum mit imaginären übersättigten Farben ist, können Sie sehen, dass die Genauigkeit der Farbwiedergabe ein Zugunglück ist. Und um das Ganze abzurunden, werden D70-Bilddaten beschnitten, wenn sie in den XYZ-Raum umgewandelt werden – was gewissermaßen die Farbraumbeschränkung darstellt, da XYZ der breiteste Farbraum ist, der nach der RAW-Verarbeitung verwendet wird.

Es gibt also keinen Eingabeumfang in dem Sinne, nach dem Sie fragen.

> Der chromatische Farbumfang ist die Eigenschaft des Ausgabegeräts, nicht eines Aufnahmegeräts. Das ist falsch, der Farbumfang ist nicht speziell an ein Ausgabegerät gebunden, es können die in einer Szene vorhandenen Farben sein: eilv.cie.co.at/term/211
> Es verwendet Farbanpassungsfunktionen mit vorhandenen negativen Antworten. Dies ist wiederum falsch. Die von Ihnen verlinkten Anpassungsfunktionen sind wahrscheinlich Stiles & Burch 1955 2° RGB CMFs r¯(λ),g¯(λ),b¯(λ) und were abgeleitet aus Farbanpassungsexperimenten an menschlichen Beobachtern, die negativen Werte sind das Ergebnis davon, dass die Beobachter den Testreiz nicht mit der Mischung abgleichen können, daher wird eine der Mischungskomponenten dem Testreiz hinzugefügt und als negativ betrachtet: github. com/colour-science/colour-notebooks/blob/master/…
Es ist wichtig anzuerkennen, dass diese Farbanpassungsfunktionen weder die Zapfenreaktionen des menschlichen visuellen Systems noch die Sensorreaktionen irgendeiner Art von Erfassungsgerät sind. Ich glaube, du bringst hier zu viele Dinge durcheinander.
@KelSolaar Ihre Referenz sagt nicht, was Sie denken, dass sie sagt. Der Farbumfang eines Bildes ist nicht der Farbumfang des Aufnahmegeräts. Der Farbumfang einer Kamera stellt die Grenze ihrer Leistungsfähigkeit dar, nicht die Grenze der Reproduktion einer einfachen Szene. Da die vollständige Farb-"Palette" die neurologische Reaktion auf Eingangssignale mit mehreren Wellenlängen darstellt, muss ein digitales Bild lediglich mit den relativen spektralen Reaktionen der Zapfen übereinstimmen.
@kel-solaar: In der Praxis haben Kameras selten einen Eingangsumfang - dh die Teilmenge der für den Menschen sichtbaren Farben, zwischen denen sie sich unterscheiden können. Alle Kameras, mit einigen seltenen Ausnahmen, unterscheiden zwischen jeder Wellenlänge zwischen 400 und 700. Sie haben Recht mit diesen Funktionen r¯(λ),g¯(λ),b¯(λ) wurden aus Experimenten abgeleitet - das entkräftet meine Aussage nicht, sie sind immer noch gültige CMFs, die menschliche Metamerie reproduzieren. Ich habe nie gesagt, dass diese Reaktionen menschenähnlich sind, ich habe nur gesagt, dass sie gleichwertig sind, weil sie die menschliche Metamerie reproduzieren. Diese Datei erfordert zusätzliche Software.
@CarlWitthoft: Von welcher Referenz sprichst du? Es ist eine Selbstverständlichkeit, dass der Farbumfang eines typischen Bildes nicht den vollen Farbumfang darstellt, den ein Aufnahmegerät erfassen kann.
@EuriPinhollow: Mein Punkt ist, dass Sie RGB-CMFS nehmen, die aus psychophysischen Experimenten abgeleitet sind (sie könnten tatsächlich Wright & Guild 1931 2 ° RGB-CMFs r¯(λ),g¯(λ),b¯(λ) sein), die sagen dass es sich um Kamerareaktionskurven handelt, werfen Sie dann den CIE 1931 2° Standard Observer in die Mitte und versuchen, die Punkte zu verbinden. Kamerareaktionskurven beziehen sich auf das menschliche visuelle System gemäß dem Maxwell-Ives-Kriterium, und jemand mit guten Kenntnissen in der Farbwissenschaft kann verstehen, was Sie meinen, aber es ist definitiv verwirrend für jemanden ohne dieses Wissen.
"kel-solaar: "Sie werfen dann den CIE 1931 2° Standard Observer in die Mitte und versuchen, die Punkte zu verbinden" - WELCHE Punkte verbinden? Sie haben insofern recht, als meine Antwort für einen Anfänger nicht leicht verständlich ist. Ich werde es wahrscheinlich versuchen um es anschaulicher zu machen.
@KelSolaar Wright & Guild CMF und CIE 1931 CMF haben gleiche oder fast gleiche Metamerie. CIE 1931 CMF sind von der gleichen Art von Experimenten abgeleitet, die Wright & Guild durchgeführt haben.
@KelSolaar "sagen, dass es sich um Kamerareaktionskurven handelt" - das habe ich nie gesagt.

Es ist wahr, dass DSLR-Hersteller keine Farbdiagramme für ihre Kameras bereitstellen. Sie codieren ihre Bilder normalerweise mit sRGB- oder Adobe 1998 RGB -Farbräumen, wie @MirekE es angegeben hat.

Jede Farbe, die außerhalb dieser Farbraumskala liegt, wird bei der gelegentlichen RAW-Konvertierung abgeschnitten, selbst wenn die Kamera sie erfasst hat . Es ist auch falsch zu glauben, dass RAW-Dateien keinen Farbumfang haben, da der Farbumfang gemäß CIE-Definition wie folgt ist:

[...] Volumen, Fläche oder Körper in einem Farbraum, der aus all den Farben besteht, die entweder:

(a) in einer bestimmten Szene, Grafik, Fotografie, fotomechanischen oder anderen Reproduktion vorhanden sind;
(b) die unter Verwendung eines bestimmten Ausgabegeräts und/oder -mediums erstellt werden können

Da Kamerahersteller keine Chromatizitätsdiagramme für ihre DSLR bereitstellen, bedeutet das nicht, dass sie dies nicht für ihre Filmkameras tun. In diesen Diagrammen sind alle Farbskalen mit Ausnahme der der ACES-Familie und Pointer von Filmkameraanbietern (ARRI , Canon, Sony, Panasonic):

ACES-Kodierungen - Diagramme

Wenn Sie daran interessiert sind, wie man Digitalkameras charakterisiert und wie ihr Farbumfang berechnet wird, empfehlen Martınez-Verdu et al. In Bezug auf die Berechnung des Farbraums in einer Digitalkamera gibt es viele relevante Informationen zum Thema.

Können Sie die Quelle dieser Grafiken angeben? Es scheint mir, dass diese Dreiecke kein Eingabeumfang sind, sondern eine Visualisierung des Ausgabeumfangs, die sich aus der Annahme einiger Primärfarben während der Farbkonvertierung ergibt.
Kamerasensoren sammeln einfach Ladung an. Jedes Pixel ist nur ein Intensitätsbereich, sodass eine RAW-Datei per se weder Farbe noch wirklich einen Farbumfang hat. Die Farbe der Daten in einer RAW-Datei ist ausschließlich eine Frage der Interpretation durch die Verarbeitungssoftware. Selbst wenn Sie die RAW-Datei mit sRGB oder AdobeRGB taggen, müssen Sie diese Farbräume nicht für die Verarbeitung verwenden. Es sind nur Metadaten. Die Pixeldaten sind durch Rauschen und die Full-Well-Kapazität der Pixel begrenzt, und an den Extremen des Bereichs kann es zu leichten Nichtlinearitäten kommen ... aber RAW ist RAW.
Das Farbfilterarray über dem Sensor bestimmt die genaue Reaktion jedes Pixels auf bestimmte Bereiche des Spektrums. Die Kurven für jeden gegebenen Sensor hängen von der spezifischen Art der Farbfilter und der spezifischen Art der Reaktion des Siliziums auf Licht ab. Der Sensor selbst (nicht die RAW-Bilddatei) hat also eine einzigartige Reaktion, die meisten fallen jedoch in einen bestimmten Bereich, da ungefiltertes Silizium selbst eine ziemlich konsistente Reaktion auf Licht hat, die von ~ 315 nm bis ~ 1100 nm reicht, wobei die Reaktion niedrig ist UV, wächst durch das sichtbare Spektrum und erreicht einen Höhepunkt im IR.
Der Sensor selbst kann also einen Farbumfang haben (obwohl ich nicht denke, dass dies der richtige Begriff ist ... der Sensor reagiert natürlich auf Licht) ... aber ich denke nicht, dass es richtig ist zu sagen, dass es sich um eine RAW-Datei handelt hat eine Bandbreite.
Ein belichteter Standardfilm oder eine RAW-Datei für das, was uns hier betrifft, enthält Farbinformationen über eine Szene und entspricht sicherlich der CIE-Definition.
Sie verwenden die Definition A, ignorieren jedoch ihren Geltungsbereich. Die Definition A spricht von der Farbvielfalt, die in einer bestimmten Reproduktion vorhanden ist. Diese Definitionen sind speziell so konstruiert, dass sie die Definition des Eingabeumfangs ausschließen, und Sie ignorieren sie. Ich warte immer noch darauf, dass Sie die Quelle dieser Dreiecke zitieren.
Ich denke ehrlich, dass Sie die Definition lesen, um Ihrer Ansicht von "Gamut" zu entsprechen. Das erste Thema der Definition ist eine Szene, wobei die Szene das ist, was Sie zu reproduzieren versuchen. Ich lasse Sie die Referenzen von hier aus ausgraben: github.com/colour-science/colour/tree/develop/colour/models/rgb/… .
@kel-solaar: Es erklärt nicht, warum Sie versuchen, die Definition des Farbumfangs einer Szene auf den Sensor zu projizieren. Dieser Link erklärt mir nichts, er sagt nicht, wie der Farbraum der Farbumfang eines Sensors ist. Die Dreiecke bezeichnen den Ausgabeumfang bei einer gewissen Farbkonvertierung, nicht den Farbumfang eines Sensors.
@EuriPinhollow: Diese Festkörper sind so angepasst, dass sie die Farben umfassen, die diese Kameras originalgetreu erfassen können, ohne Daten zu opfern, sodass sie definitiv versuchen, die Erfassungs- (Eingabe-) Fähigkeit dieser Kameras zu charakterisieren.
@kel-solaar: "Diese Festkörper sind so angepasst, dass sie die Farben umfassen, die diese Kameras originalgetreu erfassen können, ohne Daten zu opfern" - warten immer noch auf die Quelle, die dies behauptet.
@kel-solaar: Gemäß dieser Definition enthält der Eingangsumfang immer alle sichtbaren Farben (weil keine Wellenlänge einen negativen Ausgang erzeugt). Was Ihre Dreiecke bedeuten, ist "Eingabegerät plus Transformationsumfang".
Praktisch kann man sagen, dass jede einzelne Farbe, die kein Signal erzeugt, das größer als das Grundrauschen für einen bestimmten Sensor ist, außerhalb der Farbskala des Sensors liegt, wenn die gleiche Menge dieser Farbe im weißen Vollspektrumlicht bei einem ausreichenden Belichtungswert vorhanden ist um die volle Kapazität der R-, G- und B-Sensoren zu erreichen.

Kameras können entweder in RAW, sRGB oder AdobeRGB aufnehmen. Für sRGB und AdobeRGB ist der Farbraum angegeben. RAW-Dateien haben keinen Farbumfang, Sie müssen das Bild in eine Farbdarstellung wie RGB konvertieren, um den Farbumfang zu erhalten, und das ist ein Prozess, der außerhalb der Kamera stattfindet, und der Farbumfang hängt vom Editor, den Profilen und dem Geschmack der Person ab, die dies tut bedient den Editor.