Können alle Farben mit RGB beschrieben werden?

Wenn man ideale Empfindlichkeiten für die RGB-Filter eines Kamerasensors auswählen könnte, wäre es dann möglich, jede Farbe so zu erfassen, wie Menschen sie sehen?

Was meinst du mit "ideale Empfindlichkeiten"? Die Wellenlänge, bei der jede Filterfarbe am durchlässigsten ist? Oder die relativen Ansprechverhältnisse der drei Filterfarben zueinander?
Typischerweise liegt die Empfindlichkeit für die Farben Rot, Grün und Blau nicht bei einzelnen Wellenlängen, sondern in einem Bereich von Wellenlängen mit einer Spitze um das herum, was wir als diese Farben wahrnehmen. Die ideale Empfindlichkeit wäre vielleicht, wie die Zapfen des Auges für diese Wellenlängen empfindlich sind. Ich denke, damit habe ich meine eigene Frage beantwortet.
Nur dass da noch mehr dahintersteckt, besonders bei Standbildern. Siehe akzeptierte Antwort.
All das ist mir bewusst. Was ich herausfinden wollte, war, ob Sie besorgt sind, dass die Punkte im sichtbaren Spektrum der Spitzenübertragung für die Farben in einer Bayer-Maske sich von der Spitzenreaktion für die jeweiligen Farbrezeptoren unserer Netzhaut unterscheiden, oder ob Sie sich mehr Sorgen machen, dass die Die Verhältnisse zwischen den drei Farben unterscheiden sich zwischen Retinas und maskierten Bayer-Sensoren. Ersteres ist für beide mehr oder weniger eingeschlossen. Letzteres wird durch die Interpretation beider ständig angepasst.

Antworten (3)

Sehen Sie sich diese Einführung in die Farbwahrnehmung und -wiedergabe an . Es enthält auch einen Vergleich der CIE-, RGB- und CMYK-Farbskalen am unteren Rand, wobei CIE darstellt, was das Auge leisten kann, und RGB und CMYK, was Kameras, Monitore und Drucker leisten können.

In Ihrer detaillierten Frage fragen Sie im Grunde, ob die Auswahl verschiedener RGB-Filter die menschliche Farbwahrnehmung genau modellieren würde, was nicht der Fall ist:

Das menschliche Auge ist sehr anpassungsfähig, so dass Kameras beispielsweise Schwierigkeiten mit Situationen mit extremen Kontrasten (wo man HDR-Bildgebung verwenden würde) oder Situationen mit wenig Licht haben, in denen Menschen einen Verlust des Farbsehens erfahren. Es würde also die Genauigkeit erhöhen oder ein besseres Modell der Farben sein, die wir wahrnehmen können, aber das angepasste RGB-Modell hätte immer noch Einschränkungen.

Darüber hinaus löst die Möglichkeit, genau zu modellieren oder zu messen, was Menschen wahrnehmen, nicht das Problem, bei anderen Menschen die gleiche Stimulation des Farbsehens zu erzeugen.

Das bedeutet, dass die Verwendung eines anderen Satzes von RGB-Filtern nur die Farbdatenerfassung "heilt", nicht jedoch die Reproduktion. Auch das muss Ihr Monitor und Drucker wiedergeben können.

Bei der Farbwiedergabe gibt es andere Probleme, wie 8 Bit vs. 16 und 32 Bit pro Kanal in Sensoren, Dateiformaten und Monitoren, Farbkalibrierung in Ausgabegeräten und nichtlineare Wahrnehmung und Anpassungsfähigkeit Ihrer Augen an einen extremen Farb- und Helligkeitsbereich wieder, beispielsweise durch Umgebungslicht.

Ein weiteres Problem ist die Textur, die es schwierig machen kann, Dinge wie Gold- und Silberoberflächen korrekt zu reproduzieren.

Bitte lesen Sie die Farb-FAQ von Poynton .

Der Adobe-Artikel gibt keine klare Antwort: „Die Bedeutung von RGB als Farbmodell besteht darin, dass es sehr eng mit der Art und Weise zusammenhängt, wie wir Farben mit den RGB-Rezeptoren in unserer Netzhaut wahrnehmen.“ Schauen Sie sich die RGB- und CMY-Farbmodelle an – die im Wesentlichen Modelle der Farbproduktion sind – sehen wir, dass die Farbskala, die wir reproduzieren können, weit geringer ist als das, was wir tatsächlich sehen können.“ Ich denke, Sie sagen "ja, aber das Erfassen von Farben ist nur sinnvoll, wenn Sie sie auch zeigen können"?
Ja, das ist ein Teil der Antwort. Aber es steckt noch mehr dahinter, siehe bearbeitete Antwort (gleich).
Vielen Dank, ich mag die Antwort, weil sie darauf hinweist, dass die fotografische Farberfassung und -anzeige Reflexion und Glanz nicht reproduzieren kann - was sich in der menschlichen Wahrnehmung auf die Farbwahrnehmung auswirkt.
Ich bin gespannt, ob eine Lichtfeldkamera Dinge wie Glanz reproduzieren könnte, da sie nicht nur die Farbe des Lichts, sondern auch die Richtung erfasst.
@ user1118321 Bei Shine geht es sowohl um die Polarisation des Lichts als auch um die Richtung, aus der es beobachtet wird.
Die kurze Antwort auf meine Frage ist nein . Ich habe hier gelesen: handprint.com/HP/WCL/color1.html , dass die Empfindlichkeit für unsere langen Wellenlängen bei Violett ihren Höhepunkt erreicht. Eine Mischung aus Rot und Blau kann genau so aussehen, erscheint aber weniger gesättigt als Spektralviolett.

Die in einem Bayer-Filter verwendeten Farben sind bereits so nah wie möglich an den drei Lichtwellenlängen zentriert, für die das menschliche Auge am empfindlichsten ist. Wie empfindlich jede Farbe im Verhältnis zu den anderen beiden ist, hängt davon ab, wie die Rohdaten des Sensors verarbeitet werden. Dies wird normalerweise durch Ändern der für die rotgefilterten und blaugefilterten Pixel verwendeten Multiplikatoren erreicht. Der grüne Kanal wird normalerweise auf einem Multiplikator von 1,0 gehalten.

Um wirklich zu verstehen, was vor sich geht, müssen wir uns darüber im Klaren sein, dass weder die Filter auf einer Bayer-Maske noch die Farbrezeptoren in unseren Augen harte Trennlinien zwischen roten, grünen und blauen Rezeptoren haben. Dies alles wird ausführlich in dieser Antwort auf RAW-Dateien behandelt, in denen 3 Farben pro Pixel gespeichert werden, oder nur eine? Wir werden hier einige der Highlights behandeln.

Hier ist ein Diagramm, das normalisierte Reaktionskurven der drei Arten von Farbrezeptoren in der menschlichen Netzhaut zeigt. Die Wellenlängen, bei denen die Farbrezeptoren in der menschlichen Netzhaut am empfindlichsten sind, modellieren die Wellenlängen, bei denen jeder Filter in einer Bayer-Maske am durchlässigsten ist. Beachten Sie, wie viel Überlappung zwischen den dreien besteht – insbesondere zwischen Grün und Rot.

Antwort

Raw-Dateien speichern nicht wirklich Farben pro Pixel. Sie speichern nur einen einzigen Helligkeitswert pro Pixel.

Es stimmt, dass bei einer Bayer-Maske über jedem Pixel das Licht entweder mit einem Rot-, Grün- oder Blaufilter über jedem Pixel gut gefiltert wird. Aber es gibt keine harte Grenze, bei der nur grünes Licht zu einem grün gefilterten Pixel oder nur rotes Licht zu einem rot gefilterten Pixel durchkommt. Es gibt viele Überschneidungen. Durch den Grünfilter dringt viel rotes Licht und etwas blaues Licht. Viel grünes Licht und sogar etwas blaues Licht gelangt durch den Rotfilter, und etwas rotes und grünes Licht wird von den blau gefilterten Pixeln aufgenommen.

Da eine Rohdatei ein Satz einzelner Luminanzwerte für jedes Pixel auf dem Sensor ist, enthält eine Rohdatei keine tatsächlichen Farbinformationen. Die Farbe wird abgeleitet, indem benachbarte Pixel, die für eine von drei Farben gefiltert wurden, mit einer Bayer-Maske verglichen werden. Aber so wie das Setzen eines Rotfilters vor dem Objektiv beim Aufnehmen von Schwarzweißfilmen kein monochromatisches rotes Foto ergab, erzeugt die Bayer-Maske vor monochromatischen Pixeln auch keine Farbe. Es ändert den Tonwert (wie hell oder wie dunkel der Luminanzwert einer bestimmten Farbe aufgezeichnet wird) verschiedener Farben um unterschiedliche Beträge. Wenn die Tonwerte (Grauintensitäten) benachbarter Pixel, die für die drei verschiedenen Farben gefiltert wurden, die in der Bayer-Maske verwendet werden, verglichen werden, dann können Farben aus diesen Informationen interpoliert werden. Dies ist der Prozess, den wir bezeichnenEntmosaiken .

Dasselbe gilt für die Farbrezeptoren im menschlichen Auge.¹ "Grüne" Rezeptoren nehmen viel Licht auf wie "rote" Rezeptoren und umgekehrt. Was wir als Farbe wahrnehmen, basiert auf den relativen Unterschieden zwischen der Reaktion der roten, grünen und blauen Rezeptoren in unserer Netzhaut.

Zu oft setzen wir eine bestimmte Lichtwellenlänge damit gleich, dass sie eine bestimmte „Farbe“ hat. Die Wahrheit ist, dass die „Farbe“, die eine bestimmte Wellenlänge des Lichts wahrnimmt, von unseren Augen und unserem Gehirn konstruiert wird. Tiere mit unterschiedlich eingestellten Farbrezeptoren unterscheiden verschiedene Lichtwellenlängen anders als Menschen. Einige Tiere haben nur einfarbiges Sehen. Einige haben nur zwei verschiedene Arten von Farbrezeptoren. Einige Tiere haben mehr als die drei verschiedenen Arten von Farbrezeptoren, die wir Menschen besitzen.

"Farbe", wie wir sie wahrnehmen, ist keine intrinsische physikalische Eigenschaft von Licht. Tatsächlich ist das, was wir „sichtbares Licht“ nennen, nur das schmale Band, auf das unsere Augen innerhalb des gesamten elektromagnetischen Energiespektrums chemisch ansprechen. Es gibt keinen wirklichen wesentlichen Unterschied zwischen sichtbarem Licht und nicht sichtbaren Radiowellen, außer der Tatsache, dass unsere Augen chemisch auf die Wellenlängen des elektromagnetischen Spektrums reagieren, die wir "Licht" nennen, und unsere Augen chemisch nicht auf die Wellenlängen reagieren, die wir "Licht" nennen. Radio." Es gibt "Farben", die wir wahrnehmen, die nicht durch eine einzige Lichtwellenlänge erzeugt werden können. Magenta zum Beispiel

Was sich am meisten zwischen Farbrezeptoren in menschlichen Retinas und Pixeln in einem maskierten Bayer-Sensor unterscheidet, sind die Formen der Reaktionskurven, insbesondere in den Bereichen mit geringerer Reaktion für jeden Farbrezeptortyp, wenn sich die Wellenlänge der Lichtquelle weiter von der entfernt Wellenlänge, für die dieser Rezeptor am empfindlichsten ist.

¹Die genauen Wellenlängen, bei denen die Rezeptoren in ihrer Netzhaut am empfindlichsten sind , können bei verschiedenen Menschen leicht variieren .

Aber niemand sieht mit den Augen. Wir sehen mit unserem Gehirn.

So wie eine Kamera die von einem Kamerasensor gesammelten Daten stark verarbeiten muss, um ein Farbbild zu erstellen, verarbeitet das Gehirn die Signale, die es von der Netzhaut erhält, stark. Es passt das relative Gewicht an, das jeder Gruppe von Farbrezeptoren relativ zu den anderen gegeben wird. Aus diesem Grund nehmen wir ein Objekt unter verschiedenen Beleuchtungsarten als in der/den gleichen Farbe(n) wahr. Wenn die Lichtquelle jedoch in ihrem Spektrum begrenzt genug ist, beginnt unsere Fähigkeit dazu zusammenzubrechen. Zum Beispiel ist es unseren Augen unter rotem Licht mit sehr begrenztem Spektrum unmöglich, den Unterschied zwischen einem roten und einem weißen Hemd zu erkennen.

Unser Gehirn passt auch die relative Helligkeit verschiedener Bereiche in einer Szene an, sodass wir Details über einen sehr weiten Bereich von Helligkeitsstufen wahrnehmen können. Das Gehirn baut ein mentales Modell unserer Umgebung auf. Es sammelt die "Daten" aus den dunklen Bereichen anders als die "Daten" aus den hellen Bereichen. Das Gehirn steuert die Iris in unseren Pupillen und ändert den Durchmesser der Iris, während wir eine Szene scannen, sodass die Helligkeit des Lichts, das aus Bereichen unterschiedlicher Helligkeit auf unsere Netzhaut trifft, bis zu einem gewissen Grad normalisiert wird.

Es gibt zwei sehr wichtige Überlegungen, die es erschweren, dass jede Art von Kamera, ob digital oder analog, die gesamte Palette der Farben wiedergibt, die unsere Augen wahrnehmen können.

Das erste ist, dass wir die Ergebnisse der Lichterfassung einer Kamera immer noch mit unseren Augen sehen müssen. Das bedeutet, dass das, was die Kamera basierend auf dem aufgezeichneten Licht erfasst hat, reproduziert werden muss, um reflektiertes (Druck) oder emittiertes Licht (elektronischer Bildschirm) zu erzeugen, das die Rezeptoren in unserer Netzhaut genauso stimuliert, wie es das von der Kamera erfasste Licht getan hätte. Zu diesem Zeitpunkt können Kameras eine viel breitere Palette von Informationen erfassen, als unsere Anzeigemethoden gleichzeitig anzeigen können. Selbst wenn also die Kamera den gesamten Lichtbereich erfassen könnte, auf den unsere Augen reagieren, kann unsere Anzeigetechnologie diesen gesamten Bereich nicht reproduzieren. Ein Teil dessen, was wir im Rohkonvertierungsprozess (oder Dunkelkammer) tun, ist zu entscheiden, wie viel der gesamten von der Kamera erfassten Informationen wir in die engere Kapazität unserer Anzeigemethoden quetschen möchten.

Die andere ist, dass unser Auge/Gehirn ein zweidimensionales Foto nicht betrachten und sich an das Licht, das es reflektiert (oder ausstrahlt), anpassen kann, so wie sich unser Auge/Gehirn an die tatsächliche Szene angepasst hätte, die auf dem Foto aufgezeichnet ist. Wir verlieren den Vorteil unseres Stereosehens, das unserem Gehirn hilft, Tiefe und Entfernung wahrzunehmen, während es ein internes „3D-Modell“ erstellt. Wir passen uns nicht in gleicher Weise an die unterschiedlichen Bereiche der hellen und dunklen Teile des Bildes an. Wir stellen uns nicht auf die verschiedenen Lichtquellen und ihre unterschiedlichen Farbtemperaturen und spektralen Verteilungen ein, die das Foto so beleuchten, wie wir es auf eine tatsächliche Szene können. Unsere Pupillen dehnen sich im Allgemeinen nicht aus oder ziehen sich zusammen, wenn wir die verschiedenen Bereiche eines kontrastreichen Fotos scannen. (Wenn wir in einem IMAX-Kino sitzen und eine Szene zeigen, die auf der einen Seite sehr dunkel und auf der anderen sehr hell ist, würden sie das vielleicht tun.) Das Licht, unter dem wir das Bild betrachten, beeinflusst auch die Farben, die wir für das Bild wahrnehmen . Deshalb gibt es bezeichnetStandard-Betrachtungsbedingungen für die kritische Untersuchung von Fotografien. Licht, das in einer natürlichen Szene polarisiert ist, ist nicht auf die gleiche Weise polarisiert, wenn es von einer Kamera erfasst und dann als Foto angezeigt wird. Viele der Dinge, die unser Gehirn verwendet, um Farben in einer tatsächlichen Szene wahrzunehmen, fehlen auf einem Foto.

Es gibt etwas Interessantes, das solche linearen Empfindlichkeitskurven nicht zeigen, aber genaue logarithmische: Die L- (und M-) Kegel haben eine zweite Empfindlichkeitsspitze im Violett. Deshalb nehmen wir eine Mischung aus Blau und Rot als eine ähnliche Farbe wie Violett wahr, obwohl ein reines Violett eine kürzere Wellenlänge hat als entweder ein reines Rot oder ein reines Blau.
@Szabolcs Was in der Antwort behandelt wird, in der es heißt: "Was sich zwischen Farbrezeptoren in menschlichen Netzhäuten und Pixeln in einem von Bayer maskierten Sensor am meisten unterscheidet, sind die Formen der Reaktionskurven ..."
Ihr Diagramm sagt "normalisierte Kegelempfindlichkeiten". Mir ist aufgefallen, dass du dazu neigst, auf Kommentare kämpferisch zu reagieren. Der Kommentar war nicht an Sie gerichtet – er richtete sich an interessierte Leser, und er korrigierte nicht, was Sie gesagt haben – er ergänzte ihn.
Ich habe den Text korrigiert, damit er mit dem Diagramm übereinstimmt. Danke für die Vorwarnung. Der Punkt bleibt, dass der Hauptzweck darin besteht, den hohen Grad an Überlappung zu zeigen, der sowohl in der menschlichen Netzhautreaktion als auch in der Reaktion des digitalen Sensors auf verschiedene Lichtwellenlängen besteht.
Ich glaube, ich war etwas abgeschreckt von der Art und Weise, wie Sie angedeutet haben, dass das Diagramm ungenau ist. Es ist nicht so sehr, dass ein Diagramm mehr oder weniger genau ist als das andere. Es ist nur so, dass das LMS-Diagramm die relativen spektralen Empfindlichkeitsunterschiede (d. h. Unterschiede in der Reaktion auf Stimuli einer einzelnen Lichtwellenlänge) bei jeder Wellenlänge zeigt, während ein XYZ-Farbanpassungsdiagramm die Reaktion auf Kombinationen von zeigt Wellenlängen, die verschiedene wahrgenommene Farben erzeugen. Siehe diese Antwort für eine gute grundlegende Beschreibung von jedem.

In der Fotografie mischen oder halten wir Farben in unterschiedlichen Anteilen und mit unterschiedlicher Intensität. Wir können die meisten Spektralfarben annähern. Unter „Spektrum“ versteht man jene Farben, die durch Reflexion von weißem Licht über ein Prisma entstehen. Mit den verfügbaren Filtern können wir sogar Magenta (Rot + Blau) und zahlreiche Violett-Schattierungen erzeugen, das sind Farben, die im Spektrum nicht zu sehen sind.

Das originalgetreue Farbbild hängt davon ab, dass eine Farbübereinstimmung erzielt wird. Es gibt zwei Arten von Farbanpassungen. Eines ist ein Übereinstimmungsverfahren, wobei eine Übereinstimmung erhalten wird, wenn die zwei Farben über Licht verschiedener Wellenlängen in den gleichen Anteilen gesehen werden. Eine andere Übereinstimmungsmethode besteht darin, die unterschiedlichen Komponentenenergien anzupassen, um die erforderliche Wirkung auf das menschliche visuelle Rezeptorsystem zu erzielen, wodurch wir eine Übereinstimmung sehen. Die Distanz zwischen den beiden Systemen ist wichtig, weil die Farbfotografie auf letzterem basiert. Mit anderen Worten, wir können die tatsächlichen physikalischen Reize, die entstehen, wenn wir tatsächlich mit der Kamera auf ein Objekt schauen, nicht mit Farbstoffen oder Pigmenten duplizieren. Wir können diese Aktion jedoch durch Manipulation des Lichts simulieren.

In der Fotografie stellen wir dieses Bild unter Verwendung der drei Primärfarben Rot, Grün und Blau dar und zeigen es an. Diese versagen jedoch, wenn wir auf Papier drucken. Um einen getreuen Druck zu machen, müssen wir die subtraktiven Primärfarben verwenden, die das Komplement (Gegenteil) der drei hellen Primärfarben sind. Dies sind die Komplemente von Blau, die Gelb sind, die Komplemente von Rot, die Cyan (Blau + Grün) sind, und die Komplemente von Grün, die Magenta (Rot + Blau) sind. In der Fotowissenschaft waren wir nie in der Lage, die genauen Farbtöne zu beschaffen, um Filter, Farbstoffe und Pigmente herzustellen.

Wir können nahe kommen, aber das getreue Bild entzieht sich uns immer noch.