Filter zur RGB-Trennung und seine Wirkung auf das Bild

Wenn man sich den Bayer-Filter einer typischen Consumer-Kamera ansieht, kann man leicht erkennen, dass die Empfindlichkeit des Filters für jede Farbe überall schwankt. Gibt es ähnliche Filter wie Bayer, die besser darin sind, die Empfindlichkeit innerhalb des eigenen Frequenzbands jeder Farbe zu trennen und zu halten? Was sind die visuellen Effekte eines solchen Filters?

Spontan würde man meinen, ein präziserer Filter würde die reale Ansicht viel besser darstellen.Canon 450D Quanteneffizienz

@Tetsujin Der Punkt ist, wie die Antworten zeigen, dass "besser" in keiner Weise "separater" bedeutet. Es gibt Hyperspektralkameras, die nicht darauf ausgelegt sind , visuell genaue Bilder zu liefern, sondern mathematisch auswertbare Spektren. Diese Kameras haben tatsächlich keine spektrale Überlappung von Kanal zu Kanal.
Ist es möglich, eine Quelle für das Bild anzugeben? Ich zitiere es in dieser Antwort . Danke!

Antworten (2)

Die spektrale Reaktion von Farbfiltern auf maskierten Bayer-Sensoren ahmt die Reaktion der drei verschiedenen Arten von Zapfen in der menschlichen Netzhaut genau nach. Tatsächlich haben unsere Augen mehr "Überlappungen" zwischen Rot und Grün als die meisten Digitalkameras.

Die „Reaktionskurven“ der drei verschiedenen Arten von Zapfen in unseren Augen:
Geben Sie hier die Bildbeschreibung ein

Eine typische Reaktionskurve einer modernen Digitalkamera:
Geben Sie hier die Bildbeschreibung ein

Die IR- und UV-Wellenlängen werden in den meisten Digitalkameras durch Elemente im Stapel vor dem Sensor gefiltert. Fast das gesamte Licht wurde bereits entfernt, bevor das Licht die Bayer-Maske erreicht. Im Allgemeinen sind diese anderen Filter im Stapel vor dem Sensor nicht vorhanden und IR- und UV-Licht werden nicht entfernt, wenn Sensoren auf spektrale Empfindlichkeit getestet werden. Wenn diese Filter nicht von einer Kamera entfernt werden, wenn sie zum Fotografieren verwendet wird, ist die Reaktion der Pixel unter jedem Farbfilter auf beispielsweise 870 nm irrelevant, da praktisch kein Signal mit 800 nm oder längerer Wellenlänge die Bayer-Maske erreichen darf.

Ohne die „Überlappung“ zwischen Rot, Grün und Blau (oder genauer gesagt, ohne die überlappende Art und Weise, wie die Empfindlichkeitskurven der drei verschiedenen Arten von Zapfen in unserer Netzhaut für Licht mit Wellenlängen um 565 nm, 540 nm und 445 nm geformt sind) wäre dies der Fall Farben nicht so wiedergeben können, wie wir viele von ihnen wahrnehmen. Unser Sehsystem Auge/Gehirn erzeugt Farben aus Kombinationen und Mischungen verschiedener Lichtwellenlängen. Ohne die Überlappung der Art und Weise, wie die Zapfen in unserer Netzhaut auf Licht verschiedener Wellenlängen reagieren, wären wir nicht in der Lage, Farben so zu konstruieren, wie wir es tun.Es gibt keine Farbe, die einer bestimmten Wellenlänge des sichtbaren Lichts eigen ist. Es gibt nur die Farbe, die unser Auge/Gehirn einer bestimmten Wellenlänge oder Kombination von Lichtwellenlängen zuordnet. Viele der unterschiedlichen Farben, die wir wahrnehmen, können nicht durch eine einzige Lichtwellenlänge erzeugt werden.

Der Grund, warum wir RGB zur Reproduktion von Farben verwenden, liegt nicht darin, dass RGB der Natur des Lichts innewohnt. Es ist nicht. Wir verwenden RGB, weil es der trichromatischen Art und Weise innewohnt, wie unser Auge/Gehirn-System auf Licht reagiert.

Wenn wir einen Sensor erstellen könnten, bei dem die "blauen" gefilterten Pixel nur für 445-nm-Licht empfindlich wären, wären die "grünen" gefilterten Pixel nur für 540-nm-Licht empfindlich und die "roten" gefilterten Pixel nur für empfindliches Licht565-nm-Licht würde es kein Bild erzeugen, das unsere Augen als irgendetwas erkennen würden, das der Welt ähnelt, wie wir sie wahrnehmen. Zunächst einmal würde fast die gesamte Energie des „weißen Lichts“ daran gehindert, jemals den Sensor zu erreichen, sodass er weit weniger lichtempfindlich wäre als unsere derzeitigen Kameras. Jede Lichtquelle, die kein Licht mit einer der oben aufgeführten genauen Wellenlängen emittiert oder reflektiert, wäre überhaupt nicht messbar. Die überwiegende Mehrheit einer Szene wäre also sehr dunkel oder schwarz. Es wäre auch unmöglich, zwischen Objekten, die VIEL Licht bei beispielsweise 490 nm und keinem bei 615 nm reflektieren, und Objekten zu unterscheiden, die VIEL 615-nm-Licht, aber keins bei 490 nm reflektieren, wenn beide die gleiche Lichtmenge bei 540 nm und 565 nm reflektieren würden . Es wäre unmöglich, viele der verschiedenen Farben, die wir wahrnehmen, voneinander zu unterscheiden.

Denken Sie daran, wie es ist, wenn wir rotes Licht mit sehr begrenztem Spektrum sehen. Es ist unmöglich, den Unterschied zwischen einem roten und einem weißen Hemd zu erkennen. Beide erscheinen in unseren Augen in der gleichen Farbe. In ähnlicher Weise sieht unter rotem Licht mit begrenztem Spektrum alles, was blau ist, sehr ähnlich aus, als wäre es schwarz, da es kein rotes Licht reflektiert, das darauf scheint, und es gibt kein blaues Licht, das darauf scheint, um reflektiert zu werden.

Die ganze Idee, dass Rot, Grün und Blau von einem "perfekten" Farbsensor diskret gemessen werden, basiert auf oft wiederholten Missverständnissen darüber, wie maskierte Bayer-Kameras Farben reproduzieren (Der Grünfilter lässt nur grünes Licht durch, der Rotfilter nur rotes Licht zum Überholen usw.). Es basiert auch auf einem Missverständnis darüber, was „Farbe“ ist.

Wie maskierte Kameras von Bayer Farben reproduzieren

Raw-Dateien speichern nicht wirklich Farben pro Pixel. Sie speichern nur einen einzigen Helligkeitswert pro Pixel.

Es stimmt, dass bei einer Bayer-Maske über jedem Pixel das Licht entweder mit einem Rot-, Grün- oder Blaufilter über jedem Pixel gefiltert wird. Aber es gibt keine harte Grenze, bei der nur grünes Licht zu einem grün gefilterten Pixel oder nur rotes Licht zu einem rot gefilterten Pixel durchkommt. Es gibt viele Überschneidungen. Durch den Grünfilter dringt viel rotes Licht und etwas blaues Licht. Viel grünes Licht und sogar etwas blaues Licht gelangt durch den Rotfilter, und etwas rotes und grünes Licht wird von den blau gefilterten Pixeln aufgenommen. Da eine Rohdatei ein Satz einzelner Luminanzwerte für jedes Pixel auf dem Sensor ist, enthält eine Rohdatei keine tatsächlichen Farbinformationen. Die Farbe wird abgeleitet, indem benachbarte Pixel, die für eine von drei Farben gefiltert wurden, mit einer Bayer-Maske verglichen werden.

Jedes Photon, das mit der entsprechenden Frequenz für eine „rote“ Wellenlänge vibriert, das es durch den grünen Filter schafft, wird genauso gezählt wie jedes Foto, das mit einer Frequenz für eine „grüne“ Wellenlänge vibriert, das es in denselben Pixelschacht schafft.

Das ist so, als würde man beim Schwarz-Weiß-Filmen einen Rotfilter vor das Objektiv setzen. Es führte nicht zu einem monochromatischen roten Foto. Es ergibt auch kein Schwarzweißfoto, bei dem nur rote Objekte überhaupt hell sind. Vielmehr erscheinen rote Objekte, wenn sie in Schwarzweiß durch einen Rotfilter fotografiert werden, in einem helleren Grauton als grüne oder blaue Objekte, die in der Szene dieselbe Helligkeit aufweisen wie das rote Objekt.

Auch die Bayer-Maske vor monochromatischen Pixeln erzeugt keine Farbe. Es ändert den Tonwert (wie hell oder wie dunkel der Luminanzwert einer bestimmten Lichtwellenlänge erfasst wird) verschiedener Wellenlängen um unterschiedliche Beträge. Wenn die Tonwerte (Grauintensitäten) benachbarter Pixel, die mit den drei verschiedenen Farbfiltern gefiltert wurden, die in der Bayer-Maske verwendet werden, verglichen werden, dann können Farben aus diesen Informationen interpoliert werden. Dies ist der Prozess, den wir als Demosaikierung bezeichnen .

Was ist „Farbe“?

Denken Sie daran, dass die Gleichsetzung bestimmter Lichtwellenlängen mit der "Farbe", die Menschen wahrnehmen, dass diese bestimmte Wellenlänge eine falsche Annahme ist. „Farbe“ ist in hohem Maße ein Konstrukt des Auge/Gehirn-Systems, das sie wahrnimmt, und existiert überhaupt nicht in der elektromagnetischen Strahlung, die wir „sichtbares Licht“ nennen. Während Licht, das nur eine diskrete einzelne Wellenlänge hat, von uns als eine bestimmte Farbe wahrgenommen werden kann, ist es ebenso wahr, dass einige der Farben, die wir wahrnehmen, nicht durch Licht erzeugt werden können, das nur eine einzige Wellenlänge enthält.

Der einzige Unterschied zwischen „sichtbarem“ Licht und anderen Formen von EMR, den unsere Augen nicht sehen, besteht darin, dass unsere Augen auf bestimmte Wellenlängen von EMR chemisch ansprechen, während sie auf andere Wellenlängen nicht chemisch ansprechen. Maskierte Bayer-Kameras funktionieren, weil ihre Sensoren die Art und Weise nachahmen, wie unsere Netzhaut auf sichtbare Lichtwellenlängen reagiert, und wenn sie die Rohdaten vom Sensor zu einem sichtbaren Bild verarbeiten, ahmen sie auch die Art und Weise nach, wie unser Gehirn die von unserer Netzhaut gewonnenen Informationen verarbeitet.

Ausgezeichneter Schreibstil, ich hoffe, das hilft vielen Leuten. Haben Sie dennoch einen Kommentar zu der genauen Fragestellung, mit deren Hilfe man die "RGB-Farben" mit sehr geringer Überlappung und ohne eine nennenswerte Rolle von Ultraviolett und Infrarot nachbilden könnte?
IR und UV werden in den meisten Digitalkameras durch Elemente im Stapel vor dem Sensor gefiltert. Das meiste Licht wurde bereits entfernt, bevor das Licht die Bayer-Maske erreicht. Wenn diese Filter nicht entfernt werden, ist die Reaktion der Pixel unter jedem Farbfilter auf beispielsweise 800 nm irrelevant, da praktisch kein 800-nm-Signal die Bayer-Maske erreichen darf.
Was ist der Zweck des Wunsches nach „sehr geringer Überlappung“? Ohne Überlappung existiert Farbe, wie wir sie wahrnehmen, nicht.
So wie wir sie wahrnehmen – ja. Sie würden jedoch immer noch ein Bild sehen und es würde auf den drei unterschiedlichen Spitzen von Rot/Grün/Blau basieren. Es wäre anders, aber es wäre nicht bedeutungslos.
Die eigentliche Definition von „Farbe“ ist das, was wir wahrnehmen. „Farbe“ ist keine physikalische Eigenschaft von irgendetwas im Universum. „Farbe“ ist das, was wir wahrnehmen, wenn wir das physikalische Universum betrachten. Ohne Wahrnehmung gibt es keine Farbe. Es gibt nur elektromagnetische Strahlung einer bestimmten Wellenlänge. Wir können keine Radiowellen sehen, obwohl es keinen grundlegenden Unterschied zwischen sichtbarem Licht gibt bei Wellenlängen von 540 Nanometern und FM-Funksignalen mit Wellenlängen von 2,77–3,4 Metern oder AM-Funksignalen mit Wellenlängen von 187–545 Metern.
Ich bin mir nicht sicher, ob es "Filter" im Sinne von etwas gibt, das vor einem CMOS-Sensor platziert werden könnte, der das Licht so begrenzen könnte, dass Photonen, die sich mit Wellenlängen von nur 445 nm, 540 nm bzw. 565 nm bewegen, passieren könnten. Es gibt sicherlich andere Instrumente, wie Spektrometer, die die Intensität sehr schmaler Banden messen können. Aber wenn Sie das für mehrere Millionen Pixel tun könnten, die auf einen Sensor in Kameragröße passen würden, würden Sie nicht viel von irgendetwas Erkennbarem sehen. Sie würden mehr als 99 % der Energie des "weißen Lichts" daran hindern, jemals den Sensor zu erreichen.
Gute Antwort. Es ist vielleicht noch komplizierter. Die Tristimulus-Anpassungsfunktion CIE 1931 hat negative Werte für Rot zwischen ~450 und ~550 nm. en.wikipedia.org/wiki/CIE_1931_color_space#/media/…
"Es wäre anders, aber es wäre nicht bedeutungslos." Nur wenn man ein Bild, das überwiegend schwarz ist, für nicht bedeutungslos hält.

Der Farbfilter soll die Farbwahrnehmung unserer Augen nachahmen, er tut dies unvollkommen, aber normalerweise gut genug. Die Art und Weise, wie wir die Farbwahrnehmung verstehen, basiert auf der gegensätzlichen Prozesstheorie.Zum Beispiel können Sie sehen, dass die Empfindlichkeit des "roten" Filters bimodal ist, dies soll die Augenwahrnehmung von "rot" sowohl bei sehr niedrigen als auch bei hohen Wellenlängen nachahmen. Ein weiteres Merkmal des obigen Diagramms sind die relativ breiten Frequenzbänder, die die Reaktion des Auges auf das Farbspektrum nachahmen. Wenn die Bänder zu schmal wären, würde monochromatisches Licht zwischen den Maxima zu dunkel erscheinen. Das "schreckliche" Plateau und die Artefakte über etwa 700 nm werden tatsächlich durch den IR-Filter auf dem Sensor abgeschnitten, sodass diese Photonen nicht registriert werden. Die Filter sind nicht perfekt, aber meines Wissens sind sie durch die Wirtschaftlichkeit des CCD-Array-Herstellungsprozesses etwas eingeschränkt.

Für eine alternative Art der Registrierung von Farbinformationen siehe a) den Foveon-Sensor, obwohl seine Bänder noch breiter sind. b) 3 CCD-Systeme (allerdings nur zum Aufnehmen von Filmen), die angeblich eine bessere Farbgenauigkeit bieten, indem sie die Farbreaktion unserer Augen genauer nachahmen (obwohl moderne DSLRs eine ziemlich gute Farbgenauigkeit haben). Die Toleranzen des Herstellungsprozesses erlauben nur große Fotoseiten, die einer Auflösung von 1-2 MP entsprechen, so dass dies in der Standfotografie derzeit nicht machbar ist.


Bearbeiten Für eine bessere Erklärung, wie Zapfen in unseren Augen in Farbe übersetzt werden, wie es von der gegnerischen Prozesstheorie verstanden wird, siehe: http://www.huevaluechroma.com/014.php
Dies wirft die Frage auf, ob a) das blaue Band nicht sein sollte schmaler sollte es eigentlich nicht sein, und wenn es nicht besser wäre, statt eines weiteren grünen Pixels im Bayer-Array einfach einen gelben Breitbandfilter hinzuzufügen, um die menschliche Wahrnehmung noch näher nachzuahmen. Dies kann in der Farbinterpolation während des Demosaikierens implementiert werden, und weniger grüne Pixel können unerschwinglich mehr Luminanzrauschen bedeuten. Vielleicht weiß jemand mit mehr Erfahrung in der CCD-Array-Technologie, warum dies nicht getan wird

Die "roten" Filter in den meisten Bayer-Masken sind tatsächlich irgendwo zwischen einem leicht grünen Gelbton und einem gelblich-orangen Farbton (irgendwo zwischen 560-580 nm) zentriert. Sie sind nicht wirklich "rot" (640nm).
Wir verwenden echtes Rot in unseren emittierten Displays. Aber die von Sensoren mit Empfindlichkeitsspitzen um 455, 545 und 680 Nanometer gesammelten Werte werden in die Werte übersetzt, die von einem Gerät benötigt werden, das bei etwa 480, 535 und 640 nm emittiert, um die gleiche Reaktion in der menschlichen Netzhaut zu erzeugen.
Der vorherige Kommentar sollte lauten: „Wir verwenden tatsächlich Rot in unseren emittierten Displays. Aber die von Sensoren mit Empfindlichkeitsspitzen um 455, 545 und 580 Nanometer gesammelten Werte werden in die Werte übersetzt, die von einem Gerät benötigt werden, das bei etwa 480, 535 emittiert und 640 nm, um die gleiche Reaktion in der menschlichen Netzhaut hervorzurufen."