Warum reagieren Farbkanäle einer Digitalkamera leicht auf Licht anderer Farben?

Ich versuche Hochgeschwindigkeitsfotografie in Dunkelkammern mit der einfachen CMOS-Webkamera Logitec c270. Ich blitze rotes oder blaues Licht und nehme Bilder auf. Dann trenne ich es in Photoshop auf Kanäle. Dort kann ich sehen, dass alle Kanäle eine gewisse Belichtung haben, anstatt nur den Kanal der Blinkerfarbe. Wenn zB ein roter Blinker verwendet wird, ist das Bild im roten Kanal klar, aber der grüne Kanal hat auch ein schattiertes Bild. Dieses Phänomen wird schlimmer, wenn der Blinker heller ist.

Kann mir bitte jemand erklären, wie das passiert und wie ich das wegbekomme?

Können Sie näher erläutern, was Sie damit erreichen möchten und warum dies ein Problem darstellt?
@mattdm ein laufendes Experiment zu PIV
Ihre Anforderungen sind möglicherweise nicht wirklich für diese Website geeignet, die sich auf Fotografie um der Fotografie willen konzentriert, anstatt Kameras für Messungen zu verwenden.
@mattdm Ich möchte nicht, dass die Anforderung erfüllt wird. und es kann nicht getan werden. Ich möchte diese spezielle Sache herausfinden. Wenn die Leute etwas nicht wissen, neigen sie dazu, es zu umgehen und die Anforderung auf andere Weise zu decken. Andere Möglichkeiten will ich mir nicht ausdenken. es geht nicht um PIV. Es ist eine spezifische Frage zur Fotografie.

Antworten (2)

Dafür gibt es mindestens zwei Gründe:

  1. Es gibt nur sehr wenige reine Lichtquellen (einzelnes / schmales Frequenzband). Das heißt, Ihr rotes Licht ist nicht streng auf das "rote" Ende des sichtbaren Lichtspektrums beschränkt. Es emittiert Licht im gelb/grünen Bereich des Spektrums (und wahrscheinlich auch nur ein wenig im blauen). Ebenso ist Ihr blaues Licht nicht auf den blauen Bereich des sichtbaren Lichtspektrums beschränkt.

    Laser in Laborqualität emittieren sehr schmale Lichtspektren. Sie sind wahrscheinlich die nächstgelegene "einfarbige" Lichtquelle, die Sie verwenden können. Die meisten anderen Lichtquellen haben viel breitere Emissionsspektren.

  2. Die Lichtfrequenzempfindlichkeiten der farbgefilterten Fotoseiten in Ihrem CMOS-Sensor überschneiden sich erheblich. Das heißt, die rot erkennenden Sensorpixel (genauer gesagt die "rötliche" Erkennung) überlappen ziemlich weit in das grünliche Spektrum hinein. Die bläulichen Pixel reagieren auch ein wenig auf grünliches und rötliches Licht.

    Sie können nichts dagegen tun. Dreifarbige Bildsensoren ahmen die Reaktion des menschlichen Auges auf Licht nach. Die „durchschnittlichen“ oder „normalen“ Farbrezeptoren des menschlichen Auges haben, obwohl sie als rot, grün und blau beschrieben werden, eine große Überlappung in der Lichtfrequenz. Dies gilt insbesondere für die Rot- und Grünrezeptoren, so dass die häufigste Form von Farbmangel oder Farbenblindheit Rot-Grün ist. Das liegt daran, dass sich der Frequenzgang der Rot- und Grünzapfen bei Rot-Grün-defizienten oder farbenblinden Menschen so stark überlappt, dass sie rötliche Farbtöne nicht von grünlichen Farbtönen unterscheiden können.

Wenn Sie mehr Farbtrennung wünschen, müssen Sie sich bessere / reinere Lichtquellen für Farben besorgen. Aber selbst wenn Sie eine hellblaue Lichtquelle mit einer Frequenz und eine rote Lichtquelle mit einer Frequenz verwenden, werden sie wahrscheinlich bis zu einem gewissen Grad von den grünen Sensoren erfasst.

Interessante Kleinigkeit, es gibt ein Unternehmen, das Brillen für farbenblinde Personen herstellt, die eine Kerbe in den Überlappungsbereich zwischen Rot und Grün setzen. Indem diese Rezeptoren im Auge weniger überlappend gemacht werden, können manche Menschen zum ersten Mal in voller Farbe sehen!
@MarkRansom spricht über Enchroma? Ja, sie haben eine ziemlich interessante Sache am Laufen, aber wie Sie sagten, ist es im Grunde nur ein Schmalbandfilter, um die Trennung zu erhöhen. Ich habe sie mir angeschaut. Ich gehöre zu den Menschen, die wahrscheinlich ziemlich gut profitieren würden (mild deutan) (rg defizient). Ich habe nur noch nicht auf den Auslöser gedrückt. Trägheit, nehme ich an.
Ich konnte mich nicht an den Firmennamen erinnern, aber Enchroma kommt mir bekannt vor. Es ist eines dieser Dinge, die zu gut klingen, um wahr zu sein, aber die Theorie scheint tatsächlich plausibel. Wenn es für Sie funktioniert, bin ich sicher, dass die Erfahrung wirklich überwältigend wäre.
@MarkRansom Wenn man den Videos von Menschen, die zum ersten Mal Farbe sehen, glauben kann, dann sieht es nach einem großartigen Produkt aus. Ich sollte sie einfach holen...
@scottbb Ich habe eine billige 3-W-Hochleistungs-RGB-LED verwendet. Ich werde es mit rotem Laser versuchen. Ich vermutete einen Ladungsüberlauf im Sensor, wie Blooming in den CCD-Kameras. Ist es nicht der Fall?
@TRINE, das könnte sicherlich ein Beitrag sein, aber das ist eine tertiäre Erklärung. Mein Punkt Nr. 2 oben ist wahrscheinlich der Hauptgrund dafür, dass die rote LED in den grünen und sogar blauen Farbkomponentenwerten erscheint. Siehe das zweite Diagramm in dieser Antwort auf die Photo.SE-Frage: Warum sind Sensoren weniger empfindlich gegenüber blauem Licht?
Es ist wirklich alles #2. Im Vergleich zu #2 ist der Einfluss von #1 minimal.

Warum reagieren Farbkanäle einer Digitalkamera leicht auf Licht anderer Farben?

Denn die Filter, die vor dem Silizium eines Bayer-Maskenfilters platziert sind, lassen alle einen Teil aller Wellenlängen des sichtbaren Lichts durch. Sie lassen einfach mehr Licht bei Wellenlängen in der Nähe der Farbe jedes Filters passieren.

In den Tagen der Schwarzweiß-Filmfotografie wurden häufig Farbfilter verwendet. Auf den ersten Blick mag das etwas komisch klingen. Aber was Farbfilter bei der Schwarzweißfotografie ermöglichen, ist die Trennung der ähnlichen Helligkeit von zwei Objekten unterschiedlicher Farbe. Wenn man eine rote Blume und eine grüne Blume in einer Szene hat und beide die gleiche Helligkeit haben, dann würde ein ungefiltertes Schwarzweißfoto beide mit dem gleichen Grauton zeigen. Stellt man einen Rotfilter vor die Kamera, lässt man mehr Licht der roten Blume durch den Filter als das Licht der grünen Blume. Jetzt hat die rote Blume einen helleren Grauton als die grüne auf unserem Foto. Aber wir können immer noch Details in der grünen Blume sehen, sie sind nur dunkler als vorher.Alles, was nicht exakt denselben Rotton hat wie der Filter, wird auf unserem Foto nicht rein schwarz. Der Rotfilter hat nicht alles grüne Licht eliminiert, er hat nur grünes Licht im Vergleich zu rotem Licht gleicher Intensität reduziert .

„Alles, was nicht genau denselben Rotton hat wie der Filter, wird auf unserem Foto nicht rein schwarz.“

Doch das scheinen viele Leute von den Bayer-Masken auf digitalen Bildsensoren zu erwarten - sie scheinen zu glauben, dass nur ein Bereich grüner Wellenlängen durch den Grünfilter und nur ein Bereich roter Wellenlängen durch den Rotfilter gelangt. und nur ein Bereich blauer Wellenlängen schafft es durch den Blaufilter.

Die Farbfilter-Arrays auf maskierten Bayer-Bildsensoren funktionieren genauso wie Farbfilter bei der Schwarzweißfotografie. Jeder Sensor (a/k/a Pixelwell) in einem bildgebenden Sensor zeichnet einen einzigen Helligkeitswert auf. Das gesamte Licht, das den darüber liegenden Filter passiert hat, wird gleichermaßen aufgezeichnet, unabhängig von der Wellenlänge dieses Lichts¹. Auch die Farbfilter eines Bayer-Sensors funktionieren ähnlich wie die Zapfen in unserer Netzhaut. Aus diesem Grund können ein maskierter Bayer-Sensor und ein RGB-Anzeigegerät Farben reproduzieren, die für unsere Augen „richtig“ aussehen. Sie verwenden dieselben drei Kanäle wie unser Auge/Gehirn-System, um die Farben zu erzeugen, die wir wahrnehmen.

¹ Technisch gesehen variiert die Reaktion durch die Reaktion des Siliziumwafers auf verschiedene Lichtwellenlängen, wenn sich keine Farbmaske davor befindet. Aber die Reaktion auf ein "blaues" Photon, das durch den Bayer-Filter geht, hat genau die gleiche Wirkung auf einen rot-, grün- oder blaugefilterten Sensor. Es ist nur so, dass weniger "blaue" Photonen, die auf die Vorderseite der Bayer-Maske treffen, durch die roten und grünen Filter gelangen als durch den blauen.