Warum wird ein Bayer-Filter mit drei Farben (RGB) einem mit zwei Farben und ungefiltert (RBNeutral) vorgezogen?

Der Bayer-Filter besteht aus Rot-, Grün- und Blaufiltern, die vor einem Sensorarray angeordnet sind, um einen Rückschluss auf die Farbe des auf den Sensor einfallenden Lichts zu ermöglichen. Ein Nachteil dieser Methode ist, dass ungefähr 2/3 des Lichts nicht erkannt werden (genaue Menge abhängig vom Licht und der Konfiguration des Filters).

Eine alternative Bayer-Filterkonfiguration könnte nur zwei farbige Filter (Rot, Blau) und einen dritten ungefilterten Bereich (Neutral) haben. Der Grünwert würde aus Grün = Neutral – Rot – Blau abgeleitet.

Ich vermute, dass dieses alternative Design die folgenden Merkmale haben würde:

Vorteile:

  1. Diese Filterkonfiguration würde weniger Licht ablehnen -> bessere Gesamtempfindlichkeit
  2. Ein weniger Material, das im Herstellungsprozess verwendet wird

Nachteile:

  1. Größeres Farbrauschen
  2. Kantenartefakte (kann die Farbe nicht korrekt bestimmen, wenn das gesamte RBN-Pixel nicht gleichmäßig beleuchtet ist)

Meine Frage ist also, was ist der Hauptgrund, warum wir keine Produkte sehen, die den oben beschriebenen alternativen Farbfilter enthalten?

Sind Sie sicher, dass Sie G aus NRB bestimmen können??? Vergessen Sie nicht, dass der nackte Sensor für ein breites Wellenlängenspektrum empfindlich ist, nicht nur für R/G/B...
@DigitalLightcraft Sie könnten tatsächlich den Grünwert berechnen, der Sensor hat bereits IR- und UV-Sperrfilter davor. So funktioniert im Wesentlichen der Foveon-Sensor, die oberste Schicht ist empfindlich für Rot, Grün und Blau.
Ja, das unsichtbare Spektrum ist blockiert, aber sicherlich würden alle anderen sichtbaren Wellenlängen zwischen Reg, Grün und Blau die Ergebnisse verzerren, da die Schätzung von Grün ausschließlich auf der Leuchtdichte ALLEN empfangenen Lichts basieren würde ...?? Ich bin daran interessiert, die Antwort darauf zu wissen! :-)
Dies könnte von Interesse sein ... "Panchromatische Zellen": en.wikipedia.org/wiki/Bayer_filter#.22Panchromatic.22_cells
@DigitalLightcraft Danke. Es ist interessant zu sehen, dass viele andere Variationen als RGB es auf den Markt geschafft haben. Abgesehen von CYM, das vor einiger Zeit von Kodak verwendet wurde, haben jedoch alle Variationen vier Farben verwendet.

Antworten (3)

Aufgrund der Überlappung zwischen den Reaktionen der Bayer-Filterfarbstoffe liegt der Lichtverlust näher bei 50 % (eine Blende) als bei zwei Dritteln.

Ihr Schema würde funktionieren, aber auf Kosten der Farbgenauigkeit und Farbauflösung (der Demosaikierungsprozess wäre weniger eingeschränkt und fehleranfälliger). Zusammen mit dem eher bescheidenen Empfindlichkeitsgewinn (bis zu 25 % je nach Layout) erklärt dies die Verbreitung von RGB-Bayer-Sensoren.

Ein besserer Ansatz wäre wahrscheinlich, die Reaktion aller Farbstoffe zu erweitern, sodass Sie einen CMY-Sensor erhalten. Es gelten jedoch die gleichen Nachteile, und Sie gewinnen immer noch nicht viel an Empfindlichkeit.

Ja, CMY wäre nach meiner ursprünglichen Argumentation besser. Mir war vorher nicht bewusst, dass es bereits gemacht und in eine dSLR von Kodak gesteckt wurde. en.wikipedia.org/wiki/CYYM_filter
Bayerfilter ist eine knifflige Sache. Die angezeigten Diagramme sind normalisiert und enthalten nicht die tatsächliche Skalierung. Summieren Sie die Werte für verschiedene Wellenlängen und Sie werden sehen, dass sie kleiner als 3 sind (der ideale Sensor hätte es) .

Es gibt verschiedene alternative Farbsysteme, die in der Vergangenheit ausprobiert wurden, aber letztendlich läuft es darauf hinaus, dass Bayer „gut genug“ ist und andere Technologien sich nicht durchsetzen. Das „Dual-Pixel“-Design der frühen Fuji-DSLRs fällt einem sofort als großartige Idee ein, die letztendlich nicht genug Nutzen brachte (obwohl der Dynamikbereich weitaus besser war als bei den anderen DSLRs, die zu dieser Zeit im Handel waren).

Sie müssen einige technische Herausforderungen bewältigen - Sie müssen Pixel mit unterschiedlichen Empfindlichkeiten zusammenstellen (weil auf das N weitaus mehr Licht treffen würde als auf RB), was das Engineering schwieriger macht, nicht massiv mehr, aber genug, um die Kosten zu erhöhen, so dass Bedarf besteht ein Vorteil sein. Sie müssen auch mehr verarbeiten.

Sie haben etwas Physik darin, dass das Licht, das auf den Neutralleiter trifft, ein breites Spektrum ist, das UV und IR umfasst. Das Filtern reduziert nur diese Wellenlängen, es entfernt sie nicht vollständig.

Sie haben Akzeptanzbarrieren, da Sie Anwendungen benötigen würden, die mit Rohdateien arbeiten, um mit Ihrem unterschiedlichen Rohsystem umgehen zu können. Die Leute werden es umsetzen, aber es müsste sich erst wirklich bewähren. Und da Sie sowieso etwas anzeigen/bearbeiten werden, das RGB ist, haben Sie Arbeit für etwas hinzugefügt, das im Wesentlichen unsichtbar ist.

Aber letztendlich muss sich alles auszahlen, und Sie können darauf wetten, dass in den Labors von Nikon, Canon, Sony, Sigma, Fuji, Global Foundries, TSMC und dergleichen alle lange und intensiv nachgedacht und viele Experimente durchgeführt haben, die kommen werden zu dem Schluss, dass die Vorteile (sofern vorhanden) eines Systems wie des vorgeschlagenen die Kosten nicht rechtfertigen würden.

Das ist ein guter Punkt über die Unannehmlichkeiten des N-Kanals, der immer ein viel höheres Signal hat.
Ich kann bei Fuji-DSLRs keine Erwähnung dieses „Dual-Pixel“ finden. Ist es dasselbe wie eines von EXR oder X-Trans, das auf der Wikipedia-Seite erwähnt wird: en.wikipedia.org/wiki/Bayer_filter ?
@BrianKubera Er spricht über den Fuji Super CCD SR: dpreview.com/articles/6851251325/fujisuperccdsr
@MattGrum - das ist es ... Ich wusste, ich hätte damals darauf verweisen sollen!
@ BrianKubera - nun, das wird Ihnen beibringen, Wikipedia zu verwenden. :)

Die Art von Mosaik, von der Sie sprechen, ist RGBW. Es ist komplex zu sagen, warum es nicht verwendet wird, und ich kann Sie falsch informieren. Ich darf wenigstens auf eine Sache hinweisen, die meiner Meinung nach am wichtigsten ist.

Meine Frage ist also, was ist der Hauptgrund, warum wir keine Produkte sehen, die den oben beschriebenen alternativen Farbfilter enthalten?

Jeder Kanal des Ausgabebildes wird aus allen drei Kanälen der Sensorausgabe aufgebaut – sie werden durch Matrixkonvertierung gemischt. Je weiter die spektrale Empfindlichkeit eines Sensors von der LMS-Reaktion entfernt ist, desto größer ist der Fehler, den diese Umwandlung einführt. Weiß ist so etwas wie das schlimmste Szenario. Angenommen, es ist Ihnen gelungen, einen WKanal zu erstellen, der gleich ist R+G+B. Um dann jede Komponente aus diesem Kanal mit benachbarten Werten zu erhalten, müssen Sie berechnen R=W-G-Bund so weiter. Dies führt zu sehr großen Fehlern und macht wahrscheinlich alle Vorteile zunichte, überhaupt einen WKanal zu haben. Gleiches gilt für CMYK-Sensoren: Sie erfordern sehr starke Konvertierungskoeffizienten, die Farbfehler einführen.

Die CMYK- und RGBW-Kameras erzeugen bei gleicher Lichtmenge ein besseres Mono-konvertiertes Bild, aber RGB-Sensoren erzeugen ein besseres RGB-Bild, obwohl ihre Quanteneffizienz der Hälfte der CMYK-Sensoren entspricht – dies geschieht einfach aufgrund von Rauschquellen.

Meine Vermutung ist, dass ein optimales Sensormosaik (dh das Erzeugen des kleinsten Rauschens für eine bestimmte Lichtmenge) 1: 1: 1 RGB anstelle von 1: 2: 1 RGB wäre und die Antworten nahe an der LMS-Antwort liegen würden, aber ich kann es nicht Sichern Sie diese Aussage ATM.

Ein Nachteil dieser Methode ist, dass ungefähr 2/3 des Lichts nicht erkannt werden (genaue Menge abhängig vom Licht und der Konfiguration des Filters).


Aufgrund der Überlappung zwischen den Reaktionen der Bayer-Filterfarbstoffe liegt der Lichtverlust näher bei 50 % (eine Blende) als bei zwei Dritteln.

Beide Aussagen sind weit entfernt von der realen Welt. Die Canon 5D Mark II verliert 2/3 bis 4/5 des Lichts an den Spitzen der Empfindlichkeit und im Vergleich zu idealen (unmaskierten) Monosensoren verliert sie satte 9/10 des gesamten Lichts (d. h. das Monobild der Bayer-Kamera hat ungefähr das gleiche Rauschen wie das Bild einer Monokamera, das aus 1/10 des Lichts besteht).

Schauen Sie sich die Skala auf der linken Seite der Grafik an:Canon 5D Mark II QE

Modernere Kameras sind vielleicht besser darin, aber ich habe keine Daten zum Vergleichen. Es gibt andere Ursachen für Lichtverlust als Mosaikmuster.

FWIW, Fujifilm verwendet tatsächlich 2:5:2 RGB.
@mattdm: Ich wusste nichts davon und es ist richtig. Ich habe den Anwendungsbereich jedoch auf Bayer-Sensoren beschränkt, und X-Trans ist keiner. Außerdem ist 2:5:2 noch schlechter als 1:2:1.
Ja, ich habe es tatsächlich angesprochen, weil das, wie Sie sagen, "schlechter" ist, aber es ist ein interessanter Vergleich, weil es sich AFAIK um einen Sony-Sensor darunter handelt, ähnlich dem hoch angesehenen, der in den 16-MPix-Nikon / Pentax / Sony-Kameras verwendet wird - aber mit dem unterschiedlichen Muster.