Warum bieten Kameras nicht mehr als 3 Farbkanäle? (Oder haben sie?)

Derzeit erfassen die meisten (alle?) im Handel erhältlichen Kameras Licht in drei Farbkanälen: Rot, Grün und Blau. Eine Kamera mit größerem Spektralbereich und größerer Auflösung scheint mir sehr sinnvoll zu sein, weshalb ich mich frage, warum es keine Kameras gibt, die mehr als drei Farbkanäle erfassen.

Was meine ich genau?

In den Kommentaren (inzwischen gelöscht) gab es einige Fragen zu dem, was ich meinte, daher möchte ich eine bessere Erklärung geben. Sichtbares Licht reicht von etwa 390–700 nm Wellenlänge. Zwischen diesen beiden Endpunkten liegen unendlich viele Wellenlängen, aber das Auge hat eine sehr begrenzte Fähigkeit, sie zu unterscheiden, da es nur drei Farbfotorezeptoren hat. Die Reaktionskurven für diese sind in Teil (a) der folgenden Abbildung dargestellt. ( Größere Version .) Dadurch können wir je nach Lichtfrequenz unterschiedliche Farben sehen, da Licht mit niedriger Frequenz eine stärkere Wirkung auf die blauen Rezeptoren und hochfrequentes Licht eine stärkere Wirkung auf die roten Rezeptoren hat.

Geben Sie hier die Bildbeschreibung ein

Ein digitaler Sensor in einer Kamera arbeitet mit Filtern vor seinen Pixeln, und normalerweise gibt es drei Arten von Filtern. Diese werden mit Reaktionskurven ausgewählt, die der Abbildung (a) oben so nahe wie möglich kommen, um das nachzuahmen, was das menschliche Auge sieht.

Technisch gesehen gibt es jedoch keinen Grund, warum wir nicht einen vierten Filtertyp hinzufügen könnten, beispielsweise mit einem Peak zwischen Blau und Grün, wie in Abbildung (b) gezeigt. Im nächsten Abschnitt erkläre ich, warum das für die Nachbearbeitung von Fotos nützlich wäre, obwohl es nicht dem entspricht, was das Auge sehen kann.

Eine andere Möglichkeit wäre, zusätzliche Kanäle im Infraroten oder Ultravioletten hinzuzufügen, wie in Abbildung (c) gezeigt, wodurch der Spektralbereich der Kamera erweitert wird. (Dies ist wahrscheinlich technisch anspruchsvoller.)

Eine dritte Möglichkeit wäre schließlich, den Frequenzbereich noch feiner aufzuteilen, wodurch eine Kamera mit hoher spektraler Auflösung entsteht. In dieser Version müssten die üblichen RGB-Kanäle per Software aus den feinkörnigeren Daten konstruiert werden, die der Sensor liefert.

Meine Frage ist, warum DSLRs normalerweise keine dieser Optionen außer (a) anbieten und ob es Kameras gibt, die eine der anderen bieten. (Ich frage nach der Art von Kamera, die Sie zum Fotografieren verwenden würden - ich weiß, dass es wissenschaftliche Instrumente gibt, die diese Art von Funktionen bieten.)

Warum wäre das nützlich?

Ich habe mit der Bearbeitung von Schwarzweißfotos herumgespielt, von Farbaufnahmen, die mit meiner DSLR aufgenommen wurden. Ich finde diesen Prozess interessant, weil beim Bearbeiten eines Schwarzweißfotos die drei RGB-Kanäle einfach zu Quellen von Daten über die Szene werden. Die tatsächlichen Farben, die sie darstellen, sind in gewisser Weise fast irrelevant - der Blaukanal ist vor allem deshalb nützlich, weil sich Objekte in der Szene in der Lichtmenge unterscheiden, die sie in diesem Wellenlängenbereich reflektieren, und in der Tatsache, dass sie dem entspricht, was das menschliche Auge sieht "blau" ist viel weniger relevant.

Die drei Kanäle bieten viel Flexibilität bei der Steuerung der Belichtung verschiedener Aspekte des endgültigen Schwarzweißbilds. Dabei kam mir der Gedanke, dass ein vierter Farbkanal noch mehr Flexibilität bringen würde, und da frage ich mich, warum es so etwas nicht gibt.

Zusätzliche Farbkanäle wären aus dem gleichen Grund sowohl für die Farbfotografie als auch für die Schwarzweißfotografie nützlich. Sie würden einfach jeden der RGB-Kanäle auf die gleiche Weise konstruieren, wie Sie jetzt ein Schwarzweißbild konstruieren, indem Sie Daten aus verschiedenen Kanälen kombinieren, die Licht mit unterschiedlichen Frequenzbereichen darstellen. Für die meisten Zwecke würde dies automatisch in der Software erfolgen, aber es würde viel mehr Flexibilität in Bezug auf die Nachbearbeitungsoptionen bieten.

Als einfaches Beispiel dafür, wie dies nützlich sein könnte, wissen wir, dass Pflanzen im nahen Infrarot sehr reflektierend sind. Diese Tatsache wird oft genutzt, um eindrucksvolle Aufnahmen mit Spezialeffekten zu erzeugen, in denen Pflanzen in strahlend weißer Farbe erscheinen. Wenn Sie jedoch das Infrarotbild als vierten Kanal in Ihrer Bearbeitungssoftware hätten, wäre es für die Bearbeitung von Farbbildern verfügbar, indem Sie beispielsweise die Belichtung aller Pflanzen im Bild ändern und weniger IR-reflektierende Objekte in Ruhe lassen.

Im Fall von Infrarot verstehe ich, dass es physikalische Gründe gibt, warum es schwierig ist, einen Sensor herzustellen, der nicht IR-empfindlich ist, sodass digitale Sensoren normalerweise einen IR-Sperrfilter vor sich haben. Aber es sollte möglich sein, einen Sensor mit einer höheren spektralen Auflösung im sichtbaren Bereich herzustellen, was die gleichen Vorteile ermöglichen würde.

Man könnte meinen, dass diese Funktion im Zeitalter der digitalen Verarbeitung weniger nützlich wäre, aber ich denke tatsächlich, dass sie sich jetzt bewähren würde. Die Grenzen dessen, was Sie digital machen können, werden durch die verfügbaren Daten gesetzt, daher würde ich mir vorstellen, dass eine größere Menge an Spektraldaten Verarbeitungstechniken ermöglichen würde, die ohne sie überhaupt nicht existieren könnten.

Die Frage

Ich würde gerne wissen, warum diese Funktion nicht zu existieren scheint. Ist die Herstellung eines Sensors mit vier oder mehr Farbkanälen eine große technische Herausforderung, oder liegt der Grund eher in der mangelnden Nachfrage nach einer solchen Funktion? Gibt es Mehrkanalsensoren als Forschungsanstrengung? Oder irre ich mich einfach, wie nützlich es wäre?

Alternativ, wenn es das gibt (oder in der Vergangenheit gab), welche Kameras haben es angeboten und was sind seine Hauptverwendungen? (Ich würde gerne Beispielbilder sehen!)

Hallo zusammen, es gab hier eine Menge Diskussionen in Kommentaren, mehr als genug, um die automatischen Systeme auszulösen. Wenn Sie an einer Diskussion über die Fragen und/oder Antworten teilnehmen möchten, gehen Sie bitte in unseren Chatroom. Vielen Dank.
Verwandte (aber andere) Frage : Warum verwenden wir einfach RGB anstelle von Filtern für alle Wellenlängen?
Es wäre nützlich, bessere Optionen anzubieten, um mit den Problemen umzugehen, die durch einige moderne Arten von Beleuchtungsgeräten verursacht werden ...

Antworten (5)

Warum bieten Kameras nicht mehr als 3 Farbkanäle?

Die Herstellung kostet mehr (die Herstellung von mehr als einer Sorte kostet mehr) und bietet so gut wie keine (marktfähigen) Vorteile gegenüber Bayer CFA.

(Oder haben sie?)

Sie taten. Mehrere Kameras, darunter auch im Einzelhandel erhältliche, hatten RGBW (RGB + Weiß) RGBE (RGB + Smaragd), CYGM (Cyan Yellow Green Magenta) oder CYYM (Cyan Yellow Yellow Magenta) Filter.

Eine Kamera mit größerem Spektralbereich und größerer Auflösung scheint mir sehr sinnvoll zu sein, weshalb ich mich frage, warum es keine Kameras gibt, die mehr als drei Farbkanäle erfassen.

Die Anzahl der Kanäle steht nicht in direktem Zusammenhang mit dem Spektralbereich.

Ist die Herstellung eines Sensors mit vier oder mehr Farbkanälen eine große technische Herausforderung, oder liegt der Grund eher in der mangelnden Nachfrage nach einer solchen Funktion?

Entscheidend ist die fehlende Nachfrage.

Zusätzlich verursachen CYYM/CYGM-Filter ein erhöhtes Farbrauschen, da sie bei der Konvertierung arithmetische Operationen mit großen Koeffizienten erfordern. Die Luminanzauflösung kann jedoch auf Kosten des Farbrauschens besser sein.

Gibt es Mehrkanalsensoren als Forschungsanstrengung? Oder irre ich mich einfach, wie nützlich es wäre?

Sie irren sich darin, dass der Spektralbereich mit mehr Kanälen größer wäre, Sie haben Recht, dass der vierte Kanal eine Reihe interessanter Verarbeitungstechniken für Farbe und Monoton bietet.

Alternativ, wenn es das gibt (oder in der Vergangenheit gab), welche Kameras haben es angeboten und was sind seine Hauptverwendungen?

Sony F828 und Nikon 5700 zum Beispiel, sie und wenige andere sind sogar gebraucht erhältlich. Es sind allgemein verwendbare Kameras.


Es ist auch interessant zu wissen, dass der Spektralbereich nicht nur durch den in den meisten Kameras vorhandenen heißen Spiegel begrenzt ist, sondern auch durch die Empfindlichkeit der Fotodioden, aus denen der Sensor besteht. Ich weiß nicht, welche Art von Fotodioden genau in Consumer-Kameras verwendet werden, aber hier ist eine beispielhafte Grafik, die die Einschränkungen von Halbleitern zeigt:

Vergleich lichtempfindlicher Halbleiter


In Bezug auf Software, die zum Extrahieren des vierten Kanals verwendet werden kann: Das ist sie wahrscheinlich dcraw, aber sie sollte modifiziert und neu kompiliert werden, um nur einen Kanal zu extrahieren.

Für F828 gibt es eine 4x3-Matrix, dcraw.cdie den vierten Kanal nutzt. Hier ist eine Idee: { 7924,-1910,-777,-8226,15459,2998,-1517,2199,6818,-7242,11401‌​‌​,3481 }- Dies ist die Matrix in linearer Form, höchstwahrscheinlich repräsentiert jeder vierte Wert den Smaragd. Sie verwandeln es in Folgendes: { 0,0,0,8191,0,0,0,0,0,0,0,0 }(Ich weiß nicht, welche Nummer dort anstelle von 8191stehen sollte, raten Sie mal), neu kompilieren und das Ausgabebild bekommt den Emerald-Kanal nach dem Demosaikieren im roten Kanal (wenn ich die Quellen richtig verstehe).

Kommentare sind nicht für längere Diskussionen gedacht; diese Konversation wurde in den Chat verschoben .
Euri, in deinen Kommentaren zu dcraw usw. gab es einige super nützliche Informationen, die jetzt in den Chatroom verschoben wurden. Besteht die Möglichkeit, dass Sie das in Ihrer Antwort für die Nachwelt bearbeiten könnten?

Ein paar Notizen von diesem langjährigen Ingenieur für optische Systeme. Erstens gibt es Dinge, die als "Hyperspektral" -Kameras bezeichnet werden, die Gitter oder ähnliches verwenden, um das einfallende Licht in Dutzende oder sogar ein paar Hundert Farbkanäle (Wellenlängen) zu zerlegen. Diese werden, wie Sie sich vielleicht vorstellen können, nicht zum Erstellen von Farbfotos an sich verwendet oder nützlich, sondern eignen sich hervorragend zum Unterscheiden schmalbandiger Spektrallinien, die von bestimmten Materialien emittiert oder reflektiert werden. Geologen nutzen sie zum Beispiel, um mithilfe einer Hyperspektralkamera, die in einem Flugzeug montiert ist, Mineralvorkommen zu identifizieren.

Als nächstes gibt es einen großen Unterschied zwischen den Farben, die von jeder einzelnen Wellenlänge (Photonenenergie) erzeugt werden, und den Farben, die unsere Augen wahrnehmen. Wir haben drei oder für einige glückliche Leute vier verschiedene Kegel, jeder mit unterschiedlichen spektralen Empfindlichkeitskurven. Sie können diese Kurven überall im Netz finden, einschließlich des ersten Bildes auf dieser Wikipedia-Seite. Als nächstes deckt der Bereich der Farben / Farbtöne, die wir wahrnehmen, eine ganze Karte ab, während die Farben, die von einer einzelnen Photonenwellenlänge erzeugt werden, eine Linie im Bereich dieser Karte bilden.

Zahlreiche Experimente, darunter einige spektakuläre von Edwin Land, haben gezeigt, dass das Mischen von RGB ausreicht, damit das Auge alle möglichen Sehfarben rekonstruieren kann. (Tatsächlich stellt sich heraus, dass nur zwei Farben plus eine Graustufendarstellung einer anderen ausreichen. Die optische Verarbeitung im Gehirn ist wirklich seltsam.)

RGB-Kamerasensoren sind so beliebt, weil sie das menschliche Sehen nachbilden

Das ist es, was die meisten Menschen brauchen – Fotos zu machen, die so aussehen, wie wir sie sehen.

Das Ersetzen von RGB-Subpixeln durch mehr verschiedene Arten von Filtern, um mehr Bänder mit besserer spektraler Auflösung zu unterscheiden, würde funktionieren, aber:

  • nur für einen einzigen Zweck . Jeder braucht ungefähr die gleichen RGB-Filter, um anständige Fotos zu machen, aber es gibt eine unbegrenzte Anzahl möglicher Spektralbänder, die für jemanden nützlich sein könnten. So kann man keine Universalkamera bauen.

  • es würde die Gesamtempfindlichkeit des Sensors verringern . Jedes gegebene Subpixel ist für alles Licht nutzlos, außer für das schmale Band, das es akzeptiert. Mehr Filter = mehr verschwendetes Licht.

Anstatt eng spezialisierte Sensoren herzustellen, ist es also besser, einen Sensor ohne eingebaute Filter zu haben und die Filter einfach während der Bildaufnahme auszutauschen. So wird mit jedem Filter die gesamte Sensorfläche genutzt und nicht nur ein kleiner Bruchteil mit dem passenden Subpixel.

Dies ist nicht ganz richtig, 3 Primärfarben können nicht alle Farbtöne liefern, die ein Mensch sehen kann. Wenn Sie sich das CIE-Farbdiagramm ansehen , sieht es irgendwie dreieckig aus, aber wenn Sie ein praktisches RGB-Dreieck sehen, das darin eingeschrieben ist, sehen Sie, wie viele Farben Ihnen fehlen. Eine 4. Primärfarbe im blau-grünen Bereich würde ein Viereck mit vielleicht 20 % mehr Farben erzeugen.
PS: Der einzige Grund, warum Menschen mit RGB zufrieden sind, ist, dass die Farben außerhalb des typischen Farbraums seltener sind als die, die RGB reproduzieren kann.
@MarkRansom stimmt, aber diese unglückliche Einschränkung betrifft nur Displays ;-) und auf der Sensorseite müssen wir nur die menschlichen Empfindlichkeitskurven reproduzieren, damit unser RGB-Sensor alle Farben unterscheidet, die unsere Augen sehen können!
Wie würde der Bayer-Filter den Farbraum nicht wie ein Display auf ein Dreieck beschränken? Es ist ein Thema, das meines Erachtens nicht genug Aufmerksamkeit bekommt; Es wird beispielsweise nie erwähnt, wenn es um Sensorchip-Unterschiede geht.
Die gleiche Frage gilt für die menschliche Netzhaut, die nur 3 Arten von "Filtern" hat - und die Antwort ist, denke ich, dass Anzeigen und Erkennen zwei verschiedene Dinge sind! Vielleicht ist es im Gegensatz zu Displays, in denen Farbskalen gegeneinander kämpfen, sogar so langweilig und einfach, dass niemand darüber spricht.
@MarkRansom es ist nicht wahr, dass Sie mit drei Arten von Filtern nicht die volle Empfindlichkeit haben können. Mit diesen Empfindlichkeiten wird die CIE-Farbtafel gebildet . Sie sind mit Punkten [0;1],[1;0],[0;0]auf dem von Ihnen geposteten Diagramm gekennzeichnet.
@EuriPinhollow Die Farbräume selbst sind mit 3 Punkten als Primärfarben definiert. Es spielt keine Rolle, was die Filter selbst produzieren, sie müssen in das Dreieck abgebildet werden, das von diesen 3 Primärfarben begrenzt wird.
@MarkRansom Ich habe dir buchstäblich die Koordinaten der Punkte gesagt, die das Dreieck bilden. Die farbige Region darin stellt einfach die Farbe dar, die Menschen sehen.
@EuriPinhollow ja, das xy-Diagramm enthält alle sichtbaren Farben, ich werde / kann das nicht bestreiten (obwohl es ein Rechteck ist, kein Dreieck). Ich argumentiere, dass die von uns verwendeten Farbräume eine Teilmenge davon sind, die durch 3 Punkte definiert ist, und für ein physikalisch realisierbares System müssen diese 3 Punkte innerhalb des sichtbaren Raums liegen.
@MarkRansom sprichst du von Anzeige oder Aufzeichnung? Es gibt einen großen Unterschied. Der XYZ-Raum ist ein Tristimulus-Raum und seine Chromatizitäten haben Koordinaten auf dem Graphen, den ich benannt habe. Hier ist es abgebildet (das äußere, schattierte).
@EuriPinhollow aufgezeichnete Farben, die nicht angezeigt werden können, sind nicht besonders nützlich. Ich gebe zwar zu, dass XYZ-Koordinaten verwendet werden können, um jede sichtbare Farbe anzugeben, aber es gibt einen Kompromiss zwischen der Größe des Farbraums und der Auflösung. Die üblicherweise verwendeten 8 Bit pro Kanal geben nicht einmal dem winzigen sRGB-Raum eine angemessene Auflösung.
@MarkRansom Ich frage mich, was "Auflösung" ist, wenn es auf Farbräume angewendet wird, und wie Sie die tatsächliche Auflösung des tatsächlichen Bildes ausschließen, wenn Sie beurteilen, ob X-Bits ausreichen, um eine gute Qualität darzustellen.
@EuriPinhollow Wenn ich von Auflösung spreche, meine ich die Genauigkeit, mit der Sie die Koordinaten angeben können. Bei sRGB, das 8-Bit-Ganzzahlkoordinaten verwendet, können Sie Streifenbildung zwischen benachbarten Werten sehen, wenn das Bild korrekt strukturiert ist. Die Leute beschweren sich oft darüber, Streifen am blauen Himmel zu sehen. Sie können etwas kompensieren, indem Sie eine hohe räumliche Pixelauflösung und Dithering verwenden.
@MarkRansom nicht "etwas", räumliche Auflösung und Farbtiefe sind streng miteinander verbunden. Sie können jede Farbe mit hoher räumlicher Auflösung, Dithering und 1-Bit-Farbe reproduzieren. Sie können nicht sagen, dass „8 Bit nicht genug ist“, ohne den Anwendungsfall anzugeben.

Im menschlichen Auge gibt es drei Farbsensoren. Ihre spektralen Profile sind breit und sie überlappen sich. Sie senden jeweils Nervensignale an das Gehirn, wo der Input als Farbe interpretiert wird. Der Kommentar in der vorherigen Antwort, dass die Verarbeitung im Gehirn seltsam ist, ist richtig. In diesem Fall werden nur 3 Stimuli für eine gegebene Farbe benötigt. Weitere Einzelheiten finden Sie im Wikipedia-Artikel zum Thema Farbsehen.

Es gab auch Multispektralkameras mit zusätzlichen Kanälen für IR- und UV-Licht, aber nicht als Verbraucherprodukt.