Gibt es einen physikalischen Schwarz-Weiß-Filter?

Ich frage mich, ob es einen physischen Filter gibt, mit dem eine Kamera Schwarzweißbilder erstellen kann, ohne Softwareeffekte / -filter zu verwenden.

Sie haben konkrete Antworten darauf, aber ich frage mich, welches Problem Sie hier zu lösen versuchen?
Es war nur eine Kuriosität, weil ich eine Recherche über IR-Filter durchführe und festgestellt habe, dass sie Farben auf Bildern ersetzen, und mich gefragt habe, ob es einen ähnlichen Filter gibt, um ein Bild schwarzweiß zu machen :-)
Nein, IR-Filter „ersetzen“ keine Farben. Sie lassen unterschiedliche Wellenlängen durch.
Wenn Sie über Digitalkameras sprechen, können Sie ohne die Verwendung von Software kein Bild machen. Es wäre schwierig, eine klare Grenze zwischen der Interpretation von Daten von einem Sensor zur Erstellung eines Bildes und der Anwendung eines „Effekts“ zu ziehen, der in vielen Fällen nur eine andere Interpretation derselben Daten ist. Du sprichst hier also irgendwie von Semantik.
Sie können einen monochromatischen Filter finden, der nur eine Lichtfarbe durchlässt, sodass Ihr Bild "schwarz und rot" oder "schwarz und grün" wäre, aber das ist das Beste, was Sie erreichen können.
"Woher die Farben eines IR-Filters kommen" ist eine eigene Frage wert, falls sie nicht schon gestellt wurde.
nicht wirklich eine Antwort, da es keine Auswirkungen auf Kameras hat: Sie können den ND-Filter verwenden, um Schwarzweißsehen zu erhalten, nachdem Sie Ihre Augen an eine sehr geringe Lichtstärke angepasst haben, bei der nur Stäbchen aktiv sind (und farbempfindliche Zapfen deaktiviert sind) ;-)
@Mark Ich hatte immer angenommen, dass Sensoren "immer" empfindlich auf IR reagieren, es ist normalerweise einfach nicht in ausreichenden Mengen vorhanden, um das Bild zu beeinflussen [sehen Sie, was passiert, wenn Sie eine Fernbedienung auf eine Kamera richten, obwohl ich dies nur getan habe mit einem CRT-Camcorder], und IR-Bilder verwenden längere Belichtungen oder so etwas.
Es gibt eine wirklich einfache Möglichkeit, dies zu erreichen: Verwenden Sie einen Schwarz-Weiß-Film.
Als interessante Nebensache - besorgen Sie sich eine wirklich gelbe Glühbirne und leuchten Sie damit auf etwas. Verwenden Sie dann eine weiße Glühbirne. Sie werden feststellen, dass die gesamte Farbe durch das gelbe Licht aus dem Bild gesaugt wird.
@ Random832 Die meisten Sensoren haben einen IR-Filter vor sich, um zu verhindern, dass IR-Licht das Bild beeinflusst. Dies liegt daran, dass die blau-, grün- und rotgefilterten Pixel der meisten bayer-maskierten Bildsensoren ungefähr gleich auf IR-Licht reagieren. Dadurch interpretiert die Kamera IR-Licht als weißes Licht. Die meisten Fernbedienungen sind kein echtes IR, sie sind Nah-IR direkt am Rande des menschlichen Sichtfelds.
Man könnte sicherlich in reiner Hardware die Bilddaten von einem Sensor auf einen digitalen Monitor bekommen .... andere Sache, ob es gut aussah :)

Antworten (10)

Nein.

Es ist nicht möglich, einen physikalischen Filter zu erstellen, der einfallendes Licht vollständig „entsättigen“ kann.

Die einzige Möglichkeit, dies ohne Nachbearbeitung zu erreichen, ist auf Film-/Sensorebene.

Ich denke, es ist theoretisch möglich, Strahlteiler und monochromatische Filter zu verwenden, die auf die Farben der Pixel-Bins des Kamerasensors abgestimmt sind ...
@HaoYe Sie können niemals die Frequenzkomponente des Lichts entfernen, also können Sie es niemals schwarz und weiß machen.
Genau, Sie können keinen optischen Filter erstellen, der unabhängig von der Frequenz nur die Leuchtkraft durchlässt.
Aus diesem Grund habe ich vorgeschlagen, Filter zu verwenden, die auf die Farben des Kamerasensors abgestimmt sind. Wenn Sie wissen, welche RGB -> Graustufenzuordnung Sie für die Pixel wünschen, können Sie basierend auf der Farbempfindlichkeit des Sensors vorfiltern, um Graustufen zu erzielen, wenn sie den Sensor erreichen.
Können Sie dieses Konzept beweisen? Ich bin fasziniert.
@HaoYe: Betrachten Sie ein Beispiel: hellgrünes monochromatisches Licht. Ihr Filter muss das in weißes Licht umwandeln, damit die Sensoren gleiche Werte von Rot, Grün und Blau erkennen (gleich nach Berücksichtigung ihrer Empfindlichkeit). Die Einführung neuer Frequenzen ist mit herkömmlicher Optik nicht möglich, AFAIK. Bei Quanteneffekten ist dies möglicherweise theoretisch möglich, z. B. beim Absorbieren von Licht, das erneut emittiert wird, aber wahrscheinlich nicht, während die Richtung von Photonen beibehalten wird. (Ein Photon hat Energie und Impuls, die von der Wellenlänge abhängen ...)
@PeterCordes Ah, oh. Ich bin mir nicht sicher, was ich dachte ...
@PeterCordes: Was ist, wenn man bereit ist, sich mit einer Baugruppe zufrieden zu geben, die ein Bild auf eine Platte fokussiert, die dann über einen zweiten Satz von Abbildungsoptiken betrachtet werden kann? Angesichts der Tatsache, dass weiße LEDs Leuchtstoffe verwenden, die Blau absorbieren und andere Farben freisetzen, würde ich denken, dass es theoretisch möglich sein könnte, einen Satz von Leuchtstoffen zu haben, die unterschiedliche Wellenlängen absorbieren, aber alle im Wesentlichen dieselbe Wellenlänge abgeben.
@supercat: Ja, ich denke, das würde funktionieren oder sogar jede Frequenz absorbieren und weißes Licht emittieren. Wie Sie sagen, behält die Phosphorabsorption / -reemission die Richtung von Lichtwellen / Photonen nicht bei, sodass Sie ein Bild darauf fokussieren und dann diese Platte abbilden müssten. Dies kann im Vergleich zu Verschlusszeiten langsam sein. Oder vielleicht möchten Sie es hinter dem Verschluss platzieren, so nah am Sensor, dass jedes Pixel des Sensors im Grunde nur Licht von dem Teil der Platte direkt davor wahrnimmt.
Was Sie dort beschrieben haben, entspricht ziemlich genau der Funktionsweise eines Nachtsichtlichtverstärkers. Aber es ist kein "Filter", dh ein einzelnes Durchgangselement.

Entschuldigen Sie, wenn ich für eine Weile ein wenig metaphysisch werde. „Farbe“, wie wir sie verstehen, ist keine wirkliche Eigenschaft von irgendetwas im Universum. Es ist etwas, das von unserem Sehsystem erzeugt wird – eine komplizierte Interaktion in unseren Augen und unserem Gehirn. Es ist nützlich für Dinge wie „Essen Sie nicht die giftigen Beeren“, „Schauen Sie sich diesen Tiger drüben im Gras an“ und in jüngerer Zeit „Halten Sie unsere Fahrzeuge an Kreuzungen an“.

Dieser Sinn basiert auf einer realen Eigenschaft von Objekten im Universum: Unterschiedliche Materialien streuen, reflektieren und absorbieren Licht unterschiedlicher Wellenlängen auf unterschiedliche Weise. Unsere Augen haben Rezeptoren, die für verschiedene Lichtwellenlängen unterschiedlich empfindlich sind, und das Sehsystem übersetzt das in das, was wir Farbe nennen.

Farbe selbst kann auf viele verschiedene Arten gedacht werden. Eine Möglichkeit, die unter diesen Umständen hilfreich ist, besteht darin, sie in Chromatizität und Luminanz zu zerlegen – Luminanz ist im Grunde „Helligkeit“, und Chromatizität ist … das andere Farbmaterial – Farbton (Rot, Orange, Gelb, Grün, Blau …). ) und Sättigung oder Farbigkeit. Das Konzept der Farbe auf diese Weise aufzuteilen, funktioniert gut mit unserem mentalen Modell – ist aber nicht direkt auf das physikalische Universum übertragbar.

Ein Filter, der zu Schwarzweiß führt, müsste die Farbart herausfiltern und nur die Leuchtdichte durchlassen, denn das ist es, was ein „Schwarzweiß“-Foto im Grunde ist – nur eine Aufzeichnung der Helligkeiten, ohne all das andere „Farbzeug“. .

Aber ich kenne keine Möglichkeit, das zu tun. Mit etwas Ähnlichem wie der Art von Filtern, die wir normalerweise verwenden, ist dies sicherlich nicht möglich. Diese blockieren entweder nur bestimmte Wellenlängen (bei Farbfiltern oder UV- oder Infrarotfiltern) oder generell alle Wellenlängen in geringem Maße (bei Graufiltern). Ein "Filter", der in Schwarzweiß konvertiert wird, müsste die Wellenlänge tatsächlich irgendwie transformieren (da Licht ohne Wellenlänge ... Dunkelheit ist), anstatt sie zu filtern. Dies würde wahrscheinlich eine Art nichtlineares Metamaterial beinhalten und nichts, was ich mit meinen Physikkenntnissen auf Highschool-Niveau erklären könnte. Und es müssten alle unterschiedlichen Wellenlängen in die umwandelngleiche Wellenlänge, oder sie zufällig streuen, so dass das Ergebnis weißes Licht wäre; das scheint wahrscheinlich absurd zu sein. Ich kann mit Sicherheit sagen, dass das Ergebnis, selbst wenn es möglich wäre, nichts wäre, was man an einer Kamera befestigen und herumtragen könnte.

Andererseits kann man durchaus auch nur die Helligkeit erfassen . Das ist es, was Schwarz-Weiß-Filme tun, und es ist eigentlich auch das, was digitale Fotoseiten tun. Sie sind von Natur aus nur Maße für die Helligkeit, aber die heutigen Digitalkameras verwenden Filter, um die Helligkeit nur in bestimmten Wellenlängen aufzuzeichnen und Blau, Grün und Rot separat zu messen. (Dies entspricht in etwa der Funktionsweise des menschlichen Sehens, sodass wir das wieder kombinieren können, um ein Vollfarbbild zu erstellen.) Wenn Sie eine der wenigen Kameras haben, die ohne diese Filter hergestellt wurden (wie die Leica M Monochrom), erhalten Sie nur ein schwarzes und weißes Bild.

Ein anderer Ansatz besteht natürlich darin, alles außer einer bestimmten Wellenlänge herauszufiltern . Sie können dies in Jerry Coffins Antwort hier oder in dieser anderen Frage sehen, die ein fast monochromatisches Natriumdampflicht betrifft . Das ist eher schwarz-und-einfarbig als schwarz-weiß, kann aber Ihren Wünschen nahe kommen. Das schneidet natürlich ziemlich viel Licht aus, und der andere Nachteil ist, dass es auch Helligkeitsstufen von anderen Farben ausschneidet – Sie werden also nur Abweichungen in Grün (oder einer anderen ausgewählten Farbe) und Schattierungsnuancen in der anderen sehen Farben werden überhaupt nicht registriert.

Mattdm... der Philosoph :o)
Farbfilter blockieren nicht alles außer der Farbe des Filters. Ein Teil des gesamten sichtbaren Spektrums gelangt durch jeden der drei Farbfilter. Es ist nur so, dass mehr, oft viel mehr der Farben, die der Farbe jedes Filters am nächsten kommen, durchkommen. Ein gutes Stück Rot kommt durch den Grünfilter und umgekehrt. Etwas Grün gelangt durch den Blaufilter und umgekehrt. Sogar eine kleine Menge Blau und Rot kommt durch die anderen Farbfilter. So funktioniert das menschliche Sehen, so funktioniert Farbfilm, und so funktionieren Digitalkameras.
Jeder, der Farbfilter vor Schwarzweißfilmen verwendet hat, versteht dies intuitiv. Ein Rotfilter blockiert nicht alles Licht außer Rot. Es lässt nur weniger von den anderen Farben durch, sodass auf dem resultierenden Foto Dinge, die diese anderen Farben sind, einen dunkleren Grauton aufweisen als rote Objekte, die in der Szene dieselbe Helligkeit hatten.
Sicher; Wir nehmen gelbes Licht mit reiner Wellenlänge wahr, weil es sowohl den „roten“ als auch den „grünen“ Kegel aktiviert, und nehmen es auf, weil es sowohl den roten als auch den grünen Filter passiert. Aber ich denke, die Vereinfachung ist für die Erklärung hier vollkommen ausreichend. Es beeinflusst sicherlich nicht den grundlegenden Punkt über einen "Schwarz-Weiß"-Filter.

Alle Farben sind ein Ergebnis der Softwareverarbeitung. Das einzige , was ein Sensor, sei es ein Film oder ein Halbleiter, tun kann, ist, seinen Zustand als Reaktion auf einfallende Photonen zu ändern. Ja, eine Digitalkamera hat Farbfilter, aber alles, was sie tun, ist, die Wellenlängen zu beschränken, die zu den Sensorpixeln geleitet werden. Die Ausgabe jedes Pixels ist einfach ein Haufen Elektronen, die dann in eine Spannung umgewandelt werden, die wiederum gemessen und als digitale Zahl ausgegeben wird.
Wie Sie diese Zahlen interpretieren, liegt ganz bei Ihnen. Ein paar Beispiele:

Laden Sie eine RAW-Datei in ein mathematisches Tool wie R oder MATLAB, und Sie können basierend auf den numerischen Werten im Array ein monochromes Bild generieren.

Laden Sie auf ähnliche Weise eine RGB-Datei. Es besteht (im Allgemeinen) aus drei gleich großen Zahlenfeldern, die als "R,G,B"-Schichten gekennzeichnet wurden. Sie können ein monochromes Bild von jeder erstellen oder jeder Ebene einen beliebigen Farbton und eine beliebige Chromatizität zuweisen, bevor Sie sie zu einem Farbbild kombinieren.

Auch hier ist es wichtig zu verstehen, dass Ihre ursprüngliche Frage falsch ist: Ob durch digitale Datenverarbeitung oder durch Verwendung von Entwicklerchemikalien und Farbe im Vergleich zu Schwarzweißdruckpapier, die Kamera und ihr Sensor wissen überhaupt nichts über Farbe. So verarbeiten Sie die Daten (digital oder analog).

Sie können keinen physischen Filter hinzufügen , aber Sie können einen physischen Filter entfernen , um jede Digitalkamera in eine rein monochrome Kamera umzuwandeln.

Der eigentliche Sensor einer DSLR weiß nichts über Farbe – jedes Pixel zeichnet die Gesamthelligkeit in allen Wellenlängen auf, für die es empfindlich ist. Die Art und Weise, wie Farbe eingeführt wird, besteht darin, einen Bayer-Filter hinzuzufügen , bei dem es sich im Grunde um kleine Stücke unterschiedlich gefärbten Glases für jedes Pixel handelt: Jetzt können einige Pixel nur Blau sehen, andere nur Rot und der Rest kann nur Grün sehen.

Durch das Entfernen des Bayer-Filters wird Ihre Kamera wieder monochrom, wie es einige Leute tatsächlich getan haben :

Geben Sie hier die Bildbeschreibung ein

Es gibt auch monochrome Kameras auf dem Markt
Ich kenne nur die Leica M Monochrome , die mir persönlich leider etwas teuer ist.

Nein.

Jede Farbkamera hat drei Arten von empfindlichem Material – Pixel in Digitalkameras, Pixelschichten in Foveon-Sensoren, Schichten in Farbfilmen. Ein monochromes Bild bedeutet, dass alle diese Typen bei jedem einfallenden Licht eine Reaktion mit konstanter Chromatizität erzeugen, und das ist NICHT möglich, da sie so konstruiert sind, dass sie unterschiedliche Chromatizitäten erzeugen.

Halbwahr, aber irreführend. Können Sie bearbeiten, um zu lesen: "... entwickelt, um Reaktionen auf verschiedene Chromatizitäten zu erzeugen"?
@carl-witthoft: Meinst du, dass es möglich ist, das so zu interpretieren, dass "jede Schicht eine eigene Farbart erzeugt"?
Jede Schicht zeichnet eine Reihe von Photonen auf, deren Wellenlänge es ihnen ermöglicht, den Farbfilter zu passieren (und natürlich in den Erfassungsbereich des Pixels zu fallen). Der Endbenutzer kann dieser Ebene eine beliebige Farbe zuweisen.
@carl-witthoft: beantwortet meine Frage nicht. Ich kann die Idee hinter "konstruiert, um Reaktionen auf unterschiedliche Chromatizitäten zu erzeugen" nicht verstehen.
Nun ja – en.wikipedia.org/wiki/Chromaticity . Sie können keine Chromatizität von einem einzelnen Farbfilter erhalten. Jeder Farbfilter integriert spektrale Eingaben über einen definierten Wellenlängenbereich mit unterschiedlicher Durchlässigkeit über diese Bandbreite. Wie Sie das auf eine Achse einer CIE-Karte abbilden, bleibt dem Benutzer überlassen.
@carl-witthoft: Ihre vorgeschlagene Bearbeitung klingt irreführender als das Original. Ich denke, dass es keine korrekte Interpretation meiner Worte ist. Ich werde andere im Chat fragen .

Es ist irgendwie theoretisch möglich, aber nicht, es ist nicht allgemein praktikabel.

Dazu benötigen Sie einen relativ schmalen Bandpassfilter, der das durchgelassene Licht so weit einschränkt, dass nur eine der (normalerweise) drei vom Sensor erkannten Farben beeinflusst wird (zumindest in dem Maße, in dem es sichtbar ist). Auswirkungen auf das aufgenommene Bild).

Solche Schmalbandfilter wurden gebaut und werden regelmäßig verwendet – zum Beispiel werden sie regelmäßig beim Wellenmultiplexverfahren verwendet, das verwendet wird, um mehrere Signale gleichzeitig über eine optische Faser zu senden. Auf der Sendeseite nehmen Sie eine Reihe von Signalen, codieren jedes als eine einzige Lichtfarbe und mischen das Licht vor der Übertragung zusammen.

Auf der Empfängerseite leiten Sie dieses Licht durch die gleiche Anzahl schmaler Bandpassfilter, damit Sie die ursprünglichen Datenströme rekonstruieren können.

Warum es nicht praktisch ist: zwei Gründe. Zunächst einmal können solche Filter ziemlich groß und teuer sein. Zweitens (wahrscheinlich wichtiger für fotografische Zwecke), wenn Sie ein schmales Band erhalten, das durchgelassen wird, erhalten Sie normalerweise auch eine beträchtliche Dämpfung im Durchlassband. Das heißt, Sie werden nicht nur das Licht los, das Sie nicht wollen, sondern Sie verlieren normalerweise auch ziemlich viel von dem Licht, das Sie wollen.

Bei einer typischen Kamera haben Sie es mit nur drei Farben von Sensoren zu tun, die ziemlich weit im Spektrum verteilt sind. Normalerweise möchten Sie das grüne Licht beibehalten, da 1) dies der Bereich ist, in dem die Augen der Menschen normalerweise am empfindlichsten sind, und 2) Sie bei einem typischen Sensor doppelt so viele grüne Sensorvertiefungen haben wie entweder rote oder blaue Sensorvertiefungen.

Astronomen verwenden auch ziemlich regelmäßig ziemlich schmale Bandpassfilter. Genauer gesagt emittiert eine Art von Emissionsnebel Licht aufgrund von dreifach ionisiertem Sauerstoff (auch bekannt als „Sauerstoff III“). Das emittierte Licht liegt bei 496 nm und 501 nm, die beide ziemlich nahe an der Mitte des grünen Bereichs liegen:

Geben Sie hier die Bildbeschreibung ein

Wenn wir also einen Filter einsetzen, der nur diese Wellenlängen des Lichts durchlässt, und im Wesentlichen alles andere stoppen, erhalten wir Bilder, die fast rein monochrom sind, unabhängig von der Kamera/dem Sensor/dem Film, die/der zum Erfassen des Lichts verwendet wird. Solche Filter sind leicht verfügbar (Googeln nach oxygen-III filterwird viele Möglichkeiten aufdecken). Nur als Beispiel, hier ist die Reaktionskurve für einen dieser Filter:

Geben Sie hier die Bildbeschreibung ein

Dieser spezielle ist ein Wasserstoff-Beta-Filter, aber Sauerstoff-III-Filter mit ähnlich schmalem Bandpass sind erhältlich. Einige etwas breitere Bandpassfilter (normalerweise immer noch als "Schmalband" bezeichnet) sind "abgestimmt", um sowohl Wasserstoff-Beta-Emission (486 nm) als auch Sauerstoff-III-Emissionen (496 und 501 nm) zuzulassen. Dieser würde jedoch die meisten Emissionen bei 496 nm und im Wesentlichen alle bei 501 nm herausfiltern, obwohl für die meisten Menschen alle drei Farben sehr ähnlich sind (tiefes Grün mit nur einem Hauch von Blau).

Diese Filter sind jedoch im Allgemeinen für die Verwendung an Teleskopen und nicht an Kameras konzipiert. Sie haben typischerweise die Größen (z. B. 2 Zoll), die für Teleskop-Okulare verwendet werden. Sie blockieren auch viel sichtbares Licht, daher werden sie normalerweise nur für den Einsatz an relativ großen Teleskopen empfohlen – mindestens 8 oder 10 Zoll ist das übliche Minimum, damit sie von großem Nutzen sind.

Selbst wenn Sie davon ausgehen, dass Sie den Filter montieren und mit der übertragenen Lichtmenge leben könnten, hätten Sie ein Problem: Obwohl Ihr Bild (fast vollständig) monochrom wäre, wäre es nicht nicht in Grautönen erscheinen, sondern in Grüntönen.

Ich sehe ein letztes Problem bei der Verwendung dieser Filter: Was Sie erhalten würden, würde wahrscheinlich für die meisten Arten der Fotografie nicht gut funktionieren. Frühe Schwarzweißfilme hatten einen ziemlich breiten Empfindlichkeitsbereich, wurden jedoch am stärksten von blauem Licht und nur ziemlich schwach von rotem Licht beeinflusst.

Später wurde die Schwarz-Weiß-Datei ("panchromatischer Film") so eingestellt, dass sie über das sichtbare Spektrum eine Empfindlichkeit aufweist, die dem normalen Sehen viel besser entspricht. Dies war eine Verbesserung genug, um den orthochromatischen Film für die meisten typischen Fotografien ziemlich schnell zu ersetzen.

In diesem Fall würden Sie jedoch einen viel engeren Lichtbereich erkennen als der orthochromatische Film - bis zu dem Punkt, an dem Sie wahrscheinlich keine Ergebnisse erzielen könnten, die für die meisten typischen Zwecke von großem Nutzen wären.

Andererseits hat der Einsatz solcher Schmalbandfilter unter Umständen auch ein paar Vorteile. Da zum Beispiel die Linse nur eine Lichtwellenlänge fokussieren muss, wird die chromatische Aberration im Wesentlichen irrelevant. Dies kann die Auflösung verbessern (obwohl die genaue Verbesserung davon abhängt, wie viel chromatische Aberration das Objektiv zu Beginn hatte).

Astronomen tun dies anscheinend auch zuerst.
@wizzwizz4: Wirklich ernsthafte Astronomen beginnen meistens mit speziell angefertigten Kameras (zB die Kühler für den Sensor haben, um das Rauschen zu reduzieren). Einige Gelegenheitsastronomen fotografieren mit unmodifizierten Kameras. Und ja, einige, die zwischendurch eine normale Kamera modifizieren.
Viele gekühlte astronomische Kameras (dedizierte Kameras für den Anschluss an einen Laptop, keine eigenständigen Einheiten) sind monochrom – ebenso wie einige astronomische Videokameras. Die Verwendung eines monochromen Sensors erhöht die Empfindlichkeit für Luminanzaufnahmen (da jedes Pixel den gesamten Wellenlängenbereich erhält) und ermöglicht eine höhere Farbauflösung, wenn mehrere Aufnahmen durch R-, G-, B- oder verschiedene Schmalbandfilter kombiniert werden.
Der übliche Grund für die Modifikation einer DSLR für astronomische Zwecke ist, dass der eingebaute Infrarot-Sperrfilter auch etwa 80 % des tiefroten Wasserstoff-Alphalichts blockiert – das ist der rote Teil von Emissionsnebelbildern. Das Ersetzen des Filters durch einen, der h-Alpha-Licht durchlässt, erhöht die Empfindlichkeit dafür erheblich, verleiht normalen Fotos jedoch einen Rotstich – was durch eine benutzerdefinierte Farbbalance oder durch die Verwendung eines geeigneten Objektivfilters kompensiert werden kann.
Um dieses Konzept zu erweitern: Filtern Sie mehrere schmale Bänder parallel heraus und zwingen Sie sie dann alle in dieselbe Ausgangswellenlänge, entweder durch Fluoreszenz oder Überlagerung ....

Es ist kein Filter – nicht entfernbar und definitiv nicht reversibel – aber jede Digitalkamera kann in Graustufen umgewandelt werden, indem die Farbfilter vom Sensor abgekratzt und das RAW-Bild verarbeitet werden. Ohne die Farbfilter sammelt der Sensor nur Helligkeitsinformationen. Die Kamera verarbeitet die Pixel weiterhin so, als ob die Farbfiltermatrix noch vorhanden wäre, sodass Sie die RAW-Bilder aufnehmen und selbst verarbeiten müssen. Ich habe es selbst nie ausprobiert, aber ich habe davon gehört, als CVS (US-Apothekenkette) anfing, Digitalkameras mit Gebrauchs- und Rückgaberecht zu verkaufen.

Thread mit Beispielen: http://photo.net/digital-camera-forum/00CM0R

Mehr zur Farbfiltermatrix: https://en.wikipedia.org/wiki/Bayer_filter

Hoffe das hilft!

In Kameras wird das einfallende Licht in drei Koordinaten von RGB-Spektren gefiltert und dann mittels chemischer Reaktion (Filmkameras), CCD- oder CMOS-Chip (Digitalkameras) erfasst.

Die einzige Möglichkeit, wie Sie die Kamera physisch deaktivieren können, um Farbbilder aufzunehmen, besteht darin, einen monochromatischen Film zu verwenden oder die Filtermaske vom CMOS-Chip zu entfernen. Dieses Verfahren wird Ihre Kamera 999 999 Mal von 1 000 000 Versuchen töten.

Wenn Sie Ihre Kamera auf monochromatische Aufnahme einstellen, "ignoriert" sie die Filterung und summiert das Signal von allen 3 Kanälen. In der Nachbearbeitung berechnet das Programm den Mittelwert aus den Kanälen.

Wenn Sie IR-Bilder aufnehmen möchten, benötigen Sie eine IR-kompatible Optik und einen IR-empfindlichen Detektor. Sie werden wahrscheinlich einen brandneuen Chip und angepasste AF-Sensoren erhalten.

Nein. Sie müssen verstehen, dass es so etwas wie die Wellenlänge des weißen Lichts nicht gibt, also gibt es keine physikalische Eigenschaft, auf der ein solcher Filter basieren könnte.

Wenn Sie Physik nicht mögen, denken Sie an ein logisches Beispiel: Weißes Licht ist eine breitere Menge, die Lichter aller anderen Farben als Teilmengen enthält. Ihre Frage klingt also effektiv wie

Is there a filter that can extract fruits from apples?

Auch hier lautet die Antwort NEIN.

Ich würde vorschlagen: Gibt es einen Filter, der Früchte aus Äpfeln, Orangen und Kirschen extrahieren kann? oder ähnliches.
Sie könnten jedoch einen generischen "gemischten Fruchtsaft" aus Äpfeln, Orangen und Kirschen extrahieren :)

Ich werde gegen den Strom schwimmen und sagen JA, WIR KÖNNEN ... wenn Sie die Bedeutung von "physikalischer Filter" wie folgt erweitern:

Der Filter ist eine aktive Kamera, die ihre Ausgabe in Schwarzweiß auf einem eigenen Display anzeigt (indem sie keine Farbfilter auf ihrem Sensor hat, in der Software entsättigt, ein monochromes Display verwendet usw.), möglicherweise mit einer Optik, um einen weiter entfernten Fokus zu simulieren.

Ihre Kamera macht dann ein Foto von der Anzeige des Filters und denkt, dass es die reale Welt ist. Und das schwarz auf weiß :-)

Wenn das unverschämt klingt, bedenken Sie, dass der Film Olive 2011 als der erste Film gemeldet wurde, der vollständig auf Smartphones gedreht wurde . Aber wie haben sie das wunderbare Bokeh und die Schärfentiefe bekommen? Durch Filmen des auf Mattglas projizierten Bildes mit einem 24-70-mm-Objektiv der Canon L-Serie im Wert von 800 US-Dollar! Schummeln?

Ich stimme Ihnen zu, ich verstehe nicht, wie ein Filter Farben hinzufügen kann (Bayer-Filter) und warum es keinen genau entgegengesetzten Filter geben sollte, um sie zu entfernen.
@Mev: Siehe meine Antwort. Das Bayer-Filterarray fügt keine Farben hinzu. Es entfernt tatsächlich alles außer bestimmten (breiten Schwaden) von Wellenlängen in einem Muster, das es ermöglicht, Vollfarbinformationen auf eine Weise zu rekonstruieren, die ungefähr dem menschlichen Sehsystem entspricht. Da wir die Ergebnisse Menschen zeigen, funktioniert das.
Und zu dieser Antwort selbst: Ich halte es nicht für sinnvoll oder hilfreich, die Bedeutung von "physikalischer Filter" auf diese Weise zu erweitern.
Farbfilter entfernen nicht alles außer der Farbe des Filters. Ein Teil des gesamten sichtbaren Spektrums gelangt durch jeden der drei Farbfilter. Es ist nur so, dass mehr , oft viel mehr der Farben, die der Farbe jedes Filters am nächsten kommen, durchkommen. Ein gutes Stück Rot kommt durch den Grünfilter und umgekehrt. Etwas Grün gelangt durch den Blaufilter und umgekehrt. Sogar eine kleine Menge Blau und Rot kommt durch die anderen Farbfilter. So funktioniert das menschliche Sehen, so funktioniert Farbfilm, und so funktionieren Digitalkameras.