Enthalten die Infrarotfotos wirklich Infrarotfarben?

In der Schule haben wir alle gelernt, dass wir bei weißem Licht nur das sichtbare Spektrum wahrnehmen , aber weder UV- noch IR - Anteile sehen können.

Wenn dies der Fall ist, wie kommt es dann, dass wir Infrarotfotografie machen können ? OK, das Objektiv kann das, aber wie können wir die IR-Farben im endgültigen Bild sehen? Woher wissen wir wirklich, dass es das IR-Licht ist und nicht nur dramatische Farben?

Wow!! Ich habe eine solche Antwort nicht erwartet, aber ja, es hat klargestellt, wonach ich gesucht habe. Obwohl es mehrere richtige Antworten gibt, werde ich die für mich sinnvollere akzeptieren. Vielen Dank an alle!
en.wikipedia.org/wiki/Channel_(digital_image)#RGB_color_sample können Sie dort die roten, grünen und blauen Kanäle sehen. Aber Sie sehen sie als Graustufenbilder, sodass Ihr Auge nicht für Rot, Grün oder Blau empfindlich sein muss, um diese zu sehen, sondern nur für Hell/Dunkel. Was wäre nun, wenn der Kanal dort fernes IR, nahes IR oder UV wäre? Könnte immer noch als Graustufen erscheinen, die für Ihr Auge immer noch sichtbar sind.

Antworten (4)

„Farbe“ ist im Wesentlichen eine Eigenschaft der Verteilung von Wellenlängen des sichtbaren Lichts (wie es von Menschen wahrgenommen wird).

Digitalkameras erfassen nur die Lichtmenge an jedem Pixel, sie können die Wellenlänge nicht messen und somit Farben nicht direkt erfassen. Farbbilder werden erzeugt, indem vor jedem Pixel abwechselnd Rot/Grün/Blau-Filter platziert werden. Durch Platzieren eines Rotfilters (einer, der grünes und blaues Licht blockiert) vor einem Pixel können Sie so die Menge an rotem Licht an dieser Stelle messen.

Bei der Infrarotfotografie mit Standard-Digitalkameras wird sichtbares Licht herausgefiltert (und optional die eingebaute IR-Filterung entfernt), sodass nur Infrarotlicht aufgezeichnet wird. Die abwechselnden Rot/Grün/Blau-Filter bleiben bestehen.

Es gibt verschiedene Wellenlängen von Infrarotlicht, aber diese Wellenlängen entsprechen nicht der „Farbe“, da sie für das menschliche Auge unsichtbar sind. Echtes Infrarot im 850-nm- und längeren Bereich geht mehr oder weniger gleichmäßig durch jeden der Rot-/Grün-/Blaufilter, sodass Sie am Ende nur ein Intensitätsbild (Graustufenbild) wie dieses erhalten:

http://www.mattgrum.com/photo_se/IR_1.jpg

Wellenlängen, die näher am sichtbaren Spektrum liegen, also nahes IR im 665-nm-Bereich nennen, passieren die RGB-Filter in unterschiedlichen Mengen, sodass ein Bild mit unterschiedlichen RGB-Werten erzeugt wird und Sie daher bei der Anzeige auf dem Computer ein Farbbild erhalten.


Aber die Farben sind nicht "echt", in dem Sinne, dass Farbe eine Eigenschaft des menschlichen Sehens ist und diese Wellenlängen außerhalb unseres Sehvermögens liegen, sodass das Gehirn keine Art definiert hat, sie uns zu präsentieren. Die unterschiedlichen Farben, die Sie in einem digitalen Infrarotbild sehen (das von Ihrem Computermonitor im sichtbaren Bereich wiedergegeben wird), entstehen durch einen Mangel an Blau- und Grünfiltern.

Die Blaufilter sind so konzipiert, dass sie das niederfrequente rote und grüne Licht herausfiltern, aber um den sichtbaren Spektralbereich herum (da der IR-Filter der Kamera normalerweise alles andere herausfiltert). Wenn sichtbares Licht blockiert wird und die Frequenzen sehr niedrig werden (wie sie von Laub über den Holzeffekt reflektiert werden ), beginnen sie wieder, durch die blauen und grünen Filter zu gelangen!

Der untere Teil des sichtbaren Spektrums/sehr nahes IR (das am Himmel reichlich vorhanden ist) erregt also hauptsächlich die roten Pixel, da die Blau- und Grünfilter noch ihre Arbeit erledigen, nahes IR (von Blättern reflektiert) beginnt, Blau und Grün anzuregen Pixel, da die Filter außerhalb ihres normalen Bereichs arbeiten.

Das Ergebnis ist ein rot aussehender Himmel und blau/türkis aussehende Bäume, wie hier:


(Quelle: wearejuno.com )

Aber da diese Farben nicht wirklich echt sind, vertauschen Fotografen oft die Rot/Blau-Kanäle, was einen normaler aussehenden blauen Himmel und grün/gelbe Bäume ergibt:

http://www.mattgrum.com/photo_se/IR_2.jpg

Ich dachte, Farbe sei eine rein wahrnehmungsbezogene Eigenschaft. Es hat eine gewisse Zuordnung zu einem Spektrum , aber keine sehr gute, da das Auge leicht von Metameren oder Farbenblindheit getäuscht werden kann.
Tatsächlich ist Blau und Grün auch für NIR empfindlich. Sie öffnen sich bis zu einer Spitze von 850nm und überschreiten dort die Rotempfindlichkeit. Das Rot fällt gleichmäßig ab, um die anderen bei 850 nm zu kreuzen, und sie fallen zusammen bis zu 1100 nm ab und werden dort abgeschnitten. keiner von ihnen ist IR-empfindlich, es sei denn, Sie verwenden eine InGaAs-Kamera.
@MichaelNielsen hat versucht, es einfach zu halten, ich habe es aktualisiert, also denke ich, dass es jetzt richtig ist.
In der Theorie richtig, aber nicht in der Praxis: "Sichtbares Licht herausfiltern ... damit nur Infrarotlicht aufgezeichnet wird." In der Praxis (abgesehen von wissenschaftlichen Methoden) beinhaltet die IR-Fotografie das Filtern des größten Teils des sichtbaren Lichts, sodass hauptsächlich IR- und nahes IR-Licht aufgezeichnet wird. Unterschiede, bei denen „die meisten“ Teilmengen des sichtbaren Lichts gefiltert werden, verleihen verschiedenen IR-Filmen/Kameras/Linsen ihr einzigartiges charakteristisches „Aussehen“. Außerdem unterscheiden sich unterschiedliche Filme/Kameras/Objektive in ihrer Empfindlichkeit gegenüber unterschiedlichen IR-Wellenlängen, sodass nicht konsistent ist, welche IR-„Farben“ aufgezeichnet werden. Diese Unterschiede auszunutzen, ist ein großer Teil der Kunst der IR-Fotografie.
Nett. Der Wood-Effekt kann auch durch einen Bildverstärker (Starlight Scope) gesehen werden, der im nahen IR am empfindlichsten ist. Das Laub erscheint ziemlich hell.

Das Bild, das wir von einer Infrarotkamera sehen, ist ein sogenanntes Falschfarbenbild . Das bedeutet, dass ein Bereich von Wellenlängen im Infrarotspektrum mit einer entsprechenden Wellenlänge von sichtbarem Licht wiedergegeben wird. Genau wie bei sichtbarem Licht kann die Intensität einer bestimmten Wellenlänge von Infrarotlicht von knapp über Schwarz (Schatten) bis nahezu Sättigung (Lichter) variieren.

Wie jede Wellenlänge und Intensität des Infrarotlichts in das sichtbare Licht übersetzt wird, das wir sehen können, hängt stark vom Zweck und der beabsichtigten Verwendung des Infrarotbilds ab. Es hängt auch davon ab, ob das Bild mit einer Kamera aufgenommen wurde, die von Grund auf dafür ausgelegt ist, Licht im Infrarotspektrum aufzunehmen, oder mit einer Kamera, die dafür ausgelegt ist, sichtbares Licht aufzunehmen, das durch Entfernen des Infrarotfilters der meisten Kameras in Infrarotlicht umgewandelt wurde und Hinzufügen eines Filters zum Entfernen von sichtbarem Licht.

Bilder von astronomischen Instrumenten, die den Nachthimmel im Infrarotbereich fotografieren, werden in der Regel so verarbeitet, dass sie wie der sichtbare Nachthimmel aussehen, obwohl das, was am Himmel sichtbar ist und was nicht, auf einem Infrarotbild anders ist als das, was auf einem sichtbaren Bild sichtbar ist Lichtbild. Typischerweise werden kürzere Wellenlängen von Infrarotlicht als kürzere Wellenlängen von sichtbarem Licht (blau), mittlere Wellenlängen von Infrarotlicht als mittlere Wellenlängen von sichtbarem Licht (grün) und längere Wellenlängen im Infrarotspektrum als länger wiedergegeben Wellenlängen im sichtbaren Lichtspektrum (rot).

Andererseits zeigen Bilder, die verwendet werden, um Menschen im Dunkeln zu sehen ("Nachtsicht"-Bilder), oft unterschiedliche Intensitäten derselben Wellenlänge (10 µm - die Wellenlänge, bei der Menschen die meiste Wärme abstrahlen) mit unterschiedlichen Farben. In diesem Fall könnte Weiß die höchste Intensität bei 10 µm bezeichnen, Rot könnte eine etwas geringere Intensität bei 10 µm bezeichnen, Grün eine noch geringere Intensität und so weiter. Die anderen Wellenlängen des Infrarotlichts werden möglicherweise überhaupt nicht wiedergegeben.

Beispiele für jedes der oben genannten Szenarien sind am Anfang des Wikipedia-Artikels über Infrarot sichtbar .

Ein Echtfarben-IR-Foto wäre äußerst langweilig ... ein schwarzes Feld.
Die meisten "Nachtsichtgeräte" sehen kein von Menschen ausgestrahltes IR, sondern verstärken die kleinen Mengen an sichtbarem und insbesondere nahem IR-Licht, das nachts üblich ist. Um IR von Menschen oder anderen Quellen zu sehen, benötigt man ein echtes IR-Gerät wie eine FLIR- oder Thermografiekamera. en.wikipedia.org/wiki/Thermographic_camera Diese sind sehr praktisch, um Dinge wie Wasserlecks und schlechte Isolierung in Wänden und Decken zu finden und spezielle Linsen zu verwenden, da Glas bei thermischen IR-Wellenlängen (5 bis 15 um) undurchsichtig ist.
@doug Wenn sie kein Infrarot abbilden, handelt es sich nicht um Infrarotgeräte (und die Antwort spricht solche Geräte überhaupt nicht an). Es gibt Infrarot-Nachtsichtgeräte, die Intensitäten bei 10 µm erkennen.
Nachtsichtgeräte bilden IR ab, da sie für IR empfindlicher sind als für sichtbares Licht. Viele haben sogar IR-LEDs, die darauf montiert sind, um Sicht in völliger Dunkelheit oder bei unzureichendem Sternenlicht zu ermöglichen. Nachtsichtgeräte, wie allgemein bezeichnet, sind keine Wärmebildkameras. "Okay, das Objektiv kann es." Die Frage bezieht sich nicht auf Wärmebildkameras, die Bolometrie verwenden und keine Glaslinsen verwenden. Siehe: en.wikipedia.org/wiki/Night-vision_device

Ja, Infrarotfotografie zeichnet Infrarotwellenlängen auf. Normalerweise wird ein Filter verwendet, um sicherzustellen, dass kein sichtbares Licht aufgenommen wird. Sensoren und Filme basieren nicht auf dem menschlichen Auge, daher sind ihre Einschränkungen unterschiedlich. Wir können das Infrarotlicht auf den resultierenden Fotos sehen, weil es in einer anderen Farbe als Infrarot angezeigt wird.

In der Fotografie stimmen die Farben im resultierenden Foto selten genau mit der ursprünglichen Ansicht überein. Tatsächlich erfordert es große Anstrengungen, um zu verhindern, dass sich die Farben während des gesamten Arbeitsablaufs ändern. Es gibt mehrere Techniken, die sich mehr oder weniger die Mutation von Farben zunutze machen, wie z. B. Cross-Processing, HDR, Schwarzweiß usw.; und IR-Fotografie ist nur eine davon. Die Röntgenbildgebung ist ein weiteres Beispiel dafür, unsichtbare Wellenlängen in sichtbare umzuwandeln.

Die Kamera ist ein Gitter aus Sensoren, die Photonen aus einem bestimmten Bereich zählen. Sie zählen diese Photonen und erstellen eine Tabelle, die die Frequenz der Photonen (wie viele Photonen pro Zeiteinheit, nicht ihre EM-Frequenz) für jeden Sensor im Gitter zeigt.

In der Praxis haben Kameras Sensoren, die für das Einfangen roter, blauer und grüner Photonen optimiert sind, aber sie fangen zufällig auch Infrarotlicht ein. Mithilfe von Filtern können Sie nur IR auf die Sensoren zulassen. Sie erhalten dann eine Zahlentabelle, die die Häufigkeit von Photonen im IR-Bereich anzeigt.

Sie können jetzt mit diesem Tisch machen, was Sie wollen. Sie können es als 3D-Funktion mit der Frequenz als Höhe darstellen. Sie können niedrige Zahlen Schwarz und hohe Zahlen Weiß zuordnen, um ein Graustufenbild zu erzeugen. Sie können niedrige Zahlen auf Schwarz, mittlere Zahlen auf Orange-Gelb und hohe Zahlen abbilden, um das Glühen von glühendem Metall nachzuahmen.

Der Grund, warum Sie die IR-Farben sehen können, liegt darin, dass die Kamera kein Bild mit genau denselben (IR-)Farben erzeugt, die sie gesehen hat. Es erzeugt ein transformiertes Bild, in dem jede IR-Wellenlänge auf eine sichtbare Wellenlänge abgebildet wird. Dies wird nicht von der Software erledigt, sondern von selbst: Die Sensoren erfassen normalerweise sowohl sichtbares als auch IR, aber die Software geht davon aus, dass alles sichtbar ist, da ein IR-Filter Photonen mit IR-Wellenlängen blockiert. Aber einige Leute entfernen die Filter.

Es ist alles möglich, spezielle Wärmebildkameras herzustellen, bei denen die Sensoren tatsächlich so optimiert sind, dass sie IR erfassen. Diese hätten wahrscheinlich eine Software, die IR explizit in sichtbares Licht umwandelt.