Gibt es Kameras, die NIR-, sichtbares und UV-Licht aufnehmen?

Grundsätzlich gibt es eine handelsübliche Kamera (oder einen Bildsensor), die alle 3 (NIR, sichtbar und UV) in einem Foto erfassen kann.

Es gibt online viele Beispiele von Leuten, die Bilder in NIR, dann sichtbar, dann UV aufnehmen und sie zusammenfügen, aber nichts, was dies in einer einzigen Aufnahme tun kann.

Angesichts der Tatsache, dass chromatische Aberration durch die Schwierigkeit verursacht wird, verschiedene Lichtwellenlängen auf dieselbe Ebene (Sensor) zu fokussieren – was nur innerhalb des sichtbaren Spektrums Probleme verursacht – ist es schwierig, sich ein Objektiv vorzustellen, das sich in NIR und UV erstrecken und alles bringen könnte die Wellenlängen zusammen, um ein akzeptables Bild zu erzeugen. Vielleicht verschiedene Lichtwege für verschiedene Wellenlängen zu verschiedenen Sensoren, die dann zusammengeführt werden - aber das klingt sehr, sehr komplex für einen begrenzten Markt.
Offline hat mich jemand darüber informiert, dass der aktuelle Prozess, um Silizium UV-empfindlich zu machen, anders ist als VIS & NIR – was dies zu einer herausfordernden Angelegenheit macht.

Antworten (4)

Abhängig von Ihrer Definition von "kommerzieller Verfügbarkeit" (es ist für mich ziemlich nicht verfügbar) könnte Phase One Achromatic auf die Beschreibung passen.

Noch eine Anmerkung: Die relative Intensität / Sensorempfindlichkeit (sie endet gleich) von sichtbarem und unsichtbarem Licht ist sehr unterschiedlich. Die richtige Belichtung in unsichtbarem Licht ist mehr Kunst als Wissenschaft (meiner Erfahrung nach - in der Nähe von UV sind es etwa 4 Blenden und in der Nähe von IR etwa 5, aber es sind viele Belichtungsreihen erforderlich).

Die Verwendung von Filtern und die Trennung der drei Aufnahmen (UV, sichtbar, IR) ermöglicht längere Zeiten / eine breitere Blende für die Aufnahmen mit unsichtbarem Licht. Das Aufnehmen mit den gleichen Einstellungen wie für sichtbares Licht würde zu einem dunklen Bild führen.

Die Kombination aller drei Spektren in einem Bild würde in den meisten Fällen dazu führen, dass das sichtbare Lichtbild die beiden unsichtbaren "verdrängt".

Danke - Die Info zu den längeren Zeiten / größerer Blende ist besonders hilfreich.
Link scheint defekt zu sein
lustig, der Link schien gestern zu funktionieren - habe ihn durch einen anderen ersetzt (immer noch der gleiche Rücken)

Normale DSLRs zeichnen NIR (und etwas UV) auf; Sie enthalten normalerweise Filter , um dies zu vermeiden. Google „IR-Filter entfernen“, um herauszufinden, wie man sie dazu bringt, genau das zu tun.

Nicht, dass - wie andere beschrieben haben - jede Wellenlänge eine andere Fokusebene hat, sodass Sie sie kaum alle gleichzeitig scharf stellen können, wenn Sie die Blende möglicherweise vollständig schließen (auf 1: 32 oder 1: 45). es.

Ihnen wurde gesagt, dass Ihre Kamera über optische Filter verfügt, die UV- und IR-Strahlung ausschließen sollen. Diese sind nicht perfekt. Ich wette, dass Ihre Digitalkamera wahrscheinlich die Spitze des IR-Bereichs erfassen wird. Konzentrieren Sie sich zum Testen auf das geschäftliche Ende einer TV-IR-Fernbedienung. Wenn Ihre Kamera eine Restempfindlichkeit für Infrarot aufweist, sehen Sie die Spitze der Fernbedienung leuchten. Gleiches gilt für UV. Probieren Sie ein Bild mit Schwarzlicht (UV-Lichtquelle) aus. Ich wette, Sie werden ein kleines Bild bekommen.

Die Fotowissenschaft hat einen langen Weg zurückgelegt, wenn es darum geht, Bilder aus den verschiedenen Bereichen des Spektrums zu präsentieren, die über und unter unserem Sichtbereich liegen. Die Röntgenbildgebung hat die medizinische Wissenschaft erheblich vorangebracht. Es hört hier nicht auf. Wir können Wärmequellen abbilden. Dies ist das Infrarot (IR), mit dem wir sehen können, wie Wärme aus einem schlecht isolierten Gebäude entweicht oder nachtaktive Tiere sich im Wald tummeln. Ganz zu schweigen von Utensilien für militärische Nachtsichtgeräte und Luftaufklärung. Wir können sogar Radio und Mikrowellen (RADAR) abbilden. Und natürlich fotografiert die Elektronenmikroskopkamera den Superwinzigen.

Wenn wir oberhalb (ultra) und unterhalb (infra) des menschlichen Sehbereichs abbilden, bilden wir zwangsläufig in Falschfarben ab. „Falsch“, weil wir nur erahnen können, wie diese Frequenzen unserer Auge/Gehirn-Kombination erscheinen würden, wenn wir sie sehen könnten. Meistens stellen wir uns diese ungewohnten Sehenswürdigkeiten schwarz-weiß vor. Wir färben oder schattieren das resultierende Bild oft, um uns zu helfen, dem, was wir sehen, einen Sinn zu geben. Ein Röntgenbild in Falschfarbe kann dem Arzt bei der Diagnose helfen.

Die Abbildung der Infra- und Ultrafrequenzen hat ein neues Kapitel aufgeschlagen, wenn es um unser Verständnis unseres Universums geht.

Hier ist ein Problem mit jeder Kamera, die versucht, ein so breites Spektrum an Licht einzufangen: Das Anzeigemedium muss in der Lage sein, zu zeigen, was es nur im sichtbaren Spektrum erfasst hat, denn wenn es das UV im UV-Spektrum und / oder das IR anzeigt in Im IR-Spektrum würden Sie es nicht sehen können. Das bedeutet, dass die Farben im sichtbaren Spektrum verschoben werden müssten, um an beiden Enden Platz für UV und IR zu schaffen.

Das Hauptproblem ist jedoch die Art und Weise, wie die meisten Digitalkameras Farben erkennen. Sie verwenden eine Bayer-Maske, die am empfindlichsten für nahezu die gleichen Lichtwellenlängen ist wie die Zapfen in unserer Netzhaut. Selbst wenn IR und UV nicht gefiltert würden, bevor das Licht den Sensor erreicht, würde die Empfindlichkeitskurve der Sensoren bedeuten, dass das sichtbare Licht das Bild bis zu dem Punkt dominieren würde, an dem UV und IR nur noch einen sehr geringen Einfluss hätten (außer dem IR). bewirken, dass Glanzlichter bei etwas niedrigeren Belichtungsstufen durchbrennen).

Jedes Licht jenseits des roten Endes des sichtbaren Spektrums ruft bei den meisten Digitalkameras eine ziemlich gleiche Reaktion der Sinne unter allen drei gefilterten Farben hervor. Die Sensoren, die in typischen Digitalkameras verwendet werden, sind auch nicht in der Lage, sehr gut zwischen verschiedenen Wellenlängen auf der UV-Seite zu unterscheiden. Da die meisten Digitalkameras nur für die Reproduktion von sichtbarem Licht ausgelegt sind, haben die Sensoren vor ihnen Filter, die Infrarot- und UV-Licht daran hindern, den Sensor zu erreichen.

Ich denke, die Frage ist nicht unbedingt auf typische Consumer-Kameras beschränkt. Nehmen Sie zum Beispiel die monochromatischen Astrofotografiekameras, wechseln Sie einfach die Filter und machen Sie mehrere Fotos desselben Motivs mit vielen verschiedenen Wellenlängen, von IR bis UV. vorausgesetzt natürlich, das Motiv bewegt sich zwischen den Aufnahmen nicht viel ;-)
@szulat - Diese Seite ist jedoch per Definition auf bestimmte Arten der Fotografie beschränkt.
@MichaelClark - Zuerst danke für das Feedback! Zweitens, inwiefern ist dies auf bestimmte Arten der Fotografie beschränkt? Die einzige Stack Exchange-Definition für die Website, die ich finden konnte, lautet „Fragen und Antworten für professionelle, begeisterte und Amateurfotografen“.
In mehreren Metadiskussionen werden bestimmte Arten der technischen Fotografie, wie maschinelles Sehen und wissenschaftliche Datenerfassung, ausgeschlossen. Einige Fragen, die möglicherweise vor diesen Diskussionen bestanden haben, bleiben wegen ihres historischen Werts bestehen, aber diese Arten der Fotografie werden jetzt ausdrücklich ausgeschlossen, da sie nicht zum Thema gehören. Der Geltungsbereich dieser Website ist kreative Fotografie.