Grundsätzlich gibt es eine handelsübliche Kamera (oder einen Bildsensor), die alle 3 (NIR, sichtbar und UV) in einem Foto erfassen kann.
Es gibt online viele Beispiele von Leuten, die Bilder in NIR, dann sichtbar, dann UV aufnehmen und sie zusammenfügen, aber nichts, was dies in einer einzigen Aufnahme tun kann.
Abhängig von Ihrer Definition von "kommerzieller Verfügbarkeit" (es ist für mich ziemlich nicht verfügbar) könnte Phase One Achromatic auf die Beschreibung passen.
Noch eine Anmerkung: Die relative Intensität / Sensorempfindlichkeit (sie endet gleich) von sichtbarem und unsichtbarem Licht ist sehr unterschiedlich. Die richtige Belichtung in unsichtbarem Licht ist mehr Kunst als Wissenschaft (meiner Erfahrung nach - in der Nähe von UV sind es etwa 4 Blenden und in der Nähe von IR etwa 5, aber es sind viele Belichtungsreihen erforderlich).
Die Verwendung von Filtern und die Trennung der drei Aufnahmen (UV, sichtbar, IR) ermöglicht längere Zeiten / eine breitere Blende für die Aufnahmen mit unsichtbarem Licht. Das Aufnehmen mit den gleichen Einstellungen wie für sichtbares Licht würde zu einem dunklen Bild führen.
Die Kombination aller drei Spektren in einem Bild würde in den meisten Fällen dazu führen, dass das sichtbare Lichtbild die beiden unsichtbaren "verdrängt".
Normale DSLRs zeichnen NIR (und etwas UV) auf; Sie enthalten normalerweise Filter , um dies zu vermeiden. Google „IR-Filter entfernen“, um herauszufinden, wie man sie dazu bringt, genau das zu tun.
Nicht, dass - wie andere beschrieben haben - jede Wellenlänge eine andere Fokusebene hat, sodass Sie sie kaum alle gleichzeitig scharf stellen können, wenn Sie die Blende möglicherweise vollständig schließen (auf 1: 32 oder 1: 45). es.
Ihnen wurde gesagt, dass Ihre Kamera über optische Filter verfügt, die UV- und IR-Strahlung ausschließen sollen. Diese sind nicht perfekt. Ich wette, dass Ihre Digitalkamera wahrscheinlich die Spitze des IR-Bereichs erfassen wird. Konzentrieren Sie sich zum Testen auf das geschäftliche Ende einer TV-IR-Fernbedienung. Wenn Ihre Kamera eine Restempfindlichkeit für Infrarot aufweist, sehen Sie die Spitze der Fernbedienung leuchten. Gleiches gilt für UV. Probieren Sie ein Bild mit Schwarzlicht (UV-Lichtquelle) aus. Ich wette, Sie werden ein kleines Bild bekommen.
Die Fotowissenschaft hat einen langen Weg zurückgelegt, wenn es darum geht, Bilder aus den verschiedenen Bereichen des Spektrums zu präsentieren, die über und unter unserem Sichtbereich liegen. Die Röntgenbildgebung hat die medizinische Wissenschaft erheblich vorangebracht. Es hört hier nicht auf. Wir können Wärmequellen abbilden. Dies ist das Infrarot (IR), mit dem wir sehen können, wie Wärme aus einem schlecht isolierten Gebäude entweicht oder nachtaktive Tiere sich im Wald tummeln. Ganz zu schweigen von Utensilien für militärische Nachtsichtgeräte und Luftaufklärung. Wir können sogar Radio und Mikrowellen (RADAR) abbilden. Und natürlich fotografiert die Elektronenmikroskopkamera den Superwinzigen.
Wenn wir oberhalb (ultra) und unterhalb (infra) des menschlichen Sehbereichs abbilden, bilden wir zwangsläufig in Falschfarben ab. „Falsch“, weil wir nur erahnen können, wie diese Frequenzen unserer Auge/Gehirn-Kombination erscheinen würden, wenn wir sie sehen könnten. Meistens stellen wir uns diese ungewohnten Sehenswürdigkeiten schwarz-weiß vor. Wir färben oder schattieren das resultierende Bild oft, um uns zu helfen, dem, was wir sehen, einen Sinn zu geben. Ein Röntgenbild in Falschfarbe kann dem Arzt bei der Diagnose helfen.
Die Abbildung der Infra- und Ultrafrequenzen hat ein neues Kapitel aufgeschlagen, wenn es um unser Verständnis unseres Universums geht.
Hier ist ein Problem mit jeder Kamera, die versucht, ein so breites Spektrum an Licht einzufangen: Das Anzeigemedium muss in der Lage sein, zu zeigen, was es nur im sichtbaren Spektrum erfasst hat, denn wenn es das UV im UV-Spektrum und / oder das IR anzeigt in Im IR-Spektrum würden Sie es nicht sehen können. Das bedeutet, dass die Farben im sichtbaren Spektrum verschoben werden müssten, um an beiden Enden Platz für UV und IR zu schaffen.
Das Hauptproblem ist jedoch die Art und Weise, wie die meisten Digitalkameras Farben erkennen. Sie verwenden eine Bayer-Maske, die am empfindlichsten für nahezu die gleichen Lichtwellenlängen ist wie die Zapfen in unserer Netzhaut. Selbst wenn IR und UV nicht gefiltert würden, bevor das Licht den Sensor erreicht, würde die Empfindlichkeitskurve der Sensoren bedeuten, dass das sichtbare Licht das Bild bis zu dem Punkt dominieren würde, an dem UV und IR nur noch einen sehr geringen Einfluss hätten (außer dem IR). bewirken, dass Glanzlichter bei etwas niedrigeren Belichtungsstufen durchbrennen).
Jedes Licht jenseits des roten Endes des sichtbaren Spektrums ruft bei den meisten Digitalkameras eine ziemlich gleiche Reaktion der Sinne unter allen drei gefilterten Farben hervor. Die Sensoren, die in typischen Digitalkameras verwendet werden, sind auch nicht in der Lage, sehr gut zwischen verschiedenen Wellenlängen auf der UV-Seite zu unterscheiden. Da die meisten Digitalkameras nur für die Reproduktion von sichtbarem Licht ausgelegt sind, haben die Sensoren vor ihnen Filter, die Infrarot- und UV-Licht daran hindern, den Sensor zu erreichen.
dav1dsm1th
SchwerE