Ich versuche, die Funktionsweise eines CMOS-Bildsensors zu verstehen. Ich verstehe, dass eine zunehmende Wellenlänge zu einer erhöhten Eindringtiefe in das Silizium führt, das häufig in CMOS- Bildsensoren verwendet wird. Was ich zum Verständnis brauche, ist, wie die Wellenlängen (entsprechend den Grundfarben Rot, Grün und Blau) mit der vertikalen Struktur des CMOS-Sensors zusammenhängen.
Nachdem ich mehrere Artikel gelesen und einige Experimente durchgeführt habe, ist mir bewusst, dass CMOS-Sensoren tatsächlich empfindlich auf UV-Wellenlängen reagieren, aber ich versuche zu verstehen, wie ich mit einer einfallenden UV-Quelle eine rötlich-rosa Reaktion erhalten konnte.
Eine Nachverfolgung von Links, die von den Links ausgehen, die @ krs013 freundlicherweise in seiner Antwort bereitgestellt hat.
Einer der Schlüsselfaktoren, der auf Seite 19 dieses Hamamatsu*-Artikels erwähnt wird , ist die Intensität des auf den Sensor einfallenden Lichts (höhere Intensität = größere Reaktion). Ein weiterer Artikel ist dieser ältere Artikel von UDT-Sensoren * (von 1982 - veraltet, aber eine gute Grundlage), der darauf hindeutet, dass die unterschiedlichen UV- und sichtbaren Lichtabsorptionseigenschaften von Silizium und Siliziumdioxid (verwendet in CMOS-Sensoren) als ein weiterer Faktor (etwas, das ich bin gehe jetzt zur Recherche).
Nun, in den Experimenten, die in meinem Eröffnungsbeitrag erwähnt wurden (vor kurzem validiert und veröffentlicht**), waren die meisten Reaktionen im nahen UV beim Betrachten der Sonne rötlich-rosa (2. Artikel), da ich Messungen bei unterschiedlichen Intensitäten des einfallenden Lichts durchführte , kann dies für die scheinbar kontraintuitive rötliche Reaktion auf nahes UVA-Licht verantwortlich sein.
*Beachten Sie, dass ich weder mit Hamamatsu noch mit UDT verbunden bin, aber die Arbeit, die sie geleistet haben, in diesen Referenzen anerkenne.
**Ich füge diesen Link zu einem meiner veröffentlichten Artikel nur ein, da er die zunehmende Reaktion der Kamera auf zunehmende UV-Strahlung demonstriert.
Nachdem ich die Wikipedia-Seite und diesen Artikel gelesen habe , verstehe ich Ihre Frage etwas besser. Ein CMOS-Sensor erkennt Farben, indem er Licht durch drei Detektorschichten mit jeweils einer bestimmten spektralen Empfindlichkeit und Absorption passieren lässt. Ich glaube nicht, dass jede Schicht spezifisch rot, blau und grün ist, sondern dass sich ihre Antworten überschneiden und dass der Prozessor diese Ausgabe dekodiert und sie einem Farbumfang zuordnet, ähnlich wie es unsere Augen tun. Das Design ist jedoch für sichtbares Licht und nicht für UV-Strahlung ausgelegt. Das UV wird wahrscheinlich nicht so erkannt und gefiltert, dass es charakterisiert werden könnte; es würde nur wie ein zufälliges andersfarbiges Licht aussehen. Also ja, CMOS-Sensoren erkennen UV-Licht, aber wahrscheinlich nicht auf nützliche Weise.
Ich denke, dass die Diskrepanz auf zwei Arten auftreten könnte. Entweder reagieren die Fotodioden , die den Detektorteil des Sensors bilden, auf unbeabsichtigte Weise auf UV-Strahlung (ich würde nicht wissen, ob dies wahrscheinlich ist), oder das Filtern von Licht beim Durchgang durch den Sensor blockiert UV nicht so gut die blauen und grünen Ebenen (beachten Sie die Reihenfolge im zweiten Link), sodass alles in Rot endet. Das zweite ist wahrscheinlicher, aber beide könnten Ursachen sein. Ich hoffe das hilft!
Benutzer24901
QMechaniker
krs013
krs013
Benutzer24901
Emilio Pisanty