Warum sind Sensoren weniger empfindlich gegenüber blauem Licht?

Dies ist eine Folgefrage zu Warum ist der blaue Kanal am lautesten? . Die einfache Antwort auf diese Frage lautet, dass Sensoren für Blau weniger empfindlich sind und daher eine stärkere Verstärkung erfordern, was zu mehr Rauschen führt. (Erschwerend kommt hinzu, dass typische Szenenbeleuchtungen wie Sonnenlicht oder Glühlampen in Blau fehlen.)

Warum sind Sensoren also weniger empfindlich gegenüber blauem Licht?

Ist dies derzeit bei vielen Sensoren so oder ist es grundlegender ein "Gesetz" der Fotografie?

Ist es nur ein Zufall unserer derzeitigen CMOS- und CCD-Technologie? Liegt es an den verwendeten Farbfiltern oder an den eigentlichen Fotodioden? Was ist mit rückseitig beleuchteten Sensoren? Beim typischen Bayer-Layout gibt es doppelt so viele grüne Sensoren wie rote und blaue; Wäre Blau ohne dies immer noch schlechter als Grün? Warum ist Rot anscheinend besser als Blau, obwohl es die gleiche Anzahl von Fotoseiten gibt? Reagieren CCD- und CMOS-Sensoren ähnlich? Oder was ist mit Foveon, von dem ich weiß, dass es einige Probleme im roten Kanal gibt? Wie wäre es denn mit einem blauen Farbfilm?
Und kann ich „Materie“ richtig schreiben, wenn ich eine Reihe von Schnellfeuerfragen tippe? Zumindest auf diese Frage ist die Antwort klar. :)
Ich habe letztes Mal erklärt, warum die Sensoren weniger blauempfindlich sind: Ein Großteil des blauen Lichts wird in der Gate-Struktur absorbiert, bevor es die Photosite erreicht, und der Wechsel zu rückseitig beleuchteten Sensoren würde das Problem weitgehend lösen.
@coneslayer - danke. Ich hatte irgendwie den Link im unteren Abschnitt Ihrer letzten Antwort verpasst. Wenn Sie weitere Referenzen dafür haben, wäre das großartig – die meiste nichtwissenschaftliche Literatur, die ich zu rückseitig beleuchteten Sensoren gesehen habe, erwähnt keine Farbempfindlichkeitsunterschiede.
Diese Seite könnte von Interesse sein; es hat eine Tabelle der durchschnittlichen Absorptionstiefe in Silizium als Funktion der Wellenlänge. Sie können sehen, dass es für blaues Licht dramatisch kürzer ist als für rotes Licht, also möchten Sie wirklich, dass sich die Fotodioden für blaues Licht nahe an der Eintrittsfläche befinden. learn.hamamatsu.com/articles/quantumefficiency.html

Antworten (2)

Um auf der Antwort von Pearsonartphoto aufzubauen, lesen Sie diesen Anwendungshinweis von Kodak:
Farbkorrektur für Bildsensor – Kodak

Dieses Diagramm zeigt die natürliche spektrale Empfindlichkeit eines CMOS-Sensors (copyright Kodak):
Geben Sie hier die Bildbeschreibung ein
Als Referenz finden Sie hier eine Tabelle, die Wellenlänge mit Farbe in Beziehung setzt (copyright Wikipedia):
Geben Sie hier die Bildbeschreibung ein

Das monochrome Signal des CMOS-Sensors wird in ein RGB-Signal umgewandelt, indem ein Bayer-Farbfilterarray vor den Pixeln platziert wird. Dies erzeugt nach Interpolation die unten gezeigte Farbantwort (copyright Kodak). Beachten Sie, dass der Peak für Blau bei 460 nm etwa 50 % niedriger ist als die Peak-Antworten für Rot und Grün. Die für dieses Signal erforderliche größere Verstärkung erzeugt mehr Rauschen.
Geben Sie hier die Bildbeschreibung ein

Vergleichen Sie dies unten mit der spektralen Empfindlichkeit des menschlichen Auges. ( Copyright E Schubert ) Empfindlichkeit des menschlichen Auges
und photometrische Größen
Geben Sie hier die Bildbeschreibung ein

Die mit Abstand günstigsten Sensortypen sind CCD und CMOS. Sie arbeiten, indem sie sich das Bandgap-Phänomen von Silizium zunutze machen. Ein Sensor ist optimiert, wenn er auf eine Wellenlänge abgestimmt ist, die stärker als die Bandlücke, aber nicht zu stark ist. Der Badgap für Silizium entspricht einem 1,1 um Licht. Aus diesem Grund können Kameras normalerweise im IR sehen und benötigen einen IR-Filter, um das Signal zu blockieren.

Wenn das Signal viel stärker als die Bandlücke wird, nimmt die Empfindlichkeit ab. Anstatt die aufgebaute Ladung zu erhöhen, wird sie dazu neigen, das System einfach vollständig zu passieren.

Blau der 3 Kanäle hat die kürzeste Wellenlänge und damit die meiste Energie. Es ist an dem Punkt, an dem die Empfindlichkeit bereits abnimmt. Weitere Wellenlängen, wie das UV, sind noch weniger empfindlich und werden daher nicht einmal abgebildet (daher benötigen Digitalkameras keinen UV-Filter).

Ich glaube nicht, dass das richtig ist. Photonen mit höherer Energie als die Bandlücke (dh blaues Licht) werden leicht von Silizium absorbiert; sie gehen nicht durch. Das Problem besteht darin, dass bei einem frontseitig beleuchteten Detektor die blauen Photonen zu schnell innerhalb der Gate-Struktur absorbiert werden, bevor sie die Photosites erreichen.
@coneslayer: Guter Anruf ... Es ist eine Weile her, seit ich Kurse in Halbleitern besucht habe, ich glaube, ich habe ein paar subtile Details vergessen ...