Frage zur geschichteten CMOS-Struktur

Ich versuche, die Funktionsweise eines CMOS-Bildsensors zu verstehen. Ich verstehe, dass eine zunehmende Wellenlänge zu einer erhöhten Eindringtiefe in das Silizium führt, das häufig in CMOS- Bildsensoren verwendet wird. Was ich zum Verständnis brauche, ist, wie die Wellenlängen (entsprechend den Grundfarben Rot, Grün und Blau) mit der vertikalen Struktur des CMOS-Sensors zusammenhängen.

Nachdem ich mehrere Artikel gelesen und einige Experimente durchgeführt habe, ist mir bewusst, dass CMOS-Sensoren tatsächlich empfindlich auf UV-Wellenlängen reagieren, aber ich versuche zu verstehen, wie ich mit einer einfallenden UV-Quelle eine rötlich-rosa Reaktion erhalten konnte.

Hat da jemand Ahnung?
Wäre electronic.stackexchange.com ein besseres Zuhause für diese Frage?
Das bezweifle ich. Die UV-Antwort eines CMOS-Sensors klingt nicht nach einem Elektronikproblem; Es ist eher ein Optik-Thema.
@DamienIgoe: Was ist Ihre Quelle für UV-Licht? Ich denke auch, dass dies ein besserer Link zum Aufstellen wäre. Hast du es gelesen?
Eigentlich habe ich diesen Link nicht eingefügt - muss eine Bearbeitung sein. Sowohl der bearbeitete Link als auch Ihr Link sind jedoch sehr gute Beschreibungen.
Löschen Sie dies nicht ! Ich denke, das ist eine wertvolle Frage. In dieser Diskussion ging es um "Mach meine Hausaufgaben"-Fragen, die keinen wirklichen Forschungsaufwand zeigen und sehr lokal sind. Das ist in Ordnung!

Antworten (2)

Eine Nachverfolgung von Links, die von den Links ausgehen, die @ krs013 freundlicherweise in seiner Antwort bereitgestellt hat.

Einer der Schlüsselfaktoren, der auf Seite 19 dieses Hamamatsu*-Artikels erwähnt wird , ist die Intensität des auf den Sensor einfallenden Lichts (höhere Intensität = größere Reaktion). Ein weiterer Artikel ist dieser ältere Artikel von UDT-Sensoren * (von 1982 - veraltet, aber eine gute Grundlage), der darauf hindeutet, dass die unterschiedlichen UV- und sichtbaren Lichtabsorptionseigenschaften von Silizium und Siliziumdioxid (verwendet in CMOS-Sensoren) als ein weiterer Faktor (etwas, das ich bin gehe jetzt zur Recherche).

Nun, in den Experimenten, die in meinem Eröffnungsbeitrag erwähnt wurden (vor kurzem validiert und veröffentlicht**), waren die meisten Reaktionen im nahen UV beim Betrachten der Sonne rötlich-rosa (2. Artikel), da ich Messungen bei unterschiedlichen Intensitäten des einfallenden Lichts durchführte , kann dies für die scheinbar kontraintuitive rötliche Reaktion auf nahes UVA-Licht verantwortlich sein.

*Beachten Sie, dass ich weder mit Hamamatsu noch mit UDT verbunden bin, aber die Arbeit, die sie geleistet haben, in diesen Referenzen anerkenne.

**Ich füge diesen Link zu einem meiner veröffentlichten Artikel nur ein, da er die zunehmende Reaktion der Kamera auf zunehmende UV-Strahlung demonstriert.

Nachdem ich die Wikipedia-Seite und diesen Artikel gelesen habe , verstehe ich Ihre Frage etwas besser. Ein CMOS-Sensor erkennt Farben, indem er Licht durch drei Detektorschichten mit jeweils einer bestimmten spektralen Empfindlichkeit und Absorption passieren lässt. Ich glaube nicht, dass jede Schicht spezifisch rot, blau und grün ist, sondern dass sich ihre Antworten überschneiden und dass der Prozessor diese Ausgabe dekodiert und sie einem Farbumfang zuordnet, ähnlich wie es unsere Augen tun. Das Design ist jedoch für sichtbares Licht und nicht für UV-Strahlung ausgelegt. Das UV wird wahrscheinlich nicht so erkannt und gefiltert, dass es charakterisiert werden könnte; es würde nur wie ein zufälliges andersfarbiges Licht aussehen. Also ja, CMOS-Sensoren erkennen UV-Licht, aber wahrscheinlich nicht auf nützliche Weise.

Ich denke, dass die Diskrepanz auf zwei Arten auftreten könnte. Entweder reagieren die Fotodioden , die den Detektorteil des Sensors bilden, auf unbeabsichtigte Weise auf UV-Strahlung (ich würde nicht wissen, ob dies wahrscheinlich ist), oder das Filtern von Licht beim Durchgang durch den Sensor blockiert UV nicht so gut die blauen und grünen Ebenen (beachten Sie die Reihenfolge im zweiten Link), sodass alles in Rot endet. Das zweite ist wahrscheinlicher, aber beide könnten Ursachen sein. Ich hoffe das hilft!

Vielen Dank für Ihre Antwort, ich konnte die UV-Reaktion charakterisieren (habe einen Artikel darüber in Photobiology Photochemistry veröffentlicht). Was ich zu verstehen versuche, ist, wie ich durchweg rot dominierte Bilder bekomme. Ihr zweiter Link scheint eine Möglichkeit zu sein, das zu erklären, ich werde mir das genauer ansehen, wenn ich von der Arbeit nach Hause komme.
Ich stelle mir vor, dass die rote Sättigung darauf zurückzuführen ist, dass das UV die blauen und grünen Schichten durchdringt, was als rotes Licht interpretiert wird. Trotzdem weiß ich über CMOS-Sensoren nur das, was ich heute gelernt habe, also gebe ich nicht vor, es besser zu wissen als jeder andere.
Ja, das ist es, was ich nach möglichen Untersuchungen suche, um herauszufinden, warum - ich habe ein paar Vermutungen - teilweise aufgrund der Photonenenergie der verwendeten UV-Wellenlängen, aber ich bin immer noch ein bisschen verschwommen.
Wenn ich Sie wäre, würde ich versuchen zu untersuchen, wie Fotodioden auf UV-Wellenlängen reagieren. Ich bin mir nicht sicher, wie sie sich verhalten, aber es wird etwas damit zu tun haben.
Jackpot! Ich habe einen Artikel gefunden, der sich genau darauf bezieht ... nun, es hat die Gleichungen, um es zu bestimmen. Danke für das.
@DamienIgoe Wenn dieser Artikel eine gute Antwort auf Ihre Frage bietet, sollten Sie dies hier als Antwort posten. Diese Frage ist bei Google sichtbar , sodass eine gute Antwort zukünftigen Besuchern mit derselben Frage helfen wird.
Keine Probleme, ich werde hinzufügen, was ich gefunden habe.