Wie nah sind wir den theoretischen Grenzen der Schwachlichtleistung des Sensors?

Betrachten Sie eine Aufnahme mit wenig Licht, hohem ISO und kurzer Belichtungszeit. Wir alle wissen, dass das Bild verrauscht sein wird. Ich verstehe, dass das Bildrauschen vom Photonenzählrauschen (Schussrauschen) dominiert wird, das dadurch verursacht wird, dass Photonen diskrete Partikel sind und weil es so wenige davon pro Pixel gibt. Diese ausgezeichnete Frage diskutiert dies.

Für mich ist die vereinfachte Ansicht eines Bildsensors ein Photonenzählgerät. Jedes einfallende Photon mit der richtigen Wellenlänge für das jeweilige Pixel lässt seinen internen Zähler auf „+1“ stehen, bis der Sättigungswert erreicht ist. Sagen wir 16383 für 14-Bit-Sensoren.

Wenn ich weiter lese, verstehe ich, dass die Dinge nicht ganz so einfach sind - nicht jedes Photon wird gezählt ( QE ), dann gibt es diesen analogen Verstärkerteil, der "ein paar Rauschelektronen " einführt. Meine Frage ist also, wie viel Rauschen in diesem Szenario durch das Photonenzählrauschen beigesteuert wird und wie viel auf Sensorfehler zurückzuführen ist?

Anders ausgedrückt: Wenn wir den ISO-Wert niedrig genug einstellen, sodass Sensorfehler nur das letzte Bit des 14-Bit-Digitalwerts des "Zählers" ausmachen, wie viele Photonen im Durchschnitt dieses Pixel treffen müssen, um ein + zu verursachen 1 Erhöhung? Wenn wir dieses Verhältnis auf nur „1“ bringen, würden wir natürlich unser perfektes Photonenzählgerät bekommen, und ganz klar, da sind wir noch nicht, aber wie nah sind wir mit den im Handel erhältlichen Sensoren im Jahr 2017?

Während diese Frage eine interessante Diskussion auslösen könnte, hat sie keine objektive Antwort in Bezug auf die Fotografie, die in einem Jahr oder mehr wahr sein wird. Es eignet sich wahrscheinlich besser für ein Fotografie-Diskussionsforum als für das Frage-und-Antwort-Format dieser Seite.
Sie haben Recht, ich werde es aktualisieren, um anzugeben, dass ich aktuelle Sensoren in Betracht ziehe.
...Jedes ankommende Photon mit der richtigen Wellenlänge für das jeweilige Pixel bringt seinen internen Zähler auf "+1" Nicht wirklich. Sensoren sind monochromatisch. Jedes Photon, das durch den Bayer-Filter gelangt, verursacht eine +1. Und einige Photonen aus allen sichtbaren Wellenlängen schaffen es durch alle drei Farbfilter auf maskierten Bayer-Sensoren. Schauen Sie sich einfach die Reaktionskurven eines beliebigen maskierten Bayer-Sensors an. RAW-Dateien speichern 3 Farben pro Pixel oder nur eine?
@MichaelClark, genau das meine ich mit "mit der richtigen Wellenlänge". Beachten Sie auch, dass es RGB-Sensoren gibt, die keinen Bayer-Filter verwenden, sodass Ihre Aussage nicht allgemein zutrifft.
@anrieff Ein gewisser Anteil einer beliebigen Wellenlänge des sichtbaren Lichts gelangt durch den Rotfilter eines Bayer-gefilterten Sensors. Ein gewisser Anteil jeder Wellenlänge des sichtbaren Lichts durchdringt den Grünfilter eines Sensors mit Bayer-Filter. Ein gewisser Anteil jeder Wellenlänge des sichtbaren Lichts durchdringt den Blaufilter eines Sensors mit Bayer-Filter.
Maskierte Farbbildsensoren, die nicht von Bayer stammen, haben ebenfalls Filter – sie werden einfach zwischen den Schichten platziert, die sie passieren. Und einige rote und grüne Photonen werden von der blauen Schicht gezählt, einige rote und blaue Photonen werden von der grünen Schicht gezählt und einige grüne und blaue Photonen werden von der roten Schicht gezählt. KEINE Farbbildsensoren, die verwendet werden, um irgendetwas zu erzeugen, das dem ähnelt, was wir eine „Fotografie“ nennen, haben Sensoren, die jeweils wie unabhängige Spektrometer fungieren. Sie alle nehmen alle Photonen auf, die sie treffen.
@MichaelClark, das ist richtig, aber ich habe sowieso ein hypothetisches perfektes Gerät beschrieben (bei dem die Photonen nach Wellenlänge gebündelt werden und die Grenzen scharf sind). Auf einem echten Gerät sind die Grenzen, wie Sie sagen, unscharf. Aber das Bayer-Filterverhalten trägt nicht zum Rauschen bei, wenn ich mich nicht irre.
Ein "perfektes" Bildgebungsgerät für Bilder, die von Menschen betrachtet werden sollen, würde die Farbreaktion der Zapfen in der menschlichen Netzhaut widerspiegeln. Sie haben auch die "Überlappung", die maskierte Bayer-Sensoren haben. Die grünen und roten Zapfen im menschlichen Sehvermögen unterscheiden sich kaum in ihrer Reaktion auf verschiedene Wellenlängen. Es ist das Gehirn, das Farben erzeugt, indem es die Unterschiede zwischen den Antworten der drei verschiedenen Kegelgrößen vergleicht. Farbe und Wellenlänge sind keine Synonyme. Wellenlängen existieren im Licht. Farbe existiert nur in der Wahrnehmung von Licht unterschiedlicher Wellenlängen. Einige Farben haben keine einzige entsprechende Wellenlänge.
Es scheint immer noch eher eine Frage zu sein, die eine Diskussion beginnt, als eine, die eine objektive Antwort hervorrufen kann, die über mehrere Jahre hinweg nützlich sein wird.
Eigentlich noch mehr mit den Kommentaren.
Das ist eine durchaus berechtigte Frage, die rechnerisch beantwortet werden kann.
Ich stimme dafür, diese Frage als nicht zum Thema gehörend zu schließen, da sie eher eine Frage zum Stand der Technik oder Physik als zur Fotografie stellt.

Antworten (2)

Wenn wir dieses Verhältnis auf nur „1“ bringen, würden wir natürlich unser perfektes Photonenzählgerät bekommen, und ganz klar sind wir noch nicht da, aber mit den im Handel erhältlichen Sensoren im Jahr 2017, wie nah sind wir?

Die LinCam hat eine Auflösung von 1000x1000 Pixeln mit einer zeitlichen Auflösung von 50ps (2,5 Giga-Samples pro Sekunde Genauigkeit).

LINCam25 und LINCam40

Solche Kameras werden für zeitaufgelöste superauflösende Fluoreszenzstudien biologischer Strukturen verwendet, eine Methode, bei der fluoreszierende Chemikalien in Pflanzen oder Menschen injiziert werden und dann die Zellaktivität beobachtet werden kann.

Die breite Produktpalette von PicoQuant für die Photonenzählung umfasst mehrere High-End-Module für zeitkorrelierte Einzelphotonenzählung (TCSPC) und Ereignistiming, einzelphotonenempfindliche Detektoren und spezialisierte Analysesoftware für die Auswertung von (zeitaufgelösten) Fluoreszenzmessungen und Quantenkorrelationen .

Einige der verfügbaren Einzelphotonendetektoren (kein Bild, nur ein Pixel) weisen eine Detektionseffizienz von maximal 40 bis 50 % bei 400 bis 550 nm auf . Tatsächlich verlassen sie sich auf den Empfang eines einzelnen Photons, um die Zeit zu messen, die nach dem Stimulus aufgetreten ist, da mehrere Photonen (oder fehlende Photonen) die Messungen in der Fluorescent Lifetime Imaging (FLIM) beeinflussen .

Während die Technologie zur Verbesserung solcher Kameras seit vielen Jahren verfügbar ist, wurde Stanford Computer Optics 1989 gegründet. Ihre bildintensivierte CCD-Kamera und EMCCDs (Elektronenvervielfachung) arbeiten effizient, das detektierte Photon ist heller als das Restrauschen (mit ausreichend Kühlung).

Quanteneffizienz-Diagramm

Diese Kameras (und Einzelpixel-Detektoren) sind so konzipiert, dass sie einzelne Photonen genau und fehlerfrei zählen, wie bei allen elektrischen Geräten, verpassen sie manchmal ein Photon und manchmal gibt es einen Fehler in der Zählung - die Mittelung der Ergebnisse mit mehreren Bildern kann genügend Informationen ansammeln, um a zu erzeugen Histogramm, das die Anzahl und Häufigkeit des Auftretens zeigt.

Eine Erklärung der Mathematik hinter dem Zählen von Photonen und die Auswirkungen von Rauschen finden Sie unter http://www.andor.com/learning-academy/ccd,-emccd-and-iccd-comparisons-difference-between-the-sensors oder http: //www.andor.com/learning-academy/electron-multiplying-ccd-cameras-the-technology-behind-emccds wo Andor behauptet:

„Wenn bei einer einzigen Belichtung weniger als 1 Elektron auf ein Pixel fällt, kann die EMCCD im Photonenzählmodus verwendet werden. In diesem Modus wird ein Schwellenwert über der normalen Verstärkeranzeige eingestellt und alle Ereignisse werden als einzelne Photonen gezählt In diesem Modus kann mit einer geeigneten hohen Verstärkung ein hoher Anteil der einfallenden Photonen (>90%) gezählt werden, ohne vom Rauschfaktor-Effekt beeinflusst zu werden.“

Ein EMCCD kann seine Eingabe mit über 10.000 multiplizieren, die Division durch denselben Wert gibt Ihnen eine genaue Zählung der Photonen.

Danke, das beantwortet meine Frage - wenn Spezialsensoren Photonen genau zählen können, ist das gut genug für mich. Halten Sie es für vernünftig anzunehmen, dass Consumer-Sensoren bald auch diese Genauigkeit erreichen werden?
Derzeit sollten Sie damit rechnen, über 20.000 US-Dollar für EMCCD zu zahlen, sodass Sie 1 oder 2 Photonen (pro Pixel / pro Frame) sehen können. Wenn Sie mehrfach so viele Photonen erwarten, ist sCMOS weitaus günstiger - sehen Sie sich die Preise für gebrauchte Geräte an: photometrics.com/products/demoproducts - Die meisten "Verbraucher" leben nicht in einer Höhle und haben viele Photonen im Umlauf. Steht man während eines Stromausfalls in einem Wald, würde eine EMCCD-Kamera geblendet , was zu einem weißen Bildschirm und keinem Bild führen würde. Wahrscheinlich wird es in diesem Jahrzehnt keine (billige und sturzsichere) EMCCD-Kamera für Endverbraucher geben, sCMOS wird sie ersetzen.

Wenn Sie meinen, "wie viel näher können wir einem Ideal praktisch/technologisch kommen?", kann niemand die Frage a priori beantworten. Wir haben keine Möglichkeit zu wissen, welche technologischen Durchbrüche in der Zukunft gemacht werden. Es gibt natürlich eine theoretische Grenze (die wir wahrscheinlich nie erreichen werden).

Meine Frage war speziell, wie viel Prozent des Rauschens aus theoretischen Grenzen stammen. Natürlich ist es sehr wahrscheinlich unmöglich, das andere (sensorinduzierte) Rauschen auf 0 zu reduzieren.