Variabler ISO-Sensor: Möglich und/oder sinnvoll?

Diese Antwort auf die Frage, wie ISO in Digitalkameras implementiert wird, scheint zu implizieren, dass jede Fotoseite ( dh Pixel) ihre ISO-Einstellung unabhängig haben kann. Wenn das stimmt, dann würde ich denken, dass es theoretisch möglich ist, ein Foto zu machen, bei dem bestimmte Fotoseiten eine andere ISO haben als andere. Der erste Teil meiner Frage lautet: Angenommen, variable ISO ist möglich, wäre es nützlich? Dies scheint mir eine sinnvolle Möglichkeit zu sein, den Dynamikumfang des Sensors zu erhöhen , indem man zB nur für Bildbereiche, die im Schatten liegen, einen hohen ISO wählt. Angenommen, eine variable ISO wäre nützlich, warum wurde sie noch nicht in Digitalkameras implementiert? (Oder hat es?)

Klingt technisch möglich, erfordert aber möglicherweise zu viele Schaltungen, um pixelgenau zu arbeiten, ist möglicherweise schwer zu skalieren und verursacht zu viel Wärme. Darüber hinaus ist nicht klar, dass dies besser funktioniert als aktuelle Lösungen, wie z. B. das Lesen von Fotoseiten während der Belichtung oder das Vorhandensein von Fotoseiten unterschiedlicher Größe, wodurch sie unterschiedliche native Empfindlichkeiten erhalten.
Es gibt einen kleinen Haken 22: Sie müssen ISO einstellen, bevor Sie einen Pixelwert lesen, aber Sie werden erst nach dem Lesen des Werts wissen, dass das Pixel zu einem Schattenbereich gehört .
@Imre Stimmt, aber das ist nicht unbedingt ein technisches Problem. Wie Itai oben erwähnte, gibt es beispielsweise bereits eine Technologie zum Lesen von Photosite-Werten während der Belichtung. Fortschrittliche Messsysteme könnten auch verwendet werden, um ISO-Werte für Regionen zu „erraten“. Schließlich könnte für Standbilder wie Landschaften eine anfängliche Testbelichtung verwendet werden, um die ISO-Werte für eine zweite Aufnahme festzulegen.
Zu beachten ist, dass ISO nichts daran ändert, wozu der Sensor bzw. Pixel tatsächlich in der Lage ist. Die ISO-Einstellung ändert lediglich den Weißpunkt einer bestimmten Belichtung. Sensoren sind feste lineare Geräte, die in der Lage sind, eine feste Ladung (Anzahl der Elektronen) in jedem Pixel zu registrieren, +/- den Durchschnitt des elektronischen Rauschens (das heutzutage auf normalisierter Basis nur wenige Elektronen beträgt). Sie sagen, dass "Weiß" nicht bei 40.000 Elektronen erreicht wird, sondern bei 20.000 oder 10.000 usw.
Was bei jedem Pixel auftritt, ist eine Reihen-/Spaltenaktivierung und ein Ladungsauslesen. Während des Auslesens wird diese Ladung um den erforderlichen Betrag verstärkt, um gemäß der ISO-Einstellung "gesättigt" zu sein, und gleichzeitig kann auch eine Vielzahl elektronischer Rauschkompensation angewendet werden (in der D800 gibt es eine Reihe von Schaltkreisen). um elektronisches Rauschen zu mindern, weshalb seine niedrige ISO DR so gut ist.) Logischerweise denke ich nicht, dass so etwas wie variable ISO zutreffen würde. Die Lösung für Low-SNR-Rauschen besteht darin, elektronisches Rauschen zu reduzieren ... und Sony hat dies mit seinen Exmor-Sensoren erreicht.
Exmor-Sensoren sind so cool, weil sie „hinterleuchtet“ sind und ihre Quanteneffizienz erhöhen, indem sie weniger Material durchdringen müssen. Seit vielen Jahren wieder krank. CCDs gab es zu PREMIUM-Preisen (wie NASA-Ausrüstung), was es erstaunlich macht, sie auf dem CMOS-Verbrauchermarkt zu sehen.
Meines Wissens sind Exmor-Sensoren nicht von hinten beleuchtet. Aktuelle Exmor-Sensoren, die in DSLR-Kameras verwendet werden, sind alle von vorne beleuchtet. Der Schlüssel zu ihrem geringen Rauschen sind die zwei Stufen der Leserauschunterdrückungsschaltung (um Differential- und Dunkelstromrauschen zu eliminieren) sowie Sonys CP-ADC oder spaltenparallele Analog-Digital-Wandler. Sony verwendet einen langsameren ADC pro Sensorpixelspalte, was es ihnen ermöglicht, den ADC auf dem Die zu parallelisieren, während gleichzeitig der ADC jeder Spalte angepasst wird, um vertikales Banding-Rauschen zu mindern (weshalb der D800 nur horizontales Banding hat).
Ich glaube, Sony hat erwähnt, dass ein hintergrundbeleuchtetes Sensordesign für kleinere Formfaktoren möglich war, und sie haben sicherlich Patente für hintergrundbeleuchtete Designs, aber ich glaube nicht einmal, dass sie noch einen rückwärtig beleuchteten Exmor mit kleinem Formfaktor haben. Bei größeren Formfaktoren bietet die Hintergrundbeleuchtung nicht annähernd den Vorteil, da Zeilen-/Spaltenaktivierung und Leseverkabelung einen weitaus geringeren Prozentsatz der Pixelfläche ausmachen und Mikrolinsen (bei Sony doppelschichtig) dafür sorgen.

Antworten (3)

Das, was ich am ehesten weiß, was Sie denken, ist, was Fujifilm mit dem DR-Modus in seinen EXR-Sensoren macht, wie in der X-10 und X-S1 zu sehen ist) - die Hälfte der Pixel wird absichtlich durch eine Blende (oder zwei) unterbelichtet ) und mit den "normal" belichteten Pixeln kombiniert, bevor das Bild ausgegeben wird. Weitere Einzelheiten finden Sie im X-10-Test von DPReview - was Sie hier interessiert, ist der 6-MP-DR-Modus und nicht der 12-MP-DR-Modus, bei dem es sich um den Standard "Unterbelichtung und dann Anwendung einer anderen Tonwertkurve auf das gesamte Bild" handelt ", das heutzutage in vielen Kameras zu sehen ist, und tauscht Schattenrauschen gegen einen erhöhten Dynamikbereich aus. Der 6-MP-DR-Modus ist interessant, da er es Ihnen (theoretisch) ermöglicht, den Dynamikbereich zu erhöhen und gleichzeitig das Schattenrauschen wie gewohnt beizubehalten, obwohl Sie natürlich

Im Wesentlichen würde ein Sensor wie dieser, der für jede Fotostelle variable Belichtungen hätte, ein Bild haben, das während des RAW-Konvertierungsprozesses tonemappt werden müsste. Mit jedem Pixel müssten mehr Informationen gesendet werden, was die Größe der übertragenen Daten sowie die in der Kamera erforderliche Rechenleistung erhöhen würde. Das ist ein rein technisches Problem, und ich bin mir sicher, dass das in ein paar Jahren überhaupt kein Problem mehr sein wird.

Das größte Problem, das ich sehe, wäre sicherzustellen, dass die beliebten RAW-Konvertierungsprogramme den Dekodierungsprozess unterstützen. Die resultierende RAW-Datei muss möglicherweise 32-Bit-Farbinformationen enthalten, und es gibt heute nur sehr begrenzte Unterstützung für die Arbeit mit 32-Bit-Farbbildern. Meistens müssen sie zuerst auf 16-Bit heruntergetont werden. Dies ist kein Prozess, der großartige Ergebnisse liefert, wenn er mit der heutigen Software automatisch durchgeführt wird.

Ich sehe wirklich nicht, dass sich die Hersteller um solche Kopfschmerzen kümmern. Aus diesem Grund haben sie ein proprietäres RAW-Format und Fuji hat nie aufgehört, seltsame Anordnungen von Pixeln mit verschiedenen Größen und Farbfiltern zu erstellen. Wenn sie daraus einen Vorteil ziehen können, erwarte ich , dass sie es tun. Die meisten High-End-Bildverarbeitungsanwendungen, einschließlich Lightroom & Bibble (jetzt AferShot), arbeiten intern bereits in 32-Bit. Es ist effizienter, mit modernen Prozessoren linear in 32-Bit zu arbeiten. Der erste Absatz, den Sie geschrieben haben, macht für mich jedoch Sinn.

CMOS-Sensoren sind im Grunde schon eine Aneinanderreihung von Sensoren mit unterschiedlicher ISO, die sie kompensieren müssen. Dies verleiht CMOS-Sensoren das plastische Aussehen, dämpft aber auch Blooming.

Tatsächlich stellen sie jedoch bereits CMOS-Chips mit mehreren "ISO" her, um einen höheren Dynamikbereich zu erreichen, bei dem der Pixelgrößenbereich für die Hälfte der Pixel doppelt so groß ist oder einer der beiden grünen Pixel doppelt so empfindlich ist wie der andere. Die Kosten sind mehr Transistoren pro Pixel, was Probleme mit Rauschen und Gesamtempfindlichkeit verursachen kann, da weniger Platz für die Fotosensoren bleibt. Lichtintegrierende Zellen mit großen Pixeln führen (im Allgemeinen) zu geringerem Rauschen, weshalb ein 36x24-mm-Sensor mit X MPixel besser ist als ein 1/3-Zoll-Sensor mit X MPixel – sie reagieren besser auf das Licht, um das Rauschen der gesamten Elektronik zu überwinden .