ISO-Messung in der Digitalfotografie, warum einheitlich über das gesamte Bild?

ISO gibt es schon seit analogen Fotozeiten. Egal, es hätte aus offensichtlichen Gründen einheitlich sein sollen - man konnte nie wissen, was in jedem Teil des Films festgehalten wird. Gehen Sie also einheitlich vor (ISO 100, ISO 200), wählen Sie die geeignete für die gegebenen Bedingungen aus und geben Sie Ihr Bestes. Schneller Vorlauf bis heute und wir haben den gleichen Ansatz. Trotz der Tatsache, dass in der digitalen Fotografie "Sie wissen" oder besser gesagt, der Bildsensor weiß, was von jedem Pixel oder jeder Pixelgruppe erfasst wird. Hier ist die Frage, warum es nicht möglich war, die Empfindlichkeit pro Bereich oder sogar pro Pixel zu messen und ungleichmäßige ISO-Einstellungen über den Sensor zu haben? Was verbietet es, die ISO-Stufe automatisch pro Pixel einzustellen?

Antworten (3)

Halten Sie inne und denken Sie darüber nach, was Sie sagen. Angenommen, jemand wäre bereit, die unerschwinglichen Kosten für das zu tun, was Sie vorschlagen, was wäre das Ergebnis? Wenn jedes Pixel mit ISO so eingestellt würde, dass es "richtig" belichtet wird, würden Sie am Ende ein Bild erhalten, in dem jedes Pixel die gleiche Helligkeit hat! Es gäbe null Kontrast. Keiner. Sie könnten keine Details von irgendetwas sehen, das eine einheitliche Farbe hat. Und denken Sie nicht einmal daran, monochrom zu werden! Sie würden am Ende ein Bild erhalten, das wie eine 18 %-Graukarte aussieht.

hm... vielleicht habe ich mich falsch formuliert, wenn das die meinung ist. Ich würde mir eher die Ergebnisse entlang des HDR-ähnlichen Ergebnisses vorstellen, bei denen auf hervorgehobene Bereiche 100 ISO angewendet würden und dunkle Bereiche mit vielleicht ISO 800 behandelt würden, während mittlere mit ISO 200 erstellt würden, mit anderen Worten, wie HDR ist erreicht durch Kombinieren von Ergebnissen durch Ändern von Belichtungen - in einem ISO-basierten Szenario würde dies durch Kombinieren von Multi-ISO-Anwendungen erreicht werden.

Der Zweck von HDR besteht letztendlich nicht darin, Rauschen zu reduzieren. Es besteht darin, eine Szene mit einem breiteren Dynamikbereich zu nehmen, als er von aktuellen Kameras erfasst und/oder von aktuellen Anzeigemedien angezeigt werden kann, und diesen zusätzlichen Dynamikbereich in den vom Anzeigemedium zugelassenen Raum zu quetschen. Das Erhöhen des ISO-Werts erhöht nicht den Dynamikbereich. Es verringert den dynamischen Bereich, weil es halb so viele Photonen braucht, um das Äquivalent der vollen Well-Kapazität zu erreichen.

HDR ist, zumindest in einer digitalen Umgebung, auf die Sie sich zu beziehen scheinen, viel komplizierter und komplizierter als das, was Sie sagen. Letztendlich ist die durchzuführende Tonwertabbildung eher eine Manipulation des lokalen Kontrasts gegenüber dem Gesamtkontrast. Es würde wenig bringen, die hellen Bereiche mit ISO 100 und die dunklen Bereiche mit ISO 800 aufzunehmen - denn die Bereiche, in denen ISO 800 das meiste Rauschen erzeugt, sind die Schatten! Hellere Bereiche sehen bei ISO 800 vollkommen in Ordnung aus. Wenn Sie einen Teil des Bildes stärker als einen anderen verstärken, haben Sie immer noch das Problem, dass einige Teile der dunklen Bereiche, die noch dunkler sind als die dunkelsten Teile der hellen Bereiche, heller erscheinen als diese Teile der hellen Bereiche.

stimmte zu, es ist ein viel komplizierterer Prozess, den ich jemals darzustellen wagen könnte. Es basiert jedoch immer noch auf der Exposition, um die Informationen zu beschaffen, mit denen gearbeitet werden soll. Ich sage nur, dass ich Blende und Belichtung zwar im Allgemeinen als relevant und einheitlich für die gesamte Bildaufnahme ansehe, aber (noch) nicht verstehen kann, warum ISO gleich angewendet wird. Im Film - es ist aus offensichtlichen Gründen klar, denn sonst müssten Sie für jede Aufnahme einen eigenen Film erstellen. Aber für Digital - es gibt immer noch etwas, das meiner Logik widerspricht.

Um die Vorteile verschiedener ISO-Empfindlichkeiten an diskreten Teilen des Sensors zu nutzen, müssten Sie einen Weg finden, die Belichtungszeit Pixel für Pixel zu ändern. Jetzt benötigen Sie also Sensoren, die einen globalen elektronischen Verschluss bereitstellen können. Selbst wenn der gesamte Sensor Photonen für einen universellen Zeitraum sammelt, sind sie sehr teuer in der Herstellung. Die Rechenleistung, um das zu tun, was Sie vorschlagen, würde die Kosten einer solchen Kamera astronomisch in die Höhe treiben. Die Herstellung eines Sensorchips, der den aus solchen Berechnungen resultierenden Anweisungen folgen könnte, würde wahrscheinlich das Budget der meisten Länder der Dritten Welt überschreiten.

hm... vielleicht habe ich mich falsch formuliert, wenn das die meinung ist. Ich würde mir eher die Ergebnisse entlang des HDR-ähnlichen Ergebnisses vorstellen, bei denen auf hervorgehobene Bereiche 100 ISO angewendet würden und dunkle Bereiche mit vielleicht ISO 800 behandelt würden, während mittlere mit ISO 200 erstellt würden.
Mit anderen Worten, da HDR durch Kombinieren von Ergebnissen durch Ändern der Belichtung erreicht wird, würde dies in einem ISO-basierten Szenario durch Kombinieren von Multi-ISO-Anwendungen erreicht.
HDR ist, zumindest in einer digitalen Umgebung, auf die Sie sich zu beziehen scheinen, viel komplizierter und komplizierter als das, was Sie sagen. Letztendlich ist die durchzuführende Tonwertabbildung eher eine Manipulation des lokalen Kontrasts gegenüber dem Gesamtkontrast.
Es würde wenig bringen, die hellen Bereiche mit ISO 100 und die dunklen Bereiche mit ISO 800 aufzunehmen - denn die Bereiche, in denen ISO 800 das meiste Rauschen erzeugt, sind die Schatten! Hellere Bereiche sehen bei ISO 800 vollkommen in Ordnung aus. Wenn Sie einen Teil des Bildes stärker als einen anderen verstärken, haben Sie immer noch das Problem, dass einige Teile der dunklen Bereiche, die noch dunkler sind als die dunkelsten Teile der hellen Bereiche, heller erscheinen als diese Teile der hellen Bereiche.
Der Zweck von HDR besteht letztendlich nicht darin, Rauschen zu reduzieren. Es besteht darin, eine Szene mit einem breiteren Dynamikbereich zu nehmen, als er von aktuellen Kameras erfasst und/oder von aktuellen Anzeigemedien angezeigt werden kann, und diesen zusätzlichen Dynamikbereich in den vom Anzeigemedium zugelassenen Raum zu quetschen. Das Erhöhen des ISO-Werts erhöht nicht den Dynamikbereich. Es verringert den dynamischen Bereich, weil es halb so viele Photonen braucht, um das Äquivalent der vollen Well-Kapazität zu erreichen.
stimmte zu, es ist ein viel komplizierterer Prozess, den ich jemals darzustellen wagen könnte. Es basiert jedoch immer noch auf der Exposition, um die Informationen zu beschaffen, mit denen gearbeitet werden soll. Ich sage nur, dass ich Blende und Belichtung zwar im Allgemeinen als relevant und einheitlich für die gesamte Bildaufnahme ansehe, aber (noch) nicht verstehen kann, warum ISO gleich angewendet wird. Im Film - es ist aus offensichtlichen Gründen klar, denn sonst müssten Sie für jede Aufnahme einen eigenen Film erstellen. Aber für Digital - es gibt immer noch etwas, das meiner Logik widerspricht.
Um die Vorteile verschiedener ISO-Empfindlichkeiten an diskreten Teilen des Sensors zu nutzen, müssten Sie einen Weg finden, die Belichtungszeit Pixel für Pixel zu ändern. Jetzt benötigen Sie also Sensoren, die einen globalen elektronischen Verschluss bereitstellen können. Selbst wenn der gesamte Sensor Photonen für einen universellen Zeitraum sammelt, sind sie sehr teuer in der Herstellung. Die Rechenleistung, um das zu tun, was Sie vorschlagen, würde die Kosten einer solchen Kamera astronomisch in die Höhe treiben. Die Herstellung eines Sensorchips, der den aus solchen Berechnungen resultierenden Anweisungen folgen könnte, würde wahrscheinlich das Budget der meisten Länder der Dritten Welt überschreiten.
Nein ... ich würde die Belichtung nicht berühren. Einfach ausgedrückt, ich möchte die automatische ISO-Messung nicht für das gesamte Bild, sondern für Teile davon oder sogar, wenn möglich, für Pixel erhalten und diese individuellen Einstellungen festlegen. Wir haben also eine Fläche mit 50, die meisten sagen 100 und wenige Teile mit 200. Das ist das Beste, was ich beschreiben könnte, denke ich :)
Sie müssten die Belichtungszeit anpassen oder Sie haben unterschiedliche Belichtungsstufen für die verschiedenen Teile des Fotos ...
Richtig, ich werde aufgrund unterschiedlicher ISO-Werte unterschiedliche Belichtungsstufen haben. Da ich ein Foto mit demselben A, demselben S, aber unterschiedlichen ISO-Stufen machen könnte, würde ich mir das als Ergebnis vorstellen. Wenn ich mir eine vereinfachte Matrix 9x9 vorstelle, hätte ich die erste obere Linie bei ISO 100, dann 400, dann 800. Der Grund dafür sind Teile des Bildes, die sich im Schatten oder in weniger beleuchteten Bereichen befinden und daher durch ISO angehoben werden.

Der ISO eines Sensors bezieht sich auf die Spannung, mit der er betrieben wird. Um dies nur in einem Bereich oder Pixel zu ändern, wäre eine Menge komplexer Verkabelung (wie kann der Hersteller vermuten, dass Sie die ISO von Pixel 432.288 erhöhen möchten) und eine Menge zusätzlicher Schnittstellen und Programmierung erforderlich. Einfach ausgedrückt wäre eine solche Fähigkeit eine sehr kostspielige Funktion, die selten verwendet wird.

OK. Könnte nicht ein Referenzpegel für Pixel oder Fläche eingestellt werden und einmal gemessen - die Spannung wird entsprechend angepasst. Es scheint nur, dass eine einheitliche Spurweite über das gesamte Bild so ... simpel und altmodisch ist, blind aus Filmtagen übernommen.
Und übrigens, es wird heute schon im Auto-Iso-Modus gemacht. Die Frage ist - warum auf alle Pixel oder ganze Frames angewendet anstatt auf Bereiche oder sogar Pixel.
Auto ISO nimmt nur das in der Szene gemessene Gesamtlicht und stellt den ISO (z. B. Sensorverstärkung) nach einer Reihe von Regeln ein, um sicherzustellen, dass die verwendeten Fernseher und Avs innerhalb der voreingestellten Bereiche bleiben.
super, das ist auto iso. Was ich meine - es könnte (logischerweise) immer noch sinnvoll sein, dies pro Pixel oder zumindest Pixelgruppen zu tun.
@ user56548 "Könnte nicht ein Referenzpegel für Pixel oder Fläche festgelegt und einmal gemessen werden " ... und wie wird diese Messung durchgeführt? Wozu wird es genommen ? Bei dieser Messung wird lediglich ein Bild der Szene aufgenommen , wobei alle Pixelverstärkerverstärkungen gleich eingestellt sind (dh identische ISO). Wenn Sie dieses Referenzbild verwenden, um ein anderes Bild mit höherem oder niedrigerem Gain aufzunehmen, um die dunklen/hellen Bereiche tonzuordnen, dann haben Sie eine Form von HDR.
@scottbb es könnte vereinfacht werden. Aber zum Beispiel dieselbe Messung, die passiert, wenn AUTO ISO definiert wird. Nur auf granularerer Ebene (Pixel/Pixelgruppe). Würde es funktionieren?
@ user56548 Nein, nicht wirklich. Der Sensor ist nicht an der Bestimmung der automatischen Belichtungswerte (einschließlich ISO) beteiligt. Wie können Sie also die Lokalität der Referenzpegel/-werte bestimmen, wenn die Lokalität nicht bekannt ist?
@scottbb Wahrscheinlich, und das ist vielleicht eine Spekulation, indem eine Schicht auf / im Sensor vorhanden ist, die dies tut? In kleineren Regionen und Bereitstellung von Koordinaten? Klingt nach einer vernünftigen Herausforderung für Engineering/F&E. Lösung kenne ich leider nicht. Wenn ich würde - würde ich mit Anleitungen antworten. Ich stelle das logisch aktuelle Setup in Frage, da es demselben Design wie Film folgt (was eine einheitliche ISO bedeutet), was meiner Meinung nach möglicherweise nicht relevant ist oder nicht relevant sein sollte, da es kein konstantes Element mehr ist.
@ user56548 Nichts, wonach Sie fragen, ist aus technischer Sicht unerreichbar, aber es wird nicht getan, weil es keinen Sinn ergibt. Sie können die Physik des Systems nicht betrügen. Das System (die Photosites des Sensors; der A/D-Wandler; der Spannungsverstärkungsverstärker) haben alle Auflösungsgrenzen, Empfindlichkeitsgrenzen usw. Zusammen beschreiben diese den Dynamikbereich des Bildgebungssystems. Sie können nicht mehr Dynamikbereich oder Informationen erstellen, als vorhanden sind oder die das System erfassen kann (obwohl es Tricks wie HDR gibt, um den gewünschten Effekt zu "fälschen").
genau ... das ist das gleiche Gefühl, das ich habe. Macht keinen Sinn. Die Empfängerseite der heutigen Fotografie (digitaler Sensor) verwendet dieselben "physikalischen Grenzen" wie die Erfindung / Schöpfung aus den 1880er Jahren mit einheitlichen ISO-Einstellungen. Ich mache 3 Fotos mit demselben AS und unterschiedlichen ISOs und ich sehe Bereiche auf jedem 3, wo iq höher ist als andere in denselben Teilen. Und nichts kann getan werden.
@ user56548 Sie scheinen nicht zu verstehen - die Quantenphysik des Lichts hat sich seit den 1880er Jahren nicht geändert (zumindest nicht sehr).
Es ist der Teil "Einheitlichkeit", für den ich keine logische Erklärung finden kann, nicht die Quantenphysik. Ich schlage hier irgendwie auf eine Leiche ein, aber es macht Sinn (einheitliche ISO), wenn Sie nicht im Voraus wissen, was erfasst wird - heute ist dies nicht mehr der Fall. Sie "sehen" tatsächlich, wie das Licht auf dem Sensor / Foto enden wird.

Ich denke, Sie fragen nach der Einheitlichkeit der Reaktion. In diesem Fall verfügen die meisten, wenn nicht alle Kameras über integrierte Korrekturtabellen, um dunkle Offsets für jedes Pixel zu entfernen und Unterschiede zwischen den Pixeln zu erzielen. Dies garantiert, dass die Signalausgabe von jedem Pixel für N Eingangsphotonen gleich ist.

Wenn Sie nach einer ISO-Anpassung fragen, damit dunkle Teile der Szene mehr Verstärkung erhalten, fragen Sie nach einer dynamischen Verstärkungsanpassung pro Pixel. Selbst dann würde man, wie Michael Clark betonte, am Ende bestenfalls ein sehr verwaschenes Image haben.

Wenn Sie eine Szene mit großem Kontrast haben (dunkel bis hell), gibt es eine andere Option. Teuer, aber verfügbar: Sensoren mit logarithmischer Ampere. Dies verleiht den Pixeln einen enormen effektiven Dynamikbereich, und Sie können die Log-Scale-Ausgabe dann nachbearbeiten, um zu tun, was Sie wollen.

Ja, es geht mehr um dynamische Verstärkung, denke ich. Was "verwaschen" betrifft, bin ich mir nicht sicher, weil diese Bereiche im Schatten oder weniger beleuchtet stärker ausgeprägt und klarer sind. Und die heutigen Kameras leisten hervorragende Arbeit bei der Rauschunterdrückung bei hohen ISO-Werten. Bisher scheint es darauf hinauszulaufen, "wie man die ISO-Messung lokalisiert" und "wie man eine pixelbasierte oder pixelgruppenbasierte Verstärkung implementiert". Beides scheinen meiner Meinung nach konkrete Ingenieuraufgaben zu sein.