ISO gibt es schon seit analogen Fotozeiten. Egal, es hätte aus offensichtlichen Gründen einheitlich sein sollen - man konnte nie wissen, was in jedem Teil des Films festgehalten wird. Gehen Sie also einheitlich vor (ISO 100, ISO 200), wählen Sie die geeignete für die gegebenen Bedingungen aus und geben Sie Ihr Bestes. Schneller Vorlauf bis heute und wir haben den gleichen Ansatz. Trotz der Tatsache, dass in der digitalen Fotografie "Sie wissen" oder besser gesagt, der Bildsensor weiß, was von jedem Pixel oder jeder Pixelgruppe erfasst wird. Hier ist die Frage, warum es nicht möglich war, die Empfindlichkeit pro Bereich oder sogar pro Pixel zu messen und ungleichmäßige ISO-Einstellungen über den Sensor zu haben? Was verbietet es, die ISO-Stufe automatisch pro Pixel einzustellen?
Halten Sie inne und denken Sie darüber nach, was Sie sagen. Angenommen, jemand wäre bereit, die unerschwinglichen Kosten für das zu tun, was Sie vorschlagen, was wäre das Ergebnis? Wenn jedes Pixel mit ISO so eingestellt würde, dass es "richtig" belichtet wird, würden Sie am Ende ein Bild erhalten, in dem jedes Pixel die gleiche Helligkeit hat! Es gäbe null Kontrast. Keiner. Sie könnten keine Details von irgendetwas sehen, das eine einheitliche Farbe hat. Und denken Sie nicht einmal daran, monochrom zu werden! Sie würden am Ende ein Bild erhalten, das wie eine 18 %-Graukarte aussieht.
hm... vielleicht habe ich mich falsch formuliert, wenn das die meinung ist. Ich würde mir eher die Ergebnisse entlang des HDR-ähnlichen Ergebnisses vorstellen, bei denen auf hervorgehobene Bereiche 100 ISO angewendet würden und dunkle Bereiche mit vielleicht ISO 800 behandelt würden, während mittlere mit ISO 200 erstellt würden, mit anderen Worten, wie HDR ist erreicht durch Kombinieren von Ergebnissen durch Ändern von Belichtungen - in einem ISO-basierten Szenario würde dies durch Kombinieren von Multi-ISO-Anwendungen erreicht werden.
Der Zweck von HDR besteht letztendlich nicht darin, Rauschen zu reduzieren. Es besteht darin, eine Szene mit einem breiteren Dynamikbereich zu nehmen, als er von aktuellen Kameras erfasst und/oder von aktuellen Anzeigemedien angezeigt werden kann, und diesen zusätzlichen Dynamikbereich in den vom Anzeigemedium zugelassenen Raum zu quetschen. Das Erhöhen des ISO-Werts erhöht nicht den Dynamikbereich. Es verringert den dynamischen Bereich, weil es halb so viele Photonen braucht, um das Äquivalent der vollen Well-Kapazität zu erreichen.
HDR ist, zumindest in einer digitalen Umgebung, auf die Sie sich zu beziehen scheinen, viel komplizierter und komplizierter als das, was Sie sagen. Letztendlich ist die durchzuführende Tonwertabbildung eher eine Manipulation des lokalen Kontrasts gegenüber dem Gesamtkontrast. Es würde wenig bringen, die hellen Bereiche mit ISO 100 und die dunklen Bereiche mit ISO 800 aufzunehmen - denn die Bereiche, in denen ISO 800 das meiste Rauschen erzeugt, sind die Schatten! Hellere Bereiche sehen bei ISO 800 vollkommen in Ordnung aus. Wenn Sie einen Teil des Bildes stärker als einen anderen verstärken, haben Sie immer noch das Problem, dass einige Teile der dunklen Bereiche, die noch dunkler sind als die dunkelsten Teile der hellen Bereiche, heller erscheinen als diese Teile der hellen Bereiche.
stimmte zu, es ist ein viel komplizierterer Prozess, den ich jemals darzustellen wagen könnte. Es basiert jedoch immer noch auf der Exposition, um die Informationen zu beschaffen, mit denen gearbeitet werden soll. Ich sage nur, dass ich Blende und Belichtung zwar im Allgemeinen als relevant und einheitlich für die gesamte Bildaufnahme ansehe, aber (noch) nicht verstehen kann, warum ISO gleich angewendet wird. Im Film - es ist aus offensichtlichen Gründen klar, denn sonst müssten Sie für jede Aufnahme einen eigenen Film erstellen. Aber für Digital - es gibt immer noch etwas, das meiner Logik widerspricht.
Um die Vorteile verschiedener ISO-Empfindlichkeiten an diskreten Teilen des Sensors zu nutzen, müssten Sie einen Weg finden, die Belichtungszeit Pixel für Pixel zu ändern. Jetzt benötigen Sie also Sensoren, die einen globalen elektronischen Verschluss bereitstellen können. Selbst wenn der gesamte Sensor Photonen für einen universellen Zeitraum sammelt, sind sie sehr teuer in der Herstellung. Die Rechenleistung, um das zu tun, was Sie vorschlagen, würde die Kosten einer solchen Kamera astronomisch in die Höhe treiben. Die Herstellung eines Sensorchips, der den aus solchen Berechnungen resultierenden Anweisungen folgen könnte, würde wahrscheinlich das Budget der meisten Länder der Dritten Welt überschreiten.
Der ISO eines Sensors bezieht sich auf die Spannung, mit der er betrieben wird. Um dies nur in einem Bereich oder Pixel zu ändern, wäre eine Menge komplexer Verkabelung (wie kann der Hersteller vermuten, dass Sie die ISO von Pixel 432.288 erhöhen möchten) und eine Menge zusätzlicher Schnittstellen und Programmierung erforderlich. Einfach ausgedrückt wäre eine solche Fähigkeit eine sehr kostspielige Funktion, die selten verwendet wird.
Ich denke, Sie fragen nach der Einheitlichkeit der Reaktion. In diesem Fall verfügen die meisten, wenn nicht alle Kameras über integrierte Korrekturtabellen, um dunkle Offsets für jedes Pixel zu entfernen und Unterschiede zwischen den Pixeln zu erzielen. Dies garantiert, dass die Signalausgabe von jedem Pixel für N Eingangsphotonen gleich ist.
Wenn Sie nach einer ISO-Anpassung fragen, damit dunkle Teile der Szene mehr Verstärkung erhalten, fragen Sie nach einer dynamischen Verstärkungsanpassung pro Pixel. Selbst dann würde man, wie Michael Clark betonte, am Ende bestenfalls ein sehr verwaschenes Image haben.
Wenn Sie eine Szene mit großem Kontrast haben (dunkel bis hell), gibt es eine andere Option. Teuer, aber verfügbar: Sensoren mit logarithmischer Ampere. Dies verleiht den Pixeln einen enormen effektiven Dynamikbereich, und Sie können die Log-Scale-Ausgabe dann nachbearbeiten, um zu tun, was Sie wollen.
Benutzer56548
Benutzer56548
Michael C
Michael C
Michael C
Benutzer56548
Michael C
Benutzer56548
Michael C
Benutzer56548