Könnte eine "Universalbelichtung"-Einstellung praktisch möglich sein?

Ich bin mir nicht sicher, wie ungebildet diese Frage ist, aber ich bin daran interessiert, etwas zu lernen. Vielen Dank im Voraus für Ihre Nachsicht.

Der Film verändert sich im Laufe der Zeit, in der er belichtet wird, physikalisch. Ein digitaler Sensor tut dies jedoch nicht; Es liest nur Daten. Gibt es einen Grund, warum die Kamera nicht dazu gebracht werden kann, sich an die Sensorwerte an jedem Belichtungspunkt zu "erinnern"? Es sind nur Daten. Es könnten viele Daten sein, aber es gibt Zeiten, in denen man das tun möchte, oder? Viel mehr Flexibilität bei der Nachbearbeitung.

Wenn die Datenspeicherung kein Problem wäre, gibt es einen Grund, warum dies nicht die Norm sein könnte, zumindest für die professionelle und künstlerische Fotografie?

Interessanterweise ist das fast genau das, was unsere Augen tun. HDR wurde entwickelt, um zu versuchen, die in unseren Netzhautzellen und im visuellen Kortex ausgeführten Algorithmen zu rekonstruieren und sie so gut wie möglich zu emulieren.
@CortAmmon Und selbst dann haben die fortschrittlichsten einfachen Augen das zusätzliche Merkmal der Iris, die sich ausdehnt oder zusammenzieht, um als zusätzliche Komponente bei der Intensitätsregulierung mehr oder weniger Licht durch die Pupille zu lassen. (Natürlich passen sich die Augen auch nicht sofort an, wie sich leicht zeigt, wenn man von einem Bereich mit hellem Licht zu einem mit wenig Licht wechselt oder, noch schmerzhafter, umgekehrt.)
Ein digitaler Sensor verändert sich auch physikalisch, wenn er Licht ausgesetzt wird (Diskussionen über „physikalisch“ vs. „chemisch“ vs. „elektrisch“ können geführt werden, aber ich kann argumentieren, dass sie dasselbe sind). Eine "perfekte" Kamera würde Position/Zeit/Winkel jedes Photons aufzeichnen; ziemlich schwierig (wirklich perfekt ist wegen Heisenberg unmöglich), es sei denn, Sie machen Kompromisse: Umgang mit extrem wenigen Photonen in einem bestimmten Band ( Zwei-Photonen-Anregung , Neutrino-Detektoren )
@Cort Ammom Ich denke, Sie sind mit der Erwähnung von HDR auf dem richtigen Weg, das das Konzept der Mehrfachbelichtungseinstellungen verwendet, die wieder in ein einziges hochauflösendes Bild integriert sind. Um diese Funktionalität in Echtzeit zu erhalten, ohne dass eine Änderung der Einstellungen erforderlich ist, würde meiner Meinung nach eine Kamera mit mehreren Objektiven erforderlich sein – vielleicht würden 5 für anständige Bilder auf HDR-Ebene ausreichen.
Ist es nur das, was unsere Augen tun, Cort? Soweit ich weiß, scannen unsere Augen eine Szene vor uns und passen Fokus und Belichtung (sehr schnell, aber bei weitem nicht sofort) an, während sie sich bewegen. Und dass unser Gehirn aus dem Ergebnis ein Bild macht. HDR ist näher – die Szene wird effektiv belichtet und dann die am besten belichteten Teile kombiniert. Tatsächlich sehr nah - in einer Situation mit hohem Dynamikbereich belichtet das Auge wahrscheinlich oft vorübergehend schlecht, aber wir "vergessen" diese Momente, wenn wir unser Bild der Szene konstruieren.

Antworten (6)

Ein digitaler Sensor lässt sich nicht wirklich am besten mit „Daten lesen“ beschreiben. Eine viel bessere Art, es zu beschreiben, ist das „Sammeln von Photonen“, die dann in Daten umgewandelt werden, indem die mikroskopischen elektrischen Ladungen gemessen werden, die sie nach Ablauf der Sammelperiode erzeugen . Sie haben nicht die Fähigkeit, den sich ändernden Zustand jedes Pixels kontinuierlich aufzuzeichnen, während sie Licht sammeln. Und je nachdem, wie wenig oder wie viel Licht auf den Sensor fällt, kann es lange dauern, bis genügend Photonen auf den Sensor treffen, bevor mehr als zufällige Daten generiert werden. Andererseits können sich bei sehr hellem Licht manchmal alle Pixelmulden so schnell füllen, dass alle zusätzlich auf den Sensor fallenden Photonen verloren gehen.

Im ersten Szenario werden nicht genug Photonen gesammelt, um ein erkennbares Muster durch das "Rauschen" zu erzeugen, das durch die durch den Sensor fließende Energie erzeugt wird, das verwendet wird, um die Spannungen zu sammeln, die durch die in die Pixelmulden fallenden Photonen erzeugt werden. Somit werden keine verwertbaren Informationen gesammelt. Ihr gesamtes Foto ist dunkel mit zufälligen Farb- und Lichtflecken.

Im zweiten Szenario werden so viele Photonen gesammelt, dass jedes Pixel mit dem gleichen Maximalwert ausgelesen wird, der als volle Sättigung bezeichnet wird, und da jedes Pixel im Bild den gleichen Wert hat, sind keine verwertbaren Informationen erhalten geblieben. Ihr gesamtes Foto ist durchgehend hellweiß.

Erst wenn genügend Photonen auf einen Sensor treffen, haben die Bereiche mit mehr Photonen pro Zeiteinheit einen höheren Auslesewert als Bereiche mit weniger Photonen, die pro Zeiteinheit auftreffen. Erst dann hat der Sensor aussagekräftige Informationen gesammelt, die Bereiche unterschiedlicher Helligkeit unterscheiden können.

Stellen Sie sich vor, Sie stellen eine Reihe von Wassereimern in Ihrem Garten auf, um Regentropfen zu sammeln. Stellen Sie sich vor, dass sie alle etwas Wasser enthalten, aber Sie schütten es aus, bevor Sie sie platzieren. Einige werden unter der Dachtraufe Ihres Hauses platziert. Einige werden unter großen Bäumen in Ihrem Garten platziert. Einige werden im Freien aufgestellt. Einige werden unter dem Ausguss platziert, der das Wasser aus Ihren Dachrinnen in den Hof leitet. Dann beginnt es zu regnen.

Nehmen wir an, es regnet nur ganz kurz: 15 Sekunden. In jedem Eimer sind ein paar Tropfen Wasser. Aber es ist nicht genug Wasser in jedem Eimer, um sagen zu können, ob in jeden Eimer mehr Regenwasser gefallen ist oder ob nur ein paar Tropfen mehr im Eimer geblieben sind, als Sie das Wasser ausgeschüttet haben, bevor Sie die Eimer gestellt haben auf dem Hof. Da Sie nicht genügend Daten haben, um festzustellen, wie viel Regen auf welche Teile des Hofes gefallen ist, schütten Sie alle Eimer aus und warten, bis es wieder regnet.

Diesmal regnet es mehrere Tage. Wenn es aufhört zu regnen, ist jeder Eimer im Hof ​​überfüllt. Auch wenn Sie ziemlich sicher sind, dass einige Buckets schneller gefüllt sind als andere Buckets, haben Sie keine Möglichkeit zu wissen, welche Buckets am schnellsten gefüllt wurden und welche Buckets zuletzt gefüllt wurden. Sie müssen also die Eimer wieder ausschütten und auf mehr Regen warten.

Beim dritten Versuch regnet es drei Stunden lang und hört dann auf zu regnen. Du gehst auf den Hof und inspizierst deine Eimer. Einige sind fast voll! Einige haben kaum Wasser in ihnen! Die meisten haben unterschiedliche Wassermengen zwischen den beiden Extremen. Jetzt können Sie die Position jedes Eimers verwenden, um festzustellen, wie viel Regen auf jeden Bereich Ihres Gartens gefallen ist.

Der Grund, warum wir die Belichtung in Digitalkameras ändern, ist der Versuch, genug Licht zu sammeln, damit die hellsten Bereiche fast, aber nicht ganz gesättigt sind.Idealerweise geschieht dies mit der Kamera bei der Basis-ISO-Empfindlichkeit. Manchmal reicht das Licht dafür aber nicht aus. Selbst bei der größten verfügbaren Blende können wir in der längsten Zeit, in der wir es wagen, den Verschluss offen zu lassen (aufgrund der Bewegung unserer Motive), nicht genug Licht sammeln. In diesem Fall passen wir die ISO-Einstellung in unserer Kamera so an, dass alle vom Sensor kommenden Werte mit einem Faktor multipliziert werden, der die höchsten Werte auf einen Punkt bringt, an dem sie fast, aber nicht ganz gesättigt sind. Wenn wir das Signal verstärken (die Spannungen, die durch Photonen erzeugt werden, die in Pixelmulden landen), verstärken wir leider auch das Rauschen (die zufälligen ungleichmäßigen Spannungen, die durch den Strom erzeugt werden, der zum Sammeln der Spannungen von jeder Pixelmulde verwendet wird). Dies führt zu einem geringeren Signal-Rausch-VerhältnisDadurch verringert sich die Menge an Details, die wir aus den vom Sensor gesammelten Daten erstellen können.

Es gibt andere technische Einschränkungen, die verhindern, dass Kameras eine "laufende Summe" der Anzahl von Photonen halten, die in verschiedenen Intervallen gesammelt werden, während der Verschluss geöffnet ist. Werfen Sie genug Geld auf das Problem und einige dieser Einschränkungen können zumindest teilweise überwunden werden. Aber entweder müssten die Gesetze der Physik geändert werden, oder wir müssten die Art und Weise, wie Sensoren Photonen zählen, komplett ändern, bevor andere dieser Einschränkungen überwunden werden könnten. Letztendlich könnte die Technologie in einigen oder allen dieser Geräte die Art und Weise ersetzen, wie wir derzeit Bilder in sehr hoher Qualität aufnehmen, aber so weit sind wir noch lange nicht.

Wird der Blockabschnitt von woanders zitiert und muss er zugeschrieben werden, oder versuchen Sie nur, ihn aus irgendeinem Grund abzuheben?
Es ist kein Zitat. Es ist meine eigene Illustration. Die Blockzitatformatierung wurde verwendet, um es vom Rest der Antwort abzuheben. Ich habe mich dafür entschieden, weil ich das Gefühl hatte, dass es unter den verfügbaren Formatierungsoptionen die beste Wahl war.
Eine Sache, die zu beachten ist, ist, dass wir potenziell kürzere Belichtungen von einer längeren Belichtung erfassen könnten, wenn wir Sensoren entwickeln, die wir schnell genug abfragen können - z. B. könnten wir eine Belichtung von 1 Sekunde verwenden, aber 1/250, 1/125, 1/60 erfassen, 1/30 usw. davon, indem Sie den Sensor während dieser Zeit wiederholt lesen und eine Art "laufende Summe" führen. Wir können das schon irgendwie machen, aber es ist nicht sehr gut entwickelt und hat Grenzen, wie kurz eine Belichtung wir aufnehmen können
Das Auslesen dauert bei hochauflösenden Sensoren zu lange. Und viele Schüsse bleiben keine Sekunde stehen. Manchmal ist 1/1000 nicht schnell genug.
„Laufende Summe“ ist ein potenziell irreführender Ausdruck. Was Sensoren jetzt tun, ist, eine „laufende Summe“ von Photonen zu halten, die während der Belichtung gesehen werden. Ich denke, was Sie in dieser Antwort meinen, und was @JonStory in seinem Kommentar meint, ist, eine Reihe sehr kurzer Samples von jedem Pixel zu behalten.
Daher die Anführungszeichen um "laufende Summe". Der Punkt ist, dass wir in Intervallen abfragen und den Wert für jede Exposition nach Bedarf berechnen/speichern. Ich bin eher aus Software-Sicht darauf gekommen (dh speichere bei 1/1000, dann 1/500) und nicht auf der Mechanik des Sensors
Das ist nichts weiter als verherrlichte Klammern. Was schwierig ist, wenn Sie Weltklasse-Athleten mit 10+ fps fotografieren. Mit den Latitude-Rohdateien, die uns derzeit zur Verfügung stehen, sollte jeder Fotograf gut genug belichten können, um das gewünschte Ergebnis zu erzielen. Und denken Sie daran, dass bei einem Schlitzverschluss jeder Fernseher, der kürzer als die Synchronzeit ist, immer noch die gleiche Zeit wie die Synchronzeit benötigt, damit die beiden Vorhänge den Sensor passieren. Und dann ist da noch die Auslesezeit, die benötigt wird, bevor der Sensor für das nächste Bild freigegeben werden kann.
Wie wir in unserer Antwort darauf hingewiesen haben, gibt es einige Möglichkeiten, einige der physikalischen Einschränkungen zu umgehen, aber sie sind teuer in der Ausführung und lassen für bestimmte Anwendungen viel zu wünschen übrig. Sie sind sicherlich noch nicht praktikabel , worauf sich die Frage bezieht.
Die beste Investitionsrendite in dieser Richtung war in den letzten Jahren das Aufkommen von Belichtungsmessern, die unabhängig voneinander empfindlich auf Rot, Grün und Blau reagieren. Dies verhindert nicht nur das Ausblasen von Glanzlichtern, die nur in einem Farbkanal vollständig gesättigt sind, sondern hilft der Kamera auch, eine bestimmte Szene besser zu identifizieren, wenn sie sie mit der internen Bibliothek vergleicht, die in der Firmware der Kamera enthalten ist. Die Fortschritte bei schnellerer Verarbeitungsgeschwindigkeit und gleichzeitig geringerem Stromverbrauch haben auch zur Verbesserung der Messung beigetragen.
Michael, das war eine fantastische Antwort. Vor allem bei der folgenden Diskussion. Ein paar Fragen als Follow-up - zuerst: "Idealerweise geschieht dies mit der Kamera bei der Basis-ISO-Empfindlichkeit." Wieso den?
Zweitens: „Das ist nichts weiter als verherrlichte Belichtungsreihen. Was schwierig ist, wenn man Weltklasse-Athleten mit 10+ fps fotografiert.“ Das macht Sinn, konzentriert sich aber auch auf eine ganz bestimmte Situation. Wäre das nicht für viele andere Situationen eine wirklich nützliche Art der verherrlichten Belichtungsreihe, die man optional in die Kamera einbauen könnte?
"Laufende Summen" sind mehr als Belichtungsreihen - die Annahme ist, dass sie nie überbelichtet werden (wegen kurzer Abtastzeit) und ohne Zeitlücken dazwischen zu synthetischen Belichtungen beliebiger Dauer kombiniert werden können. Das ist (vorerst?) Science-Fiction, aber mit einem solchen Sensor brauchen Sie überhaupt keine Belichtungsmessung und Sie können Ihr Foto nicht einmal ruinieren, indem Sie eine falsche Belichtungszeit oder ISO einstellen. wäre das nicht schön? ;-)
Was ist mit Geräten wie Googles L16, Lytros Immerge und so weiter? Sie ermöglichen die Nachbearbeitung von ISO, Sichtfeld usw. Sie verwenden eine Menge Sensoren in verschiedenen Winkeln, um den Effekt zu erzielen, erstaunliche Nachbearbeitungsoptionen zu ermöglichen.
@ Wombat Pete; 1) S/N-Verhältnis und Dynamikbereich sind besser, wenn Sie bei Basis-ISO nahezu Sättigung aussetzen können. 2) Viele Kameras der oberen Ebene verfügen bereits über hochgradig konfigurierbare automatische Belichtungsreihen. 3) Es gibt keine "laufende Summe". Um einen CMOS- oder CCD-Sensor auszulesen, muss die aktuelle Ladung in jedem Pixel-Well gelöscht werden. Sie würden nur aufeinanderfolgende Frames hinzufügen (was bedeutet, dass Sie auch das Leserauschen erhöhen / DR für jeden zusätzlichen Frame verringern würden).
"Geräte wie ..." fallen alle unter den Teil "Werfen Sie genug Geld darauf ..." am Ende der Antwort. Es gibt einige sehr signifikante Kompromisse, und zwar nicht nur vom Standpunkt der Kosten, die mit der Verwendung solcher Vorrichtungen verbunden sind. Letztendlich könnte die Technologie in einigen oder allen dieser Geräte die Art und Weise ersetzen, wie wir derzeit Bilder in sehr hoher Qualität aufnehmen, aber so weit sind wir noch lange nicht. Und die Frage enthält die Worte "praktisch möglich".
„Um einen CMOS- oder CCD-Sensor auszulesen, muss die aktuelle Ladung in jedem Pixel-Well gelöscht werden.“ Interessant. Ist das eine unvermeidliche mechanische Anforderung?
Sie müssen Elektronen bewegen, um die Daten vom Sensor zu bekommen. Diese Elektronen sind die Ladungen, die von den Photonen erzeugt werden, die auf den Boden der Pixelmulde treffen.
FWIW Ich finde auch die Formatierung "Zitat" verwirrend. Verwenden Sie vielleicht Überschriften/Unterüberschriften, um die Abschnitte zu trennen?
Ich habe mich dafür entschieden, weil ich das Gefühl hatte, dass es unter den verfügbaren Formatierungsoptionen die beste Wahl war. Überschriften/Unterüberschriften scheinen, zumindest für mich, einen logischen Übergang von einem Abschnitt zum nächsten anzuzeigen, aber das ist hier nicht der Fall. Vielmehr ist es eine Pause, um sie durch Metaphern zu veranschaulichen. Es gibt keinen automatischen Indikator, der „QUOTE“ vor und nach einem blauen Kästchen mitten in einer Antwort anzeigt. Es gibt keine allgemeine Konvention in der englischen Sprache, die besagt, dass ein schattiertes Kästchen ein Zitat sein muss . Wenn ich die ganze Abbildung kursiv oder fett setze , hätten andere damit Probleme.

Einen Teil der Technik dafür haben wir bereits. Unser Begriff für das Speichern der Sensormesswerte an jedem Belichtungspunkt ist „Video“, und was Sie verlangen, ist die Rekonstruktion eines optimalen Standbilds aus mehreren Videoframes.

Einen Überblick über die diesbezügliche Arbeit von Microsoft Research finden Sie hier: http://research.microsoft.com/en-us/um/redmond/groups/ivm/multiimagefusion/

Ein verfügbares Beispiel finden Sie in der Synthcam-App, die zum Reduzieren von Rauschen bei schlechten Lichtverhältnissen verwendet werden kann, indem mit einer Telefonkamera aufgenommene Videobilder kombiniert werden: https://sites.google.com/site/marclevoy/

Für die Alltagsfotografie ist dies alles andere als praktikabel, aber es ist denkbar, dass zukünftige Kameras viele Bilder von hochauflösenden Videos mit hoher Bildrate aufnehmen, sodass der Fotograf das gewünschte Ergebnis durch spätere Auswahl und Kombination erzielen kann.

Update Ende 2016: Als ich die ursprüngliche Antwort schrieb, war dies ein Stück weit vom Markt entfernt. Ende 2016 scheint es viel näher. Die „See In The Dark“ -App von Marc Levoy integriert mehrere Videoframes mit Stabilisierung auf einem Consumer-Smartphone, um brauchbare Bilder aus dem Mondlicht zu erzeugen. Siehe auch die Light L16 -Kamera, die mehrere kleine Sensoren in einem einzigen Bild integriert.

Welche Art fällt in die Kategorie „Wirf genug Geld auf das Problem“? Stellen Sie sich vor, was 4.000 fps bei 50 MP kosten würden!
Ich habe vor ungefähr fünf Jahren mit 1000 fps gearbeitet, und es wog ein paar kg. Ich trage derzeit eine 120-fps-Kamera in meiner Tasche. Dies könnte in 5 bis 10 Jahren praktikabel sein. Sicherlich nicht für die Mainstream-Fotografie, und Sie können immer eine dunkle Situation finden, in der es einfach nicht genug Photonen gibt, mit denen Sie arbeiten können.

Die ursprüngliche Frage basiert auf einer falschen Annahme (dass der Zustand des digitalen Sensors während der Belichtung nicht geändert wird), aber das Konzept hängt mit der von Eric Fossum erforschten Idee des Quanta Image Sensor (QIS) zusammen .

http://engineering.dartmouth.edu/research/advanced-image-sensors-and-camera-systems/

Das QIS ist eine revolutionäre Änderung in der Art und Weise, wie wir Bilder in einer Kamera erfassen, die in Dartmouth erfunden wird. Beim QIS besteht das Ziel darin, jedes Photon zu zählen, das auf den Bildsensor trifft, und eine Auflösung von 1 Milliarde oder mehr spezialisierter Fotoelemente (als Jots bezeichnet) pro Sensor bereitzustellen und die resultierenden Jot-Bit-Ebenen hundert- oder tausendmal pro Sekunde auszulesen in Terabit/s an Daten.

Ein solches Gerät würde (Zitat der Frage)

"Erinnern" Sie sich, was die Sensorwerte an jedem Belichtungspunkt waren

und mit dem vollständigen Datensatz könnten wir zum Beispiel die effektive Belichtungszeit "ändern", nachdem das "Foto" aufgenommen wurde.

Heutzutage kann dies angenähert werden, indem ein Video aufgenommen und Frames in der Nachbearbeitung kombiniert werden, um längere Belichtungszeiten zu simulieren (begrenzt durch Kameraleistung, Videomodusauflösung und Verschlusszeit, aber es zeigt die Idee).

Wenn das QIS wie versprochen funktioniert, würde es auch andere coole Funktionen einführen, wie bessere Leistung bei schlechten Lichtverhältnissen, erhöhter Dynamikbereich, kein Aliasing, vollständig anpassbare Empfindlichkeit (z. B. filmähnlich), keine ISO-Einstellungen, einstellbare Auflösung vs. Rauschen

Aktuelle Ankündigung: http://phys.org/news/2015-09-breakthrough-photography.html

„Wenn QIS wie versprochen funktioniert, würde es auch andere coole Funktionen einführen, wie bessere Leistung bei schlechten Lichtverhältnissen, erhöhter Dynamikbereich, kein Aliasing, vollständig anpassbare Empfindlichkeit (z. B. filmähnlich), keine ISO-Einstellungen, einstellbare Auflösung vs. Rauschen“ – Das ist Was ich dachte, genau deshalb habe ich die Frage überhaupt gestellt!
Terabit pro Sekunde? Großzügig sind das 1 GB für eine Belichtung von 1/125 Sekunde oder 2 GB für eine Belichtung von 1/60 Sekunde. (Du denkst, eine 25-50 MB RAW-Datei von einer vernünftigen High-End-DSLR, meistens unabhängig von der Belichtungszeit, ist groß?) Bei einer Schreibleistung von 1000 MB/s, was ziemlich viel ist, bist du etwa 100x zu langsam . Ich denke, auf diesen Ebenen ist die Speicherung eine sehr reale Überlegung.

Der Film verändert sich im Laufe der Zeit, in der er belichtet wird, physikalisch. Ein digitaler Sensor tut dies jedoch nicht; Es liest nur Daten.

Das hängt wirklich von der Art des Sensors ab. Die Art von CMOS-Sensoren, die in heutigen DSLRs verwendet werden, akkumulieren im Laufe der Zeit eine elektrische Ladung in jedem Pixel, sodass sie sich im Laufe der Zeit tatsächlich ähnlich wie ein Film ändern. Wenn sie nicht so funktionieren würden, würde das Bild nur so lange existieren, wie der Verschluss geöffnet ist. CCD-Sensoren (die andere gängige Technologie für Bildsensoren in Kameras) funktionieren ebenfalls auf diese Weise und sammeln mit der Zeit Licht an.

Gibt es einen Grund, warum die Kamera nicht dazu gebracht werden kann, sich an die Sensorwerte an jedem Belichtungspunkt zu "erinnern"?

Genau das macht die Kamera, wenn sie ein Bild aufnimmt. Ich denke, Sie meinen jedoch, dass Sie die Belichtung nachträglich auf jeden gewünschten Wert einstellen könnten, wenn der Sensor die momentane Lichtintensität lesen könnte. Wie oben erläutert, funktionieren die meisten Bildsensoren nicht wirklich so. Auf der anderen Seite können wir die Belichtung in der Nachbearbeitung ziemlich stark anpassen und tun dies auch oft .

Wenn die Datenspeicherung kein Problem wäre, gibt es einen Grund, warum dies nicht die Norm sein könnte, zumindest für die professionelle und künstlerische Fotografie?

Das „Erinnern“ der Daten des Sensors ist für viele Fotografen die Norm. Mit den meisten Kameras können Sie Bilder im "RAW"-Format aufnehmen, und dies sind so ziemlich die Daten, die vom Sensor gelesen werden, plus ein bisschen mehr Daten über die damaligen Kameraeinstellungen. RAW-Bilder nehmen viel mehr Platz ein als andere Formate wie JPEG, aber sie geben dem Fotografen die Freiheit, die Daten später neu zu interpretieren, sodass Sie Einstellungen wie Farbtemperatur und Weißabgleich in der Nachbearbeitung problemlos ändern können.

Ich würde sagen, Ihre Antwort ist die einzige, die den entscheidenden Punkt enthält: Sensoren erzeugen keine kontinuierliche Anzeige, die für das erforderlich wäre, was das OP wünscht. Wenn man eine kontinuierliche Belichtung wollte, würde man eine kontinuierliche Datenausgabe in sehr kleinen Zeitschritten (kleiner als "Live View" und ähnliches) benötigen.
@DetlevCM Hast du meine Antwort sorgfältig gelesen? Es enthält diese Informationen sowohl im ersten als auch im letzten Absatz.
@MichaelClark In der Tat - es enthält es, wenn ich es jetzt noch einmal lese (keine Änderungen aufgezeichnet). Ich schätze, es ist im Rauschen untergegangen, als ich die Antworten durchgesehen habe ...
Ich habe es bearbeitet, um es noch klarer zu machen.
"Wenn man eine kontinuierliche Belichtung wollte, würde man eine kontinuierliche Datenausgabe in sehr kleinen Zeitschritten benötigen (kleiner als "Live View" und ähnliches)" ... was der Begriff "verherrlichte Belichtungsreihe" in der obigen Diskussion ist, oder? Die neue Frage, so wie ich das verstehe, bezieht sich auf die Praktikabilität / Verfügbarkeit dieser Art von Dingen.

Andere haben bereits erklärt, warum dies technisch nicht funktionieren wird. Ich möchte ansprechen, warum es praktisch nicht funktionieren würde .

Wenn die Datenspeicherung kein Problem wäre, gibt es einen Grund, warum dies nicht die Norm sein könnte, zumindest für die professionelle und künstlerische Fotografie?

Berücksichtigen Sie die Größe der unterschiedlichen Lichtverhältnisse, die wir möglicherweise fotografieren möchten. Selbst wenn man Extreme wie die Astrofotografie ignoriert (bei der Sie oft kleine Lichtflecken umgeben von fast völligem Schwarz fotografieren), haben Sie immer noch terrestrische Abend- oder Nachtaufnahmen und hell erleuchtete schneebedeckte Winterlandschaften. Ich werde die letzten beiden als Beispiele verwenden.

Außerdem gehe ich davon aus, dass wir den Sensor bis zum Punkt der vollen Sättigung belichten müssen, um jede gewünschte Belichtung genau nachzubilden.

Außerdem gehe ich davon aus, dass wir die Sensorwerte zerstörungsfrei auslesen können. (Dies ist wahrscheinlich eines dieser Probleme, die in die Kategorie "werfen Sie genug Geld auf das Problem und es könnte lösbar sein") fallen.)

Im Fall der Nachtfotografie müssten wir den Sensor sehr lange belichten, um alle Pixel zu sättigen, was bedeutet, dass jedes Foto, egal wovon wir eigentlich ein Bild haben wollen , absurd lange dauern wird. Das klassische Touristenbild von Tänzern in einer Bar im Freien wird fast unmöglich, weil Sie vielleicht während eines ganzen Abends ein paar davon knipsen können. Nicht gut. Wir können uns also nicht der Sättigung aussetzen, zumindest nicht wahllos. (Es ist ebenso nutzlos, einen gewissen Prozentsatz gesättigter Pixel zu belichten, aber aus anderen Gründen; versuchen Sie, die Belichtung genau richtig zu machen, wenn Sie ein Foto von einem Kamin mit einem brennenden Feuer machen. Das ist fast unmöglich; egal wie sehr Sie es versuchen, einigePixel werden überbelichtet oder riesige Bildbereiche werden schrecklich unterbelichtet.)

Beim Fotografieren einer hell erleuchteten, schneebedeckten Landschaft, wie z. B. einer Winterlandschaft tagsüber, wenn die Sonne scheint, ist die Belichtung, die das automatische Belichtungssystem der Kamera anstrebt ("18 % Grau"), völlig unzureichend. Aus diesem Grund sehen Sie oft Fotos von Schnee, die dunkel sind und auf denen der Schnee eher hellgrau als weiß erscheint. Aus diesem Grund verwenden wir häufig eine positive Belichtungskorrektureinstellung, die dazu führt, dass der Schnee als nahezu gesättigtes Weiß belichtet wird. Dies bedeutet jedoch, dass wir uns nicht auf das AE-System der Kamera verlassen können, um zu bestimmen, wann die Belichtung beendet werden soll: Wenn wir dies tun, werden solche Bilder unweigerlich unterbelichtet .

Mit anderen Worten, eine Belichtung mit voller Sättigung ist in vielen Fällen unpraktisch, und eine Belichtung, um das AE-System glücklich zu machen, ist in vielen Fällen unzureichend. Das bedeutet, dass der Fotograf immer noch eine Art Auswahl treffen muss, und an diesem Punkt sind wir mindestens genauso gut dran, bei dem zu bleiben, was wir haben und woran Fotografen gewöhnt sind, die AE-Systeme besser zu machen und dem Fotografen zu erleichtern ( einfacher?) Zugriff auf Belichtungskorrektureinstellungen. Durch die Erhöhung des praktisch nutzbaren Dynamikbereichs des Sensors können wir in der Nachbearbeitung (noch) mehr Spielraum bei Belichtungsänderungen zulassen; Die ursprünglichen digitalen Spiegelreflexkameras waren horrend teuer, aber in dieser Hinsicht im Vergleich zu den heutigen Einstiegsmodellen wirklich schrecklich.

All dies kann vollständig im Rahmen dessen geschehen, was wir bereits haben. Das soll nicht heißen, dass es einfach ist, den nutzbaren Dynamikbereich des Sensors dramatisch zu verbessern , aber es ist wahrscheinlich viel einfacher als das, was Sie vorschlagen, und es ist ein Problem, mit dem Anbieter Erfahrung haben.

Profis wissen fast per Definition, wie man die Ausrüstung ihres Fachs benutzt. Es ist nicht wirklich anders, ob sie Fotografen oder Space-Shuttle-Piloten sind . Besonders wenn dies ohne Informationsüberflutung möglich ist, ist es normalerweise besser, dem Benutzer die volle Kontrolle über professionelle Geräte zu geben. Meiner Meinung nach sind aktuelle High-End-DSLRs ziemlich gut darin, den Sweet Spot zu treffen.

Vielen Dank für den Hinweis auf die praktischen Probleme mit dieser Idee. Ich stelle mir vor, dass eine Kamera, die geschickt und unabhängig jedes Pixel mittelt, um eine ausgewogene Belichtung zu erzeugen, eher graue Bilder erzeugen würde.

Vereinfachen wir das Problem, um zu verstehen, warum wir immer Kompromisse eingehen müssen.

Lassen Sie uns die Kamera erfinden, die Sie wollen, aber mit nur einem monochromen Pixel. Es muss in der Lage sein, ein einzelnes Photon zuverlässig zu empfangen und den Prozessor über den Empfang zu informieren. Es muss auch in der Lage sein, praktisch unabzählbar unendliche Photonen zu empfangen und den Prozessor über den Empfang zu informieren.

Der erste Fall in einer Situation, in der es kein Licht gibt. Die zweite schon bei mäßigem Lichteinfall.

Das Hauptproblem ist, dass wir einfach nicht über die Technologie verfügen, um einen Sensor mit einem so großen Dynamikbereich zu entwickeln. Wir werden immer Kompromisse eingehen müssen, und im Moment gehen wir Kompromisse ein, indem wir einen höheren Bereich auswählen, in dem der Sensor nahezu unendlich viele Photonen aufnehmen kann und uns einen Messwert liefert, der eine relative Lichtmenge anzeigt, die auf den Sensor trifft. Es zählt sie überhaupt nicht, sondern verhält sich wie unsere Augen - sie geben lediglich eine Ausgabe ab, die relativ zur Menge der auf sie treffenden Photonen ist, ohne zu versuchen, Photonen zu zählen.

Dies wird durch die Tatsache weiter erschwert, dass diese im Laufe der Zeit gesammelt werden.

Ein idealer Sensor wäre eigentlich eher wie ein Geigerzähler - der die Zeit zwischen Photonen misst, um uns eine nahezu sofortige Messung der auf den Sensor fallenden Lichtmenge zu geben, vorausgesetzt, dass die Photonen relativ gleichmäßig beabstandet sind (was nicht stimmt, aber ist eine bequeme Annahme und warum Geigerzähler im Laufe der Zeit mitteln, genau wie Kameras).

Quantensensoren hätten im Wesentlichen das gleiche Problem. Sicher, sie können ein einzelnes Photon wahrnehmen, aber irgendwann kommen sie so schnell, dass man einfach nicht mehr die Zeit zwischen ihnen messen oder sogar zählen kann, wie viele pro Belichtungszeit kommen.

Wir haben also diesen Kompromiss, der erfordert, dass wir entweder mehrere Bilder mit mehreren Belichtungen aufnehmen oder mehrere Bilder mit derselben hohen Belichtung zusammenfügen, um die schwach beleuchteten Bereiche hervorzuheben, oder das einfallende Licht mit verschiedenen Sensoren unterschiedlicher Dynamik in zwei oder mehr Pfade aufteilen Reichweite, oder Sensoren bauen, die Pixel gruppieren oder Lichtsensoren stapeln können, oder, oder, oder - es gibt buchstäblich Tausende von Möglichkeiten, wie Fotografen dieses grundlegende Problem im Laufe der Jahrzehnte mit einer Vielzahl von Medien gelöst haben.

Es ist eine physikalische Einschränkung, die wahrscheinlich nicht überwunden werden kann. Wir werden niemals eine Kamera* ohne Input des Fotografen haben, mit der alle Entscheidungen in der Nachbearbeitung getroffen werden können.

* Wenn Sie die Definition der Kamera ändern, sind Sie möglicherweise mit den Ergebnissen eines anderen Prozesses zufrieden, aber dies ist weitgehend subjektiv. Die Realität ist, dass, wenn Sie eine Szene mit Ihrer Kamera abbilden, dann einer Person die Szene zeigen und dann das von Ihnen aufgenommene Bild, diese aufgrund der inhärenten Unterschiede zwischen ihren Augen, Ihrem Bildsensor und dem Prozess, den Sie zum Drucken verwendet haben, Unterschiede wahrnehmen das Bild. Bei der Fotografie geht es genauso um Interpretation und Kunst wie um das Einfangen von Licht, und daher ist eine fanatische Konzentration auf die "perfekte Kamera" wahrscheinlich nicht sehr nützlich.

Wenn Sie versuchen, eine nahezu unendliche Anzahl von Photonen zu zählen, sind Sie bereits tot ;-) (von der starken Lichtquelle verbrannt), in anderen Fällen können wir immer eine Technologie erfinden, um dies zu handhaben, zum Beispiel --> dpreview.com/ Artikel/5923827506/…