Sind RAWs in Belichtungsreihen (meistens) überflüssig?

Wenn ich mit meiner Kamera RAW+JPEG mit Belichtungsreihe (-1/0/+1 EV) aufnehme, scheint mir, dass der einzige Unterschied, der logischerweise zwischen den RAW-Bildern bestehen könnte, die Verschlusszeit ist.

Wenn ich annehme, dass der Standardwert von 0 EV eine angemessene Belichtung hat, bedeutet dies, dass die RAWs -1 und +1 mehr oder weniger überflüssig sind? Oder haben sie wirklich eine beträchtliche Menge an zusätzlichen Informationen, die notwendig wären, wenn ich (sagen wir) später HDR-Bilder erstellen oder etwas anderes nicht Triviales tun möchte?

(Im Grunde versuche ich zu sehen, ob ich wirklich alle 3 RAW-Dateien behalten sollte, da sie so riesig sind.)

Man kann sagen, dass es keinen Sinn macht, RAWs aufzubewahren, sobald Sie mit der Verarbeitung fertig sind.
@Agent_L definiere "sobald du fertig bist" ...
@ChrisH Genau :)

Antworten (8)

Der Zweck der Belichtungsreihe in dem von Ihnen beschriebenen Kontext besteht darin, einen höheren Dynamikbereich zu erzielen, den Sie mit einem einzelnen Bild erzielen können, weil Sie dies tun möchten oder müssen .

Auch wenn RAW mehr Bits pro Kanal als JPEG hat, hat es immer noch einen begrenzten Dynamikbereich. Abhängig von der Szene, die Sie vor sich haben, möchten oder müssen Sie Bilder mit unterschiedlichen Belichtungen aufnehmen. Darüber hinaus geht es nicht nur um RAW vs. JPEG, jedes Kameramodell hat seine eigenen Fähigkeiten, um einen bestimmten Dynamikbereich zu erfassen. Wenn Ihr Histogramm "verbranntes" helles Licht oder vollständig schwarze Schatten zeigt, fehlen im Grunde bei einer einzigen Aufnahme Informationen.

Wenn Sie der Meinung sind, dass die 0EV-Aufnahme eine angemessene Belichtung hat, benötigen Sie HDR möglicherweise überhaupt nicht (Sie können sogar ein HDR-ähnliches Ergebnis aus einem einzigen RAW-Bild erhalten).

Nun ist der EV-Unterschied zwischen zwei Aufnahmen offensichtlich eine Funktion des Dynamikbereichs, den Sie erfassen möchten, und somit eine Funktion der Szene. Und ja , in diesem Fall sind einige Informationen ohnehin überflüssig, da das, was sich im mittleren Bereich von Bild A (z. B. 0 EV) befindet, auch in B (z. B. -1 EV) und C (+1 EV) vorhanden ist. Um dies zu begrenzen, müssen Sie den Bracketing-Parameter auf angemessene Werte einstellen.

In Bezug auf die Anzahl der benötigten Bilder und den EV-Unterschied zwischen den einzelnen Aufnahmen haben viele Personen viele Ratschläge. Was für mich als "Standard" funktioniert (z. B. 1 2/3 oder 2 EV-Unterschied bei 7 Bildern für eine bestimmte Szene), kann für jemand anderen unzureichend sein.

Ich möchte hinzufügen, dass die Verschlusszeit nicht die einzige Variable ist. Einige Kameras können den ISO-Wert oder die Blende ändern, um eine Belichtungsreihe zu erhalten (verwenden Sie die Blendenreihe nur, wenn Sie wissen, was sie tut).

Kartick Vaddadi lieferte ein Beispiel, um zu veranschaulichen, wie Informationen tatsächlich redundant sind, siehe: https://photo.stackexchange.com/a/67276/26456

Blende für HDR-Bracketing nicht ändern. Sie möchten keinen unterschiedlichen DOF zwischen den Aufnahmen.
Sie möchten die Blende für die HDR-Belichtungsreihe effektiv nicht ändern. Wenn Sie dies tun, ist es für die DOF-Belichtungsreihe ( photo.stackexchange.com/questions/12553/… )
Sie klammern nicht ein, weil Sie "einen höheren Dynamikbereich erzielen möchten". Sie klammern ein, weil Sie eine Szene mit höherem Dynamikbereich in ein Anzeigemedium mit geringerem Dynamikbereich einpassen möchten. Die Verwendung von HDR erhöht nicht den DR des Anzeigemediums, sondern ermöglicht es, eine breitere DR-Szene in ein eingeschränkteres DR-Anzeigemedium einzupassen.

Belichtungsreihen sind nützlich, wenn die Szene den Dynamikbereich der Kamera überschreitet. Das ist es. Es gibt keine Antwort, die immer gilt, weil es von der Szene abhängt.

Wenn ich annehme, dass der Standardwert von 0 EV eine angemessene Belichtung hat, bedeutet dies, dass die RAWs -1 und +1 mehr oder weniger überflüssig sind?

Wenn die Belichtung sowohl in den Schatten als auch in den Lichtern angemessen ist – das heißt, die Szene hat einen Dynamikbereich, der problemlos in das passt, was die Kamera aufnehmen kann – dann ja, Sie haben Recht. Eine Belichtungsreihe bringt Ihnen nicht viel.

Selbst wenn die Belichtung an beiden Enden nur ein oder zwei Stufen entfernt ist, können Sie oft genug aus einem einzigen Rohbild extrahieren, um ein anständiges Komposit zu erstellen, das den gesamten Dynamikbereich abdeckt.

Wenn die Szene jedoch einen noch größeren Dynamikbereich hat, hilft es, mehr Belichtungen zu haben. Wenn sowohl sehr helle Lichter als auch sehr tiefe Schatten vorhanden sind, kann dies die Kapazität einer einzelnen RAW-Datei übersteigen. In diesem Fall möchten Sie wahrscheinlich eine noch breitere Belichtungsreihe erstellen, indem Sie ein zentrales Bild aufnehmen, dann eines, um die Lichter abzudecken, und ein anderes die Schatten. Vielleicht möchten Sie sogar ein Vielfaches nehmen, um sowohl die Extreme als auch mehr in der Mitte zu erhalten.

Bevor das Kombinieren mehrerer Bilder für HDR populär wurde, war der primäre andere Grund für die Belichtungsreihe, wenn Sie sich nicht sicher waren, welche Belichtungswahl Sie treffen möchten. Das ist bei Film sinnvoller – bei Digital sehen Sie sich normalerweise nur das Histogramm an oder machen eine Testaufnahme und überprüfen sie.

Ich habe festgestellt, dass Belichtungsreihen von ±1 oder ±2 EV nicht helfen, aber Belichtungsreihen von ±3 EV.

Ich habe folgendes Experiment gemacht:

Zuerst habe ich eine Szene mit hohem Dynamikbereich ausgewählt, ohne direkt die Sonne zu fotografieren. Hier stand die Sonne teilweise hinter dünnen Wolken, und es war unangenehm hell, um es mit bloßem Auge anzusehen. Mit anderen Worten, es war viel heller, als es auf den Fotos unten aussieht.

Für diese Szene habe ich drei Fotos mit einer Belichtungsreihe von 1 EV aufgenommen und die Belichtungsfusion in Photomatix durchgeführt:

Geben Sie hier die Bildbeschreibung ein

Ich habe dann die Originale mit -1 und +1 EV weggeworfen und sie aus dem 0EV-Original in Lightroom synthetisiert. Ich habe dann alle drei Fotos verschmolzen:

Geben Sie hier die Bildbeschreibung ein

Ich bemerke keinen Unterschied zwischen ihnen.

Ich habe dieses Experiment für ±2 EV wiederholt, zuerst mit Belichtungsreihen:

Geben Sie hier die Bildbeschreibung ein

Und dann ohne:

Geben Sie hier die Bildbeschreibung ein

Wieder kein Unterschied.

Ich habe den Test dann mit ±3EV wiederholt, mit Belichtungsreihen:

Geben Sie hier die Bildbeschreibung ein

Und dann ohne:

Geben Sie hier die Bildbeschreibung ein

Bitte öffnen Sie die Fotos in separaten Registerkarten, um sie in voller Größe anzuzeigen.

Diesmal gibt es einen deutlichen Unterschied, sowohl in den Farben als auch in der synthetisierten Version in einem schwachen Regenbogen, der an der Wand rechts von oben nach unten zu sehen ist.

Die Schlussfolgerung, die ich aus dieser Übung gezogen habe, ist, dass selbst bei einer Szene mit hohem Dynamikbereich eine Belichtungsreihe von ±1 oder ±2 EV nicht zu einem besseren Foto führt. Alles, was es tut, ist Zeitverschwendung und zusätzliche Komplexität, wie das Verfolgen von mehr Fotos, ohne Nutzen. Wenn ich einklammere, klammere ich um ±3 EV ein.

Dies ist auf der Sony NEX-5R; Die Leistung Ihrer Kamera kann variieren.

+1 Ich liebe das! Wenn du die anderen posten könntest, wäre das super. Vielen Dank, dass Sie sich die Zeit dafür genommen haben!
Fertig. Ich habe auch die gesamte Antwort umgeschrieben, um sie klarer zu machen.
Nur persönlicher Eindruck - keine Kritik an geäußerter Meinung: Ein Blick auf die +/- 1EV-Version bei 100% Crop zeigt deutlich mehr Rauschen in der Single-Exposure-Version als in der 3-Exposure-Version. Dies ist über einen großen Teil des Bildes sichtbar, aber besonders in den schattigeren Bereichen, z. B. am Sockel der Klimaanlage. Während dieses Maß an Rauschminderung wahrscheinlich von den meisten bei zB typischen Bildschirmauflösungen unbemerkt bleiben würde, vermute ich, dass es sich bei 4K-Pegeln und zB bei A4-Drucken zeigen würde. | Das mag nach klassischem "Pixelpeeping" klingen, aber für meine eigenen Zwecke ....
.... Mir geht es viel weniger um feine Details als darum, ob mir das Ergebnis gefällt, und ich denke, dass ich bei Fotos, die "Top-Qualität" haben sollen, dieses Rauschen bemerken würde - auch wenn es mich eigentlich nicht "kümmert". darüber in vielen Fällen. Das heißt, ich denke, dass diejenigen, die sich viel mehr als ich oft um den Geräuschpegel kümmern, die Unterschiede signifikant finden würden.
Ich konnte das Rauschen sehen, aber erst, nachdem Sie darauf hingewiesen haben, und nur bei 100 %. Das Kriterium, das ich verwende, ist, ob ich es auf meinem 30-Zoll-Monitor im Vollbildmodus sehen kann (im Füllmodus, nicht passend, da ersteres etwas mehr hineinzoomt), und ich konnte es nicht. Ich kann meine Ansicht ändern, wenn ich einen 4k-Monitor bekomme, aber im Moment bin ich zufrieden mit meiner Meinung, dass Belichtungsreihen mit ±1 oder ±2 EV auf der NEX-5R nicht erforderlich sind. Auf jeden Fall danke für deinen Beitrag.

Es hängt davon ab, ob. Wenn der gesamte Dynamikbereich der Szene in einer einzigen Belichtung erfasst werden kann, ist dies überflüssig. Wenn der gesamte Dynamikbereich der Szene die Kapazität einer einzelnen Belichtung übersteigt und Sie diesen gesamten Dynamikbereich erfassen möchten, müssen Sie eine Belichtungsreihe erstellen.

Beachten Sie, dass eine einzelne 14-Bit-Rohdatei so viele Dynamikbereichsinformationen enthalten kann wie eine -3-, 0-, +3-Serie von 8-Bit-JPEGs! Das Aufnehmen einer Reihe von Rohaufnahmen in Klammern bei -1, 0, +1 beinhaltet also viele Überlappungen, selbst mit Digitalkameras, die nur 10-11 Blenden des Dynamikbereichs erfassen können. Die besten Kameras von heute können bis zu 13-14 Stufen bei Basis-ISO erreichen. Wenn Sie die ISO erhöhen, wird die DR jeder Kamera reduziert. Bei einer Szene mit sehr großem Dynamikbereich können Sie immer noch alle Mitteltöne ohne Lücken erhalten, indem Sie eine Reihe von -2, 0, +2 oder sogar -3, 0, +3 aufnehmen, wenn Sie mit relativ niedrigem ISO-Wert (ca ISO 800 oder weniger) und zentrieren Sie Ihren Basisbelichtungswert richtig.

+1 tolle Punkte zu DR und auch wie sich ISO darauf auswirkt, danke!

Lassen Sie mich die bereits gegebenen Antworten um das Thema Lärm ergänzen. Angenommen, die 0-EV-Belichtung ist gut genug, die Schatten sind nicht unterbelichtet, die hellen Bereiche sind nicht überbelichtet, dann ist es immer noch so, dass die Verwendung der +1-EV-Belichtung (für die nicht überbelichteten Teile) ein Bild mit geringerem Rauschen ergibt . Indem Sie länger belichten und dann die Helligkeit auf das gewünschte Niveau einstellen, eliminieren Sie Rauschen durch Mittelwertbildung. Auch in einem HDR-Bild, das aus verschiedenen Belichtungen zusammengesetzt wurde, ist es nicht so, dass jedes Pixel nur aus einer der Belichtungen stammt; typischerweise tragen alle Expositionen zu einem gewissen Grad bei. Es findet dann also auch noch eine Mittelung über die 3 verschiedenen Belichtungen statt, die dann das Rauschen weiter reduziert.

+1, obwohl ich mir vorstellen würde, dass der +1 EV daher auch verschwommen ist, oder? dh nicht unbedingt unbedingt besser, auch wenn keines der Bilder die Schatten und Lichter über- oder unterbelichtet hat?
Warum sollte die +1-Belichtung unbedingt unschärfer sein?
Bedeutet dies nicht auch, dass Sie für jede -1 auch Ihren Rauschpegel dieser bestimmten Exposition verdoppeln? für -2 vervierfachen Sie Ihr Rauschen?
@AbdulNQuraishi: Rauschen ist hauptsächlich ein Problem in den dunkleren Teilen eines Bildes. Eine Reduzierung der Belichtung um eine Blende verdoppelt das Rauschen, eine Reduzierung um zwei Blenden vervierfacht es. Wenn man andererseits eine -2/0/+2-Bildsequenz aufnimmt, würde man normalerweise die dunkleren Teile der -2-Belichtung ausblenden, sodass das Rauschen in diesen Teilen keine Rolle spielt . Die einzigen Teile des -2-Bildes, die man wahrscheinlich verwenden würde, wären diejenigen, die mindestens 10 % des Maximums ausgesetzt sind, und das sind die Teile, die das geringste Rauschen aufweisen.
@supercat: Verstehe ich richtig, dass das Rauschen nicht gleichmäßig über das Bild erhöht wird, sondern hauptsächlich in dunkleren Bereichen? oder sollte es sein, dass das Rauschen gleichmäßig verteilt ist, aber in den dunkleren Bereichen stärker ausgeprägt ist? Ich bin kein großer HDR-Mensch, habe aber immer festgestellt, dass ich das Rauschen besser kontrollieren konnte, wenn ich das HDR aus einer einzelnen RAW-Datei generierte. Immer wenn ich Belichtungsreihen mit der einzigen logischen Anpassung der Verschlusszeit verwende, weist das unterbelichtete Bild immer ein erhöhtes Rauschen auf, während das überbelichtete im Allgemeinen ausgeblasen wird, was beide für die zukünftige Verwendung überflüssig macht
@AbdulNQuraishi: Bei Verwendung einer linearen Skala ist der Unterschied zwischen 4 % und 2 % Helligkeit im Allgemeinen weitaus sichtbarer als der Unterschied zwischen 97 % Helligkeit und 99 % Helligkeit. Wenn ein Teil eines Bildes eine Helligkeit von 3 % und ein anderer Teil eine Helligkeit von 98 % aufweisen soll und beide den gleichen Wert von +/- 1 % Rauschen aufweisen, führt dieses Rauschen dazu, dass einige Pixel innerhalb des Bereichs von „3 %“ liegen doppelt so hell wie andere, aber innerhalb des „98 %“-Bereichs sind die hellsten Pixel weniger als 2,07 % heller als die dunkelsten.
@AbdulNQuraishi: Eine andere Möglichkeit, die Dinge zu betrachten, besteht darin, zu sagen, dass, wenn Sie die scheinbare Belichtung erhöhen müssen, nachdem ein Bild aufgenommen wurde, dies das damit aufgenommene Rauschen erhöht; Wenn Sie die Belichtung nach der Aufnahme eines Bildes reduzieren, wird das Rauschen reduziert, aber es werden keine Glanzlichter gerettet, die bei der Aufnahme ausgeblasen wurden. Die hellsten und dunkelsten Bilder sollen nicht für sich allein verwendbar sein, sondern dafür sorgen, dass, wenn sich zwischen den drei Bildern nichts bewegt, ein Bild entstehen kann, bei dem nichts furchtbar verrauscht und...
...nichts wird ausgeblasen. Wenn man eine Szene hat, in der 5 % des Inhalts sehr dunkel, 45 % mäßig dunkel, 45 % mäßig hell und 5 % sehr hell sind und der Rest dazwischen liegt, kann es sein, dass die Hälfte des Inhalts drin ist Der +1-Frame ist übersteuert und die Hälfte des Inhalts im -1-Frame ist unbrauchbar verrauscht, aber das bedeutet nicht, dass diese Frames nutzlos sind.
Teile des Bildes werden möglicherweise am besten im mittleren Rahmen dargestellt, aber einige Teile können besser in einem der anderen dargestellt werden. Wenn man alle drei Frames so anpasst, dass sie ähnliche Kontrastkurven haben (Verkleinern des Dynamikbereichs des mittleren Frames, Verstärken des unterbelichteten Frames und Verringern des überbelichteten Frames), kann man dann verschiedene Teile der verschiedenen Belichtungen so mischen, dass sie nachgeben ein viel besseres Bild, als es mit nur einer Belichtung erreicht werden könnte.

RAW-Bilder enthalten nicht alle Informationen, die aus einer Szene abgerufen werden könnten. Sie enthalten einfach mehr Informationen als JPEG-Bilder. Wenn ein Fotograf Fotos belichtet und später kombiniert, liegt es normalerweise daran, dass die hellen und dunklen Bereiche seiner Szene ausreichend unterschiedlich sind, dass die Kamera die Unterschiede in den dunklen Bereichen nicht erkennen kann, während sie auch die Unterschiede in den hellen erkennt Bereiche. Um die Unterschiede in den dunklen Bereichen zu erkennen, würden die hellen Bereiche die Photosites sättigen. Durch die Belichtungsreihe der Fotos erkennt die Kamera entweder die Details in den dunklen Bereichen oder mehr Details in den hellen Bereichen, sodass die in den drei Fotos enthaltenen Informationen unterschiedlich sind, manchmal drastisch.

Wenn Sie versuchen würden, dasselbe Bild aus JPEGs zu erstellen, werden aufgrund ihres reduzierten Dynamikbereichs möglicherweise mehr davon benötigt.

Möglicherweise möchten Sie entweder die +1 oder die -1 aus dem RAW nehmen, und Sie werden es nicht wissen, bis Sie sich hinsetzen, um daran zu arbeiten. Dies gilt auch, wenn Sie Belichtungsreihen haben.

Wenn sich etwas zwischen den Belichtungen bewegt, können Sie mit dem richtigen HDR seltsame Effekte haben. Selbst wenn Sie denken, dass alles noch der leiseste Windhauch tun kann, oder ein solides Stativ auf einem nicht so stabilen Boden, verlagert jemand sein Gewicht. Sogar eine Subpixel-Bewegung kann auftauchen. Oder wie wäre es mit einem Käfer, der über die Szene fliegt?

Vergessen Sie nicht, dass Sie Ihr +1-Raw nehmen und mehr Schattendetails erhalten können als mit dem +1-JPG oder dem mit den Standardeinstellungen importierten RAW.

Schließlich sind Rohkost nicht so groß, nicht wirklich. Sie sind 10 MB groß, wenn Laufwerke 100 GB groß sind. Sie können sie auch immer zippen, wenn Sie mit der Bearbeitung fertig sind (ich habe dies früher mit den 12-Bit-Dateien einer wissenschaftlichen Kamera mit guter Wirkung gemacht, ich habe es mit meinen .cr2s nicht versucht). Ich arbeite nach dem Prinzip „Nur Müll löschen“.

Ich stimme zu; Klammern sind nicht immer zum Zusammenführen. Und es kann beim Culling hilfreich sein, auf eine Klammer schauen zu können und zu sehen, ob es etwas in diesem Schatten gibt, mit dem man sich beschäftigen muss, ohne das RAW verarbeiten zu müssen, um es zu sehen.