Was ist der Unterschied zwischen „Fake HDR“ und echtem HDR mit Belichtungsreihen?

Als ich anfing, meine Fähigkeiten in der Landschaftsfotografie aufzufrischen, stieß ich auf das polarisierende (Wortspiel beabsichtigte) Problem der HDR-Fotografie. Genauer gesagt bin ich auf einen gut geschriebenen Blog-Beitrag mit dem Titel " Ist ein Lightroom HDR-"Effekt", wirklich HDR? " gestoßen. Um den Beitrag zu zitieren:

Ich habe diesen Beitrag neulich auf 500px gesehen (link: http://500px.com/photo/8023755 ) und er hat mich nachdenklich gemacht. Der Fotograf Jose Barbosa (dessen Arbeit ich übrigens fabelhaft finde) schrieb „Kein HDR“ neben sein Foto. Aber das Foto sieht (zumindest für mich) wie ein HDR-Foto aus. (...) Ich habe ein wenig in den Metadaten seines Fotos gegraben und gesehen, wie viele Anpassungspinselarbeiten mit Clarity durchgeführt wurden (im Grunde der HDR-Effekt-Schieberegler in Lightroom). Und in den Kommentaren zum 500px-Post schrieb der Fotograf selbst „Bearbeitung in Lightroom und Viveza 2“. (...)

Mein Punkt (und meine Frage an Sie) ist, ob HDR (das ist nicht wirklich HDR) immer noch HDR ist? Ist HDR nicht einfach zu einer Wirkung geworden? Ein bisschen wie Black & White oder der Cross-Processing-Effekt. Brauchen wir noch 3 oder 5 oder 7 Belichtungsreihen, die in einem Programm wie Photomatix bearbeitet wurden, um ein Bild als offizielles HDR-Foto zu klassifizieren? Oder ist HDR einfach der Effekt, mehr Details in den Schatten und Lichtern hervorzuheben (und vielleicht ein wenig grobkörniges/surreales Aussehen dazu).

Anscheinend habe ich die gleiche Frage wie der Autor: Was ist wirklich der Unterschied zwischen diesen "gefälschten HDR" -Effekten, die beispielsweise durch die Klarheitsanpassung von Lightroom hinzugefügt wurden, zusammen mit einer Wiederherstellung von Schatten / Lichtern im Gegensatz zu "echtem" HDR mit Belichtungsreihen bei + /-n EV ? Gibt es zusätzliches Rauschen bei der "falschen" Methode? Gibt es überhaupt einen (spürbaren) Unterschied? Gibt es in ähnlicher Weise einen Grund, ein HDR-Bild aufzunehmen, wenn wir einfach die Wiederherstellung von Schatten/Lichtern verwenden können, um die gesamte Szene gleichmäßig zu belichten?

Antworten (5)

Was ist der Unterschied zwischen „Fake HDR“ und echtem HDR mit Belichtungsreihen?

Der einzige Unterschied besteht darin, wie weit oder eng Sie sich entscheiden, den Begriff High Dynamic Range Imaging (HDR) zu definieren. Verwenden Sie den breiteren Begriff, wie er historisch seit über 150 Jahren verwendet wird, um auf Techniken zu verweisen, die verwendet werden, um eine Szene mit einem höheren Dynamikbereich als dem Dynamikbereich des Anzeigemediums anzuzeigen? Oder bestehen Sie auf einer sehr engen Definition, die Techniken verwendet, die es erst seit ein paar Jahrzehnten gibt, um zu argumentieren, dass die einzig legitime Definition von HDR eine 8-Bit-Tone-Mapping-Version einer 32-Bit-Gleitkomma-Lichtkarte ist, die von erstellt wurde Kombinieren mehrerer Belichtungsreihen? Das wars so ziemlich.

HDR , wie der Begriff heute allgemein verwendet wird, ist nur eine Form von High Dynamic Range Imaging (HDRI) , die mindestens seit den 1850er Jahren im Gange ist.

Gustave Le Grey nahm mehrere Belichtungen mit unterschiedlichen Belichtungswerten auf, um Meereslandschaften zu schaffen, die den hellen Himmel von einem Glasplattennegativ und das dunklere Meer und die Küste von einem anderen verwendeten.

Das Zonensystem beim Aufnehmen, Entwickeln und Tone-Mapping , das Mitte des 20. Jahrhunderts in der Dunkelkammer durchgeführt wurde, wurde von Ansel Adams und anderen zu einer Kunstform erhoben, als sie Entwicklungszeiten und Ausweichen und Brennen von Drucken nutzten, um den gesamten Dynamikbereich von a zu verringern Szene zu dem, was die von ihnen verwendeten Fotopapiere darstellen konnten.

Im Bereich der Digitalfotografie werden mehrere Techniken verwendet, um eine Szene mit einem hohen Dynamikbereich mithilfe eines Mediums wie einem Computermonitor oder Druck darzustellen, das keinen so großen Kontrast zwischen den hellsten und dunkelsten Teilen einer Szene erzeugen kann wie die Szene selbst enthält. Was viele Leute meinen, wenn sie sagen, HDR ist nur eine solche Technik unter vielen.

Obwohl es bei weitem nicht das einzig legitime ist, ist es heute das am weitesten verbreitete Verständnis des Begriffs HDRentwickelte sich aus Ideen, die erstmals 1993 eingeführt wurden und zu einer mathematischen Theorie unterschiedlich belichteter Bilder desselben Themas führten, die 1995 von Steve Mann und Rosalind Picard veröffentlicht wurde. Es erstellt eine Lichtkarte mit hohem Dynamikbereich aus mehreren digitalen Bildern, die mit unterschiedlichen Werten belichtet wurden, wobei nur globale Bildoperationen (über das gesamte Bild) verwendet werden. Das Ergebnis ist oft ein 32-Bit-Gleitkommabild, das kein Monitor oder Drucker wiedergeben kann. Es muss dann durch Reduzieren des Gesamtkontrasts farblich abgebildet werden, während der lokale Kontrast erhalten bleibt, um in den dynamischen Bereich des Anzeigemediums zu passen. Dies führt oft zu Artefakten in den Übergängen zwischen Bereichen mit hohen Luminanzwerten und Bereichen mit niedrigen Luminanzwerten. (Selbst wenn Sie eine 12-Bit- oder 14-Bit-Rohdatei in Ihrer Fotoanwendung auf dem Computer öffnen, sehen Sie auf dem Bildschirm ein 8-Bit-Rendering der demosaikierten Rohdatei, nicht die tatsächlichen monochromatischen Bayer-gefilterten 14 -Bit-Datei. Wenn Sie die Einstellungen und Schieberegler ändern, werden die „Rohdaten“ neu zugeordnet und erneut in 8 Bit pro Farbkanal gerendert).

Als die von Mann und Picard skizzierten Techniken zum ersten Mal in Mainstream-Imaging-Anwendungen auf Verbraucherebene angewendet wurden, erforderten diese Anwendungen normalerweise, dass die Bilder im JPEG-Format vorliegen. Wenn Sie etwas später richtig exotisch werden möchten, finden Sie vielleicht ein Programm, mit dem Sie TIFFs verwenden können. Oft nahmen Benutzer eine einzelne Rohdatei, erstellten eine Reihe von JPEGs aus der einzelnen Datei mit etwa -2, 0, +2 Belichtungs-/Helligkeitsunterschieden und kombinierten sie dann mit dem HDR-Programm. Sogar eine 12-Bit-Raw-Datei kann so viel Dynamikumfang enthalten wie eine -2, 0, +2-Serie von JPEGs. Eine 14-Bit-Raw-Datei kann die entsprechenden Informationen wie in einer -3-, 0-, +3-Serie von JPEGs enthalten. Erst vor kurzem haben die meisten HDR-Anwendungen, die auf der Erstellung von Gleitkomma-Lightmaps basieren, die Verwendung von Rohdateidaten als Ausgangspunkt zugelassen.

In der weitesten Verwendung der Begriffe HDR (oder HDRI ) sind auch andere Prozesse enthalten, die keine 32-Bit-Luminanzabbildungen und die Notwendigkeit einer Tonabbildung beinhalten. Das Kombinieren verschiedener Bereiche mit unterschiedlichen Belichtungen derselben Szene, sei es durch physisches „Ausschneiden und Einfügen“, wie es Le Gray vor über 150 Jahren tat, oder durch moderne digitale Bildgebungsanwendungen, die Ebenen verwenden, ist eine Möglichkeit. Andere Techniken wie Exposure Fusion oder Digital BlendingFühren Sie globale Anpassungen digital auf eine Weise durch, die nicht die gleiche Art von Tonzuordnung erfordert wie eine 32-Bit-Gleitkomma-Lichtzuordnung. Wie bereits erwähnt, waren viele der Techniken, die im 20. Jahrhundert in der Dunkelkammer zur Herstellung von Abzügen von belichteten Filmen verwendet wurden, ein Mittel zur Darstellung von Szenen mit einem sehr großen Dynamikbereich unter Verwendung von Fotopapier, das einen geringeren Dynamikbereich als der Negativfilm hatte verwendet, um die Szene aufzunehmen. Dasselbe gilt für diese vielfältigen digitalen Techniken.

Sogar das Konvertieren einer 14-Bit-Rohdatei, in der die Daten für jedes Pixel nur einen Luminanzwert, aber keine echten Farben enthalten, und die Verwendung von Demosaicing-Algorithmen zum Interpolieren eines 8-Bit-Rot-, Grün- und Blau-Farbwerts pro Farbkanal für jedes Pixel basierend auf den unterschiedlichen Luminanzwerten benachbarter Pixel, die mit einer Bayer-Maske mit abwechselnden Mustern von Rot, Grün und Blau gefiltert werden, kann als HDRI angesehen werden , insbesondere wenn unregelmäßig geformte Tonwertkurven auf die resultierenden RGB-Werte angewendet werden.

Meiner Meinung nach ist es so einfach: Ein HDR-Foto ist ein Foto, bei dem man versucht, die Details in jedem Teil einer Szene mit einem hohen Dynamikumfang hervorzuheben. Das sagt ja schon der Name „HDR“.

Was ist nun ein hoher Dynamikbereich? Dies ist der Fall, wenn die dunklen Teile des Bildes viel dunkler sind als die hellen Teile des Bildes. Früher hat man mehrere Fotos mit unterschiedlichen Belichtungen gemacht, um die Details in jedem Teil der Szene zu erfassen, weil Kameras nicht in der Lage waren, einen hohen Dynamikbereich zu erfassen. Heutzutage können Kameras problemlos 14 Belichtungsstufen erfassen (was bedeutet, dass das Detail im dunkelsten Ton physikalisch 2^14-mal weniger hell ist als die hellsten Töne, die die Kamera erfassen kann) (Beispiel: Die Nikon D750 hat 14,5 Blendenstufen Dynamikbereich ). Das ist viel, und in mehr Situationen als zuvor ausreichend, um mit Mehrfachbelichtungen den gleichen Effekt eines „HDR-Fotos“ zu erzielen. Kurz gesagt, Kameras sind bei der Erfassung großer Entfernungen besser geworden. und daher ist der Bedarf an mehreren Fotos mit unterschiedlichen Belichtungen gesunken, aber das macht es nicht zu einem HDR. Zusammenfassend lässt sich sagen, dass das von Ihnen verlinkte Foto mit 500 Pixel definitiv ein HDR-Foto ist, da Sie feststellen können, dass Sie in allen Teilen des Bildes viele Details für eine Szene mit ursprünglich viel Dynamikumfang sehen können.

"... Kameras waren nicht in der Lage, einen hohen Dynamikbereich zu erfassen." Vielleicht war dies bei frühen Digitalkameras nicht der Fall. Mit dem richtigen Film und der richtigen Belichtung/Entwicklung zeigte uns Ansel Adams, wie großformatige Filme Details in Szenen einfangen können, die 14 Blendenstufen voneinander entfernt auf einem einzigen Negativ liegen, und dann entwickelt und gedruckt werden, sodass diese Details auf Papier mit einer maximalen DR von 6 sichtbar sind -7 Haltestellen.

wenn wir einfach die Wiederherstellung von Schatten/Lichtern verwenden können, um die gesamte Szene gleichmäßig zu belichten

Dies hängt vom Dynamikbereich der Szene ab, die Sie aufnehmen möchten, und vom Dynamikbereich, den der Sensor erfassen kann.

Wenn Sie beim Belichten kaum Details in den Schatten bekommen, um die Lichter nicht zu sprengen, benötigen Sie Mehrfachbelichtungen.

Wenn Sie genügend Details in den Schatten (mit minimalem oder akzeptablem Rauschpegel) erhalten und gleichzeitig die Glanzlichter beibehalten können, sind Sie möglicherweise damit zufrieden, ein einzelnes Foto aufzunehmen und anzupassen.

Meine Antwort wird eine Art praktischer und experimenteller Weg sein, um das Verständnis zu erlangen.

  1. Gehen Sie zu einem Ort wie einer Stadt mit Gebäuden und der Straße, wo Sie an sonnigen Tagen direkt in die Sonne oder den Himmel schauen können, oder gehen Sie zu einem Ort, an dem es zum Beispiel einen Wald gibt, und Sie können auch die Sonne oder den Himmel sehen Himmel.

  2. Betrachten Sie (mit Ihren eigenen Augen) die Gebäude oder die Bäume.

  3. Blicken Sie in den Himmel oder in die Sonne (eher nicht direkt in die Sonne schauen).

Sie können beobachten, wie sich die Augen anpassen. Sie können sowohl Bäume als auch den Himmel sehen.

  1. Nehmen Sie Ihre Kamera mit, wenn Sie die Live-View-Option haben, können Sie sie einschalten.

  2. Fokussieren Sie Ihre Kamera auf die gleichen Punkte, auf die Sie geschaut haben.

Sie werden sehen, dass die Kamera nicht effektiv auf eine und die einzige Belichtung den Blick auf den Himmel und die dunkleren Objekte lenken kann. Selbst wenn Sie die Szene mit einer Art durchschnittlicher Belichtungseinstellungen aufnehmen, gibt es Stellen, die schwarz und einige weiß (untersättigt und übersättigt) sein werden. Selbst wenn Sie versuchen, die Belichtung in der spezialisierten Software (es gibt viele davon) lokal zu reduzieren oder zu erhöhen, gibt es keine Möglichkeit, die Form und die Farben aus Weiß und Schwarz herauszuholen.

Es ist die Realität. Die aktuellen Sensoren sind nicht so fortschrittlich wie die Augen. Übrigens ist es aus Gründen der Technik auch ein erwünschtes Feature, das in der Low-Key- und High-Key-Fotografie verwendet wird.

Setzen wir das Experiment fort.

  1. Wenn Sie mehrere Fotos aufnehmen können, um weitere Informationen zu erhalten, und diese später in der HDR-Software zusammenführen, kombinieren Sie alle Informationen aus allen Fotos.

  2. Am besten nehmen Sie mehr Bilder mit kleineren EV-Schritten auf, wenn die Szene statisch ist. Wenn sich Objekte bewegen, muss es eine Art Kompromiss zwischen der Anzahl der Aufnahmen und dem EV-Schritt geben.

Je nach Situation können Sie von 3 Bildern +/-1EV oder 3 mit +/-2EV bis zu 9 oder mehr Aufnahmen +/-0,5EV oder sogar +/-2EV aufnehmen.

Wichtig ist auch, wie Sie die EV-Änderung vornehmen. Grundsätzlich ist die beliebteste Methode, die Verschlusszeit zu verlängern oder zu verkürzen. Mit einigen Einschränkungen kann man ISO-Änderungen verwenden, um dasselbe zu erreichen, aber mit hohen ISO-Werten sind Bilder verrauschter. Das Ändern der Blende macht das Zusammenführen von Bildern schwierig, und die Effekte sind interessant (ich würde sagen, künstlerisch oder konzeptionell). Natürlich kann man ND-Filter verwenden, um den eigenen EV-Bereich zu erweitern – versuchen Sie es mit einem extremen Filter wie ND 3.0.

Wenn der Satz von Bildern schließlich gut vorbereitet ist und eine wirklich große Auswahl an EVs aufweist, wird das HDR-Ergebnis erstaunlich sein und es gibt keine Möglichkeit, es aus einem Einzelbild zu fälschen, da das Einzelbild definitiv weniger Informationen enthält.

Letzte Kommentare.

Diese Art von Szene können Sie mit einem Verlaufsfilter aufnehmen, aber HDR ist allgemeiner, insbesondere wenn die Grenze zwischen hellen und dunklen Stellen nicht linear ist.

Ich empfehle, ein Stativ für alle Experimente mit HDR zu verwenden :-).

Es gibt ein Missverständnis von "HDRI"

Ein Bild mit hohem Dynamikbereich hat einen größeren Dynamikbereich als ein normales Bild. Es klang ziemlich lahme Erklärung, aber das ist, was es ist.

Hier sind einige Animationen, die ich gemacht habe, um zu erklären, was ein Hdri ist: http://www.otake.com.mx/Apuntes/Imagen/EnviromentMaps/Index.html#HighDynamicRangeImages

Das Missverständnis ist, dass ein Teil des Prozesses zur Bearbeitung dieser Bilder, der als Tone Mapping bezeichnet wird, mit dem Hdri-Bild selbst identisch ist. Es ist nicht. Ein Hdri-Bild enthält wirklich mehr Informationen. Sonnige Außenseiten und dunkle Innenräume zusammen.

Um diese Informationen auf einem normalen Monitor wieder sehen zu können, muss das Hdr-Bild "neu zugeordnet" werden. Ein Tone-Mapping-Bild hat einen bestimmten Kontrasttyp. Kein Gesamtkontrast, sondern ein Kontrast zu angrenzenden Zonen. Jetzt können Sie beispielsweise kontrastierende Wolken und kontrastierende dunkle Innenräume sehen.

Der Punkt ist, dass Sie ein normales Foto (ohne Belichtungsreihen) aufnehmen und es farbtonzuordnen könnten, damit Sie den "hdri" -Look haben.

Hier sind 3 Aufnahmen. Eines ist aus einem Satz von 3 Fotos in Klammern tonzugeordnet (echtes HDRI, aber jetzt tonzugeordnet in ein 8-Bit-Bild)

Der zweite ist ein Ton, der von einem einzelnen Schuss abgebildet wird.

Der dritte ist nur ein normaler Einzelschuss, der die Ebenen jedoch stark bewegt, um einige zusätzliche Informationen über den Himmel zu enthüllen, die wir zuvor nicht gesehen haben.

Der Punkt ist, dass ein normales Foto manipuliert, ausgewichen und gebrannt werden kann, um ein ähnliches, kontrastreiches Aussehen auf einem Foto zu erzielen.

Hier sind die Originalfotos in Klammern. Das für (2) und (3) verwendete ist das Ev0:

Da sind einige Informationen versteckt. Bei der Verarbeitung kann es jedoch zu Streifenbildung kommen, da Sie nur begrenzte Informationen in den Pixeln haben. Um Streifenbildung zu vermeiden, ist es besser, wenn Sie mehr Informationen haben, mehr Stufen der hellen Töne und mehr Stufen der Schatten ... Deshalb haben Sie die Belichtungsreihen aufgenommen.

Der Punkt ist ähnlich wie in diesem Beitrag: Was bringt es, 14-Bit-Bilder aufzunehmen und auf 8-Bit-Monitoren zu bearbeiten? Mehr Informationsebenen eignen sich besser zum Bearbeiten von Bildern.