Was ist der Unterschied zwischen 16-Bit- und 32-Bit-High-Dynamic-Range-Bildern?

Dies ergibt sich aus verschiedenen HDR-Workflows, die ich kenne.

In Photoshop können Sie beispielsweise mehrere Bilder zu einer einzigen HDR-Datei zusammenführen. Wenn Sie sich für eine 16-Bit-Datei entscheiden, wählen Sie, soweit ich mich erinnere, auch einen der Prozesse aus, die alles funky und farbenfroh aussehen lassen, dh das Tone-Mapping. Wenn Sie sich dagegen für 32-Bit entscheiden, werden die Bilder nur in einer 32-Bit-Datei zusammengeführt.

Für mich ist dieser 32-Bit-Workflow das, worum es bei HDR geht: Erstellen eines Bildes mit einem höheren Dynamikbereich. Das wieder in 8-Bit-Dateien zur Anzeige zu bringen, ist eine andere Geschichte.

Warum gibt es keinen solchen Workflow für 16-Bit-Dateien? Ist Photoshop einfach so?

Wenn es eine Option zum Zusammenführen mit 16-Bit-HDR gäbe, wäre das die bessere Wahl? (Angesichts der möglicherweise kleineren Dateigröße) Wann/warum sollte eine Bittiefe der anderen vorgezogen werden?

Antworten (3)

Ich stimme Ihnen zufällig zu, dass das Zusammensetzen des High-Range-Schritts des Bildes und das Tonemapping getrennte Betrachtungen und eine getrennte Terminologie sein sollten. Leider ist das keine Definition, die sich im allgemeinen Sprachgebrauch durchgesetzt hat, und als solche ist HDR für die meisten Fotografen ein Synonym für (häufig grelles) Tonemapping.

In der Denkweise von Adobe werden mehrere 16-Bit-Rohoriginale zusammengesetzt (auch wenn sie in Wirklichkeit je nach Kamera häufig nur 12/14 Bit sind), um das HR-Composite zu erstellen, das einen höheren als 16-Bit-Bereich haben muss. Um auf 16 Bit zurückzuspeichern, besteht die Wahl zwischen Datenverlust durch Tonemapping oder Clipping.

Für das 32-Bit-HDR-Format übersteigt der im Ausgabeformat verfügbare Dynamikbereich das Eingabeformat, sodass keine Tonemap erforderlich ist, um Details zu erhalten.

Es gibt einen wichtigen Unterschied zwischen 32-Bit- und 16-Bit-Bildern (wie für PS): Ein 32-Bit-HDR verwendet 32-Bit -Gleitkommazahlen für jeden Farbkanal, 16- und 8-Bit-Bildformate verwenden Ganzzahlen . Das hat einen enormen Einfluss auf den verfügbaren Dynamikbereich, HDR-Formate tauschen praktisch unbegrenzte DR gegen Präzision. Es ist nicht nur "2^16 vs. 2^32 Farben".

Photoshop verwendet auch eine lineare Gammakurve im 32-Bit-Modus, sodass Sie eine genauere Überblendung erhalten.
Ein bisschen ist ein bisschen, Sie können immer noch nur 2^32 Werte in Gleitkommazahlen darstellen, weil nur 2^32 Zustände dargestellt werden können ...
@JamesSnell, aber sie sind nicht gleichmäßig verteilt. sie reichen von 2^-126 bis 2^127. das definiert die DR des Formats. (Ich weiß nicht, ob negative Werte verwendet werden)
@ths - Wenn Ihr Speicher 32 Bit pro Farbe hat, ist das Ihr DR. Es sind immer noch nur 2 ^ 32, da dies die Anzahl verschiedener Werte ist, die ein IEEE754 -Float enthält, unabhängig von den breiteren Grenzen, die ein Float in Dezimalzahlen enthält. 01110010 10100011 10110000 00100001 im Speicher ist 6.48434987305284552130299533722 E30 als Float oder 1923330081 als Integer ohne Vorzeichen - so sind die Dinge eben. Sie können nicht auf magische Weise Repräsentationen erfinden, wo es keine gibt.
DR ist das Verhältnis des höchsten zum niedrigsten Wert.

Sie sollten einen höheren Dynamikbereich wählen (z. B. 32 vs. 16 vs. 8 Bit), um eine gleichmäßige Variation der Daten zu gewährleisten. Beim Downsampling der Daten haben Sie die Kontrolle darüber, wie die Werte gefiltert werden.

Bei Fotos bedeutet dies im Allgemeinen Farbverläufe. Wenn Sie die Daten in 8 Bit komprimieren, gibt es im Allgemeinen nicht genügend "Schritte" in den Kanalwerten, um die Tongradienten aus den Originalbildern reibungslos zu kombinieren.