HDR- und RAW-Dynamic-Range-Clipping, Mapping und Komprimierung

Mein Verständnis des Renderns einer typischen RAW-Datei, die 14 Bit pro Kanal enthält, ist, dass sie einfach auf die 8 Bit pro Kanal gekürzt wird, die von den meisten Bildbetrachtern verwendet werden. Vermutlich nehmen Kameravorgaben den mittleren Teil dieses Bereichs ein, während Verarbeitungsprogramme es dem Benutzer ermöglichen, das 8-Bit-„Fenster“ nach links und rechts zu verschieben.

RAW-Daten können als Sonderfall von HDR-Daten betrachtet werden, die mit 16 oder mehr Bit pro Kanal aufgebaut sein können. Mit HDR-Techniken möchten wir die Daten nicht beschneiden und verwenden stattdessen eine „Tonzuordnung“. Mein Verständnis von Tonemapping ist, dass es sich um eine surjektive Transformation handelt, die jedoch eine Benutzerkonstruktion erfordert. Das heißt, es gibt kein Standard-Tone-Mapping.

Was ich mich frage, ist, ob irgendwelche Programme eine Standardzuordnung von HDR- zu 8-Bit-Bildern bereitstellen, die man als "Komprimierung" bezeichnen könnte, die einfach jedes HDR-Pixel in ein 8-Bit-Pixel umwandeln würde, ohne zu beschneiden (aber offensichtlich dynamische Details über die Spektrum).

Kann man also beispielsweise ein "komprimiertes" Rendering einer RAW-Datei in Lightroom anfordern? Für jeden Kanal würde dies 0 auf 0 und 2^14 auf 2^8 abbilden, wobei andere Werte linear dazwischen abgebildet würden.

Ich habe den Verdacht, dass eine Kontrasteinstellung dies effektiv bewirkt, aber ich suche nach einem vollständigen Verständnis.

14-Bit-Daten werden dem Demosaicking und der Tonkurve unterzogen (die Reihenfolge kann umgekehrt sein), wobei irgendwo nach dem Demosaicking eine Farbtransformation angewendet wird (d. h. vor oder nach der Tonkurvenanwendung). Die Ausgabe ist typischerweise 16 Bit, Zwischenberechnungen werden in einem Minimum von 16 Bit durchgeführt (jetzt verwenden immer mehr Konverter Gleitkommazahlen). Seit 2001 habe ich in Konvertern kein Clipping auf 8 Bit gesehen.
Ihr Verständnis der "mittleren Scheibe" ist ein wenig fehlerhaft. Die Daten von den Sensoren sind linear, aber S-förmige Tonkurven werden von den Betrachtern angewendet. Etwa das untere Drittel wird auf nahezu die gleichen dunklen Farbtöne komprimiert, die Mitte wird nur ein wenig komprimiert und die Lichter werden wieder stärker komprimiert.
@MichaelClark: danke. Für RAW gibt es also irgendwann eine nichtlineare, aber monotone Transformation. Nehmen wir an, dass dies vor dem Beschneiden / Mapping / Komprimieren angewendet wird, und dann glaube ich, dass die ursprüngliche Frage besteht.
Nicht unbedingt. Viele Betrachter geben Ihnen ein "flaches" Bild, das so ziemlich alle 14 Bit auf 8 Bit komprimiert
Ihr 8-Bit-Fenster kann breiter oder schmaler gemacht sowie nach links oder rechts verschoben werden.
@MichaelClark Wie ändern wir die Fensterbreite in etwas wie Lightroom? Liegt es an der Kontrasteinstellung?
Jede der Lichtkurvenanpassungen wirkt sich bis zu einem gewissen Grad darauf aus. Ich denke, eine Betrachtungsweise ist, dass die Weißpegel- und Schwarzpegel-Schieberegler die "Grenzen" auf jeder Seite festlegen, die Kontrast-Schieberegler bestimmen, wie viel angezeigter Unterschied zwischen den einzelnen Grenzen besteht, und die Helligkeits-Schieberegler stellen ein, wo die Mitte sein wird.

Antworten (1)

RAW-Daten, die linear auf 8 Bit herunterskaliert werden, würden zu einem sehr flachen, stumpfen Bild ohne guten Kontrast führen. Aus diesem Grund wenden RAW-Konverter eine S-Kurve an, um einen viel größeren Kontrast in den Mitteltönen zu erzielen (es sei denn, Sie fragen ausdrücklich nach etwas anderem). Je nachdem, wo die Endpunkte und Schultern der Kurve platziert sind, verschieben Sie den Bereich, der den maximalen Kontrast erhält (der Kontrast wird durch die Steilheit der Kurve an diesem Punkt bestimmt), während Sie die Helligkeit erhöhen / verringern usw.

Es ist wichtig, Dynamikbereich und Bittiefe zu trennen. Die beiden hängen nur dann voneinander ab, wenn die Codierung perfekt linear ist. In allen anderen Fällen sind sie völlig unabhängig - wenn Sie eine Codierung wählen, die die Mitteltöne massiv komprimiert, können Sie mit sehr wenigen Bits einen riesigen Dynamikbereich aufnehmen.

Was ich mich frage, ist, ob irgendwelche Programme eine Standardzuordnung von HDR- zu 8-Bit-Bildern bereitstellen, die man als "Komprimierung" bezeichnen könnte, die einfach jedes HDR-Pixel in ein 8-Bit-Pixel umwandeln würde, ohne zu beschneiden (aber offensichtlich dynamische Details über die Spektrum).

Ein "Bild mit hohem Dynamikbereich" im reinsten Sinne unterscheidet sich nicht von einem RAW-Bild (abgesehen vom Bayer-Muster), beide haben einen größeren Dynamikbereich als angezeigt werden können, nur eines hat einen größeren DR als das andere.

Wenn sich die meisten Menschen „HDR“-Bilder ansehen, sehen sie in Wirklichkeit Bilder mit niedrigem Dynamikbereich, die durch Tonemapping der HDR-Daten generiert wurden. Dieser Vorgang versucht, einen Teil des Dynamikbereichs zu bewahren, indem der gesamte im LDR-Bild verfügbare Bereich verwendet wird, um jeden unterschiedlichen Bereich im HDR-Bild anzuzeigen.

Stellen Sie sich das zuvor erwähnte Szenario vor, in dem Sie einen Teil der Daten nehmen, um von HDR zu LDR zu wechseln. Stellen Sie sich nun vor, dass das Fenster nach links oder rechts verschoben wird, je nachdem, wo Sie sich im Bild befinden. Das sind die Grundlagen des Tonemappings. Es gibt eine ganze Menge anderer Dinge, aber das macht es möglich, ein HDR-Bild auf einem Gerät mit niedrigem Dynamikbereich (wie einem typischen LCD-Monitor) anzuzeigen.

Kann man also beispielsweise ein "komprimiertes" Rendering einer RAW-Datei in Lightroom anfordern? Für jeden Kanal würde dies 0 auf 0 und 2^14 auf 2^8 abbilden, wobei andere Werte linear dazwischen abgebildet würden.

Möglicherweise können Sie dies tun, indem Sie die minimal möglichen Kontrasteinstellungen auswählen. Es ist schwer zu sagen, wie viel von einer Kurve angewendet wird. In den meisten Fällen möchten Sie dies jedoch sicherlich nicht tun, da Ihr Bild sehr langweilig aussehen würde.

Wissen Sie, ob RAW-Daten von Kameras, die JPGs rendern, oder von Lightroom "beschnitten" werden? Klingt, als wollten Sie sagen, dass sie es wahrscheinlich nie sind.
@feetwet Die JPEG-Engine der Kamera schneidet wahrscheinlich die Schatten ein wenig ab, was für Lightroom davon abhängt, welche Einstellungen Sie anwenden - wenn Sie den Belichtungsregler ganz nach oben drehen, werden die Lichter abgeschnitten!