Wie verarbeitet man DSLR-RAW-Dateien für die Anzeige auf modernen HDR-fähigen Fernsehern und Computermonitoren? (tatsächlicher Dynamikbereich von 10 Bit/Kanal oder 12 Bit/Kanal)

10-Bit/ch-Anzeigetafeln werden immer üblicher. Die UHD-Fernseher der neuesten Generation können 10 Bit/Kanal anzeigen, einige Consumer-Fernseher haben eine Ausgabe von bis zu 1000 nit. In jüngster Zeit sind (endlich) HDR-Computermonitore auf den Markt gekommen. Und sowohl LG als auch Sony stellen jetzt Smartphones her, die behaupten, HDR-fähige Bildschirme zu haben.

Wie sollten wir unsere Standfoto-RAW-Dateien verarbeiten, um sie (mit maximaler Genauigkeit des Dynamikbereichs) auf den HDR-fähigen Displays anzuzeigen? (Tatsächlich 10 Bit/Kanal oder mehr DR)

Welche Software sollten wir verwenden, um die RAW-Dateien zu verarbeiten?

Welches Ausgabeformat sollten wir verwenden?

Man könnte denken, dass JPEG2000 eine logische Wahl ist, da es in Digital Cinema verwendet wird, um 12bit/ch zu unterstützen. Aber es gibt wenig Unterstützung dafür in der Standbildkamera-Community. (Zum Beispiel erzeugen Standbildkameras intern JPEG2000?)

Die Diskrepanz wird wahrscheinlich noch größer, da wir in Zukunft wahrscheinlich Heimkino-Projektoren mit 12bit/ch und High-NIT-Fähigkeit sehen werden. Wir haben sie bereits in kommerziellen Kinos. Der Dolby Vision-Codierungsstandard für Heimvideos unterstützt 12 Bit/Kanal. (Vielleicht HDR10+ auch) Die Verwendung von 12bit durch Verbraucher scheint nur eine Frage der Zeit zu sein.

Wie nutzen wir die ausgefallenen Sensoren in unseren DSLR-Kameras (die oft mehr kosten als unser teures HDR-fähiges UHD-Fernsehgerät), um tatsächlich Standbilder mit 10 Bit/Kanal Wide Dynamic Range auf diesen Fernsehern, Computermonitoren und Smartphones anzuzeigen? Was ist die Softwarekette zur Verarbeitung von RAW-Dateien? Welchen Ausgabedateistandard sollten wir verwenden?

Es ist durchaus möglich, dass es (noch) keine Möglichkeit gibt, mehr als 8 Bit/Kanal auf einem Fernseher anzuzeigen, wenn diese Fernseher kein Dateiformat mit hoher Bittiefe lesen können.

Antworten (2)

Ihr erster Schritt besteht darin, herauszufinden, welche Formate der Fernseher dekodieren kann. JPEG2000 ist ein Kandidat, TIFF ist ein anderer, aber die TIFF-Spezifikation ist eine Wurmkiste, die die Erstellung neuer Tags mit alternativen Decodierungsmechanismen ermöglicht. Es gibt viele TIFF-Decoder, die nicht alle Varianten verstehen.

Zweiter Test: Können Sie tatsächlich 10-12 Bit Dynamikbereich sehen ? Papier unterstützt nicht einmal 8 Bit – der Kontrastumfang beträgt etwa 100:1 für einen gut gemachten Druck, weniger als der für Halbtonbilder.

Der Vorteil tieferer Bitbereiche ist die Möglichkeit, ohne Artefakte auf einen niedrigeren Kontrastbereich umzuordnen.

Aufgrund der Art und Weise, wie das menschliche Auge auf Licht reagiert, vermute ich, dass Sie den 10-Bit-Dynamikbereich nur sehen können, wenn:

  • Die Beleuchtung außerhalb des Bildschirms ist minimal (Stolpern über die Hundeebene)
  • Das Bild selbst hat sehr wenige Zone-IX- und -X-Regionen und nicht viel VII. Zu viel Weiß und Ihr Auge verengt sich, was bedeutet, dass Sie im Schatten nicht sehen können.

Zonensystem: https://en.wikipedia.org/wiki/Zone_System

8 Bit pro Kanal sind wirklich nicht genug. Siehe marksblog.com/gradient-noise
Es gibt 1000-Nit-Displays. Hwood kann eine Spitzenleuchtdichte von 4000 Nits für Post-Anzeigen standardisieren. SONY hat auf der CES2018 ein 10.000-Nit-Display vorgeführt. NVIDIA sagte auf der ces2017, dass der Prototyp des Computer-LCD-Panels mit 12 Bit/Kanal betrieben werden könnte. Ihr aktuelles Computerdisplay (in Zusammenarbeit mit ASUS und anderen) ist ein 10-Bit/Kanal-HDR-LCD mit 120 fps. Der Kurvenball könnte Samsung mit seinen nicht-organischen (dh konventionellen) LED-Displays sein. Keine Langlebigkeit oder Einbrennprobleme, keine Verzögerung, Potenzial für hohe Leuchtdichte, Farbtiefe nur begrenzt durch die Qualität der DACs, die die LEDs ansteuern. Es scheint, dass HDR TV jetzt da ist.
Dass das Display das kann, bezweifle ich nicht. Ich sage, dass ich (vielleicht du, aber sicher ich) sie nicht sehen kann, außer unter besonderen Umständen. Ein Nit ist eine Einheit der Lichtintensität. 10.000 Candela pro Quadratmeter bedeuten nur, dass es hell ist. Es bedeutet nicht, dass Teile, die auf der Hälfte des Displays auf dieser Stufe leuchten, es Ihnen immer noch ermöglichen, zwischen den Stufen 10 und 20 an anderer Stelle auf dem Bildschirm zu unterscheiden.
@RMEnger Die Anforderungen eines Bildschirms zur Anzeige von Videos (bei dem sich der Inhalt der Szene dynamisch von einem Bild zum nächsten ändert) sind nicht dieselben wie die Notwendigkeit, ein statisches Foto so zu bearbeiten, dass es den gesamten Helligkeitsbereich enthält gleichzeitig vom Betrachter wahrgenommen werden können.
Ich möchte bestätigen, dass @Sherwood Botsford falsch ist. Er geht davon aus, dass er den Unterschied nicht sehen kann. Der Trick, um die Vorteile von HDR zu verstehen, besteht darin, ein richtiges HDR-Display persönlich zu sehen. Das Magische an ihnen ist, dass Sie ein HDR-Display besuchen – die Lichtpunkte von Dingen wie Neonschildern und Lichtpunkte sind wahnsinnig hell, ohne meine Fähigkeit zu beeinträchtigen, superdunkle Schatten zu sehen. So kann ich die 1nit-Grautöne sehen.
Ich habe früher genauso gedacht wie @Sherman Botsford, aber ich habe auch über 100 verschiedene HDR-Displays besucht, darunter das 10.000-Nit-HDR-Display (das nicht heller war als IHR Computermonitor – es bedeutete nur Dinge wie Reflexionen und Sonne und Straßenlaternen und Neon Schilder waren farbig hell statt normalerweise überbelichtet-weiß). Leute wie Sherwood Botsford müssen sich ein paar richtige True-HDR-Displays ansehen, bevor sie Vermutungen anstellen. Ich verstehe jetzt HDR besser und es ist nicht wirklich "nur ein heller Bildschirm". Die 1 % weißen Ausschnitte werden auf magische Weise ent-überbelichtet. Nachtbilder sind auf True-HDR erstaunlich.
Wenn der Monitor HDR macht, dann komprimiert er den Kontrastbereich. Meine ursprüngliche Aussage steht. Sie können keine Bilder mit einer Tiefe von 10-12 Bit sehen. Sie können sehen, was der Fernseher mit ihnen macht. Sie haben die Wahl: Sie können auswählen, wie das Bild komprimiert wird, oder Sie überlassen dies dem Fernseher.
Haben Kommentatoren gesagt, dass ich nicht mehr als 8 Bit Dynamikbereich sehen kann, der jemals HDR10- oder Dolby Vision-Videoinhalte (z. B. von Netflix, Amazon Prime oder einer 4K-Bluray) angesehen hat? Der breitere Farbraum und die helleren, farbenfroheren Highlights sehen besser aus – irgendwie. Ein möglicher Ansatz dafür könnte darin bestehen, eine Video-Diashow aus Standbildern zu erstellen und HDR-Farbkorrekturen mit Da Vinci Resolve durchzuführen. Ein Artikel von Alex van Hurkman könnte für Fotografen von Nutzen sein, die damit beginnen, HDR-Videos zu verstehen.

HDR PQ HEIF von Canon könnte eine der Antworten sein, nimm 10-Bit-PQ in der Kamera auf und sieh es dir dann auf einem HDR-Fernseher an. Siehe diesen Artikel .