Verständnis der Nichtlinearität der Lightroom/ACR-Belichtung

Beim Betrachten des DNG SDK (v1.4) stellte ich fest, dass die Belichtungsoperation als 1D-Funktion implementiert ist, mit einer kleinen Nichtlinearität im sehr niedrigen Teil des Dynamikbereichs für positive Belichtungswerte und einer signifikanten Nichtlinearität im oberen Teil des Dynamikbereichs. Dies kann im DNG SDK unter dng_function_exposure_ramp::Evaluateund eingesehen werden dng_function_exposure_tone::Evaluate.

Tatsächlich ist die Operation für positive Belichtungswerte linear (mit einem kleinen Offset) für Werte, die höher sind als ein kleiner Schwellenwert ( fBlack + fRadius). Für niedrigere Werte ist die Operation jedoch quadratisch. Bei negativen Belichtungswerten wird der untere Teil des Dynamikbereichs (bis 0,25) linear behandelt, die Spitzlichter werden mit einer quadratischen Funktion behandelt.

Meine Frage ist, was der Grund für diese Nichtlinearität ist und wie wichtig sie für das Endergebnis ist.

(Ich frage nach den Gründen für die Entscheidung, eine nichtlineare Operation für die Belichtung durchzuführen.)

Antworten (2)

Dies erklärt die Nichtlinearität in der menschlichen Wahrnehmung von Helligkeit. Diese Seite , die Williamson & Cummins (1983) zitiert, erklärt:

Geben Sie hier die Bildbeschreibung ein

Bei der Betrachtung dieser Frage können wir „Reflexion“ durch „Belichtung“ ersetzen. Beachten Sie, dass die Antwortkurve für alle außer dem dunkelsten Bereich eine ungefähr konstante Steigung hat.

Wir wissen, dass die Wahrnehmung auf einer logarithmischen Skala liegt, daher die Verwendung von EV und Stopps auf dieser Skala und die Verdoppelung der Zeit für jeden Streifen eines Testdrucks. Deuten Sie an, dass sich die Kurve am dunkelsten Ende ändert? Und dass die transformierten Werte diesen Effekt rückgängig machen sollen, sodass das Ergebnis überall protokolliert wird? Das würde die Schattenverstärkung oder jede Operation, die die Helligkeit dieser Pixel ändert, durcheinander bringen.
Ich gehe mit der Antwort nicht so weit, obwohl ein Log-Throughout-Modell möglicherweise korrekter ist als das, was das DNG SDK tut. Hier stelle ich lediglich fest, dass die empirische Kurve von Williamson & Cummins für einen begrenzten Stimulus praktisch linear für die 80% hellsten Stimuli und exponentiell für den dunkelsten Bereich von Stimuli ist und somit mit dem übereinstimmt, was der Fragesteller beobachtet hat. (Sie stellen fest, dass die Kurve für diejenigen, die sich in Sparsamkeit trösten, ungefähr logarithmisch ist.)
Die Wahrnehmungs-Nichtlinearität wird bereits in der Gammafunktion angesprochen, die kurz vor der Anzeige des Bildes angewendet wird, nicht in der Mitte der Verarbeitungspipeline. Dies erklärt auch nicht den Fall einer negativen Belichtung, bei der die Nichtlinearität (in DNG SDK) im höheren Teil des Dynamikbereichs liegt.
Szene ist linear; Sensor ist nahezu linear. Die menschliche Wahrnehmung hat hier kein Spiel.
@Ben-Uri: Bild-Gamma wirkt Monitor-Gamma entgegen. Das Ergebnis muss nahezu linear sein.

Ich fand heraus, dass die Aufzeichnung der dunkelsten Bereiche selbst nichtlinear war. Die Schwarztöne verjüngen sich und ergeben einen viel größeren Bereich mit größeren Schritten zwischen den einzelnen Werten. Mein Experiment wurde vor vielen Jahren durchgeführt, aber das könnte (noch) eine inhärente Eigenschaft der Sensortechnologie sein. (Das würde bedeuten, dass ein Brunnen es schwerer hat, einen Treffer zu registrieren, wenn er leer ist)

Solche Probleme sollten jedoch im Linearisierungsschritt (Kapitel 5 in der DNG-Spezifikation) behandelt werden und sind sowieso keine Funktion der benutzerdefinierten Belichtungsauswahl des Benutzers.
> Ich fand, dass die Aufnahme der dunkelsten Bereiche selbst nichtlinear war. Die Antwort lautet: Streulicht im Kasten und auch wegen der Linse bildet sich ein Zeh in den Daten. Flare verursacht Kontrastverlust, besonders sichtbar in Schatten.