Warum sind überhöhte Spitzlichter in der Digitalfotografie besonders schlimm?

Ich habe gehört, dass digitale Sensoren geblasene Glanzlichter weniger "verzeihen" als Filme. Warum ist das?

Es gibt so etwas wie "charakteristische Kurven". Wie hängt das zusammen, im Film und im Digitalen?

Kann man dagegen etwas tun? Ist dies in manchen Situationen ein erheblicher Vorteil für den Film oder bedeutet es nur, dass der Aufnahmestil möglicherweise etwas anders sein muss? (Oder bedeutet es das überhaupt?)

Ich erinnere mich an irgendwo, dass durchgebrannte Glanzlichter in Digital viel einfacher in der Post "zurückzuerlangen" sind als Unterbelichtung ... vielleicht nur zu Ihrer Information, damit die Leute dies nicht lesen und starten -2EV stoppt alle ihre Fotos?
@Crashdown: Sie denken an ein Konzept namens "Rechts aussetzen". Allerdings gilt das nur für Informationen bis hin zu den gesprengten Highlights, die definitiv nicht einfach zu reklamieren sind.
@nchpmn du hast das rückwärts. Durchgebrannte Glanzlichter können nicht wiederhergestellt werden. Die Daten werden abgeschnitten und gehen verloren. Mit Unterbelichtung können Sie die Belichtung erhöhen und zumindest einige Details auf Kosten von mehr Rauschen wiederherstellen.

Antworten (8)

Digital geblasenes Highlight ist schlechter als Negativfilm , da der Übergang zwischen geblasenen und hellen Bereichen ziemlich hart ist. Diafilm ist nur geringfügig besser als Digital bei der Wiedergabe von Details in übertriebenen Glanzlichtern. Sie brauchen nicht einmal eine starke Vergrößerung, um zu sehen, wie das digitale Bild sofort weiß wird, während der Negativfilm die Details allmählicher verblasst und der Diafilm irgendwo dazwischen liegt.

Hier ist zum Beispiel ein Hintergrundbild aus meinem Flur, das mit denselben Belichtungseinstellungen und demselben Objektiv mit Digital- und Negativfilm aufgenommen wurde. Der Film wird in kürzerer Entfernung aufgenommen, um dem Sichtfeld zu entsprechen. Die Beleuchtung erfolgt durch einen Blitz außerhalb der Kamera im manuellen Modus, der auf einem Lichtstativ direkt neben der rechten Seite des Rahmens angebracht ist. Gegenlichtblende wird verwendet, um Streulicht vom Blitz zu vermeiden. Beim Aufnehmen von Diafilmen wurde die Blitzleistung verdoppelt, um die geringere Empfindlichkeit auszugleichen.

digitales JPEG

Pentax K100d Super, ISO 200, JPEG, Sigma 28 mm f/1.8 bei f/5.6, 1/125 s, Blitzleistung 1/16

digitales RAW

Pentax K100d Super, ISO 200, RAW, Sigma 28 mm f/1,8 bei f/5,6, 1/125 s, Blitzleistung 1/16, verarbeitet bei -1/2 EV

Negativfilm

Pentax MZ-6, Fujifilm Superia 200 (negativ), Sigma 28mm f/1.8 bei f/5.6, 1/125s, Blitzleistung 1/16

Diafilm

Pentax MZ-6, Fujifilm Velvia 100 (Dia), Sigma 28mm f/1.8 bei f/5.6, 1/125s, Blitzleistung 1/8

Der weiße Fleck auf dem digitalen Bild fällt auf und stört, während das Filmbild viel mehr dem entspricht, was bei ähnlicher Seitenbeleuchtung zu sehen wäre. Das Fotografieren in RAW kann ein wenig helfen, aber das Weiß wird immer noch ziemlich hart abgeschnitten.

100% Ernte:

  • digitales JPEG

digitaler JPEG-Zuschnitt

  • digitales RAW

Geben Sie hier die Bildbeschreibung ein

  • Negativfilm

negativer Filmausschnitt

  • Diafilm

Diafilm zuschneiden

+1 das ist ein gutes Beispiel für den Unterschied, danke, dass du dir die Mühe gemacht hast, das Experiment durchzuführen!
Schöne Tapete.
Danke für diesen Vergleich! Hast du in RAW oder JPEG fotografiert?
Danke. Sag Bescheid, wenn du in Boston bist, und ich hole dir das Bier. :)
Nicht, dass ich anspruchsvoll wäre oder so etwas :), aber was dies zur endgültigen Antwort machen würde, wäre, zu sehen, wie das Filmbild bei der Entwicklung um einen Schritt zurückgezogen und das Äquivalent bei der digitalen Nachbearbeitung durchgeführt wird.
@mattdm Ich habe das Setup wiederhergestellt, indem ich so lange optimiert habe, bis JPEG übereinstimmte, und Bilder hinzugefügt, die aus RAW herausgekurbelt werden konnten. Da die Pull-Verarbeitung die Überbelichtung eines ganzen Films erfordern würde, den Kontrast verringert und möglicherweise mehrere Rollen benötigt, um richtig zu werden, habe ich keine große Lust, so bald damit zu experimentieren. Ein nicht gezogener Film schlägt immer noch digital, also wäre das Ziehen in diesem Vergleich übertrieben :)
@Simon Ich habe jetzt auch Beispiele für digitales RAW hinzugefügt.
Ich denke, das wird reichen. :)
Wenn man eine gleichmäßig gefärbte Tapete aufnehmen oder durch einen Farbfilter mit relativ niedriger Sättigung fotografieren würde, würden die Farbkanäle zu unterschiedlichen Zeiten gesättigt werden? Wenn ja, wäre es möglich, in der Postproduktion einen Farbkanal zu verwenden, der nicht gesättigt ist, um darauf zu schließen, was mit denen los war, die dies taten?
@supercat höchstwahrscheinlich würden Sie im Prinzip ein monochromes HDR (aus monochromen Bildern aus verschiedenen Farbkanälen) zusammenführen und es dann tonen. Bei einem CCD-Sensor könnte ein Smear den schwächeren Kanal ruinieren. Vielleicht weiß jemand mehr, wenn Sie als separate Frage erneut fragen würden. Oder Sie könnten es einfach als Experiment versuchen.

Film hatte schon immer eine nichtlinearere Reaktion als Digital, aufgrund der unterschiedlichen Prozesse, bei denen Chemikalien angeregt werden, ihren Zustand zu ändern, und elektrische Ladung auf einem Festkörpergerät gesammelt wird. Ein weiterer Grund ist, dass Filme unterschiedlich große Körner enthalten, die unterschiedlich auf Licht reagieren, während die meisten digitalen Sensoren homogen sind.

Was Sie idealerweise wünschen, ist ein sanfter Rolloff für Glanzlichter, wobei immer mehr einfallendes Licht erforderlich ist, um die aufgezeichnete Helligkeit zu erhöhen, wenn Sie sich dem Ausblasgebiet nähern. Dies macht es wesentlich schwieriger, diesen Punkt zu erreichen, und gibt Ihnen die Möglichkeit, Details wiederherzustellen.

Film gibt Ihnen dieses Roll-off in viel größerem Ausmaß als digital, das eine ungefähr lineare Reaktion hat, die heller heller heller wird .

Das einzige, was dagegen getan werden kann (außer auf Unterbelichtung zu gehen), besteht darin, zwei unterschiedlich empfindliche Bereiche pro Pixel zu haben, was zu einer nichtlinearen Reaktion führt.

Bild (c) Fujifilm

Fuji hat dieses Konzept mit seiner SuperCCD-Reihe umgesetzt. Jedes Pixel umfasste eine kleine und eine große Fotodiode. Wenn die große Fotodiode gesättigt (also "durchgebrannt") ist, kann die kleine, weniger empfindliche weiterhin sinnvolle Daten aufzeichnen, die anstelle der Hauptfotodiode verwendet werden. Dies gibt Ihnen den allmählicheren Rolloff, den Sie mit Film erhalten haben.

Bild (c) Fujifilm

Ich weiß nicht, warum sich das nicht durchgesetzt hat, da anscheinend die DSLR-Version bei Hochzeitsfotografen sehr beliebt war, die keine weißen Kleider ausblasen wollten ...

Können Sie den linearen/nichtlinearen Teil ein wenig erweitern?
@Matt Grum, sehr interessant, davon hatte ich noch nie gehört. Als Antwort auf den linearen / nichtlinearen Teil Ihrer Antwort ist die nichtlineare Reaktion des Films Ihrer Meinung nach vorteilhafter, als das Bild und das ungefähre Histogramm nach der Aufnahme sehen zu können?
Dieser Beitrag enthält einige interessante Spekulationen darüber, warum die SuperCCD-Spiegelreflexkameras versagten (Zusammenfassung: Vollformat auf dem Hochzeitsmarkt getötet, und da dies die Hauptkäufer waren, tötete das die ganze Sache). Der Rest des Threads ist leider nur lächerlicher Forum-Flamewar.
Ich würde denken, dass mit einer Matrix aus verschiedenen Pixeln viel getan werden könnte. die Schwachlichtempfindlichkeit könnte beispielsweise durch Verwendung einer Matrix aus roten, grünen, blauen und ungetönten Pixeln verbessert werden; Die nicht getönten Pixel wären empfindlicher als die anderen und könnten leicht "durchbrennen", aber sie könnten in den dunklen Teilen des Bildes bessere Details liefern. Die RGB-Pixel könnten Details in den helleren Teilen ausfüllen.
Dies ist die richtige Antwort.

Der Grund dafür ist derselbe wie beim digitalen Audio-Clipping : Wenn der Eingangskanal sein Maximum erreicht hat, kann er einfach nicht höher gehen. Im Gegensatz zur analogen Filmfotografie, bei der die Belichtungsgrenzen nicht „hart“ sind, verwendet die digitale Fotografie Zahlen, um die Helligkeit und die Farben jedes Teils eines Bildes darzustellen, und diese Zahlen können nur bis zu einem harten Maximalwert (normalerweise 255) gehen. Alles, was über diesen Wert hinausgeht, kann daher nicht korrekt aufgezeichnet werden, was zu einem Datenverlust in Spitzlichtern führt. Dies kann im Allgemeinen nicht wiederhergestellt werden, da es keine weiteren Tonwertdaten gibt, die aus solchen Teilen eines Bildes extrahiert werden können.

Aus technischer Sicht ist das Clipping in Fotografie und Audio in zwei verschiedenen Anwendungen das gleiche Problem - ein Zahlenwert, der an seine Grenze stößt.

(Sie haben nach digitalen Sensoren gefragt, nicht speziell nach CMOS) Zum einen haben CCD-Sensoren den Blooming -Effekt, der auf Film (oder CMOS) nicht auftritt.

Aufgrund des Aufbaus von CCD-Sensoren kann Ladung von einem gesättigten Sensor zu seinem Nachbarn in einer benachbarten Zeile lecken. Auf diese Weise fließt Ladung von Zeile zu Zeile (vertikal) und das Ergebnis ist ein vertikaler Streifen aus hellen Pixeln. Je länger Ladung angesammelt wird, desto länger sind diese Streifen. Ein Beispiel ist auf der verlinkten Seite zu sehen.

Könnten Sie bitte den Effekt im Beitrag beschreiben. Ich möchte keinem Link zu einer externen Seite folgen müssen.
@Nick Bedford – bitte schön.

Wie andere gesagt haben, erfassen digitale Sensoren Belichtungswerte mit einem harten Maximalwert. Wenn Sie diesen Wert erreichen, weist ein Pixel beim Maximalwert keine Nuance auf. Es ist so hell wie es nur geht. Das ist, was "durchgebrannt" bedeutet. Es gibt keine Wiederherstellung ausgeblasener Highlights. Der gesamte ausgesparte Bereich zeigt den maximalen Helligkeitswert an. Es sind keine Daten zum Wiederherstellen vorhanden.

Eine Sache, der sich viele Fotografen jedoch nicht bewusst sind, ist, dass es möglich ist, einen einzelnen Farbkanal zu überlasten, was zu einem Informationsverlust nur in diesem Kanal führt. (Es ist auch möglich, 2 Farbkanäle auszublasen und im dritten Kanal noch einige Informationen zu haben.)

Das Ausblasen eines einzelnen Kanals tritt häufig auf, wenn ein Bild mit stark gesättigten Rot- oder Blautönen aufgenommen wird. Das liegt daran, dass der Belichtungsmesser den Grüntönen mehr Aufmerksamkeit schenkt als den anderen Farben. (Unsere Augen reagieren am empfindlichsten auf grünes Licht, und die Belichtungsmesser sind auf unsere Augen abgestimmt.) Stellen Sie sich vor, Sie fotografieren eine leuchtend rote Rose. Der Belichtungsmesser achtet bei der Belichtungsmessung mehr auf den Grünkanal und überbelichtet daher die Rottöne. Die grünen und blauen Kanäle werden nicht ausgeblasen, aber bei einer roten Rose sind alle Details in Rot, und wenn der rote Kanal ausgeblasen wird, sieht die Rose wie ein großer roter Klecks ohne Details aus.

Daher ist es eine gute Idee, Ihre Kamera so einzustellen, dass sie ein RGB-Histogramm und nicht nur ein Einzelkanal-Histogramm anzeigt, und sicherzustellen, dass keiner der Kanäle Details auf der rechten Seite (hellste Belichtung) des Histogramms beschneidet. Wenn Sie mit Ihrer Kamera kein RGB-Histogramm anzeigen können, gewöhnen Sie sich einfach an, die Belichtung um 1/2 bis 1 Stufe zurückzuschalten, wenn Sie stark gesättigte Rot- oder Blautöne aufnehmen.

Soweit ich die Definition von durchgebranntem Highlight verstehe, ist dies der Fall, wenn sich in diesem Teil des Bildes keine Daten befinden. Dieser Teil des Bildes ist also vollständig weiß, ohne Textur und ohne Details.

Es ist üblich, dass ein spiegelndes Highlight nach dieser Definition ausgeblasen wird, aber wir erwarten nicht, dass ein spiegelndes Highlight irgendwelche Daten enthält, also ist das in Ordnung. Aber das Ausblasen des weißen Kleides einer Braut ist nicht akzeptabel, da wir in diesem Fall etwas Textur und Details sehen möchten.

Ich empfehle, beim Aufnehmen von Bildern zu vermeiden, dass etwas ausgeblasen wird. Tatsächlich ist es ideal, kein reines Weiß oder reines Schwarz zu haben, da Sie so die maximale Flexibilität bei der Nachbearbeitung erhalten, bei der Sie steuern können, was ausgeblasen und was auf reines Schwarz reduziert wird .

Kann man dagegen etwas tun? Sicher, achten Sie auf die Belichtung und vermeiden Sie Über- und Unterbelichtung.

Ist Film im Vorteil? Nein, weil es viel schwieriger ist, "der Belichtung zuzusehen".

Werfen Sie einen Blick auf photo.stackexchange.com/questions/13411/… für einige Gründe, warum „Vermeiden Sie es, etwas auszublasen, tatsächlich ist es ideal, kein reines Weiß oder reines Schwarz zu haben“ nicht immer wahr ist. Manchmal lässt es sich einfach nicht vermeiden und manchmal möchten Sie reines Weiß oder reines Schwarz für ein kreatives Ende verwenden.
@rfusca Diese andere Frage ist nicht wirklich klar, ob sie sich auf durchgebrannte Hervorhebungen in der ursprünglichen Aufnahme oder durch durchgebrannte Hervorhebungen als Ergebnis der Nachbearbeitung bezieht, während es bei dieser Frage eindeutig um die Aufnahme geht
@MattGrum Richtig genug.
@rfusca - Ich stimme Ihnen und diesem Beitrag vollkommen zu, aber wie ich in meiner Antwort sagte, empfehle ich, zu erfassen, ohne etwas auszublasen, und dann Nachbearbeitungstechniken zu verwenden, um mehr künstlerische Kontrolle zu haben. Wenn es notwendig ist, das Bild so zu verwenden, wie es aufgenommen wurde, und reines Weiß erwünscht ist, dann ist das Ausblasen während der Aufnahme der richtige Weg.

Im Allgemeinen können Belichtungsinformationen von diesem Teil des Films (oder Bildbereichs, falls digital aufgenommen) nicht wiederhergestellt werden, wenn ein Spitzlicht „durchgebrannt“ ist.

Beim Aufnehmen von Film, der ein analoges Substrat ist, könnte man argumentieren, dass es praktisch unmöglich ist, versehentlich Ihre Glanzlichter zu übersehen, egal wie die Belichtung ist, es werden immer einige Filmkörner vorhanden sein, die nicht auf Licht reagiert haben. Daher könnten Sie im Prinzip Dunkelkammer-Fu durchführen, um dieses Signal wiederherzustellen.

Bei Digital ist dies nicht der Fall, da die Reaktion einer Fotoseite übersättigt sein kann. Keine Nachbearbeitung kann diese Informationen wiederherstellen.

Kennlinie ergibt sich aus der Entwicklung. Das latente Bild ist linear, sehr ähnlich wie Raw, aber die obere Schwelle für die Entstehung des latenten Bildes ist sehr hoch, viel höher als die eines Consumer-Sensors. Um diesem Filmparameter zu entsprechen, muss man die ISO der Kamera möglicherweise um 3 bis 5 Stufen niedriger bewerten. Aber schon 1 Stop führt zu einer deutlichen Verbesserung.