RAW zu TIFF oder PSD 16bit verliert an Farbtiefe

Ich hatte den Eindruck, dass 16 Bit die gleiche Tiefe behalten würden. Aber für meinen großen Schock habe ich festgestellt, dass es einen erheblichen Tiefenverlust gibt.

Testen mit einem Canon Mark II Raw und Verwenden von Lightroom und Camera Raw beim Exportieren in TIFF oder PSD 16bit. Und ja, ich weiß, wie man Camera Raw so einstellt, dass es 16 Bit statt 8 erzeugt

Beachten Sie, dass bei RAW die Sonne erhalten bleibt, wenn die Belichtung mit Photoshop reduziert wird, aber bei TIFF verloren geht. Es verblasst direkt zu einem milden Dunkelgrau ohne Sonnenformdetails.

Fügen Sie den Link zum ursprünglichen RAW und zum TIF hinzu, falls jemand dies überprüfen möchte. Und wenn Sie das Problem reproduzieren möchten, laden Sie es einfach in Photoshop (oder Lightroom) und speichern Sie es als 16-Bit-TIF. https://www.dropbox.com/sh/arsg3eem4dllc0m/AACM-Mdqy_8BNw8GjPJ6dEvma?dl=0 Geben Sie hier die Bildbeschreibung ein

Ich füge weitere Beispiele hinzu, um meinen Standpunkt zu erläutern, dass es eine offensichtliche Verschlechterung der Daten gibt. Davon, dass die Sonne überbelichtet ist, spreche ich von einem Verlust des Dynamikbereichs im Vergleich zum ursprünglichen RAW, wie im Beispiel gezeigt. Dies ist Teil einer Fotoserie mit mehreren Belichtungsreihen, und ich habe andere Belichtungen. Sie können nicht das gesamte Spektrum der Sonne mit einer einzigen Belichtung erfassen. Beispiel mit RAW: Geben Sie hier die Bildbeschreibung einBeispiel mit RAW nach Photoshop verschoben und auf Camera Raw verzichten, in 16 Bit, 0-1-2-3:

Geben Sie hier die Bildbeschreibung ein

Jetzt konvertiere ich es in 8 Bit, um den Unterschied zu sehen. Wieder 0,-1,-2,-3 Belichtung. Und die Ergebnisse sind identisch mit den 16 Bit ohne RAW. Und das sollte auf keinen Fall passieren. Auch hier haben Sie die Original-RAW-Datei in meinem Link, wenn Sie es noch einmal überprüfen möchten.Geben Sie hier die Bildbeschreibung ein

Es wäre weniger ein Problem, wenn ich in Lightroom und Camera Raw nicht die gleichen Ergebnisse erzielen würde und mir keine Alternativen blieben. Ich hoffe, alle sind sich einig, dass 8 Bit und 16 Bit nicht so ähnlich aussehen sollten, es sei denn, hier stimmt etwas nicht.

Sie können nach PSD exportieren und dann bei Bedarf PSD als OpenEXR speichern.

Antworten (4)

Die 16 Bit, die zum Aufzeichnen von Rohdaten verwendet werden, und die 16 Bit (pro Farbkanal), die zum Aufzeichnen eines demosaikierten und gammakorrigierten TIFF oder PSD verwendet werden, werden nicht verwendet, um genau dasselbe auf dieselbe genaue Weise darzustellen. Zu erwarten, dass ein 16-Bit-TIFF dasselbe wie eine 16-Bit-Rohdatei ist, ist ein bisschen so, als würde man erwarten, dass eine 16-Bit-WAV-Audiodatei dasselbe wie eine 16-Bit-WMA-Datei ist. Beide enthalten Informationen über die gleichen Geräusche, aber wie viele Informationen sie enthalten und wie sie diese Informationen darstellen, ist sehr unterschiedlich.

Im Fall der Rohdaten ist die 12/14/16-Bit-Information ein einziger linearer monochromer Luminanzwert für jede Pixelmulde. Was wir mit einer Rohdatei von einem maskierten Bayer-Sensor haben, ist ein Schwarzweißfoto (aber mit einer linearen Reaktion - mehr dazu weiter unten) mit einem Grünfilter für 1/2 der Pixel des Sensors und Blau- bzw. Rotfilter für 1/ 4 der Pixel.

Um Farbinformationen aus einer Rohdatei zu erhalten, muss sie demosaikiert werden. Nochmals zurück zu unserer Schwarzweißfilm-Analogie: Durch den Vergleich der Helligkeitsunterschiede der gleichen Bereiche in drei Schwarzweißbildern mit demselben Bildausschnitt, die jeweils für Rot, Grün und Blau gefiltert wurden, können die drei monochromen Bilder verwendet werden, um ein Farbbild zu erstellen . Auf diese Weise wurden Mitte bis Ende des 20. Jahrhunderts die meisten farbigen Astrofotografien hergestellt. So funktioniert Farbfilm. So funktionieren digitale Sensoren. So funktionieren unsere Netzhäute und unser Gehirn.

Bevor wir Rohdaten in ein TIFF konvertieren, wenden wir normalerweise auch eine Gammakorrektur an (eine Lichtkurve, die die lineare Reaktion in den Rohdaten in eine logarithmische Reaktion umwandelt, die unserer menschlichen Wahrnehmung näher kommt - wir verwenden wieder dieselben Wörter, aber es ist nicht genau dasselbe wie wenn wir eine Gammakorrektur auf das Signal anwenden, das zu einem CRT-Display geht). Wenn wir demosaiken, um Farbinformationen zu erzeugen, und dann die numerischen Werte aus einer Rohdatei in das TIFF-Bildformat übersetzen, ohne eine Gammakorrektur anzuwenden, erhalten wir etwas, das so aussieht:

Geben Sie hier die Bildbeschreibung ein

Mit angewendeter Gammakorrektur sieht dasselbe Bild so aus (die eingebettete JPEG-Vorschau mit niedriger Auflösung aus der Rohdatei, die zum Generieren des TIFF oben verwendet wurde):

Geben Sie hier die Bildbeschreibung ein

Aus diesem Grund können wir Rohdateien zerstörungsfrei bearbeiten. Wenn wir alle Schieberegler verschieben und auf verschiedene Schaltflächen klicken, teilen wir der Anzeige-/Konvertierungsanwendung lediglich mit, wie sie die Daten in der Rohdatei neu interpretieren soll.

Sobald die Daten in der Rohdatei in eine demosaikierte, gammakorrigierte TIFF-Datei umgewandelt wurden, ist der Vorgang unumkehrbar.

Bei TIFF-Dateien sind all diese Verarbeitungsschritte in die enthaltenen Informationen "eingebacken". Obwohl eine unkomprimierte 16-Bit-TIFF-Datei aufgrund der Art und Weise, wie die Daten gespeichert werden, viel größer ist als eine typische Rohdatei, aus der sie abgeleitet wurde, enthält sie nicht alle Informationen, die erforderlich sind, um die Transformation umzukehren und genau dieselben Daten zu reproduzieren in der Rohdatei enthalten. Es gibt eine nahezu unendliche Anzahl unterschiedlicher Werte in den Daten auf Pixelebene einer Rohdatei, die verwendet werden könnten, um ein bestimmtes TIFF zu erzeugen. Ebenso gibt es eine nahezu unendliche Anzahl von TIFF-Dateien, die aus den Daten in einer Rohbilddatei erzeugt werden können, abhängig von den Entscheidungen, die darüber getroffen werden, wie die Rohdaten verarbeitet werden, um das TIFF zu erzeugen.

Der Vorteil von 16-Bit-TIFFs gegenüber 8-Bit-TIFFs ist die Anzahl der Schritte zwischen den dunkelsten und hellsten Werten für jeden Farbkanal im Bild. Diese feineren Schritte ermöglichen weitere zusätzliche Manipulationen, bevor sie schließlich in ein 8-Bit-Format konvertiert werden, ohne Artefakte wie Streifenbildung in Bereichen mit tonaler Abstufung zu erzeugen.

Aber nur weil ein 16-Bit-TIFF mehr Schritte zwischen "0" und "65.535" hat als eine 12-Bit- (0-4095) oder 14-Bit-Rohdatei (0-16383), bedeutet dies nicht, dass die TIFF-Datei angezeigt wird gleicher oder größerer Helligkeitsbereich. Wenn die Daten in einer 14-Bit-Rohdatei in eine TIFF-Datei umgewandelt wurden, hätte der Schwarzpunkt mit einem Wert wie 2048 ausgewählt werden können. Jedem Pixel in der Rohdatei mit einem niedrigeren Wert als 2048 würde der Wert 0 zugewiesen werden im TIFF. Wenn der Weißpunkt beispielsweise auf 8.191 eingestellt wäre, würde jeder Wert in der Rohdatei, der höher als 8191 ist, auf 65.535 eingestellt, und die hellste Lichtblende in der Rohdatei wäre unwiderruflich verloren.

Es scheint, dass beim Konvertieren Ihrer Rohdatei der Sonne in ein TIFF Ihr Weißpunkt erheblich niedriger eingestellt war als der Maximalwert der Rohdatei. Alles, was in der Rohdatei heller ist als der ausgewählte Weißpunkt, hat im TIFF denselben Wert, sodass kein Detail erhalten bleibt. Das Reduzieren der Helligkeit der TIFF-Datei führt nur dazu, dass die höchsten Werte als dunklere Graustufen statt als Weiß angezeigt werden, aber alle haben immer noch die gleiche Graustufe. Die Unterschiede zwischen Pixeln mit höheren Werten als dem zum Erstellen des TIFF verwendeten Weißpunkt wurden beim Erstellen des TIFF verworfen.

Weitere Informationen darüber, wie und warum Farbinformationen verloren gehen, wenn mehr als ein Farbkanal den vollen Wert erreicht, finden Sie unter: Warum wird der grüne Kanal blau, wenn er abgeschnitten wird?

Ich habe die Rohdatei nicht bearbeitet, sondern einfach geladen und als Tiff 16bit exportiert. Michael Clark, wir gehen davon aus, dass Sie Recht haben. Wie wir das Rätsel lösen, eine Bearbeitung aus Lightroom zu speichern, ohne Daten zu verlieren. Zum Beispiel bearbeite ich es in Lightroom, um Rauschen und chromatische Aberration zu entfernen, bevor ich sie an ein HDRI-Programm (wie EasyHDR) sende. Aber es wird offensichtlich, dass selbst ich diese Bearbeitungen erhalte, ich an Farbtiefe verliere. Wenn ich im Vergleich dazu das RAW direkt an EasyHDR sende, bekomme ich eine bessere Farbtiefe (ich kann nach EXR exportieren und dabei viel Sonne behalten), aber ich verliere die Bearbeitungen. Das Problem wäre gelöst, wenn lightroo
Zustimmen. Michael, deine Antwort scheint eine detailliertere Version von "ths" zu sein, im Grunde wird Tiff 16 die Belichtung von RAW lähmen, egal was passiert. Die einzige Möglichkeit, es beizubehalten, besteht darin, es zu tonen und den Dynamikbereich zu verlieren, das möchte ich für die 32-Bit-Erstellung beibehalten. Das Problem ist, dass ich es brauche, um 32-Bit-Panoramen in Klammern zu erstellen, und ich möchte keine Fotos tönen. Das direkte Senden von RAW an Pano-Programme löst das Problem, aber ich verliere die Bearbeitungen von Lightroom. Die Rauschunterdrückung und Entfernung von Farbfehlern in Lightroom sind ausgezeichnet
„Ich habe die Rohdatei nicht bearbeitet, sondern sie einfach geladen und als Tiff 16bit exportiert. “ Wenn Sie eine Rohdatei in LR öffnen, selbst wenn Sie nichts bearbeiten, wendet Lightroom sicherlich eine sehr bedeutende Verarbeitung auf die Rohdaten in der Datei an Datei. Das TIFF, das Sie aus LR speichern, hat diese Verarbeitung auf die Rohdaten angewendet.
Sie scheinen immer noch zu glauben, dass das, was Sie auf Ihrem Bildschirm sehen, wenn Sie eine Rohdatei öffnen, "die Rohdaten" sind. Es ist nicht. Es ist eine mögliche Interpretation der Rohdaten unter einer nahezu unendlichen Anzahl möglicher Interpretationen.
Michael, ich stimme allem zu, was du sagst. Aber das ändert nichts an meinem Standpunkt, dass Sie bestätigen, dass RAW zu TIFF 16 Bit an Farbtiefe verliert. Das Traurige daran ist, dass es keine Alternativen gibt. Wir könnten Raw direkt in 32 Fließkommabits konvertieren, was diese Art von Problemen vermeiden würde, aber es gibt kein einzelnes Programm, das dies erlaubt. Und dies erzeugt diesen Engpass, bei dem ich bearbeitete RAWS nicht an HDRI-Panoramaprogramme senden kann, ohne ein paar Belichtungsschritte zu verlieren. Im Allgemeinen sind die fortschrittlichsten 32-Bit-Bearbeitungswerkzeuge ironischerweise in Kompositionsprogrammen, die die Fotografie hinter sich lassen.
Die Antwort beschreibt korrekt, was passiert ist, aber im Allgemeinen ist es möglich, das demosaikierte, aber ansonsten unverarbeitete Rohmaterial als 16 lineares RGB-Tiff (google: dcraw linear tiff) zu speichern, wobei der ursprüngliche Dynamikbereich, der Farbraum und im Wesentlichen alles außer dem Bayer erhalten bleiben Muster. Schade, dass es in gängigen Anwendungen nicht gut unterstützt zu werden scheint. Anscheinend besteht die beste Option darin, ein solches 16-Bit-TIFF in DNG zu konvertieren, was den Zweck der TIFF-Datei irgendwie zunichte macht ... (auf der anderen Seite ist DNG ein Untertyp von TIFF, ebenso wie die CR2-Datei des Canon! )
@szulat Ja, die meisten Rohdateien sind TIFF-Typen, und man kann eine Rohdatei in standardisiertere Versionen von TIFFs konvertieren. Aber man kann es nicht so machen, wie es das OP erwartet: ein sichtbares Bild auf dem Bildschirm haben und ein TIFF erstellen, das die Daten in diesem sichtbaren Bild enthält.

Dieses Problem wurde vor langer Zeit bei visuellen Effekten mit herkömmlichen CG-Renderings gelöst. Die Bilder werden intern in einem Float-Linearraum berechnet (ACES ist der Standard). Die Werte des Bildes werden nicht geklammert. Schatten hätten einen Wert von etwa 0,1 und darunter, diffuses Weiß würde etwa 0,9 betragen, helle Lichter und die Sonne könnte irgendwo zwischen 1 und unendlich stehen. Die Daten werden im linearen Raum in einer EXR-Datei gespeichert, die die Daten im Float-Format hält. Zu diesem Zeitpunkt enthält Ihre exr-Datei noch alle ursprünglichen Beleuchtungsinformationen aus dem RAW-Bild. Sie können dann einen Lut anwenden, um ihn in einen gammakorrigierten Raum umzuwandeln, der für die Anzeige geeignet ist. Um alle Daten zu erhalten, die für große Farbkorrekturen ohne Clipping erforderlich sind, müssen Sie mit diesen ursprünglichen Float-Daten arbeiten, nicht mit der Gamma-korrigierten Version. Überraschenderweise, Eine Sache, die ich noch nicht gefunden habe, ist eine Software, mit der ich eine RAW-Datei direkt in einem Float-EXR speichern kann, das alle linearen Daten des Originals enthält. Die VFX-Industrie hat zwar ein Programm namens Nuke, das das tut, aber es ist eine Multitausend-Dollar-Compositing-Software, die über den Bereich der Fotografie hinausgeht. Die Tatsache, dass Sie ein Bild in Lightroom nach oben und unten anhalten können, ohne Glanzlichter zu verlieren, zeigt an, dass es möglich wäre, schwebende Bilder zu speichern, aber die Option ist nicht verfügbar.

Das RAW enthält mehr Informationen, als auf dem Bildschirm angezeigt werden können. Daher können Sie in Ihrer aktuellen Darstellung der Rohdaten einen vollständig weißen Fleck haben, aber durch Verringern der Helligkeit werden einige dieser verborgenen Daten sichtbar.

Wenn Sie in TIFF exportieren, exportiert PS das Bild so, wie es ist , dh vollständiges Weiß ist 65536 und vollständiges Schwarz ist 0. In diesem Bild gibt es also nichts mehr zu wiederherstellen. Um alle Informationen zu erhalten, müssen Sie das Bild zB durch Verringern des Kontrasts so anpassen, dass alle Bilddaten zwischen den beiden Extremen liegen.

Mit einem TIFF wie diesem können Sie wieder jede Darstellung erstellen, die Sie aus dem ursprünglichen RAW erhalten könnten, indem Sie den Kontrast erneut erhöhen und Helligkeit / Belichtung / Glanzlichter / was auch immer manipulieren.

Der Vorteil des 16-Bit- gegenüber dem 8-Bit-Format besteht darin, dass Sie viel mehr Abstufungen zwischen den Extremen haben. Wenn Sie dasselbe mit einem 8-Bit-Format versuchen würden, würde der Schritt "Komprimierung-Dekomprimierung" (durch Reduzieren und erneutes Erhöhen des Kontrasts) eine schreckliche Posterisierung einführen, da Sie viele Zwischenfarben verlieren würden.

Wie ich sehe hast du recht. RAW enthält Informationen, die über das hinausgehen, was angezeigt wird, als 32-Bit-Gleitkommazahl, aber viel weniger. Das heißt, wenn ein Pixel in der Nähe der Sonne weiß erscheint, 255-255-255, kann es ein normales RGB mit 3 Zahlen mit unterschiedlichen Werten aussehen, wenn die Belichtung reduziert wird. Bei TIFF fügt 16 Bit einfach mehr zwischen den Pixeln hinzu, aber alles, was nicht sichtbar ist, geht verloren. Das ist ziemlich traurig, da es keine Möglichkeit gibt, Bearbeitungen von Lightroom an andere Programme zu senden, ohne Daten zu verlieren. Ich habe mehr Qualität, wenn ich ihnen direkt das RAW schicke, aber dann verliere ich die Bearbeitungen.
ich habe beschrieben, wie man keine daten verliert: man muss darauf achten, dass das bild alle schattierungen von den dunkelsten bis zu den hellsten anzeigt. Sie können im Histogramm sehen, ob etwas abgeschnitten ist. Wenn Sie ein bereits bearbeitetes Bild in LR haben, das Sie weiterverarbeiten möchten, sind die fehlenden Daten kein Problem, da es sowieso schon so aussieht, wie Sie es möchten.
Ich verwende eine Folge von 3 Fotos in einer Belichtungsreihe, um ein HDRi 32-Bit-EXR-Panorama zu erstellen. Was ich vermeiden möchte, ist, das Programm zu verwirren, das die HDRi-Tonung (Komprimierung) der Belichtungsreihen erstellen muss. Es ist etwas, das ich auf jeden Fall testen werde. Eine andere Alternative besteht darin, ein künstliches zusätzliches Belichtungsreihenbild zu erstellen, das die Belichtung auf -2 (und +2 für die höher belichtete) ändert, und dann eine Sequenz von 5 Belichtungsreihen zu erstellen, von denen 2 künstlich erzeugt werden. Dies könnte die verlorenen Belichtungsinformationen vermeiden.

Aber für meinen großen Schock habe ich festgestellt, dass es einen erheblichen Tiefenverlust gibt.

Stellen Sie sicher, dass Ihr Monitor korrekt kalibriert ist. Kannst du jedes Quadrat unterscheiden?

Graues Diagramm

Da das Beispiel Ihrer Frage einen anderen Zuschnitt zeigt als die Dateien, die Sie in Boxen abgelegt haben, musste ich die ursprüngliche .tiff-Datei zum gleichen Vergleich einfügen, damit es nicht so aussah, als hätte ich ein anderes Foto verwendet.

Original .tiff in .png konvertiert und um 27% verkleinert, das als .jpg gespeichert

Ich habe die .tiff-Datei heruntergeladen, in .png konvertiert und mit Pixlr Android das Foto angepasst. Das erste (ganz linke) Bild wurde übermäßig angepasst, bei den restlichen wurde der EV nur verringert.

  • 1. - Verwendet "Schatten", "fünfmal um 100 erhöhen", "Helligkeit", "um 10 erhöhen", "Kontrast", "um 10 erhöhen", "Sättigung", "um 10 erhöhen" und ein paar mehr ... Beachten Sie den helleren Vordergrund Gras , die etwas hellere Sonne und die mehr Details in den Wolken . Sieht aus wie 16 Bit.

  • Die 2., 3., 4. und 5. sind „Belichtung“, „50 verringern“, „100 verringern“, „150 verringern“ und „200 verringern“.

Das .tiff ist: RGB 16 Bit, jedes Bild wurde nach den Anpassungen auf 25 % skaliert, dann in eine Collage umgewandelt und dann auf 20 % herunterskaliert. Nach all dem Durcheinander, bei dem Sie eine Qualitätsminderung erwarten würden, scheint mir das Ergebnis nicht so schlecht zu sein; Hast du es so eingestellt, dass es beim Import reduziert wird?

Collage aus Fotos von Vic Sha

Ich sehe keine Streifenbildung oder irgendetwas, das auf einen Verlust der Bittiefe hindeutet.

Aber am Ende verliere ich fast oder mehr 2 exp, wenn die Sonne in -3 in RAW weiß aussieht, sieht sie in TIFF grau aus. Dies betrifft beispielsweise die Verwendung von Bildern für die 3D-Beleuchtung und die Belichtungsinformationen werden für die Lichtintensität verwendet. Sie können auch den längeren Beitrag mit zusätzlichen Bildern überprüfen, die ich beim Kopieren Ihres Layouts erstellt habe.
@VicSha - Meine Antwort unterscheidet sich nicht so sehr von MCs oder Ths, das RAW wird konvertiert, um auf Ihrem Monitor angezeigt zu werden, damit Sie eine Darstellung davon sehen können. Es ist wie Tone Mapping von HDR, um es auf einem Gerät mit weniger Bits anzuzeigen. Wenn Sie sich das RAW ansehen und die Schieberegler anpassen, wird die Ausgabe so zugeordnet , dass sie nicht gequetscht wird. die .tiff-Datei wird nicht auf die gleiche Weise abgebildet. Ich konnte Ihre .tiff-Datei nehmen (kann auf meinem Telefon nicht mit RAW arbeiten), viele Anpassungen vornehmen und am Ende immer noch ein glattes Bild ohne Streifenbildung erhalten. sogar von einem eingebrannten Foto. Beachten Sie, wie ich das Foto abgedunkelt habe, aber die Sonne bleibt sichtbar.
Ich stimme Ihren Kommentaren zu RAW zu. Aber in Bezug auf Ihren TIFF-Kommentar muss ich stattdessen anderen Beiträgen zustimmen. Sie scheinen zu implizieren, dass die Daten im Tiff nicht verschlechtert wurden, aber das Einzige, was Sie tun, ist, die winzigen Werte der 16 Bits zu dehnen, was mehr Details liefern kann, die anscheinend sichtbar sind. Aber wenn ein Pixel in Tiff 000 ist, gibt es keine Rückkehr dazu. Wenn Sie die Belichtung verwenden, erhalten Sie einfach Grau, und das passiert in Ihrer Bearbeitung, wenn RAW-Sonne eine Weile länger weiß bleibt als Tiff, wenn Sie die Belichtung verringern. Es gibt versteckte Daten in RAW, die in Tiff nicht verfügbar sind.
Danke. Es ist. Das TIFF ist nicht degradiert und ich kann keine Details machen , die überhaupt nicht existierten, es sei denn, ich zeichne sie ein. Wir haben gebacken vs. nicht erklärt. Wählen Sie die Antwort, die Ihnen gefällt. Ein paar dieser Antworten sind verschiedene Möglichkeiten, genau das gleiche Mapping / Backen zu erklären zu erklären - Sie verlieren nicht "Bits oder Tiefe", Sie verlieren die Neuzuordnung Ihrer weitreichenden Anpassungen zu einem Dateiformat, das nicht neu zugeordnet wird -die Fliege. Es ist, als würde man von HDR zu LDR konvertieren, ohne Bits zu verlieren, und dann sagen, dass man die Tonzuordnung nicht erneut durchführen kann; Sie könnten, aber Sie haben einen größeren Bereich der Einstellbarkeit verloren.
Nun, ich nehme an, wir sind uns einig, betrachten das Problem aber aus unterschiedlichen Blickwinkeln. Tone Mapping, um diese zusätzlichen Daten in RAW unsichtbar zu halten, ist für mich keine Option, da ich mit Belichtungsreihen einen unsichtbaren Bereich von 32 Bit erstellen muss. Die Sonne muss 7 oder 9 Stufen tief sein. Wenn die Sonne in einem getönten Bild sichtbar ist, nützt es mir nichts, da es dann an Tiefe verliert. Es funktioniert nicht mit 3D-Programmen.