Wie genau wird die tiefere Bittiefe von RAW auf JPEG und das Display abgebildet?

Ich versuche, RAW besser zu verstehen.

Ich habe eine Canon EOS 20D und fotografiere im RAW+JPEG-Modus. Laut den Angaben im Handbuch sind die RAWs der 20D 12 Bit. Ich verstehe, dass dies bedeutet, dass jedes Pixel 36 Bit an Informationen enthält. Ein JPEG hat nur 3*8=24 Bit an Informationen.

Im RAW+Jpeg-Modus erzeugt die 20D tatsächlich zwei Jpegs: eines in voller Auflösung (3504 x 2336) und eines in herunterskalierter Auflösung (1536 x 1024), das zu Vorschauzwecken in die RAW-Datei eingebettet wird.

Entschuldigung, ich muss eine ganze Batterie von Fragen posten, weiß nicht, wie ich meine Frage zusammenfassen soll, also hier geht es:

Wie genau werden die 36 Bit des RAW auf die 24 Bit des JPEG mit voller Auflösung abgebildet? Nimmt es nur die 24 Bit in der Mitte der 36 Bit oder am Anfang, am Ende oder was? Oder gibt es ein ausgefeilteres Mapping?

Ist die Zuordnung für das separate JPEG mit voller Auflösung und das eingebettete Vorschau-JPEG identisch?

Wenn ich ein RAW in Raw Therapee öffne, muss es wieder auf 24 Bit heruntergerechnet werden, um auf dem Bildschirm angezeigt zu werden. Ist das wieder die gleiche Zuordnung oder eine andere?

Außerdem sehen die RAW-Bilder immer sehr flach und trist aus, mit sehr schwachen Farben. (Nur mit Raw Therapee kann ich einen Pop und eine Lebendigkeit hervorbringen, die ich vom Film liebe). Dass die RAWs und abgeleiteten Jpegs ohne Nachbearbeitung immer so trist aussehen, hängt das mit dem Bitreduktions-Mapping zusammen oder hat das andere Gründe?

Möglicherweise finden Sie diese Antwort auf Was ist RAW technisch gesehen?
mattdm, ich habe nicht das Gefühl, dass dies überhaupt mit meiner Frage zusammenhängt. Der von Ihnen bereitgestellte Link führt zu einer Diskussion darüber, was RAW ist. Ich glaube, ich verstehe, was RAW ist, meine Frage(n) betrifft eher die Zuordnung zwischen RAW und JPEG.
Diese beiden Konzepte sind eng miteinander verbunden. Ich habe unten eine Antwort gegeben, aber es ist wirklich nur eine Umformulierung eines Teils der Antworten dort.

Antworten (2)

Erstens machen Sie einen häufigen Fehler, wenn Sie denken, dass es sich um 36 Bit handelt. Ich habe den gleichen Fehler für eine Weile gemacht. In Wirklichkeit sind RAW-Daten monochrom und daher in Ihrem Fall nur 12 Bit, da jedes Pixel keine Farbinformationen enthält, ohne auf benachbarte Pixel zu schauen.

Darüber hinaus hängt es von der verwendeten Software ab. Die Farbe wird, wie erwähnt, von der Farbe des Filters auf diesem Pixel und dem Wert benachbarter Pixel anderer Farben abgeleitet, aber das verwendete Muster kann variieren.

In ähnlicher Weise variiert die Reduzierung der Bittiefe noch stärker. Es könnte eine lineare Karte sein, die das Dunkelste zum Dunkelsten und das Hellste zum Hellsten bringt. Es könnte einfach in die Mitte greifen. Es könnte versuchen, Verarbeitungsbeurteilungen darüber zu treffen, was ein dunkler schwarzer Punkt und was ein heller weißer Punkt sein sollte, und sich entsprechend anpassen. Es hängt wirklich davon ab, wie sich die Software dafür entscheidet und wie Sie das Mapping während der Entwicklung anpassen.

Und das ist wirklich der Sinn von RAW. Es ist so konzipiert, dass Sie als Fotograf auswählen können, wie Sie dieses Mapping durchführen möchten. Wenn Sie nur möchten, dass ein automatischer Prozess eine 8-Bit-Datei für Sie erstellt, nehmen Sie einfach JPEG auf. Die Verwendung von RAW ist Platzverschwendung. Der Punkt von RAW ist, dass Sie den Prozess der Konvertierung in einen 8-Bit-Raum von Hand steuern können und somit sicherstellen, dass Sie die gewünschten Informationen daraus erhalten.

Warum es zunächst eintönig erscheint, ist wahrscheinlich nur eine stilistische Sache dafür, wie die Logik funktioniert. Mit Lightroom versucht es, Entscheidungen zu treffen, damit es standardmäßig viel mehr wie ein JPEG aussieht, aber in beiden Fällen sind noch Anpassungen erforderlich. Diese anfängliche Anpassung wird von Software zu Software und Kamera zu Kamera und möglicherweise sogar von Foto zu Foto variieren.

@mattdm - mit unintelligent meinte ich einfach, dass keine komplexe Logik angewendet wird, um eine Vermutung über das gewünschte Ergebnis anzustellen. Ich habe algorithmisch gesprochen. Die Logik ist festgelegt, anstatt zu versuchen, sie herauszufinden.
@mattdm - fair genug, meine Antwort entsprechend geändert. Ich habe Rawtherapee nicht persönlich verwendet, dachte aber, dass die Eintönigkeit nur eine einfache Auswahl einer Grundfarbe ohne jegliche Logik war.

Die RAW-Sensordaten sind linear. JPEG-Bilder verwenden eine Gammakurve , was bedeutet, dass zunehmende Datenwerte einen exponentiellen Anstieg darstellen, was eine effizientere Art der Speicherung ist, da das menschliche Sehsystem auch nicht linear ist. (Ohne dies wird übermäßige Präzision für unterschiedliche Schattierungen heller Farben verschwendet, sodass nicht genug für das dunklere Ende des Bereichs übrig bleibt.) Film funktioniert übrigens auf diese Weise intrinsisch.

Das gehört also dazu.

Ob die Enden der Kurve in den verfügbaren Bereich komprimiert oder abgeschnitten werden, hängt von Ihren Verarbeitungsoptionen ab – normalerweise von beiden. Dies ist eigentlich praktisch, da Sie nicht immer (oder sogar normalerweise) den gesamten Bereich benötigen, um ein Foto zu machen, sodass Sie Spielraum haben, um die scheinbare Belichtung auch nachträglich anzupassen.

Das JPEG beinhaltet auch andere Verarbeitungen, wie z. B. Demosaikierung, die hier relevant ist, da in den meisten Digitalkameras, einschließlich Ihrer, jede Fotoseite tatsächlich einfarbig ist; Das allein sind nur die 12 Bit an Informationen, nicht 36. Ihr RAW-Konverter (oder der in der Kamera) verwendet umgebende Pixel und (relativ intelligente) Algorithmen, um die anderen Kanäle zu extrapolieren . Dies kann eine gewisse Menge an Informationen aus einer beliebigen Anzahl umgebender Pixel verwenden (siehe zum Beispiel diesen Ansatz mit kubischer Faltung ), daher ist es etwas schwierig, die Anzahl der Bits zu sagen, die den JPEG-Pixelwert im Allgemeinen informieren.

Da die für Bayer-Filter verwendeten Farben nicht den Farben entsprechen, die für RGB-Reproduktionssysteme (bzw. CMYK) verwendet werden, werden alle drei Farben während des Demosaicing-Prozesses interpoliert. Was wir „rote“, „grüne“ und „blaue“ Filter nennen, sind trotz all der niedlichen kleinen Zeichnungen im Internet nicht wirklich rot, grün und blau. Unsere "roten" (lang), "grünen" (mittel) und "blauen" (kurzen) Netzhautkegel sind auch nicht besonders empfindlich für Rot, Gier und Blau. Wir haben damit begonnen, sie so lange zu nennen, bevor wir es waren in der Lage, die Empfindlichkeit jedes einzelnen genau zu messen.