Wie erzeugt die Kamera bei Aufnahmen in mRAW oder sRAW kleinere Dateien?

Die meisten Mid- und High-End-DSLRs bieten zwei oder drei Größen für die RAW-Aufnahme. Wie verkleinert die Kamera die mittelgroßen oder kleinen RAW-Dateien? Erfasst es weniger Informationen auf dem Sensor? Erfasst es die gesamte Menge an Informationen und wendet dann eine Art kamerainterne Komprimierung an? Tut es etwas anderes, was ich nicht beschreibe?

Sprechen Sie von kleinen Unterschieden in den Rohdateigrößen oder von unterschiedlichen Rohbildabmessungen?

Antworten (4)

Douglas Kerr gibt unter The Canon sRaw and mRaw Output Formats eine meisterhafte und weitgehend nicht mathematische Zusammenfassung . Die Situation ist kompliziert und nicht vollständig verstanden, aber vieles wurde durch Reverse Engineering abgeleitet. Offensichtlich ist sRaw eine 2 x 2-Aggregation, aber mit etwas Chrominanz-Unterabtastung; mRaw ist wahrscheinlich ein echtes Resampling (mit lokaler Interpolation) mit stärkerem Chrominanz-Subsampling. Man könnte in der Tat jede als eine Form von "kamerainterner Komprimierung" charakterisieren, die auf ausgeklügelte Weise durchgeführt wird, um das Erscheinungsbild von Details für das menschliche Auge für eine bestimmte Ausgabedateigröße zu optimieren.

Kurz gesagt: Kleinere "rohe" Dateien fassen die Sensorwerte in Pixelblöcken zusammen .

Beispielsweise vermittelt das RAW-Format von Canon Informationen über einzelne „Sinne“. Jeder Sensor (oder „Photosite“) reagiert auf einen begrenzten Bereich von Frequenzen (rot, grün und blau genannt). Jedes davon wird, wenn es später "entwickelt" wird, im endgültigen Bild an einer einzelnen Pixelstelle angeordnet sein.

Das sRAW-Format von Canon vermittelt jedoch zusammenfassende Informationen über 2 x 2 Sensorblöcke. Es meldet Helligkeitsdaten (Luminanz) für jeden Block, "dezimiert" (überspringt jedoch regelmäßig) einige der Farbinformationen. Daher passieren mehrere wichtige Dinge:

  • Die individuellen Sensordaten sind nicht mehr verfügbar. (Die sRAW-Daten werden tatsächlich "verarbeitet".)

  • Die Auflösung des Bildes wird reduziert (sie wird halbiert, was bedeutet, dass es ein Viertel so viele Pixel gibt).

  • Die Dateigröße der Daten wird etwa um zwei Drittel reduziert.

  • Die sRAW-Daten sind keine „Teilmenge“ der RAW-Daten. Sie sind eine andere Codierung der Rohdaten mit weniger Informationen . Kein Sinn wird „ignoriert“.

(Normalerweise verringert die Reduzierung der Auflösung eines Bildes um den Faktor zwei seine Größe auf der Festplatte auf ein Viertel des Originals. Hier liefern die ursprünglichen Sensoren jedoch etwa 14 Bit an Informationen, was 56 Bit in jedem 2 x 2-Block entspricht im RAW-Format. Bei sRAW wird jeder 2 x 2-Block als drei 8-Bit-Stücke oder 24 Bit codiert. Der resultierende Datenstrom ist daher nur 24/56 = etwa 1/2 der Größe des Originals und wird reduziert um ein weiteres 1/3 durch die Dezimierung der Chrominanzdaten, für eine Nettoreduktion von 2/3. In sRAW wird verlustfreie Komprimierung angewendet, daher kann das Verhältnis leicht abweichen.)

Diese Informationen wurden durch umfangreiches Reverse Engineering gewonnen, das letztes Jahr von Douglas Kerr berichtet wurde, dessen Bericht ich hier sehr kurz zusammengefasst habe (ohne zu viel Verzerrung, hoffe ich).

Einfach ausgedrückt, die Kamera passt die Größe des Fotos an, sodass eine sRaw-Datei weniger Pixel enthält und die Dateigröße somit kleiner wird. Beispielsweise hat die Canon 50D sRaw1 7,1 Megapixel im Vergleich zu den vollen 15,1 Megapixeln des Sensors.

Ich glaube, dies geschieht, nachdem Farben aus dem Bayer-Array interpoliert wurden, sodass die vollständigen Sensordaten verwendet werden. Außerdem enthält eine sRaw-Datei vollständige Farbinformationen für jedes Pixel. Verlustfreie Komprimierung wird ebenfalls angewendet, um die Größe weiter zu reduzieren.

Einige Hersteller bieten eine verlustbehaftete Raw-Komprimierung unter Verwendung der vollen Bildauflösung an, jedoch sind diese Dateien in den meisten Fällen nicht so klein wie die Raw-Dateien mit reduzierter Auflösung. Die verlustfreie Komprimierung wird auch für Rohdateien mit voller Auflösung verwendet, was keine Auswirkung auf die Bildqualität hat, jedoch mehr Zeit zum Lesen/Schreiben der Dateien benötigt (aufgrund der Notwendigkeit, sie zu komprimieren/dekomprimieren), und daher manchmal nicht verwendet wird.

Bei verlustfreier Komprimierung bin ich mir nicht sicher. Das wäre wahrscheinlich sehr marken- und modellspezifisch und wahrscheinlich keine Funktion, die jedes Kameramodell verwendet. Die meisten RAW-Dateien sind wirklich rohe, unverfälschte Daten vom Sensor, ohne jegliche Komprimierung.
@jrista: FYI - Die verlustfreie RAW-Komprimierung wird allmählich in modernen Kameras verwendet. Beispielsweise unterstützt die Nikon D7000 verlustfreie 14-Bit-Komprimierung in NEF-Dateien ( nikonusa.com/Find-Your-Nikon/Product/Digital-SLR/25468/… )
Ich denke, die großen Hersteller verwenden seit einiger Zeit eine Form der verlustfreien Rohkomprimierung. Wenn ich mir meine Canon-Rohdateien von meiner alten 30D anschaue, haben sie alle ziemlich unterschiedliche Dateigrößen. Wenn es sich um unverfälschte Rohdaten handeln würde, wären sie alle so gleiche Größe!
@jrista Die kleinste Dateigröße meiner 30D betrug 5,6 MB und die größte 9,6 MB, was zu groß für das JPEG-Miniaturbild ist. Da die kleinen RAWs große Bereiche mit reinem Weiß haben, bin ich mir ziemlich sicher, dass Canon die Lauflängencodierung verwendet, um eine verlustfreie RAW-Komprimierung bereitzustellen.
Matt hat recht; In Bezug auf Canon zum Beispiel ist es kein Geheimnis, dass Canon Raws verlustfreie Komprimierung verwendet. Googeln nach „Canon raw lossless“ führt zum Beispiel direkt hierher: cpn.canon-europe.com/content/education/infobank/…

Wenn Sie sich auf kleine Abweichungen in der Rohdateigröße beim Aufnehmen von Rohdateien in voller Auflösung beziehen, ist die Erklärung verlustfreie Komprimierung. Siehe: http://cpn.canon-europe.com/content/education/infobank/image_compression/lossless_and_lossy_compression.do

Es stimmt, dass Raw-Dateien alle vom Sensor erfassten Daten enthalten, aber es kann immer noch Redundanzen in den Daten geben, die es der Kamera ermöglichen, Platz zu sparen, ohne dass die ursprünglichen Informationen verloren gehen!