Ahmt das Aufnehmen mit einer niedrigeren RAW-Auflösung mit einer Crop-Sensor-Kamera die Eigenschaften von Vollbildkameras nach?

Ich spreche nicht von Änderungen an der Brennweite.

Ich habe viele Beiträge gelesen, die besagen, dass bei Vollbildkameras die Pixeldichte im Vergleich zu Crop-Sensor-Kameras geringer ist und sie daher mehr Licht einfängt und somit eine bessere ISO-Leistung und einen größeren Dynamikbereich aufweist. Wenn ich also die Crop-Sensor-Kamera ändere, um mit einer niedrigeren Auflösung zu fotografieren, entspricht dies einer besseren Pixeldichte und ahmt die Leistung eines Vollbilds (oder Mittelformats) nach, oder wird immer mit maximaler Auflösung aufgenommen und die Größe reduziert?

--EDIT: 1--
Ich habe eine Canon 60D und ich habe 3 Optionen für RAW-Bildgrößen (RAW, M-RAW und S-RAW). Wenn RAW nur ​​ein Dump von den Kamerasensoren ist, wie können sie dann 3 verschiedene Größen haben? Verkleinert die Kamera auch RAW-Bilder?

Vivek - lesen Sie diese Frage: photo.stackexchange.com/q/3419/1024 . Laut @whuber (und dem Artikel, auf den er verweist) sind die kleineren RAWs tatsächlich eine Art Aggregation der einzelnen Sinne, wie Stan in seiner Antwort beschreibt, nur dass dies eher in Soft als in Hardware erfolgt.
(Die Seite, auf die ysap verweist, deckt den mraw/sraw-Teil der Frage ab.)
Ich werde das Dokument von ysap lesen und kommentieren.

Antworten (3)

Da Sie eine Canon haben, NUTZEN die niedrigeren RAW-Modi, mRAW und sRAW, TATSÄCHLICH ALLE verfügbaren Sensorpixel, um ein reichhaltigeres Ergebnis zu erzielen, ohne dass eine Bayer-Interpolation erforderlich ist. Das eigentliche Ausgabeformat ist zwar immer noch in einer .cr2-Canon-RAW-Bilddatei enthalten, aber in einem Y'CbCr-Format codiert, ähnlich wie bei vielen Video-Pulldown-Formaten. Es speichert Luminanzinformationen für jedes VOLLE Pixel (2x2 Quad aus 1 roten, 1 blauen und 2 grünen Pixeln), und jeder Chrominanzkanal wird aus halben Pixeldaten abgeleitet (1x2 Paar aus 1 rot + 1 grün oder 1 blau + 1 grün). .

Ich bin mir nicht ganz sicher, was die spezifischen Low-Level-Hardware-Lese- und Kodierungsunterschiede zwischen mRAW und sRAW sind, aber im Allgemeinen gilt: Je kleiner das Ausgabeformat, desto mehr Sensorpixel-Eingabeinformationen können Sie für jedes Ausgabepixel verwenden. Die geringe Menge an Interpolation, die in m/sRAW vorhanden ist, ist strittig, da beide Formate weit weniger interpolieren als natives RAW. Es sollte auch beachtet werden, dass weder mRAW noch sRAW echte "RAW"-Formate im normalen Sinne sind ... Sensordaten werden verarbeitet und in etwas anderes konvertiert, bevor sie in einer .cr2-Datei gespeichert werden.

Weitere Einzelheiten zu YUV-abgeleiteten Formaten und Canon sRAW finden Sie in meiner Antwort hier: Warum wird der xvYCC-Farbraum nicht für Standbilder verwendet?

Aus "Verstehen, was in einer Canon RAW .CR2-Datei gespeichert ist":

Das sRaw-Format (für „kleines RAW“) wurde 2007 mit der 1D Mark III eingeführt. Es ist eine kleinere Version des RAW-Bildes.

Für die 1D Mark III, dann die 1Ds Mark III und die 40D (alle mit Digic III) beträgt die sRaw-Größe genau 1/4 (ein Viertel) der RAW-Größe. Wir können also annehmen, dass jede Gruppe von 4 „Sensorpixeln“ zu 1 „Pixel“ für das sRaw zusammengefasst wird.

Bei der 50D und der 5D Mark II (mit dem Digic IV-Chip) ist das RAW in 1/4-Größe immer noch vorhanden (sRaw2), und es erscheint auch ein RAW in halber Größe: sRaw1. Bei der 7D heißt Half Size Raw mraw (gleiche Kodierung wie sraw1), 1/4th Raw heißt sraw (wie sraw2).

Das verlustfreie sRaw-JPEG ist immer mit 3-Farben-Komponenten (nb_comp) und 15 Bit codiert.

Der JPEG-Code von Dcraw wurde zuerst modifiziert (8.79), um sRaw zu handhaben, wegen des h=2-Werts der ersten Komponente (grauer Hintergrund in der Tabelle). Normales RAW hat immer h=1. Ab dem 50D haben wir v=2 statt v=1 (orange in der Tabelle). Dcraw 8.89 ist die erste Version, die dies und das sraw1 von 50d und 5D Mark II beherrscht.

„h“ ist der horizontale Abtastfaktor und „v“ der vertikale Abtastfaktor. Sie gibt an, wie viele horizontale/vertikale Dateneinheiten in jeder MCU codiert werden (minimal codierte Einheit). Siehe T-81, Seite 36.

3.2.1 sRaw- und sRaw2-Format

h=2 bedeutet, dass die dekomprimierten Daten 2 Werte für die erste Komponente enthalten, 1 für Spalte n und 1 für Spalte n+1. Mit den 2 anderen Komponenten, dekomprimiertem sraw und sraw2 (die alle h=2 & v=1 haben), haben sie immer 4 elementare Werte

[ y1 y2 xz ] [ y1 y2 xz ] [ y1 y2 xz ] ...
(y1 und y2 für erste Komponente)

Jedes "Pixel" in sRAW- und mRAW-Bildern enthält vier Komponenten ... eine geteilte Y'-Komponente (y1 und y2) sowie ein x (Chrominance Blue) und ein z (Chrominance Red). Alle vier Komponenten (aus 1/2-Bildperspektive, sRAW1/mRAW) haben eine Spaltenhöhe von 2 (h) und eine Breite von 1 (v). Dies zeigt an, dass der Luminanzwert (Y') aus einem VOLLSTÄNDIGEN 2x2-Pixelquadrat besteht ... oder aus zwei 2x1-Pixelspalten, die in y1 und y2 gespeichert sind.

Die Referenzen unten scheinen dies nicht ausdrücklich zu sagen, also spekuliere ich hier ein wenig, aber mit dem sRAW2 (1/4 roh) glaube ich, dass Luminanzinformationen von einem 4x4-Pixelblock mit h = 4 und v = 2 abgeleitet werden würden. Die Codierung der Chrominanz würde bei einem Bild der Größe 1/4 komplexer, da das Bayer-Farbfilterarray auf dem Sensor nicht in sauberen roten und blauen Spalten angeordnet ist. Ich bin mir nicht sicher, ob für jede Cr- und Cb-Komponente abwechselnd 2x1-Höhenspalten verarbeitet werden oder ob eine andere Form der Interpolation durchgeführt wird. Eines ist sicher ... die Interpolation der Quelldaten ist immer größer als die Ausgangsdaten, und soweit ich das beurteilen kann, treten keine Überlappungen (wie bei der normalen Bayer-Interpolation) auf.

Schließlich werden sRAW1/mRAW und sRAW/sRAW2 mit einem verlustfreien Komprimierungsalgorithmus komprimiert. Dies ist ein entscheidender Unterschied zwischen diesen Formaten und JPEG, das ebenfalls eine Kodierung vom Typ ycc verwendet. JPEG führt eine verlustbehaftete Komprimierung durch, wodurch es unmöglich wird, Pixel wieder auf ihre exakte ursprüngliche Darstellung zurückzusetzen. Die s/mRAW-Formate von Canon können in der Tat auf die ursprünglichen 15-Bit-Bilddaten mit voller Präzision zurückgestellt werden.

Verweise:

Theoretisch könnte dies der Fall sein, wenn die Kamera die richtige Strategie zur Reduzierung der Bildgröße anwendet.

Wie Sie bereits bemerkt haben, bleibt das Rohbild bei aktuellen Crop-Sensor-Kameras gleich, egal welche JPEG-Größe Sie eingestellt haben. Das JPEG-Bild wird einfach skaliert. Dadurch kann das Auftreten von Rauschen etwas reduziert werden, aber die Reduzierung ist auf den Bildskalierungsalgorithmus zurückzuführen (Sie können nicht so viele fleckige Pixel in das kleinere Bild einfügen wie in die Vollbildversion). Es ist jedoch wahrscheinlicher, dass Sie mindestens genauso gut, wenn nicht sogar besser abschneiden können, wenn Sie die Rauschunterdrückung und Skalierung selbst im Nachhinein vornehmen.

Es gibt eine Strategie, die eine echte Rauschunterdrückung erzeugt. Einige hochauflösende Mittelformatrückseiten (wie die SensorPlus-Serie von Phase One) verwenden eine Strategie namens Pixel-Binning , bei der Gruppen benachbarter Sensoren als eine viel größere Sensoreinheit behandelt und ihre kumulative Ladung vom Sensor gelesen wird. Das unterscheidet sich vom Lesen einzelner Gebühren und Mittelwertbildung (auf die Sie bei der Verarbeitung nach dem Lesen beschränkt sind) – es tritt auf Hardwareebene auf und ändert, was „roh“ bedeutet. Das Leserauschen hat eine bessere Chance, sich aufzuheben, und die kumulative Ladung macht die Analog-Digital-Umwandlung weniger zweideutig (der Bereich der umgewandelten Quanten ist bei geringerer Verstärkung breiter).

In der Praxis bedeutet dies meist eine Reduzierung der Auflösung um den Faktor vier (halbe Breite und halbe Höhe). Mit einem 60- oder 80-Megapixel-Mittelformat-Rückteil bleibt Ihnen immer noch ein 15- oder 20-Megapixel-Bild; Mit einer 16-Megapixel-Crop-Sensor-Kamera wären Sie auf ein 4-Megapixel-Rohbild angewiesen. Nun wissen Sie vielleicht und ich weiß vielleicht, dass ein sauberes 4-MP-Bild besser ist als ein verrauschtes 16-MP-Bild, aber nicht jeder wird sich auf die Idee einlassen, dass es extra kostet, ein kleineres Bild zu produzieren. Das bedeutet, dass es unwahrscheinlich ist, dass Pixel-Binning in naher Zukunft in weniger als einer professionellen Kamera verwendet wird. Es kann in Vollbildkameras erscheinen, wenn ihre Auflösung weiter steigt, aber ich würde nicht in einem Crop-Sensor danach suchen. (Nun, vielleicht könnte Pentax eines Tages einen Stich machen, da sie kein Vollbild machen.)

Es tut mir leid, ich denke, ich sollte die RAW-Bildgrößen klären. Ich habe eine Canon 60D und ich habe 3 Optionen für RAW-Bildgrößen (RAW, M-RAW und S-RAW). Wenn RAW nur ​​ein Dump von den Kamerasensoren ist, wie können sie dann 3 verschiedene Größen haben? Verkleinert die Kamera auch RAW-Bilder?
@Stan: Canon macht mit seinen mRAW- und sRAW-Formaten bereits genau das, was Sie beschrieben haben. Sie sind keine wörtlichen RAW-Formate, sie sind YUV-Derivate (Y'CrCb, um genau zu sein), und sie tun tatsächlich Formen des Pixel-Binning. Siehe meine Antwort für weitere Details.
Bezüglich der Zukunft: Die eigentliche Einschränkung ist die Sensorfläche. Wenn die Sensorgröße gleich bleibt und die Auflösung steigt (durch Verkleinern der Pixel), gibt es keinen Nettogewinn durch Pixel-Binning. Es geht lediglich darum, mehr Sensoren zu verwenden, um denselben physischen Bereich des Sensors zu lesen. Was wir hoffen können, ist eine verbesserte Empfindlichkeit einzelner Sinne, sodass mehr Licht und weniger Rauschen innerhalb eines gegebenen kleinen Teils des Sensors registriert werden.
@jrista: Das ist kein Binning, das ist die Mittelung nach dem Lesen. Das Binning muss zu einer integralen Verringerung der linearen Auflösung führen, und einzelne Fotostellendaten sind nicht für die Verarbeitung verfügbar, da kumulative Lesevorgänge (keine getrennten, dann gemittelten Lesevorgänge) über mehrere Sensoren durchgeführt werden. (In einem Bayer-Quad-System bedeutet das 1/4, 1/16, 1/64 usw. der vollen Auflösung, ausgedrückt als Fläche oder Pixel.) Die Mittelwertbildung nach dem Lesen unterscheidet sich technisch nicht von der Skalierung; es arbeitet nur in einem anderen Datenraum.

Wenn hohes Rauschen Ihr Hauptproblem ist, besteht eine Lösung darin, mehrere Bilder aufzunehmen und eine Software mit guten Algorithmen ein gutes Bild aus mehreren schlechteren kombinieren zu lassen. Zum Beispiel ALE, Anti-Lamenessing Engine tut dies. Bei sich bewegenden Motiven funktioniert dies offensichtlich nicht, aber Sie können beispielsweise mit der Hand bei ISO 1600 fotografieren und die Aufnahmen dann kombinieren, um einen Rauschpegel nahe ISO 400 oder 800 zu erreichen.