Kamerainternes Downsampling und ISO-äquivalentes Rauschen

Ich habe ein Sony-Gehäuse mit einem 24 MP APS-C CMOS-Sensor. Es speichert Bilder in den folgenden Auflösungen:

  1. 6000 x 4000 (24 Megapixel)
  2. 4240x2832 (12 MP)
  3. 3008x2000 (6 MP)

Beim Vergleich der Fälle mit 24 MP und 6 MP ist leicht zu erkennen, dass die Kamera effektiv vier physische Pixel abtasten könnte , um jedes gespeicherte Pixel zu erzeugen. Allein aufgrund dieser Tatsache würde ich erwarten , dass das SNR doppelt so hoch ist. Oder anders ausgedrückt, ich könnte ISO verdoppeln , wenn ich 6 MP aufnehme und das gleiche Rauschen erwarten, das ich bei 24 MP sehe, alles andere ist gleich. Stimmt meine Theorie soweit?

Erzielen Kameras, die ein Downsampling durchführen , in der Praxis diese vollständige theoretische Verbesserung des Rauschens?

Es gibt so viele physische und logische Schichten zwischen dem Punkt, an dem das Bild auf den Sensor trifft, und wo es schließlich in einen digitalen Bildstrom geschrieben wird, dass ich mich frage, ob die Kamera beim Downsampling vielleicht noch besser abschneiden kann?

(Umgekehrt, wenn bekannt ist, dass das Downsampling auf der Kamera suboptimal ist, würde man es vorziehen, für die Aufnahme mit maximaler Auflösung und Downsampling in der Nachbearbeitung zu "zahlen", wo die volle Sqrt[N]-Verbesserung des SNR erreicht werden kann.)

Praktisch vermute ich, dass Sie am besten RAW aufnehmen und dann mit dem besten Rauschunterdrückungsalgorithmus verarbeiten, anstatt in die Nähe von JPEG zu gehen.

Antworten (1)

Es ist immer möglich, dass eine schlecht geschriebene Nachbearbeitungsanwendung Rauschunterdrückung und Downsampling sowie andere Rohkonvertierungsprozesse in geringerer Qualität als die kamerainterne Routine durchführt. Aber die gut geschriebenen Nachbearbeitungsanwendungen (zu denen alle gängigen und viele der weniger beliebten gehören) können dies viel besser als die Routinen in der Kamera, die durch Geschwindigkeits- und Leistungsbedenken sowie eine Eins begrenzt sind -Size-fits-all-Ansatz für jedes in der Kamera konvertierte Bild.

Jedes Bild, das Ihre Kamera aufnimmt, beginnt als Rohdatendatei mit 6000 x 4000 Pixeln. Um die JPEGs in einer Auflösung von 24 MP, 12 MP oder 6 MP zu erzeugen, verarbeitet die Kamera diese Rohdaten in eine JPEG-Bilddatei.

Sie können das Gleiche mindestens genauso gut und normalerweise viel besser tun, indem Sie diese Rohdaten entwickeln und die Rauschunterdrückung nachträglich auf einem Computer anwenden. Die Gründe sollten ziemlich offensichtlich sein:

  • Kameras sind optimiert (oder verfolgen zumindest einen ausgewogenen Ansatz), um Batterieleistung zu sparen. Computer sind auf Rechenleistung optimiert. Der kamerainterne Prozessor ist auf Effizienz ausgelegt und die Verarbeitungsalgorithmen sind auf Effizienz in Bezug auf den Stromverbrauch ausgelegt. Bei der Verarbeitung auf dem Computer geht es normalerweise nicht so sehr um Energieeinsparung - die RAW-Konvertierungsanwendung auf dem Computer ist normalerweise stärker auf maximale Verarbeitungsleistung optimiert, da sie eine viel größere Stromversorgung hat als der Akku in den meisten Kameras.
  • Kameras sind auf Geschwindigkeit ausgelegt. Je kürzer eine Verarbeitungsroutine ist, desto schneller kann sie ausgeführt werden. Dadurch kann die Kamera jedes Bild schneller verarbeiten und zum nächsten Bild übergehen. Kürzere Verarbeitungszeiten in der Kamera ermöglichen höhere Bildraten, bis der Punkt erreicht ist, an dem der interne Puffer gefüllt ist (wenn die Schreibgeschwindigkeit von Kamera zu Karte zum Engpass wird). Es gibt ein paar Computer-Fotobearbeitungsanwendungen, die für Geschwindigkeit auf Kosten der Qualität optimiert sind, aber die meisten erlauben es dem Benutzer, die Qualität als Priorität festzulegen, wenn die Anwendung von Anfang an nicht so geschrieben ist.
  • Die Rauschunterdrückung ist ziemlich prozessorintensiv. Manchmal kann es mehr Rechenleistung erfordern als das Demosaicing derselben Datei. Siehe die ersten beiden Punkte oben.
  • Die Rauschunterdrückung ist bei den meisten Nachbearbeitungsanwendungen auch flexibler als bei den meisten kamerainternen Steuerungen. Anstatt in der Kamera Aus-Niedrig-Mittel-Hoch auszuwählen und die Kamera die Werte für Luminanz- und Chrominanzrauschen tatsächlich basierend auf einem voreingestellten Wert für einen bestimmten ISO-Wert festlegen zu lassen, können Sie in der Nachbearbeitung die Luminanz- und Chrominanzrauschunterdrückung unabhängig und einschalten eine kundenspezifische Basis für jeden Rahmen basierend auf dem tatsächlichen Inhalt. Sie können mit einem Pinselwerkzeug auch selektiv verschiedene NR-Stufen auf verschiedene Bereiche desselben Fotos anwenden, wenn Ihre Anwendung über diese Funktion verfügt.
  • Kameras verarbeiten die Rohdaten zu einem JPEG-Bild. Wenn JPEG als Dateiausgabe ausgewählt ist, speichert die Kamera nur die Informationen im JPEG-Format auf der Speicherkarte. Die restlichen Daten in der Rohdatei werden verworfen und nicht gespeichert. Sie bleiben also bei einer einzigen Interpretation der Rohdaten. Wenn Ihnen dieses Ergebnis nicht gefällt, können Sie nicht zu den Rohdaten zurückkehren und es mit anderen Einstellungen erneut tun. Wenn Computer eine Rohdatei erhalten, behalten sie alle Rohdaten, obwohl sie nur einen Teil davon mehr oder weniger in JPEG-Form auf dem Monitor anzeigen. Wenn Änderungen an den Einstellungen vorgenommen werden, kann die Anwendung auf alle Daten in der Rohdatei zurückgreifen, um diese Daten wieder in ein anderes mehr oder weniger JPEG-Format umzuwandeln, um sie auf dem Bildschirm anzuzeigen. Diese Änderungen wirken sich nicht auf die ursprünglichen Rohdaten aus. Das einzige, was sich geändert hat, ist, wie diese Rohdaten interpretiert werden, um ein Bild zu erzeugen. Wenn dem Benutzer diese Interpretation nicht gefällt, kann er die Einstellungen ändern und die Anwendung die ursprünglichen Rohdaten erneut interpretieren lassen. Und wieder. Und wieder. Und wieder...
  • Neben der Rauschunterdrückung gibt es viele andere Überlegungen bei der Verarbeitung der Rohdaten in Bezug auf die Bildqualität. Informationen zur Verarbeitung in der Kamera finden Sie unter dem ersten und zweiten Punkt oben. Auf dem Computer kann jeder Schritt so lange dauern, wie der Benutzer es wünscht, und einzeln ausgeführt werden, um jeden Schritt im Prozess nach den Wünschen des Fotografen/Redakteurs zu optimieren. Kameras neigen dazu, einen einheitlichen Ansatz zu verwenden, um die Rohdaten in ein JPEG-Bild zu verarbeiten.
  • Alle Ansätze zum Downsampling sind nicht gleich. Ein rohes 4-Pixel-Quadrat in ein Pixel in einer 4: 1-Reduktion, wie in der Frage beschrieben, erzeugt kein so glattes Bild wie eine Methode, die Informationen von umgebenden Pixeln verwendet, ähnlich wie beim Demosaicing Farbwerte erzeugt werden interpolieren Sie die Pixelwerte der resultierenden Reduktion. Natürlich ist ein solcher Ansatz auch komplexer und erfordert mehr Rechenleistung.
Ich weiß nicht genug, um überhaupt zu fragen, außer auf diese Antwort auf die mit Kommentaren verknüpfte Frage zu verweisen, die darauf hindeutet: "Der Sensor führt möglicherweise ein Pixel-Binning auf Hardwareebene durch, wodurch das Leserauschen beim Aufnehmen mit einer niedrigeren Auflösung verringert wird." Meine Frage ging im Wesentlichen in diese Richtung: D. h., kann eine Hardwareebene etwas besser machen als mit den Rohdaten? Werden nützliche Daten vor der Rohspeicherung verworfen?
„Kann irgendeine Hardware-Ebene etwas besser machen als mit den Rohdaten?“ Die kamerainterne Verarbeitung macht das, was sie mit den Rohdaten macht - genau die gleichen Rohdaten , die auf der Speicherkarte gespeichert würden (vorausgesetzt, sie sind unkomprimiert wie in den meisten Kameras). Alles, was mit dem Sensorausgang vor der Digitalisierung gemacht wird, wird sowohl mit den Rohdaten gemacht, die in der Kamera verwendet werden, als auch mit den Rohdaten, die später in der Nachbearbeitung verwendet werden, weil es dieselben Daten sind . Die "... Hardwareebene (die etwas besser kann) ..." ist wahrscheinlich die Hardware in Ihrem Computer, nicht die Hardware in der Kamera.
Die Antwort, die Sie oben verlinken, sagt genau dasselbe wie meine Antwort: Wenn Sie die Rohdaten für beide verwenden, kann der Computer Ihnen eine bessere Konvertierung liefern. Diese Antwort deutet nur darauf hin, dass die Kamera möglicherweise besser ist, wenn die externe Konvertierung in ein von der Kamera erzeugtes JPEG und nicht in die Rohdaten erfolgt.
Eigentlich sollte unkomprimiert oben verlustfrei komprimiert heißen .
Recht. Und um meinen Kommentar zu verdeutlichen: Mit Hardware meinte ich etwas auf der optischen oder Sensorebene, nicht eine Berechnungsmaschine nach dem Sensor. Beispielsweise gibt es Kameras, die Dinge wie das Verschieben optischer Filter oder Sensoren zum Oversampling auf eine Weise tun, die nicht auf den Rohdatenstrom gelegt wird. Eine andere Sichtweise auf meine Frage lautet also: "Können herkömmliche CMOS-Bildsensorstapel Daten oder Physik zum Downsampling nutzen, die in den Rohdatendateien des Sensors nicht verfügbar sind?"