Führt eine niedrigere Auflösung bei gleicher Sensorgröße zu einem besseren Signal-Rausch-Verhältnis?

Mit der Veröffentlichung der Canon EOS R5/R6 haben viele gesagt, dass sie die 20-MP-R6-Kamera der 45-MP-R5-Kamera vorziehen, aufgrund ihres niedrigeren Preises, aber auch wegen der „besseren Leistung bei schlechten Lichtverhältnissen“.

Auf Kameravergleichsseiten habe ich auch das Gefühl gesehen, dass größere Pixel (niedrigere Auflösung) = bessere Leistung bei schlechten Lichtverhältnissen. Aber ist das ein Mythos?

Hier ist meine Begründung dafür. Nehmen wir an, es gibt zwei Vollbildsensoren, einen 20-MP-Sensor und einen 80-MP-Sensor. Nach Ansicht vieler Leute wäre der 80-Megapixel-Sensor für die Fotografie bei schlechten Lichtverhältnissen schrecklich, da die Pixel kleiner sind. Jeder 2x2-Block im 80-Megapixel-Sensor könnte jedoch abgebildet und nachträglich auf ein 1x1-Pixel gemittelt werden, wodurch das Bild effektiv zu einem 20-Megapixel-Bild wird. Dies könnte optional auch in der Kamera erfolgen. Hätte dieses Bild genauso viele nutzbare Informationen wie das Bild des 20-Megapixel-Sensors?

Mit anderen Worten, da beide Sensoren 35-mm-Sensoren sind (dh gleiche Fläche), ist die auf den Sensor fallende Lichtmenge gleich. Letztendlich wird es also keinen Unterschied zwischen einem 20-MP-Bild und einem 20-MP-Bild geben, das von 80 MP heruntergerechnet wurde, oder? Ihre Leistung bei schlechten Lichtverhältnissen wäre also dieselbe. Sie haben sogar den Vorteil, dass Sie die Möglichkeit haben, Fotos mit 80 MP zu erhalten, wenn Sie möchten.

Warum sagen die Leute, dass eine Kamera mit niedrigerer Auflösung eine bessere Leistung bei schlechten Lichtverhältnissen hat, wenn sie theoretisch dieselbe sein sollte wie eine mit höherer Auflösung (alle anderen Faktoren gleich)?

Hinweis: Bei dieser Frage geht es um Sensoren mit gleicher Größe, aber unterschiedlicher Pixeldichte. Daher unterscheidet es sich von dieser Frage , in der es um unterschiedliche Sensorgrößen geht. Mir ist bewusst, dass eine Vollformatkamera aufgrund ihrer größeren Fläche ein besseres Signal bei schwachem Licht hat als ein APS-C-Sensor, aber was ist mit ähnlich großen Sensoren?

(Korrigieren Sie mich, wenn ich falsch liege) Ich glaube, dass Ihre Annahme richtig ist, aber normalerweise wird das 80-MP-Bild einfach nicht heruntergerechnet.
Das habe ich mir auch gedacht. Nun, es kann in der Post heruntergesampelt werden, also dachte ich, es enthält immer noch dasselbe (Signal) wie üblich; Das SNR ist höher, aber das Signal ist auch höher, und am Ende ist auf dem 80-MP-Sensor mindestens so viel Signal wie auf dem 20-MP-Sensor. Wenn ich eines Nachts ausgehen und so tun wollte, als würde ich mit größeren Pixeln fotografieren, könnte ich einfach die Fotos machen und von 80 auf 20 MP heruntersampeln.
@SkeletonBowNotr genau, weil das Muster Ihrer Bayer-Maske für den 20MP-Sensor und den 80MP-Sensor unterschiedlich wäre. Um das genaue Äquivalent eines 20-MP-Sensors mit einem 80-MP-Sensor zu erhalten, würde die Bayer-Maske Blöcke von 4X4-Sensoren benötigen, die für jede Farbe gefiltert werden. Mit anderen Worten GGRR-GGRR-BBGG-BBGG in dem Raum, der normalerweise GRGR-BGBG-GRGR-BGBG wäre. Und Sie würden sich in einigen Aufnahmesituationen immer noch mit den Unterschieden in der vollen Kapazität befassen.
@MichaelC Oh, ich verstehe. Danke für die Info! Weißt du, wie auffällig dieser Unterschied wäre? Vielleicht stellt sich heraus, dass es nicht wirklich wichtig ist?
Berücksichtigen Sie auch, dass viele Kameras keine rückseitig beleuchteten Sensoren verwenden. Daher befindet sich die Pixelverkabelung zwischen Ihren Pixeln und dem Objekt, das Sie erfassen möchten. Diese Verkabelung ist nicht transparent und nimmt etwas Licht weg - daher: mehr Pixel = weniger nutzbare Fläche = weniger Licht.
@FlixMa Lückenlose Mikrolinsen auf Stromsensoren eignen sich ziemlich gut dafür, Licht von der Verkabelung an den Rändern jedes Sensors wegzulenken. An den Rändern jedes Sinnes geht viel weniger Licht verloren als vor 10-15 Jahren.

Antworten (3)

Es hängt davon ab, ob.

Angenommen, beide Sensoren haben die gleichen linearen Abmessungen:

Wenn Sie die Bilder von beiden Sensoren mit derselben Anzeigegröße anzeigen , ist die Leistung bei schwachem Licht bei beiden ähnlich, vorausgesetzt, sie verwenden dieselbe Technologiegeneration. Es gibt andere Vorteile, die nichts mit der S/N-Leistung bei schwachem Licht zu tun haben, die die Verwendung eines Sensors mit höherer Auflösung und die anschließende Verkleinerung des Ergebnisses etwas besser machen, um feine Details zu reproduzieren, wenn Bilder (und Videos) unter besserem Licht aufgenommen werden.

Wenn Sie die Bilder von jedem Sensor mit 100 % Vergrößerung betrachten (1 Bildpixel = 1 Bildschirmpixel), dann wird das Bild vom Sensor mit der höheren Auflösung stärker vergrößert und hat eine schlechtere Leistung bei schwachem Licht, wenn alle anderen Dinge gleich sind (was sie sind es nie).

Es gibt auch einige Szenarien mit sehr kleinen, sehr hellen Glanzlichtern, wie z. B. bei der Astrofotografie, wo die bessere Leistung des Sensors mit größeren Fotoseiten auf die kleineren Fotoseiten (a/k/a-Sensoren oder Pixelbrunnen) zurückzuführen sein kann. auf dem Sensor mit höherer Auflösung, der eine niedrigere Full-Well-Kapazität hat als die größeren Fotostellen des Sensors mit niedrigerer Auflösung. Wenn die Szene helle spiegelnde Punkte enthält, ermöglicht ein größerer Sensor mit nur einem spiegelnden Punkt, der seine gesamte Oberfläche beleuchtet, eine hellere Belichtung vor der vollständigen Sättigung als ein kleinerer Sensel, der von demselben spiegelnden Glanzlicht beleuchtet wird.

Richtig, wäre es also nicht technisch falsch zu sagen, dass ein Sensor mit niedrigerer Auflösung eine bessere Leistung bei schlechten Lichtverhältnissen hat? Wenn ich also die Wahl zwischen niedriger Auflösung und hoher Auflösung hätte, würde ich natürlich hohe Auflösung wählen, da ich damit eine hohe Auflösung (wenn ich es brauche) oder ein gutes SNR im Vergleich zum Sensor mit niedriger Auflösung (auch wenn ich es brauche) erhalte. , Rechts?
@SkeletonBow es hängt alles davon ab, was Ihr Zweck ist und was Ihre geplanten Sehgewohnheiten sind. Wenn Sie viel Pixel-Peeping planen, hat der Sensor mit größeren Sensoren eine bessere Leistung bei schlechten Lichtverhältnissen auf Kosten der Vergrößerung. Es gibt immer einen Kompromiss. Der Unterschied in der Full-Well-Kapazität kann auch in anderen Aufnahmeszenarien einen echten Unterschied machen, z. B. bei Aufnahmen in hellem Licht mit dunklen Schatten in der Szene. Mit dem Sensor mit den größeren Fotoseiten können Sie die Schatten stärker hervorheben.
Ich stimme grundsätzlich zu und habe positiv abgestimmt. Aber die kleinere FWC kleinerer Fotoseiten ist kein wichtiger Faktor. Wenn das gleiche Bild aufgenommen wird, erhalten die kleineren Fotostellen auch weniger Licht. Dh beide Sensoren beschneiden bei gleicher Belichtung pro Bildbereich.
@StevenKersting Das setzt voraus, dass der Verstärkungsfaktor für beide Sensoren bei einer bestimmten ISO-Einstellung gleich ist. Das ist nicht immer bei allen Kameraherstellern der Fall. Es setzt auch eine gleichmäßige Felddichte des Lichts voraus. Wenn die Szene helle spiegelnde Punkte enthält, ermöglicht ein größerer Sensor mit nur einem spiegelnden Punkt, der seine gesamte Oberfläche beleuchtet, eine hellere Belichtung vor der vollständigen Sättigung als ein kleinerer Sensel, der von demselben spiegelnden Glanzlicht beleuchtet wird. Aber Sie haben Recht, dass es für einige Anwendungen ein Grenzfall ist. Ich werde die fette Beschriftung für diesen Teil entfernen.
@MichaelC, Wenn ein einzelner Punkt auf eine 8-um-Fotoseite fällt, würde derselbe Punkt in beiden Fällen vier 4-um-Fotoseiten mit einer äquivalenten Lichtdichte / Fläche abdecken (unter der Annahme äquivalenter Füllfaktoren). Wenn Sie stattdessen einen 4-um-Punkt auf einem Sensor mit 4-um-Fotoseiten mit 8-um-Punkten/8-um-Fotoseiten vergleichen, passiert dasselbe, wenn die Punkte von gleicher Helligkeit sind ... gleiche Dichte/Belichtung pro beleuchtetem Bereich. Es ist das inverse quadratische Gesetz in Kraft; und das ist der Grund, warum das Heranzoomen mit einer konstanten Blende keine Änderungen der Belichtung/Beschneidung verursacht.
Wenn ein einzelner Punkt einen Zerstreuungskreis von nur 2 µm hat, dann würde er im Durchschnitt nicht auf 4 mehrere 4 µm breite Sinne fallen. Dazu müsste es perfekt auf ihrer Kreuzung zentriert sein. Es ist wahrscheinlicher, dass es auf die Grenze zwischen zwei benachbarten Sinnen fällt, aber es ist auch wahrscheinlicher, dass es vollständig in einen einzigen Sinn fällt. Es würde in den meisten Fällen immer noch nur auf eine einzelne 8-µm-Sensel fallen. Aber auch wenn die Verwirrungskreise größer sind als einzelne Sinne, spielt die Bayer-Maskierung auch eine Rolle, wie sich das in Bezug auf Farbrauschen sowie Leuchtdichterauschen auflöst.

Sensoren verfügen über Antialiasing-Filter, die höherfrequente Bildinhalte blockieren, um Moiré-Muster zu vermeiden. Die Pixelmittelung mittelt (und reduziert somit) auch das Rauschen, ist aber als Tiefpassfilter vergleichsweise schlecht und eignet sich daher nicht so gut zur Unterdrückung von Moiré-Mustern wie ein optischer Antialiasing-Filter nach Maß. Während Sie versuchen können, andere Interpolationsfunktionen als einen bloßen Durchschnitt zu verwenden, funktionieren sie zwar besser zum Reduzieren des Hochfrequenzinhalts, aber schlechter zur Rauschunterdrückung.

Auch die Mittelung von Licht auf einem größeren Pixel bedeutet, dass die Mittelung des Rauschens direkt auf dem Pixelbereich stattfindet. Das macht es ziemlich unwahrscheinlicher, dass Rauschen dazu führt, dass ein einzelnes Pixel seinen Dynamikbereich überschreitet, als dies bei einer Mittelung in der digitalen Stufe der Fall wäre. Und Digitalisierungsrauschen, das sich vom optischen Quantenrauschen unterscheidet, nimmt nicht mit der Pixelgröße ab: Es entstehen Kosten, wenn man sich mit kleineren Standorten befassen muss.

Kleinere Pixelstellen neigen auch dazu, anfälliger für Ladungslecks in Form von "heißen Pixeln" zu sein, Ausreißern, die dazu neigen, sich bei längeren Belichtungszeiten ohne tatsächliche optische Erregung selbst zu sättigen. Sobald ein Pixel gesättigt ist, ist es für Mittelungszwecke nicht mehr nützlich. Wenn die zugrunde liegenden Defekte mit einer größeren Ladung gut durcheinander kommen, ist ihre Wirkung geringer und es dauert länger, bis sie gesättigt sind.

Die meisten neueren Kameras mit sehr hoher Auflösung haben keine Anti-Aliasing-Filter mehr.
@Eric Shain: Wir sprechen jedoch nicht von Ergebnissen mit sehr hoher Auflösung, sondern von einer niedrigeren Auflösung, entweder durch digitale Reduzierung oder einen Sensor mit niedrigerer Auflösung, der normalerweise von einem optischen Anti-Aliasing-Filter begleitet wird.
Ein 80-MP-Sensor verfügt wahrscheinlich nicht über einen Anti-Aliasing-Filter, der Ihrem ersten Argument widerspricht.
@Eric Shain: Nein, es "widerspricht nicht meinem ersten Argument", da es bei Frage und Antwort darum geht, die digitale Auflösungsreduzierung mit der Arbeit mit einer niedrigeren Sensorauflösung zu vergleichen, also sprechen wir über 20-MP-Sensoren im Vergleich zu einer digitalen Reduzierung von 80 MP und 20-Megapixel-Vollbildsensoren verfügen über optische Antialiasing-Filter zur Moiré-Unterdrückung.
@ user92986 Aber die 80-Megapixel-Kamera wird dies wahrscheinlich nicht tun und unter den typischen Aufnahmebedingungen, bei denen Aliasing ein Problem darstellt, wahrscheinlich mehr Moiré zeigen, selbst nach der Neuskalierung, um sie an den 20-Megapixel-Sensor anzupassen.
@Michael C: nur wenn die optische Auflösung der Kamera deutlich höher ist als das, was 80MP auflösen können. Der Grund, warum diese Ultra-High-MP-Kameras keine Antialiasing-Filter mehr haben, ist, dass sie sowieso nichts Vernünftiges haben, an dem sie arbeiten können.
@ user92986 Es gab unzählige kontrollierte Tests, die zeigen, dass Sensoren mit höherer Auflösung bessere Details liefern können, selbst mit Objektiven, die nicht scharf genug sind, um die Tonhöhe der Fotoseiten des Sensors aufzulösen. Das Demosaikieren durch Bayer Masking hat sicherlich viel damit zu tun. Fotos, die mit einem Bayer-Sensor aufgenommen wurden, der die Auflösung im Austausch gegen Farbinformationen opfert.

Das SNR beginnt mit / stammt aus der Szene, die es erzeugt ... wenn es nichts in der Signalkette der Kamera gibt, das dieses SNR reduziert , erhalten alle Sensoren das gleiche SNR, wenn sie mit demselben Objektiv und mit denselben Ap / SS-Einstellungen verwendet werden .

Das reduzierte SNR auf Pixelebene, das mit einem Sensor mit höherer Auflösung verbunden ist, liegt einfach daran, dass das durch Licht/Szene erzeugte SNR auf mehr Fotostellen aufgeteilt wird. Zu einem kleinen Teil kann es auch an einem etwas geringeren Füllfaktor (Mikrolinsenspalten) liegen, aber heutzutage ist das wirklich vernachlässigbar.

Umgekehrt schneiden kleinere Photosites bei schwachem Licht besser ab, da sie eine geringere Verstärkung (Füllung) erfordern. Aus diesem Grund enthalten viele moderne Sensoren Dual-Gain-Photosites, die einen kleineren Kondensator (Fotodiode) mit einer geringeren Kapazität (FWC) für Situationen mit wenig Licht und einen zweiten Kondensator (zweite Verstärkungsstufe) für hellere Situationen haben.

Was wirklich zählt, ist Licht/SNR pro Bildbereich. Und größere Sensoren empfangen mehr Licht mit einem höheren SNR, wenn dasselbe Bild mit denselben SS/Ap-Einstellungen aufgenommen wird (dh von näher oder mit einem längeren Objektiv mit einer größeren Eintrittspupille).