Warum sind effektive Pixel größer als die tatsächliche Auflösung?

Diese Seite vergleicht Canon EOS 550D und Canon EOS 500D Kameras und erwähnt sie

18,7 Millionen effektive Pixel

für 550D. Die bestmögliche Auflösung mit dieser Kamera ist jedoch

5184 * 3456 = 17915904 ~ 17.9 million pixels

Was sind effektive Pixel und warum ist diese Zahl in diesem Fall größer als 17,9 Millionen?

Beachten Sie auch, dass "Auflösung" zwei Bedeutungen hat. In Computern verwenden wir es, um uns auf die Pixelabmessungen eines Bildschirms oder Bildes zu beziehen. Und in einer Computerzeichnung oder einem generierten Bild entspricht dies normalerweise der "echten" Auflösung - der Menge an Details, die tatsächlich im Bild aufgelöst sind. Aber auf einem Foto ist das nicht unbedingt der Fall.
Darum geht es hier nicht – nur eine zusätzliche Quelle der Verwirrung.
Hmm. Was passiert, wenn jemand mit Legasthenie versucht, 17,8 einzugeben? Könnten sie tatsächlich 18.7 betreten?

Antworten (4)

Ein Teil dessen, was wir hier sehen, ist (da bin ich ziemlich sicher) nichts weiter als ein einfacher Tippfehler (oder etwas in dieser Reihenfolge) seitens DPReview.com. Laut Canon [PDF, Seite 225] beträgt die Anzahl der Vertiefungen auf dem Sensor „ca. 18,00 Megapixel“.

Diese werden dann auf die ungefähr 17,9 Megapixel reduziert, wenn die Bayer-Mustereingaben in das umgewandelt werden, was die meisten von uns als Pixel betrachten würden. Der Unterschied ist ziemlich einfach: Jede Vertiefung auf dem Sensor erfasst nur die gesamte Lichtmenge, die durch einen Farbfilter gelassen wird, aber ein Pixel, wie Sie es normalerweise in der Ausgabe erwarten (z. B. eine JPEG- oder TIFF-Datei), hat drei Farben für jedes Pixel . Auf den ersten Blick könnte es so aussehen, als würde eine Datei nur etwa ein Drittel so viele Pixel haben, wie Sensormulden in der Eingabe vorhanden sind. Offensichtlich ist das nicht der Fall. Hier ist (eine vereinfachte Ansicht), wie die Dinge funktionieren:

vereinfachtes Bayer-Muster

Jeder Buchstabe steht für eine Vertiefung auf dem Sensor. Jedes Kästchen stellt ein dreifarbiges Pixel dar, wie es in der Ausgabedatei angezeigt wird.

Im "inneren" Teil des Sensors hängt jedes Ausgangspixel von der Eingabe von vier Sensormulden ab, aber jede Sensormulde wird als Eingabe für vier verschiedene Ausgabepixel verwendet, sodass die Anzahl der Eingänge und die Anzahl der Ausgänge gleich bleibt.

An den Rändern haben wir jedoch Sensormulden, die nur zu zwei statt vier Pixeln beitragen. An den Ecken trägt jede Sensormulde nur zu einem Ausgangspixel bei.

Das bedeutet, dass die Gesamtzahl der ausgegebenen Pixel kleiner ist als die Anzahl der Sensormulden. Konkret ist das Ergebnis im Vergleich zur Eingabe um eine Zeile und eine Spalte kleiner (z. B. im Beispiel haben wir einen 8x3-Sensor, aber 7x2 Ausgabepixel).

+1 speziell für das Diagramm. Aber ich bin immer noch verwirrt, denn dies würde das Fehlen von 2 (5184-1 + 3456-1) = etwa 17.000 Pixel erklären, die beim Runden bei der Berechnung von 18,0 - 17,9 = 0,1 M Pixel einfach verloren gehen würden. Es scheint, dass mindestens dreimal so viele Pixel von der Grenze entfernt werden müssen (weil alles unter 50 KB auf 0,0 M abgerundet werden sollte). Vielleicht verwendet das Demosaicing eine größere Nachbarschaft als die hier gezeigten 2 x 2: Vielleicht verwendet es etwa eine 7 x 7-Nachbarschaft?
@whuber: Ich bin mir nicht sicher, ob ich den Rest direkt erklären kann. Es ist sicherlich möglich , mehr Sensoren zu verwenden, um ein einzelnes Ausgabepixel zu erzeugen, aber ich habe keine wirkliche Möglichkeit zu wissen, ob Canon dies in diesem Fall tut. Eine Rohdatei von der Kamera würde die genaue Anzahl der Sensormulden angeben, aber immer noch nicht genau sagen, wie Canon von Eingang X zu Ausgang Y gelangt.
In guten Demosaicing-Algorithmen (z. B. auf adaptive Homogenität gerichtet) trägt jeder Sensor gut zu mehr als vier Ausgangspixeln bei, sodass mehr als nur eine Zeile oder Spalte verloren geht. Es ist einfach genug, die Ausgabe ohne Mosaik von dcraw zu nehmen und die Bildabmessungen mit der Ausgabe von Canons DPP zu vergleichen, um eine endgültige Antwort zu erhalten. Ich werde es versuchen, wenn ich Zeit habe.
@Matt Grum: Richtig - rückblickend ist mein vorheriger Kommentar ziemlich schlecht formuliert. Was ich erreichen wollte, ist, dass es mehrere Algorithmen gibt, die ~ 3 Zeilen / Spalten von Pixeln verlieren / verwerfen können (und werden), aber die Pixelanzahl allein sagt Ihnen nicht, welche davon sie verwenden. Die Verwendung eines ausgeklügelteren Algorithmus, der mehr Sensoren pro Ausgabepixel verwendet, ist jedoch praktisch eine Selbstverständlichkeit.

Es gibt zwei Gründe, warum die effektiven Pixel kleiner sind als die tatsächliche Anzahl von Sensorpixeln (Sensorelementen oder Sensoren). Erstens bestehen Bayer-Sensoren aus "Pixeln", die Farbfilter darüber haben, wodurch mehr Licht derselben Farbe wie die durchdringen als verschiedenfarbiges Licht. Normalerweise nennen wir sie rote, grüne und blaue Filter, die in Zeilenpaaren in Form von:

RGRGRGRG
GBGBGBGB

Ein einzelnes „Pixel“, wie es die meisten von uns kennen, das Pixel im RGB-Stil eines Computerbildschirms, wird von einem Bayer-Sensor durch die Kombination von vier Sinnen, einem RGBG-Quartett, erzeugt:

          R G 
(sensor)       -->  RGB (computer)
          G B

Da ein 2x2-Gitter aus vier RGBG-Sensoren verwendet wird, um ein einzelnes RGB-Computerpixel zu erzeugen, gibt es nicht immer genügend Pixel entlang der Kante eines Sensors, um ein vollständiges Pixel zu erzeugen. Bei Bayer-Sensoren ist normalerweise ein "zusätzlicher" Pixelrand vorhanden, um dies zu berücksichtigen. Ein zusätzlicher Rand von Pixeln kann auch einfach vorhanden sein, um das vollständige Design eines Sensors zu kompensieren, als Kalibrierungspixel zu dienen und zusätzliche Sensorkomponenten aufzunehmen, die normalerweise IR- und UV-Filter, Anti-Aliasing-Filter usw. umfassen, die einen blockieren können dass die volle Lichtmenge den äußeren Umfang des Sensors nicht erreicht.

Schließlich müssen Bayer-Sensoren "demosaikiert" werden, um ein normales RGB-Bild von Computerpixeln zu erzeugen. Es gibt verschiedene Möglichkeiten, einen Bayer-Sensor zu demosaikieren, aber die meisten Algorithmen versuchen, die Menge an RGB-Pixeln zu maximieren, die extrahiert werden können, indem RGB-Pixel aus jedem möglichen überlappenden Satz von 2x2 RGBG-Quartetten gemischt werden:

Bayer Demosaicing

Bei einem Sensor mit insgesamt 36 einfarbigen Sensoren können insgesamt 24 RGB-Pixel extrahiert werden. Beachten Sie die überlappende Natur des Demosaicing-Algorithmus, indem Sie sich das animierte GIF oben ansehen. Beachten Sie auch, dass während des dritten und vierten Durchlaufs die oberen und unteren Reihen nicht verwendet wurden. Dies demonstriert, wie die Grenzpixel eines Sensors möglicherweise nicht immer verwendet werden, wenn ein Bayer-Sensel-Array demosaikiert wird.

Was die DPReview-Seite betrifft, glaube ich, dass sie ihre Informationen möglicherweise falsch haben. Ich glaube, die Gesamtzahl der Sensels (Pixel) auf dem Canon 550D Bayer-Sensor beträgt 18,0 MP, während die effektiven Pixel oder die Anzahl der RGB-Computerpixel, die aus diesen Basis-18 MP generiert werden können, 5184 x 3456 oder 17.915.904 (17,9 MP) betragen. Der Unterschied würde sich auf die Randpixel reduzieren, die kein vollständiges Quartett ausmachen können, und möglicherweise auf einige zusätzliche Randpixel, um das Design der Filter und der Montagehardware vor dem Sensor auszugleichen.

Mir ist gerade aufgefallen, dass ich in meinem animierten Bild die Sinne falsch gezählt habe. In den ersten beiden Schritten kombiniert es nicht 8 Sensels ... es kombiniert 28 Sensels in 8 Pixel. In den letzten beiden Schritten kombiniert es 14 Sinne zu 4 Pixeln. Sorry für die Diskrepanz. Ich werde versuchen, es bald zu beheben.

Ich weiß nicht, warum der Begriff „effektiv“ von DPReview verwendet wird, aber es gibt eine Reihe von Gründen für die Diskrepanz zwischen der Anzahl der Fotoseiten (Pixel) auf dem Chip und der Größe der resultierenden Bilder in Pixeln.

Einige Kamerasensoren haben auf jeder Seite einen Streifen aus maskierten Pixeln. Diese Pixel sind identisch mit dem Großteil der Pixel auf dem Sensor, außer dass sie kein Licht empfangen. Sie werden verwendet, um Interferenzen zu erkennen und von dem Signal zu subtrahieren, das von den lichtempfindlichen Pixeln erzeugt wird.

Zweitens verwenden [gute] Demosaicing-Algorithmen viele "Nachbarschaftsoperationen", was bedeutet, dass der Wert eines Pixels etwas vom Wert seiner benachbarten Pixel abhängt. Pixel am äußersten Rand des Bildes haben keine Nachbarn, tragen also zu anderen Pixeln bei, tragen aber nicht zu den Bildabmessungen bei.

Es ist auch möglich, dass die Kamera den Sensor aus anderen Gründen beschneidet (z. B. deckt der Bildkreis des Objektivs den Sensor nicht ganz ab), obwohl ich bezweifle, dass dies bei der 550D der Fall ist.

Werden die Randpixel zum Entfernen von Interferenzen oder nur zum Setzen des Schwarzpunkts verwendet?
Ich denke, beides, wenn es keine Interferenz (einschließlich thermischer Reaktion) gäbe, wäre der schwarze Punkt 0
Beschreibung von DPReview . Es scheint mir, als würde es zwischen zwei gegensätzlichen Konzepten hin und her gehen, und ich sehe nicht, dass es den Begriff tatsächlich definiert, außer implizit. Ich denke, Ihre Antwort hilft ein wenig, aber ich frage mich immer noch, warum die "effektiven" Pixel mehr als echte Fotoseiten sind, obwohl die dpreview-Seite einige Möglichkeiten bietet. Effektiv: verwendet, um Bilddaten zu beeinflussen? Oder Bilddatum letztendlich so bewirkt? (Anmerkung: Wirkungsverb mit einem e: Existenz erschaffen.) Ich frage mich immer noch, was sie bedeuten.
DP Review verwendet wahrscheinlich effektive Pixel, da Canon bei der Beschreibung seiner Sensoren denselben Begriff verwendet. Aber im Fall von Canon entspricht die Anzahl der effektiven Pixel den Abmessungen (unkorrigiert für Objektivverzerrung) aus Kamera-JPEGs und ist IMMER geringer als die Anzahl der tatsächlichen Fotostellen auf der Oberfläche eines Sensors. Ich denke, in diesem Fall hat jemand bei DP Review einfach die falsche Nummer eingegeben.

Entschuldigen Sie die Enttäuschung, aber keine dieser Erklärungen ist wahr. Auf jedem Sensor gibt es einen Bereich außerhalb des Abbildungsbereichs, der auch Photosites enthält. Einige davon sind ausgeschaltet, einige sind vollständig eingeschaltet und einige werden für andere Überwachungszwecke verwendet. Diese werden verwendet, um Verstärker- und Weißabgleichspegel einzustellen, als "Kontrollsatz" gegenüber denen, die die eigentliche Bildgebung durchführen.

Wenn Sie die RAW-Sensordaten von einer der CHDK-kompatiblen Powershot-Kameras nehmen und dcraw verwenden, um sie zu konvertieren, können Sie das vollständige Sensorbild einschließlich dieser 100 % schwarzen und 100 % weißen Bereiche erhalten.

Interessant ist jedoch, dass die Auflösung der RAW-Bildgröße in der Kamera immer größer ist als die JPG-Ergebnisse in der Kamera. Der Grund dafür ist, dass die einfacheren und schnelleren Interpolationsmethoden, die in der Kamera verwendet werden, um von RAW zu JPG zu wechseln, umgebende RGB-Fotoseiten erfordern, um die endgültige Farbe jedes Pixels zu bestimmen. Kanten- und Eckfotoseiten haben dazu nicht diese umgebenden Farbreferenzen auf allen Seiten. Wenn Sie den Vorgang später jedoch auf einem Computer mit besserer RAW-Interpolationssoftware durchführen, können Sie eine etwas höhere Auflösung der Bildgröße wiedererlangen, als dies bei einem JPG in der Kamera möglich ist.

ps DPReview-Rezensenten und Artikelautoren sollten von niemandem als Evangelium angesehen werden. Ich habe so viele Lücken in ihren Tests und offensichtliche Beispiele gefunden, wo die Tester nicht einmal wussten, wie man Kameras benutzt, dass ich ihre Ratschläge vor vielen Jahren nicht berücksichtigt habe.

Trotz Ihres Kommentars, dass "keine dieser Erklärungen wahr ist", decken andere Antworten dies tatsächlich bereits ab.