Auf Snapsort habe ich diese Erklärung gefunden:
Wahre Auflösung
Hersteller werben mit hohen Megapixeln, um ihre Kameras zu verkaufen, Snapsort berechnet die wahre Auflösung jeder Kamera basierend auf den physikalischen Einschränkungen der Größe ihres Sensors.
Allerdings würde ich mir eine bessere Erklärung wünschen.
Ich habe zum Beispiel eine Kompaktkamera mit 16,1 MP, und die wahre Auflösung beträgt 9,7 MP. Warum ist das so? Was sind die Unterschiede?
Lassen Sie mich zunächst sagen, dass der Begriff „wahre Auflösung“ keine festgelegte Bedeutung hat. Es ist ein Begriff, den Snapsort verwendet, um zu versuchen, die aussagekräftigen Details, die eine Kamera erfassen kann, zu vereinfachen.
Die Auflösung ist im Grunde genommen die Detailgenauigkeit, die eine Kamera erfassen kann. Sie könnten eine 200-Megapixel-Kamera haben, aber wenn das Bild unscharf wäre und Sie nur einen riesigen braunen Klecks hätten, wäre die aussagekräftige Auflösung so ziemlich nichts, weil Sie keinen Detaillierungsgrad erkennen können.
Eine große Anzahl von Faktoren beeinflusst, wie viele Details Sie erfassen können, die Qualität, Geschwindigkeit und Klarheit des Objektivs, die Positionen innerhalb des Rahmens, die Sie betrachten (die Mitte ist im Allgemeinen detaillierter als die Außenseite), die Größe des Sensors (und folglich die Beugungsgrenze), der Rauschpegel auf dem Sensor, sogar atmosphärische Bedingungen können sich auf den Gesamtpegel der tatsächlich sinnvollen Details auswirken, die von der Kamera erfasst werden können.
„True Resolution“ ist einfach Snapsorts Versuch, das auf eine leicht konsumierbare Zahl zu verallgemeinern, aber da es eine grobe Vereinfachung eines komplexen Themas ist, ist es auch so gut wie nutzlos. Beispielsweise kann ein billiges Objektiv eine superscharfe Mitte haben, aber in der Nähe der Ecken auseinanderfallen. Aufgrund des Durchschnitts würde es zu einer niedrigen Gesamtauflösung führen, jedoch könnte ein anderes Objektiv, das im Allgemeinen einheitlich, aber von ziemlich geringer Qualität ist, als höhere „Gesamtauflösung“ gekennzeichnet werden.
Das Problem ist, wenn Sie beispielsweise ein Porträt mit dem Motiv in der Mitte aufnehmen, dass Sie sich möglicherweise nicht um die Kantenschärfe kümmern, da alle gewünschten Details in der Mitte liegen. Somit wäre das Objektiv mit der "geringeren Auflösung" eigentlich die bessere Wahl.
Snapsort ist eine gute Quelle für grundlegende statistische Vergleiche zwischen Kameras, aber eine große Menge ihrer Informationen ist übermäßig vereinfacht und daher nutzlos. Legen Sie nicht viel Wert auf ihre Vergleiche, da sie nicht besonders vertrauenswürdig oder zuverlässig sind.
„Wahre Auflösung“ ist ein Begriff, den diese bestimmte Site (snapsort.com) erfunden hat, um der Tatsache Rechnung zu tragen, dass Pixelgröße und -dichte ebenfalls eine Rolle spielen. Sie können sich ihre ganze Seite darüber hier anschauen . Es gibt keinen branchenüblichen Begriff, der als „echte Auflösung“ bezeichnet wird.
Sie berechnen es basierend auf der Größe der Airy-Scheibe, bei maximal vier Pixeln pro Airy-Scheibe bei f/5.6. Das Konzept ist, dass eine größere Dichte von Pixeln über vier pro Airy-Scheibe keine weiteren Details liefert. Angesichts der physischen Größe des Sensors und der möglichen Brennweiten der Objektive scheinen sie zu versuchen, ein separates Maß aus den tatsächlichen Megapixeln zu berechnen - eher wie "effektive" Megapixel zur Messung der Fähigkeit des Sensors, Details zu erfassen.
Dies ist ein umstrittenes Thema, und ich fürchte, Sie werden nirgendwo eine einzige, allgemein anerkannte Definition finden. Die fragliche Website verwendet eine relativ einfache Berechnung, die nicht wirklich alle beteiligten Variablen abdeckt (und die Antwort von rfusca spricht das an).
Die "richtigste" Antwort (falls dies eine dieser verwirrenden Multiple-Choice-Fragen mit mehreren Antworten war, die teilweise richtig sind) befasst sich mit der Modulationsübertragungsfunktion (MTF); das heißt, welche Größendetails bei welchem Kontrastniveau kann der Sensor erfassen und in Pixel umwandeln. Das heißt, die Antwort wird experimentell gefunden, indem Testbilder aufgenommen (oder Bilder direkt auf den Sensor projiziert) und bestimmt werden, welche Größe ein Muster haben muss, bevor es mit einem akzeptablen Kontrast- und Detailgrad gerendert wird.
Bei einem typischen Bayer-Pattern-Sensor (oder bei ähnlichen Color-Array-Sensoren) kann diese Zahl niemals gleich der Anzahl der Sensorelemente sein. Da jedes Sensorelement nur eine Farbe aufzeichnet, müssen seine Nachbarn nach Farbinformationen gefragt werden, bevor der Wert eines Pixels bestimmt werden kann. Im besten Fall können Sie eine "wahre" Auflösung erwarten, die ungefähr 1/sqrt(2) der Anzahl der Sensorelemente/Pixel beträgt. (Die offensichtliche Ausnahme hier ist eine Multishot-Studiokamera wie das Hasselblad 50MS-Rückteil, die einen Bayer-Filter hat, aber vier aufeinanderfolgende Bilder aufnimmt, die jeweils um einen Pixel verschoben sind, sodass für jeden Pixel im Bild eine eigene vollständige Farbinformation mit aufgezeichnet wird Informationen zur Leuchtdichte.)
Es ist auch der Antialiasing-Filter (optischer Tiefpass) zu berücksichtigen, wenn einer vorhanden ist. Seine Aufgabe besteht darin, das Bild absichtlich um einen kontrollierten Betrag in kontrollierte Richtungen zu verwischen, um zu verhindern, dass Bildartefakte (wie Moiré-Muster) im Bild erscheinen, wenn sich die Größe und das Muster der Details der Größe und dem Muster der Sensorelemente annähern. Das heißt, die Menge an Details, die Sie aufzeichnen können, ist bewusst auf weniger begrenzt, als der bloße Sensor theoretisch aufzeichnen kann(die Nyquist-Grenze) um einen gewissen Betrag, um zu verhindern, dass falsche Details im Ausgabebild erscheinen. Dies überschneidet sich etwas mit der Auflösung, die Sie aufgrund des Farbarrayfilters verlieren, sodass der Effekt weniger als kumulativ ist. (Das heißt, Sie können den Verlust des Farbfilterarrays nicht einfach mit dem Verlust des optischen Tiefpassfilters multiplizieren und eine Zahl ermitteln.)
Im besten Fall hat ein Sensor mit Bayer-Muster nur ein Daten-zu-Pixel-Verhältnis von etwa 70 %. Monochrome Sensoren, ob auf diese Weise hergestellt oder als Ergebnis einer Aftermarket-Modifikation, sowie Foveon-Sensoren nähern sich 100 %, wenn sie nicht durch einen optischen Tiefpassfilter "erstickt" werden. (Bei genau 100 % können Sie nie sicher sein, ob Sie die echten Daten oder ein Aliasing-Artefakt sehen. Das ist ein grundlegendes Problem mit diskreten Daten; alles, was Sie dagegen tun können, ist zu hoffen – oder sicherzustellen – dass die Daten, die Sie aufzeichnen ist "größer" als die Eimer, in denen Sie es aufzeichnen. Und deshalb kommen sehr hochauflösende Sensoren in den meisten Fällen ohne optische Tiefpassfilter aus - Sie zeichnen selten etwas auf, das ein sich wiederholendes Muster hat, das klein genug ist, um ein Problem zu verursachen einerseits,
Es gibt noch andere Dinge, die die Menge an realen Details beeinflussen, die Sie aufzeichnen können, wie z. B. das Eigenrauschen des Sensors und der Leseschaltung. Da die "effektiven Megapixel" davon abhängen, ob Sie tatsächlich Details im Bild sehen können, zählt alles, was nicht leicht von Rauschen zu unterscheiden ist, nicht wirklich. Bei einem sehr verrauschten Sensor sind möglicherweise die kumulativen Daten mehrerer benachbarter Pixel erforderlich, bevor Sie objektiv bestimmen können, was Bildinformationen ausmacht. Das ist nicht notwendigerweise eine schreckliche Sache; Nokia verwendet in einigen seiner Geräte einen winzigen 41-Megapixel-Sensor, um 5-Megapixel-Bilder zu erzeugen, was einen effektiven „Digitalzoom“ ermöglicht und gleichzeitig alle Datenverluste aufnimmt.
Beginnen wir mit der Auflösung, die nicht mit der Pixeldichte des Sensors identisch ist, die normalerweise als Auflösung bezeichnet wird.
Um die tatsächliche Auflösung einer Kombination aus Kamera und Objektiv zu erhalten, würden Sie ein Auflösungsdiagramm fotografieren und anhand des resultierenden Bildes bestimmen, wie viele Zeilen reproduziert werden können. Sie würden die Auflösung für primäre horizontale, vertikale und diagonale Linien messen.
Ref: Auflösungstabellen für Kameratests erklärt
Es hört sich so an, als würde diese Website basierend auf der Sensorgröße und dem Sensortyp einige Berechnungen durchführen, um zu bestimmen, wie hoch die maximal nutzbare Pixeldichte mit einem theoretisch idealen Objektiv sein könnte. Die „wahre Auflösung“ wäre niedriger als die Pixeldichte des Sensors, wenn der Sensor mehr Pixel hat, als er tatsächlich nutzen kann.
Sie vereinfachen eine viel komplexere Welt. Ihre wahre Auflösung ist ein Produkt aus Objektiv und Sensor. Die Objektivauflösung (lp/mm) hängt jedoch sowohl von den Einstellungen als auch von der Qualität ab. Um diese Konvertierungen durchzuführen, müssen sie also viele Annahmen treffen. Um die Komplexität der Auflösung zu beleuchten:
Zunächst einmal ist MP kein Maß für die Auflösung. Es beginnt in der realen Welt mit Linienpaaren (schwarze und weiße benachbarte Linien), die auf die Sensorebene projiziert und gequetscht werden. Ein Punkt in der realen Welt endet nicht auf einem Punkt, sondern auf einem Kreis, der ebenfalls wellenlängenabhängig ist. Ihr Sensor tastet diese in einer bestimmten digitalen Auflösung ab. Das Ergebnis davon hängt von der Sensorgröße und der Pixelanzahl in jeder Richtung ab. die Auflösung ist typischerweise auf der X- und Y-Achse nahe beieinander (nicht immer gleich). Die Linsen sollten auch in jeder Richtung nahe beieinander liegen. Das bedeutet, dass ein 4000x3000-Sensor mit 36 * 24 mm die gleiche Auflösung in X und Y hat, aber nicht diagonal! Nehmen wir an, ein Objektiv mit 120 lp/mm projiziert diese Linien so, dass sie perfekt auf diesem 4000 x 3000-Sensor ausgerichtet sind. Dann bekommen Sie ein perfektes Bild – aber nur, wenn es sich um eine Monochrom-Kamera handelt! Wenn die Linien nicht ausgerichtet sind, entsteht Moiré. Also fügt der Produzent einen optischen Unschärfefilter hinzu. dann wird das ordentliche Bild vermasselt. Jetzt müssen Sie die Auflösung des Objektivs erhöhen oder für eine bessere Vergrößerung näher heranrücken und die Hälfte des Bildes verlieren oder auf einen größeren Sensor projizieren, um diese "luftigen Scheiben" auseinander zu spreizen. Fügen Sie der Mischung eine Bayer-Musterinterpolation hinzu, und Sie müssen Ihre Auflösung verdoppeln oder vervierfachen (auf jeder Achse, nicht auf dem MP, der 4x - 16x so hoch ist).
Viele der anderen Antworten machten dies unnötig komplex und sprachen über Dinge, die für das OP irrelevant sind, also lassen Sie mich versuchen, klarer zu sein:
Viele Leute denken, dass eine Kamera mit mehr Megapixeln schärfere Fotos produziert. Bei einer bestimmten Sensorgröße gibt es jedoch eine Grenze dafür, wie viele Megapixel tatsächlicher Informationen erfasst werden können. Das Überschreiten dieser Grenze hilft nicht. Wenn überhaupt, tut es weh, weil Sie größere Dateien ohne erkennbaren Nutzen haben. Unternehmen tun dies, weil sie mit einer höheren Megapixel-Zahl werben können, um Leute zu täuschen, die es nicht besser wissen.
Snapsort versucht, diese Zahl als "wahre Auflösung" zu erfassen. In Ihrem Fall haben Sie eine Kamera, die mit 16 Megapixel beworben wird, aber die wahre Auflösung beträgt nur 9,7 Megapixel. Das bedeutet, dass Ihre Kamera nicht mehr Details erfassen kann, als wenn sie mit einem 9,7-Megapixel-Sensor ausgestattet wäre.
Wenn Sie diese 16-Megapixel-Kamera gegenüber einer ansonsten identischen 12-Megapixel-Kamera gekauft haben, sagen wir, Sie würden detailliertere Fotos bekommen, wurden Sie getäuscht :) Sowohl die 16-Megapixel- als auch die 12-Megapixel-Kamera sind tatsächlich 9,7-Megapixel-Kameras.
Beachten Sie, dass dies alles theoretisch ist – Snapsort misst die Leistung der Kamera nicht wirklich, indem es Fotos mit ihr macht. Stattdessen führt es einige mathematische Berechnungen basierend auf der Sensorgröße durch, um seine "wahre Auflösung" zu bestimmen.
Auch die „wahre Auflösung“ ist eine Obergrenze. Sie erhalten möglicherweise keine Details im Wert von 9,7 Megapixeln von dieser Kamera, aber Sie werden sicherlich nicht mehr bekommen.
Bisher haben wir nur über den Sensor gesprochen, aber das Objektiv der Kamera kann und wird die Qualität von Fotos beeinträchtigen. Um auf unser vorheriges Beispiel zurückzukommen: Ihre Kamera mit einer „wahren Auflösung“ von 9,7 Megapixeln ist möglicherweise mit einem Objektiv ausgestattet, mit dem der Sensor nur 5 Megapixel an Informationen erfassen kann. Dies ähnelt dem Blick durch ein verschwommenes Fernglas – selbst wenn Sie ein hervorragendes Sehvermögen haben, werden Sie nicht in der Lage sein, die Details zu sehen, die Sie sonst sehen könnten. Nach der gleichen Analogie kann der Sensor vielleicht 9,7 Megapixel an Informationen erfassen, aber nicht, wenn man durch dieses unscharfe Objektiv schaut.
Ein Unternehmen namens Dxomark versucht, dies in einer Metrik namens „Wahrnehmungs-Megapixel“ zu erfassen. Beispielsweise hat das Sony E-Mount 35 mm F1.8-Objektiv eine wahrnehmbare Megapixelzahl von 11 . Das bedeutet, dass Sie, egal ob Sie dieses Objektiv an einer Kamera anbringen, die mit 11 Megapixel, 24 Megapixel oder 200 Megapixel beworben wird, keine klareren Fotos daraus machen werden.
Wenn Sie also Kameras oder Objektive vergleichen, haben Sie drei Messungen, mit denen Sie feststellen können, wie scharf sie sind:
Von diesen sind wahrnehmbare Megapixel die genaueste Messung, da sie sowohl die Kamera als auch das Objektiv berücksichtigt und von realen Messungen abgeleitet wird. Die zweitbeste Metrik ist die „wahre Auflösung“ von Snapsort. Ignorieren Sie die vom Hersteller beworbenen Megapixel, denn das ist nur eine Zahl auf dem Papier, die Ihre Kamera in der Praxis vielleicht nie erreicht.
Wichtiger als alles andere ist, dass Schärfe/Auflösung nur ein Aspekt bei der Auswahl einer Kamera ist. Gehen Sie nicht blind mit der schärfsten Kamera. Es gibt viele Faktoren, wie z. B. Leistung bei schlechten Lichtverhältnissen, Genauigkeit und Geschwindigkeit des Autofokus, Akkulaufzeit, ob die Kamera Wechselobjektive unterstützt, Sensorgröße, Kameratyp (Spiegelreflexkamera, spiegellose Kamera, Superzoom, Telefon, kompakt), ob sie in Ihre passt Tasche und so weiter. Verlassen Sie sich nicht nur auf die Auflösung der Kamera, wenn Sie eine Entscheidung treffen.
Für meine Kamera wird die wahre Megapixel-Zahl als die gleiche wie die tatsächliche Megapixel-Zahl aufgeführt, daher sollten wir meiner Meinung nach nicht zu viel aus dieser Zahl machen. Die Website listet auch Sensorgröße und Pixelgröße auf. Sie können die Pixelgröße auch berechnen, indem Sie die Sensorfläche durch die Megapixelzahl teilen. Zieht man aus dieser Zahl die Quadratwurzel, erhält man die Pixelgröße als Abstand zweier benachbarter Pixel. Sie können dann die maximale Auflösung berechnen, die Sie theoretisch erreichen können, indem Sie diese durch die Brennweite des Objektivs teilen. ZB beträgt der Abstand zwischen den Pixeln auf dem Sensor meiner Kamera 4,2 Mikrometer, dividiert durch eine Objektivbrennweite von 50 mm ergibt das eine Auflösung von 8,4*10^(-5) Radianten = 4,8*10^(-3) Grad = 17 Bogensekunden.
In der Praxis ist die Auflösung schlechter als 17 Bogensekunden, aufgrund von Rauschen, Linsenfehlern, Tiefpassfiltern, die das Bild leicht verwischen, um Artefakte zu entfernen. Dies wird in den anderen gegebenen Antworten ausführlich erörtert. Aber mit viel Aufwand könnte man an die theoretische Grenze herankommen, wenn man mehrere Aufnahmen machen und in der Nachbearbeitung kombinieren kann (zB in der Stro- oder Landschaftsfotografie).
Die Beugung wird oberhalb von F-Zahlen von etwa 7 wichtig. Eine Punktquelle der Wellenlänge Lambda hat eine Winkelstreuung Theta (gemessen von der Richtung der Quelle) von Theta = 1,22 Lambda/d, wobei d der Linsendurchmesser ist. Wenn 2*theta gleich der Winkelgröße des Pixels von 8,4*10^(-5) rad ist, dann bedeckt der Teil des Beugungsmusters bis zu seinem ersten Minimum ungefähr vollständig ein Pixel. Wenn das Beugungsmuster breiter gemacht wird, so dass Theta gleich der Winkelgröße des Pixels ist, empfängt das benachbarte Pixel immer noch nicht viel Licht, da es die minimale Intensität des Beugungsmusters hat und nahe diesem Punkt die Intensitätsvariation nicht groß ist. Für grünes Licht Lambda = 500 Nanometer, also bei meiner Kamera bei d = 7,3 mm, was einer Blendenzahl von 50/7,3 = 6,9 entspricht. Beachten Sie, dass dies nicht t von der Brennweite abhängen, weil theta auch von der Brennweite abhängt, fällt die Brennweite dann aus der Gleichung für die kritische Blendenzahl heraus, ab der die Beugung die Auflösung zu begrenzen beginnt. Im Allgemeinen wird die kritische Blendenzahl angegeben durch:
Kritische Blendenzahl = r/(1,22*Lambda)
wobei r der Abstand zwischen benachbarten Pixeln auf dem Sensor ist.
Sie können einfach ein 4-MP-Bild mit Photoshop verarbeiten und auf ein 8-MP-Bild hochskalieren. Dann gibt es doppelte Pixel, aber theoretisch ist es jetzt ein 8-MP-Bild. Ich glaube, die "wahre Auflösung" von Snapsort bedeutet die tatsächliche Pixelauflösung eines Bildes ohne solche duplizierten Pixel.
Michael Nielsen