Was ist Snapsorts „wahre Auflösung“-Punktzahl?

Auf Snapsort habe ich diese Erklärung gefunden:

Wahre Auflösung

Hersteller werben mit hohen Megapixeln, um ihre Kameras zu verkaufen, Snapsort berechnet die wahre Auflösung jeder Kamera basierend auf den physikalischen Einschränkungen der Größe ihres Sensors.

Allerdings würde ich mir eine bessere Erklärung wünschen.

Ich habe zum Beispiel eine Kompaktkamera mit 16,1 MP, und die wahre Auflösung beträgt 9,7 MP. Warum ist das so? Was sind die Unterschiede?

Antworten (8)

Lassen Sie mich zunächst sagen, dass der Begriff „wahre Auflösung“ keine festgelegte Bedeutung hat. Es ist ein Begriff, den Snapsort verwendet, um zu versuchen, die aussagekräftigen Details, die eine Kamera erfassen kann, zu vereinfachen.

Die Auflösung ist im Grunde genommen die Detailgenauigkeit, die eine Kamera erfassen kann. Sie könnten eine 200-Megapixel-Kamera haben, aber wenn das Bild unscharf wäre und Sie nur einen riesigen braunen Klecks hätten, wäre die aussagekräftige Auflösung so ziemlich nichts, weil Sie keinen Detaillierungsgrad erkennen können.

Eine große Anzahl von Faktoren beeinflusst, wie viele Details Sie erfassen können, die Qualität, Geschwindigkeit und Klarheit des Objektivs, die Positionen innerhalb des Rahmens, die Sie betrachten (die Mitte ist im Allgemeinen detaillierter als die Außenseite), die Größe des Sensors (und folglich die Beugungsgrenze), der Rauschpegel auf dem Sensor, sogar atmosphärische Bedingungen können sich auf den Gesamtpegel der tatsächlich sinnvollen Details auswirken, die von der Kamera erfasst werden können.

„True Resolution“ ist einfach Snapsorts Versuch, das auf eine leicht konsumierbare Zahl zu verallgemeinern, aber da es eine grobe Vereinfachung eines komplexen Themas ist, ist es auch so gut wie nutzlos. Beispielsweise kann ein billiges Objektiv eine superscharfe Mitte haben, aber in der Nähe der Ecken auseinanderfallen. Aufgrund des Durchschnitts würde es zu einer niedrigen Gesamtauflösung führen, jedoch könnte ein anderes Objektiv, das im Allgemeinen einheitlich, aber von ziemlich geringer Qualität ist, als höhere „Gesamtauflösung“ gekennzeichnet werden.

Das Problem ist, wenn Sie beispielsweise ein Porträt mit dem Motiv in der Mitte aufnehmen, dass Sie sich möglicherweise nicht um die Kantenschärfe kümmern, da alle gewünschten Details in der Mitte liegen. Somit wäre das Objektiv mit der "geringeren Auflösung" eigentlich die bessere Wahl.

Snapsort ist eine gute Quelle für grundlegende statistische Vergleiche zwischen Kameras, aber eine große Menge ihrer Informationen ist übermäßig vereinfacht und daher nutzlos. Legen Sie nicht viel Wert auf ihre Vergleiche, da sie nicht besonders vertrauenswürdig oder zuverlässig sind.

Danke, AJ! Also kurz gesagt, was sollte ich berücksichtigen: die tatsächliche Auflösung, z. B. 21 MP, oder die „wahre Auflösung“?
@Morpho - das ist keine eine oder andere Antwort. Die „wahre Auflösung“, die Snapsort vornimmt, ist eine zu starke Vereinfachung und nahezu bedeutungslos, aber die dahinter stehenden Konzepte sind äußerst wichtig, wenn Sie versuchen, maximale Qualität zu erzielen. Zusätzliche Megapixel werden Ihnen nicht schaden, aber es ist möglicherweise auch nicht immer von großem Nutzen, es sei denn, Sie haben eine bessere Optik.
OK, anders ausgedrückt: Wenn meine Kompaktkamera eine tatsächliche Auflösung von 16 MP hat und Snapsort sagt, dass ihre „wahre Auflösung“ 9,7 MP beträgt, wie soll ich diese Kamera ansprechen? Eine Kamera mit 16 MP oder eine Kamera mit 9,7 MP? Ich hoffe ihr versteht meine Verwirrung hier.
Es ist eine 16-Megapixel-Kamera, aber Sie werden wahrscheinlich nicht in der Lage sein, 16 MP Qualität daraus zu ziehen. Höchstwahrscheinlich hat die Bildmitte die Auflösungsdichte einer 16-Megapixel-Kamera, aber die Ränder haben die Auflösung einer 8-Megapixel-Kamera. Genaueres kann man ohne Blick auf die MTF-Charts nicht sagen.
OK.:) In diesem Fall sind die 16MP irgendwie irreführend!
Aber so ist die 9.7. Sie erfassen immer noch 16 Millionen Pixel, aber einige davon sind nicht scharf definiert.
Weil es nicht wirklich 9,7 MP an Daten sind. Es ist immer noch mehr als 9,7 MP, aber es gibt etwas Unschärfe und einen Mangel an Details, aber wenn Sie sich beispielsweise nur um die Mitte der Aufnahme kümmern, können es genauso gut 16 MP sein, weil Sie sich nicht um die Details kümmern, die Sie sind verlieren.
Geschieht dies als Faustregel? Ich meine, ist das eine Tatsache?
Ist was eine Faustregel?
Die ''wahre Auflösung'' - 9,7 (in diesem Fall) immer so?
Die „wahre Lösung“ ist ein bisschen so, als würde man sagen „ein Auto funktioniert, indem es losfährt“, wenn Sie versuchen herauszufinden, warum es nicht anspringt. Es mag eine genaue Aussage für ihre speziellen Testkriterien sein, aber es hat keinen praktischen Wert in der realen Welt.
@Morpho Ich würde sagen, die wahre Auflösung ist nützlicher als die vom Hersteller angegebene Auflösung. Wenn eine Kamera eine Auflösung von 20 MP hat, Sie aber nie mehr als 10 MP tatsächliche Auflösung erhalten, ist die Zahl „20“ irrelevant, und die wahre Auflösung, wie sie Snapsort angibt, ist nützlicher. Noch besser ist die Wahrnehmungs-Megapixel-Bewertung, die DxoMark gibt. Dies berücksichtigt mehr die Kamera und das Objektiv, während die wahre Auflösung von Snapsort ein perfektes Objektiv voraussetzt. Die perzeptive MP von DxoMark ist also nützlicher als die wahre Auflösung von Snapsort. Sie ist nützlicher als die vom Hersteller angegebene Auflösung.

„Wahre Auflösung“ ist ein Begriff, den diese bestimmte Site (snapsort.com) erfunden hat, um der Tatsache Rechnung zu tragen, dass Pixelgröße und -dichte ebenfalls eine Rolle spielen. Sie können sich ihre ganze Seite darüber hier anschauen . Es gibt keinen branchenüblichen Begriff, der als „echte Auflösung“ bezeichnet wird.

Sie berechnen es basierend auf der Größe der Airy-Scheibe, bei maximal vier Pixeln pro Airy-Scheibe bei f/5.6. Das Konzept ist, dass eine größere Dichte von Pixeln über vier pro Airy-Scheibe keine weiteren Details liefert. Angesichts der physischen Größe des Sensors und der möglichen Brennweiten der Objektive scheinen sie zu versuchen, ein separates Maß aus den tatsächlichen Megapixeln zu berechnen - eher wie "effektive" Megapixel zur Messung der Fähigkeit des Sensors, Details zu erfassen.

Danke, rfusca! Allerdings suche ich nach der einfachsten Antwort. Was ist der Hauptunterschied zwischen einer Auflösung wie 21 MP und einer echten Auflösung? Worauf muss ich beim Kamerakauf achten?
@Morpho - Keine der Snapsort-Nummern sollte der einzige Faktor bei einer Kaufentscheidung sein. Und im Allgemeinen sollten superhohe Megapixel heutzutage auf der Liste der Dinge, auf die man bei einer neuen Kamera achten sollte, für die meisten Menschen nicht ganz oben stehen. Wir könnten die Methodik hinter Snapsorts „wahrer Auflösung“ diskutieren und sagen, „sie berücksichtigen dies oder das nicht“, aber insgesamt sind sie wahrscheinlich im Bereich eines guten Maßes dafür . Wenn Sie also zwei Kameras betrachten und alles andere gleich ist, aber eine andere „wahre Auflösung“ hat, erhalten Sie die höhere „wahre Auflösung“.
Die aufgeführte Auflösung von „21 Megapixel“ bezieht sich auf die physische Pixelanzahl auf Ihrem Sensor. Die „wahre Auflösung“, die Snapsort bietet und versucht, die Tatsache zu berücksichtigen, dass alle 21 Megapixel keine Details erfassen können, weil sie zu dicht beieinander liegen.

Dies ist ein umstrittenes Thema, und ich fürchte, Sie werden nirgendwo eine einzige, allgemein anerkannte Definition finden. Die fragliche Website verwendet eine relativ einfache Berechnung, die nicht wirklich alle beteiligten Variablen abdeckt (und die Antwort von rfusca spricht das an).

Die "richtigste" Antwort (falls dies eine dieser verwirrenden Multiple-Choice-Fragen mit mehreren Antworten war, die teilweise richtig sind) befasst sich mit der Modulationsübertragungsfunktion (MTF); das heißt, welche Größendetails bei welchem ​​Kontrastniveau kann der Sensor erfassen und in Pixel umwandeln. Das heißt, die Antwort wird experimentell gefunden, indem Testbilder aufgenommen (oder Bilder direkt auf den Sensor projiziert) und bestimmt werden, welche Größe ein Muster haben muss, bevor es mit einem akzeptablen Kontrast- und Detailgrad gerendert wird.

Bei einem typischen Bayer-Pattern-Sensor (oder bei ähnlichen Color-Array-Sensoren) kann diese Zahl niemals gleich der Anzahl der Sensorelemente sein. Da jedes Sensorelement nur eine Farbe aufzeichnet, müssen seine Nachbarn nach Farbinformationen gefragt werden, bevor der Wert eines Pixels bestimmt werden kann. Im besten Fall können Sie eine "wahre" Auflösung erwarten, die ungefähr 1/sqrt(2) der Anzahl der Sensorelemente/Pixel beträgt. (Die offensichtliche Ausnahme hier ist eine Multishot-Studiokamera wie das Hasselblad 50MS-Rückteil, die einen Bayer-Filter hat, aber vier aufeinanderfolgende Bilder aufnimmt, die jeweils um einen Pixel verschoben sind, sodass für jeden Pixel im Bild eine eigene vollständige Farbinformation mit aufgezeichnet wird Informationen zur Leuchtdichte.)

Es ist auch der Antialiasing-Filter (optischer Tiefpass) zu berücksichtigen, wenn einer vorhanden ist. Seine Aufgabe besteht darin, das Bild absichtlich um einen kontrollierten Betrag in kontrollierte Richtungen zu verwischen, um zu verhindern, dass Bildartefakte (wie Moiré-Muster) im Bild erscheinen, wenn sich die Größe und das Muster der Details der Größe und dem Muster der Sensorelemente annähern. Das heißt, die Menge an Details, die Sie aufzeichnen können, ist bewusst auf weniger begrenzt, als der bloße Sensor theoretisch aufzeichnen kann(die Nyquist-Grenze) um einen gewissen Betrag, um zu verhindern, dass falsche Details im Ausgabebild erscheinen. Dies überschneidet sich etwas mit der Auflösung, die Sie aufgrund des Farbarrayfilters verlieren, sodass der Effekt weniger als kumulativ ist. (Das heißt, Sie können den Verlust des Farbfilterarrays nicht einfach mit dem Verlust des optischen Tiefpassfilters multiplizieren und eine Zahl ermitteln.)

Im besten Fall hat ein Sensor mit Bayer-Muster nur ein Daten-zu-Pixel-Verhältnis von etwa 70 %. Monochrome Sensoren, ob auf diese Weise hergestellt oder als Ergebnis einer Aftermarket-Modifikation, sowie Foveon-Sensoren nähern sich 100 %, wenn sie nicht durch einen optischen Tiefpassfilter "erstickt" werden. (Bei genau 100 % können Sie nie sicher sein, ob Sie die echten Daten oder ein Aliasing-Artefakt sehen. Das ist ein grundlegendes Problem mit diskreten Daten; alles, was Sie dagegen tun können, ist zu hoffen – oder sicherzustellen – dass die Daten, die Sie aufzeichnen ist "größer" als die Eimer, in denen Sie es aufzeichnen. Und deshalb kommen sehr hochauflösende Sensoren in den meisten Fällen ohne optische Tiefpassfilter aus - Sie zeichnen selten etwas auf, das ein sich wiederholendes Muster hat, das klein genug ist, um ein Problem zu verursachen einerseits,

Es gibt noch andere Dinge, die die Menge an realen Details beeinflussen, die Sie aufzeichnen können, wie z. B. das Eigenrauschen des Sensors und der Leseschaltung. Da die "effektiven Megapixel" davon abhängen, ob Sie tatsächlich Details im Bild sehen können, zählt alles, was nicht leicht von Rauschen zu unterscheiden ist, nicht wirklich. Bei einem sehr verrauschten Sensor sind möglicherweise die kumulativen Daten mehrerer benachbarter Pixel erforderlich, bevor Sie objektiv bestimmen können, was Bildinformationen ausmacht. Das ist nicht notwendigerweise eine schreckliche Sache; Nokia verwendet in einigen seiner Geräte einen winzigen 41-Megapixel-Sensor, um 5-Megapixel-Bilder zu erzeugen, was einen effektiven „Digitalzoom“ ermöglicht und gleichzeitig alle Datenverluste aufnimmt.

Ich suche nur nach einer grundlegenderen Antwort. Gibt es eine einfachere Antwort?
@ Morpho - Nein, ist es nicht.
Wie kann man das den Schülern erklären?
Die überwiegende Mehrheit davon ist zwar zutreffend, aber für die vorliegende Frage völlig irrelevant – nämlich, wie ein bestimmtes Unternehmen eine bestimmte Maßnahme durchführt.
@rfusca - Nein, die Frage lautete "Was ist wahre Auflösung", nicht "Was bedeutet Snapsort unter 'wahrer Auflösung'". Und da Ihre Antwort auf diese Frage anscheinend nicht das Kriterium der "einfachsten Antwort" erfüllt, reicht die einfache Beantwortung der Snapsort-Frage anscheinend auch nicht aus. Auf jeden Fall habe ich gekündigt.
@stanRogers - sie vergleicht zwei Zahlen, sie verweist auf "Snapsort" ... was bedeutet das Ihrer Meinung nach sonst noch?
@rfusca - Sie können nicht wirklich auf die Snapsort-Nummern im Detail eingehen, ohne zu verstehen, wovon sie sprechen. Ich stimme zu, dass es möglich ist, die Details zu überfliegen und das Wesentliche zu erklären, aber es ist keine vollständige Antwort für jemand anderen, der möglicherweise eine technische Antwort möchte. Im Idealfall ist es am besten, sowohl eine ausführliche Antwort wie die von Stan als auch ein Spektrum unterschiedlicher Detaillierungsgrade in anderen Antworten zu haben, damit jeder, der auf diese Frage kommt, eine gute Antwort erhalten kann.
@ajhenderson - Ich sage nicht, dass es sich nicht lohnt, eine ausführliche Antwort darauf zu geben, was eine "effektive Lösung" ist. Aber die Frage nach ihrer "wahren Auflösung", die ein Begriff ist, den Snapsort erfunden hat, mit einer endgültigen Antwort, und sie stellen sogar eine Webseite zur Verfügung, auf der sie sie messen ... was nicht diese Antwort ist. (Unabhängig davon, wie richtig oder falsch die Methodik von Snapsort ist). Es ist, als würde man fragen, wie Wendy's ein Frosty macht, und jemand schreibt ausführlich darüber, wie man Eiscreme macht.
@rfusca - das ist fair, aber ohne darauf einzugehen, was es wirklich ist, können Sie auch nicht erklären, was sie zu beschreiben versuchen. Das eine folgt natürlich genug aus dem anderen, dass ich denke, dass die Antwort gültig ist.
@StanRogers: "... Die offensichtliche Ausnahme hier ist eine Multishot-Studiokamera wie die Hasselblad 50MS-Rückseite ..." . - Sie haben die Foveon-Sensoren (mehrschichtig) vergessen.

Beginnen wir mit der Auflösung, die nicht mit der Pixeldichte des Sensors identisch ist, die normalerweise als Auflösung bezeichnet wird.

Um die tatsächliche Auflösung einer Kombination aus Kamera und Objektiv zu erhalten, würden Sie ein Auflösungsdiagramm fotografieren und anhand des resultierenden Bildes bestimmen, wie viele Zeilen reproduziert werden können. Sie würden die Auflösung für primäre horizontale, vertikale und diagonale Linien messen.

Ref: Auflösungstabellen für Kameratests erklärt

Es hört sich so an, als würde diese Website basierend auf der Sensorgröße und dem Sensortyp einige Berechnungen durchführen, um zu bestimmen, wie hoch die maximal nutzbare Pixeldichte mit einem theoretisch idealen Objektiv sein könnte. Die „wahre Auflösung“ wäre niedriger als die Pixeldichte des Sensors, wenn der Sensor mehr Pixel hat, als er tatsächlich nutzen kann.

Könntest du es mir bitte in einfacheren Zeilen erklären?
Warum die Ablehnung? Wenn Sie nicht erklären, was Ihrer Meinung nach falsch ist, kann dies die Antwort nicht verbessern.

Sie vereinfachen eine viel komplexere Welt. Ihre wahre Auflösung ist ein Produkt aus Objektiv und Sensor. Die Objektivauflösung (lp/mm) hängt jedoch sowohl von den Einstellungen als auch von der Qualität ab. Um diese Konvertierungen durchzuführen, müssen sie also viele Annahmen treffen. Um die Komplexität der Auflösung zu beleuchten:

Zunächst einmal ist MP kein Maß für die Auflösung. Es beginnt in der realen Welt mit Linienpaaren (schwarze und weiße benachbarte Linien), die auf die Sensorebene projiziert und gequetscht werden. Ein Punkt in der realen Welt endet nicht auf einem Punkt, sondern auf einem Kreis, der ebenfalls wellenlängenabhängig ist. Ihr Sensor tastet diese in einer bestimmten digitalen Auflösung ab. Das Ergebnis davon hängt von der Sensorgröße und der Pixelanzahl in jeder Richtung ab. die Auflösung ist typischerweise auf der X- und Y-Achse nahe beieinander (nicht immer gleich). Die Linsen sollten auch in jeder Richtung nahe beieinander liegen. Das bedeutet, dass ein 4000x3000-Sensor mit 36 ​​* 24 mm die gleiche Auflösung in X und Y hat, aber nicht diagonal! Nehmen wir an, ein Objektiv mit 120 lp/mm projiziert diese Linien so, dass sie perfekt auf diesem 4000 x 3000-Sensor ausgerichtet sind. Dann bekommen Sie ein perfektes Bild – aber nur, wenn es sich um eine Monochrom-Kamera handelt! Wenn die Linien nicht ausgerichtet sind, entsteht Moiré. Also fügt der Produzent einen optischen Unschärfefilter hinzu. dann wird das ordentliche Bild vermasselt. Jetzt müssen Sie die Auflösung des Objektivs erhöhen oder für eine bessere Vergrößerung näher heranrücken und die Hälfte des Bildes verlieren oder auf einen größeren Sensor projizieren, um diese "luftigen Scheiben" auseinander zu spreizen. Fügen Sie der Mischung eine Bayer-Musterinterpolation hinzu, und Sie müssen Ihre Auflösung verdoppeln oder vervierfachen (auf jeder Achse, nicht auf dem MP, der 4x - 16x so hoch ist).

Viele der anderen Antworten machten dies unnötig komplex und sprachen über Dinge, die für das OP irrelevant sind, also lassen Sie mich versuchen, klarer zu sein:

Viele Leute denken, dass eine Kamera mit mehr Megapixeln schärfere Fotos produziert. Bei einer bestimmten Sensorgröße gibt es jedoch eine Grenze dafür, wie viele Megapixel tatsächlicher Informationen erfasst werden können. Das Überschreiten dieser Grenze hilft nicht. Wenn überhaupt, tut es weh, weil Sie größere Dateien ohne erkennbaren Nutzen haben. Unternehmen tun dies, weil sie mit einer höheren Megapixel-Zahl werben können, um Leute zu täuschen, die es nicht besser wissen.

Snapsort versucht, diese Zahl als "wahre Auflösung" zu erfassen. In Ihrem Fall haben Sie eine Kamera, die mit 16 Megapixel beworben wird, aber die wahre Auflösung beträgt nur 9,7 Megapixel. Das bedeutet, dass Ihre Kamera nicht mehr Details erfassen kann, als wenn sie mit einem 9,7-Megapixel-Sensor ausgestattet wäre.

Wenn Sie diese 16-Megapixel-Kamera gegenüber einer ansonsten identischen 12-Megapixel-Kamera gekauft haben, sagen wir, Sie würden detailliertere Fotos bekommen, wurden Sie getäuscht :) Sowohl die 16-Megapixel- als auch die 12-Megapixel-Kamera sind tatsächlich 9,7-Megapixel-Kameras.

Beachten Sie, dass dies alles theoretisch ist – Snapsort misst die Leistung der Kamera nicht wirklich, indem es Fotos mit ihr macht. Stattdessen führt es einige mathematische Berechnungen basierend auf der Sensorgröße durch, um seine "wahre Auflösung" zu bestimmen.

Auch die „wahre Auflösung“ ist eine Obergrenze. Sie erhalten möglicherweise keine Details im Wert von 9,7 Megapixeln von dieser Kamera, aber Sie werden sicherlich nicht mehr bekommen.

Bisher haben wir nur über den Sensor gesprochen, aber das Objektiv der Kamera kann und wird die Qualität von Fotos beeinträchtigen. Um auf unser vorheriges Beispiel zurückzukommen: Ihre Kamera mit einer „wahren Auflösung“ von 9,7 Megapixeln ist möglicherweise mit einem Objektiv ausgestattet, mit dem der Sensor nur 5 Megapixel an Informationen erfassen kann. Dies ähnelt dem Blick durch ein verschwommenes Fernglas – selbst wenn Sie ein hervorragendes Sehvermögen haben, werden Sie nicht in der Lage sein, die Details zu sehen, die Sie sonst sehen könnten. Nach der gleichen Analogie kann der Sensor vielleicht 9,7 Megapixel an Informationen erfassen, aber nicht, wenn man durch dieses unscharfe Objektiv schaut.

Ein Unternehmen namens Dxomark versucht, dies in einer Metrik namens „Wahrnehmungs-Megapixel“ zu erfassen. Beispielsweise hat das Sony E-Mount 35 mm F1.8-Objektiv eine wahrnehmbare Megapixelzahl von 11 . Das bedeutet, dass Sie, egal ob Sie dieses Objektiv an einer Kamera anbringen, die mit 11 Megapixel, 24 Megapixel oder 200 Megapixel beworben wird, keine klareren Fotos daraus machen werden.

Wenn Sie also Kameras oder Objektive vergleichen, haben Sie drei Messungen, mit denen Sie feststellen können, wie scharf sie sind:

  1. Beworbene Megapixel.
  2. Snapsorts „wahre Auflösung“
  3. Dxomarks „Wahrnehmungs-Megapixel“.

Von diesen sind wahrnehmbare Megapixel die genaueste Messung, da sie sowohl die Kamera als auch das Objektiv berücksichtigt und von realen Messungen abgeleitet wird. Die zweitbeste Metrik ist die „wahre Auflösung“ von Snapsort. Ignorieren Sie die vom Hersteller beworbenen Megapixel, denn das ist nur eine Zahl auf dem Papier, die Ihre Kamera in der Praxis vielleicht nie erreicht.

Wichtiger als alles andere ist, dass Schärfe/Auflösung nur ein Aspekt bei der Auswahl einer Kamera ist. Gehen Sie nicht blind mit der schärfsten Kamera. Es gibt viele Faktoren, wie z. B. Leistung bei schlechten Lichtverhältnissen, Genauigkeit und Geschwindigkeit des Autofokus, Akkulaufzeit, ob die Kamera Wechselobjektive unterstützt, Sensorgröße, Kameratyp (Spiegelreflexkamera, spiegellose Kamera, Superzoom, Telefon, kompakt), ob sie in Ihre passt Tasche und so weiter. Verlassen Sie sich nicht nur auf die Auflösung der Kamera, wenn Sie eine Entscheidung treffen.

Für meine Kamera wird die wahre Megapixel-Zahl als die gleiche wie die tatsächliche Megapixel-Zahl aufgeführt, daher sollten wir meiner Meinung nach nicht zu viel aus dieser Zahl machen. Die Website listet auch Sensorgröße und Pixelgröße auf. Sie können die Pixelgröße auch berechnen, indem Sie die Sensorfläche durch die Megapixelzahl teilen. Zieht man aus dieser Zahl die Quadratwurzel, erhält man die Pixelgröße als Abstand zweier benachbarter Pixel. Sie können dann die maximale Auflösung berechnen, die Sie theoretisch erreichen können, indem Sie diese durch die Brennweite des Objektivs teilen. ZB beträgt der Abstand zwischen den Pixeln auf dem Sensor meiner Kamera 4,2 Mikrometer, dividiert durch eine Objektivbrennweite von 50 mm ergibt das eine Auflösung von 8,4*10^(-5) Radianten = 4,8*10^(-3) Grad = 17 Bogensekunden.

In der Praxis ist die Auflösung schlechter als 17 Bogensekunden, aufgrund von Rauschen, Linsenfehlern, Tiefpassfiltern, die das Bild leicht verwischen, um Artefakte zu entfernen. Dies wird in den anderen gegebenen Antworten ausführlich erörtert. Aber mit viel Aufwand könnte man an die theoretische Grenze herankommen, wenn man mehrere Aufnahmen machen und in der Nachbearbeitung kombinieren kann (zB in der Stro- oder Landschaftsfotografie).

Die Beugung wird oberhalb von F-Zahlen von etwa 7 wichtig. Eine Punktquelle der Wellenlänge Lambda hat eine Winkelstreuung Theta (gemessen von der Richtung der Quelle) von Theta = 1,22 Lambda/d, wobei d der Linsendurchmesser ist. Wenn 2*theta gleich der Winkelgröße des Pixels von 8,4*10^(-5) rad ist, dann bedeckt der Teil des Beugungsmusters bis zu seinem ersten Minimum ungefähr vollständig ein Pixel. Wenn das Beugungsmuster breiter gemacht wird, so dass Theta gleich der Winkelgröße des Pixels ist, empfängt das benachbarte Pixel immer noch nicht viel Licht, da es die minimale Intensität des Beugungsmusters hat und nahe diesem Punkt die Intensitätsvariation nicht groß ist. Für grünes Licht Lambda = 500 Nanometer, also bei meiner Kamera bei d = 7,3 mm, was einer Blendenzahl von 50/7,3 = 6,9 entspricht. Beachten Sie, dass dies nicht t von der Brennweite abhängen, weil theta auch von der Brennweite abhängt, fällt die Brennweite dann aus der Gleichung für die kritische Blendenzahl heraus, ab der die Beugung die Auflösung zu begrenzen beginnt. Im Allgemeinen wird die kritische Blendenzahl angegeben durch:

Kritische Blendenzahl = r/(1,22*Lambda)

wobei r der Abstand zwischen benachbarten Pixeln auf dem Sensor ist.

Sie können einfach ein 4-MP-Bild mit Photoshop verarbeiten und auf ein 8-MP-Bild hochskalieren. Dann gibt es doppelte Pixel, aber theoretisch ist es jetzt ein 8-MP-Bild. Ich glaube, die "wahre Auflösung" von Snapsort bedeutet die tatsächliche Pixelauflösung eines Bildes ohne solche duplizierten Pixel.

Obwohl es heute weniger verbreitet ist (da sehr billige, aber einigermaßen hochauflösende Sensoren leicht erhältlich sind), war es früher so, dass Low-End-Telefone und -Kameras einen Megapixel-Wert mit einem * auflisteten, und dass * "interpoliert" hieß - was bedeutet Die resultierenden Bilder wurden hochskaliert, genau wie Sie gesagt haben. Also, ja, das ist eine Sache. Das ist jedoch nicht das, was Snapsort in diesem Fall meint. (Siehe die anderen Antworten.)