Wie kann die minimale Vergrößerung geschätzt werden, um Merkmale einer bestimmten Größe zu erfassen?

Wie lässt sich die minimale Vergrößerung (maximaler Objektabstand) richtig schätzen, bei der Merkmale einer bestimmten Größe aufgelöst werden?

Ich denke, dass Sie bei einem System, das eine bestimmte Anzahl von Linienpaaren / mm auflösen kann, in der Lage sein sollten, den Punkt abzuschätzen, an dem bestimmte Merkmale nicht mehr aufgelöst werden, indem Sie Folgendes tun:

1 / (lp/mm) = minimale Strukturbreite am Sensor

minimale Merkmalsbreite am Sensor / gewünschte Objektraum-Merkmalsbreite = minimale Vergrößerung

Als Beispiel für die Auflösung einzelner Haare auf einer Canon 7D, bei der der Sensor der limitierende Faktor ist:

1/(104 lp/mm) = 9,62 um am Sensor

9,62 um / 100 um (durchschnittliches menschliches Haar) = 0,096-fache Mindestvergrößerung

Wenn wir dies auf die ungefähre Sensorgröße (22,5 mm x 15 mm) anwenden, können wir feststellen, dass wir nicht erwarten sollten, einzelne Haare in einem Bild mit einem Sichtfeld im Objektraum zu sehen, das größer als etwa 235 mm x 156 mm ist.

Übersehe ich etwas? Oder ist meine Überlegung generell richtig?

Antworten (3)

Ich glaube, ich verstehe, was Sie fragen - wir können die Auflösung der Sensorgrenzen annehmen, und wenn wir die Vergrößerung des Systems kennen, können wir diese mit einer Auflösungsgrenze des Objektraums in Beziehung setzen.

Ihr Ansatz geht in die richtige Richtung, aber Sie sollten das Rayleigh-Kriterium als Definition der Auflösung auf dem Sensor verwenden (dies setzt die Beugungsgrenze voraus. Die Aberrationsgrenze wäre ohne tatsächliche Objektivdaten viel schwieriger zu berechnen). Dies ist proportional zu F / #, sodass die Brennweite, wie in einer der anderen Antworten erwähnt, hier eine Rolle spielt. Wir stellen es so ein, dass der Radius der Luftscheibedie aus der Beugung resultiert, bedeckt 2 Pixel. Wenn Sie die Vergrößerung kennen, können Sie diese mit Objektrauminformationen in Beziehung setzen, oder Sie können h = f * tan (HFOV) verwenden, wobei h die Höhe auf dem Detektor (2 Pixel), f die Brennweite und HFOV das halbe Feld von ist Aussicht. Dadurch erhalten Sie eine Winkelgrenze, an die sich zwei Punkte annähern und die noch aufgelöst werden kann. Aus diesem Blickwinkel können Sie die Trennung finden, wenn Sie die Entfernung kennen, und umgekehrt.

Bitte lassen Sie mich wissen, wenn Sie Fragen haben, dies kann ein schwieriges Thema sein.

Richard, IMHO verwechselst du ein bisschen was. Sie benötigen eine Vergrößerung des Objektivs. Und die meisten Kit-Objektive haben eine Vergrößerung von 1:5, was 0,2 entspricht, und es reicht aus, um die Haare auf dem Bild zu sehen. Ich finde hier in einer alten Antwort, in der StackExchange-Formel können Sie berechnen, wie groß ein reales Objekt im Sinne von Pixeln sein wird: Wie berechne ich die Entfernung eines Objekts in einem Foto?

Danke, ich schätze die Antwort, vielleicht ist meine Frage schlecht formuliert. Ich möchte wissen, wie weit (Vergrößerung) Sie ungefähr von einem Objekt entfernt sein können, bevor Merkmale einer bestimmten Größe für ein bestimmtes System (Kamera + Objektiv) nicht mehr auflösbar sind. Ich versuche, dies unabhängig von der Brennweite zu tun, daher verwende ich die tatsächliche Vergrößerung. Die verknüpfte Frage sieht jedoch vielversprechend aus.
Richard, ich fürchte, Sie können diese Berechnung nicht ohne Brennweite durchführen. Denken Sie an das nächste Beispiel: Zoomobjektiv, fester Abstand zum Objekt mit kurzer FL, Sie erhalten einige Elemente / Details des Objekts, die vom Sensor nicht registriert werden, da die Größe dieser Elemente auf dem Sensor unter einem Pixel liegt (oder nur als ein Pixel registriert wird). Gleiches Objektiv und gleiche Entfernung, aber herauszoomen, Sie "sehen" nur einen Teil des Objekts, aber diese Elemente/Details werden viel größer auf den Sensor projiziert, sodass sie auf dem Bild sichtbar sind. Setzen Sie in der obigen Formel einfach die Objektgröße (Pixel) auf 0,9 und berechnen Sie die Entfernung
PS Entschuldigung für mein Englisch, aber das ist nicht meine Muttersprache :)
Kein Problem mit dem Englisch. Das Beispiel des Zoomobjektivs ändert die Vergrößerung, wenn Sie die Brennweite ändern. Offensichtlich kann es nie ganz unabhängig von der Brennweite sein, da die Vergrößerung (f / df) ist. Ich vermute, ich muss nur etwas Algebra mit den Gleichungen in der verknüpften Frage machen.

Es scheint, dass Sie nach der Auflösung eines bestimmten optischen Systems suchen . Wenn dies zutrifft, ist eine solche Schätzung ziemlich komplex, da sie sowohl die Auflösung des Objektivs als auch die Auflösung des Sensors betrifft. Diese Berechnungen berücksichtigen im Wesentlichen die Linsenqualität und die Blende, die Größe und Dichte des Sensors und mehr. Außerdem muss man, um genau zu sein, atmosphärische und andere Faktoren berücksichtigen, aber diese könnten eliminiert werden, wenn garantiert wird, dass die Tests unter genau den gleichen Bedingungen durchgeführt werden.

Da dies eine komplexe Situation ist, gibt es seit den 1950er Jahren einen praktischen Ansatz zur Bestimmung der Auflösung eines optischen Systems. Werfen Sie einen Blick auf die Auflösungstesttabelle der USAF von 1951 . Es besteht aus einem Testmuster, das sorgfältig entworfen wurde, um eine gute Schätzung der Auflösung eines optischen Systems zu liefern. Man muss dieses Muster mit dem vorhandenen optischen System digitalisieren (in unserem Fall fotografieren), beachten, in welchen Fällen das Muster klar und unterscheidbar bleibt, und dann mit einer bestimmten Formel rechnen. Möglicherweise kennen (oder finden) Sie auch andere, modernere Muster, die auf ähnlichen Vorstellungen basieren. Typische professionelle Scansysteme werden mit einer Vielzahl solcher Testmuster geliefert.

Sobald Sie in der Lage sind, eine Schätzung der Auflösung Ihres Systems zu erhalten (unter Verwendung eines der obigen Diagramme), können Sie Ihren eigenen Testaufbau entwerfen, dh Entfernungen, Kameras, Lichter, Bedingungen usw. festlegen und mit dem Experimentieren und Vergleichen beginnen. .