Warum wurde dieses Porträt nicht mit f/29 scharf aufgenommen?

Ich bin verwirrt, warum dieses Bild nicht scharf ist. Dies ist eine Porträtaufnahme bei F/29 ISO100 1/250 mit einem 17-85-mm-Objektiv, das auf 38 mm fokussiert ist. Der Objektabstand betrug 1,2 m. Meine DOF-App sagt mir, dass mein DOF ~ 82,98 cm oder ungefähr 1 m betragen sollte.

Ich bin verwirrt, warum dieses Bild nicht so scharf ist, wie es sein sollte. Für diesen Screenshot habe ich es auf 200 % gezoomt. Ist es so viel Unschärfe bei 200% normal?

BEARBEITEN: Einige Leute haben Fragen zum DOF in dieser Aufnahme. Hier sind einige Informationen, die von jedem Online-DOF-Rechner abgerufen werden können. Meine Schätzung von 82,8 cm stammte von einer App und 1,2 Mio. stammten aus den EXIF-Informationen. Mit diesem Online-Tool wäre der DOF bei F28:

 Subject distance   1.2 m

 **Depth of field** 
 Near limit     0.84 m
 Far limit      2.13 m
 Total          1.29 m

 In front of subject        0.36 m  (28%)
 Behind subject             0.93 m  (72%)

 Hyperfocal distance         2.7 m
 Circle of confusion       0.019 mm

Das ist auch richtig, denn so weit war ich eigentlich von der Kamera entfernt - 1,2M. Damit diese Aufnahme unscharf ist, müsste ich also etwa einen halben Meter von der Kamera entfernt sein, woran ich mich nicht erinnere. Möglicherweise ist die auf diesem Foto beobachtete Unschärfe nicht darauf zurückzuführen, dass das Motiv unscharf ist.

Hochformat F/29 ISO100 1/250

Beugung spielt bei dieser Blende eine Rolle
Definitiv verwandt, wenn nicht sogar ein Duplikat: Was ist eine „Beugungsgrenze“? .
Wurde das Objektiv auf 38 mm oder 38 cm fokussiert? m scheint unwahrscheinlich.
Die Brennweite war wie gesagt 38mm. Der Objektabstand betrug 1,2 m
Nirgendwo in Ihrer Beschreibung Ihrer Einstellungen haben Sie angegeben, auf welche Entfernung Ihr Objektiv fokussiert war. Beachten Sie, dass dies nichts mit der Brennweite zu tun hat, auf die Ihr Zoomobjektiv eingestellt war. Nach allem, was wir wissen, haben Sie das Objektiv möglicherweise auf unendlich eingestellt. OK, vielleicht nicht unendlich, aber einfach fehlender Fokus ist ein wahrscheinlicher Kandidat.
"Fokussiert auf" und "Brennweite" sind zwei verschiedene Konzepte. Mehr hier .
Es ist auch wichtig, die Größe des verwendeten Mediums (oder Sensors) zu beachten. Es ist eine Sache, auf einem APS-C-Sensor bei f/29 zu sein, eine andere auf einem Vollbildsensor und eine ganz andere, eine Großformatkamera zu verwenden (so unwahrscheinlich das für diese Frage ist).
Bitte bearbeiten Sie keine Antworten in der Frage selbst. (Siehe meta.photo.stackexchange.com/questions/1601/… ). Es genügt, eine Antwort mit dem Häkchen auszuwählen. Wenn keine Antwort das abdeckt, was Sie gelernt haben, können Sie gerne Ihre eigene hinzufügen und dann akzeptieren .
Wenn Sie punktgenau fokussiert haben, spielt die Blende für diesen Punkt keine Rolle. aber wo war der Fokus dabei? MF oder AF? ein Fokusstapel würde dies besser zeigen.
Ich schlage vor, Sie führen ein paar Experimente durch und ändern NUR die Blende; Duplizieren Sie diese Aufnahme und ändern Sie dann die Blende auf f/16. Verwenden Sie für beide den manuellen Fokus, damit sich der Fokuspunkt definitiv nicht ändert. Das zeigt Ihnen, wie dramatisch der Beugungseffekt für dieses Objektiv / diesen Sensor ist. Wenn ich nichts übersehe, bedeutet das Zoomen auf * 200 * %, dass Ihr Bild von der Software interpoliert wird, wodurch die Schärfe immer verringert wird. Pixel-Peep nie über 100% :)
"~ 82,98 cm oder etwa 1 m". Nein, 82,98 cm sind etwa 0,8298 m. Ihnen fehlen etwa 17 % dieser Distanz. Vielleicht liegt das innerhalb der Toleranz der Kamera, aber ich persönlich würde die beiden Werte nicht als nah ansehen.
@corsiKa Nein, Abstand vom Motiv 1,2 m; Schärfentiefe: Nahgrenze: 0,84 m; Ferngrenze: 2,13 m; Gesamt: 1,29 m Vor dem Subjekt: 0,36 m (28 %) Hinter dem Subjekt: 0,93 m (72 %) Hyperfokale Distanz: 2,7 m Zerstreuungskreis: 0,019 mm

Antworten (3)

Wie in den anderen Antworten erwähnt, hat die Beugung zu Unschärfe geführt. Um dies auf die Probe zu stellen, kann man versuchen, das Bild durch Dekonvolution zu schärfen, indem man die Punktbildfunktion verwendet, die F/29 entspricht. Für die Beugung haben wir (bis auf eine Gesamtnormierung)

P(s) = {J 1 [ π rs /( λF ) ] / [ π rs /( λF ) ] } 2

wobei J 1 die Bessel-Funktion erster Art der Ordnung 1 ist,
s der Abstand im Bild gemessen in Pixeln ist,
r die Größe eines Pixels ist (typischerweise etwa 4,2*10^(-6) Meter für Crop-Sensoren),
λ ist die Wellenlänge des Lichts und
F die Blendenzahl, in diesem Fall 29.

Dies gilt dann für monochromatisches Licht, um die Punktverteilungsfunktion für die Farbkanäle anzunähern, können wir über einen geeigneten Wellenlängenbereich mitteln. Außerdem sollte man P(s) über die Fläche des durch s spezifizierten Pixels integrieren.

Wenn wir auf diese Weise 3-Punkt-Spreizfunktionen für die 3 Farbkanäle kompilieren, können wir das Bild schärfen, indem wir es in einen linearen Farbraum transformieren und einen Dekonvolutionsalgorithmus anwenden und dann zurück in sRGB transformieren. Ich habe folgendes Ergebnis:

Geschärftes Bild

Das Gesicht wurde also deutlich geschärft, indem nur die Daten über die Blendenzahl und die Annahme über die Größe des Pixels verwendet wurden. Im dunklen Teil des Bildes sind Banding-Artefakte sichtbar, was auf die Posterisierung nach der Rücktransformation in sRGB zurückzuführen ist.

Wie gewünscht, werde ich einige weitere Details zu den verwendeten Programmen hinzufügen. Ich habe ImageJ und ImageMagick verwendet, ich habe auch Mathematica verwendet, um die Punktverteilungsfunktion zu berechnen, aber es kann auch in ImageJ durchgeführt werden. Ich beginne damit, zu erklären, wie ich die Dekonvolution mit ImageJ durchführe, wenn ich bereits die Punktverteilungsfunktion habe. Um eine Dekonvolution durchzuführen, müssen Sie ein Plugin für ImageJ installieren, ich habe dieses Plugin für diesen Fall verwendet, aber es sind auch andere Plugins verfügbar, z. B. das DeconvolutionLab - Plugin.

Zuerst müssen Sie in den linearen Farbraum konvertieren. Ich habe ImageMagick verwendet, um das unscharfe Bild (input.jpg) mit dem folgenden Befehl in den linearen Farbraum zu konvertieren:

convert input.jpg -colorspace RGB output.tif

Anschließend öffnen Sie mit ImageJ die Datei output.tif. Wählen Sie dann aus den Menüoptionen "Bild", dann "Farbe" und dann "Spit Channels". Wählen Sie dann aus dem Menü "Plugins" und dann "parallele iterative Dekonvolution" und dann 2d interaktive Dekonvolution".

Sie erhalten dann das Dekonvolutionsfenster, Sie wählen dann das Bild aus und "PSF" bedeutet die Punktverteilungsfunktion, dort wählen Sie die Bilddatei aus, die die Punktverteilungsfunktion enthält. Als Methode wähle ich „WPL“, das auf dem Wiener-Filter basiert, der normalerweise recht gut für Bilder mit geringem Rauschen funktioniert. Aktivieren Sie in den Optionen für WPL die Option "PSF normalisieren", und ändern Sie für den Tiefpassfilter den Wert auf 0,2, standardmäßig ist er 1, aber ein niedrigerer Wert ist besser für rauscharme Bilder (wenn Sie ihn größer wählen, erhalten ein weniger scharfes Bild). Die anderen Optionen, Grenze kann reflexiv gewählt werden, Größenänderung kann auf "nächste Potenz von 2" eingestellt werden, Ausgabe kann auf 32 Bit eingestellt werden, Genauigkeit kann auf doppelt eingestellt werden. Ich habe die Anzahl der maximalen Iterationen auf 15 festgelegt,

Anschließend führen Sie das Programm aus, indem Sie auf „deconvolve“ klicken. Als Ausgabe erhalten Sie dann eine 32-Bit-Bilddatei. Normalerweise sind die Pixelwerte denen im Originalbild ziemlich ähnlich, aber Sie können einige Pixel haben, die das Maximum für das Originalbildformat überschreiten. In diesem Fall haben wir also mit 8-Bit-Bildern begonnen, aber im entfalteten Bild können Sie Grauwerte haben, die 255 überschreiten, was dann dazu führt, dass das gesamte Bild zu dunkel wird. Dies muss behoben werden, indem diese Pixel auf 255 beschnitten werden, was Sie tun können, indem Sie im Menü "Verarbeiten" und dann "Math" und dann "Max" auswählen. Der Maximalwert wird dann verwendet, um die Grauwerte zu beschneiden, die diesen Wert überschreiten. Beachten Sie, dass dies mit dem Bild durchgeführt wird, auf das Sie zuletzt geklickt haben. Sie können auch sehen, welche Datei die "aktuelle Datei" ist, indem Sie "

Sobald Sie die 3 Farbkomponenten entfaltet haben, können Sie sie kombinieren, indem Sie im Menü "Bild", dann "Farbe" und dann "Kanäle zusammenführen" auswählen. Sie erhalten dann ein zusammengesetztes Bild, das Sie mit dem dortigen Befehl "In RGB stapeln" in 8-Bit-RGB konvertieren können.

Sie speichern dann dieses Bild, nennen wir es im.tif. Schließlich müssen Sie dies in sRGB konvertieren, das können Sie mit ImageMagick mit dem Befehl tun:

convert im.tif -set colorspace RGB -colorspace sRGB output.tif

Die verbleibende Frage ist dann, wie man die Point-Spread-Funktion erhält. In der Praxis hätten Sie, wenn Sie ein Bild wie das hier besprochene aufgenommen hätten, einfach ein Bild einer Punktquelle machen können, z. B. einen Stern bei F/29, und das als Ihre Punktbildfunktion verwenden können. Alternativ können Sie sich kontrastreiche Grenzen ansehen und die Punktverteilungsfunktion aus der Art und Weise extrahieren, wie sich die Grauwerte von einem Wert zum anderen über die Grenze hinweg ändern. Aber dann versuchen Sie, das Bild so gut wie möglich zu schärfen.

In diesem Fall bestand das Ziel darin, die Punktverteilungsfunktionen für den Farbkanal basierend auf dem zu kompilieren, was Sie für F / 29 erwarten würden, das Bild damit zu entfalten und zu sehen, ob das Ergebnis so gut genug verbessert aussieht. Ich habe Mathematica verwendet, um einige Berechnungen durchzuführen, und mit einem so fortschrittlichen Computeralgebraprogramm ist es ziemlich einfach, alle Arten von Manipulationen durchzuführen, einschließlich Mittelung über ein Wellenlängenintervall und Integration über Pixelbereiche, um die PSF realistischer zu machen.

Aber mit ImageJ können Sie auch ein neues Bild erstellen, das Sie als Punktverteilungsfunktion verwenden können. Wenn Sie auf "Datei" und dann auf "Neu" klicken, können Sie ein 32-Bit-Bild mit einer Größe von beispielsweise 64 x 64 erstellen, das mit Schwarz gefüllt ist. Anschließend können Sie eine Formel für die Grauwerte programmieren, indem Sie „Prozess“, dann „Mathe“ und dann „Makro“ auswählen. Um die Punktverteilungsfunktion für diesen Fall zu erhalten, der hier die Bessel-Funktion beinhaltet, können Sie die Tatsache nutzen, dass sie durch die ersten paar Terme der Reihenentwicklung gut beschrieben ist. Die von mir verlinkte MathWorld-Seite gibt Ihnen Erweiterungen dieser Reihe, sodass J 1 (x) 2 /x 2 mit x = π rs /( λF ) durch eine Funktion der Form A + B s 2 + C s 4 ersetzt werden kann. Diese Näherung wird ungültig, wenn s zu groß ist. Nun wissen wir, dass die PSF gegen Null tendiert, zB bei einem Abstand von etwa 5 oder 6 Pixeln kann sie auf Null gesetzt werden. Unter der Annahme, dass das Polynom bei diesen Werten immer noch klein ist, können Sie das Makro schreiben als:

if(d<7) v = A + B  * pow(d,2) +  B * pow(d,4)

Sie erstellen dann 3 Bilder für beispielsweise Lambda = 650 nm, 500 nm und 400 nm oder andere Werte, die Sie für geeignet halten, um die Beugung in den 3 Farbkanälen darzustellen. Sie können dann die Mittelung über einige verschiedene Wellenlängen durchführen, indem Sie Bilder für verschiedene Lambda erstellen und dann "Verarbeiten", dann "Bildrechner" auswählen und dort "Hinzufügen" auswählen. Sie können diesem Ergebnis dann ein weiteres Bild hinzufügen, und wenn Sie mit dem Hinzufügen fertig sind, können Sie dividieren, um den Durchschnitt zu erhalten, indem Sie "Verarbeiten", dann "Mathematik" und dann "Teilen" auswählen.

Das ist schon erstaunlich. Ich frage mich, wie lange es dauern wird, bis Kameras dies in ihr automatisches Korrekturarsenal eingebaut haben und so etwas wie selbstverständlich angewendet wird.
+10 (kann aber nicht wirklich +10 machen) für das Hinzufügen der Mathematik. Toll, dass du es ergänzt hast. Können Sie dafür irgendein Zitat nennen. Ich will das selbst ausprobieren. Je detaillierter Mathe, desto besser!
Das ist wirklich sehr erstaunlich. In welcher Software hast du das gemacht? Dies scheint für die Makrofotografie unglaublich nützlich zu sein.
@mattdm Die Dekonvolution erfordert einiges an Rechenleistung, aber dann können einige Algorithmen wie die Richardson-Lucy-Dekonvolution einfacher in die Hardware implementiert werden als andere. Außerdem könnte die Kamerasoftware, die zur Verarbeitung ihrer Rohdateien auf ihren Computern verwendet wird, eine Entfaltung enthalten, die speziell optimiert ist, um mit der tatsächlichen Unschärfe umzugehen, die durch Defokussierung und Beugung entsteht.
@CorruptedMyStack Ich werde der Antwort einige weitere Details hinzufügen. Sie sollten in der Lage sein, einen viel besseren Job zu machen, wenn Sie die Rohdatei haben. Sie können die Sensorgröße nachschlagen und daraus die Pixelgröße berechnen. Sie können die Berechnungen aber auch überspringen und die Punktverteilungsfunktion direkt messen, indem Sie Bilder von einem punktähnlichen Objekt aufnehmen und dann einfach die Punktverteilungsfunktion daraus extrahieren. Im Falle einer Beugung erfolgt die Entfaltung am besten mit den Rohdateien, im Gegensatz zu anderen Fällen haben Sie jetzt Farbsäume, die nicht korrigiert werden sollten, bevor die Entfaltung durchgeführt wird.
@Whelkaholism Ich habe das ImageJ - Programm und ein Plugin für dieses Programm verwendet, um die Dekonvolution durchzuführen. Die Point-Spread-Funktion habe ich mit Mathematica berechnet, es geht aber auch mit kostenloser Software. Ich werde versuchen, es in der Antwort genauer zu erklären.
@CountIblis Das sieht nach einer ziemlich beeindruckenden Software aus. Können Sie Ihrer Antwort die spezifischen Schritte hinzufügen, die Sie unternommen haben, um von dem Foto in der Frage zu dem in Ihrer Antwort zu gelangen, einschließlich des genauen Plugins, das Sie verwendet haben?
@CountIblis oder Kann jemand anderes die Gleichung in Latex formatieren, indem er die Antwort bearbeitet?
Augen glasig Danke, aber meine Mathematik ist bei weitem nicht gut genug, um dem zu folgen :) Wenn ich mehr Zeit hätte, wäre ich versucht, etwas zu schreiben, in das Sie einfach die Variablen und ein JPEG einfügen, aber leider wird das nicht passieren für eine Weile.

Sie haben die Beugungsgrenze überschritten . Lichtstrahlen, die durch ein kleines Loch gehen, divergieren und interferieren miteinander, und es entsteht ein Muster - eine Art Streifenbildung, bei der unterschiedliche Frequenzen / Platzierungen dazu führen können, dass sich einzelne Strahlen addieren oder einander negieren. Je kleiner die Öffnung wird, desto größer wird diese Abweichung/Störung. Dieses Muster wird Airy-Scheibe genannt. Wenn der Durchmesser der Spitze der Airy-Scheibe größer als die Größe eines Pixels wird und die Airy-Scheiben für jedes Pixel zu verschmelzen beginnen, erhalten Sie Weichheit – je höher also die Pixelzahl Ihres Sensors und je kleiner Ihr Sensor, desto eher Ich werde es sehen, wenn Sie anhalten.

Sie sind im Allgemeinen schärfer in einem "glücklichen Mittelweg". Wo der "glückliche Mittelweg" Ihrer Ausrüstung sein kann, ändert sich je nach Pixeldichte/-größe und Linsendesign. Mit Sensoren in APS-C-Größe, die Sie meiner Meinung nach aus der 17-85-Objektivreferenz verwenden, möchten Sie wahrscheinlich nicht über f/11 hinausgehen, ohne einen wirklich guten Grund und die Bereitschaft, etwas Schärfe aufzugeben. Theoretische Beugungsgrenzen werden wahrscheinlich im Bereich von f/5,6 bis f/8 liegen. Sie sollten auch herausfinden, wo der "Sweet Spot" Ihres Objektivs ist - viele Objektive funktionieren besser, wenn sie 1-2 Blenden von weit geöffnet abgeblendet werden. Beispielsweise liegt der „Sweet Spot“ des EF 50 mm f/1.8 II im Bereich f/4-5.6.

Ich würde auch sagen, die Beurteilung der Schärfe bei einer Vergrößerung von 200 % verlangt nur, dass alle Ihre Objektive wie Hundefleisch aussehen. Das ist keine realistische Vergrößerung in Bezug auf den Betrachtungsabstand, den Sie von einem typischen Druck haben würden, und es ist ein seltenes Objektiv, das solchen Tests standhält, selbst wenn es an seinem Sweet Spot verwendet wird. Stoppen Sie das Pixel-Peeping. Fangen Sie an, sich den Druck anzusehen.

Siehe auch: http://www.cambridgeincolour.com/tutorials/diffraction-photography.htm

Oder, wenn Sie beurteilen möchten, wie der Druck aussehen könnte, dann: Zoomen Sie das Bild so, dass es auf dem Bildschirm ungefähr so ​​groß erscheint wie auf dem Druck, und schauen Sie aus ungefähr der gleichen Entfernung auf den Bildschirm wie Sie es tun würden drucken. Das gibt Ihnen eine viel bessere Vorstellung davon, wie das Endergebnis aussehen wird, auch wenn das keine perfekte Methode ist. @CorruptedMyStack

Wegen Beugung. f/29 ist viel zu viel für Sie, um ein scharfes Bild zu erwarten. Versuchen Sie, dasselbe mit f/8 zu fotografieren, und Sie werden den Unterschied sehen.