Ist es möglich, mit der EOS 70D Dual Pixel AF eine Tiefenkarte zu erstellen?

Ich habe die 70D bestellt und während des Wartens hatte ich einen Gedanken über den Dual-Pixel-AF-Sensor.

Meine Frage, ob halb aus Neugier und halb aus dem Gefühl heraus, dass es nützlich sein könnte.

Ich denke, dass man mit den für den 70D AF verwendeten Techniken vielleicht eine Tiefenkarte des tatsächlichen Motivs erstellen und anhand der Objektivinformationen ungefähre Entfernungswerte verschiedenen Teilen des Bildes zuweisen könnte.

(Die Erstellung dieses Dings ist das, worüber ich spreche: http://blog.topazlabs.com/wp-content/uploads/2014/03/depth-map.png )

Meine Frage also, ist es möglich, mit der EOS 70D Dual Pixel AF eine Tiefenkarte zu erstellen? Wäre dies überhaupt mit einem Sensor vom Typ DP-AF und Objektivinformationen möglich?

(Ich gehe davon aus, dass die Antwort "Nein" lautet, denn obwohl es theoretisch möglich ist, wird die 70D die DP-AF-Informationen niemals weiterleiten.)

Antworten (2)

Möglich mit so einem Sensor? Ja. Ich habe in einem anderen Beitrag hier darüber nachgedacht, wie man es in Software einspeist, die eine geringe Schärfentiefe simuliert.

Jede kleine Reihe von Pixeln, die ein Bildmerkmal kreuzen, gelesen als zwei Arrays von geteilten Pixeln, liefert Phaseninformationen, die normalerweise verwendet werden, um einen sofortigen Fokusbefehl zu geben, um direkt auf die richtige Entfernung zu gehen.

Ein einzelnes (geteiltes) Pixel hat keine Tiefe. Eine kurze Zeile solcher Pixel wird bei jedem Split unterschiedlich verschoben. Sie brauchen also eine ausreichend lange Linie, um das festzustellen und zu erkennen, dass sie verschwommen ist, sodass Sie keine scharfen Kanten, sondern einen Fleck sehen.

Wenn Sie alle in einer Rohdatei speichern und auf einem Computer verarbeiten könnten, könnten Sie sie ähnlich wie beim Autofokus analysieren und verschiedene Punkte und verschiedene Tiefen erkennen. Erweitern Sie dann um diese Messwerte herum, um einen Bereich mit derselben Verschiebung oder einer sich nahtlos ändernden Verschiebung zu finden.

Verwenden Sie dies in Verbindung mit der konzentrativen Bilderkennung, um die genauen Kanten von Dingen zu bestimmen.

In ein paar Jahren, wenn 70D und 7Dii als Schrott erscheinen, erwarte ich, dass Hacking- Sites veröffentlichen, wie man mit dem Sensorchip spielt, der aus einem alten Körper gezogen wird, mit einem Edison, π oder Arduino oder so etwas, es ausliest und befehligt. Momentan zerlege ich meine nicht.

Nahezu jedes Bild erfasst Tiefeninformationen. Schließlich können Sie Vorder- und Hintergrund bestimmen, wie weit Dinge entfernt sind usw. Beim Betrachten eines 2D-Bildes erhalten Sie eine Tiefenwahrnehmung. Dies kann durch optische Täuschungen getäuscht werden.

Es gibt Algorithmen, die das Gleiche können: das 3D-Modell aus einem einzigen 2D-Bild berechnen: http://make3d.cs.cornell.edu/ Hier ein bisschen Hintergrund: http://cs.stanford.edu/people /asaxena/rekonstruktion3d/

Ich weiß nicht, ob dies durch die zusätzlichen Informationen des DPAF verbessert werden könnte. Zusätzliche Daten schaden nie. Wenn es zu einer Belastung wird, kann man immer Teile davon ignorieren, um die Menge zu reduzieren. Ihre beste Chance, Zugriff auf diese Daten zu erhalten, ist wahrscheinlich die Verwendung von Magic Lantern. Ich weiß nicht, inwieweit sie darauf Zugriff haben, aber wenn jemand Zugriff hat, dann sie.