Verzerrt das Weitwinkeläquivalent im Crop-Sensor das Bild?

Ich sehe viele Beiträge sowohl in diesem Forum als auch anderswo, in denen die Verwendung eines Weitwinkels bei einem Erntesensor diskutiert wird. Zum Beispiel diskutieren sie, wie ein 14-mm-Objektiv 14 mm auf einem 35-mm-Film oder Vollformat ist, aber mit einem 1,6-fachen Crop-Sensor sind es effektive 28 mm. Meine Frage ist, ist ein 14 mm auf einem Crop-Sensor das gleiche Bild wie ein 28 mm auf einem Vollbild. Oder enthält "effektiv" eine andere Konnotation. Ich habe gelesen, dass ein 14-mm-Objektiv bei einem Vollbild Verzerrungen und eine gewisse Vignette erzeugen kann, also scheinen die Leute zu sagen, dass die Verwendung bei einem Crop einige dieser Kantenprobleme beseitigt. Meine Verwirrung ist, wie das Objektiv das zusätzliche Bild tatsächlich aufnimmt. Als ich den Kenrockwells-Blog las, erfuhr ich, dass der Weitwinkel die Linien gerade hält, während das Fischauge die Linien tatsächlich verzerrt.

Mit diesem Verständnis bin ich immer noch etwas verwirrt, wie ein Objektiv, das gekrümmt ist, um einen größeren Blickwinkel zu erhalten, dasselbe ist wie eine beschnittene Version eines weniger gekrümmten Objektivs. Oder bezieht sich "effektiv" nur auf die seitlichen Objekte, nicht aber auf die Verzerrung des Bildes. Oder ist es, falls es anders ist, so klein, dass es für die Fotografie keine Rolle spielt? Eine technische Beschreibung wäre wünschenswert, solange ein grundlegendes Verständnis der Situation.

Vielen Dank!

Bearbeiten: Um nach den Kommentaren klarer zu sein,

Ich spreche speziell von der am Ende resultierenden 2D-Projektion aus dem 3D-Raum. Ich habe beide vorherigen Antworten gelesen. der erste ist näher an dem, worüber ich spreche. Allerdings ist es für mich immer noch verwirrend. Ich habe Erfahrung mit 3D-Modellierung und Projektionsmatrizen, was mich damit verwirren könnte. Aber zum Beispiel verstehe ich nicht, dass die Bilder mit einem 50-mm-Objektiv gezeichnet werden, ausgehend vom Sensor, daher zeigt es ein anderes Sichtfeld für Crop und Full Frame. Wenn die Linse die gleiche ist, nimmt sie die gleiche Menge an Informationen aus der Welt auf, die einen Strahl ab einem bestimmten Grad von der letzten Linse in einen kleineren Raum projiziert, es gibt keine Projektion vom Sensor, also zieht die Linie von der Sensor macht für mich keinen Sinn. Der Abstand des Sensors zur Rückseite des Objektivs muss einen gewissen Einfluss auf das projizierte Licht haben, ist aber in den Bildern nicht dargestellt. Außerdem heißt es in dieser ersten Antwort, dass das Zuschneiden dasselbe ist wie das Zoomen, aber nach dem, was ich unter der Funktionsweise der Perspektive verstehe, ist es anders, da ein Weitwinkel Linien anders projiziert als ein kleiner FOV auf die gleiche Größe, also das Zuschneiden Mitte eines Weitwinkels und Zoomen in etwas ist sehr unterschiedlich. Dies lässt sich leicht in einer OpenGL-Anwendung mit unterschiedlicher FOV-Projektionsmatrix nachbilden. Ich stelle mir vor, dass die Leute dies auch im Malunterricht lernen. Ein Fischauge wäre ein gutes Beispiel, denn wenn Zuschneiden dasselbe wie Zoomen wäre, würde ein Fischaugenobjektiv die Mitte genau wie ein normales Objektiv beibehalten und dann würde ein nach außen gewichteter Farbverlauf schnell eine verzerrte Perspektive erzeugen, aber von dem, was ich sehe , es ist sogar. Für mich sehen diese Bilder einfach so aus, als ob sie in Bezug auf orthogonale Projektionen mit Vollbild verglichen werden.

Sie mischen mehrere Fragen zu einer, so dass es schwierig wird, das zu verstehen, was Sie nicht verstehen. Bitte lesen Sie zuerst diese vorherige Antwort , um zu verstehen, was ein Crop-Sensor mit einem Objektiv "macht". Hier ist eine weitere Antwort , die auf die Unterschiede zwischen Vollbild- und Crop-Sensoren eingeht. Wenn danach etwas nicht klar ist, bearbeiten Sie bitte Ihre Frage entsprechend. Versuchen Sie, eine Frage nach der anderen zu stellen.
Es hört sich so an, als hätten Sie einiges über Brennweite, Verzerrung usw. gelesen, wissen aber noch nicht genau, wie das alles zusammenhängt. Sie scheinen mindestens drei verschiedene Fragen zum Sichtfeld verschiedener Sensoren, zu den Auswirkungen der Verwendung eines Normal- / Vollbildobjektivs auf einen Crop-Sensor und zur Linsenverzerrung im Vergleich zur perspektivischen Verzerrung zu stellen. Versuchen Sie, all das Zeug herauszustreichen, das Sie gelesen haben, und fragen Sie einfach in einfachen Worten, was Sie nicht verstehen. In diesem Fall wird es einfacher, Ihre Frage zu beantworten, wenn Sie weniger Informationen angeben.
Ich habe meine Frage bearbeitet. Um meine Frage zu ergänzen, bin ich mir ziemlich sicher, dass ich nicht verstehe, warum die erste Antwort, auf die Bart mich hingewiesen hat, als richtig angesehen wird. Es beginnt mit der Prämisse, ein dreidimensionales Problem auf 2D zu reduzieren, was nicht der Realität entspricht, da die Welt 3D ist, was eine Rolle zu spielen scheint, wenn Sie über perspektivische Projektionen und nicht über orthogonale Projektionen sprechen
Ich denke, es ist wichtig, den ersten Link zu verstehen, bevor Sie zu anderen Fragen übergehen können. Sicher, die Welt ist 3D, ein Foto jedoch nicht. In der Fotografie denke ich also, dass es sicher ist, 3D-Probleme auf 2D zu reduzieren. Bitte versuchen Sie, diesen ersten Link zu verstehen, bearbeiten Sie Ihre Frage und fügen Sie einige Formatierungen hinzu, damit Ihre Frage gelesen werden kann. Auf dieser Seite ist es nicht notwendig, eine Bearbeitung nach dem Original hinzuzufügen, Sie können einfach die ursprüngliche Frage ändern.
Siehe auch photo.stackexchange.com/q/11338/15871 Angenommen, der von einem Objektiv geworfene Bildkreis ist größer als der Sensor, auf den es ihn wirft, bestimmt die Größe des Sensors, welches Sichtfeld vom Sensor erfasst wird. Der kleinere Sensor erfasst nur das Zentrum des Bildkreises, der größere Sensor mehr davon.

Antworten (2)

Hier ist die kurze Antwort: Ein Weitwinkelobjektiv auf einem Crop-Sensor verzerrt das Bild genau so, wie es in der Bildmitte auf einem Vollformatsensor der Fall ist . Dies bedeutet wiederum, dass die Verwendung eines Weitwinkelobjektivs (kleine Brennweite) auf einem Crop-Sensor die gleiche perspektivische Verzerrung ergibt wie die Verwendung eines schmaleren Objektivs (größere Brennweite) auf einem Vollformatsensor, wobei die Vergrößerung der Brennweite direkt entsprechend ist die Reduzierung der Rahmengröße.

Aber du denkst nicht, dass das richtig ist, also lass uns in die Tiefe gehen. :)

Ich denke, dies wird durch die vorhandenen Antworten gut abgedeckt, aber ich denke, Sie haben einige grundlegende Missverständnisse, die zu groß sind, um sie in den Kommentaren zu behandeln, also werde ich es hier versuchen. Hinweis für andere Leser: Wenn Sie in Bezug auf dieses Thema verwirrt sind, aber nicht unbedingt genau den gleichen Denkprozess haben, den diese Frage durchläuft, empfehle ich wirklich, mit einem der Links zu beginnen, die ich unten gebe (oder die in Kommentaren zum Frage oben). Aber wenn Sie das Gefühl haben, dass Sie durch genau diese Dinge verwirrt sind, lesen Sie weiter.

Erstens: Verwandelt meine Crop-Sensor-Kamera meine Objektive tatsächlich in eine längere Brennweite? ist ein guter Anfang. Ich weiß, Sie glauben es noch nicht, aber gehen Sie davon aus, dass meine Antwort richtig ist , und dann werden wir herausfinden, warum .

Betrachten wir als Nächstes die Weitwinkelverzerrung und ihre Ursachen. Lesen Sie die Frage Was bedeutet es wirklich, dass Teleobjektive Szenen "abflachen"? und besonders die schöne Teekessel-Animation aus Wikipedia:

aus wikipedia

Dies ist „Weitwinkelverzerrung“ – buchstäblich nur eine Frage der Perspektive. Verpassen Sie nicht, dass sich die Kamera in diesem Beispiel zurückbewegt, um den Bildausschnitt beizubehalten.

Aber , Objektive zeigen oft andere Arten von Verzerrungen. Dies ist ein unabhängiges Problem aufgrund der Konstruktion des Objektivs, bei dem das projizierte Bild nicht das geradlinige Ideal ist. Siehe Was sind tonnen- und kissenförmige Verzeichnung und wie werden sie korrigiert? Dies ist häufig bei Weitwinkelobjektiven besonders ausgeprägt, da Weitwinkelobjektive physikalisch schwer zu konstruieren sind. Das ist einer der Gründe, warum Fischaugenobjektive existieren: Sie geben im Grunde das Ideal einer geradlinigen Projektion auf und verwenden andere Projektionen mit Namen wie "äquisolider Winkel". Aber das Wichtigste ist, dass dies anders ist als "Weitwinkelverzerrung". Das Zentrum dieser Projektion könnte tatsächlich natürlicher aussehen als die Ränder (sieheWarum gibt mein Fisheye-Adapter bei meiner APS-C-DSLR keine Fisheye-Verzerrung? ), aber insgesamt ist es ein Ablenkungsmanöver.

Also, jetzt ist es an der Zeit, sich mit dem Thema „Blickwinkel“ in der Fotografie zu befassen. . Ich sehe, dass Sie besorgt sind, dass das 2D-Modell, das ich zeige, nicht die 3D-Realität darstellt. Das ist eine berechtigte Sorge, aber der entscheidende Punkt ist, dass dies keine Zuordnung von 3D zu 2D ist (wie es ein Foto oder der obere Teil der Animation oben ist). Es nimmt einfach die Draufsicht ein, wie im zweiten Teil der Animation. Dies entspricht direkt der 3D-Situation. (Wenn das für Sie keinen Sinn ergibt, sagen Sie mir warum nicht und wir werden es klären.)

Ein weiteres Problem, das Sie bei der Antwort auf den Blickwinkel haben, ist die Art und Weise, wie ich den Abstand von der Rückseite des Objektivs zum Sensor ignoriert habe. Moderne Kameraobjektive sind kompliziert und bestehen aus vielen verschiedenen Linsenelementen, aber sie reduzieren sich mathematisch auf das Einzelpunktmodell (zumindest für diese Frage). Mehr unter Was genau ist Brennweite, wenn es auch Auflagemaß gibt? und Was ist der Bezugspunkt, von dem aus die Brennweite eines Objektivs berechnet wird?

Sagst du auch

Wenn die Linse die gleiche ist, nimmt sie die gleiche Menge an Informationen aus der Welt auf, die einen Strahl ab einem bestimmten Grad von der letzten Linse in einen kleineren Raum projiziert, es gibt keine Projektion vom Sensor, also zieht die Linie von der Sensor macht für mich keinen Sinn

Ich habe versucht, dies in der Antwort auf den Blickwinkel abzudecken, und ich bin mir nicht sicher, was nicht klar war, also werde ich es wiederholen. Jedes Objektiv hat einen Bildkreis, der größer ist als der Sensor (oder genauer gesagt solche, die an den Ecken und Kanten kein Schwarz zeigen – siehe Wie erzeugt ein kreisförmiges Objektiv rechteckige Aufnahmen? ). Dieser Bildkreis ist die "Menge an Informationen", die das Objektiv von der Welt aufnimmt. Die Kamera "nimmt" jedoch nur den Teil auf, der tatsächlich auf den Sensor trifft, sodass das Sichtfeld Ihres tatsächlichen Fotos nur diesen Teil berücksichtigt. Deshalb ziehen wir den Kegel vom Rand her. Wenn es hilft, können Sie auch einige der anderen Strahlen zeichnen und überlegen, was mit ihnen passiert. (Bei diesem Modell bleiben sie gerade Linien, wenn sie durch das Objektiv gehen.)

Sie sagen auch, meine Verwirrung sei, wie das Objektiv das zusätzliche Bild tatsächlich aufnimmt . Nun, das ist so: Das Objektiv nimmt immer die gleiche Menge auf und projiziert die gleiche Menge, aber wir nehmen davon ein größeres oder kleineres Rechteck auf.

Schließlich könnten Sie sicherlich eine Demo davon in OpenGL einrichten, die genau das zeigt, was ich sage. Wenn Sie etwas anderes zeigen, liegt das daran, dass Ihr Modell etwas ändert, was nicht dem entspricht, was passiert, wenn wir die Brennweite oder Sensorgröße in einer Kamera ändern. Finden Sie heraus, was das ist, und korrigieren Sie es.


Oh, und ein Nachtrag: Ihre anfängliche Beispielmathematik hat einen Fehler. Ein 14-mm-Objektiv auf einem 1,6-fach-Sensor hat ein Sichtfeld, das einem 22,4-mm-Objektiv (normalerweise nur abgerundet, weil die tatsächlichen Brennweiten nicht so genau sind) auf einer Vollformatsensorkamera entspricht. (Das liegt daran, dass 14 mm × 1,6 = 22,4 mm, um es auszudrücken.) Das bedeutet, dass Sie bei demselben Bildausschnitt mit einem 14-mm-Objektiv bei APS-C oder einem 22-mm-Objektiv bei Vollformat an derselben Stelle stehen, also die Perspektive ist das gleiche . Wenn Sie alternativ an beiden Kameras ein 14-mm-Objektiv haben, können Sie an derselben Stelle stehen und später das Vollbildergebnis um das 1,6-fache (linear) zuschneiden und effektiv dasselbe Foto erhalten .

Das von Ihnen angegebene 14 mm → 28 mm-Beispiel würde natürlich zu einem 2 × Crop-Sensor wie Micro Four Thirds passen.

Das war großartig! Das perspektivische Bild, das Sie zusammen mit der Würfelreferenz zeigen, war genau das, worüber ich verwirrt war. Ich verstehe Ihr 2D-Beispiel auch als Diagramm und nicht als Mapping, was sinnvoll ist. Die größte Verwirrung, die ich von 3D auf dem Computer hatte, war, dass Sie die Kamera näher oder weiter vom Objekt entfernen müssen, um die gleichen Informationen auf dem Bildschirm mit einem anderen FOV zu erhalten, was mich verwirrte worüber die Perspektive wechselt. Das hat mich in Kombination mit der Tatsache, dass die Außenwinkel das Bild im Gegensatz zum Fischauge stärker verzerren, bei der Sensorposition verwirrt.
und mit schief meine ich, dass die Objekte weiter außerhalb der Seite des Sichtfelds "eingezogen" werden, damit sie länger aussehen
Für alle neuen Leute, wie mich, ist viel Verwirrung für mich von der Terminologie. Wie das Beispiel, das ich gegeben habe, 14 = 28, ist, weil ich online jemanden gefunden habe, der das gesagt hat (jetzt nehme ich an, dass es das am besten passende Objektiv gefunden hat). Am verwirrendsten ist die Verwendung von 1,6x, was für mich verwirrend ist, da es nicht das 1,6-fache des Vollbildsensors ist, sondern eine Unterteilung dessen, was der volle 35-mm-Sensor ist.
@ user1938107 Ja, es gibt eine Menge verwirrender Terminologie und viel verwirrendes Geschwätz darüber online. Ich verstehe, was Sie darüber sagen, dass es verwirrend ist, 1,6 × anstelle von 0,625 × zu verwenden, aber das liegt daran, dass wir normalerweise Objektive verwenden, die für Vollbildkameras mit Crop-Sensor entwickelt wurden, und nur sehr selten andersherum vorgehen.

Die Perspektive wird durch eine Sache und nur eine Sache bestimmt: Subjektdistanz . Zeitraum.

Wenn Sie ein Bild mit einem geradlinigen Weitwinkelobjektiv wie 17 mm aufnehmen, das bei einer Vollformat-/35-mm-Kamera einen diagonalen Blickwinkel von 104 ° ergibt, und das resultierende Bild so zuschneiden, dass nur die Mitte 3,08333 ° sichtbar ist, würden Sie dies tun genau die gleiche Perspektive haben, als ob Sie das Foto mit einem 800-mm-Objektiv aufgenommen hätten, das einen diagonalen Blickwinkel von 3,08333° ergibt.

Warum verwenden wir nicht alle einfach Weitwinkelobjektive für jede Aufnahme, die wir machen, und beschneiden dann das Bild, um es auf die Größe des Bildes zu „vergrößern“, die wir verwenden möchten? Hauptsächlich Pixeldichte (oder die Größe der Körner in einer Filmemulsion). Wenn wir im obigen Beispiel die sehr hochauflösende 36-MP-D800 verwenden, würden wir zu dem Zeitpunkt, an dem wir alle außer der Mitte des mit einem 17-mm-Objektiv aufgenommenen Bildes beschnitten hätten, um einen Blickwinkel von 800 mm zu erhalten, nur die Mitte von 0,01625 MP verwenden. Das heißt, wir würden die mittleren 156 x 104 Pixel verwenden! Wir würden nur 1/2214 der Oberfläche des Sensors verwenden!

Ich denke, der Bereich der Verwirrung liegt darin, zu verstehen, wie sich ein von einem geradlinigen Objektiv projiziertes Bild von einem von einem Fischaugenobjektiv projizierten Bild unterscheidet, selbst wenn beide die gleiche Brennweite haben. Das Fischaugenobjektiv versucht nicht, die geometrische Verzerrung zu korrigieren, die geradlinige Objektive zu korrigieren versuchen (und in den meisten Fällen weitgehend erfolgreich sind).

Ich habe nicht abgelehnt, aber ich habe eine Frage. Selbst wenn der Sensor theoretisch eine perfekte Pixeldichte hätte, ist das Objektiv selbst in der realen Welt nicht ein limitierender Faktor?
@mattdm Natürlich wäre die Objektivauflösung irgendwann ein begrenzender Faktor, aber in den meisten aktuellen Szenarien der realen Welt kommt der Sensor immer noch zuerst ans Ziel. Und die gleichen Gesetze der Physik, die Vollbildsensoren einen Vorteil in Bezug auf die Lichtsammlung verschaffen, würden auch bei einem so starken Zuschneiden gelten. Dies war auch in Bezug auf Filmkörnung und Variationen in der "Ebenheit" des Films in der Zeit vor dem digitalen Film der Fall. Da diese Frage jedoch eher theoretisch als praktisch zu sein scheint, bleibt der Punkt, dass die Subjektdistanz die Perspektive bestimmt.
das war wirklich das fehlende Glied in dem, was mein Missverständnis war
Gibt es einen Grund, warum die Fischaugenlinsen nahe kommen oder sich sogar im Bereich von 8 bis 10 mm überlappen können, aber ich sehe nicht viele, die darüber diskutieren. Es ist diese Verzerrung, die für mich absolut sinnvoll ist, und ich wurde mit Entfernung und FOV mit Winkel außerhalb der Mitte verwechselt
Sie können ein praktisches Fisheye-Objektiv sogar länger als 8-10 mm machen. Canon stellt sowohl ein 14-mm-Fisheye als auch ein 14-mm-Rectilinear-Prime-Objektiv her. Sie stellen auch ein 8-15 mm Fischaugen-Zoomobjektiv und ein 11-24 mm geradliniges Zoomobjektiv her. All dies gilt für Sensoren in Vollbildgröße. Sie stellen auch ein paar geradlinige Zoomobjektive für APS-C-Sensoren her, die am breiten Ende 10 mm groß sind.