Ich sehe viele Beiträge sowohl in diesem Forum als auch anderswo, in denen die Verwendung eines Weitwinkels bei einem Erntesensor diskutiert wird. Zum Beispiel diskutieren sie, wie ein 14-mm-Objektiv 14 mm auf einem 35-mm-Film oder Vollformat ist, aber mit einem 1,6-fachen Crop-Sensor sind es effektive 28 mm. Meine Frage ist, ist ein 14 mm auf einem Crop-Sensor das gleiche Bild wie ein 28 mm auf einem Vollbild. Oder enthält "effektiv" eine andere Konnotation. Ich habe gelesen, dass ein 14-mm-Objektiv bei einem Vollbild Verzerrungen und eine gewisse Vignette erzeugen kann, also scheinen die Leute zu sagen, dass die Verwendung bei einem Crop einige dieser Kantenprobleme beseitigt. Meine Verwirrung ist, wie das Objektiv das zusätzliche Bild tatsächlich aufnimmt. Als ich den Kenrockwells-Blog las, erfuhr ich, dass der Weitwinkel die Linien gerade hält, während das Fischauge die Linien tatsächlich verzerrt.
Mit diesem Verständnis bin ich immer noch etwas verwirrt, wie ein Objektiv, das gekrümmt ist, um einen größeren Blickwinkel zu erhalten, dasselbe ist wie eine beschnittene Version eines weniger gekrümmten Objektivs. Oder bezieht sich "effektiv" nur auf die seitlichen Objekte, nicht aber auf die Verzerrung des Bildes. Oder ist es, falls es anders ist, so klein, dass es für die Fotografie keine Rolle spielt? Eine technische Beschreibung wäre wünschenswert, solange ein grundlegendes Verständnis der Situation.
Vielen Dank!
Bearbeiten: Um nach den Kommentaren klarer zu sein,
Ich spreche speziell von der am Ende resultierenden 2D-Projektion aus dem 3D-Raum. Ich habe beide vorherigen Antworten gelesen. der erste ist näher an dem, worüber ich spreche. Allerdings ist es für mich immer noch verwirrend. Ich habe Erfahrung mit 3D-Modellierung und Projektionsmatrizen, was mich damit verwirren könnte. Aber zum Beispiel verstehe ich nicht, dass die Bilder mit einem 50-mm-Objektiv gezeichnet werden, ausgehend vom Sensor, daher zeigt es ein anderes Sichtfeld für Crop und Full Frame. Wenn die Linse die gleiche ist, nimmt sie die gleiche Menge an Informationen aus der Welt auf, die einen Strahl ab einem bestimmten Grad von der letzten Linse in einen kleineren Raum projiziert, es gibt keine Projektion vom Sensor, also zieht die Linie von der Sensor macht für mich keinen Sinn. Der Abstand des Sensors zur Rückseite des Objektivs muss einen gewissen Einfluss auf das projizierte Licht haben, ist aber in den Bildern nicht dargestellt. Außerdem heißt es in dieser ersten Antwort, dass das Zuschneiden dasselbe ist wie das Zoomen, aber nach dem, was ich unter der Funktionsweise der Perspektive verstehe, ist es anders, da ein Weitwinkel Linien anders projiziert als ein kleiner FOV auf die gleiche Größe, also das Zuschneiden Mitte eines Weitwinkels und Zoomen in etwas ist sehr unterschiedlich. Dies lässt sich leicht in einer OpenGL-Anwendung mit unterschiedlicher FOV-Projektionsmatrix nachbilden. Ich stelle mir vor, dass die Leute dies auch im Malunterricht lernen. Ein Fischauge wäre ein gutes Beispiel, denn wenn Zuschneiden dasselbe wie Zoomen wäre, würde ein Fischaugenobjektiv die Mitte genau wie ein normales Objektiv beibehalten und dann würde ein nach außen gewichteter Farbverlauf schnell eine verzerrte Perspektive erzeugen, aber von dem, was ich sehe , es ist sogar. Für mich sehen diese Bilder einfach so aus, als ob sie in Bezug auf orthogonale Projektionen mit Vollbild verglichen werden.
Hier ist die kurze Antwort: Ein Weitwinkelobjektiv auf einem Crop-Sensor verzerrt das Bild genau so, wie es in der Bildmitte auf einem Vollformatsensor der Fall ist . Dies bedeutet wiederum, dass die Verwendung eines Weitwinkelobjektivs (kleine Brennweite) auf einem Crop-Sensor die gleiche perspektivische Verzerrung ergibt wie die Verwendung eines schmaleren Objektivs (größere Brennweite) auf einem Vollformatsensor, wobei die Vergrößerung der Brennweite direkt entsprechend ist die Reduzierung der Rahmengröße.
Aber du denkst nicht, dass das richtig ist, also lass uns in die Tiefe gehen. :)
Ich denke, dies wird durch die vorhandenen Antworten gut abgedeckt, aber ich denke, Sie haben einige grundlegende Missverständnisse, die zu groß sind, um sie in den Kommentaren zu behandeln, also werde ich es hier versuchen. Hinweis für andere Leser: Wenn Sie in Bezug auf dieses Thema verwirrt sind, aber nicht unbedingt genau den gleichen Denkprozess haben, den diese Frage durchläuft, empfehle ich wirklich, mit einem der Links zu beginnen, die ich unten gebe (oder die in Kommentaren zum Frage oben). Aber wenn Sie das Gefühl haben, dass Sie durch genau diese Dinge verwirrt sind, lesen Sie weiter.
Erstens: Verwandelt meine Crop-Sensor-Kamera meine Objektive tatsächlich in eine längere Brennweite? ist ein guter Anfang. Ich weiß, Sie glauben es noch nicht, aber gehen Sie davon aus, dass meine Antwort richtig ist , und dann werden wir herausfinden, warum .
Betrachten wir als Nächstes die Weitwinkelverzerrung und ihre Ursachen. Lesen Sie die Frage Was bedeutet es wirklich, dass Teleobjektive Szenen "abflachen"? und besonders die schöne Teekessel-Animation aus Wikipedia:
Dies ist „Weitwinkelverzerrung“ – buchstäblich nur eine Frage der Perspektive. Verpassen Sie nicht, dass sich die Kamera in diesem Beispiel zurückbewegt, um den Bildausschnitt beizubehalten.
Aber , Objektive zeigen oft andere Arten von Verzerrungen. Dies ist ein unabhängiges Problem aufgrund der Konstruktion des Objektivs, bei dem das projizierte Bild nicht das geradlinige Ideal ist. Siehe Was sind tonnen- und kissenförmige Verzeichnung und wie werden sie korrigiert? Dies ist häufig bei Weitwinkelobjektiven besonders ausgeprägt, da Weitwinkelobjektive physikalisch schwer zu konstruieren sind. Das ist einer der Gründe, warum Fischaugenobjektive existieren: Sie geben im Grunde das Ideal einer geradlinigen Projektion auf und verwenden andere Projektionen mit Namen wie "äquisolider Winkel". Aber das Wichtigste ist, dass dies anders ist als "Weitwinkelverzerrung". Das Zentrum dieser Projektion könnte tatsächlich natürlicher aussehen als die Ränder (sieheWarum gibt mein Fisheye-Adapter bei meiner APS-C-DSLR keine Fisheye-Verzerrung? ), aber insgesamt ist es ein Ablenkungsmanöver.
Also, jetzt ist es an der Zeit, sich mit dem Thema „Blickwinkel“ in der Fotografie zu befassen. . Ich sehe, dass Sie besorgt sind, dass das 2D-Modell, das ich zeige, nicht die 3D-Realität darstellt. Das ist eine berechtigte Sorge, aber der entscheidende Punkt ist, dass dies keine Zuordnung von 3D zu 2D ist (wie es ein Foto oder der obere Teil der Animation oben ist). Es nimmt einfach die Draufsicht ein, wie im zweiten Teil der Animation. Dies entspricht direkt der 3D-Situation. (Wenn das für Sie keinen Sinn ergibt, sagen Sie mir warum nicht und wir werden es klären.)
Ein weiteres Problem, das Sie bei der Antwort auf den Blickwinkel haben, ist die Art und Weise, wie ich den Abstand von der Rückseite des Objektivs zum Sensor ignoriert habe. Moderne Kameraobjektive sind kompliziert und bestehen aus vielen verschiedenen Linsenelementen, aber sie reduzieren sich mathematisch auf das Einzelpunktmodell (zumindest für diese Frage). Mehr unter Was genau ist Brennweite, wenn es auch Auflagemaß gibt? und Was ist der Bezugspunkt, von dem aus die Brennweite eines Objektivs berechnet wird?
Sagst du auch
Wenn die Linse die gleiche ist, nimmt sie die gleiche Menge an Informationen aus der Welt auf, die einen Strahl ab einem bestimmten Grad von der letzten Linse in einen kleineren Raum projiziert, es gibt keine Projektion vom Sensor, also zieht die Linie von der Sensor macht für mich keinen Sinn
Ich habe versucht, dies in der Antwort auf den Blickwinkel abzudecken, und ich bin mir nicht sicher, was nicht klar war, also werde ich es wiederholen. Jedes Objektiv hat einen Bildkreis, der größer ist als der Sensor (oder genauer gesagt solche, die an den Ecken und Kanten kein Schwarz zeigen – siehe Wie erzeugt ein kreisförmiges Objektiv rechteckige Aufnahmen? ). Dieser Bildkreis ist die "Menge an Informationen", die das Objektiv von der Welt aufnimmt. Die Kamera "nimmt" jedoch nur den Teil auf, der tatsächlich auf den Sensor trifft, sodass das Sichtfeld Ihres tatsächlichen Fotos nur diesen Teil berücksichtigt. Deshalb ziehen wir den Kegel vom Rand her. Wenn es hilft, können Sie auch einige der anderen Strahlen zeichnen und überlegen, was mit ihnen passiert. (Bei diesem Modell bleiben sie gerade Linien, wenn sie durch das Objektiv gehen.)
Sie sagen auch, meine Verwirrung sei, wie das Objektiv das zusätzliche Bild tatsächlich aufnimmt . Nun, das ist so: Das Objektiv nimmt immer die gleiche Menge auf und projiziert die gleiche Menge, aber wir nehmen davon ein größeres oder kleineres Rechteck auf.
Schließlich könnten Sie sicherlich eine Demo davon in OpenGL einrichten, die genau das zeigt, was ich sage. Wenn Sie etwas anderes zeigen, liegt das daran, dass Ihr Modell etwas ändert, was nicht dem entspricht, was passiert, wenn wir die Brennweite oder Sensorgröße in einer Kamera ändern. Finden Sie heraus, was das ist, und korrigieren Sie es.
Oh, und ein Nachtrag: Ihre anfängliche Beispielmathematik hat einen Fehler. Ein 14-mm-Objektiv auf einem 1,6-fach-Sensor hat ein Sichtfeld, das einem 22,4-mm-Objektiv (normalerweise nur abgerundet, weil die tatsächlichen Brennweiten nicht so genau sind) auf einer Vollformatsensorkamera entspricht. (Das liegt daran, dass 14 mm × 1,6 = 22,4 mm, um es auszudrücken.) Das bedeutet, dass Sie bei demselben Bildausschnitt mit einem 14-mm-Objektiv bei APS-C oder einem 22-mm-Objektiv bei Vollformat an derselben Stelle stehen, also die Perspektive ist das gleiche . Wenn Sie alternativ an beiden Kameras ein 14-mm-Objektiv haben, können Sie an derselben Stelle stehen und später das Vollbildergebnis um das 1,6-fache (linear) zuschneiden und effektiv dasselbe Foto erhalten .
Das von Ihnen angegebene 14 mm → 28 mm-Beispiel würde natürlich zu einem 2 × Crop-Sensor wie Micro Four Thirds passen.
Die Perspektive wird durch eine Sache und nur eine Sache bestimmt: Subjektdistanz . Zeitraum.
Wenn Sie ein Bild mit einem geradlinigen Weitwinkelobjektiv wie 17 mm aufnehmen, das bei einer Vollformat-/35-mm-Kamera einen diagonalen Blickwinkel von 104 ° ergibt, und das resultierende Bild so zuschneiden, dass nur die Mitte 3,08333 ° sichtbar ist, würden Sie dies tun genau die gleiche Perspektive haben, als ob Sie das Foto mit einem 800-mm-Objektiv aufgenommen hätten, das einen diagonalen Blickwinkel von 3,08333° ergibt.
Warum verwenden wir nicht alle einfach Weitwinkelobjektive für jede Aufnahme, die wir machen, und beschneiden dann das Bild, um es auf die Größe des Bildes zu „vergrößern“, die wir verwenden möchten? Hauptsächlich Pixeldichte (oder die Größe der Körner in einer Filmemulsion). Wenn wir im obigen Beispiel die sehr hochauflösende 36-MP-D800 verwenden, würden wir zu dem Zeitpunkt, an dem wir alle außer der Mitte des mit einem 17-mm-Objektiv aufgenommenen Bildes beschnitten hätten, um einen Blickwinkel von 800 mm zu erhalten, nur die Mitte von 0,01625 MP verwenden. Das heißt, wir würden die mittleren 156 x 104 Pixel verwenden! Wir würden nur 1/2214 der Oberfläche des Sensors verwenden!
Ich denke, der Bereich der Verwirrung liegt darin, zu verstehen, wie sich ein von einem geradlinigen Objektiv projiziertes Bild von einem von einem Fischaugenobjektiv projizierten Bild unterscheidet, selbst wenn beide die gleiche Brennweite haben. Das Fischaugenobjektiv versucht nicht, die geometrische Verzerrung zu korrigieren, die geradlinige Objektive zu korrigieren versuchen (und in den meisten Fällen weitgehend erfolgreich sind).
Saaru Lindestøkke
Norman Lee
Benutzer-2147482637
Saaru Lindestøkke
Michael C