Warum wird im digitalen Zeitalter eine geringe chromatische Aberration als wichtig angesehen?

Ich habe viele Testberichte zu Objektiven gelesen. Es scheint, dass eine geringe chromatische Aberration als wichtige Eigenschaft von Objektiven angesehen wird.

Aber der Film ist heute ein toter Dinosaurier. Praktisch jeder verwendet Digitalkameras, und tatsächlich passen viele Objektive (z. B. Canon EF-S) nur zu Digitalkameras.

Bei Digitalkameras ermöglicht das Speichern des Fotos im RAW-Format Objektivkorrekturen für die vom Sensor erfassten Daten. Es scheint dem Kamerahersteller auch nicht unmöglich zu sein, diese Objektivkorrekturen in die JPG-Erstellungspipeline aufzunehmen. Natürlich würde dies eine Objektivdatenbank in der Kamera erfordern, am besten eine, die aktualisiert werden kann, damit alte DSLRs Korrekturen für neue Objektive unterstützen könnten.

Warum wird also die chromatische Aberration von Objektiven als wichtige Eigenschaft angesehen? Es scheint mir, dass Merkmale, die schwieriger zu beheben sind, wie z. B. schlechte Schärfe, viel wichtiger wären.

Am äußersten Ende: Warum brauchen Kameras überhaupt Glaslinsen? Es gibt Lochkameras, die gut funktionieren. Warum brauchen wir auch einen Sensor mit vielen MPix? Wir haben Single-Pixel-Kameras verfügbar news.mit.edu/2017/…
@aaaaaa Tatsächlich verwenden einige Wettersatelliten Einzelpixelkameras (sie scannen die Erde, indem sie sich drehen), also gibt es auch einen gewissen Nutzen für sie.
Keine Objektivdatenbank in der Kamera, sondern in der Objektivfirmware gespeicherte Korrekturkoeffizienten....
Auch wenn Hersteller versuchen, ihr Glas nur an ihr Kamerasystem anzupassen, ist die zukünftige Anpassungsfähigkeit von Glas immer ein Bonus ... und Fehler, die eine elektronische Korrektur erfordern, erschweren die Sache ... da :)

Antworten (5)

ideales Bild - keine Aberration:

Geben Sie hier die Bildbeschreibung ein

simulierte chromatische Aberration:

Geben Sie hier die Bildbeschreibung ein

Korrigieren der chromatischen Aberration durch Anpassen der RGB-Kanalpositionen (in einem realistischeren Beispiel würde dies auch das Strecken der Bilder beinhalten, wodurch noch mehr Qualität verloren geht)

Geben Sie hier die Bildbeschreibung ein

Fazit : Chromatische Aberration ist nicht nur falsch ausgerichtete Farbkanäle - das wäre einfach. jeder einzelne Kanal ist verschwommen und dieser Fehler kann digital nicht vollständig korrigiert werden.

Ich glaube, dass dieses Beispiel über jeden Nutzen hinaus abstrahiert ist. Echte CA und echte CA-Korrektur funktionieren nicht wie Ihre Bilder.
@ths bitte erklären. Die Unschärfe ist absichtlich übertrieben, um zu demonstrieren, dass chromatische Aberration nicht nur Farbsäume sind. Tatsächlich taucht es sogar auf Schwarzweißfotos auf, ohne jegliche Farben.
es ist nicht nur übertrieben, es ist simuliert. und Sie haben nicht gezeigt, dass Ihre Simulation der Realität entspricht.

Sie können chromatische Aberration rechnerisch korrigieren, indem Sie rote/grüne/blaue Schichten neu ausrichten. Wie die Korrektur geometrischer Verzerrungen erfolgen diese Korrekturen jedoch normalerweise nicht durch ganze Vielfache von Pixeln und müssen daher das Licht auf einem Quellpixel auf mindestens zwei Zielpixel verteilen. Dies führt zu einem Verlust an Schärfe. Wenn Sie versuchen, dem durch nachträgliches Nachschärfen entgegenzuwirken, verstärken Sie das Rauschen und neigen zu Lichthöfen.

Bisher klingt das nicht schlechter, was die Verzeichnungskorrektur bereits tut, und Sie können im Grunde die Korrekturmaßnahmen der Verzeichnungskorrektur und der chromatischen Aberrationskorrektur vor dem Resampling auf ein rechteckiges Gitter kombinieren, um weniger kumulative Unschärfe zu erhalten, als wenn Sie unabhängig resamplen.

So weit, so schlecht.

Das nächste Problem ist, dass chromatische Aberration in zwei Geschmacksrichtungen auftritt. Das, worüber ich gerade gesprochen habe, befasst sich nur mit der lateralen chromatischen Aberration, die tendenziell stärker wird, je weiter Sie sich von der Mitte entfernen. Es gibt auch Farblängsfehler, deren Hauptfolge violette Farbsäume sind: Wenn Sie die Äste eines Baums vor einem blauen oder bewölkten Himmel im Hintergrund fotografieren, werden erhebliche Mengen an ultraviolettem und nah-ultraviolettem Licht von den blauen Sensoren erfasst. Farblängsfehler bedeutet, dass dieses Licht typischerweise stärker gebeugt wird als anderes Licht, wodurch seine Fokusebene vor dem Sensor liegt. Dies führt zu unscharfen violetten Lichthöfen um Äste zu beidenSeiten unter der Annahme, dass die Zweige im Fokus sind. Wenn sie unscharf sind, sind die bläulichen Komponenten möglicherweise tatsächlich scharf, was zu leichten roten Rändern führt (das sieht man selten, da der Fokus von vornherein zu kurz sein muss). Wie viel von dieser violetten Unschärfe erscheint, hängt von der Verteilung der Wellenlängen ab, die auf den blauen Sensor treffen. In Innenräumen sind LED- und Leuchtstofflampen im Vergleich harmlos, Glühlampenlicht ist normalerweise zumindest kälter (was die Farbtemperatur und nicht die Malerterminologie betrifft) als Sonnenlicht.

Womit wir wieder bei der lateralen Aberration wären: Es ist nicht nur der blaue Sensor, der für mehrere verschiedene Wellenlängen empfänglich ist: Alle Sensoren erfassen einen ganzen Bereich von Wellenlängen mit unterschiedlichen Empfindlichkeiten, und die chromatische Aberration trifft alle diese Wellenlängen unterschiedlich und verursacht das jeweilige Signal Sensor nicht nur bewegt, sondern entsprechend der Verteilung der auftreffenden Wellenlängen auch gespreizt werden. Welche Verteilung wäre das? Unterschiedliche Weißabgleicheinstellungen raten zu Wellenlängenverteilungen, aber diese Schätzung konzentriert sich darauf, die Balance zwischen drei Primärfarben richtig zu machen.

Die richtige Menge an Unschärfe zu erraten bedeutet, die Balance von mehr als nur drei Primärfarben richtig zu machen, und diese Balance ändert sich in der Szene viel mehr als der einfache Weißabgleich.

Während Sie also statistisch mehr oder weniger garantieren können, dass Ihre Farbsäume in allen Richtungen meistens durchschnittlich bis grau sind, löst sich eine scharfe Schwarz-Weiß-Kante bei genauer Betrachtung aufgrund unterschiedlicher ( und nur statistisch vorhersagbar) Mengen an Unschärfe.

Objektivkorrekturen von chromatischen Aberrationen funktionieren nicht nur mit einer Informationsebene, sondern sind dreidimensionale Konstruktionen, die berechnet werden können, um ein Kontinuum von Wellenlängen meistens an denselben Punkt auf derselben Fokussierebene zu bringen. Diese Art der Korrektur ist mit den 3-Band-reduzierten Daten aus einer einzigen Fokussierebene nicht möglich, da sie einfach nicht die gleiche Menge an Informationen enthalten.

Es gibt eine Menge Dinge, einschließlich chromatischer Aberration, Weißabgleich, Farbtemperatur, Tonnen-/Nadelverzerrung, Koma, ..., die in der Software korrigiert werden können . Aber es ist immer noch besser und wird es immer sein, es in der Kamera zu korrigieren, damit Sie nicht so viele Korrekturen in der Nachbearbeitung vornehmen müssen . Obwohl diese Korrekturen nachträglich vorgenommen werden können, führt jede Korrektur zu einem gewissen Auflösungs-/Detailverlust und kann tatsächlich zusätzliche Artefakte oder unerwünschte Modifikationen einführen. Daher ist es immer die beste Option, dem Sensor das bestmögliche Bild zu liefern.

Wenn Sie anstelle der drei (RGB-)Sensoren in jedem Pixel (sagen wir) 100 Sensoren hätten, die jeweils für einen Wellenlängenbereich von 1/100 des sichtbaren Spektrums empfindlich sind, hätten Sie genügend Daten, um die chromatische Aberration digital zu korrigieren. Mit nur drei Sensoren können Sie (zum Beispiel) nicht sagen, ob eine Lichtquelle rot oder orange ist, also wissen Sie nicht, wie viel Sie bewegen müssen, um die Aberration zu korrigieren.

Dies könnte das sein, was @ user82045 im letzten Absatz sagt.

Die Aufgabe des Kameraobjektivs besteht darin, ein Miniaturbild der Außenwelt auf die flache Oberfläche eines Films oder eines digitalen Bildsensors zu projizieren. Optiker bemühen sich, Linsen herzustellen, die ein originalgetreues Bild liefern, aber leider werden sie von sieben Hauptbildfehlern geplagt, die wir Aberrationen nennen. Sie sollten sich mit diesen sieben Punkten vertraut machen: 1. Sphärisch 2. Koma 3. Astigmatismus 4. Feldkrümmung 5. Verzerrung 6. Beugung / Interferenz. 7. Chromatische Aberration.

Chromatische Aberration – Lichtstrahlen durchqueren die Linse. Die Krümmung (Figur) der Linse und die Dichte des Glases beeinflussen ihren Bewegungsweg. Sie werden zum Ausweichen gebracht (Brechung – lat. nach innen biegen). Wir können diese Strahlenwege verfolgen, und wenn wir das tun, zeigt die Spur einen Lichtkegel, der in einiger Entfernung hinter der Linse eine Spitze erreicht. Der gemessene Abstand von Linse zu Apex ist die Brennweite der Linse. Je länger die Brennweite, desto größer das Bild (Vergrößerung). Die sorgfältige Untersuchung einer Strahlenspur zeigt, dass zuerst violettes Licht fokussiert wird, gefolgt von grünem, dann orangefarbenem und zuletzt rotem.

Somit hat jede Farbe eine unabhängige Brennweite und jede projiziert eine andere Bildgröße. Das rote Bild ist das größte und das violette Bild das kleinste. Wenn wir dieses Bild betrachten, sehen wir Farbsäume, die durch die Überlagerung verschiedener Bildgrößen verursacht werden.

Der erste Versuch, die chromatische Aberration zu mildern, war John Dollond, der 1757 eine zusammengesetzte Linse demonstrierte, die durch Sandwichen einer starken positiven Linse aus Kronglas mit einer schwachen negativen Linse aus Flintglas hergestellt wurde. Dieses Kombinieren reduziert signifikant die chromatische Aberration. Dieses Design wird als achromatische Linse (lat. – ohne Farbfehler) bezeichnet.

Chromatische Aberration ist trotzdem eine Plage. Es verschlechtert jedes optische System. Es kann gemildert, aber bisher nie beseitigt werden.