Existiert es?: Eine LCD-Panel-Maske im Coronagraph-Stil innerhalb der optischen Linse, um dunkle Pixelsegmente durchzulassen und helle Pixelsegmente zu blockieren?

Wir wissen also, dass Koronographen nur eine kreisförmige Maske in der Mitte eines Teleskops sind, um das helle Licht der Sonne zu blockieren und es unseren Augen zu ermöglichen, in die Dunkelheit um die Sonne herum zu sehen. Aber was wäre, wenn dieser Koronograph alle hellen Bereiche eines Bildes blockieren könnte, die zu intensiv sind, als dass ein Bildsensor sie lesen könnte? Das Ziel wäre ein bisschen wie ein elektronischer Neutraldichtefilter, außer dass eine LCD-Matrix verwendet wird, um helle Bereiche des eingehenden Bildes zu blockieren.

Ich kann mir vorstellen, dass dies mit einer photochromen Linse (die in Transition-Brillen verwendet wird) möglich ist, außer dass sie in ein Raster aus kleinen Pixelquadraten unterteilt ist, die mit einem Bildsensor übereinstimmen.

Welcher Anwendungsfall würde Ihrer Meinung nach von der Anstrengung profitieren? Warum würde die Nachbearbeitung mehrerer Bilder dieses Problem nicht lösen? Wer würde das Ding bezahlen, wenn es existierte?
Das Problem ist nicht, was das Gerät mit dem Bild machen könnte, wenn es benutzt wird, sondern was es macht, wenn es nicht benutzt wird (Lichtverlust, Auflösung usw.). Oder es muss abnehmbar sein.

Antworten (2)

Es funktioniert nicht.

Geben Sie hier die Bildbeschreibung ein

(Quelle: Wikipedia )

Wie Sie sehen können, folgt das Licht keinem einzigen Weg vom Objekt zum projizierten Bild / Kamerasensor. Für ein scharfes Bild platzieren wir das Objekt bei S1 und den Sensor bei S2.

Wir können ein weiteres Objektiv hinzufügen und das Bild bei S2 auf einen Sensor auf der anderen Seite (z. B. S4) projizieren. Wir nennen das Bild bei S2 ein Zwischenbild.

Für einen Koronographen fügen wir einfach eine Maske bei S2 hinzu. Das funktioniert nur, weil die Sonne und die Sterne gleichzeitig im Fokus sind.

Normalerweise haben wir aber nicht alles im Fokus. Unscharfe Bereiche erzeugen Kreise anstelle von Punkten bei S2 und andere Kreise bei S4. Es ist also nicht möglich, unscharfe Bereiche in einer Zwischenbildebene effektiv herauszufiltern.*)

Ein weiteres Problem bei einem solchen Filter besteht darin, dass die Struktur des Filters im Fokus steht. Es erzeugt schöne Moiré-Muster, wenn es nicht zu 100 % auf die Pixel des Sensors ausgerichtet ist.

Der einzige Platz für diesen adaptiven Filter ist der Sensor.


*) Es gibt eine Ausnahme: Sie können es für eine sehr kleine Blende (wie eine Lochkamera) tun, weil es im Wesentlichen nur einen Weg von jedem Punkt des Objekts zum Sensor gibt. Aber das Bild wird schon so dunkel sein, dass Sie nicht mehr abdunkeln müssen. Andernfalls bräuchten Sie so etwas wie eine holografische Technologie.

Das stimmt zumindest für ein einfaches Objektiv, aber eine Zwischenbildebene würde dieses Problem beheben. Kameraobjektive verwenden sie möglicherweise nicht, Mikroskope jedoch
@ChrisH Ich vermute, dass ein Filter in einer Zwischenbildebene nicht für unscharfe Bereiche des Bildes funktioniert.
Das ist jetzt ein interessanter Gedanke. Wahrscheinlich nicht
Bearbeitete Antwort, um Zwischenbildebenen einzuschließen.
The only place to put this adaptive filter is in the sensor.- Vielleicht ist das eine mögliche Antwort? Was wäre, wenn Sie ein Stück photochromes Glasfaserglas direkt über dem Sensor positionieren würden? Benötigt keinen Strom und verdunkelt sich je nach Lichteinfall durch das Objektiv variabel auf unterschiedliche Stufen. Wird nicht schnell sein, aber es könnte ziemlich einfach getestet werden.

Dies existiert derzeit nicht auf dem öffentlichen Markt. Ich kann verstehen, was Sie sagen, und es ist sicherlich ein interessanter Vorschlag.

Wenn wir derzeit ein Bild aufnehmen möchten, das zu große Belichtungsbereiche für die Kamera verwendet, besteht die normale Lösung dafür darin, eine Form der HDR-Fotografie zu verwenden:

  • Mobiltelefone haben eingebaute HDR-Modi.
  • Die meisten DSLRs haben einen AEB-Modus (Auto Bracketing), der mehr als ein Foto mit unterschiedlichen Belichtungen aufnimmt.
  • Im manuellen Modus können wir Fotos mit Belichtungskorrektur belichten.
  • Bei Videos nehmen wir „flach“ auf, um den Kontrast zu verringern und uns einen größeren Belichtungsbereich für die Nachbearbeitung zu geben.

Diese Belichtungsreihen können mit dem HDR-Tool in Photoshop zusammengeführt werden, oder Sie können sie mithilfe von Mischmodi und Masken individuell zusammenführen, um das gewünschte Ergebnis zu erzielen.

Was ich versuche zu sagen, ist, dass wir bereits Möglichkeiten haben, das gleiche Ergebnis wie Ihre Idee zu erzielen, indem wir Tools verwenden, die bereits weit verbreitet sind. Ich bin mir nicht sicher, ob es großes Interesse an einem benutzerdefinierten Tool geben würde, um das zu tun, was Sie vorschlagen, da es einen so spezifischen Anwendungsfall hat.

Laut den Kommentaren zu dem Beitrag könnte es sich auch nachteilig auf Fotos auswirken - wenn es nicht verwendet wird, wird es die Qualität verringern, das Foto verdunkeln oder die Lichtbrechung durch dieses Werkzeug verändern?

Eine andere Sache, über die man nachdenken sollte, ist, dass dieses Tool, damit es richtig funktioniert, eine Live-Ausgabe vom Kamera-LCD haben müsste, um genau zu wissen, welche Teile abgedunkelt und aufgehellt werden sollen. Wenn sich Ihr Werkzeug in einiger Entfernung vom Sensor befindet, ist es für es schwierig, genau zu wissen, wo das Licht auf den Sensor trifft, also muss es dies von der Kamera selbst lesen. Und wie funktioniert es dann, wie viel Licht modifiziert werden muss?

Könnte eine Dose Würmer öffnen. Wenn Sie eine Idee haben, probieren Sie sie aus :) Aber realistischerweise denke ich, dass die meisten Fotografen bei dem bleiben würden, was sie haben, bis es zum Mainstream wird und/oder die Hersteller es entwickeln und anbieten.