Was macht den Foveon X3 zu einem „direkten“ Bildsensor?

In Marketingmaterialien, in denen der Foveon X3-Sensor erwähnt wird, sehe ich ihn normalerweise als "Foveon X3 - Direktbildsensor " bezeichnet ( Beispiel ):

Foveon X3-Logo

Ich verstehe, wie der Foveon X3-Sensor funktioniert ( gestapelte Fotoseiten für jede Farbe in jedem Pixel, wodurch die Notwendigkeit einer Bayer-Demosaik entfällt ), aber ich verstehe nicht ganz, was in diesem Zusammenhang mit "direkt" gemeint ist. Kann jemand diese Terminologie erklären?

Antworten (2)

Es ist bedeutungsloses und eigentlich irreführendes Marketing-Gerede:

Ein Direktbildsensor ist ein Bildsensor, der rotes, grünes und blaues Licht an jedem Punkt in einem Bild während einer einzigen Belichtung direkt erfasst.

Der Sensor erfasst Blau, Grün und Rot nicht sauber in jeder Schicht, wie im Diagramm aufgetragen, die oberste Schicht ist empfindlich für Rot, Grün und Blau (sie ist effektiv ungefiltert), die mittlere Schicht ist hauptsächlich empfindlich für Rot und Grün (aber ist noch teilweise blauempfindlich), und die unterste Schicht ist hauptsächlich rotempfindlich (aber immer noch teilweise grün und in geringerem Maße auch blau).

Wenn Sie sehr großzügig wären, könnten Sie es einen direkten Weiß-Gelb-Rot-Sensor nennen, aber da niemand eine Kamera haben möchte, die WYR-Bilder aufnimmt, muss sie in RGB umgewandelt werden. Dies erfordert eine Menge komplexer Berechnungen, um zu versuchen, die Farben zu trennen. Ich sage "versuchen", weil es einige Fälle gibt, in denen dies nicht möglich ist, was zu Fehlern führt.

Darüber hinaus sind aufgrund der Tiefendiffusion für jede Schicht unterschiedliche Schärfegrade und andere Bearbeitungen erforderlich. Dies ist einer der Gründe, warum die Verarbeitung von Foveon-RAW-Bildern sehr schwierig ist und die Unterstützung von großen RAW-Bearbeitungssoftware vollständig fehlt (es gibt nur zwei Konverter, die ich kenne, abgesehen von Sigmas eigenen, die es sogar versucht haben).

Die Idee, dass ihr Ansatz irgendetwas „direktes“ hat, ist also, fürchte ich, völlig falsch.

Aktualisierte Antwort, um dies widerzuspiegeln.
"Man könnte es einen direkten weißen, gelben, roten Sensor nennen" - was ist die Begründung dafür?

Okay, es scheint, ich habe richtig geraten (Hervorhebung hinzugefügt):

Ein Direktbildsensor ist ein Bildsensor, der während einer einzigen Belichtung direkt rotes, grünes und blaues Licht an jedem Punkt in einem Bild erfasst . ( Quelle )

Der Schlüssel hier ist die Tatsache, dass vollständige RGB-Daten an jedem Pixel erfasst werden. Es ist keine Interpolation erforderlich, daher ist es "direkt".


Beachten Sie, dass die Verarbeitung von Foveon-RAW-Daten aufgrund der Art und Weise, wie Farbe von jeder Schicht im Sensor erfasst wird, sehr schwierig sein kann. Zur Ableitung der Farbkanäle ist eine fehleranfällige Farbtrennung erforderlich, und für jeden Farbkanal sind unterschiedliche Mengen an Schärfe und anderer Verarbeitung erforderlich. Vielleicht aus diesem Grund ist der Foveon-Verarbeitungscode der einzige Teil des ansonsten frei weiterverteilbaren dcraw , dessen Aufnahme das Programm der GPL unterwirft. Es ist nur insofern "direkt", als bei der Verarbeitung des Bildes keine Interpolation von anderen Pixeln benötigt wird. Weitere Informationen finden Sie in der Antwort von Matt Grum.

Ein Foveon erfasst volles RGB an jedem Pixel. Es unterteilt seine Tiefe, um jeden Kanal einzeln zu erfassen. Ein CMOS/CCD erfasst volles RGB bei jedem Pixel. Es unterteilt seinen Bereich, um jeden Kanal einzeln zu erfassen. Keiner erfasst das gesamte Lichtspektrum in einem einzigen Punkt, beide müssen die Kanäle über eine oder mehrere räumliche Dimensionen aufteilen. Dies ist nur eine Marketing-Terminologie, die versucht, Sie zum Kauf neuer Ausrüstung zu bewegen.
Die Dichotomie ist nicht Foveon vs. CMOS/CCD – es ist Foveon vs. Bayer. Ansonsten, @null, stimme ich dir grundsätzlich zu.
Hier gibt es einen vollständig Open-Source-X3F-Konverter: github.com/Kalpanika/x3f . Es ist nicht SO komplex, da es so einfach sein kann wie eine einfache Matrixmultiplikation, um die Farbe zu bestimmen. Es ist nicht mehr und wahrscheinlich weniger "fehleranfällig" als das Bestimmen von Farben aus mehreren benachbarten Pixeln wie bei einem Bayer-Sensor, bei dem jede Fotoseite unvollständige Daten enthält.