Wie verhalten sich digitale Sensoren, die an jeder Fotostelle eine Farbe erfassen, im Vergleich zu Sensoren, die viele Farben erfassen?

Es gibt verschiedene Arten von Digitalkamerasensoren, solche Sensoren, die an jeder Fotostelle nur eine Farbe erfassen können, und solche, die an jeder Fotostelle mehr als eine Farbe erfassen können.

Welcher ist besser für die Bildqualität und warum verwenden die meisten digitalen Kamerasensoren von heute den ersten Typ (der Sensor, der an jeder Fotostelle nur eine Farbe erfasst)?

Und warum die meisten Kameras den Bayer-Typ verwenden: photo.stackexchange.com/questions/10742/…
@mattdm Ich habe die beiden Fragen und ihre Antworten gelesen, bin mir aber nicht sicher, ob sie sagen, welche für die Bildqualität besser ist. Außerdem decken sie zwei Arten von Demosaicing-Algorithmen ab, ich glaube, dass es mehr gibt (Sony-Kameras erfassen vier Farben), aber ich bin mir nicht sicher, ob sie gleich sind
Der Grund, warum die Frage nach der Bildqualität nicht sauber beantwortet wird, liegt einfach darin, dass sie immer noch eine offene Frage ist. Beide Ansätze haben Vor- und Nachteile.

Antworten (1)

Die Erfassung von drei Farben pro Fotostelle ist im Prinzip der Erfassung einer Farbe und Interpolation weit überlegen. So sehr, dass ein dreifarbiger Sensor ein Bild mit den gleichen Details wie ein einfarbiger Sensor mit doppelt so vielen Gesamtpixeln erzeugt.

Warum nicht dreimal so viele? Nun, die Farbkanäle in einem Bild sind nicht unabhängig voneinander, sondern korrelieren miteinander, dh die Kenntnis des Rotwerts gibt Ihnen oft Informationen über die Grün- und Blauwerte.

Drei Farbsensoren haben den zusätzlichen Vorteil, dass Farb-Aliasing-Artefakte während der Rohdatenkonvertierung nicht auftreten, was bedeutet, dass Hersteller auf Anti-Aliasing-Filter verzichten können, um die Schärfe zu verbessern.

In der Praxis haben drei Farbsensoren jedoch Probleme mit der Lichtempfindlichkeit, was zu einer schlechten Leistung bei schwachem Licht führt. Hinzu kommen praktische/wirtschaftliche Probleme bei der Herstellung von Dreifarbensensoren mit hoher Pixeldichte zu niedrigen Kosten, was ein weiterer Grund dafür ist, dass sich Bayer-Sensoren trotz ihrer offensichtlichen Unterlegenheit fast allgegenwärtig durchgesetzt haben.

Ist der Anti-Aliasing-Filter nicht die Hauptursache für Detailverlust bei Bayer-Sensoren? (Eher als die Farbe-pro-Photosite-Sache an sich?)
Wie sieht es außerdem mit der Farbgenauigkeit von Foveon aus, insbesondere bei höheren ISO-Werten?
@mattdm Ein Bayer-Sensor ohne AA-Filter hat immer noch weniger Details als ein Foveon-Sensor. AA-Kameras ohne Filter scheinen aufgrund von Aliasing oft mehr Details zu haben (was bei natürlichen oder organischen Texturen wie Details aussieht). Stellen Sie sich einen 12-MP-Bayer-Sensor vor, der eine Szene nur mit roten Objekten aufnimmt. Die blauen und grünen Pixel erhalten kein Licht, sodass Sie wirklich nur ein 3-MP-Bild haben. Ein 12 MP Foveon (36 MP in Sigmas Marketingsprache) würde 12 Millionen rote Abtastungen erhalten und einen echten 12 MP-Detailgrad liefern.
Aber in der praktischen Fotografie gibt es, wie Sie betonen, normalerweise korrelierte Informationen. Macht das zusammen mit dem Fehlen eines AA-Filters nicht ein ziemlich enges Pferderennen?
Ganz zu schweigen davon, dass Bayer-Sensoren – aus Gründen des Marktanteils und der Forschung oder aus anderen Gründen – weniger Probleme haben, die Pixeldichte zu erhöhen, insbesondere für die Kosten. Die neue Nikon D800 ist ein 36-Megapixel-Bayer-Sensor, während das Spitzenmodell von Sigma 15 Megapixel hat – was 45 Megapixel in ihren Begriffen entspricht, aber „nur“ 30 Megapixel in den wahrscheinlich realistischeren Begriffen entspricht, die Sie angegeben haben.
Ich versuche hier nicht zu streiten – ich denke einfach, dass an der Geschichte viel dran ist!
@mattdm Im völlig unkorrelierten Fall (Rot/Blau-Detail) hat der Foveon eine Auflösung, die einem Bayer mit bis zu 4-facher Pixelzahl entspricht. Im völlig unkorrelierten Fall (schwarz/weiß/graue Objekte) hat das Foveon keinen Vorteil. Im semikorrelierten Fall wurde empirisch gezeigt, dass der Vorteil 2x beträgt. Was meiner Meinung nach kein enges Pferderennen ist! Allerdings habe ich bisher das wirtschaftliche Argument ignoriert, nämlich dass Bayer-Sensoren mit 2-facher Auflösung oft noch erheblich billiger sind als Foveon-Sensoren, wie Sie darauf hinweisen, was sie in praktischer Hinsicht besser macht.
Ich stimme zu, dass 2× kein enges Rennen ist. Aber macht es das Entfernen des AA-Filters (entweder nur mit Standard-Bayer wie in der Leica M9 oder Nikon D800E oder mit einem neuen Farbarray wie dem von Fujifilm) nicht näher?
@mattdm etwas näher, ja, aber ein Teil des wahrgenommenen Schärfegewinns durch das Entfernen des AA-Filters ist tatsächlich Aliasing, und dann gibt es den Nachteil von Farbmoire in Stoffen. Was Sie eigentlich wollen, ist, so viele Megapixel in den Sensor zu stopfen, dass Sie auf den AA-Filter verzichten und bei Bedarf verschiedenfarbige Pixel zusammenfassen können, um ein dichtes Farbsampling im Foveon-Stil zu erhalten, jedoch ohne die Schwachlichtstrafe oder die enormen Kosten. Mit 24 MP Erntesensoren ist dieser Tag nah!