Was sind die Unterschiede zwischen dem Bayer-Mosaik- und dem Foveon-3-Schicht-Sensor?

Um meinen Hunger nach Kameradingen zu stillen, bin ich auf die Sigma-Website gestoßen und habe dieses 3-Schicht-Sensor-Zeug gefunden.

Kann das wirklich jemand anhand seiner Erfahrungen oder Recherchen dazu erklären?

Hat jemand diese Sigma SD15 oder Sigma SD1 DSLR in der Hand, da ich nur von der großen Marke in dieser Branche geleitet und beeinflusst wurde?

danke Jungs, es ist mit so guten Meinungen, Ansichten und Informationen überflutet, alle Antworten sind gut und befriedigend ...

Antworten (3)

Der Bayer -Sensor, der von der überwiegenden Mehrheit der Kameras verwendet wird, ist im Grunde ein Zwei-mal-Zwei-Gitter von Sensoren mit 1 blauen, 1 roten und 2 grünen Sensoren, bekannt als Bayer-Filter, benannt nach dem Wissenschaftler von Kodak Labs, der ihn entwickelt hat. Die Daten von einem solchen Sensor müssen dann einen Demosaicing-Prozess durchlaufen, der die 4 Datenpunkte in ein Pixel umwandelt, das das Ergebnis der 3-Farben-Mischung ergibt. Der Grund für 2 grüne Seiten ist, dass das menschliche Auge Berichten zufolge empfindlicher für Grün ist und daher die Farbe im System betont wird.

Das Foveon -Modell, das mich total fasziniert, ist ein Ansatz, einem traditionelleren Filmstil zu folgen. Die Idee in diesem Zusammenhang ist, dass die drei primären Lichtbänder bei unterschiedlichen Wellenlängen arbeiten und so unterschiedlich tief in das Sensormaterial eindringen, die Prämisse des Farbfilms. In diesem Fall ist Blau am wenigsten durchdringend und Rot am stärksten, sodass sie durch Stapeln der Schichten an jeder Fotostelle den Pegel jeder der Primärfarben erkennen können. Als Ergebnis eliminiert die Technologie das Moiré-Muster, das aus den mit einem Bayer-Filter verbundenen Demosaicing-Algorithmen resultieren kann, und liefert ein genaueres Ergebnis.

Ich bin wirklich begeistert von der Foveon-Technologie und freue mich darauf zu sehen, wohin Sigma sie führt. Sie haben endlich eine APS-C-Kamera mit diesem Sensor produziert, also werde ich sie mir genau ansehen, wenn die Rezensionen und Muster endlich eintreffen. Trotzdem denke ich, dass die Kamerahersteller mit dem Bayer-Modell einen sehr guten Job gemacht haben, es ist ein bewährtes und gut verstandenes Mittel zur Bilderfassung, und das kann man an den oft erstaunlichen Ergebnissen sehen. Wenn das Foveon das übersteigt, befinden wir uns im Fotografie-Nirwana. :)

Wie auch immer, ich habe einige relevante Wiki-Artikel zu den beiden verlinkt, von denen ich denke, dass sie Ihnen wirklich helfen werden, die Unterschiede zu erkennen.

Es gibt einige praktische Probleme, die Foveon davon abhalten, das Nirvana zu erreichen. Einige gute Kommentare hier: theonlinephotographer.typepad.com/the_online_photographer/2010/…
@mattdm - Der Kommentar ist interessant, aber es ist erwähnenswert, dass viel von Leuten kommen wird, die keine Physiker sind und daher einige der intensiveren Aspekte der Wissenschaft entweder nicht vollständig verstehen oder sich ihrer bewusst sind. Ich behaupte das auch nicht, obwohl ich ein paar Jahre Physik an der Universität studiert habe, also interessiere ich mich wirklich mehr für die realen Ergebnisse, die Sigma daraus hervorbringt.
In der realen Welt sehen Foveon-Fotos nicht wirklich anders aus als Bayer-Fotos. Die Farbsättigung ist ähnlich, vielleicht ein bisschen besserer Blauton. Einer der Hauptunterschiede ist das Fehlen von Farbmoiré in Foveon, und ein weiterer ist die relativ geringe Bildpixelanzahl (14 MP ist das größte Foveon, während wir mit Bayer FF 24 MP und mehr und mit MF 80 MP vorantreiben.) Dies sollte beachtet werden Dieses monochrome Moiré wird auf Foveon NICHT eliminiert (nur Farbmoiré)! Jedes Gerät mit einer begrenzten Auflösung wird bei der Bildgebung von Frequenzen jenseits seiner Nyquist-Grenze auf Moiré stoßen, einschließlich eines Foveon.
@jrista-- Ich könnte Ihnen nicht mehr widersprechen, was das Aussehen und die Haptik von Foveon-Bildern betrifft. Ich habe eine dp2 und eine nikon d300 und habe mit beiden Kameras 13x19-Abzüge erstellt (unter Verwendung von Full-Chip-Bildern von beiden). Erstens kann niemand sagen, dass sie mit unterschiedlichen Auflösungen aufgenommen wurden, und zweitens können die Leute definitiv erkennen, dass es sich um unterschiedliche Kameras handelt. Die Sättigungen sind anders, die Detailauflösung ist anders – das Gefühl ist einfach anders. Einige Leute bevorzugen den d300, andere den dp2 – meine Wände sind ein bisschen wie ein Rorschach-Test für den Sensorstil geworden.
@jrista - Ich stimme nicht zu. Erstens denke ich nicht, dass 14 MP auf einem APS-C-Sensor „niedrig“ sind, zum Teufel, Nikon pusht eine 12-MP-Vollbildkamera und sie bekommt atemberaubende Kritiken. Ein weiterer Beweis dafür, dass die Megapixelzahl nicht die ganze Geschichte ist. Zweitens steckt die Foveon-Technologie im Vergleich zum Bayer-Modell noch in den Kinderschuhen und liefert mindestens genauso gute und teilweise bessere Ergebnisse. Das ist verdammt aufregend. Lassen Sie uns hier nicht an eine Technologie binden, Sigma kann noch etwas Besseres produzieren als Kodak und das ist gut so.
@mmr: Ich habe Drucke von einer DP2 sowie Drucke von meiner 450D und einer 5DII gesehen. Aus Detailebene stampft die 5DII über die DP2 hinweg, obwohl es sich um einen Bayer handelt. Die Blausättigung ist bei der DP2 besser, aber ansonsten sind die Farben der DP2 und der von Canon ungefähr gleich. Zugegeben, eine bessere Blausättigung ist eine großartige Sache, aber eine sehr leichte Sättigungserhöhung in der Nachbearbeitung kann einen solchen Unterschied zwischen jeder Kamera normalisieren. Nun, MP für MP, ich würde sagen, der Foveon hat definitiv die Nase vorn im Detail, keine Frage. Mein Punkt war, dass der GRÖSSTE Foveon 14 MP hat, während FF-Sensoren jetzt 24-28 MP haben.
Joanne C: Ich glaube nicht, dass ich meinen Standpunkt so klar ausgedrückt habe, wie ich wollte ... 14 MP ist der größte Foveon-Sensor im APS-C-Format. Abgesehen von einer gewissen Verbesserung der Sättigung stampfen FF-Bayer-Sensoren wie die der 5DII im hochauflösenden Detailbereich über ein Foveon. Ganz zu schweigen von der erstaunlichen Qualität, die Sie von einem 60-80-MP-Mittelformat-Bayer erhalten können. Bei einem Megapixel-zu-Megapixel-Vergleich weist ein Foveon 14-Megapixel-Sensor klarere Details und eine bessere Sättigung auf als ein 14-Megapixel-Bayer. Die Sättigung lässt sich nach dem Prozess leicht beheben, aber das Detail ist immer noch ein Gewinn.
Ich war lange Zeit ein Fan von BIG Foveon, bevor ich mir tatsächlich eine Kamera gekauft habe. Ich mag die Vorzüge der Technologie sehr und denke, dass sie Potenzial hat ... besonders wenn Canon und Nikon sie lizenzieren können. Meine Sorge ist, dass es in Sigmas Händen liegt. Sie haben Jahre gebraucht, um das 15,3-MP-APS-C anzukündigen , und das DP2 konnte kaum abheben. Sigma funktioniert nicht gut, selbst wenn die Technologie hervorragend ist, und das könnte sehr wohl den Untergang der Technologie bedeuten. Ich würde gerne sehen, wie sie die Technologie lizenzieren und einen Juggernaut wie Canon dazu bringen, einen 21-Megapixel-Foveon herauszubringen. Ich würde sofort einen kaufen.
@jrista Reden Sie von 14 Millionen Fotoseiten oder insgesamt 14 Millionen Farberkennungselementen? Ein Foveon-Sensor mit 14 Millionen Fotoseiten würde viel besser abschneiden als ein Bayer mit 14 Millionen Fotoseiten, wahrscheinlich besser als ein 24-Megapixel-Bayer, und hat daher nach heutigen Maßstäben keine niedrige Auflösung. Eine solche Kamera (die SD1) wurde jedoch noch nicht veröffentlicht. Ein Foveon-Sensor mit 14 Millionen Farbsensoren, aber nur 4,5 Millionen Fotoseiten (wie der SD15) wird schlechter abschneiden als ein 14-Megapixel-Bayer.
Ich mag die Richtung, die Foveon eingeschlagen hat, aber ich habe an einigen Stellen gelesen, dass es noch Probleme gibt, die ausgearbeitet werden müssen. Ich bin mir nicht sicher, was die Knicke sind, aber es gibt viele Erwähnungen seiner Mängel.
@jrista, jetzt sind wir uns definitiv einig - Sigma war nicht sehr gut in der Ausführung des Chips. Es ist klar, dass ihnen die UI-Technik fehlt, um die Kameras der dp-Serie zu den Kraftpaketen zu machen, die sie auf dem Papier sein sollten. Ich stelle mir vor, dass sie ihre Firmware öffnen werden, damit diejenigen von uns mit Informatikkenntnissen einen Hack daran wagen können, wie CHDK. Ich stelle mir auch vor, dass ihre SLR-Gehäuse Nikon- und Canon-Halterungen haben werden. Wo ich gerade dabei bin, ich will auch ein Pony und Weltfrieden – ich denke, dass alle vier Wünsche mit der gleichen Wahrscheinlichkeit eintreten.
@Matt: Ich bezog mich auf den DP2, den 4,6-Megapixel-Sensor mit 14,4 Millionen Fotoseiten. Sorry für die Verwirrung. Ich hoffe wirklich, dass sie tatsächlich die 15,3 MP SD1 herausbringen können. Wenn dies der Fall ist, wäre dies tatsächlich ein konkurrenzfähiges Produkt gegenüber Dingen wie dem 21,1-Megapixel-Sensor des 5DII und dem 24-Megapixel-Sensor von Sony. Die eigentliche Frage ist jedoch ... wird das SD1 auch in anderen Bereichen konkurrenzfähig sein ... oder wird es unter der gleichen schlechten UI-/Funktionsqualität leiden wie die anderen Sigmas?
@mmr: Ja, Sigma hat überhaupt kein UI-Engineering ... das ist eines der Dinge, die ich am DP2 nicht mag, es ist ziemlich klobig und sehr begrenzt. Ich glaube nicht, dass ich jemals davon träumen würde, dass ihre SLR-Gehäuse eine Nikon- oder Canon-Halterung haben ... Ich möchte nur, dass sie damit beginnen, die Foveon-Technologie an andere Hersteller zu lizenzieren. Sie würden immer noch Geld verdienen, die Technologie würde wahrscheinlich wie ein Lauffeuer abheben, und Leute wie wir könnten einen in unserer bevorzugten Marke / unserem bevorzugten Format bekommen. Stellen Sie sich sogar einen MF-Sensor mit Foveon vor ... oh, die Möglichkeiten. Leider glaube ich wirklich, dass Foveon mit Sigma einen langsamen Tod sterben wird. :'(
@jrista Auf die Gefahr hin, noch mehr Verwirrung zu stiften, würde ich sagen, dass die DP2 nur 4,6 Millionen Fotoseiten , aber 14 Millionen Farbsensorelemente hat . Was es jedoch nicht hat, sind 14 Millionen Pixel , die ein Bild mit 2640 x 1760 Pixeln erzeugen.
@matt: Eine Bayer 14MP-Kamera hat auch keine 14 Millionen Pixel, da ein bestimmtes Pixel nur aus 1/3 des ursprünglichen Farbspektrums an diesem physischen Ort erstellt wurde. Nach Ihrer Terminologie müssten Sie sagen, dass eine 14-MP-Bayer-Kamera 7 Millionen Fotoseiten hat, da dies die größte Anzahl für einen der Farbkanäle ist und die anderen "Farbsensorelemente" nur das grüne Bild über die Farbe informieren. In Wirklichkeit ist der Begriff "Photosite" jedoch das, was Sie als "Farbsensorelemente" bezeichnen.
@Kendall Helmstetter Gelner Unabhängig davon, wie viel des Farbspektrums an einem physischen Ort aufgezeichnet wird, gibt es dort immer noch ein Pixel, eine Sensel, eine Fotoseite oder wie auch immer Sie es nennen möchten. Die 14 MP machen also Sinn, übrigens haben die Rohbilder vor der Interpolation 14 Millionen Pixel in sich. Rohbilder vom Sigma haben 4,6 Millionen Pixel, obwohl es drei Werte pro Pixel gibt, macht es nicht das Dreifache der Pixel! Wenn ich ein normales Bild nehme und einen Alphakanal hinzufüge, gibt es jetzt 4 Werte pro Pixel, aber Sie würden nicht sagen, dass die Anzahl der Pixel zugenommen hat.
Wow, wer hätte gedacht, dass eine kleine Antwort so viele interessante Kommentare erzeugen würde. :) Ich stimme Jrista halbwegs zu, was die Zukunft von Foveon in den Händen von Sigma betrifft, aber man weiß nie, Riesen können fallen, frag einfach Pentax ...
@matt: Wenn Ihre Definition eines Pixels drei aufgezeichnete Werte an derselben Stelle sind, hat der Foveon-Sensor 4,6 Millionen davon und der Bayer 14MP-Sensor null, da es keine RGB-Sensoraufzeichnungen gibt, die zueinander "gehören". Es gibt nur drei separate Bilder, die zusammen die endgültige Farbe bilden. Das nächste, was Sie bekommen können, ist das grüne 7,5-MP-Bild, das Farben basierend auf den beiden anderen Bildern errät. Das Problem ist, dass Sie versuchen zu behaupten, ein einzelner Farbkanal in einem Bayer-Bild sei ein "Pixel", während Sie dann auch behaupten, dass der Foveon-Sensor drei Werte benötigt, um ein Pixel zu erstellen.
@Matt Grum: "Ich würde sagen, die DP2 hat nur 4,6 Millionen Fotoseiten, aber 14 Millionen Farbsensorelemente." Ich würde da zustimmen, meine Verwendung des Begriffs Fotoseite basiert auf Bayer, und auf Foveon würde es bedeuten, was Sie beschreiben. Der DP2 ist ein Sensor mit 4,6 Millionen Fotostellen, die jeweils aus 3 Sensoren bestehen. Das wären insgesamt 14,4 Millionen Farbsensorelemente. Jetzt wo wir das geklärt haben...
Es sieht so aus, als wären wir in Bezug auf die Definition von Begriffen auf eine Tangente abgeschweift. Lasst uns versuchen, hier ein wenig zu normalisieren, damit wir eine sinnvolle Diskussion führen können. ;) Also schlage ich vor: Sensel = einzelnes Farberfassungselement, Photosite = einzelne lichtempfindliche Stelle auf einem Sensor, der eine Farbe (Bayer) oder drei Farben (Foveon) erfassen kann, Pixel = Standardbildelement, das aus drei Kanalelementen besteht: Rot grün blau. Angesichts dieser Definitionen: Sigma DP2 => 4,6 MegaPIXEL-Sensor von 4,6 MegaPHOTOSITES, bestehend aus 14,4 MegaSENSEL. Bayer 14mp => 14.4megaPIXEL-Sensor, 14.4megaPHOTOSITES, 14.4megaSENSEL.
In einem Bayer-Sensor werden Pixel „überlappend“ demosaikiert, sodass jede mögliche Kombination von 2x2-RGBG-Sätzen verarbeitet wird, um Pixel zu erzeugen. Mit anderen Worten, ein Bildpixel wird durch den Schnittpunkt zwischen jedem SENSEL einer 2x2-Zelle von RGBG SENSELS definiert. Ein visuelles Beispiel dafür: cambridgeincolour.com/tutorials/camera-sensors.htm (Abschnitt BAYER DEMOSAICING.)
@Kendall "Wenn Ihre Definition eines Pixels drei aufgezeichnete Werte an derselben Stelle sind, hat der Foveon-Sensor 4,6 Millionen davon und der Bayer 14MP-Sensor hat null." Nein, meine Definition eines Pixels ist eine beliebige Anzahl von aufgezeichneten Werten gleichzeitig standort es ist der standort, der entscheidend ist. Mit dieser Definition hat die DP2 4,6 Millionen und die 5D mkII 21 Millionen. Das sagt überhaupt nichts über die relative Bildqualität oder Schärfe der beiden Kameras aus, ich definiere Begriffe nur intuitiv.
@matt: Es macht keinen Sinn, ein Pixel als "beliebige Anzahl aufgezeichneter Werte an einem physischen Ort" zu bezeichnen, da die Zahl dann nichts aussagt. Sie können dann nicht sagen, ob das Pixel selbst verwendbar ist oder ob es Eingaben von anderen Pixeln erfordert. Es verwirrt die Leute auch sehr, weil das Ausgabebild auch in "Pixel" -Dimensionen bezeichnet wird, und das hat eine feste Regel, dass ein Pixel drei Farbkanäle hat. Etwas stimmt einfach nicht mit einer Definition, bei der 21 Millionen farbseparierte "Pixel" auf magische Weise zwei weitere Farbkanäle in der Ausgabe erhalten.
@jrista: Da andere Leute den Begriff "Sensel" verwenden, kann ich damit leben, und mit Ihrer Definition von "Photosite", obwohl es immer noch falsch erscheint, einen Begriff zu verwenden, der sich auf eine beliebige Anzahl von Sensoren bezieht. Aber ich kann nicht behaupten, dass Ihre resultierende Beschreibung der Bayer- bzw. Foveon-Kameras ziemlich klar ist.
@Kendall Ich stimme zu, dass die Anzahl der Pixel allein nicht die ganze Geschichte erzählt, aber das ändert nichts an der Definition eines Pixels. Es ist ein Bildelement, ein kleines Quadrat, das einen Teil eines Bildes ausmacht. Es gibt eine Firma in Amerika, die das Bayer-Farbfilter-Array von Ihrer Kamera entfernt. Derzeit machen sie nur die 450D. Aber wenn ich eine umgebaut hätte, würde ich sie nicht plötzlich als 4-Megapixel-Kamera bezeichnen. Es ist eine 12-Megapixel-Schwarzweißkamera.
@Kendall: "Etwas stimmt einfach nicht mit einer Definition, bei der 21 Millionen farbseparierte "Pixel" auf magische Weise zwei weitere Farbkanäle in der Ausgabe erhalten." Deshalb müssen wir die Begriffe normalisieren. Ein Pixel ist Teil eines Bildes, kein physisches Gerät wie ein Sensor. Ein Pixel ist ein „BILDELEMENT“, ein Teil eines Bildes. Megapixel bezieht sich im Allgemeinen auf die von einem Sensor erzeugte BILDGRÖSSE. Wie Sie zu diesen Pixeln gelangen, kann variieren. Nur weil ein Bayer-Sensor seine Daten interpoliert, ist er noch lange nicht „falsch“. Die heutigen Demosaicing-Algorithmen sind sehr fortschrittlich und maximieren die gesammelten Informationen.
Etwa 21,1 Millionen Fotoseiten (die jeweils einen einzigen Sensor in Bayer bereitstellen) bilden nicht direkt 1:1 auf einzelne Pixel ab. Es gibt Überschneidungen und einige "zusätzliche" Fotoseiten. Demosaicing-Algorithmen gewichten auch die Farb- und Luminanzinformationen, um ein genaues Ergebnis zu erzielen. In Bezug auf Farbe und Leuchtdichte gibt es meines Erachtens nur minimale Unterschiede zwischen Foveon und Bayer. Ein echter Unterschied wäre Farbmoiré, das die Qualität der Ausgabe und die maximale Auflösung eines Bayer-Sensors tatsächlich beeinträchtigen kann. Auf der anderen Seite leidet Foveon ohne einen AA-Filter unter ausgeprägterem Monochrom-Moiré. Vor- und Nachteile beides!
Hier ist eine kleine Frage an Sie alle: Ist die menschliche Retina eher ein Bayer-Array oder ein Foveon-Stack? Ist ein Design besonders besser als das andere? Oder gibt es einfach unterschiedliche Kompromisse?
@jrista: Ich habe Ihrer Definition bereits zugestimmt, sprechen Sie mit Matt über seine Definition für ein Pixel, die im Widerspruch zu Ihrer steht. Ja, wie Sie zu diesen Pixeln gelangen, ist unterschiedlich, aber Sie können einfach nicht weniger als drei verwenden, um ein vollständiges Ausgabepixel zu erstellen. @matt: Es ist immer ein 12-MP-Sensor, weil die akzeptierte Definition von "MP" bei der Beschreibung einer Kamera Ihnen wirklich die Sinnzahl gibt. Nach der Konvertierung in Schwarzweiß erhalten Sie eine Kamera, die tatsächlich so viele Werte aufzeichnet, wie sie ausgibt, anstatt weniger.
Ich glaube nicht, dass ich und jrista uneins sind (zur Abwechslung;) über die Definition eines Pixels, ich nehme nur die Definition eines Bildelements und erweitere es auf den Sensor (etwas, was die Kamerahersteller vor einiger Zeit getan haben bei der Prägung des Begriffs "Megapixel") und genauso wie Sie Bilder mit einer oder mehreren Komponenten pro Pixel haben können, können Sie auch Sensoren mit einem oder mehreren lichtempfindlichen Elementen pro Pixel haben. Nur weil die Sensorzahl mit der Pixelzahl einer Bayer-Kamera übereinstimmt, heißt das nicht, dass eine Kamera mit 14 Millionen Sensoren auch 14 Millionen Pixel hat ...
@jrista Ist ein Design besonders besser als das andere? Ich denke, das Foveon-Design ist eindeutig besser (bei allem außer sehr schwachem Licht), aber ich denke nicht, dass es dreimal besser ist (der Konsens scheint eher 2x zu sein).
Ich denke, kein Design ist eindeutig besser als das andere. Es gibt offensichtliche Vorteile für Foveon, aber es gibt immer noch Vorteile für Bayer, die Foveon derzeit nicht erreichen kann und vielleicht nie überschreiten wird (da beide Fortschritte machen werden). Ein einfacher ist, wie weit uns Bayer in Bezug auf Größe und Auflösung gebracht hat. ..ein Paradebeispiel dafür ist der Mittelformatsensor Leaf Aptus II mit 80 MP. Ich denke auch nicht, dass Bayer ein besonders fehlerhaftes Design ist, da unsere Netzhäute im Grunde auf die gleiche Weise konstruiert sind (vielleicht eher wie Fujis SuperCCD SR zwischen unseren Stäbchen und Zapfen).
Ich hätte sagen sollen, dass ich davon spreche, dass das reine Design aus fotografischer Sicht besser ist, wenn man die SD15 mit einem 4,5-MP-Bayer-Sensor vergleicht, ist der Unterschied klar. Das Foveon ist jedoch schwieriger herzustellen, was man als Konstruktionsfehler bezeichnen könnte...

Ich fotografiere seit einigen Jahren mit Sigma DSLRs, seit der SD-9. Ich bin in das System eingestiegen, als ich von Film-Spiegelreflexkameras auf Digitaltechnik umgestiegen bin, und habe viel recherchiert, bevor ich den Sprung gewagt habe. Ich bin auch auf den Foveon-Chip gestoßen und sein Design erschien mir auf konzeptioneller Ebene viel solider als das Bayer-Design; Außerdem mochte ich die Bilder, die ich von der Kamera kommen sah, wirklich.

Man kann sich den Unterschied hier so vorstellen, dass ein herkömmlicher Bayer-Sensor wirklich drei separate Fotos aufnimmt – ein grünes, ein rotes und ein blaues. Bei einem 14-Megapixel-Bayer-Sensor hat das grüne Foto 7 Millionen Pixel, während die roten und blauen Bilder 3,5 Millionen Pixel an Daten haben. Keine dieser Daten überlappt sich räumlich; Das heißt, wenn ein Objekt nur ein Pixel hoch wäre, wie es vom Sensor erfasst wird, könnte es je nach Farbe in jedem der Bilder verschwinden. An jedem gegebenen räumlichen Ort werden 2/3 der Farbdaten verworfen. Während die Ausgabe, die Sie von einer 14-Megapixel-Kamera erhalten, möglicherweise 14 Millionen Pixel enthält, handelt es sich im Wesentlichen um eine neu abgetastete und vergrößerte Version des Bildes mit den meisten Details - dem grünen 7-Megapixel-Bild.

Auf der Foveon-Seite gibt es keine Stelle, an der sich eine Farbe im Bild „verstecken“ kann, da an jedem beliebigen Erfassungsort das gesamte Lichtspektrum von den drei Sensorschichten erfasst wird und daher kein so großer Bedarf an Eingaben besteht von Nachbarn, um aufzulösen, was der Sensor gesehen hat.

Der Endeffekt ist, dass Foveon-Sensoren nicht glauben, dass feine Details wirklich eine Art Farbe (Farbmoiré) sind, und der erfasste Detailgrad konstant ist, da kein feines Detail versehentlich verworfen wird. Der Bayer-Sensor, der an jedem Punkt 2/3 des Lichts verwirft, kann manchmal feine Details verlieren, die der Foveon-Chip auflöst – auch hier hängt es von der Szenenfarbe ab.

Da der Detaillierungsgrad in einem Bayer-Sensor variabel ist, kann es sehr schwierig sein, ihn in Bezug auf die erfassten Details mit dem Foveon-Chip zu vergleichen. Eine grobe Faustregel lautet jedoch, dass ein Foveon-Bild ungefähr die gleiche Detaillierungsgrad erfasst wie ein Bayer-Kamera mit 2/3 der Foveon-MP-Bewertung (oder Sensoranzahl). So hat zum Beispiel die kommende SD1 46 Millionen Fotoseiten (Sensoren), was bedeutet, dass Sie ähnliche Detailebenen wie bei einem 30-MP-Bayer-Bild erwarten können. Aber das ist wieder ein Bild ohne Farbmoiré, ohne AA-Filter vor dem Filter (wenn Sie sich keine Sorgen um Farbmoiré machen, brauchen Sie keinen AA-Filter).

Sie können hier einige interessante Beispiele sehen, die die ursprüngliche Canon 5D mit der Sigma SD-14 vergleichen:

http://www.ddisoftware.com/sd14-5d/

Achten Sie besonders darauf, was beim Schießen von Farbzielen passiert, um ein Gefühl dafür zu bekommen, wie Details variieren können.

Abgesehen von all dem technischen Kram, womit kann der Sensor gut? Da es das volle Spektrum an jedem Pixel und unabhängig von der Farbe auf dem gleichen Auflösungsniveau erfasst, denke ich, dass es subtile Tonänderungen wirklich gut erfasst. Das bedeutet wirklich schöne Himmel oder irgendetwas anderes mit allmählichen Änderungen in Farbe oder Ton. Als solche erzeugen sie wegen der sehr glatten Übergänge zwischen den Tönen auch wirklich schöne Bilder für die Schwarzweiß-Konvertierung.

http://www.pbase.com/kgelner/image/90304998 Alt-Text

http://www.flickr.com/photos/kigiphoto/5308324073/in/set-72157625711613108/ Alt-Text

http://www.pbase.com/kgelner/image/108588990 Alt-Text

(Versionen in voller Größe von jedem dieser Bilder finden Sie unter den Links).

Wo der Sensor Probleme hatte, ist mit höherem ISO - die aktuellen Kameras können ISO 3200 erreichen, wenn sie gefragt werden:

http://www.flickr.com/photos/kigiphoto/4684772878/in/set-72157624236424558/ Alt-Text

aber wirklich 800 ist eher eine realistische Grenze für die meisten Aufnahmen (es sei denn, Sie fotografieren für Schwarzweiß und dann können diese Bilder aufgrund der Art des Rauschens wirklich gut halten).

Die Sigma-Kameras sind nicht wirklich auf Leute ausgerichtet, die mit der Fotografie beginnen, weil sie nicht viele Unterstützungsmodi oder ähnliches bieten ... also seien Sie sich dessen bewusst, wenn Sie daran denken, in das System einzusteigen. Der einfachste Weg, den Sensor selbst auszuprobieren, ist der Sigma DP-1 oder DP-2, frühere Versionen der Kameras können langsamer zu bedienen sein, aber alle geben Ihnen einen guten Eindruck von Details und Farben der Bilder Erfassung.

Beachten Sie, dass ich offensichtlich keine unvoreingenommene Quelle bin, da ich die Kameras seit langem gerne verwende. Die andere Sache, die Sie also tun sollten, bevor Sie sich eine Kamera zulegen, ist, die Bilder des Sensors genauer zu untersuchen. Ich stelle einige oben zur Verfügung und Sie können meine Websites erkunden, da ich im Allgemeinen nur mit Sigma-Kameras fotografiere, aber Sie können hier eine Menge Beispielbilder von all den verschiedenen Kameras finden, die Sigma produziert hat (auch mit Bildern in voller Größe zu finden):

http://www.pbase.com/sigmadslr

Auch im Blog von Carl Rytterfalk finden Sie eine Menge toller Informationen:

http://www.rytterfalk.com/

Irgendwo darin hat er Beispiel-RAW-Pakete, die Sie herunterladen können, und verschiedene Dinge, die über Sigma-Kameras, Objektive und den Foveon-Sensor sprechen. Er ist ein großartiger Fotograf und sehr enthusiastisch, wie Sie sehen werden, wenn Sie sich eines seiner Videos ansehen.

BEARBEITEN: Carl hat gerade einen langen Beitrag zu "Warum ich Sigma verwende" geschrieben, der sich direkt auf diese Frage bezieht:

http://www.rytterfalk.com/2011/01/20/warum-ich-sigma-wähle/

Die Zusammenfassung seiner Gründe sind:

  1. Nuancen (in Farbe)
  2. Dichte
  3. Mikrokontrast
  4. Wahre Schärfe
  5. Dynamikbereich

Auf die er unter dem Link näher eingeht, zusammen mit einigen weiteren Bildern.

Eine Randbemerkung, die ich vergessen habe zu erwähnen, bezieht sich nicht wirklich direkt auf den Sensor, sondern auf die Sigma-spezifischen DSLRs, die den Foveon-Chip enthalten - Sie können sie auch problemlos für IR-Arbeiten verwenden, indem Sie einfach den Staubschutz an der Kamera entfernen ( entwickelt, um vom Benutzer entfernt und ohne Werkzeuge neu installiert zu werden).

ähh, wirklich schön und umfassend! Glückwunsch...
Eines möchte ich über Foveon sagen ... der Blues sticht wirklich hervor!
Ich sollte anmerken, dass keines dieser Bilder nachbearbeitet wurde, sie stammen so ziemlich direkt aus dem RAW-Konverter mit minimaler oder gar keiner Anpassung.

Ich habe Sigma viel Lob dafür, dass sie etwas anderes und innovatives ausprobiert hat, und auf dem Papier ist der Foveon-Sensor eine sehr gute Idee. Ich bin jedoch nicht einverstanden mit der Art und Weise, wie Sigma ihr aktuelles Modell mit 4,6 Millionen Fotoseiten (von denen jede sowohl farb- als auch intensitätsempfindlich ist) mit einem 14-Megapixel-Sensor bezeichnet!

Die Anzahl der Fotostellen mit drei zu multiplizieren, um das Bayer-Äquivalent zu erhalten, wäre in Ordnung, wenn die Farbkanäle nicht miteinander korreliert wären. In realen Szenen variieren die Farbkanäle jedoch von leicht korreliert bis stark korreliert. Nehmen Sie dieses folgende Beispiel:

Sie haben einen 5 MP Foveon-Sensor und einen 15 MP Bayer-Sensor. Jeder Sensor hat 5 Millionen rote Pixel, 5 Millionen grüne Pixel und 5 Millionen blaue Pixel. Sie fotografieren eine graue Katze, die auf einem großen grauen Betonblock sitzt. Da das von der Szene kommende Licht grau ist, erhalten die roten, grünen und blauen Pixel in jedem Sensor alle die gleiche Lichtmenge. Beim Foveon-Sensor erhalten Sie jedoch drei identische Messwerte übereinander, was nicht sehr nützlich ist und nur 5 Millionen eindeutige Datenwerte ergibt. Im Bayer-Sensor sind sie seitlich verschoben, was potenziell 15 Millionen eindeutige Werte ergibt. Das Bayer-Bild bräuchte nicht einmal eine Demosiazierung, würde also viel mehr Details enthalten.

Dies ist ein sehr erfundenes Beispiel, aber korrelierte Farbkanäle kommen ziemlich oft vor, und deshalb funktionieren Bayer-Interpolationen. Wenn Sie ein gelbes Objekt fotografieren, gibt Ihnen der rote Messwert Aufschluss darüber, wie der grüne Messwert aussehen würde, obwohl dort im Gegensatz zum Foveon kein grünes Pixel vorhanden ist.

Bei Tests in der realen Welt entspricht die Auflösung aufgrund der Korrelation etwas mehr als dem 2-fachen von Bayer, nicht der 3-fachen Sigma-Behauptung. Das bedeutet, dass das aktuelle Flaggschiff-Foveon-Modell mit 4,6 Millionen Fotoseiten ungefähr einem 10-Megapixel-Bayer entspricht (obwohl sie immer noch etwas andere Qualitäten haben werden, zum Beispiel kein Farbmoiré im Foveon). Damit hinkt Foveon den 35-mm-DSLRs mit 24 MP etwas hinterher. Das aktuelle Foveon hat auch Probleme bei schwachem Licht, da Licht zwei Schichten darüber durchdringen muss, um die letzte Schicht zu erreichen.

Die Zukunft:

Auf dieser Grundlage wäre mein aktueller Rat, sich für eine Bayer-Kamera zu entscheiden, aber es wird interessant sein zu sehen, was die Zukunft bringt. Nach einer langen Pause hat Sigma den SD1 mit 15,4 Millionen Fotoseiten angekündigt. Es gibt noch kein Veröffentlichungsdatum, aber wenn sie dies in einem anständigen Körper durchziehen können, würde dies der 24MP Nikon D3x einen ernsthaften Kampf um ihr Geld verschaffen!

Auf der anderen Seite der Medaille steigen die Bayer-Vorsätze stetig und werden einfach durch die Wirtschaftlichkeit gestützt (immer mehr Menschen stellen Bayers in größerer Zahl her). Mit zunehmender Sensorauflösung werden Moiré und andere Bayer-Artefakte ohne entsprechende Verbesserungen der Linsenschärfe zu einem viel geringeren Problem. Schließlich wird ein Bayer-Sensor mit einer ausreichend hohen Megapixelzahl den gleichen Effekt wie der Foveon erzielen, jedoch mit den Pixeln nebeneinander und nicht übereinander.

Der Bayer-Sensor hat 7,5 Millionen grüne Fotoseiten und 3,75 Millionen rote und grüne Fotoseiten. Ihr Beispiel ist insofern richtig, als ein völlig neutrales Subjekt die maximale Datenmenge liefert, obwohl Sie selbst in diesem Beispiel, da es keine Überlappung zwischen Rot/Grün/Blau-Sensoren gibt, möglicherweise eine gewisse Farbe in der Demosiierung sehen würden, wenn es einen Unterschied gäbe in Leuchtdichte zwischen der Katze und dem Hintergrund. Aber wie viele Dinge sind in Wirklichkeit grau und wie viele Dinge zeigen ein gewisses Maß an Farbe? Sie liegen auch falsch mit dem SD1, es hat 45 Millionen Fotoseiten (verschiedene Sensoren).
Kendall wäre hier richtig. Mit einem 15-MP-Bayer haben Sie 7,5 Millionen Grün und jeweils 3,75 Rot und Blau, anstatt einer geraden Anzahl von Rot, Grün und Blau. Das macht aber Sinn, da unser Sehvermögen auch empfindlicher auf Grün reagiert. Ich würde nicht unbedingt sagen, dass Bayer, das doppelt so viele grüne Informationen wie rot/blaue Informationen sammelt, in irgendeiner Weise nachteilig ist. @Kendall: Was den SD1 angeht, hat Matt insofern recht, als er 15,4 Millionen PHOTOSITES oder einzelne lichtempfindliche Stellen auf dem Sensor hat. Jede PHOTOSITE ist in der Lage, drei verschiedene Farben wahrzunehmen und hat dafür 46,2 Millionen SENSEL.
Ich denke, wir haben Megapixel vs. Sinne in der anderen Frage angemessen behandelt. In Bezug auf mein Katzenbeispiel akzeptiere ich, dass es sehr selten vorkommt, eine völlig monotone Szene zu haben (ein Punkt, den ich in der Antwort akzeptiere), aber ich sage auch, dass Sie in den meisten Szenen möglicherweise keine drei Farbkanäle haben volle Übereinstimmung, aber Sie haben wahrscheinlich Farbkanäle, die stark miteinander korrelieren. Sie könnten eine sehr grelle Szene mit leuchtendem Cyan, schockierendem Pink und leuchtendem Gelb haben und trotzdem zwei identische Messwerte pro Foveon-Fotoseite haben!
So funktionieren Fotoseiten nicht. Sie haben eine Photosite, die Pegel an einer einzigen Stelle aufzeichnet – im Foveon-Chip sind drei Photosites gestapelt, die jeweils unterschiedliche Werte messen. Die Werte von diesen drei Fotoseiten werden direkt in ein endgültiges Ausgabepixel eingegeben. Im Bayer-Chip haben Sie für jedes Ausgabepixel nur eine "Basis" -Photosite in einem Kanal - dann leihen Sie sich von umgebenden Photosites aus, um die Farbe zu bestimmen. Der Effekt ist, dass Sie, obwohl es 14 Millionen Ausgabepixel gibt, wirklich kleinere Bilder nehmen und sie hochskalieren, um das Ausgabebild zu erhalten.
@matt: Ich bin mir nicht sicher, ob ich das Beispiel verstehe, in jeder dieser Farben würde jede der drei Fotoseiten an einem Ort unterschiedlich angeregt werden. Der Punkt ist, dass ein schockierend rosa Faden nicht plötzlich blau oder lila werden würde, nur weil der Hintergrund blau war und er sich stark vom Hintergrund "leihen" musste, um die Farbe zu erraten.
Es ist nicht fair zu sagen, dass das Demosaicing des Bater-Sensors die Farbkanäle effektiv hochsampelt, was mit Algorithmen wie der adaptiven homogenitätsgerichteten Interpolation vor sich geht, ist weitaus ausgefeilter und nutzt starke statistische Korrelationen zwischen Farbkanälen, die in echten Bildern auftreten, um viel besser zu sein als einfach die Lücken füllen.
Wenn Sie große Bereiche mit unterschiedlichen Intensitäten von reinem Magenta haben, werden Sie tatsächlich feststellen, dass die roten und blauen Sensoren an jedem Pixel die gleichen Werte aufzeichnen, da Magenta die Mischung aus gleichen Teilen Rot und Blau ist. Ja, wenn Sie einen Faden mit einer Breite von einem Pixel haben, kann der Bayer ihn nicht sehen, aber wenn Sie die dreifache Anzahl von Pixeln in einem Bayer-Sensor haben, sollte er in der Lage sein, den Faden mit mehr als einem Pixel abzudecken. Jedenfalls sind vom Objektiv scharf aufgelöste Ein-Pixel-Fäden ebenso selten wie graue Katzen...
Meine Kameras lösen ständig ein Pixel breite Fäden, Haargras, Äste und andere Objekte auf. Das liegt daran, dass die Natur und die meisten Objekte Details bieten, die ähnlich sind, wenn sie zurücktreten. An Ein-Pixel-Linien ist überhaupt nichts Seltenes, sehen Sie sich die Vollbildversion des Bootsbildes an, das ich an der Takelage auf dem Boot gepostet habe.
Die Bootsriggs sind etwa 2 Pixel breit, und mit einem 15-MP-Bayer-Sensor würden Sie erwarten, dass sie mit mehr als einer Fotoseite abgedeckt werden. Der Foveon hat definitiv einen Vorteil bei feinen Farbdetails, aber irgendwann wird ein Bayer-Sensor mit ausreichender Megapixelzahl das überwinden ... weshalb es sehr interessant sein wird, ob sie den SD1 abziehen können, da er Simga in Führung bringen wird, zumindest für eine Weile.