RAW-Dateien speichern 3 Farben pro Pixel oder nur eine?

Ken Rockwell sagt , dass Kamerahersteller die einzelnen R/G/B-Sensoren berücksichtigen, wenn sie über Megapixel sprechen. Das Bild unten wäre also eine 6x6-Pixel-Kamera, nicht 3x3, wie Sie es sich vorstellen würden.

Geben Sie hier die Bildbeschreibung ein

Wenn das stimmt, würde eine RAW-Datei nur eine Farbinformation pro Pixel (sei es R, G oder B) als 10-, 12- oder 14-Bit-Zahl enthalten.

Meine Verwirrung kommt, wenn ich an manchen Stellen Sachen lese wie:

  • RAW-Dateien speichern einen Durchschnitt der zwei grünen Sensoren pro Pixel.
  • RAW-Dateien verwenden 12 Bit pro Pixel, aber es gibt 3 Farben, also sind das eigentlich 36 Bit pro Pixel.

Was offensichtlich falsch wäre, wenn Kens Behauptung richtig ist.

Was ist also die Wahrheit?

Antworten (3)

Raw-Dateien speichern nicht wirklich Farben pro Pixel. Sie speichern nur einen einzigen Helligkeitswert pro Pixel.

Es stimmt, dass bei einer Bayer-Maske über jedem Pixel das Licht entweder mit einem Rot-, Grün- oder Blaufilter¹ über jedem Pixel gefiltert wird. Aber es gibt keine harte Grenze, bei der nur grünes Licht zu einem grün gefilterten Pixel oder nur rotes Licht zu einem rot gefilterten Pixel durchkommt. Es gibt viele Überschneidungen. Durch den Grünfilter dringt viel rotes Licht und etwas blaues Licht. Viel grünes Licht und sogar etwas blaues Licht gelangt durch den Rotfilter, und etwas rotes und grünes Licht wird von den blau gefilterten Pixeln aufgenommen.

Farbreaktion

Da eine Rohdatei ein Satz einzelner Luminanzwerte für jedes Pixel auf dem Sensor ist, enthält eine Rohdatei keine tatsächlichen Farbinformationen pro Pixel. Die Farbe wird abgeleitet, indem benachbarte Pixel, die für eine von drei Farben gefiltert wurden, mit einer Bayer-Maske verglichen werden. Aber genauso wie das Anbringen eines Rotfilters vor dem Objektiv beim Aufnehmen von Schwarzweißfilmen nicht zu einem monochromatischen Rotfoto führte (oder einem Schwarzweißfoto, bei dem nurrote Objekte haben überhaupt keine Helligkeit), die Bayer-Maske vor monochromen Pixeln erzeugt auch keine Farbe. Es ändert den Tonwert (wie hell oder wie dunkel der Luminanzwert einer bestimmten Farbe aufgezeichnet wird) verschiedener Farben um unterschiedliche Beträge. Wenn die Tonwerte (Grauintensitäten) benachbarter Pixel, die mit den drei verschiedenen Farben gefiltert wurden, die in der Bayer-Maske verwendet werden, verglichen werden, dann können Farben aus diesen Informationen interpoliert werden. Dies ist der Prozess, den wir als Demosaikierung bezeichnen .

Es wird viel Mathematik betrieben, um jedem Pixel einen R-, G- und B-Wert zuzuweisen. Es gibt viele verschiedene Modelle, um diese Interpolation durchzuführen. Wie viel Vorspannung Rot, Grün und Blau im Demosaicing-Prozess gegeben wird, bestimmt die Weiß-/Farbbalance . Die Gamma-Korrektur und jede zusätzliche Formgebung der Lichtempfindlichkeitskurven bestimmen den Kontrast . Aber am Ende wird jedem Pixel ein R-, G- und B-Wert zugeordnet. In Ihrem 6x6-Pixel-Beispiel in der Frage wäre das Ergebnis der Demosaikierung ein 36-Pixel-Bild mit 36 ​​Pixeln, die jeweils einen Rot-, einen Grün- und einen Blauwert haben.

Bei der Übersetzung geht ein wenig Auflösung verloren. Es stellt sich heraus, dass die absolute Auflösungsgrenze eines Bayer-Sensors in Bezug auf die Anzahl abwechselnder schwarzer und weißer Linien pro Zoll oder mm, die von einem Sensor mit einer RGGB-Bayer-Maske und gut gemachtem Demosaicing aufgelöst werden können, bei etwa 1/√2 liegt im Vergleich zu einem monochromatischen Sensor, der keine Bayer-Maske hat und daher kein Demosaicing benötigt (aber nur in Schwarzweiß sehen kann).

Selbst wenn Ihre Kamera zum Speichern von Rohdateien eingestellt ist, handelt es sich bei dem Bild, das Sie unmittelbar nach der Aufnahme auf der Rückseite des LCD-Bildschirms Ihrer Kamera sehen, nicht um die unverarbeiteten Rohdaten. Es ist ein Vorschaubild, das von der Kamera generiert wird, indem die Kameraeinstellungen auf die Rohdaten angewendet werden, die zu dem JPEG-Vorschaubild führen, das Sie auf dem LCD sehen. Dieses Vorschaubild wird zusammen mit den Daten vom Sensor und den EXIF-Informationen, die die kamerainternen Einstellungen zum Zeitpunkt der Aufnahme enthalten, an die Rohdatei angehängt.

Die Entwicklungseinstellungen der Kamera für Dinge wie Weißabgleich, Kontrast, Schatten, Glanzlichter usw. wirken sich nicht auf die tatsächlichen Daten des Sensors aus, die in einer Rohdatei aufgezeichnet werden. Stattdessen werden alle diese Einstellungen in einem anderen Teil der Rohdatei aufgelistet.

Wenn Sie eine "Rohdatei" auf Ihrem Computer öffnen, sehen Sie eines von zwei verschiedenen Dingen:

  • Das JPEG-Vorschaubild, das zum Zeitpunkt der Aufnahme von der Kamera erstellt wurde. Die Kamera hat die zum Zeitpunkt der Aufnahme gültigen Einstellungen verwendet und an die Rohdaten in der .cr2-Datei angehängt. Wenn Sie das Bild auf der Rückseite der Kamera betrachten, sehen Sie die JPEG-Vorschau.

  • Eine Konvertierung der Rohdaten durch die Anwendung, mit der Sie die „Roh“-Datei geöffnet haben. Wenn Sie eine 12-Bit- oder 14-Bit-Rohdatei in Ihrer Fotoanwendung auf dem Computer öffnen, sehen Sie auf dem Bildschirm eine 8-Bit-Darstellung der demosaikierten Rohdatei, die einem JPEG sehr ähnlich ist, nicht dem tatsächliche monochromatische Bayer-gefilterte 14-Bit-Datei. Wenn Sie die Einstellungen und Schieberegler ändern, werden die Rohdaten neu zugeordnet und erneut in 8 Bit pro Farbkanal gerendert.

Was Sie sehen, hängt von den Einstellungen ab, die Sie für die Anwendung ausgewählt haben, mit der Sie die Rohdatei öffnen.

Wenn Sie Ihre Bilder bei der Aufnahme im Rohformat speichern, haben Sie bei der Nachbearbeitung genau die gleichen Informationen, mit denen Sie arbeiten können, unabhängig davon, welche Entwicklungseinstellungen in der Kamera zum Zeitpunkt der Aufnahme ausgewählt wurden. Einige Anwendungen können die Datei anfänglich entweder mit der JPEG-Vorschau öffnen oder indem sie die zum Zeitpunkt der Aufnahme des Bildes aktiven Kameraeinstellungen auf die Rohdaten anwenden, aber Sie können diese Einstellungen ohne destruktiven Datenverlust auf was auch immer ändern Sie wollen in der Post.

Canon Digital Photo Professional öffnet eine .cr2 -Rohdatei im selben Bildstil, der bei der Aufnahme in der Kamera ausgewählt wurde. Alles, was Sie tun müssen, um es zu ändern, ist das Dropdown-Menü zu verwenden und einen anderen Bildstil auszuwählen . Sie können sogar ein "Rezept" für ein Bild erstellen und es dann stapelweise auf alle Bilder anwenden, bevor Sie mit der Arbeit beginnen. Die Rohverarbeitungssoftware anderer Hersteller ist ähnlich und es gibt normalerweise eine Option, mit der die Anwendung ein Bild mit den angewendeten Entwicklungseinstellungen der Kamera öffnen kann.

Bei Raw-Verarbeitungsanwendungen von Drittanbietern wie Lightroom oder Camera Raw von Adobe , Aperture oder Photos von Apple, Capture One Pro von PhaseOne , OpticsPro von DxO Lab usw. kann es etwas schwieriger sein, Bilder gemäß den Kameraeinstellungen anzuzeigen. Adobe-Produkte ignorieren beispielsweise fast alle Herstellerhinweise in den EXIF-Daten einer Rohdatei, wo viele Hersteller zumindest einige der Informationen zu den Kameraeinstellungen hinzufügen.

¹ Die tatsächlichen Farben der Bayer-Maske vor den Sensoren der meisten Farbdigitalkameras sind: Blau – eine leicht violette Version von Blau mit einem Zentrum bei 450 Nanometern, Grün – eine leicht bläuliche Version von Grün mit einem Zentrum bei etwa 540 Nanometern und Rot – eine leicht orangefarbene Version von Gelb. Was wir „rot“ nennen, ist die Farbe, die wir für Licht mit einer Wellenlänge von etwa 640 Nanometern wahrnehmen. Die "roten" Filter der meisten Bayer-Arrays lassen das meiste Licht bei etwa 590-600 Nanometern durch. Die Überlappung zwischen den "grünen" und "roten" Zapfen in der menschlichen Netzhaut ist sogar noch enger, wobei "rot" bei etwa 565 Nanometern zentriert ist, was wir als gelbgrün wahrnehmen.

Das ist grundsätzlich falsch. Sie sagen (oder implizieren zumindest sehr stark), dass dies funktioniert, weil Farbinformationen in die Nachbarn gelangen . Das ist nicht nötig. Raw würde gut funktionieren, wenn die Filter absolut perfekt wären. Verschiedene Demosaicing-Algorithmen "beinhaltet viel Mathematik", aber der einfachste ist, nur die nahe gelegenen Pixel zu mitteln, und das funktioniert überraschend gut. Ich schätze, mehrere Millionen Mal in einem Multi-Megapixel-Bild gemacht, das technisch gesehen „viel“ Mathematik ist, aber es ist keine komplizierte Mathematik – es ist Zeug der dritten Klasse.
Bayer funktioniert, weil es im Allgemeinen eine gute Vermutung ist , dass das Pixel an beispielsweise einer blau gefilterten Stelle die gleiche Menge an Grün hat wie die grünen Pixel daneben (und das gleiche für Rot). Wenn diese Vermutung ausgeschaltet ist, erhalten Sie Artefakte, und das versuchen die komplizierteren Algorithmen zu lösen. Sie funktionieren nicht, indem man spezielle Kenntnisse über den Frequenzgang der Filter voraussetzt.
"Sie sagen (oder implizieren zumindest sehr stark), dass dies funktioniert, weil Farbinformationen in die Nachbarn gelangen." Ich sage und impliziere nichts dergleichen. Ich stelle nur fest, dass Filter nicht absolut perfekt sind und daher die Idee, dass jeder Satz gefilterter Pixel eine genaue Darstellung dieser Farbe ist, wie sie oft von Leuten wie Ken Rockwell (in der Frage erwähnt) präsentiert wird, absolut lächerlich ist .
Ich habe vielleicht missverstanden, was Sie die ganze Zeit gesagt haben, da Sie das oft ansprechen. :) Vor allem, da Sie die Antwort damit öffnen, könnten Sie vielleicht bearbeiten, um dies auf eine Weise zu erklären, die das klarer macht? Meinen Sie insbesondere, dass die überlappenden Filter bedeuten, dass das Ergebnis unabhängig von der Verarbeitung grundlegend ungenau ist und wir einfach damit leben, oder dass es durch eine Transformation in Demosiacing genau gemacht werden kann oder dass es genauer gemacht werden kann durch ein weiterer Schritt, den das Rendern von RAW-Dateien erfordert (der aber nicht Teil des Demosiacing ist)?
Ich meine nur, dass zu viele Leute die Bayer-Maske fälschlicherweise so beschreiben, dass sie nur grünes Licht durch den Grünfilter, nur rotes Licht durch den Rotfilter und nur blaues Licht durch den Blaufilter lässt. Das ist genauso wenig der Fall, wie wenn man sagt, dass durch die Verwendung eines Grünfilters bei Schwarzweißfilmen nur das grüne Licht in der Szene erfasst werden kann. Die Verwendung nur eines Grünfilters bedeutet, dass grünes Licht mit einer höheren Transmissionsrate durchgelassen wird als rotes oder blaues Licht, aber einige von allen dreien durchgelassen werden. Es ist nur durch den Vergleich der Unterschiede zwischen dem Licht ...
... gefiltert nach allen drei Farben können wir wirklich jede der Farben für jedes der Pixel annähern. Wie Sie selbst in einer Antwort sagten : "'Farbe', wie wir sie verstehen, ist keine echte Eigenschaft von irgendetwas im Universum."
@mattdm Die Mittelung der Pixel in der Nähe erzeugt ein sehr verschwommenes Foto, und es gibt keine Kamera auf dem Markt, die dies auf diese Weise tut. Demosaicing-Algorithmen nutzen die Korrelation zwischen den RGB-Pixeln, um die Auflösung auf Kosten gelegentlicher Artefakte erheblich zu verbessern. Und es ist definitiv schwere Mathematik beteiligt.
@MarkRansom Natürlich – der grundlegende Algorithmus ist nicht der beste. Aber es ist in Ordnung, um vollkommen anständige Farben zu rekonstruieren. Nichts ist raffinierter als das, was dafür erforderlich ist. Siehe diese Antwort für praktische Beispiele , wenn Sie mir nicht glauben.
„Viel Mathematik …“ muss nicht zwingend hochkomplexe Mathematik sein. Viele einfache Arithmetik ist immer noch "... viel Mathematik". Eine Rohdatei mit 20 Millionen Pixeln erfordert Millionen von Rechenoperationen, um sie zu demosaikieren. Wenn Sie denken, dass das nicht viel Mathematik ist, versuchen Sie es mit der Hand!
@MichaelClark Ich fordere Sie auf, sich zB einen einfachen bikubischen Filter ohne umfangreichen mathematischen Hintergrund auszudenken. Die Berechnungen selbst mögen einfach sein, aber die Bestimmung der Faktoren, die in diese Berechnungen einfließen, ist alles andere als.
@mattdm Ich wollte nicht andeuten, dass einfache Algorithmen keine perfekt erkennbaren Ergebnisse liefern könnten, nur dass sie für unsere Pixel-Peeping-Methoden nicht geeignet sind. Nur die billigsten Video- oder Webcams würden versuchen, damit durchzukommen.
@MarkRansom Sie lesen viel zu viel in meinen vorherigen Kommentar, der eine Antwort auf Matts ersten Kommentar war, der zu implizieren scheint, dass das Mitteln von Pixeln in der Nähe nicht viel Mathematik erfordert. Bitte nehmen Sie es einfach für bare Münze“ „Viel Arithmetik ist immer noch viel Mathematik.“ Diese Aussage schließt die Möglichkeit nicht aus, dass komplexere Mathematik bei der Bestimmung der durchzuführenden Berechnungen oder sogar bei diesen Berechnungen selbst beteiligt ist.
@mattdm Es ist ein grundlegendes Missverständnis, dass CFA-Filter eine bessere Farbe erzeugen würden, wenn sie sich nicht überlappen würden. Tatsächlich erfordert eine gute Farbwiedergabe eine signifikante spektrale Überlappung, ohne die die Luther-Bedingung nicht erfüllt oder auch nur annähernd erreicht werden kann. Dies hat nichts mit Demosaikierung zu tun, da die Farbe eines großen Bereichs im Sinne von CIEXYZ eine reine Funktion der 3 "RGB"-Stufen ist. Eine gute Farbwiedergabe erfordert eine erhebliche Überlappung.
@doug Ja, darauf gehe ich in dieser Antwort auf die neuere Frage viel detaillierter ein: Warum sind Rot, Grün und Blau die Primärfarben des Lichts?
Hinzu kommt die Tatsache, dass die in Bayer-Masken verwendeten Farben nicht die gleichen Farben sind, die von unseren RGB-Bildschirmen ausgestrahlt werden. "Rot" ist nicht einmal annähernd. Die "roten" Zapfen in unserer Netzhaut sind am empfindlichsten bei etwa 564 nm (eine hellgrüne Farbe zwischen grün und gelb), die "roten" Filter in den meisten Bayer-Masken sind am durchlässigsten bei etwa 590-600 nm (orange-gelb). unsere RGB-Systeme emittieren 640-650nm für "rot".</sub>

Ken hat Recht mit der Behauptung, die Sie zitieren – irgendwie. Es ist richtig, dass Digitalkameras heute (mit Ausnahme derer mit Foveon-Sensoren von Sigma) mit einer Bayer-Matrix arbeiten und die Sensorauflösung als Größe der Matrix angegeben wird. Ihr Beispielbild stellt einen "36-Pixel"-Sensor dar. Es ist jedoch wichtig zu erkennen, dass Kameras dies in ein Vollfarbbild mit der vollen angegebenen Größe in tatsächlichen Pixeln umwandeln und dass dies nicht so schlimm ist, wie Ken es darstellt .

Mehrere Dinge, die er in diesem Artikel sagt, sind absolut falsch, beginnend mit:

Ab 2006 ermöglichen diese cleveren Algorithmen, mit einem Drittel der Daten zu beginnen und sie so gut aussehen zu lassen, als hätte man die Hälfte der beanspruchten Pixelzahl.

Das war 2006 Unsinn und ist es heute Unsinn. Der Prozess funktioniert auf einigen einfachen Annahmen. Weitere davon sind hier aufgeführt , aber die grundlegende ist, dass Sie vorhersagen können, was die "fehlenden" Informationen auf den andersfarbigen Nachbarpixeln aussehen sollten. Dies erweist sich die meiste Zeit als gute Annahme und manchmal als sehr falsch. In Fällen, in denen es nicht viele sehr detaillierte Übergänge zwischen den Farben gibt, ist das Ergebnis genauso gut, als ob jeder Sensor in voller Farbe aufgenommen hätte. In Fällen, in denen die Annahme falsch ist, ist es viel schlimmer. In der realen Welt ist Ersteres tatsächlich sehr verbreitet und funktioniert viel besser als „eine Hälfte“ – aber das Wichtigste ist, dass es kontextabhängig ist.

RAW bietet hier bis auf ein mögliches Glücksspiel keine Vorteile. Die Bayer-Interpolation findet in der Software statt, die die Rohdaten öffnet. Zukünftige Fortschritte bei Bayer-Interpolationsalgorithmen könnten in zukünftige Rohsoftware integriert werden, wenn und nur wenn Ihr Kamerahersteller weiterhin die Kameras von gestern in der Software von morgen unterstützt. Genauso wahrscheinlich wird Ihr Kamerahersteller Ihre alte Kamera in der Rohsoftware von morgen möglicherweise nicht mehr unterstützen!

Er hat Recht damit, dass das Aufnehmen von RAW nichts an den Grundlagen ändert, aber die Vorstellung, dass alte Dateien nicht mehr funktionieren, ist im Grunde Unsinn . Da alte Kameras das gleiche Grundprinzip und im Grunde ähnliche Dateiformate verwenden, kostet es nicht viel, Unterstützung für alte Modelle auf unbestimmte Zeit mitzubringen, und die Anbieter haben viele Anreize dazu – und selbst wenn das passieren würde, gibt es großartige Open-Source-Decoder.

Und natürlich bietet das Aufbewahren von RAW-Dateien andere Vorteile , die nicht mit dem Demosaikieren zusammenhängen.

Aber es ist auch dumm zu sagen, dass die Möglichkeit zukünftiger Verbesserungen der einzige Vorteil ist. Wie gesagt, es gibt verschiedene Annahmen, die über den Inhalt Ihres Bildes getroffen werden können, und verschiedene Algorithmen (oder Anpassungen an diesen Algorithmen) passen besser zu verschiedenen realen Situationen, also wenn Sie sich in einer Situation befinden, in die Sie geraten Moiré oder andere Artefakte, vielleicht können Sie damit umgehen. (Obwohl ich hinzufügen sollte, dass dies auf der sehr pingeligen Ebene ist – es gibt sehr selten eine Situation, in der es sich lohnt, so genau hinzuschauen.)

Es gibt auch einen Faktor, für den Ken entschuldigt werden kann, weil der Artikel ein Jahrzehnt alt ist. Im Jahr 2006 lagen die meisten Kameras im Bereich von 5 bis 8 Megapixeln, wobei High-End-DSLR-Modelle bis zu 12 reichten. Heute bieten typische DSLRs und spiegellose Kameras im unteren/mittleren Bereich 16 und 24 Megapixel, und es geht von dort aus weiter nach oben. An diesem Punkt ist es wirklich akademisch, über Farbdetails auf Pixel-Peeping-Ebene zu streiten , denn in der realen Welt ist es sehr selten, dass Beleuchtung, Objektive, Stabilität und alles andere so gut aufeinander abgestimmt sind, dass dies der begrenzende Faktor ist.

Im Allgemeinen sind viele Seiten von Ken Rockwell so. (Weitere Informationen finden Sie in dieser Antwort .) Das ist bedauerlich, da er tatsächlich viele interessante Dinge zu sagen und einige gute Ratschläge zu sagen hat, aber es gibt auch viel Unsinn, und anstatt das zuzugeben oder zu verbessern, neigt er dazu, sich zu verdoppeln herunter und behauptet dann, dass die ganze Seite Satire ist.

Oh, und ein Bonus-Fun-Fact: LCD-Bildschirme und EVFs auf der Rückseite der Kamera verwenden ebenfalls drei farbige Subpixel, um ein digitales Pixel darzustellen, und diese Bildschirme werden normalerweise mit der Anzahl der Subpixel vermarktet – effektiv 3 × so viel, wie Sie vielleicht erwarten von der Art und Weise, wie die Auflösung des Computerbildschirms angegeben wird.

"Ebenso wahrscheinlich wird Ihr Kamerahersteller Ihre alte Kamera in der Rohsoftware von morgen nicht mehr unterstützen!" Uns bleiben ein paar verbleibende Filmentwicklungslabore. Lieferengpässe werden die Filmverarbeitung wahrscheinlich beenden. Wird dies mit RAW-Dateien passieren? Buchstäblich jede Datei, die seit den 70er Jahren von einem Computer erstellt wurde, ist immer noch in jeder modernen Software verwendbar, solange ihre Struktur dokumentiert oder rückentwickelt wurde.

Es ist alles wahr, aber die Interpretation kann ausgedehnt werden.

Dieses spezifische Rohfarbmuster wird als Bayer-Muster bezeichnet.

Ja, Raw ist eine Farbe pro Pixel, und dieses eine Pixel hat (normalerweise) 12 Bit. Es gibt also drei Farben von Rohpixeln, einige sind blau, einige sind rot und das Doppelte dieser Anzahl ist grün.

Später wandelt die Rohverarbeitungssoftware (um RGB-JPG zu erstellen, es könnte sich sofort in der Kamera befinden oder viel später extern sein) die Rohdaten in ein RGB-Bild um, damit wir es verwenden können. Dies ist eine Interpolation, benachbarte Pixel der anderen beiden Farben werden zu jedem dieser RGB-Pixel kombiniert, aber alle werden zu RGB-Pixeln. An diesem Punkt sind es 36-Bit-RGB-Pixel, jedoch ist die räumliche Auflösung leicht beeinträchtigt, da die verschiedenen Pixeldaten mit Nachbarn geteilt werden. Am Ende haben wir vielleicht (zum Beispiel) 6000 RGB-Pixel Sensorbreite, aber sie stammen von 2000 blauen und 2000 roten Sensoren usw. (und die Daten werden auch vertikal geteilt, sie stammen von mehr als drei Pixeln). Dies nennt man Demosaikierung ... die online gefunden werden kann.

IMHO sind typischerweise 14 Bit. Nur alte Kameras (z. B. Canon S120) speichern 12 Bit pro Pixel
@RomeoNinov, es ist nicht so einfach wie alt gegen neu. Bei einigen Nikons können Sie beispielsweise 12 Bit oder 14 Bit wählen, sodass Sie einen Kompromiss zwischen Bildtiefe und Serienbildrate und Bildgröße eingehen können.
@PeterTaylor, weiß das nie, ich bin Canon-Shooter. Aber das sollte für mich Ausnahme sein, nicht Regel (12 Bit). Und soweit ich mich erinnere, speichern einige Kameras in 16 Bit pro Pixel
Wäre ein viel stärkeres Argument, wenn Sie Beweise dafür liefern würden, dass die meisten Canon-Kameras 14 Bit haben. Hier sagt Canon etwas anderes: cpn.canon-europe.com/content/education/infobank/… „Die meisten EOS-Digitalkameras nehmen Bilder im 12-Bit-Modus auf“
@WayneF Basierend auf der Kamera, die zu dieser Zeit als die beste von Canon bezeichnet wurde (1D Mark II), wurde dieser Artikel irgendwann zwischen April 2004 (als die 1D II die 1D ersetzte) und Juni 2005 (als die 1D Mark IIN die 1D II ersetzte) geschrieben. .