Ich weiß, dass Leute ausgefallene Software wie Lightroom oder Darktable verwenden, um ihre RAW-Dateien nachzubearbeiten. Aber was, wenn ich es nicht tue? Wie sieht die Datei aus, nur RAW ?
Es gibt ein Tool namens dcraw , das verschiedene RAW-Dateitypen liest und Pixeldaten daraus extrahiert – es ist eigentlich der Originalcode ganz unten in vielen Open-Source- und sogar kommerziellen RAW-Konvertierungssoftware.
Ich habe eine RAW-Datei von meiner Kamera und habe dcraw in einem Modus verwendet, der es anweist, ein Bild mit wörtlichen, unskalierten 16-Bit-Werten aus der Datei zu erstellen. Ich habe das zum Teilen in ein 8-Bit-JPEG konvertiert, wobei ich Wahrnehmungs-Gamma verwendet habe (und zum Hochladen herunterskaliert habe). Das sieht so aus:
Offensichtlich ist das Ergebnis sehr dunkel, aber wenn Sie zum Erweitern klicken und Ihr Monitor anständig ist, können Sie einen Hinweis auf etwas sehen .
Hier ist das Farb-JPEG außerhalb der Kamera, das aus derselben RAW-Datei gerendert wurde:
(Bildnachweis: meine Tochter benutzt übrigens meine Kamera.)
Immerhin nicht ganz dunkel. Die Details darüber, wo genau alle Daten versteckt sind, werden am besten durch eine ausführliche Frage abgedeckt , aber kurz gesagt, wir brauchen eine Kurve, die die Daten über den Bereich von Dunkelheit und Licht erweitert, der in einem 8-Bit-JPEG auf einem typischen Bildschirm verfügbar ist .
Glücklicherweise hat das dcraw-Programm einen anderen Modus, der in ein "nützlicheres", aber immer noch kaum verarbeitetes Bild konvertiert. Dadurch wird der Pegel des dunkelsten Schwarz und des hellsten Weiß angepasst und die Daten entsprechend neu skaliert. Es kann den Weißabgleich auch automatisch oder anhand der in der RAW-Datei aufgezeichneten Kameraeinstellung vornehmen, aber in diesem Fall habe ich ihm gesagt, dass dies nicht der Fall sein soll, da wir die geringstmögliche Verarbeitung untersuchen möchten.
Es gibt immer noch eine Eins-zu-Eins-Entsprechung zwischen den Fotoseiten auf dem Sensor und den Pixeln in der Ausgabe (obwohl ich dies für den Upload wieder herunterskaliert habe). Das sieht so aus:
Nun, das ist offensichtlich besser als Bild erkennbar – aber wenn wir hineinzoomen (hier ist also jedes Pixel tatsächlich 10-fach vergrößert), sehen wir, dass alles … dotty ist:
Das liegt daran, dass der Sensor von einem Farbfilterarray bedeckt ist – winzig kleine farbige Filter in der Größe jeder Fotostelle. Da meine Kamera eine Fujifilm-Kamera ist, verwendet diese ein Muster, das Fujifilm "X-Trans" nennt und das so aussieht:
Es gibt einige Details über das bestimmte Muster, die irgendwie interessant sind, aber insgesamt ist es nicht besonders wichtig. Die meisten Kameras verwenden heute ein so genanntes Bayer- Muster (das sich alle 2 × 2 statt 6 × 6 wiederholt). Beide Muster haben mehr grüne Filterstellen als rote oder blaue. Das menschliche Auge ist in diesem Bereich lichtempfindlicher, und daher ermöglicht die Verwendung von mehr Pixeln mehr Details mit weniger Rauschen.
Im obigen Beispiel ist der mittlere Abschnitt ein Himmelsfleck, der einen Cyan-Ton hat – in RGB ist das viel Blau und Grün ohne viel Rot. Die dunklen Punkte sind also die Rotfilterstellen – sie sind dunkel, weil dieser Bereich nicht so viel Licht in den Wellenlängen hat, die durch diesen Filter gelangen. Der diagonale Streifen über der oberen rechten Ecke ist ein dunkelgrünes Blatt. Während also alles ein wenig dunkel ist, können Sie das Grün sehen – die größeren 2 × 2-Blöcke mit diesem Sensormuster – sind relativ die hellsten in diesem Bereich.
Wie auch immer, hier ist ein 1: 1-Ausschnitt des JPEGs außerhalb der Kamera (wenn Sie klicken, um die Vollversion zu erhalten, entspricht ein Pixel im Bild einem Pixel auf dem Bildschirm):
... und hier ist derselbe Bereich aus der schnellen Graustufenkonvertierung oben. Sie können die Punktierung aus dem X-Trans-Muster sehen:
Wir können das tatsächlich nehmen und die Pixel einfärben, sodass diejenigen, die Grün im Array entsprechen, auf Grün statt auf Grau, Rot auf Rot und Blau auf Blau abgebildet werden. Das gibt uns:
... oder für das ganze Bild:
Der Grünstich ist sehr auffällig, was keine Überraschung ist, da es 2½ × mehr grüne Pixel als rote oder blaue Pixel gibt. Jeder 3×3-Block hat zwei rote Pixel, zwei blaue Pixel und fünf grüne Pixel. Um dem entgegenzuwirken, habe ich ein sehr einfaches Skalierungsprogramm erstellt, das jeden dieser 3×3-Blöcke in ein einzelnes Pixel umwandelt. In diesem Pixel ist der grüne Kanal der Durchschnitt der fünf grünen Pixel und der rote und der blaue Kanal der Durchschnitt der entsprechenden zwei roten und blauen Pixel. Das gibt uns:
... was eigentlich gar nicht so schlecht ist. Der Weißabgleich ist ausgeschaltet, aber da ich mich bewusst dafür entschieden habe, ihn nicht anzupassen, ist das keine Überraschung. Wenn Sie in einem Bildbearbeitungsprogramm auf "automatischer Weißabgleich" klicken, wird dies kompensiert (da dies von vornherein von dcraw eingestellt worden wäre):
Die Detailgenauigkeit ist im Vergleich zu den ausgefeilteren Algorithmen, die in Kameras und RAW-Verarbeitungsprogrammen verwendet werden, nicht besonders gut, aber die Grundlagen sind eindeutig vorhanden. Bessere Ansätze erzeugen Vollfarbbilder, indem sie die unterschiedlichen Werte um jedes Pixel herum gewichten, anstatt mit großen Blöcken zu arbeiten. Da sich die Farbe in Fotos normalerweise allmählich ändert, funktioniert dies ziemlich gut und erzeugt Bilder, bei denen das Bild vollfarbig ist, ohne die Pixelabmessungen zu verringern. Es gibt auch clevere Tricks, um Kantenartefakte, Rauschen und andere Probleme zu reduzieren. Dieser Vorgang wird als „Demosaikierung“ bezeichnet, da das Muster aus farbigen Filtern wie ein Kachelmosaik aussieht.
Ich nehme an, diese Ansicht (in der ich keine wirklichen Entscheidungen getroffen habe und das Programm nichts automatisch intelligent gemacht hat) hätte als "Standard-Standarderscheinungsbild" der RAW-Datei definiert werden können, wodurch viele Internet-Argumente beendet wurden. Aber es gibt keinen solchen Standard – es gibt keine solche Regel, dass diese bestimmte „naive“ Interpretation etwas Besonderes ist.
Und dies ist nicht der einzig mögliche Ausgangspunkt. Alle realen RAW-Verarbeitungsprogramme haben ihre eigenen Vorstellungen von einem grundlegenden Standardzustand, der beim Laden auf eine neue RAW-Datei angewendet wird. Sie müssen etwas tun (sonst hätten wir dieses dunkle, nutzlose Ding oben in diesem Beitrag), und normalerweise tun sie etwas Klügeres als meine einfache manuelle Konvertierung, was Sinn macht, weil Sie damit sowieso bessere Ergebnisse erzielen.
Es ist ein wirklich sehr großes Zahlenraster. Alles andere ist Verarbeitung.
Ich weiß, dass es von mattdm bereits recht gut beantwortet wurde, aber ich dachte nur, dass Sie diesen Artikel vielleicht interessant finden könnten .
Falls der Link nicht funktioniert, hier eine Zusammenfassung:
Das menschliche Auge ist am empfindlichsten für Farben im grünen Wellenlängenbereich (zufällig mit der Tatsache, dass unsere Sonne im grünen Bereich am intensivsten strahlt).
Das Kameraauge (ladungsgekoppeltes Bauelement (CCD) oder komplementärer Metalloxidhalbleiter (CMOS)) reagiert nur auf Lichtintensität, nicht auf Farbe.
Optische Filter werden verwendet, um verschiedene Lichtwellenlängen zu dämpfen. Zum Beispiel lässt ein grüner Passfilter mehr grünes Licht durch als rotes oder blaues Licht, obwohl ein bisschen von jedem durch den grünen Filter gelangt, genauso wie die Zapfen mittlerer Wellenlänge in unserer menschlichen Netzhaut ein wenig auf rotes und blaues Licht reagieren sie reagieren viel stärker auf Grün.
Optische Filter, die in Digitalkameras verwendet werden, haben die Größe der einzelnen Pixelsensoren und sind in einem Raster angeordnet, um dem Sensorarray zu entsprechen. Rot-, Grün- und Blaufilter (ähnlich wie unsere Kegelzellen) werden verwendet. Da unsere Augen jedoch empfindlicher für Grün sind, hat der Bayer-Array-Filter 2 grüne Pixelfilter für jedes rote und blaue Pixel. Das Bayer-Array hat grüne Filter, die ein schachbrettartiges Muster bilden, während rote und blaue Filter abwechselnde Reihen einnehmen.
Zurück zu Ihrer ursprünglichen Frage: Wie sieht eine unbearbeitete RAW-Datei aus?
Es sieht aus wie ein schwarz-weiß kariertes Gitter des Originalbildes.
Die schicke Software zur Nachbearbeitung der RAW-Dateien wendet zunächst den Bayer-Filter an. Danach sieht es eher wie das eigentliche Bild aus, mit Farbe in der richtigen Intensität und an den richtigen Stellen. Allerdings gibt es immer noch Artefakte des RGB-Rasters aus dem Bayer-Filter, weil jedes Pixel nur eine Farbe hat.
Es gibt eine Vielzahl von Methoden zum Glätten der farbcodierten RAW-Datei. Das Glätten der Pixel ähnelt jedoch dem Weichzeichnen, daher kann zu viel Glätten eine schlechte Sache sein.
Einige der Demosaicing-Methoden werden hier kurz beschrieben:
Nächster Nachbar: Der Wert eines Pixels (einzelne Farbe) wird auf seine anderen farbigen Nachbarn angewendet und die Farben werden kombiniert. Dabei entstehen keine „neuen“ Farben, sondern nur Farben, die ursprünglich vom Kamerasensor wahrgenommen wurden.
Lineare Interpolation: Mittelt beispielsweise die beiden benachbarten Blauwerte und wendet den durchschnittlichen Blauwert auf das grüne Pixel zwischen den benachbarten blauen Pixeln an. Dies kann scharfe Kanten verwischen.
Quadratische und kubische Interpolation: ähnlich der linearen Interpolation, Annäherungen höherer Ordnung für die Zwischenfarbe. Sie verwenden mehr Datenpunkte, um bessere Anpassungen zu generieren. linear betrachtet nur zwei, quadratisch drei und kubisch vier, um eine Zwischenfarbe zu erzeugen.
Catmull-Rom-Splines: ähnlich wie kubisch, berücksichtigt jedoch den Gradienten jedes Punktes, um die Zwischenfarbe zu erzeugen.
Halbkosinus: Wird als Beispiel für eine Interpolationsmethode verwendet und erzeugt Halbkosinusse zwischen jedem Paar gleicher Farben und hat eine glatte gebogene Kurve zwischen ihnen. Allerdings bietet es, wie im Artikel angemerkt, aufgrund der Anordnung der Farben keinen Vorteil für Bayer-Arrays. Sie ist äquivalent zur linearen Interpolation, jedoch mit höherem Rechenaufwand.
High-End-Nachbearbeitungssoftware verfügt über bessere Demosaicing-Methoden und clevere Algorithmen. So können sie beispielsweise scharfe Kanten oder starke Kontrastveränderungen erkennen und beim Kombinieren der Farbkanäle ihre Schärfe bewahren.
Ich denke, viele Leute stellen sich vor, dass Raw-Dateien einfach eine Reihe von Pixelwerten sind, die direkt aus dem Kamerasensor kommen. Es gibt Fälle, in denen dies wirklich der Fall ist, und Sie müssen einige Informationen über den Sensor angeben, damit die Software das Bild interpretieren kann. Aber viele Consumer-Kameras geben normalerweise "Rohdateien" aus, die tatsächlich mehr oder weniger der TIFF-Dateispezifikation entsprechen (in einigen Fällen können die Farben abweichen). Man kann es versuchen, indem man einfach die Dateiendung auf „.tif“ ändert und sieht, was beim Öffnen der Datei passiert. Ich denke, einige von Ihnen werden ein gutes Bild sehen, aber nicht alle, da es Unterschiede zwischen der Art und Weise gibt, wie verschiedene Kameramarken dies lösen.
Eine TIFF-Datei anstelle einer "echten Raw-Datei" ist eine gute Lösung. Eine TIFF-Datei kann 16 Bit pro Farbe haben. Das reicht für alle mir bekannten Kameras.
Ed: Ich frage mich, warum diese Antwort abgelehnt wurde. Die Antwort ist im Wesentlichen richtig (mit Vorbehalt der Tatsache, dass Kamerahersteller keine TIFF-Strukturen verwenden müssen, aber viele von ihnen tun dies).
Was den Teil über die Anordnung von Pixeln direkt aus dem Sensor angeht, ist es nicht lächerlich, so etwas zu erwarten. Denn so funktionieren viele Sensoren außerhalb des Consumer-Kameramarktes. In diesen Fällen müssen Sie eine separate Datei bereitstellen, die den Sensor beschreibt.
Das Wort „RAW“ wird übrigens verwendet, weil es bedeuten soll, dass wir die unverarbeiteten Sensordaten erhalten. Aber es ist vernünftig, dass die Kamerahersteller ein strukturiertes Format anstelle von echten Rohdateien verwenden. Auf diese Weise muss der Fotograf die genauen Sensordaten nicht kennen.
.tif
. Geeqie zeigt die eingebettete JPEG-Vorschau (genau wie beim Namen .crw
. Wenn ich in GIMP öffne, erkennt es, dass es sich um eine RAW-Datei handelt, und startet Darktable zum Importieren..tif
Insbesondere bin ich mir ziemlich sicher, dass der Vorschlag, RAW-Dateien in ein Bildbearbeitungsprogramm umzubenennen und zu öffnen, weder hilfreich noch richtig ist. Programme, für die dies funktioniert, zeigen entweder die von der Kamera generierte JPEG-Vorschau oder verwenden spezifische Kenntnisse des tatsächlichen RAW-Formats (nicht generisches TIFF), das sie anhand von Daten in der Datei selbst und nicht anhand des Dateinamens erkennen.
In der Pause.
Michael C
Markieren
A. J. Henderson
Alaska-Mann
Michael C