Wie sieht eine unbearbeitete RAW-Datei aus?

Ich weiß, dass Leute ausgefallene Software wie Lightroom oder Darktable verwenden, um ihre RAW-Dateien nachzubearbeiten. Aber was, wenn ich es nicht tue? Wie sieht die Datei aus, nur RAW ?

Die Matrix. Es sieht aus wie die Matrix.
Verwandt; RAW-Dateien speichern 3 Farben pro Pixel oder nur eine? und Warum sind Rot, Grün und Blau die Grundfarben des Lichts? Dies erklärt, wie Digitalkamerasensoren die Art und Weise minimieren, wie Augen / Gehirne Farben wahrnehmen , die in gewisser Weise nicht so existieren, wie wir oft annehmen.
@Hueco, vielleicht eine Bayer-Matrix.
Ich habe die Diskussion darüber, wie man dies am besten als kanonische Frage behandelt, in den Chat verschoben . Lassen Sie es uns bitte dort fortsetzen, damit wir keinen Lärm in den Kommentaren haben, wie auch immer die Entscheidung letztendlich ausfallen wird.
10000111100111000011111101010101111100001111110001010101100000011000001111111011110000101010111110000001010101010100000000
Es sieht nicht so aus, als ob es sich um das "gerade aus der Kamera stammende Rohbild" handelt, von dem viele Leute zu glauben scheinen, dass sie eine Rohbilddatei in einer Rohdatenverarbeitungsanwendung öffnen. Das ist die Grundlage für diese Frage.

Antworten (4)

Es gibt ein Tool namens dcraw , das verschiedene RAW-Dateitypen liest und Pixeldaten daraus extrahiert – es ist eigentlich der Originalcode ganz unten in vielen Open-Source- und sogar kommerziellen RAW-Konvertierungssoftware.

Ich habe eine RAW-Datei von meiner Kamera und habe dcraw in einem Modus verwendet, der es anweist, ein Bild mit wörtlichen, unskalierten 16-Bit-Werten aus der Datei zu erstellen. Ich habe das zum Teilen in ein 8-Bit-JPEG konvertiert, wobei ich Wahrnehmungs-Gamma verwendet habe (und zum Hochladen herunterskaliert habe). Das sieht so aus:

dcraw -E -4

Offensichtlich ist das Ergebnis sehr dunkel, aber wenn Sie zum Erweitern klicken und Ihr Monitor anständig ist, können Sie einen Hinweis auf etwas sehen .

Hier ist das Farb-JPEG außerhalb der Kamera, das aus derselben RAW-Datei gerendert wurde:

JPEG außerhalb der Kamera

(Bildnachweis: meine Tochter benutzt übrigens meine Kamera.)

Immerhin nicht ganz dunkel. Die Details darüber, wo genau alle Daten versteckt sind, werden am besten durch eine ausführliche Frage abgedeckt , aber kurz gesagt, wir brauchen eine Kurve, die die Daten über den Bereich von Dunkelheit und Licht erweitert, der in einem 8-Bit-JPEG auf einem typischen Bildschirm verfügbar ist .

Glücklicherweise hat das dcraw-Programm einen anderen Modus, der in ein "nützlicheres", aber immer noch kaum verarbeitetes Bild konvertiert. Dadurch wird der Pegel des dunkelsten Schwarz und des hellsten Weiß angepasst und die Daten entsprechend neu skaliert. Es kann den Weißabgleich auch automatisch oder anhand der in der RAW-Datei aufgezeichneten Kameraeinstellung vornehmen, aber in diesem Fall habe ich ihm gesagt, dass dies nicht der Fall sein soll, da wir die geringstmögliche Verarbeitung untersuchen möchten.

Es gibt immer noch eine Eins-zu-Eins-Entsprechung zwischen den Fotoseiten auf dem Sensor und den Pixeln in der Ausgabe (obwohl ich dies für den Upload wieder herunterskaliert habe). Das sieht so aus:

dcraw -d -r 1 1 1 1

Nun, das ist offensichtlich besser als Bild erkennbar – aber wenn wir hineinzoomen (hier ist also jedes Pixel tatsächlich 10-fach vergrößert), sehen wir, dass alles … dotty ist:

10-facher Zoom und Zuschneiden

Das liegt daran, dass der Sensor von einem Farbfilterarray bedeckt ist – winzig kleine farbige Filter in der Größe jeder Fotostelle. Da meine Kamera eine Fujifilm-Kamera ist, verwendet diese ein Muster, das Fujifilm "X-Trans" nennt und das so aussieht:

10× xtrans

Es gibt einige Details über das bestimmte Muster, die irgendwie interessant sind, aber insgesamt ist es nicht besonders wichtig. Die meisten Kameras verwenden heute ein so genanntes Bayer- Muster (das sich alle 2 × 2 statt 6 × 6 wiederholt). Beide Muster haben mehr grüne Filterstellen als rote oder blaue. Das menschliche Auge ist in diesem Bereich lichtempfindlicher, und daher ermöglicht die Verwendung von mehr Pixeln mehr Details mit weniger Rauschen.

Im obigen Beispiel ist der mittlere Abschnitt ein Himmelsfleck, der einen Cyan-Ton hat – in RGB ist das viel Blau und Grün ohne viel Rot. Die dunklen Punkte sind also die Rotfilterstellen – sie sind dunkel, weil dieser Bereich nicht so viel Licht in den Wellenlängen hat, die durch diesen Filter gelangen. Der diagonale Streifen über der oberen rechten Ecke ist ein dunkelgrünes Blatt. Während also alles ein wenig dunkel ist, können Sie das Grün sehen – die größeren 2 × 2-Blöcke mit diesem Sensormuster – sind relativ die hellsten in diesem Bereich.

Wie auch immer, hier ist ein 1: 1-Ausschnitt des JPEGs außerhalb der Kamera (wenn Sie klicken, um die Vollversion zu erhalten, entspricht ein Pixel im Bild einem Pixel auf dem Bildschirm):

1:1-Ausschnitt des Bildes außerhalb der Kamera

... und hier ist derselbe Bereich aus der schnellen Graustufenkonvertierung oben. Sie können die Punktierung aus dem X-Trans-Muster sehen:

1:1 Crop der dcraw -d -r 1 1 1 1 Version

Wir können das tatsächlich nehmen und die Pixel einfärben, sodass diejenigen, die Grün im Array entsprechen, auf Grün statt auf Grau, Rot auf Rot und Blau auf Blau abgebildet werden. Das gibt uns:

1:1 mit xtrans-Einfärbung

... oder für das ganze Bild:

Vollbild von dcraw -d -r 1 1 1 1 mit xtrans-Einfärbung

Der Grünstich ist sehr auffällig, was keine Überraschung ist, da es 2½ × mehr grüne Pixel als rote oder blaue Pixel gibt. Jeder 3×3-Block hat zwei rote Pixel, zwei blaue Pixel und fünf grüne Pixel. Um dem entgegenzuwirken, habe ich ein sehr einfaches Skalierungsprogramm erstellt, das jeden dieser 3×3-Blöcke in ein einzelnes Pixel umwandelt. In diesem Pixel ist der grüne Kanal der Durchschnitt der fünf grünen Pixel und der rote und der blaue Kanal der Durchschnitt der entsprechenden zwei roten und blauen Pixel. Das gibt uns:

xtrans koloriertes, naives Block-Desaiking

... was eigentlich gar nicht so schlecht ist. Der Weißabgleich ist ausgeschaltet, aber da ich mich bewusst dafür entschieden habe, ihn nicht anzupassen, ist das keine Überraschung. Wenn Sie in einem Bildbearbeitungsprogramm auf "automatischer Weißabgleich" klicken, wird dies kompensiert (da dies von vornherein von dcraw eingestellt worden wäre):

xtrans koloriertes, naives Block-Desaiking + Auto-Levels

Die Detailgenauigkeit ist im Vergleich zu den ausgefeilteren Algorithmen, die in Kameras und RAW-Verarbeitungsprogrammen verwendet werden, nicht besonders gut, aber die Grundlagen sind eindeutig vorhanden. Bessere Ansätze erzeugen Vollfarbbilder, indem sie die unterschiedlichen Werte um jedes Pixel herum gewichten, anstatt mit großen Blöcken zu arbeiten. Da sich die Farbe in Fotos normalerweise allmählich ändert, funktioniert dies ziemlich gut und erzeugt Bilder, bei denen das Bild vollfarbig ist, ohne die Pixelabmessungen zu verringern. Es gibt auch clevere Tricks, um Kantenartefakte, Rauschen und andere Probleme zu reduzieren. Dieser Vorgang wird als „Demosaikierung“ bezeichnet, da das Muster aus farbigen Filtern wie ein Kachelmosaik aussieht.

Ich nehme an, diese Ansicht (in der ich keine wirklichen Entscheidungen getroffen habe und das Programm nichts automatisch intelligent gemacht hat) hätte als "Standard-Standarderscheinungsbild" der RAW-Datei definiert werden können, wodurch viele Internet-Argumente beendet wurden. Aber es gibt keinen solchen Standard – es gibt keine solche Regel, dass diese bestimmte „naive“ Interpretation etwas Besonderes ist.

Und dies ist nicht der einzig mögliche Ausgangspunkt. Alle realen RAW-Verarbeitungsprogramme haben ihre eigenen Vorstellungen von einem grundlegenden Standardzustand, der beim Laden auf eine neue RAW-Datei angewendet wird. Sie müssen etwas tun (sonst hätten wir dieses dunkle, nutzlose Ding oben in diesem Beitrag), und normalerweise tun sie etwas Klügeres als meine einfache manuelle Konvertierung, was Sinn macht, weil Sie damit sowieso bessere Ergebnisse erzielen.

Schönes Bild. Und tolle Antwort.
Der Unterschied zwischen dem 9. und 10. Bild ist der Unterschied zwischen dem „roten“ Filter (wahrscheinlich tatsächlich Gelborange, das ≈600 nm am effizientesten durchlässt) und „rot“ in RGB-Systemen (bei ≈640 nm), dem „grünen“ Filter (≈540 nm ) und „Grün“ in RGB (≈525nm) und der „blaue“ Filter (≈460nm) und „Blau“ in RGB (≈480nm).
"Wenn Sie zum Erweitern klicken und Ihr Monitor anständig ist, können Sie einen Hinweis auf etwas sehen" Ich kann eine Menge Staub auf meinem Monitorbildschirm sehen.
Wow, ich glaube, mir wurde noch nie ein so komplexes Thema so klar und prägnant erklärt. Danke, Matthias!
„Der Weißabgleich ist deaktiviert, aber da ich mich bewusst dafür entschieden habe, ihn nicht anzupassen, ist das keine Überraschung.“ Es ist weniger so, dass der WB ausgeschaltet ist, als dass die Farbe der "roten" Filter im CFA des Sensors tatsächlich gelb-orange ist ("grüne" und "blaue" Filter sind näher, aber auch nicht genau), aber dann die nicht übersetzten Ergebnisse von mit Gelb-Orange gefilterten Sinnen werden als tatsächliches Rot gerendert. Wenn Sie an einem sonnigen Tag draußen waren, war die CT des Lichts in der Szene (6000 K?) Wahrscheinlich nicht so weit von dem entfernt, was Sie wahrscheinlich auf Ihrem Monitor haben GPU eingestellt auf (6500K?).

Es ist ein wirklich sehr großes Zahlenraster. Alles andere ist Verarbeitung.

Kommentare sind nicht für längere Diskussionen gedacht; Diese Konversation wurde in den Chat verschoben .

Ich weiß, dass es von mattdm bereits recht gut beantwortet wurde, aber ich dachte nur, dass Sie diesen Artikel vielleicht interessant finden könnten .

Falls der Link nicht funktioniert, hier eine Zusammenfassung:

Das menschliche Auge ist am empfindlichsten für Farben im grünen Wellenlängenbereich (zufällig mit der Tatsache, dass unsere Sonne im grünen Bereich am intensivsten strahlt).

Das Kameraauge (ladungsgekoppeltes Bauelement (CCD) oder komplementärer Metalloxidhalbleiter (CMOS)) reagiert nur auf Lichtintensität, nicht auf Farbe.

Optische Filter werden verwendet, um verschiedene Lichtwellenlängen zu dämpfen. Zum Beispiel lässt ein grüner Passfilter mehr grünes Licht durch als rotes oder blaues Licht, obwohl ein bisschen von jedem durch den grünen Filter gelangt, genauso wie die Zapfen mittlerer Wellenlänge in unserer menschlichen Netzhaut ein wenig auf rotes und blaues Licht reagieren sie reagieren viel stärker auf Grün.

Optische Filter, die in Digitalkameras verwendet werden, haben die Größe der einzelnen Pixelsensoren und sind in einem Raster angeordnet, um dem Sensorarray zu entsprechen. Rot-, Grün- und Blaufilter (ähnlich wie unsere Kegelzellen) werden verwendet. Da unsere Augen jedoch empfindlicher für Grün sind, hat der Bayer-Array-Filter 2 grüne Pixelfilter für jedes rote und blaue Pixel. Das Bayer-Array hat grüne Filter, die ein schachbrettartiges Muster bilden, während rote und blaue Filter abwechselnde Reihen einnehmen.

Zurück zu Ihrer ursprünglichen Frage: Wie sieht eine unbearbeitete RAW-Datei aus?

Es sieht aus wie ein schwarz-weiß kariertes Gitter des Originalbildes.

Die schicke Software zur Nachbearbeitung der RAW-Dateien wendet zunächst den Bayer-Filter an. Danach sieht es eher wie das eigentliche Bild aus, mit Farbe in der richtigen Intensität und an den richtigen Stellen. Allerdings gibt es immer noch Artefakte des RGB-Rasters aus dem Bayer-Filter, weil jedes Pixel nur eine Farbe hat.

Es gibt eine Vielzahl von Methoden zum Glätten der farbcodierten RAW-Datei. Das Glätten der Pixel ähnelt jedoch dem Weichzeichnen, daher kann zu viel Glätten eine schlechte Sache sein.

Einige der Demosaicing-Methoden werden hier kurz beschrieben:

Nächster Nachbar: Der Wert eines Pixels (einzelne Farbe) wird auf seine anderen farbigen Nachbarn angewendet und die Farben werden kombiniert. Dabei entstehen keine „neuen“ Farben, sondern nur Farben, die ursprünglich vom Kamerasensor wahrgenommen wurden.

Lineare Interpolation: Mittelt beispielsweise die beiden benachbarten Blauwerte und wendet den durchschnittlichen Blauwert auf das grüne Pixel zwischen den benachbarten blauen Pixeln an. Dies kann scharfe Kanten verwischen.

Quadratische und kubische Interpolation: ähnlich der linearen Interpolation, Annäherungen höherer Ordnung für die Zwischenfarbe. Sie verwenden mehr Datenpunkte, um bessere Anpassungen zu generieren. linear betrachtet nur zwei, quadratisch drei und kubisch vier, um eine Zwischenfarbe zu erzeugen.

Catmull-Rom-Splines: ähnlich wie kubisch, berücksichtigt jedoch den Gradienten jedes Punktes, um die Zwischenfarbe zu erzeugen.

Halbkosinus: Wird als Beispiel für eine Interpolationsmethode verwendet und erzeugt Halbkosinusse zwischen jedem Paar gleicher Farben und hat eine glatte gebogene Kurve zwischen ihnen. Allerdings bietet es, wie im Artikel angemerkt, aufgrund der Anordnung der Farben keinen Vorteil für Bayer-Arrays. Sie ist äquivalent zur linearen Interpolation, jedoch mit höherem Rechenaufwand.

High-End-Nachbearbeitungssoftware verfügt über bessere Demosaicing-Methoden und clevere Algorithmen. So können sie beispielsweise scharfe Kanten oder starke Kontrastveränderungen erkennen und beim Kombinieren der Farbkanäle ihre Schärfe bewahren.

Die Lichtempfindlichkeit sowohl von CCD- als auch von CMOS-Sensoren ist über die Spektren hinweg nicht linear. Bei modernen CCD- und CMOS-Sensoren wird dies häufig mithilfe einer Nachschlagetabelle (LUT) innerhalb der Sensorelektronik korrigiert, um Variationen der Sensorquanteneffizienz sowohl in Bezug auf die spektrale Abweichung als auch in Bezug auf die Linearität zu normalisieren. Zusätzlich spielen Farbmasken eine Rolle und können angepasst werden, um Schwankungen der spektralen Quanteneffizienz zu kompensieren. In High-End-Sensoren wird eine Kombination aus Farbmaskierungsfarbstoffauswahl und LUTs verwendet, um optimierte Ergebnisse zu erzielen.
Menschliche Zapfen sind auch insofern "monochromatisch", als sie nur einen Intensitätswert an das Gehirn senden. Das Gehirn erzeugt die Wahrnehmung von Farbe, die in Lichtwellenlängen oder anderen Teilen des elektromagnetischen Spektrums nicht existiert. Andere Arten sehen keine Farben für die gleichen Wellenlängen, die wir als Farben wahrnehmen, und wir nehmen einige Wellenlängen nicht wahr, die andere Tiere als Farbe wahrnehmen. Farbe ist keine intrinsische Eigenschaft des Teils des EM-Spektrums, den wir „Licht“ nennen, sondern eine Eigenschaft der Wahrnehmung von Teilen des EM-Spektrums durch Menschen oder andere Kreaturen.
Weder die Zapfen in der menschlichen Netzhaut noch die Farbfilter in Kameras mit Bayer-Maske sind tatsächlich am empfindlichsten / durchlässigsten für "Rot", "Grün" und "Blau". Die langwelligen, mittelwelligen und kurzwelligen Zapfen wurden Jahrzehnte, bevor wir die Spitzenempfindlichkeit der drei Arten von Netzhautzapfen genau messen konnten, mit R, G und B bezeichnet. Es gibt kaum einen Unterschied zwischen dem „Grün mit einem Hauch von Gelb“, auf das unsere M-Zapfen am besten reagieren, und dem Gelb „mit einem Hauch von Grün“, auf das unsere L-Zapfen am besten ansprechen. Es ist der Unterschied, den unser Gehirn verwendet, um Farben zu erzeugen.
Obwohl die genauen Farben von Kamera zu Kamera variieren können, haben die „Blau“- und „Grün“-Filter eher einen violetten Blauton (455 nm statt 480 nm) und einen leicht gelben Grünton (540 nm statt 525 nm). Die "roten" Filter sind eher orange-gelb mit einer maximalen Durchlässigkeit bei etwa 590-600 nm und nicht wirklich rot bei etwa 640 nm. Es wird in dieser Antwort sehr detailliert behandelt

Ich denke, viele Leute stellen sich vor, dass Raw-Dateien einfach eine Reihe von Pixelwerten sind, die direkt aus dem Kamerasensor kommen. Es gibt Fälle, in denen dies wirklich der Fall ist, und Sie müssen einige Informationen über den Sensor angeben, damit die Software das Bild interpretieren kann. Aber viele Consumer-Kameras geben normalerweise "Rohdateien" aus, die tatsächlich mehr oder weniger der TIFF-Dateispezifikation entsprechen (in einigen Fällen können die Farben abweichen). Man kann es versuchen, indem man einfach die Dateiendung auf „.tif“ ändert und sieht, was beim Öffnen der Datei passiert. Ich denke, einige von Ihnen werden ein gutes Bild sehen, aber nicht alle, da es Unterschiede zwischen der Art und Weise gibt, wie verschiedene Kameramarken dies lösen.

Eine TIFF-Datei anstelle einer "echten Raw-Datei" ist eine gute Lösung. Eine TIFF-Datei kann 16 Bit pro Farbe haben. Das reicht für alle mir bekannten Kameras.

Ed: Ich frage mich, warum diese Antwort abgelehnt wurde. Die Antwort ist im Wesentlichen richtig (mit Vorbehalt der Tatsache, dass Kamerahersteller keine TIFF-Strukturen verwenden müssen, aber viele von ihnen tun dies).

Was den Teil über die Anordnung von Pixeln direkt aus dem Sensor angeht, ist es nicht lächerlich, so etwas zu erwarten. Denn so funktionieren viele Sensoren außerhalb des Consumer-Kameramarktes. In diesen Fällen müssen Sie eine separate Datei bereitstellen, die den Sensor beschreibt.

Das Wort „RAW“ wird übrigens verwendet, weil es bedeuten soll, dass wir die unverarbeiteten Sensordaten erhalten. Aber es ist vernünftig, dass die Kamerahersteller ein strukturiertes Format anstelle von echten Rohdateien verwenden. Auf diese Weise muss der Fotograf die genauen Sensordaten nicht kennen.

Ich muss noch einen Rohkonverter finden, der sogar eine .cr2-Datei öffnen und anzeigen kann, deren Erweiterung in .TIFF geändert wurde, geschweige denn, dass sie wie etwas anderes als ein dunkelgrauer Fleck aus Nichts aussieht. Nur weil ein Rohformat den TIFF-Standard verwendet, bedeutet das nicht, dass die für jede Fotoseite ausgedrückten Werte in einem verwendbaren RGB-Format vorliegen, das unsere Anzeigegeräte erwarten. Sie sind immer noch monochrome lineare Luminanzwerte, keine trichromatischen RGB-Werte für jede Fotoseite.
Ich hatte Dateiwiederherstellungsanwendungen, die .cr2-Dateien als TIFFs "wiederhergestellt" haben. Diese Dateien ließen sich mit keiner Anwendung öffnen, die mit TIFFs arbeiten kann. Das Zurücksetzen der Dateierweiterungen auf .cr2 machte sie zu perfekt verwendbaren .cr2-Dateien.
Ich habe es gerade mit einer .cr2-Datei von meiner EOS M-Kamera versucht. Photoshop öffnete es sofort. Das libtiff-Programm „tiffinfo“ bemängelte die fehlende photometrische Interpretation, die für das Lesen des Bildes wichtig ist. Trotzdem hat tiffinfo viele korrekte Informationen über die Datei gelesen. Dies bestätigt, dass das Bild der TIFF-Spezifikation bis zu dem Grad entspricht, dass zumindest Informationen in TIFF-Tags gespeichert werden. Aber die Datei kann sich sicherlich auf andere Weise unterscheiden, da Canon nie versprochen hat, dass es sich um ein gültiges TIFF handeln sollte.
Versuchen Sie dies mit einer älteren Version von ACR, die nicht über die erforderlichen Profile für die EOS-M verfügt. Anscheinend ist Photoshop (unter Verwendung von ACR) in der Lage, die "falsche" Dateierweiterung zu erkennen und sie als .cr2 zu verarbeiten (unter Anwendung von Demosaicing, Gammakorrektur usw.). Wenn es Ihnen eine "geradlinige" Wiedergabe der Informationen auf Pixelebene geben würde, wären dies alles Töne von Schwarz ←→ Grau ←→ Weiß.
Nun, cr2 folgt der TIFF-Spezifikation, soweit es TIFF-Tags verwendet, wie sie in der Spezifikation beschrieben sind, aber cr2 verwendet nicht alle erforderlichen Tags. Wenn Sie libtiff herunterladen, können Sie erforderliche Tags mit "tiffcp" bereitstellen. Es ist nicht einfach, aber absolut machbar.
Ich denke, Michael hat Recht, dass Photoshop die Datei trotz ihrer Erweiterung erkennt. Ich habe eine Beispiel-EOS M-Rohdatei von photographyblog heruntergeladen und in .tif. Geeqie zeigt die eingebettete JPEG-Vorschau (genau wie beim Namen .crw. Wenn ich in GIMP öffne, erkennt es, dass es sich um eine RAW-Datei handelt, und startet Darktable zum Importieren.
Das soll nicht heißen, dass RAW-Dateien nicht oft Container im TIFF-Format verwenden – das ist absolut richtig. Es ist nur so, dass das, was Sie sehen, wahrscheinlich nicht die "RAW" -Daten in dem Sinne sind, nach dem ich suche.
Nur fürs Protokoll, ich bin nicht der Downvoter. Aber ich glaube, ich verstehe, warum jemand so etwas tun würde.
Ok, zur Verdeutlichung, die Datei verwendet Strukturen aus dem TIFF-Dateiformat. Aber da es nicht genau das tut, was die TIFF-Spezifikation sagt, ist es keine reine TIFF-Datei. Aber der Punkt ist, dass eine TIFF-Bibliothek verwendet werden könnte, um die Datei zu lesen. Man muss nicht alles von Grund auf neu machen, um diese Datei zu lesen.
Eine Art muss jedoch etwas von Grund auf neu erstellen, um etwas Nützliches mit der Datei zu tun. Andernfalls erhalten Sie das fast ganz dunkle, fleckige Graustufenbild, mit dem ich meine Antwort leite.
Niemand mit Verstand würde erwarten, dass eine RAW-Datei Daten direkt vom Sensor ohne irgendwelche Metadaten wie Zeit, Kamerainformationen usw. sind. Die Tatsache, dass TIFF-ähnliche Formate nützlich sind, um die Daten zu strukturieren, ist nicht wirklich wichtig, es mindert auch nicht das konzeptionelle Prinzip, dass diese Daten ohne Nachbearbeitung "direkt" vom Sensor kommen.
Wenn Sie sich außerhalb der Verbraucherkameras umsehen, stellen Sie fest, dass Rohdateien nicht jedes Mal so strukturiert sein müssen: desktop.arcgis.com/en/arcmap/10.3/manage-data/raster-and-images/… Die Dateien dort beschrieben, sind eigentlich nichts anderes als Pixel. Sie müssen Informationen über alles liefern. Aber sicher, es ist nicht der übliche Fall bei gewöhnlichen Kameras.
TIFF ist ein Container, nicht wirklich ein Bildformat. Sie können Daten in TIFF speichern und haben immer noch rohe Sensordaten anstelle eines Bildes, das jeder ohne kameraspezifische Kenntnisse verwenden könnte.
Zur Bearbeitung: Ich habe nicht abgelehnt, aber ich denke, die Kommentare oben erklären ziemlich deutlich, warum die Leute es getan haben. .tifInsbesondere bin ich mir ziemlich sicher, dass der Vorschlag, RAW-Dateien in ein Bildbearbeitungsprogramm umzubenennen und zu öffnen, weder hilfreich noch richtig ist. Programme, für die dies funktioniert, zeigen entweder die von der Kamera generierte JPEG-Vorschau oder verwenden spezifische Kenntnisse des tatsächlichen RAW-Formats (nicht generisches TIFF), das sie anhand von Daten in der Datei selbst und nicht anhand des Dateinamens erkennen.
Außerdem frage ich mich, ob eine TIFF-Datei anstelle einer "echten Rohdatei" eine gute Lösung ist - eine gute Lösung für was ?
Es wäre eine gute Lösung für das Problem, Informationen über den Sensor bereitzustellen. Eine TIFF-Datei kann 16 Bit pro Farbe verwenden, sodass Sie alle Informationen darin speichern können. Es wäre so gut wie roh.
@UlfTennfors Würden Sie das Bild demosaikieren, bevor Sie es speichern? Warum oder warum nicht?
Es wäre wahrscheinlich viel einfacher, das Bild zu verwenden, wenn es als TIFF demosaikiert wird. Was die Bildqualität betrifft, kann ein typischer Sensor oft mehr als 8 Bit pro Farbe erreichen. Aber sehr selten so viel wie 16 Bit pro Farbe. Wenn Sie also 16 Bit pro Farbe verwenden, sollten Sie immer noch die gleiche Qualität haben.
@UlfTennfors Es gibt einen grundlegenden Unterschied zwischen monochromatischen 14-Bit-Luminanzwerten (einer pro Pixel) und trichromatischen 16-Bit-Werten (pro Farbkanal) pro Pixel (48 Bit pro Pixel). Die Umwandlung von Roh- zu RGB-TIFF ist irreversibel. Obwohl die TIFF-Datei mehr Bittiefe hat und eine viel größere Datei ist, enthält sie nicht alle Informationen, die die Rohdatei enthält. Schwarzpunkt, Weißpunkt, Farbkanalmultiplikatoren usw. wurden alle "eingebacken". Obwohl ein 16-Bit-TIFF viel flexibler ist als ein 8-Bit-JPEG, ist beides nicht so flexibel wie eine 14-Bit-Rohdatei.