Was bringt es, 14-Bit-Bilder aufzunehmen und auf 8-Bit-Monitoren zu bearbeiten?

Ich bin etwas verwirrt. Wenn meine DSLR ein 14-Bit-Bild aufnimmt, während sie RAW aufnimmt. Benötige ich nicht auch einen 14-Bit-Monitor, um die Vorteile der Aufnahme in RAW voll auszuschöpfen? Was bringt es, ein Bild in 14 Bit aufzunehmen und es nur mit einem 8-Bit-Tiefenmonitor zu öffnen und zu bearbeiten?

Es sind mindestens 10 RAW-Bits erforderlich, um die für sRGB erforderliche Gammakurve anzuwenden, da die Erfassung linear ist.

Antworten (5)

Sie könnten Ihre Fotos mit einem alten gebrannten CRT-Schwarzweißmonitor bearbeiten, und es ist immer noch dasselbe: Die zusätzlichen Bits zählen.

Hier ist eine Simulation eines 14-Bit-Histogramms (A) und eines 8-Bit-Histogramms (B). Beide befinden sich über einem blauen Gitter, das eine 8-Bit-Anzeige oder ein 8-Bit-Dateiformat simuliert.

In B fallen alle Linien zusammen. (8-Bit-Format ist gut genug, weil es nahe an dem liegt, was unsere Augen in verschiedenen Graustufen wahrnehmen können)


Jetzt. Stellen Sie sich vor, Sie müssten Ihr Histogramm verschieben, weil Sie ein helleres, fröhliches Bild wünschen.

Die verschiedenen Ebenen auf der linken Seite gleiten nach rechts.

In Ihrer Rohdatei gibt es genügend "Unterebenen", um dieselben blauen Linien zu füllen. (C).

Aber die Daten auf dem 8-Bit-Bild beginnen, "Lücken" zu bilden (roter Bereich). Dies führt zu Streifenbildungsproblemen, erhöhtem Rauschen usw.

Geben Sie hier die Bildbeschreibung ein

Der wichtige Unterschied besteht also darin, wann Sie Ihr Bild manipulieren oder steuern, und Sie haben zusätzliche Daten. Das gibt Ihnen Freiheit.

+1 schönes Beispiel, aber man sollte es nicht wörtlich nehmen - in Wirklichkeit ist das 14-Bit-Rohmaterial linear, während die 8-Bit-Ausgabe dies nicht ist (wegen Gamma). immer noch eine gute Möglichkeit, um zu visualisieren, was die Bildverarbeitung mit dem Histogramm machen kann!
Ja, ganz wörtlich. Gamma ist tatsächlich DAS Hauptproblem, das 12 oder 14 Bit erfordert. Gamma ist im Wesentlichen die größte derartige Tonwertverschiebung, und in frühen Tagen wurde sie in 8 Bit schlecht und unzureichend durchgeführt. Also mussten Bilderzeugungsgeräte (Scanner und dann Kameras, die Gamma machen müssen) auf 10 Bit, dann 12 und jetzt 14 Bit verbessert werden ... all die Bits, für die wir uns Hardware leisten können, zumindest bis vor kurzem. Es stimmt natürlich, dass unser Auge niemals Gammadaten sieht (außer im Histogramm). Fortsetzung..
... Unsere Sichtweise wird für unser Auge immer notwendigerweise zurück in die ursprüngliche Linearität dekodiert, aber sie muss richtig kodiert worden sein. Der Grund, warum unsere Editor-Rohdaten die 12-16 Bits im PC behalten, ist, dass Gamma dann immer noch notwendig sein wird. 8 Bit sind für viele/die meisten Dinge ausreichend, aber Gamma braucht mehr. Das frühe Fernsehen war analog und so funktionierte Gamma gut, aber die ersten digitalen 8-Bit-Versuche waren Katastrophen. Miserable Leistung auf niedrigem Niveau.
@WayneF Gamma spiegelt die Nichtlinearität unserer menschlichen Sinne wider, es ist die Lösung, kein Problem!
@szulat Denken Sie diesen Unsinn besser aus. Unser Auge SIEHT NIEMALS Gammadaten. Für die CRT-Nichtlinearität wird eine Gammakorrektur durchgeführt. Dann decodiert CRT das Gamma einfach mit den CRT-Verlusten bei der Anzeige. LED-Monitore sind linear und benötigen kein Gamma (heute haben sie also einen Chip, um Gamma einfach zu decodieren und zu verwerfen). Unser Auge MUSS VOR der Gammacodierung UNBEDINGT dieselbe lineare Szene SEHEN, die das Originalobjektiv gesehen hat. Alles andere wäre Datenkorruption schlimmsten Grades. Gamma wird heute einfach aus Gründen der Kompatibilität mit allen Bilddaten der Welt beibehalten (und wahrscheinlich gibt es auch noch einige CRT).
@WayneF das ist ein weit verbreitetes Missverständnis. Gamma ist jetzt im digitalen Zeitalter genauso vorteilhaft wie damals in analogen CRT-Tagen. das Display muss die gleichen Pegel wie das Original darstellen, stimmt! aber unsere Wahrnehmung ist nichtlinear. Aus diesem Grund können Sie die Helligkeit mit Gamma als 8-Bit codieren und erhalten ein ähnliches Ergebnis wie bei einer linearen Codierung mit 11-12 Bit. mehr bits bedeutet mehr speicher, mehr bandbreite, mehr leistung - verschwendet ohne sichtbare effekte. Deshalb ist Gamma hier, um es zu sagen. siehe auch die Beispielverläufe hier: cambridgeincolour.com/tutorials/gamma-correction.htm
Richtig. Gamma hat immer noch einen Platz in der digitalen Bildgebung und im Video, weil es Codewerte gut nutzt. Am unteren Ende des Helligkeitsbereichs entspricht 8-Bit mit Gamma 10-Bit linear (weil die Gamma-Steigung dort nahe bei 4 liegt). In Film-Workflows sind Log-Kodierungen häufiger als Gamma-Kodierungen, aber aus genau demselben Grund: Einsparung von Codewerten.
Cambridge ist Mist über Gamma und stellt sich vor, die Augenreaktion sieht Gamma. Sogar Poynton sagt, Gamma sei für die CRT. Aber er fügt hinzu, wenn Gamma für die CRT nicht notwendig wäre, würden wir es aus Wahrnehmungsgründen immer noch brauchen. Ich verstehe Weber-Fechner (menschliche Wahrnehmung) und das 1%-Schrittgeschäft usw. Unsere Augen benötigen die ursprüngliche lineare Ansicht, daher sehen wir notwendigerweise nur dekodierte Daten, und jeder numerische Effekt von Gamma ist verschwunden, nachdem die Umkehrung dekodiert wurde. Jede Ausnahme kann nur eine LUT von 10 oder 12 Bit annehmen, aber wie wahrscheinlich ist das bei einem 6-Bit-LCD-Monitor für Verbraucher?
Kurzversion: Bearbeitungen an einem Digitalfoto werden mathematisch angewendet, und die Bittiefe Ihrer Anzeige ist unabhängig von der Bittiefe der Mathematik (es sei denn, Sie verwenden eine unbrauchbare Bildbearbeitungssoftware). Bearbeitungen werden mit der vollen Bittiefe berechnet und profitieren daher von der verfügbaren zusätzlichen Genauigkeit.
@WayneF: Das Erreichen von 256 glatt aussehenden Graustufen erfordert eine nichtlineare Zuordnung von Zahlen zur physikalischen Helligkeit, aber die genaue Anwendung linearer Effekte wie Filterung erfordert eine lineare Zuordnung. Wenn man ein Schachbrett verwischen möchte, bei dem die Hälfte der Pixel 100 % Helligkeit und die andere Hälfte 0 % Helligkeit hat, sollte das Ergebnis 50 % Helligkeit haben, obwohl dies auf einem 8-Bit-Display wahrscheinlich einen Wert deutlich unter 128 darstellen sollte.
@supercat Eine Sache, die dies verwirren kann, ist, dass die Gammakorrektur für die Anzeige hier eigentlich irrelevant ist. Sie könnten eine Gammakorrektur auf Ihr Bild anwenden, um einen Effekt zu erzielen , aber Sie würden keine Anzeigefarbkorrektur auf Ihre Bilddaten anwenden . Sie würden dies als unabhängigen, anzeigeabhängigen Prozess belassen, der nichts mit Ihrem Bild zu tun hat. Alles, was zählt, ist, dass Sie in Ihrem Bild z. B. rgb = (1,0, 0,5, 0,0) festlegen. Wenn Sie beabsichtigen, "Orange" darzustellen, überlassen Sie es dem Renderer (Display, Drucker usw.), eine hw-abhängige Farbkorrektur vorzunehmen auf jede Weise, die es für richtig hält, mit der Präzision, zu der es fähig ist.
(Mit anderen Worten, es ist nichts Falsches daran, über Gammakurven zu sprechen, es ist nur eine langweilige, willkürliche mathematische Operation, die auf alles aus irgendeinem Grund angewendet werden kann, genau wie Helligkeit und Kontrast. Achten Sie nur darauf, Bilddaten nicht mit der Anzeigekalibrierung zu verwechseln [was nur passiert neben anderen Dingen auch oft mit Gammakorrektur].)
@JasonC: Eine lineare Helligkeitsskala benötigt mehr als 8 Bit Genauigkeit, um sichtbare Streifen am unteren Ende zu vermeiden. man könnte für Anzeigezwecke eine lineare 12-Bit-Skala auf eine nichtlineare 8-Bit-Skala abbilden, jedoch ohne sichtbare Streifenbildung.
@supercat Ich glaube, dass Sie das Bilddatenformat des Speichermediums, das Rendering-Format des Viewers, die Farbkorrektur des Displays, die Hardwarefähigkeiten des Displays und die menschliche Wahrnehmung zusammenführen - alles separate, ziemlich unabhängige Phasen in der Pipeline zwischen Ihrer Bilddatei und Ihrem Gehirn - und ich kann diesem Gespräch keinen weiteren Sinn geben, sorry.
Tatsächlich hat die 14-Bit-Version 64 Zeilen zwischen den blauen Zeilen und hat weit mehr Informationen als die 8-Bit-Version.
Die 14-Bit-Rohdaten bestehen aus monochromatischen Luminanzwerten, die nicht direkt mit RGB-Werten von entweder 8/24 oder 16/48 Bit vergleichbar sind.

Höhere Bittiefen bieten Ihnen mehr Bearbeitungsmöglichkeiten ohne Datenverlust.

Machen Sie nicht den Fehler, die Darstellung eines Bildes daran zu binden, wie es gerendert wird . Die Bearbeitung liefert die besten Qualitätsergebnisse, wenn Sie mit der Darstellung arbeiten, wo die zugrunde liegenden Daten die höchste Auflösung haben. Es kommt einfach vor, dass Ihr Monitor eine Ansicht des Bildes mit niedrigerer Auflösung liefert, dies ist jedoch nicht an die Qualität der zugrunde liegenden Darstellung gebunden.

Wenn Sie sich aus der Schulmathematik erinnern, gab es immer eine Faustregel: Runden Sie niemals Zwischenrechnungen, wenn Sie Ergebnisse berechnen; Führen Sie die Berechnung immer durch und runden Sie am Ende, wenn Sie die Ergebnisse präsentieren. Hier gilt genau das gleiche. Ihr Monitor ist das Ende, wo die "Rundung" stattfindet, wenn Sie ihn Ihnen präsentieren. Ihr Drucker kann anders "runden". Aber in allen Zwischenschritten verwenden Sie die Rohdaten, um die genauesten Ergebnisse zu erzielen, und Sie speichern die ursprüngliche hochauflösende Darstellung auf der Festplatte, damit Sie diese Informationen beibehalten und später mit der genauen Bearbeitung fortfahren können.

Bedenken Sie Folgendes: Angenommen, Sie haben ein Quellbild mit 5760 x 3840. Sie würden die größtmögliche Bearbeitungs- und Renderflexibilität beibehalten, indem Sie das Bild in dieser Größe bearbeiten und es in dieser Größe belassen. Wenn Sie es zufällig auf einem 1440 x 900-Monitor anzeigen würden, würden Sie einfach in Ihrem Editor herauszoomen, Sie würden die Daten wahrscheinlich nicht wirklich in der Größe ändern und neu abtasten, um sie anzupassen. Dasselbe gilt für die Farbauflösung.

Audio ist ähnlich. Vielleicht hat die Soundkarte Ihres Computers nur 12-Bit-Ausgabefähigkeiten. Wenn Sie jedoch 16-Bit- oder 24-Bit-Audio aufnehmen, speichern und bearbeiten, können Sie ein Signal mit geringer Lautstärke 16-mal bzw. 4096-mal lauter machen und dennoch einen minimalen Verlust der Ausgabequalität auf diesem Computer erzielen. Konvertieren Sie erst am Ende herunter, wenn Sie das Endergebnis präsentieren möchten. Das visuelle Äquivalent ist das Aufhellen eines extrem dunklen Bildes mit minimaler Streifenbildung.

Unabhängig von der Leistungsfähigkeit Ihres Monitors möchten Sie, wenn Sie einen Bearbeitungsvorgang durchführen, z. B. die Helligkeit mit 2 multiplizieren, dies an der ursprünglichen hochauflösenden Darstellung des Bildes vornehmen.


Hier ist ein simuliertes Beispiel. Angenommen, Sie haben ein sehr dunkles Bild aufgenommen. Dieses dunkle Bild ist die obere Zeile unten, mit simulierten internen Speicherformaten von 4-, 8- und 14-Bit pro Kanal. Die untere Reihe ist das Ergebnis der Aufhellung jedes Bildes. Helligkeit war multiplikativ, Skalierungsfaktor 12x:

Geben Sie hier die Bildbeschreibung ein ( Quelle , fotografiert von Andrea Canestrari)

Beachten Sie den dauerhaften Informationsverlust. Die 4-Bit-Version ist nur ein anschauliches Beispiel für ein Extrem. In der 8-Bit-Version sieht man vor allem am Himmel etwas Streifenbildung (Bild anklicken für vergrößerte Ansicht). Das Wichtigste, was hier zu beachten ist, ist, dass die 14-Bit-Version mit der höchsten Qualität skaliert wurde, unabhängig von der Tatsache, dass ihre endgültige Ausgabeform das 8-Bit-PNG war, als das ich es gespeichert habe, und von der Tatsache, dass Sie es wahrscheinlich anzeigen ein 8-Bit- oder weniger-Bit-Display .

Oder sogar ein 6-Bit-Display. Nicht alle LCD-Monitore zeigen tatsächlich eine volle 8-Bit-Tiefe pro Kanal an.
@Random832 Gibt es einen zuverlässigen Test, um zu wissen, wozu Ihr LCD fähig ist? Ich habe ein computergeneriertes Verlaufsbild, das Streifenbildung zeigt, aber ich war mir nie sicher, ob das daran lag, dass meine Augen 1-Level-Unterschiede sehen konnten, oder ob mein Monitor es verzerrte.
@Mark Sehen Sie sich diesen netten Artikel zu diesem Thema an: avsforum.com/forum/… -- es kann schwierig sein, es gibt viele Stellen für Engpässe in der Signalkette von Ihrem Videoausgang bis zum Licht, das aus dem Bildschirm kommt , viele Fehlinformationen in Spezifikationen (z. B. beworbene Tiefen sind BS wegen eines 6-Bit-Decoders auf einer beliebigen Leiterplatte) und Edid-Deskriptoren usw. Es ist ein komplexes System, und die Kenntnis der tatsächlichen Tiefe ist daher kein häufiger Anwendungsfall , viel Glück! Ymmv
@MarkRansom Was mir klar wurde, war, dass ich auf jeder vierten Ebene Streifenbildung an klar definierten Grenzen sehen konnte. Einige Displays zittern, was etwas schwieriger zu erkennen sein kann
^ Beachten Sie auch, dass einige Displays eher zeitliches als räumliches Dithering durchführen, was bei richtiger Ausführung wahrscheinlich fast unmöglich zu bemerken ist, aber Sie können es möglicherweise in dunklen Bereichen erkennen, wenn Sie scharfe Augen haben.

14bit Raw korreliert nicht mit der Bittiefe Ihres Monitors. Raw ist ein Format, das nur minimal verarbeitet wird. Siehe RAW-Bildformat .

Das Raw-Format ermöglicht Nachbearbeitungssoftware wie Lightroom und Photoshop, Feineinstellungen an Bildern vorzunehmen, die mit JPEG-Dateien nicht möglich wären.

Was den Monitor betrifft, so sind Wide-Gamut-Monitore normalerweise 10-Bit und verfügen über eine interne LUT, die Kalibrierungsinformationen von Kalibratoren wie X-Rite oder Spyder speichert. Ihre Grafikkarte muss auch 10 Bit unterstützen können.

Bei Nvidia-Chips unterstützen Karten der Workstation-Klasse 10 Bit. Die meisten, wenn nicht alle Karten der Gaming-Klasse sind meiner Erfahrung nach nicht geeignet. Ähnlich verhält es sich mit AMD-Chipsätzen.

Wenn Sie Ihre Bilder nicht nachbearbeiten möchten, können Sie einfach zu JPEG wechseln.

Es ist erwähnenswert, dass das menschliche Auge in fast allen Fällen sowieso nicht mehr als 8 Bit sieht, mit Ausnahme seltener glatter Farbverläufe (meistens synthetisch, im Gegensatz zu natürlichen verrauschten Fotos, bei denen die Tontrennung im Rauschen verborgen ist).
8 Bit sind wirklich nur 256 Schattierungen und nicht genug, um glatte Farbverläufe ohne Dithering anzuzeigen.
Das stimmt, aber solche Farbverläufe sind aufgrund von Rauschen auf den Fotos im wirklichen Leben fast nie zu sehen
@Gmck: Es gibt einen großen Unterschied zwischen 0,39 % Helligkeit und 0,78 % Helligkeit. Eine 256-stufige logarithmische Kurve würde für glatte Farbverläufe ausreichen, aber viele Filtereffekte erfordern im Wesentlichen eine lineare Zuordnung von Werten zu Helligkeit (das Ersetzen von zwei Pixelwerten durch ihren Durchschnitt lässt also die Gesamthelligkeit unbeeinflusst).

Sie sollten diese Frage vielleicht zuerst lesen.

Wie ist der Dynamikbereich des menschlichen Auges im Vergleich zu dem von Digitalkameras?

Grundsätzlich beträgt der Dynamikbereich von Papier weniger als 8 Bit, und der Dynamikbereich des Menschen ist nicht unähnlich.

Der Vorteil des hohen Dynamikbereichs in RAW-Bildern besteht darin, dass Sie sie nachbearbeiten können, um die Bits, an denen Sie interessiert sind, in den Bereich zu bringen, den das Anzeigegerät darstellen kann – was sich wiederum auf das bezieht, was das menschliche Auge sehen kann.

Das klassische Beispiel ist also ein Innenraum mit Sonnenlicht draußen. Wenn das menschliche Auge von der Betrachtung des Innenraums nach außen wechselt, zieht sich die Iris zusammen, um die einfallende Lichtmenge zu reduzieren, sodass Sie sowohl Außendetails als auch Innendetails sehen können.

Eine Kamera tut das nicht, also müssten Sie normalerweise entweder das Rauminnere (und Schlaglichter) oder das Äußere (um ein unterbelichtetes Inneres zu bekommen) belichten - oder zwei Aufnahmen machen und ein HDR-Composite erstellen.

Der höhere Dynamikbereich von Raw ermöglicht es Ihnen, eine einzelne Aufnahme zu machen und bestimmte Bereiche selektiv zu „drücken“ oder zu „ziehen“, um Details in diesen über-/unterbelichteten Bereichen sichtbar zu machen.

Die Aufnahmen hier zeigen ein solches Szenario. https://www.camerastuffreview.com/camera-guide/review-dynamic-range-of-60-camera-s

...is that you can post-process them to bring the bits you're interested in within the rnage that the human eye can see.Genauer gesagt, Sie quetschen die gewünschten Bits in den Bereich, den der Monitor anzeigen kann . Das menschliche Auge hat einen noch größeren Dynamikbereich als selbst ein 14-Bit-RAW-Bild. Es geht nicht darum, was das Auge sehen kann, sondern darum, den gesamten Dynamikbereich zu erfassen, damit er später in den Anzeigedynamikbereich eines Standard-Videogeräts komprimiert werden kann.
@J... Aktualisieren. Ich stimme größtenteils zu: Der Dynamikbereich des Anzeigegeräts ist das, was er aufgrund des menschlichen Auges ist. Ein 14-Bit-Anzeigegerät wäre sinnlos. Das menschliche Auge verfügt über einen enormen Dynamikbereich, da es sich an unterschiedliche Lichtverhältnisse anpassen kann (ähnlich wie der Belichtungsmechanismus einer Kamera).
Nein, der Anzeigedynamikbereich ist das, was er ist, weil es technisch schwierig und teuer ist, ihn zu verbessern. Ein 14-Bit-Display wäre erstaunlich. Ein größerer Dynamikbereich bedeutet einen größeren Farbraum – lebendigere, farbenfrohere und genauere Bilder. Mein primäres Display ist beispielsweise intern ein 12-Bit-Panel (wenn auch über Lookup) und kann 99 % des AdobeRGB-Farbraums wiedergeben. Der Unterschied zwischen diesem und einem normalen 8-Bit (mit normalerweise etwa 6-Bit effektiven) sRGB-Panel ist unglaublich. Mehr Dynamikumfang ist immer besser.
Der Dynamikbereich hat nichts mit dem Farbraum zu tun, und die sRGB-Abdeckung, Kalibrierung und "Bits" dienen der Präzision, nicht der Anzeige farbenfroherer Bilder
@J ... en.wikipedia.org/wiki/Adaptation_(eye) "In jedem Moment kann das Auge nur ein Kontrastverhältnis von eintausend wahrnehmen." = 10 Bit.
@szulat Es hängt definitiv mit der Genauigkeit der Farbe zusammen, die angezeigt werden kann. Mehr Bits bedeuten, dass Sie ohne Einbußen bei der Farbgenauigkeit ein breiteres Farbspektrum darstellen können. Ein größerer CIE-Abstand zwischen beispielsweise Rot und Grün bedeutet, dass Sie eine höhere Auflösung benötigen, um die Farben in gleichen Schritten entlang dieser (jetzt) ​​längeren Linie zu beschreiben. Die beiden sind eng miteinander verbunden.
@Roddy Ja, aber die Gleichung beinhaltet mehr als absolut hell und dunkel. Wie oben geht es auch um die Farbauflösung.
@J ...: Ihre Augen sind eigentlich ziemlich miese Bildgebungsgeräte. Was für so ziemlich alles Gute verantwortlich ist, ist der visuelle Kortex unseres Gehirns.

Die 'Wikisperten' vergessen, dass Sie das Ergebnis NUR in 8 Bit sehen, egal in welcher Bittiefe Sie verarbeiten. Stecken Sie eine 3-Bit-Datei (8 Stufen) in Ihr 8-Bit-System und das Display zeigt 8 Stufen (256/7 = 0 bis 7) 0 bis 255 in Schritten von 36 an. Eine 4-Bit-Datei zeigt 16 (0 bis 15). Stecken Sie eine 10-, 12- oder 14-Bit-Datei hinein, Sie werden 256 Ebenen sehen. Ihre Grafikkarte konvertiert die 1024-, 4096- oder 16.384-Stufen auf 256 herunter. Aus diesem Grund wird jede RAW-Datei, die Sie laden, sobald sie Ihrem Videoprozessor angeboten wird, zu 8-Bit-Stufen (256). Ich habe in der medizinischen Physik gearbeitet, die meisten Bildgebungsabteilungen haben jetzt 12-Bit-Bildgebung für Brustuntersuchungen und dergleichen. Das menschliche Auge kann jedoch nicht mehr als 900 ish-Werte erkennen, daher wird Software verwendet, um winzige Änderungen der Gewebedichte zu erkennen. Wenn Sie also jemanden treffen, der ein 10-, 14- oder 14-Bit-System hat, Sie werden hoch verschuldet und mega enttäuscht sein. Übrigens haben wir auch Schwierigkeiten, Farbveränderungen zu erkennen, unser Sehvermögen sinkt unter 16 Millionen Farben, es sei denn, es treten winzige Änderungen in einem ähnlichen Farbton auf, bei denen wir Streifenbildung bemerken. Unsere Kameras können ungefähr 4 Billionen Farben darstellen, aber wie bei vielen Dingen können zwei sehr unterschiedliche Tiere theoretisch möglich und tatsächlich möglich sein.

Was Sie auf einem 8-Bit-Monitor sehen, ist nicht das, was Sie in Ihrer 14-Bit-Datei haben, na und? Wie in der vorherigen Antwort erwähnt, scheinen mehr Informationen immer besser zu sein ...
Ich werde es einfach halten. Nehmen Sie Ihre Bilder im Rohformat auf. Produzieren Sie Ihre JPGs aus Ihrer Rohdatei. Um den Vorteil zu sehen, vergleichen Sie Ihr JPG mit dem von der Kamera erzeugten. Es ist der Unterschied zwischen einem Profi- und einem Müllobjektiv.
Können Sie Ihre Argumentation zum Objektiv erläutern? Für mich hat das nichts mit dieser Diskussion zu tun: 12 Bit Dynamikbereich zu haben und auszuwählen, was Sie nach der Nachbearbeitung behalten möchten, hat absolut nichts mit der Objektivqualität zu tun. Und ja, Sie können 12 Bit Dynamikbereich auf einem 8-Bit-Bildschirm sehen, spielen Sie einfach mit EV-Korrekturen!
Nein, du kannst nicht. Ihr 8-Bit-Display zeigt n/256 oder 256/n Stufen an, je nachdem, ob Sie eine kleinere oder größere Datei als 8 Bit anbieten. Wir können den Punkt, an dem diese Bits ausgewählt werden, durch Anpassungen in PS anpassen, aber wir haben KEINE KONTROLLE darüber, welche Bits angezeigt werden, dh die Lücke zwischen den Bits wird gleich sein, also fehlen Daten!. Wenn wir das hätten, würden wir (der NHS zum Beispiel) nicht die Mühe machen, 46.000 £ für 12-Bit-Bildgebungsgeräte auszugeben, die nicht bessere als 8-Bit-Bilder liefern.
Ich frage mich, was Sie nicht verstehen, wenn Sie in der Lage sind, einen Dynamikbereich zu nutzen, der höher als sichtbar ist, um ein Bild zu erstellen. Wenn Sie eine Datei mit einem 12-Bit-Dynamikbereich haben, können Sie jeden gewünschten 8-Bit-Bereich anzeigen, so einfach ist das. Wenn Sie ein Fotograf wären, würden Sie verstehen, wie wichtig das ist: Details im Glanzlicht und im Schatten zu haben, ist der Traum eines jeden. Ich werde nicht weiter auf das Thema eingehen, bitte lesen Sie die vorherigen Antworten.
Wie wählt man die gewünschten Bits aus, wenn man sie nicht SEHEN kann (und dem zumindest zustimmt). Sie können einen Teil des Spektrums auswählen, aber der Dynamikbereich ist derselbe, nur weiter oben (oder unten) im Spektrum, Sie gewinnen ein Ende und verlieren dann das andere, es ist eine effiziente 8-Bit-Anzeige, die Sie betrachten. Jetzt geh bitte weg.
Wie? Sie komprimieren die DR. Anstatt die mittleren 256 Werte von 16.384 möglichen Werten zuzuordnen (NIEMAND tut das), wählen Sie einen schwarzen Punkt (z. B. 2.096), einen weißen Punkt (z. B. 14.335) und ordnen dann die verbleibenden Werte 0-255 zu. 0 bis 2.096=0; 2.097 bis 2.144 = 1; 2.145 bis 2.192 = 2; 2.193 bis 2.240 = 3; 2.241 bis 2.288 = 4; 2289 bis 2.336 = 5, 2.237 bis 2.284 = 6; 2.285 bis 2.332 = 7; 2.332 bis 2.380 = 8; 2.381 bis 2.428 = 9; 2.429 bis 2.476 = 10; 2.477 bis 2.524 = 11; 2.525 bis 2.572 = 12; 2.573 bis 2.620 = 13; 2.621 bis 2.668 = 14; 2.669 bis 2.716 = 15; 2.717 bis 2.764 = 16; 2.765 bis 2.812 = 17 ... und so weiter bis 14.336-16383 = 255.
Dies würde natürlich zu einem sehr flachen Bild führen. Deshalb wenden Sie Kurven auf die feineren Abstufungen an, bevor Sie sie in 8-Bit umwandeln.