Was ist der Zweck der Gammakorrektur in heutigen Bildschirmen und in welcher Beziehung steht sie zu Grafik und Fotografie?

Ich bin ziemlich verwirrt über den Zweck der Gammakorrektur und die Beziehung zwischen gammakorrigierten und unkorrigierten Bildern in Bezug auf Grafik und Fotografie sowie das Farbmanagement im Allgemeinen (Konvertierung von linearem RGB in gammakorrigierte RGB-Räume und anschließende Anzeige auf dem Bildschirm).

Aus vielen Quellen, hauptsächlich http://www.guillermoluijk.com/article/gamma/index.htm und Frage Nr. 23026151 bei StackOverflow (Muss ich die endgültige Farbausgabe auf einem modernen Computer/Monitor gammakorrigieren?) , I' bin zu dem Schluss gekommen:

Die Gamma-Korrektur wurde ursprünglich entwickelt, um die nichtlineare Reaktion von CRT-Monitoren auf das Eingangssignal zu kompensieren. CRTs waren nicht in der Lage, das Eingangssignal selbst zu verstärken, und daher musste das Ausgangssignal des PCs angepasst werden, was (bis heute) zur Standard-Gamma-2.2-Korrektur und zum sRGB-Farbraum führte.

Moderne Bildschirme leiden jedoch nicht unter Signalverlust wie CRTs. Auch sie können einige Nichtlinearitäten aufweisen, aber da das Eingangssignal meistens nur mit 8 Bit pro Kanal (256 Schattierungen) übertragen wird, sollten sie in der Lage sein, einige Nichtlinearitäten in ihrer Farbwiedergabe selbst zu kompensieren, da sie wahrscheinlich dazu in der Lage sind mehr als 256 Farbtöne in einem Kanal wiederzugeben. Dies würde bedeuten, dass die Gammakorrektur zusammen mit sRGB und allen gammakorrigierten Farbräumen nur ein Erbe aus der CRT-Ära ist und ihr einziger Zweck darin bestand, das Eingangssignal linear darzustellen.

Es gibt auch Artikel , die behaupten, dass die Gammakorrektur hier ist, um die Nichtlinearität des menschlichen Sehens zu kompensieren(CambridgeInColour.com - Gammakorrektur verstehen), die ungefähr der Gammakurve entsprechen sollte, da wir in der Lage sind, kleine Unterschiede in dunkleren Farbtönen zu erkennen, bei helleren jedoch nicht so gut (die Helligkeit eines Punktes muss dafür exponentiell zunehmen). heller erscheinen). So nehmen Kamerasensoren die Szene nicht auf. Rohdaten von einem Sensor werden in linearem RGB erhalten und in einen gammakorrigierten RGB-Farbraum entwickelt (Schatten angehoben und Lichter abgedunkelt). Die Gammakorrektur sollte jedoch den Verlust des Ausgangssignals kompensieren. Ich glaube also, dass moderne Bildschirme einfach das Verhalten von CRTs simulieren, um die Gammakorrektur aufzuheben und die Szene so anzuzeigen, wie sie von der Kamera aufgenommen wurde - grob gesagt, Mapping-Kamera Farbtöne 1:1 zu den Bildschirmtönen. Brunnen,

Bedeutet das dann, dass jeder Farbton in jedem RGB-Farbraum genau die gleichen RGB-Werte in jedem anderen RGB-Raum haben sollte, einschließlich linearem RGB (z 8bpc) und es ist nur Sache des Bildschirms und der Grafikkarte, wie sie die Farbübertragung arrangieren und ob beide Seiten zusätzliche Neuberechnungen durchführen müssen, um das Bild in den Zielfarbraum zu konvertieren? Mit anderen Worten, das Ändern des Farbraums in einem Grafikeditor hat eigentlich nichts mit den RGB-Werten selbst zu tun, nimmt den neuen Farbraum nur in Bildmetadaten zur Kenntnis? Ich glaube, dies ist nicht der Fall, da das Farbmanagement als solches unbrauchbar würde, wenn eine digitale Grafikadapter- / Bildschirmschnittstelle verwendet wird - der Grafikadapter könnte unabhängig vom verwendeten Farbraum einfach einfache RGB-Daten senden, da keine analoge Verstärkung (Gamma) wäre angewendet auf die Werte, die auf einer linearen Skala von 0 bis 255 gehen. Auch der Gamut verschiedener Farbprofile wäre gleich, wenn keine Rundungsfehler eingeführt würden, oder?

Meine letzte Verwirrung kommt möglicherweise von dem Missverständnis der Farbprofilkonvertierung und der Tabelle der Belichtungsstufen (die erste) im Artikel http://www.guillermoluijk.com/article/superhdr/index.htm (kann übersetzt werden mit Google Übersetzer). Verstehe ich es richtig, dass die linearen Werte mit einer Exponentialfunktion (oder inversem Gamma) transformiert werden, wodurch der Tonwertbereich in Richtung Schatten verkleinert und somit das Bild abgedunkelt wird? Passiert das, wenn wir lineares RGB speichern und es als gammakorrigiertes Bild auf dem Computerbildschirm präsentieren?

Ich entschuldige mich dafür, dass ich eine so komplexe Frage stelle, aber es erweist sich als sehr schwierig, eine wirklich gute Informationsquelle zu finden, die alle auftretenden Unsicherheiten erklärt. Vielen Dank im Voraus für jede Antwort, die helfen könnte, mein Missverständnis zu korrigieren.

Vielleicht möchten Sie versuchen, diese Frage zu verdichten. Es ist zwar immer noch möglich, es allein anhand des Titels zu beantworten, aber ich denke, dass eine Bearbeitung eine gute Möglichkeit wäre, Ihnen zu helfen, das Thema selbst zu verstehen.
Ich fange an, an einer Antwort zu arbeiten, nicht zuletzt, weil mir klar wurde, dass ich viel vergessen hatte, und die Beantwortung der Frage von jemandem ist eine gute Möglichkeit, sie wieder zu lernen.
Der Hauptgrund ist einfach die Abwärtskompatibilität. Sie möchten denselben Computer und dieselbe Software mit alten CRT-Monitoren und modernen LCD-Monitoren verwenden können. Software macht immer noch das Gleiche wie früher: Sie erstellt Bilder im sRGB-Farbraum. Dazu gehört natürlich die übliche Gammakorrektur. Dann verwenden alte CRT-Monitore die Bilder unverändert, während moderne Displays die Konvertierung von einem linearen Farbraum in den sRGB-Farbraum im Grunde "rückgängig" machen.
Und wie es mit der Fotografie zusammenhängt: Mit den richtigen Werkzeugen nicht. Die Gammakorrektur (und allgemeiner Konvertierungen zwischen verschiedenen Farbräumen) erfolgt automatisch; normale Benutzer sollten es überhaupt nicht sehen können. Es ist nur eine Formalität, derer sich Computerprogrammierer bewusst sein müssen, aber Endbenutzer müssen überhaupt nichts davon wissen. (Es sei denn, Sie möchten explizit so etwas wie hexadezimale Farbwerte im sRGB-Farbraum eingeben, dann wissen Sie höchstwahrscheinlich, was Sie tun.)

Antworten (9)

aus Charles Poynton "Die Rehabilitation von Gamma" :

Irrtum: Die Nichtlinearität eines CRT-Monitors ist ein Mangel, der behoben werden muss.

Tatsache: Die Nichtlinearität einer CRT ist fast das Gegenteil der Helligkeitsempfindlichkeit des menschlichen Sehens. Die Nichtlinearität bewirkt, dass die Reaktion einer CRT in etwa wahrnehmbar gleichförmig ist. Dieses Merkmal ist weit davon entfernt, ein Defekt zu sein, sondern sehr wünschenswert.

Missverständnis: Der Hauptzweck der Gammakorrektur besteht darin, die Nichtlinearität der CRT zu kompensieren.

Tatsache: Der Hauptzweck der Gammakorrektur in Video, Desktop-Grafik, Druckvorstufe, JPEG und MPEG besteht darin, Luminanz- oder Tristimuluswerte (proportional zur Intensität) in einen wahrnehmungsmäßig einheitlichen Bereich zu codieren, um die Wahrnehmungsleistung einer begrenzten Anzahl von Bits zu optimieren in jeder RGB- (oder CMYK-) Komponente.

Der Rest des Artikels ist auch sehr aufschlussreich :)

Die Szene in Nature ist in linearem Gamma und sollte auf einem Bildschirm oder auf Papier auf die gleiche Weise dargestellt werden, mit einer kleinen Erhöhung des Gammas, um Streulicht zu kompensieren – normalerweise Gamma 1,1 oder 1,2.
Dr. Poyntons Doktorarbeit ist jetzt online: poynton.ca/PDFs/Poynton-2018-PhD.pdf . Die Kapitel 3 und 4 befassen sich mit den klassischen Kurven, Kapitel 8 stellt die „Barten Lightness“ OETF vor, die die gleiche Form wie die Dolby PQ-Kurve (SMPTE-2084) hat. Am oberen Ende der Skala geht es nahtlos von einer Gamma- in eine Log-Kurve über, was wir eigentlich erwartet hatten. Das ganze Buch ist sehr aufschlussreich!

Ich bin ein ehemaliger Rundfunktechniker und arbeite derzeit als Cutter und VFX-Supervisor für Spielfilme und Fernsehen.

Viele Aussagen hier sind falsch. Gamma im Signalpfad ist ein gewünschter Vorteil und eine Designentscheidung früher Videoingenieure, um das wahrgenommene Rauschen bei der Übertragung zu reduzieren.

Alle Vakuumröhren, einschließlich CRTs, weisen verschiedene Nichtlinearitäten auf (siehe Langmuir-Child-Gesetz). CRTs können je nach verschiedenen Konstruktionsunterschieden von einem "Gamma" von 1,5 bis über 3,5 (bei Ansteuerung durch ein Spannungssignal) variieren. Die Nichtlinearitäten waren bei Monochrom weniger ein Problem, wurden jedoch bei Farbe kritischer, sodass NTSC ein Signal-Gamma von 1/2,2 spezifizierte. Das CRT - Design und die unterstützenden Schaltkreise passen das tatsächliche Gamma nach dem Langmuir-Child-Gesetz (allgemein als 1,5 verstanden, aber aufgrund einer Reihe von Faktoren bei CRTs typischerweise höher) auf ein Niveau an, das dem von Menschen wahrgenommenen "Gamma" von ~ 2,5 entspricht. Für NTSC wurde angenommen, dass das Fernsehgerät ein Gamma-Ziel von ~2,4** hat, während PAL ~2,8 anzeigte

Das höhere Gamma in den alten analogen Rundfunksignalstandards dient speziell dazu, wahrgenommenes Rauschen zu reduzieren, basierend auf der menschlichen Wahrnehmung, die nicht linear ist. In diesem Anwendungsfall werden die Nichtlinearitäten ausgenutzt, um Rauschen durch den "kompandierenden" Effekt der Gammacodierung des Signals zu verbergen. Das ist ziemlich akademisch.

Es gibt einige Möglichkeiten, wie das CRT-TV- und Monitordesign geändert werden könnte, um im Gegensatz zu einer Gamma-Kurve Linearität zu erreichen, aber eine Gamma-Kurve im analogen Rundfunk reduzierte das scheinbare Rauschen um 30 dB. Gamma war damals wünschenswert, WIE ES HEUTE IST .

Gamma wird auch benötigt, wenn ein LCD-Monitor linear (Gamma 1,0) verwendet werden könnte. Die Behauptungen hier, dass Gamma nicht mehr benötigt wird, sind völliger Quatsch und verstehen nicht den aktuellen Zweck der Anwendung einer Pre-Emphasis-Kurve.

Gamma sorgt dafür, dass sRGB (oder Rec709) „gut“ aussieht, obwohl die Bittiefe nur 8 Bit pro Kanal beträgt. Hier ist ein Beispiel:

Dies ist ein Bild in sRGB, 8 Bit, mit Gamma-Vorbetonung (dh normales Webbild).normal

So würde dieses Bild ohne den Vorteil von Gamma aussehen (dh wenn es lineare Werte und eine lineare Anzeige wäre, keine Gamma-Vorbetonung).Schlecht

Gamma sorgt für MEHR BITS in den dunkleren Bereichen für glattere Farbverläufe und weniger Rauschen.

Wenn Sie vollständig linear arbeiten möchten, benötigt Ihr gesamter Signalpfad mindestens 12 Bit pro Kanal. 8 bpc IST NICHT GENUG. Das Codieren mit einer Kurve und das Decodieren auf dem Display ermöglicht die Verwendung eines kleineren Datenblocks von einem Byte pro Farbkanal.

Im Film verwenden wir linear als Arbeitsbereich , aber wenn wir mit linear arbeiten, arbeiten wir mit 32 Bit pro Kanal Gleitkomma . Wenn wir lineare Bilddateien austauschen, verwenden wir EXR Half, was 16 Bit Float pro Kanal ist. (Und wenn wir 10-Bit-DPX-Dateien verwenden, werden die Bilddaten mit einer LOG-Kurve codiert).

ABER

Die von uns verwendeten Computermonitore sind immer noch entweder 8- oder 10-Bit für die Anzeige, daher müssen alle linearen Bilder immer noch gamma-angepasst werden, bevor sie an den Monitor gesendet werden. Wieso den?

Die meisten "guten" Monitore sind nur 8 Bit pro Kanal, und viele sind nur "6 Bit intern", was bedeutet, dass sie ein Bild mit 8 Bit pro Kanal aufnehmen und als 6 Bit pro Kanal anzeigen. Wie können sie ein akzeptables Bild machen?

GAMMA!

Monitore mit 10 Bit pro Kanal sind selten und teuer (wie mein NEX PA271W). Mein NEC kann ein 10-Bit-Signal verarbeiten und verwendet eine interne 14-Bit-LUT für die Profilerstellung. Aber 10 Bit reichen immer noch nicht für linear!

Gamma oder irgendeine Form von Preemph/Deemph-Kurve ist sogar für 10 Bit erforderlich . 12 Bit sind das absolute Minimum für eine vernünftige lineare Anzeige und selbst dann für die Spielfilmindustrie nicht akzeptabel.

Wir verwenden 12-Bit-Projektoren für DCDM (Digital Cinema) und wissen Sie was? DCDM verwendet nicht nur CIE X´Y´Z´, wir verwenden AUCH ein Projektor-Gamma von 2,6 !!!

DCI wurde für Kinos entwickelt und ist ein eigenes geschlossenes Ökosystem, das nicht auf alte Technologien wie CRT angewiesen ist. Wenn die Verwendung eines linearen (Gamma 1.0) Leerzeichens einen "Vorteil" hätte, wäre es verwendet worden, aber das ist es nicht.

Linear wird im digitalen Kino NICHT verwendet, da ADVANTAGE eine Gammakurve verwendet .

Hören Sie also bitte auf zu sagen, dass wir Gamma nur aus Legacy-Gründen verwenden, denn das ist falsch.

Bitte lesen Sie Poynton zu diesem Thema , da er diese Fragen auf leicht verständliche Weise klärt.

Vielen Dank fürs Lesen.

Fußnote: ** Während NTSC ein Signal-Gamma von 1/2,2 spezifizierte, wurde von Fernsehgeräten ein Gamma von 2,4 für eine System-Gamma-Verstärkung erwartet . Nützlich ist der Hinweis, dass Rec709 (HDTV) und sRGB bis auf die Transferkurve identisch sind. Und interessanterweise gibt Rec709 (über BT1886) ein „Physical Display Gamma“ von 2,4 an (dh das Gamma des Monitors selbst) und sRGB-Monitore sind normalerweise auf 2,4 oder höher eingestellt (Umfragen zeigen, dass die meisten Benutzer sie auf 2,5 und höher einstellen). Aber das SIGNAL-Gamma ist anders, ca. 1/2,2 für sRGB und ca. 1/2,0 für Rec709. In beiden Fällen gibt es eine System-Gamma-Verstärkung, die basierend auf der erwarteten Betrachtungsumgebung beabsichtigt ist.

Ich habe mich immer gefragt, warum die Audioindustrie nicht den gleichen Ansatz verwendet, sondern stattdessen 16+ Bits pro Sample darauf wirft ...
Hallo @Zeus, es gibt mehrere Gründe (wenn Sie dies als Frage stellen, kann ich eine ausführlichere Antwort geben). Grundsätzlich haben Audiostreams selbst bei 16 oder 24 Bit eine weit geringere Bandbreite als Video (im Allgemeinen) und sind rechnerisch einfacher zu handhaben. Nichtsdestotrotz verwendet Audio diese Arten von Pre-Emphasis und De-Emphasis in vielen Fällen (insbesondere bei niedriger Bitrate). Und tatsächlich ist das Hören auch nicht linear (wie alle Wahrnehmungen), aber 8-Bit-Audio ist "irgendwie" wie 4-Bit-Video pro Kanal. Denken Sie daran, dass 8-Bit-pro-Kanal-Video insgesamt 24 Bit pro Pixel verwendet, also ist der Vergleich mit 16-Bit-Audio Äpfel/Orangen.
Danke @Myndex, leider wäre das hier als Frage off-topic. Ich bin nur neugierig, warum eine solche Pre-/Deemphasis nicht von Anfang an für Audio verwendet wurde, da sie für das Hören genauso natürlich ist wie für das Sehen. Übrigens meinte ich natürlich 16 Bit pro Kanal (wie auf CD); Lineares 8-Bit-Audio (das formal existiert) ist wohl schrecklicher als das lineare 8-Bit-Video aus Ihrem Beispiel (das nicht einmal als Standard existiert). Ich verstehe, dass die Kompromisse geringer sind, aber die Vorteile sind hoch: Der Verlust der halben Auflösung alle 3 dB fühlt sich verrückt an ...
Ich denke, es gibt eine Stack-Exchange-bezogene Site, die Audio-Fragen begrüßen würde. Unabhängig davon: Jedes Bit in 16-Bit-Audio entspricht 6 dB (Spannung), sodass sich ein Gesamtdynamikbereich von 96 dB ergibt. 6 dB (Spannung) sind "doppelt" (oder halb) so laut in der Spannung, ABER Menschen neigen dazu, 10 dB als buchstäblich "halb so laut" wahrzunehmen. Pre/De emph wurde von Anfang an im Audiobereich verwendet. Aufzeichnungen hatten die RIAA-Kurve, Magnetbänder verwendeten die NAB-Kurve usw. usw. Was meinen Sie damit, alle 3 dB die halbe Auflösung zu verlieren ???
Bei der linearen digitalen Codierung ist die Hälfte der Spannung die Hälfte des digitalen Bereichs (per Definition), dh Verlust von 1 Bit Auflösung. Das ist viel für etwas, das als "etwas weicher" empfunden wird (-6dB, das ist die Zahl, die ich meinte, nicht 3). Wenn wir mindestens die erforderlichen ~35 dB (für Sprache oder Orchester) einfangen wollen, ist das bereits ein 6-Bit-Verlust für die leisesten Töne (und selbst dann, wenn es richtig normalisiert ist). Ich bin mir der 'analogen' Betonung bewusst (die etwas anders und frequenzabhängig war), habe aber noch nie von einer gehört, die für digital verwendet wurde, daher meine Fragen ...
Denken Sie daran, dass wir hier von Sinuswellen sprechen – ein Ton kann in eine Reihe einzelner Sinuswellen aufgeteilt werden. Eine Rechteckwelle zum Beispiel besteht aus allen ungeraden Harmonischen von der Grundfrequenz bis unendlich. Beim Arbeiten mit Sinuswellen ist der "Pegel" eine Funktion des RMS, nicht der Spitze. Auch ja eine "lineare digitale Codierung", aber mit logarithmischem Wert - Ton ist 20log. Ähnlich wie ein DPX-Bild eine lineare Codierung der Filmdichte ist, aber die Filmdichte logarithmisch ist, wird ein DPX als log bezeichnet. Aber was Pre-Emph in Digital betrifft, so wird es tatsächlich verwendet (oder wurde), siehe wiki.hydrogenaud.io/index.php?title=Pre-Emphasis

Betrachten Sie dieses Beispiel aus Cambridge in Color :

Geben Sie hier die Bildbeschreibung ein

Durch die Anwendung der Gammacodierung können wir das Originalbild mit derselben Bittiefe (in diesem Beispiel 5) genauer darstellen.

Dies wird erreicht, indem die 32 Stufen so verwendet werden, dass sie dem menschlichen Auge besser entsprechen. Mit anderen Worten, es ist eine Form der Komprimierung. JPEGs können zum Beispiel tatsächlich etwa 11 Stufen des Dynamikbereichs speichern, obwohl sie nur 8 Bit pro Kanal verwenden.

Und wie bei jeder anderen Form der Komprimierung spielt es keine Rolle, ob Sie sich nicht um die Dateigröße kümmern (und die geringere Geschwindigkeit, mit der Sie größere Dateien lesen oder schreiben können). Sie könnten theoretisch ein JPEG-ähnliches Format verwenden, das lineares Gamma verwendet, wenn Sie bereit wären, jedem Kanal 11 Bit statt 8 zuzuweisen.

Zusammenfassend ist Gamma also nur eine Form der Komprimierung: Es reduziert die Dateigröße, die erforderlich ist, um eine bestimmte Menge an Informationen zu speichern, die das Auge wahrnimmt. Alternativ können Sie subtilere Abstufungen in derselben Bittiefe speichern.

Es gibt viele verwirrende Artikel zur Gammakorrektur mit vielen vagen Hinweisen auf Gamma und menschliches Sehen. Der Grund für Gamma ist historisch und ein Ergebnis der Reaktionskurve der alten CRT-Monitore (hat nichts mit dem menschlichen Sehvermögen zu tun). Bei modernen Flachbildschirmen gibt es keinen logischen Grund für die Gammacodierung und anschließende Korrektur, aber sie ist zum Industriestandard geworden.

Die zufällig ähnliche Beziehung zwischen der Gammakurve und der Reaktionskurve des menschlichen Sehens bringt einen gewissen Vorteil bei der Reduzierung der Dateigröße, da die Bittiefe des Bildes reduziert werden kann, ohne die wahrgenommene Bildqualität zu beeinträchtigen.

Hier ist mein erster Entwurf einer Antwort - ich werde im Laufe der Zeit näher darauf eingehen, aber ich möchte dem OP einige Antworten geben. Kommentare sind mehr als willkommen.

Das Zeug über CRTs trifft tatsächlich nicht mehr zu. Es gibt jedoch einen sehr guten praktischen Grund, weiterhin gammacodierte Bilder zu verwenden. Durch die Verwendung von Gamma-Codierung sehen Bearbeitungen wie Kurven "normal" aus, da das Auge nicht linear auf Licht reagiert - sehen Sie sich die Erstellung des LAB-Raums an, um mehr darüber zu erfahren.

Sehen Sie sich zum Beispiel diesen Screenshot an:Geben Sie hier die Bildbeschreibung ein

Das linke Bild ist das Original, das mittlere Bild eine Kopie in Gamma 2.2 und das rechte Bild eine Kopie in Gamma 1.0. Die auf jede der Kopien angewendete Kurve ist zu sehen. Sieht die Version 2.2 oder 1.0 angesichts der Form der Kurve so aus, wie Sie es erwarten würden?

Das OP ist so ziemlich alles richtig, außer dass Gamma die dunklen Töne heller und nicht dunkler macht. Diese existiert nur in der Datei, nicht im Auge. Die Daten werden immer wieder in das ursprüngliche lineare dekodiert, BEVOR sie von einem Auge gesehen werden. Jeder Unterschied zwischen dem Sehen der Originalszene und dem Sehen der reproduzierten decodierten Daten ist einfach ein unerwünschter Reproduktionsfehler.

Gamma wird nur durchgeführt, um die starken Verluste von CRT-Monitoren zu korrigieren. CRT ist nichtlinear, es zeigt helle Töne, verliert aber die dunkleren Töne. Gamma macht also die dunklen Töne übermäßig hell, um dann nach den CRT-Verlusten hoffentlich wieder ungefähr normal (linear) zu erscheinen. LCD-Monitore sind jedoch linear und benötigen daher kein Gamma mehr, aber um die Kompatibilität mit allen alten RGB-Bildern der Welt zu wahren, enthalten alle Standards immer noch dasselbe Gamma. Für LCD-Monitore ist es einfach, es zu decodieren und zu verwerfen. Und die Daten funktionieren immer noch auf CRT.

Gamma hat in KEINER WEISE etwas mit dem menschlichen Auge zu tun, außer wir möchten die korrigierten linearen Originaldaten sehen. Das Auge hat eine ähnliche umgekehrte Reaktion, was rein zufällig ist, aber das menschliche Auge sieht NIEMALS Gammadaten. Es wird immer zuerst dekodiert (entweder durch CRT-Verluste oder einen LCD-Chip), und das menschliche Auge sieht wieder nur die linearen Daten (hoffentlich). Genau wie in der Originalszene wurde auch in der Originalszene kein Gamma benötigt. Das Auge braucht keine Hilfe. Gehen Sie nach draußen und schauen Sie sich einen Baum an. Da gibt es kein Gamma. Bilden wir uns wirklich ein, dass unser Auge den Baum nicht gut sehen kann? :) Denken Sie ein wenig mehr darüber nach. Das Gehirn entschlüsselt die Augenreaktion und die CRT oder LCD entschlüsselt die Datenverschlüsselung. Diejenigen, die behaupten, bei Gamma geht es um das Auge, wissen es einfach nicht, sie wiederholen nur falsches Zeug, das sie gehört haben. Es ist nicht schwer, es zu hören, aber es ist sehr falsch. Diese Jungs sollten erklären, wann und wie das menschliche Auge überhaupt das Gamma sehen kann, das sie für notwendig halten. Es kann nicht, es hat keine Chance.

Bei Gamma geht es nicht um 8 Bit. Die Daten werden codiert und dann decodiert und sind hoffentlich identisch, sodass wir eine genaue Reproduktion der ursprünglichen linearen Szene sehen können. Gamma wurde im frühen NTSC-Fernsehen (1940) gemacht, bevor es irgendwelche Bits gab, aber wir hatten CRT. :) Bei Gamma geht es nur um CRT-Verluste. Schlicht und einfach. Und zu Zeiten der CRT war Gamma extrem notwendig.

Die RGB-Daten werden normalisiert (auf 0..1 Prozentwerte), bevor Gamma hinzugefügt wird, typischerweise mit Exponent 1/2,2 (ungefähr Quadratwurzel). 18 % ist (0,18 ^ 1/2,2) = 0,46 oder 46 % auf dem Histogramm oder 117 auf der Skala von 0 bis 255. (People image 18% sollte auch 50% sein. :) 18% sind 18%, aber wir sehen fast 50%, nur weil die Histogrammdaten Gamma-kodiert sind.) Aber beachten Sie, dass 0 zu jedem Exponenten immer noch 0 und 1 zu ist jeder Exponent ist immer noch 1, also gibt es keine Erhöhung des Dynamikbereichs. Und auch kein Clipping durch Gamma, die Endpunkte können sich nicht bewegen. Und natürlich, weil die Daten entschlüsselt werden, bevor sie jemand sieht. Das Ganze (kodieren, dann dekodieren) ist nur ein No-Op. Hoffentlich keine Veränderung am Auge. Aber in den Dateien werden normalisierte Daten (die ein Bruchteil sind) zu einem Exponenten zu einer größeren Zahl, heller, außer dass kein Auge sie dort jemals sehen kann.

Gamma wird NUR durchgeführt, um die Reaktion von CRT-Monitoren zu korrigieren.

Ich glaube, unsere Augen haben diese Reaktionskurve, aber diese Reaktion auf eine plötzliche Änderung der Lichtmenge, besonders wenn sie höher wird, aber gleichzeitig entschlüsselt das Gehirn diese Reaktion, indem es unsere Iris verengt, um dieselbe (lineare Wahrnehmung) beizubehalten in einem stabilen Anzeigezustand haben, bis der Übergang zum neuen Anzeigezustand reibungslos erfolgt.

Die Gamma-Korrektur kam im Wesentlichen von der Nichtlinearität der CRT-Elektronenkanone, die mehr Codierung (dh ein 0,45-Gamma angewendet) benötigte, um eine gleichmäßige Ausgabe (lineare Ausgabe) zu senden, da die Eigenschaften der CRT-Elektronenkanone das Signal so machen, als ob es dekodiert wäre (dh ein 2,2-Gamma Kurve angewendet). In CRT-Tagen codierten sie alle digitalen Daten, um die Einheitlichkeit beim Anzeigen und Austauschen von Daten im Internet zu gewährleisten, sodass Bilddateiformate hauptsächlich mit der Gammakurve von sRGB codiert wurden, die der .45455-Gammakurve sehr ähnlich ist, und die das Problem mit der CRT-Waffe abbrachen .

Jetzt, nachdem alle Daten im Internet verschlüsselt wurden und aufgrund des linearen Verhaltens der LCD-Technologie (dh Eingangssignal = Ausgangswerte) festgestellt wurde, dass es zu spät ist, alle digitalen Daten erneut zu decodieren, nachdem sie zum Standard geworden sind, haben sie eine logische Lösung! und es soll den CRT-Defekt wieder nachahmen, und sie produzierten LCDs mit einem Chip, der das Signal dekodiert (dh eine 2,2-Gammakurve anwendet), genau wie ein Legacy-System :) Andernfalls hätten sie alle Daten im Internet dekodieren sollen.

Bleiben Sie also nicht in dieser Verwirrung der Nichtlinearität des Auges stecken, Sie werden einen endlosen Kreis hoffnungslosen Denkens haben.

Und hier ist die Beziehung zu Gamma And Our Eyes

Lineare Bilddaten, die von Kamerasensoren erzeugt werden RAW-Dateien, die standardmäßig Gamma = 1,00 (Kamerasensornatur) haben, dh (keine Decodierung oder Codierung = keine Korrektur), wenn Raw-Dateien auf dem Monitor "angezeigt" wurden, wurde es dunkel "nur dunkel angezeigt" und dort 10 & 12 Bit pro Kanal sind große Dateien, aber leider haben wir von dieser Tiefe überhaupt nicht profitiert, weil unsere Augen nicht so empfindlich für helle Werte sind, wie sie für dunkle Werte zu empfindlich sind und jede subtile Veränderung in der Dunkelheit erkennen können (und das werde ich weiter unten erläutern).

Da das Bild aufgrund der Natur des Monitors "dunkel angesehen" wird, werden die Helligkeitsstufen mehr auf die hellen Werte als auf die mittleren und dunklen Werte verschwendet (weil Monitor-Gamma die mittleren Töne heruntergezogen hat), so dass wir viel mehr davon profitiert hätten, wenn es dunkel wäre Werte hatten die gleiche Chance.

Sie fanden also heraus, dass die Anwendung der Gamma-Korrektur (z. B. durch Kodierung von Rohdaten in ein Format wie JPEG mit 0,45455 Gamma von sRGB) durch Glück in 8 Bit pro Kanal konvertiert wurde, was neben der korrekten Anzeige oder Anzeige der Helligkeitswerte eine geringere Dateigröße bedeutet ist (d.h. indem das .45455-Gamma auf die Pixel gebrannt wird und die dunklen und mittleren Töne wieder angehoben werden) ist sehr konsistent mit der Natur des Auges.

Meine Erklärung ist, weil die Stäbchenzellen in den Augen die Fähigkeit zum Nachtsehen und die zu empfindliche Natur haben, dunkle Werte zu unterscheiden >> wir haben etwa 120 Millionen Stäbchenzellen im Vergleich zu nur 6 oder Millionen für die Zapfenzellen, die für monochromatische Farben und empfindlich sind Wellenlängen

Ich denke, es ist nicht die Augenreaktionskurve, die dafür verantwortlich ist, und versuchen Sie nicht, auf andere Weise eine Verbindung zwischen dem Gamma des Auges und dem Gamma des Monitors herzustellen, und bitte korrigieren Sie mich, wenn ich falsch liege :). Ich habe Probleme damit, Gamma-Probleme zu verstehen, damit ich alles darüber weiß.

Dies ist eine der besten Referenzen zu Gamma-Gründen und -Lösungen

http://www.w3.org/TR/PNG-GammaAppendix.html

Tatsächlich ist Gamma heutzutage nicht mehr erforderlich, insbesondere wenn mit High-Bit-Darstellungen des Bildes gearbeitet wird. Allerdings bedeutet dies in viel zu vielen Fällen eine komplette Neuprogrammierung der Software - oder der Übergang ist alles andere als nahtlos (sagen wir, vertraute Kurven verändern die Form komplett, wie Herr Blankertz gerade erwähnte).

LCD-Monitore sind "linear" und benötigen heute kein Gamma, aber CRT-Monitore sind nichtlinear und tun dies immer noch. Und alle Weltarchive bestehender Bilder haben Gamma für CRT, daher ist es viel einfacher, weiterhin Gamma hinzuzufügen, als die gesamte Software zu ändern und alle vorhandenen Bilder zu veralten.

Das menschliche Auge hat absolut keine Verwendung für Gamma. Das Auge sieht die ursprüngliche Szene gut ohne Gamma. Gamma dient NUR dazu, die erwarteten Verluste von CRT-Monitoren zu korrigieren (also sehen wir eine Reproduktion der Originalszene). LED-Monitore können Gamma einfach dekodieren und verwerfen, keine große Sache (da das menschliche Auge erwartet, eine originalgetreue Reproduktion der ursprünglichen Szenendaten ohne Gamma zu sehen, sollte die Reproduktion gleich aussehen). Es wäre eine schlechte Sache, es als Gammadaten zu sehen. Glücklicherweise hat das menschliche Auge keinerlei Gelegenheit, jemals Gammadaten zu sehen. Die Seiten, die uns sagen, dass das Auge Gamma braucht, wissen einfach nichts über Gamma.

Unsere Histogramme sind jedoch Gamma-kodiert, weil die Daten (aus obigem Grund) kodiert sind, bis kurz bevor sie dem menschlichen Auge angezeigt werden. Der Mittelpunkt unserer codierten Daten liegt nicht bei 50 %, sondern bei etwa 73 % der Gammadaten (Kameraeinstellungen wie Weißabgleich und Kontrast verschieben ihn etwas mehr). Wenn Sie ein Bild genau um eine Stufe unterbelichten, verschiebt sich der 255-Punkt auf etwa 3/4-Skalierung und NICHT auf 50 %-Skalierung. Eine 18 %-Graukarte entspricht 18 % bei Liner-Daten, aber etwa 46 % bei Gamma-Daten. Leute, die fälschlicherweise davon ausgehen, dass das 50 % sein müssen, denken vielleicht sogar daran, ihren Belichtungsmesser darauf zu kalibrieren. :) Aber das Auge sieht niemals Gammadaten, es wird immer zuerst dekodiert, auf die eine oder andere Weise. Das Auge sieht hoffentlich immer eine originalgetreue Wiedergabe der Originalszene.

Aber FWIW, Drucker brauchen auch den größten Teil der Gamma-Änderung. Kein Wert von 2,2, aber nicht zu weit davon entfernt (aufgrund von Tonwertzunahme usw.). Apple beachtet jetzt die World 2.2-Standards, aber wir alle wissen, dass die frühen Mac-Computer verwendet wurden, um Gamma 1.8 zu verwenden. Dies war NICHT für den Monitor, sie verwendeten dieselben Monitore wie Windows (Monitore sind austauschbar). Aber Apple verkaufte damals Laserdrucker, und der Gamma 1.8 war für ihren Drucker. Dann fügte die Mac-Videohardware ein wenig mehr hinzu, um sie auf die 2,2 zu bringen, die die CRT benötigte. Heutzutage müssen Druckereien die 2.2-Daten, die sie erhalten, etwas abschwächen, aber sie brauchen immer noch viel davon.

Heute ist der Standard Gamma 2.2, so dass alle weltweit existierenden RGB-Daten noch kompatibel sind.

LED ist ein Hintergrundbeleuchtungstyp. Der Hauptgrund für die Gammakorrektur ist NICHT die Optimierung für CRT, selbst wenn dies jemals der Fall war.