Ein schneller und zuverlässiger Test für lineare und nichtlineare Farbreaktion mit einer bestimmten Anwendung / Hardware?

Es gibt eine wahnsinnige Menge an Verwirrung zwischen linearer und nichtlinearer Reaktion auf Farbzuordnungen, es hängt von den Treibern, der Software, der Hardware, den Einstellungen in Ihren Anwendungen ab, welche Art von Algorithmen implementiert werden und wahrscheinlich und unendlich viele andere Dinge .

Angenommen, ich kann ein Bild öffnen oder bin in einem Bildeditor, gibt es einen Test, den ich durchführen kann, um zu testen, welche Art von Zuordnung ich von dieser Umgebung erhalte?

Antworten (1)

Das Thema ist etwas herausfordernd*. Die kurze Antwort lautet:

  • Sie schlagen das Bildprofil nach, das die Zuordnung dazu enthält, wie es in einem bekannten Referenzraum aussehen sollte.

Diese Suche sagt Ihnen jedoch, wie es aussehen soll, nicht, wie es ursprünglich war. Wenn Sie also die Werte messen möchten, benötigen Sie eine unverfälschte Quelle. Im Grunde bedeutet dies, dass Sie die Kontrolle über alle Phasen von der Erfassung bis zur Verwendung haben. Denken Sie daran, dass Ihre Kamera möglicherweise einen Weißabgleich durchführt. Sie müssen dies zusätzlich berücksichtigen.

Ein schneller mentaler Test zum Durchführen ist:

  • Wenn das Bild nicht dunkel aussieht, ist es nicht linear. Weil ich noch nie jemanden außer mir selbst gesehen habe, der einen Monitor auf linear kalibriert.

Die Umkehrung ist jedoch kein Wahrheitstest. Dunkle Bilder sind also nicht eher linear als helle. Es gibt eine Ausnahme von der obigen Regel, und das sind synthetische Bilder. Sie können hell sein, auch wenn sie linear sind.

Das eigentliche Problem ist, dass Sie nicht wirklich wissen können, ob die Informationen, die Sie haben, wahr sind oder nicht. Ein Bild kann falsche Metadaten haben, oder einige Prozesse haben das Bild möglicherweise beschädigt, ohne dass Sie es wissen. Dies ist beispielsweise häufig der Fall bei Bump Maps, die srgb ausgeben können, obwohl sie als linear beabsichtigt sind.

Um die Antwort tatsächlich zu wissen, müssen Sie wissen, unter welchen Umständen das Bild gemacht wurde, von wem und was mit dem Bild gemacht und beabsichtigt wurde. oder dann einfach naive Annahmen treffen.

  • Vielleicht ist es einfach einfacher zu sagen, dass Sie dies nicht so einfach tun können.

Für Hardware.

Sie müssen lediglich ein Kalibriersystem für Ihre Hardware erwerben, um die Pipeline zu kontrollieren. Oder Sie können dies an eine externe Normungsagentur auslagern, die dies regelmäßig für Sie erledigt. In realen Herstellungsprozessen müssen Sie auch Qualitätskontrollen und recht häufige Neukalibrierungen von Systemen durchführen.

Der Vorgang ist etwas mühsam. Wenn Sie also mehr als 3 Geräte haben, müssen Sie eine Person für die Kalibrierung und die Arbeitsablaufanweisungen einsetzen.

Aber wenn alles, was Sie brauchen, etwas bessere Ergebnisse als vorher sind, dann kaufen Sie auf jeden Fall einen Kalibrator und lassen Sie ihn regelmäßig (oder noch besser konstant) laufen.

* So sehr, dass es eine ganze Branche gibt, die diese Qualitätskontrolle sicherstellt. Daher ist es möglicherweise einfacher, einen QC-Ingenieur einzustellen.

Geht es hier um Gamma-Korrektur ? Nimmt das RAW-Kameraformat eine Korrektur oder Modifikation dessen vor, was von einem CCD/CMOS kommt?
@Anphiteoth Gammakorrektur ist ein vereinfachtes Modell, um die Daten sinnvoll im Signal zu komprimieren. Profile sind nur Gefäße für komplexere Korrekturinformationen als nur Gammakurven. Das Camera Raw-Tool manipuliert die rohen Sensordaten. Aber es könnte immer noch nicht linear sein, hängt vom Sensor ab. Denken Sie daran, dass Sie bei der Verarbeitung des Bildes menschliche Wahrnehmungskomponenten simulieren möchten, sodass das Hauptziel darin besteht, die Welt so zu akzentuieren, wie es das Auge tun würde. Das Zeigen eines Blau- oder Orangestichs würde also niemals die wirkliche Situation wiedergeben, weil das Auge es jetzt zweimal tut.