Können wir die Farbwiedergabegenauigkeit von 2 Kamerasensoren vergleichen, indem wir nur die spektrale Empfindlichkeitskurve des Sensors betrachten?

Ich habe die Kameraspezifikationen vom Hersteller. Die RGB-Quanteneffizienzkurve (ich denke, es ist auch die spektrale Empfindlichkeitskurve) wird bereitgestellt. Wie können wir die Qualität der Farbwiedergabe dieser beiden Kameras direkt anhand der Kurve vergleichen? Oder müssen wir dazu ein Experiment aufstellen? Vielen Dank.Geben Sie hier die Bildbeschreibung ein

Geben Sie hier die Bildbeschreibung ein

Was genau meinst du mit Qualität der Farbwiedergabe ? Am Ende des Tages „reproduzieren wir Fotos“, indem wir nur drei Daten für jedes Pixel speichern: RGB. Im Allgemeinen wird es (unabzählbar) unendlich viele Kombinationen von Frequenzen geben, denen derselbe RGB-Wert zugewiesen wird. Es ist das Schubladenprinzip.
@Myridium Das menschliche Auge teilt auch ganze Spektren in dreifarbige + Helligkeitssignale auf. Deshalb funktioniert der RGB-Farbraum. Wenn das Auge mit n Arten von Farbrezeptoren arbeiten würde, hätten wir n -dimensionale Farbräume für die Anzeige und n+1 -dimensionale Räume für So-ho-Drucker.
Ja, stimmt, deshalb verwenden wir RGB. Jedoch...
Die Qualität der Farbwiedergabe, die ich hier meine, ist: Wenn Sie das Bild eines Objekts aufnehmen, welche Kamera kann den RGB-Wert näher an den wahren RGB-Wert des Objekts bringen, weniger RGB-Kanalüberlappung
Sie könnten einen Monochromator verwenden, um einen Lichtstrahl mit einem sehr schmalen Wellenlängenbereich zu erzeugen und die Ausgabe des Sensors zu messen, wenn Sie die Wellenlänge ändern. Alternativ können Sie ein Beugungsgitter verwenden und den Farbbereich über den Sensor betrachten - ich würde einen glatteren Übergang für eine bessere Farberfassung erwarten. Kein Modell hat als solches einen echten RGB-Wert, RGB ist nur ein Modell zur Darstellung von Farben. Es gibt auch HSL, CMYK und mit ziemlicher Sicherheit noch andere.
Wenn die Skalen der beiden Diagramme angeglichen würden, könnte der Vergleich aussagekräftiger sein.
Sie diskutieren per se über Sensor- und nicht über Kameraeigenschaften. Bitte ändern Sie die Frage und den Titel, um dies zu behandeln. Es wird möglicherweise vorhandene Antworten ändern.
@Rob Was Sie beschreiben, ist ungefähr, wie ihre Diagramme generiert wurden. Sie stellen die Effizienz des Sensors dar, eine erzeugte Wellenlänge durch eine Reihe von erzeugten Wellenlängen in einem als Spektrophotometer bezeichneten Gerät zu reproduzieren.
Mir scheint, dass diese ganze Frage auf einer falschen Prämisse basiert: dass jede spezifische Farbe, die wir wahrnehmen, eine spezifische Wellenlänge hat. Das ist nicht der Fall. Darüber hinaus variiert der „wahre“ RGB-Wert verschiedener Elemente in der Szene basierend auf den Eigenschaften des Lichts, das sie beleuchtet. Breitbandlicht, das auf 5000 K (im Wesentlichen D50) zentriert ist, lässt dieselben Dinge in einer ganz anderen Farbe aussehen als Schmalband-Natriumdampflampen mit 2700 K. Die RGB-Kanalüberlappung in Kamerasensoren, von der Sie glauben, dass sie ungenaue Farben einführt, funktioniert genauso wie das menschliche Sehen.

Antworten (3)

Wie können wir die Qualität der Farbwiedergabe dieser beiden Kameras direkt anhand der Kurve vergleichen?

"Welche Kamera kann den RGB-Wert näher an den wahren RGB-Wert des Objekts bringen, weniger RGB-Kanalüberlappung"

Ein Vergleich des Farbwiedergabepotentials basierend auf der Quanteneffizienz der Sensorfilter ist möglich.

Wie andere bereits erwähnt haben, gibt es viele Faktoren, die zur endgültigen Farbwiedergabe eines Vollfarbkamerasystems beitragen. Die RGB-empfindlichen Sensoren des Sensors tragen jedoch möglicherweise am stärksten zur Genauigkeit der Farbwiedergabe bei, und ihre Farbwiedergabeleistung kann gemessen werden.

Was ist echtes RGB

Zuerst müssen wir antworten, was ist das "wahre RGB" einer Szene? Eine gute Definition von "echtem RGB" wären die relativen Reaktionen der drei Netzhautkegel eines Menschen auf die Szene. Diese Zapfen heißen LMS, lang, mittel und kurz.

Geben Sie hier die Bildbeschreibung ein

Ein über diese drei Empfindlichkeitskurven integriertes Lichtspektrum ergibt drei LMS-Werte, die man sich als menschliche RGB-Werte vorstellen kann. Dies sind die Ziel-RGB-Werte, die wir mit unserer Kamera reproduzieren möchten, wenn unser Ziel eine genaue Farbwiedergabe ist.

Häufiger könnten wir auch auf die Empfindlichkeiten der XYZ-Farbanpassungsfunktionen abzielen. Dies sind lineare Kombinationen der LMS-Funktionen, sodass sie effektiv mit den LMS-Funktionen austauschbar sind.

Geben Sie hier die Bildbeschreibung ein

Farbkorrektur

Wenn in einer Digitalkamera ein Spektrum gegen die Kameraempfindlichkeiten (wie die von Ihnen geposteten) integriert wird, werden die resultierenden RGB-Werte als "Kamera-RGB" bezeichnet.

In den meisten Digitalkameras gibt es einen Verarbeitungsschritt, bei dem ein Farbkorrekturalgorithmus (M) verwendet wird, um Kamera-RGB in humanLMS (oder XYZ) umzuwandeln.

M(cameraRGB) = humanLMS

In diesem Fall ist humanLMS eine Vermutung. Es wird nicht perfekt sein, und der Unterschied zwischen dem geschätzten und dem tatsächlichen LMS-Wert, den ein Mensch wahrgenommen hätte, ist Ihr Farbfehler.

Das Entwerfen eines guten M ist schwierig, da es sich um ein unterbestimmtes Problem handelt. Einige Kamera-RGB-Werte haben mehrere potenzielle menschliche LMS-Werte (dies wird als Metamerie bezeichnet), sodass es nicht immer möglich ist, genau zu wissen, was das richtige LMS ist, aber wir können natürliche Bildstatistiken verwenden und maschinelles Lernen, um die wahrscheinlichste richtige Antwort zu erraten.

Die gebräuchlichste Implementierung von M ist eine lineare 3x3-Transformationsmatrix, aber wenn die Kameraempfindlichkeiten keine linearen Kombinationen von LMS sind, enthält die Transformation Fehler. Wenn die Kameraempfindlichkeiten lineare Kombinationen von LMS sind, wäre der Farbfehler Null, dies wird als Luther-Bedingung bezeichnet. In der Praxis erfüllen die Empfindlichkeiten von Digitalkameras niemals die Luther-Bedingung, sodass es immer zu Farbfehlern kommt.

Vergleich der Farbwiedergabe

Es gibt jetzt zwei Faktoren, die bei der Genauigkeit unserer LMS-Schätzungen eine Rolle spielen.

1) das Design unseres Farbkorrekturalgorithmus M

2) wie ähnlich unsere Sensorempfindlichkeitskurven den LMS-Empfindlichkeiten sind

Dies bringt den Kern Ihrer Frage auf den Punkt: Einige Empfindlichkeiten führen zu quantifizierbar genaueren Farben als andere, da sie näher an den LMS-Empfindlichkeiten liegen, wodurch der LMS-Wert, der das von uns gewünschte "wahre RGB" ist, leichter erraten werden kann

Oder müssen wir dazu ein Experiment aufstellen?

Was hilfreich sein könnte, ist " ISO-Standard 17321, Sensitivity Metamerism Index ". Berechnet die Genauigkeit der Farbwiedergabe basierend auf spektralen Reaktionen.

https://www.dxomark.com/About/In-depth-measurements/Measurements/Color-sensitivity http://www.iso.org/iso/iso_catalogue/catalogue_ics/catalogue_detail_ics.htm?csnumber=35835

Dieser Index zeigt Ihnen den durchschnittlich wahrnehmbaren Unterschied zwischen den von Ihrer Kamera aufgenommenen Farben, die durch eine optimierte 3x3-Matrix linear korrigiert wurden, und den bekannten Farben einer Testszene.

Das einzige Problem ist, dass dieses Verfahren mit einer vollständigen Kamera durchgeführt wird, sodass der Farbfehler des Sensors und der Farbkorrekturmatrix und der Optik usw. gemessen wird, nicht nur des Sensors.

Wenn Sie wirklich nur den Fehler von nur zwei verschiedenen Sensoren quantifizieren möchten, können Sie das SMI-Verfahren mit derselben Kamera durchführen und nur den Sensor wechseln. Anstelle eines physikalischen Experiments mit einer realen Kamera könnten Sie Ihre Kamera auch in Software simulieren und keinen optischen oder demosaikierenden Beitrag zu den simulierten Kamera-RGB-Werten hinzufügen.

Es gibt viele Artikel zur Kamerasimulation für weitere Informationen dazu: http://color.psych.upenn.edu/simchapter/simchapter.pdf

" CIE Special Metamerism Index: Change in Observer " ist ein weiterer relevanter Standard zum Vergleich der Farbwiedergabe bei Menschen mit leicht variierenden spektralen Reaktionen. Ich denke, Sie könnten dies auch auf Kameraspektren anwenden.

http://link.springer.com/referenceworkentry/10.1007/978-3-642-27851-8_322-1#page-1

Ich habe die von Ihnen zitierten Artikel gelesen. Die von Ihnen bereitgestellten Links bestreiten Ihren Anspruch. Die Frage bezog sich auf die Verwendung der Sensordaten, nicht auf die für die menschliche Wahrnehmung erforderliche Nachbearbeitung, die Ihre Artikel (insbesondere der zuletzt zitierte) ansprechen. Der letzte Artikel weist ausdrücklich darauf hin, dass es ohne „Kalibrierung“-Phase nicht geht. (mein Begriff und die Betonung des Zitats). Laut den Artikeln ist dies nur theoretisch möglich, wenn der Sensor Eigenschaften hat, die genau dem "idealen unabhängigen Beobachter" entsprechen.
@stan Soweit ich das beurteilen kann, lautet die grundlegende Frage hier: Können wir bei zwei RGB-Sensoren mit unterschiedlichen Spektralantwortkurven etwas darüber sagen, welche Farben genauer reproduzieren können? Diese Frage ist gut verstanden und die Antwort lautet ja, der Sensor mit Spektralkurven, die einer linearen Kombination menschlicher LMS-Spektralantworten am nächsten kommen, hat weniger Unsicherheit, wenn Sie eine Farbkorrektur vom Kamera-RGB-Raum auf den CIE-Wahrnehmungsraum anwenden.

tl,dr : Nein, Sie müssen ein geeignetes Experiment aufbauen und es mit einem kalibrierten Display/Drucker auswerten.

Die spektrale Empfindlichkeit ist nur ein Teil des gesamten Prozesses. Zwischen der Aufnahme und dem Druck Dinge, die das "Bild" verändern:

  1. Filter (UV, Polarisator, Farbe, neutrales Grau)
  2. Linse
  3. Sensormaske und Empfindlichkeit
  4. Kamerainterne Algorithmen
  5. Nachbearbeitung
  6. Drucken

Nehmen wir an, wir dürfen Filter, Nachbearbeitung und Druckeffekte vernachlässigen.

Dennoch kann es zwischen Linsen und Linsenherstellern Unterschiede hinsichtlich der spektralen Durchlässigkeit ihrer Produkte geben.

Beachten Sie, dass das Signal analog ist, wenn der Sensor freigelegt ist - je höher die Ladung in der Vertiefung ist, desto mehr Licht wurde eingefangen. Dieses Signal wird dann digitalisiert und in RGB-Werte umgewandelt. Die Digitalisierungsmethode und der RGB-Konvertierungsalgorithmus können je nach Hersteller unterschiedlich sein.

Gibt es eine Möglichkeit, nur den Kamerasensorchip zu vergleichen? Objektiv und Filter usw. nicht enthalten. Vergleichen Sie einfach, wie gut der Sensor auf Licht reagieren kann
@ZhaoHuang Ja, aber Unterschiede sind in Bezug auf die Fotografie ziemlich bedeutungslos, da man mindestens ein Objektiv, einen Sensor, Demosaicing-Algorithmen und andere Nachbearbeitungsschritte verwenden muss, um ein sichtbares Bild zu erhalten.
@ZhaoHuang Sie haben diese Daten bereits mit Ihrer Frage präsentiert. Ihre beiden Diagramme vergleichen die beiden Sensoren und ihre Reaktion über das sichtbare Spektrum. Sie sagen nichts über Genauigkeit aus. Sie können die Fotografie nicht verwenden, um Farben genau aufzuzeichnen; aber es ist großartig für die Wahrnehmungswiedergabe.
Ich würde die Punkte 4 und 5 jeweils etwa dreimal wiederholen :-). Diese sind (hoffentlich) speziell dafür ausgelegt, alle Unterschiede zwischen den Spektralkurven des Bayer-Filters und den Spektralkurven der Netzhaut des menschlichen Auges auszugleichen. (Ja, ich kenne die vielen magischen neurologischen Anpassungen der wahrgenommenen Farbe.)

Sie haben die Antwort in den Kurven, die Sie zum Vergleich präsentieren.

Sie können die Reaktion eines Sensors mit einem anderen direkt an jedem gemeinsamen Punkt der beiden Datensätze vergleichen. Beispielsweise kann die Effizienz jedes der Sensoren bei 550 nm angegeben und verglichen werden. Das ist die einzige Aussage, die man mit den gegebenen Daten machen kann.

Eine Aussage darüber, ob ein Sensor „genauer“ ist als der andere, kann nicht getroffen werden. Die einzige Aussage, die gemacht werden kann, ist bereits gegeben (eingezeichnet) – die relative Quanteneffizienz.