Was würde passieren, wenn eine Kamera ganz andere Primärfarben verwenden würde?

Wie viele Menschen wissen, haben Menschen also drei Zapfenzellen, die es uns ermöglichen, drei verschiedene „Primärfarben“ zu sehen, die sich kombinieren können, um das gesamte Spektrum zu bilden, das wir sehen können. Inzwischen haben viele andere Tiere vier oder mehr Kegelzellen, wodurch sie ein noch breiteres oder klarer definiertes Spektrum sehen können.

Heutzutage zeichnen Digitalkameras das Licht typischerweise unter Verwendung einer Anordnung lichtempfindlicher „Pixel“ auf. Die Pixel sind im Allgemeinen in Vierergruppen angeordnet, wobei zwei (unter Verwendung von Filtermaterialien) für Grün, eines für Rot und eines für Blau spezialisiert sind. Die Intensitäten, die von jedem Pixel erkannt und dann mit einem Algorithmus in eine RGB-Datei konvertiert werden. Die von jedem spezialisierten Pixel aufgezeichneten Intensitäten können dem Farbtonspektrum unten zugeordnet werden.

Geben Sie hier die Bildbeschreibung ein

Das ist es, was wir im Allgemeinen wollen, da das resultierende Bild für unsere Augen vollkommen sinnvoll ist und ausreicht, um eine Szene für die meisten Absichten und Zwecke aufzunehmen. Aber warum müssen wir eine Kamera darauf beschränken, Licht so zu erfassen und aufzuzeichnen, wie es Menschen sehen?

Nehmen wir an, wir haben die Filter über den lichtempfindlichen "Pixeln" geändert, um verschiedene Wellenlängen optimal zuzulassen, insbesondere solche, die wir normalerweise nicht sehen, oder solche, die in einem speziellen Farbbereich näher beieinander liegen und mehr Details liefern würden. Von dort aus könnten wir das Farbtonspektrum strecken, wobei 0/360 die erste Farbe, 120 die zweite Farbe und 240 die endgültige Farbe ist.

Ich bin sehr gespannt, was daraus resultieren würde, wenn wir zum Beispiel die Wellenlängen 800 nm, 400 nm und 200 nm auswählen würden, um etwas mehr ins Infrarote und Ultraviolett zu sehen. Oder, wenn wir eine Collage von etwas haben, das blau erscheint, könnten wir die Wellenlängen von 450 nm, 475 nm und 500 nm wählen, um ähnliche Schattierungen leichter zu unterscheiden. Eine andere Möglichkeit wäre, vier verschiedene Wellenlängen zu detektieren und diese auf das Farbtonspektrum abzubilden. Dies würde so etwas wie "tetrachromatische" Fotografie ermöglichen.

Hier ist ein Modell dessen, was man erwarten könnte (geändert, um die Frage besser widerzuspiegeln):

Geben Sie hier die Bildbeschreibung ein

Hier sind einige Dinge zu beantworten:

Wird das schon gemacht? Wenn nein, warum nicht? (Ich habe schon früher Ultraviolett- und Infrarotfotografie gesehen, aber es ist normalerweise Schwarz / Weiß oder Schwarz / Magenta. Warum eine Dimension verwenden und warum nicht das Spektrum strecken?)

Was gibt es in Bezug auf Verbrauchertechnologie, um Bilder auf diese Weise aufzunehmen?

Gibt es Einschränkungen in der Technologie, welche Wellenlängen erfasst werden können?

Primärfarben sind nicht das, wofür Sie sie halten. Das menschliche Auge hat keine in "nm" ausgedrückten Primärfarben. Außerdem ist Ihre erste Abbildung kein Wellenlängenspektrum, da sie Rosa enthält, das keines ist.
@EuriPinhollow - das menschliche Auge hat drei Arten von Zapfen, die bei bestimmten nm-Wellenlängen eine Spitzenreaktion aufweisen. Ich bin mir immer noch nicht sicher, ob es keine anderen Probleme mit der Frage gibt, aber der Teil darüber, wie das Auge Licht erkennt, scheint ziemlich genau zu sein.
Es hört sich an, als hätten Sie die Falschfarben-Bildgebung erfunden .
@aj-henderson: Peak-Response-Ort ist nicht das, was ist primary. Primärfarben des menschlichen Auges sind nicht vorhanden. Die Frage ist falsch, aber ich kann mir keine Bearbeitung vorstellen, die sie verbessern würde.
@EuriPinhollow - ah, ok, ich verstehe, was du sagst. Die Farben der Zapfen „Primärfarben“ zu nennen, war eines der anderen Probleme, auf die ich anspielte, da ich nicht sicher bin, ob die Zapfen im Auge dafür verantwortlich sind, dass die Primärfarben Primärfarben sind, aber es ist über 10 Jahre her, seit ich mich mit Farbtheorie befasst habe und ich hatte jetzt keine Zeit, es nachzuschlagen. Ich bin mir nicht sicher, ob insbesondere die Wahl der Terminologie für das relevant ist, was das OP zu fragen versucht.
@EuriPinhollow Das stellt alles in Frage, was mir jemals darüber gesagt wurde, warum die additiven Primärfarben so sind, wie sie sind. Haben Sie eine Quelle?
Diese Frage ist nicht sehr gut formuliert, Menschen haben keine Vorwahlen per se, sondern Zapfenreaktionen (LMS für lange, mittlere und kurze Wellenlängen) mit unterschiedlichen Empfindlichkeiten entlang des sichtbaren Spektrums. Ich würde vorschlagen, alle Erwähnungen von Primärfarben im Zusammenhang mit dem menschlichen Sehen zu entfernen und die Frage zu ändern in "Was würde passieren, wenn eine Kamera völlig andere Spektralantworten verwenden würde?"
...das erinnert an den Farbraum CIE 1931 . TL;DR: Keine Kombination beliebig vieler sichtbarer Farben ergibt einen vollständigen Farbraum, der jede sichtbare Farbe darstellt. Eine Farbe ist "sichtbar", wenn es eine Kombination von Wellenlängen und Lichtintensitäten gibt, die diese Farbe ohne die Verwendung optischer Täuschungen oder anderer Wahrnehmungsanomalien wie Kegelermüdung erzeugen würden.
@Kevin: Dein Kommentar ist wirklich verwirrend, eine Farbe ist per Definition sichtbar : Es ist die Eigenschaft der visuellen Wahrnehmung , die durch Attribute von Farbton, Helligkeit (oder Helligkeit) und Farbigkeit (oder Sättigung oder Chroma) beschrieben werden kann.
@Kel: sichtbar war eine schlechte Wortwahl. Ich hätte echt sagen sollen.
Führen Sie Bildsuchen nach „Blumen-UV“ und „Infrarotfotografie“ durch.
Aus technischen Gründen wird es immer schwieriger, achromatische Optiken mit einem breiteren Betriebswellenlängenbereich zu erhalten.
@kevin-krumwiede: Hier ist einer . Und natürlich ein Link zum Wikipedia-Artikel , der gut für den Einstieg in die Recherche ist.
@EuriPinhollow Dieser Artikel scheint hauptsächlich aus der Art von Argumenten zu bestehen, die Asimov in seinem Aufsatz The Relativity of Wrong bekanntermaßen kritisiert hat . Nur weil etwas historisch falsch verstanden wurde, heißt das nicht, dass das aktuelle Verständnis grob falsch sein muss.
@kevin-krumwiede: Zumindest könnte dieser Artikel erklären, warum die Vorwahlen nicht die Punkte sind, an denen sich CIE1931 CMF-Spitzen befinden. Der LMS-Raum (menschlicher Raum) hat "R" und "G" ziemlich nahe beieinander, was nicht bedeutet, dass die Primärfarbe "R" des LMS-Raums nahe an der Primärfarbe "G" liegt.
Ganz zu schweigen davon, dass das menschliche „R“ wirklich gelbgrün und das menschliche „B“ wirklich blauviolett ist. Die Farben der Filter auf Bayer-Masken sind auch nicht die gleichen Farben wie die, die von unseren RGB-Geräten emittiert werden. Jeder jeweilige Filter auf einer Bayer-Maske ist für die Wellenlängen, für die unsere jeweiligen Netzhautkegel am empfindlichsten sind, durchlässiger als für die Schattierungen von R, G und B, die von unseren emittierenden Displays verwendet werden. Dann gibt es die subtraktive Farbe, die dazu neigt, CMYK zu verwenden ...

Antworten (8)

Die Farbfotografie basiert tatsächlich auf der Tri-Color-Theorie. Die Welt sah 1861 das erste Farbbild, das mit Rot-, Grün- und Blaufiltern von James Clark Maxwell erstellt wurde. Die heutige Farbfotografie basiert auf seiner Methode. 1891 demonstrierte Gabriel Lippmann Vollfarbbilder mit einem einzigen Blatt Schwarz-Weiß-Film, ohne Filter, ohne farbige Farbstoffe oder Pigmente. Dieser Prozess blieb auf der Strecke, da die schönen Bilder nicht kopiert oder vervielfältigt werden konnten. In den 1950er Jahren demonstrierte Dr. Edwin Land von der Polaroid Corporation, dass er wunderschöne Farbbilder mit nur zwei Farben (579 und 599 Nanometer) machen konnte. Auch das blieb auf der Strecke.

Bildgebungsingenieure wollten schon vor langer Zeit Bilder mithilfe des nicht-visuellen Teils des Spektrums erstellen. Es wurde schnell entdeckt, dass gewöhnliche Fotoplatten und Filme nur violettes und blaues Licht sowie ultraviolettes Licht (4 Nanometer bis 380 Nanometer) aufnehmen. Sie entdeckten, dass Filme Röntgen- und Infrarotstrahlen aufzeichnen.

Welche anderen Teile des Spektrums können abgebildet werden? Bild der Astronomen über Radiofrequenzen Wetterfrösche und die Luftfahrtindustrie, Bild über Radar. Das optische Mikroskop ist auf etwa 1000-fach begrenzt, das Elektronenmikroskop bildet jedoch Moleküle und Atome ab.

Wir bilden den menschlichen Körper mit Schallwellen (Ultraschall) ab. Wir bilden den menschlichen Körper mittels Radiowellen (Magnetresonanztomographie, MRT) ab.

Es gibt unzählige andere Möglichkeiten, sich ein Bild zu machen. Zunächst wurden Bilder, die mit dem nicht sichtbaren Teil des Spektrums erstellt wurden, nur in Schwarzweiß dargestellt. Schließlich können wir durch diese Strahlung nicht sehen, daher wird jede Grafik, die wir präsentieren, eine falsche Präsentation sein.

Jetzt suchen Ärzte, die Röntgenbilder betrachten, nach subtilen Veränderungen in Grautönen. Mit Computerlogik können wir Schwarz-Weiß-Töne zur besseren Unterscheidung in Falschfarben umwandeln. So werden die modernen Röntgen- und Sonogramme mit falschen Farben dargestellt. Die anderen bildgebenden Wissenschaftsdisziplinen ziehen nach. Falschfarbenbilder aus den nicht sichtbaren Teilen des Spektrums sind Routine.

Die von Ihnen vorgeschlagene Röntgenbildgebung ähnelt eher der Beobachtung der Schatten an der Wand, aber die Transmissionselektronenmikroskopie ist eine "gute alte Kamera", die Elektronenwellen anstelle von Photonenwellen fokussiert. Sie haben auch Infrarotkameras vermisst, ein weiteres sehr nützliches Gerät.
Tolle Antwort, aber abgeleitet sollte Infrarot sein, Ende des zweiten Absatzes.

Wird das schon gemacht?

Sicher. Das Hubble-Weltraumteleskop erfasst das nahe IR-, sichtbare und nahe UV-Spektrum. Alle Bilder, die Sie von Hubble sehen und die Informationen außerhalb des sichtbaren Spektrums enthalten, sind Falschfarbenbilder .

In ähnlicher Weise können Bilder von Chandra, das das Röntgenspektrum beobachtet, nur sichtbar gemacht werden, indem seine "Töne" dem sichtbaren Lichtspektrum zugeordnet werden.

Im nicht-astronomischen Bereich kartieren die Millimeterwellen-Scanner an Flughäfen die Signale im Millimeterbereich in den visuellen Bereich.

Was gibt es in Bezug auf Verbrauchertechnologie, um Bilder auf diese Weise aufzunehmen?

Zum einen FLIR-Kameras.

Gibt es Einschränkungen in der Technologie, welche Wellenlängen erfasst werden können?

Diese Frage ist zu weit gefasst (es gibt immer Grenzen in der Technologie).

Hier ist ein kurzer Artikel , der veranschaulicht, welchen Teil des elektromagnetischen Spektrums die Weltraumteleskope Hubble, James Webb und Spitzer beobachten können. Ich dachte, ich würde das teilen, da Sie Hubble erwähnt haben.

Einige Fotokameras für den allgemeinen Gebrauch nehmen tatsächlich außerhalb des sichtbaren Spektrums auf, daher gibt es einige Erfahrungen damit. Die Leica M8 war berüchtigt für die Aufnahme von IR. Der erweiterte Bereich wirkte sich negativ auf die Farbgenauigkeit aus, und Leica musste den Kunden IR-/Sperrfilter für ihre Objektive geben, um dies zu beheben.

Die Ausweitung auf UV ist schwierig, da Glas in den Linsen UV blockiert.

Der Effekt der gleichzeitigen Erfassung eines breiteren Spektrums - zumindest wie bei den Leica- oder modifizierten Kameras - ist nicht besonders angenehm, interessant oder nützlich. Selbst wenn Sie es schaffen, die Daten auf interessante Weise zu verarbeiten, erhalten Sie ein einzelnes Trickponny.

Es gibt Firmen, die die Filter aus dem Sensor entfernen, wenn Sie daran interessiert sind. Sie könnten Farbfilter mit unterschiedlichen Spektren auf Ihrem Objektiv verwenden, drei Belichtungen mit unterschiedlichen Filtern erstellen und sie in der Software mischen.

Sony hatte einige Kameras, die so empfindlich auf IR reagierten, dass sie eine Nachtsichtfunktion mit eingebauter IR-Beleuchtung enthielten. Sie waren gezwungen, es zu verkrüppeln, da einige Stoffe im IR-Licht fast transparent waren. Die Kameras wurden benutzt, um durch Frauenkleidung zu sehen.

Die von jedem spezialisierten Pixel aufgezeichneten Intensitäten können dem Farbtonspektrum unten zugeordnet werden.

Die Bayer-Matrix lässt sich keiner Farbe zuordnen. Das Bild wird interpoliert, um ein Vollfarbe-pro-Pixel-Bild zu erhalten, wobei jedes Pixel eine R-, G- und B-Komponente hat. Diese RGB-Komponenten können einem Farbraum wie sRGB oder adobeRGB zugeordnet werden, aber der RGB-Modus hat keinen eigenen Farbraum.

Nehmen wir an, wir haben die Filter über den lichtempfindlichen "Pixeln" geändert, um verschiedene Wellenlängen optimal zuzulassen, insbesondere solche, die wir normalerweise nicht sehen, oder solche, die in einem speziellen Farbbereich näher beieinander liegen und mehr Details liefern würden.

Die Frage ist, was Details ausmacht. Wenn es darum geht, Spektroskopie durchzuführen, sollte man keine normale Kamera verwenden, sondern ein Spektrometer oder Spektrophotometer.

Jeder hinzugefügte Filter verringert die Gesamteffizienz des Sensors. Eine RGB-Kamera hat eine Nettoeffizienz von etwa 20 bis 25 % über dem sichtbaren Band. Eine UV-VIS-IR-Kamera mit 5 Filtern hat in diesem Band eine Effizienz von fast 10 %, und die UV- und IR-Bänder enthalten zunächst weniger Licht, sodass sie viel mehr Verstärkung benötigen und lauter sind.

Wird das schon gemacht? Wenn nein, warum nicht?

Ja, sie werden Spektrophotometer genannt. Tatsächlich wird etwas sehr Ähnliches wie das, worüber Sie sprechen, getan. MastCAM auf dem Neugier-Rover verwendet ein spezielles Bayer-Array, das erhebliches IR-Licht ausstrahlt, gekoppelt mit einem 8-Filterrad. Die Kamera kann dann Schmalband-Bildgebung in voller Auflösung im Kurzwellen-IR bei 6 verschiedenen Wellenlängen durchführen.

Ist es üblich, nein. Außerhalb der wissenschaftlichen Untersuchung macht diese Art der Einrichtung eine sehr sperrige Kamera mit einem komplexeren Metadatenschema erforderlich. Dies sind zwei Dinge, die der Fluch von Konsumgütern sind.

Beachten Sie, dass Sie 3 beliebige Primärfarben im sichtbaren Spektrum verwenden können und Sie ein genaues Bild erzeugen (innerhalb der Grenzen Ihrer Aufnahme- und Anzeigegeräte), solange das Aufnahmegerät und das Anzeigegerät dieselben Primärfarben verwenden. Beispielsweise verfügen die meisten Kameras, die in den letzten 10 Jahren auf den Markt gebracht wurden, über Sensoren, die Farben erfassen, die in den sRGB-Farbraum passen. Und die meisten Monitore zeigen im sRGB-Farbraum (oder etwas ähnliches) an.

Neuere Kameras (derzeit High-End-, aber zweifellos bald Consumer-Kameras) können in einem breiteren Farbraum namens DCI-P3 aufnehmen. Es wird immer noch als „RGB“-Farbraum betrachtet, da die erfassten Primärfarben das sind, was wir subjektiv als „Rot“, „Grün“ und „Blau“ bezeichnen würden, obwohl sie sich von den sRGB-Primärfarben unterscheiden. Mehrere LCD-Displays in neueren Computern und Mobiltelefonen können jetzt auch im DCI-P3-Farbraum anzeigen. Diese Geräte erfassen und zeigen eine viel größere Farbpalette an.

Wenn Sie sehen möchten, wie es aussehen würde, mit einem Satz Primärfarben aufzunehmen und in einem anderen Satz anzuzeigen, können Sie einen Farbtonanpassungsfilter in Ihrem bevorzugten Bildbearbeitungsprogramm verwenden. Das Drehen des Farbtons zeigt Ihnen das Äquivalent der Erfassung mit einem Satz Primärfarben und der Anzeige mit einem anderen.

Wenn man das Äquivalent der Erfassung mit einem Satz Primärfarben und der Anzeige mit einem anderen sehen möchte, muss man sich nur die Ausgabe einer beliebigen Digitalkamera für Verbraucher ansehen, die jemals eine Bayer-Maske verwendet. Die Farben der Filter von Bayer-Masken sind nicht die gleichen Farben, die von unseren RGB-Displays emittiert werden. Sie sind eher gelb-orange/leicht gelbgrün/blau-violett als rot/grün/blau.

Gibt es Einschränkungen in der Technologie, welche Wellenlängen erfasst werden können?

Es gibt:

Im Grunde wurde also das gesamte Spektrum erkundet.

Aber all diese haben unterschiedliche Systeme. Zu berücksichtigen sind die Beziehung zwischen Wellenlänge und Materie, die Umgebung und insbesondere der Sensor.

Schauen Sie sich an, warum wir "sichtbares Licht" sehen. Wenn insbesondere die Wellenlänge nicht durch die obere Atmosphäre geht, gäbe es keine Lichtquelle, auch bekannt als Sonnenlicht: https://en.wikipedia.org/wiki/File:Atmospheric_electromagnetic_opacity.svg Das andere Licht ist das Radio, aber es ist zu lang, das durch unseren Körper geht.

Die Unterschiede in den Wellenlängen sind exponentiell, also ja, es gibt einige technologische Probleme, die damit zusammenhängen, welche elektromagnetischen Wellen etwas mit unseren Augen oder Instrumenten wahrnehmen können.

Was gibt es in Bezug auf Verbrauchertechnologie, um Bilder auf diese Weise aufzunehmen?

Infrarot

Eine einfache Frage ist, dass Sie Nahinfrarotfilm und -filter zum Experimentieren haben können, und Sie könnten Ihr dlsr anpassen: https://photo.stackexchange.com/search?q=infrared

Es gibt einige Nachtsichtkameras und Objektive.

Sie können eine Ferninfrarot-Wärmebildkamera kaufen, aber es handelt sich nicht um ein „Verbraucher“-Produkt, da sie teuer sind.

UV Ich bezweifle, dass es legal ist, einen energiereicheren Lichtstrahl auf Menschen abzufeuern. Denken Sie daran, dass einige lange Belichtungen mit UV-Licht brennen können, vor allem Ihre Netzhaut. Sie benötigen also eine Umgebung mit wenig Licht, um ein UV-Gerät mit geringer Leistung zu verwenden. "Schwarzlicht"-Bilder sind UV-induzierte Reflexionen, also ja, das können Sie auch tun. https://en.wikipedia.org/wiki/Ultraviolet_photography

Ich habe schon Ultraviolett- und Infrarotfotografie gesehen, aber es ist normalerweise schwarz / weiß oder schwarz

Wenn Sie es nicht sehen können, ist es eine Interpretation . Nachtsichtbrillen sind normalerweise grün, weil unsere Augen grün empfindlicher sind, und wenn ein Soldat die Linse entfernt, passen sich seine Augen leichter an die Dunkelheit an. Wenn Sie eine Schwarz-Weiß-Sicht haben, dauert es viel länger, bis sich das Auge an die Dunkelheit gewöhnt hat.

Warum eine Dimension verwenden?

Die „3D-Dimensionalität“ der „primären“ Farben liegt einfach daran, wie unser Gehirn Licht wahrnimmt. Magenta liegt nicht im sichtbaren Spektrum, ihm ist keine Wellenlänge zugeordnet. Unser Gehirn interpretiert es als Magenta.

In Wirklichkeit ist das elektromagnetische Wellenlängenspektrum eindimensional. Es ist bidimensional , wenn wir die Intensität als zweite Dimension verwenden, um Bilder zu erzeugen.

Warum nicht das Spektrum erweitern?

Wir müssen das Spektrum erweitern. Oder wir sehen es oder wir sehen es nicht. Ein Schwarz-Weiß-Bild ist eigentlich eine Neukomprimierung einer Wellenlänge, die wir nicht sehen, in das begrenzte Spektrum, das wir sehen.

Natürlich könnten Sie eine digitale Röntgenmaschine bauen, um die Farben Magenta anzuzeigen, ich hatte einen alten CTR-Monitor, der das alleine machte. Aber das ist eher ein psychologischer als ein technischer Aspekt.

Aber in einigen Bereichen wie der Wärmebildtechnik wird das Farbspektrum verwendet, um die Temperaturunterschiede zu erkennen, also wird dies derzeit getan.

In Bezug darauf, warum das sichtbare Lichtspektrum nicht verändert wird oder nicht, denke ich, dass es eine völlig künstlerische Interpretation ist, sodass Sie tun können, was Sie wollen.

Aber

Andererseits wäre es interessant, einen Tetrachromie-Simulator der wenigen Leute zu haben, die ihn haben, ähnlich wie wir Farbenblindheitssimulatoren wie diesen haben: http://www.color-blindness.com/coblis-color-blindness- Simulator/

Ich lese gerade ein wirklich interessantes Buch mit dem Titel „Vision and Art, the Biology of Seeing“ von Margaret Livingstone. Ich bin damit noch nicht fertig, aber in den Kapiteln, die ich bisher gelesen habe, geht es darum, wie das Auge Farben wahrnimmt, wie Farben gemischt werden (sowohl Licht als auch Pigmente) und wo die Einschränkungen liegen und warum. Es kann helfen, einige Ihrer Fragen zu beantworten, wie das Auge funktioniert und wo die Grenzen der Fotofähigkeiten liegen.

Das Letzte zuerst:

Aber warum müssen wir eine Kamera darauf beschränken, Licht so zu erfassen und aufzuzeichnen, wie es Menschen sehen?

Wir beschränken unsere Kameras nicht immer darauf, Licht auf diese Weise einzufangen und aufzuzeichnen. Das kürzlich gestartete Webb-Weltraumteleskop zum Beispiel wird Infrarotwellenlängen abbilden. Natürlich werden die aufgenommenen Bilder in Farben wiedergegeben, die wir wahrnehmen können. Dies sind sogenannte Falschfarbenbilder. Wenn wir Displays erstellen würden, um eine farbgenaue Ausgabe des Webb-Teleskops zu emittieren, bräuchten wir Displays, die Infrarotlicht emittieren. Wenn wir versuchten, Bilder zu betrachten, sahen wir einen leeren Bildschirm, weil unsere Augen nicht empfindlich für die Wellenlängen des Infrarotlichts sind, die das Webb-Teleskop aufzeichnen wird.

Wenn wir andererseits wollen, dass eine Kamera Bilder erzeugt, die in denselben Farben wahrgenommen werden wie die Dinge, die wir mit der Kamera fotografiert haben, dann kommen wir umso näher an die Spitzenempfindlichkeit menschlicher Netzhautzapfen die Filter auf unseren Bayer-Masken abgleichen können, desto erfolgreicher werden unsere Ergebnisse sein.


Das Folgende ist der TL:DR-Teil unserer Antwort auf die Frage; Warum sind Rot, Grün und Blau die Grundfarben des Lichts?

Existieren Primärfarben wirklich in der realen Welt?

Nein.

Es gibt keine Primärfarben des Lichts, tatsächlich gibt es überhaupt keine dem Licht innewohnende Farbe (oder irgendeiner anderen Wellenlänge elektromagnetischer Strahlung). Es gibt nur Farben in der Wahrnehmung bestimmter Wellenlängen von EMR durch unser Auge/Gehirn-System.

Oder haben wir Rot, Grün und Blau ausgewählt, weil das die Farben sind, auf die die Zapfen des menschlichen Auges reagieren?

Wir verwenden Dreifarben-Reproduktionssysteme, weil das menschliche Sehsystem trichromatisch ist , aber die Primärfarben, die wir in unseren Dreifarben-Reproduktionssystemen verwenden, stimmen nicht mit jeder der drei Farben überein, mit denen jede der drei Arten von Zapfen in der Die menschliche Netzhaut reagiert am besten.

Für eine viel umfassendere Diskussion über die menschliche Farbwahrnehmung lesen Sie bitte unsere vollständige Antwort auf die Frage Warum sind Rot, Grün und Blau die Primärfarben des Lichts?


Es gibt eine ziemlich lange Antwort auf diese tangential verwandte Frage , die Sie vielleicht hilfreich finden. Diese Antwort schöpft ziemlich viel aus diesem Online-Farbkurs, der bei Memcode gehostet wird .


Wir geben hier einige Hintergrundinformationen, die die Antwort ganz oben informieren. Dies alles wird in den beiden oben verlinkten Antworten viel ausführlicher behandelt.

Stellen wir zunächst sicher, dass wir verstehen, wie unsere Augen und Kameras tatsächlich Farben erzeugen. In der Frage spiegeln sich einige Annahmen wider, die nicht ganz korrekt sind. Wie Roger Cicala in einem seiner hervorragenden Blogeinträge auf lensrentals.com sagt:

„Einige Dinge, über die ich vor Jahren geschrieben habe, sind jetzt, ähm, nun, weniger richtig, als ich mir gewünscht hätte.“

Das Verständnis, das sich in der Frage nach den Empfindlichkeiten der Zapfen in der menschlichen Netzhaut widerspiegelt, ist mangelhaft. Sie reagieren nicht besonders empfindlich auf die Wellenlängen, die wir als Rot, Grün und Blau wahrnehmen. Lange bevor wir dies genau messen konnten, wurde angenommen , dass jede Art von Netzhautkegel am empfindlichsten für Rot, Grün und Blau ist. Später erfuhren wir aus der Arbeit von Gunnar Svaetichin, dass dies der Fall war

"... ähm, naja, weniger korrekt, als (wir) es uns gewünscht hätten."

Erst Ende des 20. Jahrhunderts konnten wir genau bestimmen, bei welchen Wellenlängen jede der drei Arten von Netzhautkegeln am empfindlichsten ist.

Unsere M-Zapfen sind ziemlich nahe an Grün am empfindlichsten, unsere S-Zapfen sind ziemlich nahe an Blau (mit einer Tendenz zu Violett), aber unsere L-Zapfen sind bei weitem nicht so empfindlich gegenüber Rot. Sie reagieren am empfindlichsten auf eine Farbe zwischen Limonengrün und Gelb.

Geben Sie hier die Bildbeschreibung ein

Beachten Sie die drei Punkte am unteren Rand der obigen Grafik: Das sind die drei Farben, auf die jede Art unserer Netzhautzapfen am empfindlichsten reagiert.

Hier ist eine weitere Darstellung, die es mit den Linien in der tatsächlichen Farbe noch deutlicher macht, auf welche Zapfenart am empfindlichsten reagiert:

Geben Sie hier die Bildbeschreibung ein

Die Bayer-Masken in unseren Digitalkameras sind auch nicht wirklich rot, grün und blau, trotz all der niedlichen kleinen roten, grünen und blauen Zeichnungen im Internet.

Geben Sie hier die Bildbeschreibung ein

Es kann von Hersteller zu Hersteller und sogar von Modell zu Modell variieren, aber die Farben der Filter auf Bayer-Masken sind normalerweise ungefähr gleich wie die Spitzenempfindlichkeiten der S-Kegel und L-Kegel, während der "rote" Filter dazu neigt eine gelb-orange Farbe bei etwa 600 nm sein, die etwa in der Mitte zwischen der hellgrünen Spitzenempfindlichkeit unserer L-Zapfen bei 564 nm und dem „Rot“ liegt, das unsere transmissiven Displays bei etwa 640 nm emittieren.

Geben Sie hier die Bildbeschreibung ein

Das obige Bild ist eine mikroskopische Aufnahme eines Sensors, bei dem ein Teil der Bayer-Maske entfernt wurde. Wie Sie sehen können, sind die "roten" Filter tatsächlich gelb-orange und die "blauen" Filter sind ebenso violett wie blau.

Unsere transmissiven Displays (Fernseher, Monitore usw.) emittieren jedoch drei Farbbänder, die mehr oder weniger um das zentriert sind, was wir „Rot“, „Grün“ und „Blau“ nennen.

Geben Sie hier die Bildbeschreibung ein

Es kann von einem Design zum nächsten erheblich variieren. Einige High-End-Displays haben sogar schmalere Emissionsbänder für jede Farbe.

Zum Weiterlesen:

Warum sind Rot, Grün und Blau die Grundfarben des Lichts?
RAW-Dateien speichern 3 Farben pro Pixel oder nur eine?
Warum verwenden Mainstream-Sensoren keine CYM-Filter anstelle von RGB?
Filter zur RGB-Separation und seine Wirkung auf das Bild
Wie sieht eine unbearbeitete RAW-Datei aus?

Heißt das, Ihre Antwort auf die eigentliche Frage lautet, dass Kameras bereits „ganz andere Grundfarben“ verwenden?
@MarkRansom Das OP gibt nicht genau an, welche "Primärfarben" wir in "völlig andere" ändern müssten. Es könnte gefolgert werden, dass das OP davon ausgeht, dass Kameras R, G und B als "Primärfarben" verwenden, da die Frage fälschlicherweise besagt, dass menschliche Netzhautkegel R, G und B als Primärfarben verwenden. Wie meine Antwort zu Beginn feststellt, sind verschiedene Arten von Kameras am empfindlichsten für sehr unterschiedliche Lichtwellenlängen. Farben existieren nur in der Wahrnehmung von Licht. Sie sind nicht intrinsisch für die Natur der elektromagnetischen Strahlung.
@MarkRansom Auf der grundlegendsten Ebene besagt meine Antwort, dass die "normalen" Kameras, die wir verwenden, das trichromatische menschliche Sehsystem in den Wellenlängen des Lichts nachahmen, für die jede der drei Arten von Zapfen am empfindlichsten ist. Diese Wellenlängen entsprechen jedoch nicht den Primärfarben, die am häufigsten von unseren Anzeigesystemen verwendet werden (RGB für emittierende Displays, CYMK für subtraktive Displaytechnologie). Wenn also „anders“ etwas anderes als R, G und B bedeutet, dann ja, die meisten unserer „normalen“ Kameras verwenden unterschiedliche Farben. Ob sie „völlig“ verschieden sind, hängt davon ab, wie man „völlig“ definiert.
Die Arten von Kameras, die nicht für die gleichen Lichtwellenlängen wie das menschliche Sehsystem empfindlich sind, wie astronomische Instrumente, die für verschiedene Teile des Infrarotbereichs des Spektrums empfindlich sind, könnten als "völlig" unterschiedlich bezeichnet werden, weil sie es nicht sind typischerweise empfindlich gegenüber jedem Licht in den Wellenlängen, für die das menschliche Sehvermögen empfindlich ist. Dasselbe gilt für Röntgen-"Kameras" oder Radioteleskope, die Daten sammeln, die letztendlich verwendet werden, um Bilder zu erzeugen, die unter Verwendung des Teils des EMR-Spektrums angezeigt werden, für den das menschliche Auge empfindlich ist.
Letztendlich lautet meine Antwort also, dass Kameras überhaupt nicht farbempfindlich sind. Sie reagieren empfindlich auf verschiedene Teile des elektromagnetischen Spektrums. Die von ihnen erstellten Bilder werden unter Verwendung verschiedener Anzeigetechnologien ausgegeben, die jeweils unterschiedliche Sätze primärer "Farben" (Lichtwellenlängen) verwenden. Diese Ausgangsfarben können im gleichen Bereich des EMR-Spektrums liegen wie die Wellenlängen, die die Kameras aufzeichnen. Aber selbst wenn sie alle mit Wellenlängen im sichtbaren Spektrum arbeiten, sind die „Primärfarben“, die sie für die Eingabe verwenden, normalerweise nicht die gleichen wie die für die Ausgabe.
@MarkRansom Die Frage "Was würde passieren, wenn eine Kamera ganz andere Primärfarben verwenden würde?" basiert auf den falschen Annahmen, dass 1) Kameras R, G und B als Primärfarben verwenden und 2) dass es keine Kameras gibt, die andere verwenden "Primärfarben". Diese Antwort befasst sich mehr damit, zu zeigen, dass 1) Kameras R, G und B nicht als Primärfarben verwenden und 2) es Kameratypen gibt, die neben RGB andere "Farben" verwenden. Also letztendlich: "Was würde passieren, wenn..." wird beantwortet mit: "Es passiert schon. Zum einen mit „normalen“ Kameras, zum anderen noch mehr mit anderen bildgebenden Systemen.“