In diesem Lernprogramm werden sechs Möglichkeiten zum Konvertieren eines Bilds in ein monochromes Bild erläutert:
Unterscheiden sich die Techniken nur in der Menge an Kontrolle, die jede einzelne über die Konversion bietet, oder führen sie zu deutlich unterschiedlichen Ergebnissen?
Gibt es bestimmte Situationen, in denen einer anderen vorgezogen wird, oder ist es eine Frage der persönlichen Präferenz?
Theoretisch sollte die richtige Methode zum Konvertieren eines Farbbildes in Schwarzweiß darin bestehen, den Luminanzkanal zu verwenden. Die Leuchtdichte ist ein Maß dafür, wie empfindlich unsere Augen auf eine bestimmte Farbe reagieren, also wie „hell“ wir sie sehen. Leider bietet Gimp viele Möglichkeiten zum Konvertieren in Schwarzweiß, aber nicht die richtige. :-(
Hier ist ein Testbild, das ich verwendet habe, um die verschiedenen Methoden zu vergleichen. Sie können es herunterladen und selbst sehen:
Das Dreieck auf der linken Seite ist ein Schnitt durch den Farbwürfel in der Ebene, die die Primärfarben R, G und B enthält. Ich habe den Schnitt im linearen -RGB-Raum erstellt und ihn dann in sRGB gamma-codiert . Das Dreieck auf der rechten Seite ist die „richtige“ Schwarzweiß-Wiedergabe des vorherigen, dh die Gamma-codierte Luminanz. Beim Konvertieren dieses Bildes in Schwarzweiß mache ich folgende Beobachtungen:
OK, das ist jetzt die Theorie über das „natürlichste“ Rendering. In der Praxis möchten Sie möglicherweise stattdessen das Rendering verwenden, das dem vorliegenden Bild besser dient. Beispielsweise können Sie die Rottöne im Kanalmixer übergewichten, um Hauttöne aufzuhellen und zu glätten oder den Kontrast zwischen blauem Himmel und weißen Wolken zu erhöhen. Meine persönlichen Schlussfolgerungen sind:
Unterscheiden sich die Techniken nur in der Menge an Kontrolle, die sie über die Konvertierung bieten, oder führen sie zu unterschiedlichen Ergebnissen?
Für jede der Techniken gibt es ein Beispiel eines konvertierten Bildes für dasselbe Originalbild. Es ist leicht zu erkennen, dass die Ergebnisse tatsächlich unterschiedlich sind, es liegt also nicht nur an der Menge der Kontrolle.
Insbesondere – zum Beispiel die RGB-Zerlegung im Vergleich zur HSV-Zerlegung: Bei ersterer ist die BW der spezifische Kanalfarbwert. Im letzteren Fall ist es der V-Wert (Wert oder Helligkeit) des Pixels. Der V-Wert ist eine Funktion der R-, G- und B-Komponenten, daher ist es offensichtlich, dass es einen Unterschied geben wird!
Unterscheiden sich die Techniken nur in der Menge an Kontrolle, die sie über die Konvertierung bieten, oder führen sie zu unterschiedlichen Ergebnissen?
Sie arbeiten sehr unterschiedlich und behalten verschiedene Teile der ursprünglichen Farbinformationen im Bild bei. Sie liefern normalerweise unterschiedliche Ergebnisse, aber die Wahl eines gegenüber dem anderen liegt ganz beim Fotografen, abhängig von der Art des Originalbildes und seinen Absichten.
Einer ist nicht besser als der andere, aber 1 und 2 ergeben normalerweise "beige" Ergebnisse.
Ich habe kürzlich mit einigen Farbfiltern auf meiner DSLR experimentiert. Das Set besteht aus Rot, Orange, Gelb und Grün. Normalerweise nehme ich Rohdateien auf und verwende das Channel-Mixer-Modul von Darktable mit einer Voreinstellung, dann spiele ich mit den Schiebereglern herum, um die Balance der Töne zu erhalten, die ich bei der Verarbeitung für Monochrom möchte. Das Problem ist, dass insbesondere beim Rotfilter der Kanalmixer die Daten richtig durcheinander gebracht hat, viele Details verloren hat oder Artefakte eingeführt hat, je nachdem, was ich versucht habe.
Erhöhen Sie also den bescheidenen und viel verspotteten Sättigungsregler im Kontrast-/Helligkeits-/Sättigungsmodul. Stellen Sie den Schieberegler auf 0 und verwenden Sie dann Tonwertkurven, um die Tonwerte entweder global oder lokal mit Auswahlen anzupassen. Die Ergebnisse waren viel besser als mit dem Kanalmischer.
jrista
Vikas
Raffael