Gibt es Gründe, Farbfilter bei Digitalkameras zu verwenden?

Auf Digitalfotos können Farbfilter nachträglich per Software angewendet werden. Gibt es also gute Gründe, Farbfilter bei einer Digitalkamera zu verwenden? So wie ich es verstehe, war der Hauptgrund für sie ursprünglich Effekte mit Schwarzweißfilmen, aber jetzt ist sogar Schwarzweiß ein Nachbearbeitungseffekt.

Ich weiß, dass UV-Filter gut für den Objektivschutz sind und dass ND-Filter längere Belichtungszeiten ermöglichen, aber was nützen Farbfilter?

+1 für eine gute Frage. Ich kenne einige sehr gute Landschaftstypen, die Farbstichfilter verwenden, anstatt sie nachzubearbeiten, obwohl sie Zugang zu Photoshop haben.
Ich persönlich ziehe auch Infrarot- und Ultraviolettfarben in Betracht ...

Antworten (11)

Es gibt einen Unterschied zwischen Farb- und Farbkorrekturfiltern , obwohl beide farbig sind.

Farbkorrekturfilter sind in der Digitalfotografie nützlich, um unter bestimmten Blitzarten eine gleichmäßigere Belichtung in allen Kanälen zu erzielen.

Zum Beispiel würden Sie wahrscheinlich mehr Belichtung und damit weniger Rauschen im blauen Kanal erhalten, wenn Sie einen blauen Farbkorrekturfilter (82A/B/C) unter Wolframblitz verwenden würden. Es sollte beachtet werden, dass diese Filter einen Filterfaktor haben , was bedeutet, dass eine Erhöhung des Rauschens um eine Blende einen Verlust an Belichtungszeit bedeuten kann.

Unterwasserfotografie ist ein weiterer Bereich, in dem Licht schwierig ist und physikalische Filter empfohlen werden, meist wärmend, aber auch Fluoreszenzkorrekturfilter können angewendet werden .

In diesem Beispiel wurden zwei Bilder unter den gleichen Bedingungen unter Kunstlicht (Straßenlaterne im Winter) aufgenommen, das erste zeigt einen Blaukanal aus dem Bild ohne jegliche Filterung und das zweite einen Blaukanal aus dem Bild mit ziemlich schwachem 80D-Filter. Beachten Sie die Unterschiede im Rauschen. Es ist wichtig zu erwähnen, dass die Weißabgleichsreferenz für beide Aufnahmen von der Graukarte genommen wurde und der blaue Kanal im ungefilterten Fall mehr Rauschen zeigt, weil der blaue Kanal in diesem Fall stärker verstärkt wurde.

Ungefiltertes Bild

Blaufilter

Die üblichen Farbfilter für SW-Filme sind in der digitalen Welt nicht sehr nützlich, da diese leicht zu einer Überbelichtung eines Kanals führen und die anderen Kanäle unterbelichtet und verrauscht zurücklassen können. Wenn Sie einen starken Farbfilter vor Ihr Objektiv setzen, verwenden Sie Ihre Digitalkamera ineffizient, da Sie beispielsweise im Fall eines Rot/Blau-Filters nur 25 % Ihrer verfügbaren Pixel und 50 % im Fall von Grün verwenden.

Die Liste der Filter mit ihrer Wratten-Nummer und Beschreibung kann dem Wikipedia-Artikel entnommen werden .

Ich konnte nicht herausfinden, wie man Bilder verlinkt, also ziehe sie für eine 100%-Ansicht auf einen separaten Tab.
zwei Möglichkeiten: Wenn Sie die neue Betaversion der Fotoseite verwenden, sollte sehr schnell ein „HTML holen“ unter dem Menü „Teilen“ auf der Fotoseite angezeigt werden. Der allgemeinere Weg über Markdown wäre folgender: ![Alt-Text für Screenreader](jpg-URL) – siehe photo.stackexchange.com/editing-help
Vielen Dank. Ich warte auf gutes Wetter, um meine Beispiele mit den Farbfiltern (wie 25A) erneut aufzunehmen, um meinen zweiten Punkt zu beweisen, aber ich bin mir nicht sicher, ob jemand interessiert ist :)
Zu beachten ist, dass ein Filter das Bild nur dunkler machen kann, nicht heller. Durch die Anwendung eines Blaufilters erhalten Sie nur mehr Belichtung im blauen Kanal, weil Sie den roten und grünen Kanal abgedunkelt haben, wodurch Sie (oder das Messgerät der Kamera) die Belichtung über Verschlusszeit, Blende oder ISO erhöhen.
Könntest du das zweite Bild nochmal einfügen? Es scheint von Imgur verschwunden zu sein.
@Imre - funktioniert für mich.
Scheint ein seltsames Spiel zu sein, das jetzt nicht zu sehen ist, hat einen Fehler bei Meta eingereicht
Das Bearbeiten des Beitrags scheint HTML korrigiert zu haben, leider hatte er bereits so viele Änderungen, dass er auch in das Community-Wiki umgewandelt wurde - sorry!
Das Reduzieren der Belichtung in einem Kanal ermöglicht es auch, die Belichtung in den anderen Kanälen zu erhöhen, ohne den reduzierten Kanal zu überlasten, also funktioniert es in beide Richtungen. Wenn Sie viel zu viel Rot in einer Szene haben, können Sie mit einem Grünfilter vor dem Objektiv die Belichtung (TV, Av) erhöhen, ohne den Rotkanal zu überlasten.

Gehen wir zum Extremfall, damit wir darüber nachdenken können, was der Filter tut.

Nehmen wir ein beliebiges Bild und versuchen wir dann zu rekonstruieren, wie das Bild gewesen wäre, wenn die Kamera mit einem R72 -Filter ausgestattet gewesen wäre.

Getriebe für R70 und R72

Dies sind IR -Langpassfilter .

Sie können wirklich nicht nehmen, was der Sensor aufgezeichnet hat, und von dort aus rückwärts, um zu versuchen, die tatsächlichen Wellenlängen (oder Polarisationen) des Lichts zu rekonstruieren, das durch die Linse gegangen ist.

Wenn Sie könnten , würde jeder IR-Fotografie und UV-Fotografie ohne Filter machen. Die Sache ist, sobald Sie den Sensor getroffen haben, haben Sie einige der Informationen über das Licht verloren.

Licht selbst ist nicht RGBein ganzer Bereich verschiedener Wellenlängen, deren Summe etwas ist, was unser Auge als Farbe wahrnimmt. Mit einem Farbfilter können Sie die Bedeutung bestimmter Teile dieser Spektren reduzieren, um entweder das Licht auszugleichen (wie im Fall der UV-Lichtkorrektur) oder bestimmte Teile davon zu entfernen, um einen bestimmten Zweck zu erreichen.

Dass bestimmte Teile entfernt werden, sieht man oft. Mein Favorit ist der Didymium -Filter (auch bekannt als Red Enhancer), der ein Transmissionsspektrum hat, das so aussieht:

Didymium

Dieser Abfall bei 580 nm liegt um die Natriumlinie herum (denken Sie an diese gelben Straßenlaternen) und wird für eine Schutzbrille für einen Glasbläser verwendet, damit sie die natriumgelbe Farbe in der Flamme entfernen und das Zeug, mit dem sie arbeiten, klarer sehen können.

In der Fotografie sind die braunen Herbstblätter nicht braun , sie sind rot und orange und gelb und ein Haufen anderer Wellenlängen. Indem einige der Wellenlängen in der Nähe von Rot entfernt werden, kommt die rote Farbe klarer durch.

mit und ohne Rotverstärker

Bild von http://photoframd.com/2010/10/15/enhance-fall-colors-with-an-intensifier-filter/

Ähnliche Filter finden Sie in der Astrofotografie. Ein „Skyglow“-Filter zur Reduzierung bestimmter Formen der Lichtverschmutzung am Nachthimmel (einige verwenden den Didymiumfilter, weil er einen Teil der Lichtverschmutzung durch eine Natriumdampflampe herausfiltert (beachten Sie, dass eine Quecksilberdampflampe viel schwieriger zu handhaben ist ( Weitere Informationen dazu finden Sie unter Lampentypen. ) Alternativ können Sie auch einfach die Wasserstoff-Alpha -Linie fotografieren, die nur 7 nm Bandpass um 656,3 nm herum zulässt.Auch dies sind Dinge, die nachträglich nicht einmal rekonstruiert werden können das Bild wurde aufgenommen.

Gele und Farbkorrekturfilter sind solche, die nur das Licht, das Sie fotografieren möchten , zu Ihrem Sensor durchlassen. Sobald das gesamte Lichtspektrum auf einen RGB-Wert reduziert ist, können Sie es nicht wieder auseinanderziehen, um bestimmte Teile zu entfernen.

Gute Antwort! Dies war die einzige, die wirklich erklärte, wie ein Filter mehr leisten kann als Nachbearbeitung.

Es hängt davon ab, ob. Besonders bei der Erstellung von Bildern, die in Schwarzweiß/Schwarzweiß angezeigt werden.

Wenn digitale Sensoren einen unbegrenzten Dynamikbereich hätten, wäre das nicht so wichtig, aber wir alle wissen, dass sie durch ihr Grundrauschen begrenzt sind.

Durch die Verwendung des Farbfilters zum Zeitpunkt der Aufnahme können Sie einen bestimmten Farbkanal reduzieren, der andernfalls überbelichtet werden könnte, während die Helligkeit der anderen beiden Farbkanäle erhalten bleibt. Wenn die Szene beispielsweise im Rotkanal viel mehr Helligkeit aufweist, als ich im endgültigen Bild haben möchte, kann ich einen Grünfilter verwenden, um den Rotanteil zu reduzieren, ohne auch das Grün (und in geringerem Maße das Blau) zu reduzieren. Mit dem Grünfilter kann ich möglicherweise auch belichten, sodass die Grün- und Blautöne noch heller sind, während die Rottöne immer noch unter der vollen Sättigung bleiben.

Aber würde ich heute mit Digitalkameras stattdessen einfach in Farbe fotografieren, den Gelbfilter in der Nachbearbeitung anwenden (oder andere Farbfilter, die ich möchte) und das Bild dann in Schwarzweiß konvertieren?

Nicht genau. Digitale Filter funktionieren nicht immer auf die gleiche Weise wie tatsächliche physikalische Filter und liefern daher nicht immer die gleichen Ergebnisse . Sie können sehr nah herankommen , aber es gibt immer noch keinen Ersatz für die Verwendung tatsächlicher Filter, wenn Sie das Bild mit einer bestimmten Balance zwischen bestimmten Farben und den Grautönen präsentieren möchten, die sie in Monochrom erzeugen.

Bei den meisten allgemeinen RAW-Konvertern, die über eine spezielle Registerkarte „Monochrom“ verfügen, sind die Anzahl und die Farbe der anwendbaren Filter normalerweise ziemlich begrenzt. Die verfügbaren Auswahlmöglichkeiten könnten normalerweise so etwas wie Red→Orange→Yellow→None→Green sein . Aber Sie können oft die Dichte/Stärke einer bestimmten Filterfarbe nicht ändern. Wenn Sie eine bestimmte Farbe zwischen diesen Optionen wünschen oder sagen, dass Sie einen Blaufilter wünschen, haben Sie oft kein Glück.

Spezielle Schwarzweiß-/Monochrom-Bearbeitungsanwendungen oder Plug-ins wie Niks Silver Efex Pro oder Topaz B&W Effects fügen oft viel mehr Auswahlmöglichkeiten hinzu, einschließlich spezifischer Filter in unterschiedlichen Stärken. Sie können sogar mit den Namen ihrer analogen Gegenstücke gekennzeichnet sein, z. B. Lee #8 Yellow oder B&W Light Red 090 . Aber sie wirken immer noch auf Licht, nachdem es von Ihrem Sensor aufgezeichnet wurde, und nicht vorher. Die Einschränkungen des Dynamikbereichs einer Kamera begrenzen also bis zu einem gewissen Grad, wie nahe Sie der Verwendung eines tatsächlichen Filters kommen können, wenn Sie dies in der Nachbearbeitung tun.

Was Sie für die Farbtemperatur und die Feinabstimmung entlang der Achsen Blau←→Gelb und Magenta←→Grün einstellen, wirkt sich aus, aber es ist nicht immer dasselbe wie bei der Verwendung eines Farbfilters. Wenn Sie die Farbtemperatur anpassen, werden so ziemlich alle Farben in die eine oder andere Richtung verschoben. Farbfilter sind viel selektiver, welche Farben betroffen sind . Sie könnten das Hue Saturation Luminance (HSL) -Tool in vielen Nachbearbeitungsanwendungen verwenden, um ein wenig mehr Feinabstimmung vorzunehmen, aber Sie haben den Dynamikbereich Ihrer Kamera immer noch unnötigerweise stärker eingeschränkt, als wenn Sie den Filter vor der Belichtung auf das Licht anwenden würden, so dass Sie Sie können den Dynamikbereich Ihrer Kamera nur für das Licht nutzen, das Sie aufnehmen möchten.

Sie können beispielsweise den Kontrast in der Nachbearbeitung reduzieren, um den Effekt eines Blaufilters nachzuahmen, aber es kann sein, dass Sie nicht genau den gleichen Effekt erzielen. Auch hier opfern Sie den Dynamikbereich, indem Sie den Filter auf die digitalen Informationen nach der Aufnahme anwenden und nicht auf das Licht vor der Aufnahme.

Ja, wenn Sie weniger Zeit hinter Ihrem Computer verbringen möchten, bringen Sie einen Farbfilter an Ihrem Objektiv an.

Ich würde sagen, dass der größte Vorteil der Verwendung von Filtern auf der Kamera gegenüber der Nachbearbeitung im Computer darin besteht, dass Sie das Ergebnis auf der Website sehen und alle erforderlichen Anpassungen vornehmen können. Dasselbe gilt für die Doppelbelichtung in der Kamera anstelle des Stapelns von Bildern im Computer; Sie können sofort Feedback zum Ergebnis erhalten.

Denken Sie daran, dass die Farbbalance des LCD-Displays der Kamera ebenso schlecht sein kann wie die Betrachtungsbedingungen.
Wenn die LCD-Farbbalance Ihrer Kamera schlecht ist und Sie ihr nicht vertrauen können, warum fotografieren Sie dann digital? (Oder warum besorgst du dir nicht eine bessere Kamera, der du vertrauen kannst?) Betrachtungsbedingungen, nun, das ist ein guter Punkt.
@JaredUpdike Weil meine Kamera ein schlechtes LCD mit niedriger Auflösung hat und hervorragende Fotos macht.

Wenn Sie RAW fotografieren, gibt es keinen Grund mehr, Farbfilter zu verwenden.

Wenn Sie JPEG aufnehmen, ist es besser, es gleich beim ersten Mal richtig zu machen, anstatt es nachträglich zu bearbeiten, daher sind Farbfilter sehr nützlich.

Mit der Flexibilität, die digitale Bildprogramme wie Photoshop, Lightroom, Aperture und dergleichen bieten, gibt es keinen Grund, einen Farbfilter auf einer Digitalkamera zu verwenden. ND-Filter und Polarisatoren können Effekte erzielen, die rein durch Software nicht möglich sind, aber um einem Bild einen Farbstich hinzuzufügen, gibt es keinen Grund, einen physischen Filter zu kaufen oder mit sich herumzutragen.

Beachten Sie, dass Sie den ND-Effekt duplizieren können, indem Sie mehrere Belichtungen machen und sie mit HDR-Techniken kombinieren (und das Ergebnis muss nicht wie HDR aussehen).
Sogar Farbfilter können nützlich sein, wenn Sie in Schwarzweiß konvertieren möchten. Sie können die Belichtung in der Kamera verschieben, um mehr Tonalität im gewünschten Farbspektrum zu erhalten, ohne Pixel zu überstrahlen oder zu unterbelichten.
@Reid Sie können also einen Wasserfall bei ISO 100, f / 16, 45 Sekunden bei hellem Sonnenlicht aufnehmen und einfach die Belichtung in der Post reduzieren? Wie hat das bei dir geklappt?
@MichaelClark Siehe zB: blog.patdavid.net/2013/09/… Grundsätzlich können Sie mehrere Bilder aufnehmen, stapeln und mitteln und den Effekt einer einzigen Langzeitbelichtung erzielen. Wahrscheinlich mehr Arbeit als nur einen ND-Filter zu verwenden, aber eine mögliche Strategie.
@pwcnorthrop Sie können aus diesem Prozess nichts Sinnvolles gewinnen, wenn selbst die dunkelste Belichtung rein weiß ist.
@MichaelClark Sie würden keine einzelne 45-Sekunden-Belichtung machen, sondern mehrere 1/15-Sekunden-Belichtungen (oder was auch immer angemessen wäre) und sie mischen, um eine einzelne Langzeitbelichtung nachzuahmen. Sie würden also Fotodaten über einen langen Zeitraum sammeln, aber in mehrere Bilder (Dateien) mit korrekter Belichtung aufgeteilt, die Sie in der Post kombinieren können
Es würde 675 Belichtungen von 1/15 Sekunde dauern, um der gleichen Zeit zu entsprechen, die in einer 45-Sekunden-Belichtung abgedeckt wird. Sie würden auch kurze Kontinuitätslücken zwischen jedem einzelnen haben. Manchmal ist es einfach viel sinnvoller, einen Filter zu verwenden.
@MichaelClark Pentax-Kameras haben einen Modus, der es automatisch macht, dass ich eine Kamera bin (obwohl, wie ich mich erinnere, die maximale Anzahl von Bildern 10 beträgt, sodass Sie nicht so extrem werden können). Es ist nicht nützlich für die Arten von Fotografie, die ich normalerweise mache, aber ich habe es ein paar Mal ausprobiert und die Ergebnisse waren anständig.

Was Sie berücksichtigen müssen, sind zwei Hauptvariablen:

  1. Alles, was Sie zum Zeitpunkt der Aufnahme des Bildes tun, tun Sie in der Postproduktion nicht.
  2. Die Postproduktion verringert immer die Bildqualität.

Wenn Sie dies berücksichtigen, möchten Sie die Ausgabe Ihrer Aufnahme maximieren und die Nachbearbeitung minimieren. Das ist der Grundgedanke hinter der Verwendung von Filtern in der Digitalfotografie: um die Qualität direkt aus der Aufnahme heraus zu maximieren.

In der Praxis können Sie bei Verwendung von RAW Farbfilter mit minimalen Auswirkungen durchführen.

Warum verringert die Postproduktion immer die Bildqualität? Oder meinst du nur, wenn du JPEG aufnimmst?
Behauptung 2 ist für raw falsch.
Warum die -1? Sie verlieren immer an Qualität, weil Sie immer mit einer festen Datenmenge spielen. Wenn Sie RAW aufnehmen und in JPEG umwandeln, haben Sie bereits Qualitätsverlust, sodass Sie davon nicht betroffen sind. Wenn Sie RAW verwenden und das nachbearbeitete Bild in TIFF speichern, haben Sie im Vergleich zu RAW einen Qualitätsverlust. Ich würde das sogar mit der Energieeinsparung gleichsetzen. Es gibt keine Möglichkeit, etwas in Photoshop zu berühren und die Qualität zu erhöhen. Dasselbe gilt für die Optik, alles, was Sie in den Vordergrund stellen, verringert die Qualität. So funktioniert die Welt.
Sie berücksichtigen nicht, dass Fotos nicht mit dem optischen Originalbild übereinstimmen müssen. Daher kann ich ein Foto in GIMP ändern und es in einer höheren Qualität als zuvor herausbringen, obwohl es eine geringfügig ungenauere Darstellung der Szene ist. (Ihr Argument gilt für wissenschaftliche Bilder; aber wir sprechen über Kunst, oder?)
Ja, ich spreche nicht von subjektiver Qualität. Mit Qualität spreche ich von der eigentlichen Pixelinformation. Jedes Mal, wenn Sie klonen, das Histogramm verschieben, mit dem Kontrast spielen usw., nehmen Sie ein wenig von der Gesamtqualität des Bildes ab. Die Frage ist, inwieweit Sie es akzeptabel finden. Was ich sagen will, ist: Nehmen Sie ein Bild mit einem Filter auf, nehmen Sie dann dasselbe Bild auf und wenden Sie den Filter in der Postproduktion an. Auf keinen Fall haben diese beiden Bilder die gleiche Informationsqualität.
Mit RAW sind viele Bearbeitungen zerstörungsfrei. Beispielsweise das Verschieben des Histogramms. Das ist eine Verarbeitungsaktivität, die auf die RAW-Daten angewendet wird, wenn sie visualisiert werden ... sie verschiebt die visuelle Darstellung, ändert aber nicht die Basisinformationen. RAW ist roh, es ändert sich nicht. Gleiches gilt für Dinge wie Sättigung, Kontrast, Weißabgleich. Dies sind alles zerstörungsfreie Bearbeitungen, da sie lediglich die Interpretation der Daten ändern, nicht die eigentlichen Daten selbst.
Das ist alles gut und schön, bis Sie tatsächlich etwas mit den vorgenommenen Änderungen tun möchten. Sobald Sie aus dem Raw-Format herauskommen und tatsächlich versuchen, das zu verwenden, was Sie getan haben (z. B. Speichern als JPEG oder TIF, um es an die Drucker zu senden), MÜSSEN Sie die Änderungen anwenden und verlieren Informationen. Wenn du das Bild im RAW-Format belässt, dann hast du Recht, aber ich weiß nicht, wer das am Ende machen würde.
Diese Debatte findet statt, weil die eine Seite „Qualität“ mit „Information“ gleichsetzt und die andere implizit anerkennt, dass Qualität in der Regel andere technische Attribute hat. Zum Beispiel kann das Schärfen Informationen verlieren, aber die Qualität verbessern – sogar für die wissenschaftliche Bildgebung.
Ich bekomme einen Kick von Leuten, die denken, dass sie in Photoshop jeden Effekt erzielen können.

Hängt davon ab, warum Sie überhaupt einen Farbfilter verwenden - wenn Sie den Kontrast bei einer Schwarzweißaufnahme verbessern möchten, ist es möglicherweise besser, dies in der digitalen Verarbeitungsphase zu tun (es sei denn, Sie haben die Kamera so eingestellt, dass sie in Schwarzweiß aufnimmt als JPEG)

Wenn Sie unterschiedliche Beleuchtung korrigieren oder verbessern möchten, können Sie einfach Ihre Weißabgleicheinstellungen an der Kamera ändern.

Einige künstlerische Effekte können durch die Verwendung von Farbfiltern erzielt werden, aber Software wie Photoshop kann alle Einstellungen emulieren – es ist nur eine Frage, wann Sie die Zeit verbringen möchten – Aufnahme oder Verarbeitung

Farbfilter werden auch verwendet, um eine genauere Darstellung der Farben in der Szene zu erhalten. Hier macht man mehrere Bilder mit einer großen Anzahl verschiedener Farbfilter der Szene, die dann kombiniert werden können, um ein detaillierteres Farbbild zu erhalten.

Ihr Kamerasensor verwendet nur 3 Filter, jedes Pixel erkennt einen Grauwert des Lichts, das von einem der 3 Filter gefiltert wird. Mittels Interpolation erhält man an jedem Pixel die 2 fehlenden Grauwerte. Selbst wenn wir die unvermeidlichen Artefakte in diesem Schritt ignorieren, müssen wir bedenken, dass es theoretisch unmöglich ist, zu rekonstruieren, wie wir die Farben in der Szene angesichts der Grauwerte von 3 Filtern erhalten würden, die das Lichtspektrum anders filtern als die Kegelzellen in unserem Augen.

Die Transformation von den ermittelten Grauwerten in das Bild auf Ihrem Computerbildschirm beinhaltet Annahmen, die teilweise sehr ungenau sein können. Die angezeigten Farben weichen dann sichtbar von der Realität ab. Jetzt ist es unmöglich, die Farben, die wir sehen können, korrekt darzustellen, wenn nur eine Kombination aus 3 Farben verwendet wird, sodass ein herkömmlicher Monitor immer zu kurz kommt. Aber selbst wenn die Szene nur Farben enthielt, die im Bereich dessen liegen, was Ihr Monitor darstellen könnte, werden diese Farben jetzt immer noch nicht korrekt angezeigt.

Die einzige Möglichkeit, eine bessere Darstellung der Farben zu erhalten, besteht darin, die Grauwerte mit verschiedenen Filtern unabhängiger zu messen. Ein einfacher Weg wäre, Bilder mit verschiedenen Kameras aufzunehmen, die unterschiedliche Farbfilter-Arrays in ihren Sensoren haben. Beispielsweise kann ein zusätzliches, mit Ihrem Smartphone aufgenommenes Bild in niedriger Qualität verwendet werden, um die Farben in einem mit einer DSLR-Kamera aufgenommenen Bild in hoher Qualität zu verbessern. Sie können aber auch viele Bilder mit unterschiedlichen Filtern machen und anhand dieser Bilder dann die korrekte Darstellung der Farben genauer einschätzen.

Aus eigener Erfahrung kann es besser aussehen.

Wenn wir über die starken Farbfilter sprechen, die für Schwarzweiß verwendet werden? Ich finde es einfach angenehmer für das Auge und es ist wahrscheinlich eine andere "Gleichung" im Vergleich zu jeder "digitalen Rot" -Anpassung (und meine Kamera hat ein eingebautes BW + Rot).

Ich finde, dass Kombinationen mit einer Verarbeitung, die den Dynamikbereich beeinflusst, mit dem digitalen Filter Artefakte erzeugen können. Natürlich könnten auch andere Optionen wie Kurven oder Farbton/Sättigung verwendet werden ... aber wenn ich weiß, dass ich Rot will, dann verwende ich Rot: Oft schaut man nach draußen und sieht, welche Art von Himmel es ist, genau wie Ansel Adams.

Wie auch immer, ansonsten sind die Hauptfilter, von denen sie sagen, dass sie physisch sein müssen, Polarisatoren und vielleicht diese "natürlichen Nacht" -Filter (weil sie eine ziemlich spezifische "Natrium" -Frequenzbandunterdrückung sind, weiß ich nicht, ob das einfach einzuwählen ist).

Aber starke Farbfilter, ich denke nur, dass dies irgendwie passiert, bevor die Belichtung gelesen wird, ist eine gute Idee, scheint besser auszusehen. Vielleicht liegt das daran, dass Farbbalance-Anpassungen übersteuern können, oder dass einfach ein anderer „Algorithmus“ passiert und es anders macht. Ein Filter macht Dinge mit Quanten von Photonen, aber das Ändern von 255 Werten für jede Farbe ist eine mathematische Funktion, also ist es vielleicht besser, wenn er sich in der realen Welt ändert, als in den 255 Werten dargestellt zu werden - vielleicht sehen Dinge wie helle Lichter weniger seltsam aus und Es bietet mehr „Spielraum“, da Sättigungsregler auch helle Bereiche ins Clipping schicken können – dann reduzieren Sie die Helligkeit, um dies zu kompensieren, und sehen möglicherweise unnatürlich aus. Es hat den offensichtlichen Nachteil, dass Filter Geisterbilder verstärken können, und auch die erforderliche Belichtungskorrektur.

Wie andere bereits erwähnt haben, habe ich diesen „Glauben“, dass sich die digitale Nachbearbeitung immer verschlechtert und ein Kompromiss ist. Analoger Prozess = von Anfang an irgendwie rein. Es ist nicht unbedingt richtig und es ist sicherlich nicht immer richtig. Filter und Körnung können die Dinge sicher vermasseln, sehen aber möglicherweise besser aus, als den Schieberegler für die rote Sättigung auf 100 % zu schlagen.