Macht es Sinn, direkt in Schwarzweiß zu fotografieren? [Duplikat]

Anstatt in Farbe zu fotografieren und anschließend die Freiheit zu haben, es zu bearbeiten?

Darn ... Sie haben das Digitalfotografie- Tag eingefügt. Ansonsten gibt es eine wirklich tolle Antwort zu Qualität und Gewinn.

Antworten (8)

Ja, wenn Sie RAW fotografieren . Wenn Sie Schwierigkeiten haben, ein Bild in Schwarzweiß zu visualisieren, erhalten Sie durch Aufnahmen in Schwarzweiß eine gute Annäherung an das endgültige Bild zum Zeitpunkt der Aufnahme, sodass Sie es anpassen können. Viele Digitalkameras können sogar Schwarzweiß mit Farbfiltern verarbeiten , wenn Sie also eine bestimmte Art der Verarbeitung im Sinn haben, z. B. die Verwendung eines Rotfilters zum Abdunkeln des Himmels (nach Ansel Adams „Moon and Half Dome“) oder eines Grünfilters zum Aufhellen Blattwerk, können Sie zum Zeitpunkt der Aufnahme ein Feedback darüber erhalten, wie es aussehen wird.

Und da Sie RAW aufnehmen, behalten Sie alle Farbinformationen für die Schwarzweißkonvertierung, falls Sie Ihre Meinung in der Post ändern sollten. Nur die JPEG-Vorschau wird zu Schwarzweiß verarbeitet. So können Sie das Beste aus beiden Welten haben. Das Denken „Schwarzweiß ist irreversibel“ gilt nur, wenn Sie JPEGs aufnehmen.

Was wäre der Vorteil (außer der Zeit) im Vergleich zum "Schwarzweiß" -Effekt von Photoshop?
Das ist kein Zeitvorteil. Hier geht es nicht um die Verarbeitung des endgültigen Bildes in der Kamera, sondern nur um die JPEG-Vorschau, die Sie auf dem LCD der Kamera sehen. Sie verwenden weiterhin den „Schwarzweiß“-Effekt von Photoshop (oder die Entsättigung oder den Kanalmixer oder Silver Efex Pro oder was auch immer) für die RAW-Datei, wenn Sie die Schwarzweiß-Konvertierung so bevorzugen. Aber Sie haben jetzt die Möglichkeit, etwas zu sehen, das dem nahe kommt, was Sie rechtzeitig bekommen werden, um es anzupassen und bei Bedarf neu zu drehen. Wenn Sie das Bild in Photoshop ziehen, ist es zu spät, um die Aufnahme noch einmal zu machen.
@inkista +1 - Der Vorteil einer solchen Aufnahme besteht darin, dass Sie sofort eine Annäherung an die endgültige Ausgabe auf dem LCD sehen können. Weitere greifbare Vorteile gibt es nicht.
+1 dafür; Mir ist nie in den Sinn gekommen, dass die Rohdatei die Farbdaten enthält, macht natürlich Sinn. Ich fotografiere nur roh, also werde ich das nächste Mal verwenden, wenn ich einen Tag unterwegs bin
Warten Sie, selbst wenn Sie in JPEG aufnehmen, ist nur die Vorschau betroffen? Hab ich das richtig verstanden? Der Kommentar klingt so, als würde er dem zweiten Absatz der Antwort widersprechen.
@Era, äh. Ich sehe die Schwierigkeit. Aus Gründen der Übersichtlichkeit bearbeitet. Nein, es funktioniert nicht, wenn Sie JPEG aufnehmen – an diesem Punkt wird das Schwarzweiß in Ihre Datei eingebrannt.

Astrofotografie mit Langzeitbelichtung wird häufig mit einem monochromen Sensor durchgeführt, um die Anzahl der von einer schwachen Quelle eingefangenen Photonen zu maximieren. Relativ kurze Belichtungen mit separaten Rot-, Grün- und Blaufiltern reichen aus, um das Bild zu färben, aber der längere ungefilterte Kanal liefert mehr Details in der Struktur des Abgebildeten. Sie können das gleiche Ergebnis mit einem herkömmlichen Sensor wie in einer Spiegelreflexkamera reproduzieren, benötigen jedoch erheblich längere Gesamtzeiten, da durch die Farbfilter viel mehr Photonen zurückgewiesen werden.

Ich denke, das OP hat tatsächlich nach der Verwendung eines Monochrommodus auf einer DSLR gefragt und nicht nach der Verwendung dedizierter Monochrom-Hardware, aber es ist definitiv erwähnenswert.

Die Aufnahme im Schwarzweißmodus hat keinen Vorteil, da die Kamera nur ein Farbbild aufnimmt und es mithilfe der integrierten Einstellungen in Schwarzweiß umwandelt. Als Gründe für die Aktivierung eines monochromen Modus könnte man am ehesten argumentieren, entweder eine künstliche Inflexibilität als Teil eines kreativen Prozesses zu platzieren oder monochrome Bilder während der Aufnahme auf dem Kameradisplay anzuzeigen. Beides sind in keiner Weise überzeugende Optionen.

Umgekehrt bietet das Fotografieren in Farbe viele Vorteile, z. B. die Möglichkeit, die unterschiedlichen Tonwerte in Filmen nachzubilden und das Bild möglicherweise vor der Konvertierung tonal zu manipulieren.

Es gibt einen Vorteil mit zwei großen "Wenns" .

Wenn Sie sicher sind, dass das, was Sie in der Kamera tun, Ihrer künstlerischen Vision zufriedenstellend entspricht, ohne dass Sie später das Verhältnis der Grautonwerte zwischen Objekten unterschiedlicher Farbe verschieben müssen:

Wenn Sie die Bilder nur als JPEG- Dateien speichern:

Wenn Sie dann die JPEGs in Schwarzweiß speichern, wird die Dateigröße jedes Bildes erheblich reduziert, wenn alle anderen Dinge gleich sind. (Auflösung, JPEG-Komprimierung/Qualitätseinstellung usw.)

Kleinere Dateigröße ist ein echter Vorteil. Fotografien sind für mehr als nur Kunst nützlich – eine Kamera kann verwendet werden, um jede Seite eines Buches, jede Person oder jedes Objekt, das sich durch einen Prozess bewegt, usw -3x mehr Bilder auf einer Speicherkarte.

Ich denke, das Fotografieren von Farbbildern ist immer die richtige Option, „Umkehrbarkeit“ ist der Schlüssel. Ein Farbbild könnte in Schwarzweiß umgewandelt werden, aber bei einer Schwarzweißaufnahme gibt es keine Option.

Wir alle wissen, dass der Reiz eines Fotos mehr oder weniger in der Postproduktion liegt, warum also nicht in Farbe fotografieren und dann entscheiden.

Wie auch immer, es wird keinen Unterschied in der Energie oder den Informationen geben, die von den Sensoren verbraucht werden, denn soweit ich weiß, wandeln sie Licht in digitale Codes um und die Farbe ist nur das Ergebnis vorher verwendeter Filter. Man kann sagen, dass ein helles Bild mehr Spannung verbraucht als ein mattes, aber Farbe hat keine Wirkung, keine.

Das hängt davon ab, wie viel Freiheit Sie brauchen/wollen.

Jemand, der eine großformatige Fachkamera verwendet, fragt vielleicht einen DSLR-Benutzer, wie es überhaupt möglich ist, mit einem so begrenzten Gerät halbwegs anständige Bilder aufzunehmen.

Warum sollten Sie ein Teleobjektiv verwenden, das auf die Freiheit verzichtet, eine Weitwinkelaufnahme in der Nachbearbeitung zuzuschneiden?

Und warum sollte jemand Bilder mit weit offener Blende machen? Für diese Unschärfe könnten Sie das Bild ganz nach Ihren Wünschen mit Photoshop bearbeiten?

Für so ziemlich jede Eigenschaft einer Kamera / eines Objektivs / eines Arbeitsablaufs / ... finden Sie einen bestimmten Wert oder Wertebereich, den Sie für das, was Sie tun, verfügbar haben möchten. Andere Personen können andere Werte wählen. Wenn Sie nur S/W machen und nicht viel nachbearbeiten möchten, kann die Freiheit der Farbe zur Belastung werden.

Es gibt sogar Kameras, die nur monochromatische Bilder aufnehmen, wie die Leica Monochrome ( und Videokameras wie die Arri Alexa XT B+W oder die RED Epic Monochrome , off-site soweit photo.SE geht, aber on-topic soweit "20.000 $ für etwas ausgeben, das keinen Sinn hat" geht, auch bekannt als jemand kauft das )

Ich finde es (manchmal) hilfreich bei der Komposition. Farbe kann sowohl visuell als auch emotional ablenken. In anderen Fällen, z. B. bei der Wildblumenfotografie, ist es hilfreich, das Bild in Farbe sehen zu können, während die verschiedenen Elemente in der Szene angeordnet werden. Ich fotografiere RAW und habe eine Kamera (Sony a7R) mit elektronischem Sucher.

Im Prinzip ja, denn wenn die Kameraverarbeitungssoftware nicht sehr schlecht geschrieben ist, wird sie nicht zuerst das Demosaikieren durchführen, um ein Vollfarbbild zu rendern, und dann dieses Bild verwenden, um das Schwarzweißbild zu berechnen. Vielmehr wird ein dediziertes Demosaicing durchgeführt, um das Schwarzweißbild direkt aus den Rohdaten zu berechnen. Die beiden Prozesse sind nicht äquivalent, der letztere weist weniger Artefakte auf als der erstere.

Der Kamerasensor hat ein Farbfilterarray, jeder Pixel erfasst nur die Grauwerte im roten, grünen oder blauen Teil des Spektrums. Die beiden anderen Grauwerte errechnet die Kamera für jeden Bildpunkt durch Interpolation (man spricht von Demosaicing). Demosaicing ist natürlich keine Zauberei; Was der Sensor nicht erfasst hat, lässt sich nicht exakt aus den Nachbarpixeln rekonstruieren. Sie werden also immer mit Demosaicing-Fehlern enden.

Wenn Sie ein Schwarz-Weiß-Bild haben möchten, müssen Sie im Vergleich zu einem Farbbild weniger Informationen mithilfe von Demosaicing wiederherstellen, sodass dies genauer erfolgen kann. Aber wenn Sie zuerst ein Farbbild kompilieren und daraus dann ein Schwarzweißbild kompilieren, pflanzen sich die größeren Fehler im ersten Schritt in den letzten Schritt fort und Sie erhalten am Ende ein schlechteres Schwarzweißbild. Während die größeren Fehler bis zu einem gewissen Grad reduziert werden, wenn Sie ein Schwarzweißbild aus einem Farbbild berechnen, können Sie die größeren Fehler nicht vollständig rückgängig machen.

Das Beste, was Sie tun können, wenn Sie sowohl maximale Flexibilität bei der Nachbearbeitung als auch Schwarzweißbilder in bester Qualität wünschen, ist das Aufnehmen von RAW-Bildern. Sie sollten die Schwarzweißbilder dann direkt aus den Rohbildern selbst zusammenstellen, indem Sie das erforderliche Demosaicing selbst durchführen.

Schwarzweißaufnahmen mit einer Digitalkamera erzeugen lediglich ein Schwarzweißbild aus der Farbaufnahme. Ich glaube nicht, dass eine Kamera das Farbfilterarray physisch entfernt.
Um fair zu sein, die Frage spezifiziert nicht "mit einer normalen Farbdigitalkamera", also ist diese Antwort tatsächlich gültig, nur nicht auf sehr praktische Weise.
Aber darum geht es mir nicht. Sofern die Kameraverarbeitungssoftware nicht sehr schlecht geschrieben ist, wird sie nicht zuerst das Demosaikieren durchführen, um die volle Farbe zu rendern, und dann dieses Bild verwenden, um das Schwarzweißbild zu berechnen. Es ist durchaus so, dass einige Kameras dies tun, aber es ist weit weniger optimal als ein dediziertes Demosaikieren für genau das gewünschte Schwarzweißbild.
@CountIblis - eigentlich sagen Sie, dass es nicht genau das tun wird, was es tun wird. Es wird ein normal demosaikiertes Farbbild erstellt und dieses verwendet, um ein Schwarz-Weiß-Bild zu erzeugen.
Nun, im Prinzip weiß die Kamera am besten, wie die Versätze zwischen R,G,B-Sensorpixeln sind, und kann bessere (dh höhere Auflösung) Schätzungen über die Grauwerte abgeben. Dies ist in gewisser Weise der entgegengesetzte Prozess zum Subpixel-Rendering . Da die endgültige Schwarzweißausgabe jedoch keine höhere Auflösung hat (oder für einige Kameras?), erscheint mir dies unwahrscheinlich