Welcher Demosaik-Algorithmus eignet sich am besten für die Konvertierung von DNG in Schwarzweiß?

Ich nehme an, dass irgendwann jemand einen Demosaik-Algorithmus entwickelt hat, der optimal ist, um ein Bayer-DNG in ein Schwarzweißfoto umzuwandeln. Aber wie heißt dieser Algorithmus und welche Bildverarbeitungssoftware bietet ihn an?

dcraw hat einen "Dokumentenmodus", der überraschend gute Ergebnisse liefert, aber keine Pixel zusammenführt ... es gibt kein Demosaicing.

Antworten (1)

Ich nehme an, dass irgendwann jemand einen Demosaik-Algorithmus entwickelt hat, der optimal ist, um ein Bayer-DNG in ein Schwarzweißfoto umzuwandeln.

Naja "optimal" liegt im Auge des Betrachters.

Ihre Vorstellung von einer optimalen Konvertierung entspricht möglicherweise nicht meiner Vorstellung von einer optimalen Konvertierung. An dieser Vorstellung scheitert also die Idee einer optimalen Konvertierung.

Grundsätzlich befassen sich Demosaicing-Algorithmen mit der Generierung von RGB-Bildern aus RAW-Daten.

Und die Schwarzweiß-Bildverarbeitung war schon zu Zeiten des Films mit Farbfiltern verbunden.

Beim Film haben Sie bei der Aufnahme tatsächlich einen physikalischen Filter verwendet, um unterschiedliche Kontrasteffekte für verschiedene Farben zu erzielen. Im digitalen Bereich würden Sie normalerweise mit einem Farbbild arbeiten und einen Filter Ihrer Wahl (oder eine andere Verarbeitung) anwenden, um den gewünschten Effekt zu erzielen.

Der Punkt ist, dass die Schwarzweiß-Verarbeitung jetzt fast ausschließlich von einem Farbbasisbild aus erfolgt (implizit, selbst wenn Sie RAW aufnehmen).

Selbst wenn Sie versuchen, dies von RAW aus zu tun, müssen Sie ein implizites Vollfarbbild erstellen, um einen Farbfiltereffekt anzuwenden (etwas, das ich für ernsthafte Schwarzweißarbeiten als ziemlich wesentlich erachte). Ein Farbfilter erfordert per Definition ein Farbquellbild.

Die einzige Alternative wird heutzutage selten digital gemacht - Aufnahmen mit einem physischen Farbfilter.

Aber wie heißt dieser Algorithmus und welche Bildverarbeitungssoftware bietet ihn an?

Es gibt keinen einzelnen Algorithmus, der allgemein als optimal angesehen würde, aber ich kann nicht sagen, dass ich von einem Algorithmus gehört habe, der speziell dafür entwickelt wurde, nur Schwarzweiß-Arbeiten zu erleichtern. Wie ich bereits erklärt habe, ist es eine selbstzerstörerische Idee, heutzutage nicht mit einem Basisfarbbild zu arbeiten.

Wird aber erst auf Farbe (RGB) und dann auf S/W umgerechnet, wird durch die Betonung zunächst die Farbe "gut" aussehen, was sich negativ auf die Leuchtkraft auswirken kann. Sicherlich gibt es eine Möglichkeit, die manchmal aufwändigen Operationen zu vermeiden, die Unternehmen verwenden, um Bayer-Muster an verschiedene Arten von Szenen und so weiter anzupassen.
Nein. Der Schwerpunkt liegt nicht darauf, die Farbe „gut aussehen“ zu lassen, sondern so genau wie möglich in Bezug auf die Farbwiedergabe des Sensors zu sein. "Gut aussehen" ist für sekundäre Effekte wie Sättigung, Weißabgleich, Ton, Schärfe, Kontrast, Tonwertkurve. RGB-Demosaik ist eine Notwendigkeit, um gute Helligkeitsdaten zu erzeugen.
Haben Sie viel darüber gelesen, wie Demosaicing funktioniert? Es gibt mehrere Möglichkeiten, dies zu tun. Manche sehen wirklich schlecht aus, manche besser. Das hängt vom Szenentyp ab. Ich habe also Recht, die Demosaicing-Methode wird gewählt, um das Foto gut aussehen zu lassen. Und die Auswahl berücksichtigt normalerweise die Farbe, was bei einem Schwarzweißfoto nicht zutrifft.
Ja, ich bin ziemlich vertraut mit Demosaicing-Algorithmen. Sie werden nicht ausgewählt, „um das Foto gut aussehen zu lassen“, sie werden im Allgemeinen ausgewählt, um Interpolationsartefakte zu minimieren, etwas, das eine sehr sorgfältige Expertenbewertung der Algorithmen entscheidet. "Gut aussehen" ist eine subjektive Qualität eines Bildes, das als vollständige Komposition betrachtet wird, nicht auf der Pixelebene des Demosaikierens.
Ich denke, Sie bemühen sich, hier richtig oder sachkundig zu erscheinen. Ein Artefakt sieht per Definition nicht korrekt aus. Es entspricht nicht den objektiven Tatsachen einer Szene. Ein Demosaicing-Algorithmus wird gewählt, um diese zu minimieren, um gut auszusehen, dh gut, was objektiv korrekt bedeutet.
Ein Artefakt kann visuell vollkommen korrekt aussehen. Ich habe keine Ahnung, warum Sie denken, dass es eine Definition ist, die irgendwie auffallen sollte. Ein Artefakt bedeutet in diesem Zusammenhang ein sehr feines Detail, das die Realität nicht genau wiedergibt. Das bedeutet jedoch nicht, dass es überhaupt offensichtlich wäre, dass etwas ein Artefakt ist und keine absolut vernünftigen Daten innerhalb der Genauigkeit des Sensors.
Fast jedes Schwarzweißbild, ob Film oder Digital, beginnt mit einer Szene, die Farbe hat. Einmal als monochromes Bild aufgezeichnet (ob über Silberhalogenid oder JPEG), gehen diese Farbinformationen verloren. Obwohl jedes Pixel in den von einem Sensor erfassten Rohdaten nur einen einzigen Leuchtdichtewert hat, enthält jedes Bild, das mit einem maskierten Bayer-Sensor erfasst wird, auch Farbinformationen über die unterschiedlichen Tonwerte, die sich aus der Filterung derselben Farben durch Rot, Grün, und Blau. Um ein aussagekräftiges Bild zu erhalten, das die Realität der Szene aus der Ferne darstellt, müssen die Rohdaten eines maskierten Bayer-Sensors demosaikiert werden.
Selbst wenn die aufgenommene Szene bereits monochromatisch ist, führen die unterschiedlichen Reaktionen der R-, G- und B-Filter zu unterschiedlichen Tonwerten, es sei denn, das in die Kamera eintretende Licht ist perfekt ausbalanciert, um die gleiche Reaktion im R-, G- und B-Filter zu erzeugen Pixel bzw. Das wäre theoretisch möglich, abhängig von den Reaktionskurven des Sensors, aber in der realen Welt wäre es nahezu unmöglich, es außerhalb einer sorgfältig kontrollierten Laborumgebung tatsächlich zu erreichen.
@iSelfy "...Aber wenn eine Konvertierung zuerst in Farbe (RGB) und dann in Schwarzweiß erfolgt, wird die Betonung zunächst dazu führen, dass die Farbe "gut" aussieht, was sich nachteilig auf die Leuchtkraft auswirken kann." In dem Moment, in dem Sie die Szene mit einem Bayer-Maskensensor erfassen, ist die volle Leuchtkraft bereits unwiederbringlich an das von der Bayer-Maske absorbierte und reflektierte Licht verloren.