Wie kann man RAW-Fotos belichten und gleichzeitig ein RAW-Foto ausgeben?

Ich habe also .DNGDateien, die ich von einem iPhone genommen habe, und ich versuche herauszufinden, wie ich sie stapeln und dann das gestapelte Foto .DNGauch als Datei ausgeben kann (oder ein beliebiges RAW-Format).

Ich weiß, wie man ziemlich gut codiert, damit ich sie mit Python und dem Modul stapeln kann rawpy. Das Problem ist, dass rawpyderzeit keine Möglichkeit besteht, RAW-Dateien auszugeben. Wenn ich sie also stapele, kann ich sie als JPG ausgeben, aber das möchte ich nicht.

Beim Durchstöbern von Foren für Astrofotografie habe ich Threads gesehen, die besagen, dass Deep Sky Stacker zum Lesen und Stapeln von RAW-Dateien verwendet werden kann, aber ich konnte keine Anleitungen finden, die mir sagen, wie ich ein Bild als Datei exportieren kann .DNG.

Gibt DSS gestapelte Fotos als RAW aus? (Format spielt keine Rolle, aber DNG wäre bevorzugt) Gibt es vielleicht eine Möglichkeit, dies über Lightroom zu tun? Gibt es eine Möglichkeit, dies programmgesteuert zu tun?. Ich bin ziemlich neu in all dem, also wäre jede Hilfe dankbar.

Antworten (3)

DNG ist kein Format zum Exportieren von Bildern, sondern ein etwas universelles Format für Sensordaten. Es hätte keinen Sinn, das Ergebnis Ihrer gestapelten Bilder neu zu mosaikieren.

Wenn Sie Ihr Bild in einem verlustfreien und hochpräzisen Format exportieren möchten, gibt es mindestens das 16-Bit-TIFF-Format und das 16-Bit-PNG.

Das Problem ist, dass mein Workflow erfordert, dass ich die Langzeitbelichtung als RAW-Dateien verarbeite, um die Sensordaten zu bearbeiten. Da iPhones keine Langzeitbelichtungen machen, stapele ich die Bilder so, als wären sie Langzeitbelichtungen. Behält TIFF die Sensordaten bei? Ich fühle mich mit TIFFs nicht wirklich wohl, da ich noch nie damit gearbeitet habe
DNG kann ein Exportformat sein; darktable exportiert HDR-DNG-Dateien (buchstäblich HDR, nicht Tonemapped „HDR“), wenn die Funktion „HDR erstellen“ für ausgewählte Bilder verwendet wird (diese Funktion ist jedoch wahrscheinlich nicht für das geeignet, was das OP im Sinn hat).

Wenn Sie an den rohen Sensordaten arbeiten möchten, müssen Sie dies tun, bevor Sie die Bilder stapeln. Exportieren Sie die Rohdateien in eines von vielen verschiedenen Bewertungsformaten (TIFF, JPEG, PNG usw.) und stapeln Sie sie dann. Rohsensordaten können nur einmal demosaikiert werden, dann liegen sie in einem Rasterformat vor. Wenn Sie zurückgehen und es erneut demosaikieren möchten, müssen Sie mit den ursprünglichen Rohdaten beginnen, mit denen Sie zuvor begonnen haben. Wenn Sie andere Verarbeitungsentscheidungen auf diese Daten anwenden, erzeugen Sie eine andere Version der Rohdaten als sichtbares Bild als zuvor.

Bitte beachten Sie, dass das, was Sie auf Ihrem Bildschirm sehen, wenn Sie mit einer Rohdatei arbeiten, nicht „die Rohdatei“ ist ,¹ sondern eine demosaikierte Version der Informationen in der Rohdatei. Wenn Sie die Schieberegler oder Lichtkurven innerhalb einer Rohdatenverarbeitungsanwendung bewegen, erstellen Sie oft eine andere Interpretation der Informationen in der Rohdatei, indem Sie die Demosaicing-Anweisungen ändern, und eine neue Interpretation der Rohdaten wird erneut auf Ihrem Bildschirm gerendert.

¹ Die verknüpfte Antwort auf eine andere Frage geht viel detaillierter auf den Unterschied zwischen einer Rohbilddatei und dem, was Sie auf Ihrem Bildschirm sehen, wenn Sie eine Rohdatei mit einer Rohverarbeitungsanwendung öffnen, ein. Das muss hier nicht alles wiederholt werden.

Ich verstehe, aber da Rohbilder nur Sensordaten sind und Belichtungsstapelung nur der Durchschnitt der Fotos ist, versuche ich, die Daten vor dem Demosaizieren zu stapeln, sodass die Rohdaten beim Demosaizieren den Effekt einer Langzeitbelichtung simulieren und Mit den Sensordaten kann ich für meinen späteren Workflow weiterarbeiten. Ich weiß, es ist eine große Herausforderung, aber deshalb bin ich hier :)
@QuantumHoneybees Bei Rohverarbeitungsanwendungen oder Stapelanwendungen, die die Informationen vom Sensor demosaikieren, funktioniert das nicht.
Rohdaten sind nicht wirklich das, was man normalerweise unter einem Foto versteht, genauso wenig wie ein latentes, unentwickeltes Negativ ein "Foto" ist.
Ja, aber Zahlen sind am Ende des Tages Zahlen, was bedeutet, dass sie gemittelt werden können. Ich dachte nur, dass es eine Anwendung geben muss, in die der DNG-Export integriert ist und die auch das Stapeln ermöglicht ...
So wie es viele mögliche Bilder gibt, die aus den Rohbilddaten abgeleitet werden können, gibt es viele verschiedene Sätze von Rohbilddaten, die zu einem bestimmten Bild führen können. Es gibt keine Möglichkeit, ein Rasterbild zu verwenden, um die Rohdaten, aus denen dieses Rasterbild abgeleitet wurde, genau zu rekonstruieren. Wenn Sie alle Zeilen in Ihrer Steuererklärung auf den nächsten Dollar runden, gibt es keine Möglichkeit, die Werte des Cent-Anteils jedes ursprünglichen Werts wiederherzustellen.
DNG hat in vielen Fällen bereits einige der Informationen in Rohdateien einiger Kameras verarbeitet und die Ergebnisse auf irreversible Weise „eingebrannt“. Es hängt alles von der Menge an Informationen ab, die in der Rohdatei enthalten sind, wie viel Verarbeitung die Kamera an den vom Sensor gesammelten Informationen auf Pixelebene vornimmt, bevor sie im Rohformat gespeichert werden, und von der Implementierung des DNG-Konverters.
„Ja, aber Zahlen sind am Ende des Tages Zahlen, was bedeutet, dass sie gemittelt werden können. Ich dachte nur, dass es eine Anwendung mit integriertem DNG-Export geben muss, die auch Stapeln zulässt.“ Es mag eine solche Anwendung geben, aber ich habe noch nie davon gehört und sie wurde meines Wissens hier nicht diskutiert. Ein Teil des Problems beim Stapeln auf Pixelebene besteht darin, dass jede Änderung der Beziehung der Kamera zum Motiv (durch Kamerabewegung oder die scheinbare Bewegung des Nachthimmels) verheerende Folgen hätte. Sterne, die sich nur um ein Pixel verschieben, würden als Rauschen angesehen.
„Ein Teil des Problems beim Stapeln auf Pixelebene besteht darin, dass jede Änderung der Beziehung der Kamera zum Motiv (durch Kamerabewegung oder die scheinbare Bewegung des Nachthimmels) verheerende Folgen hätte.“ Ja, das ist sehr wahr, aber Ich habe einen Fernauslöser verwendet, um die Fotos sehr sorgfältig zu machen, und ich habe nur Fotos von statischen Objekten gemacht. Ich denke, die einzige Lösung besteht darin, eine Python-Bibliothek zu schreiben, um DNG-Dateien oder so etwas auszugeben ... danke!
@QuantumHoneybees Wenn Sie wirklich, wirklich nicht erwarten, dass die Software irgendwelche Ausrichtungsprobleme behandelt, finden Sie möglicherweise die HDR-Funktion von Darktable (im Kommentar zu einer anderen Antwort verlinkt) nützlich ... aber ich bin nicht zuversichtlich genug, dass dies der Fall ist der Fall, um es als Antwort vorzuschlagen. ;)

Lightroom ab Version 6 kann aus Mehrfachbelichtungen ein HDR-Bild erstellen und als DNG-Datei exportieren, siehe beispielsweise https://helpx.adobe.com/lightroom/help/hdr-photo-merge.html . Beachten Sie, dass DNG nicht unbedingt mosaikierte Rohdaten von einem Sensor enthält. Es kann auch demosaikierte Daten speichern, zum Beispiel das Ergebnis der Vorverarbeitung (wie die HDR-Erstellung von Lightroom). Es heißt dann Linear DNG, siehe https://helpx.adobe.com/de/photoshop/using/adobe-dng-converter.html .