Wie kann eine hochauflösende Kamera von Bedeutung sein, wenn die Ausgabe eine niedrige Auflösung hat?

Die Frage ist inspiriert von dieser Frage , die diese Bilder zeigt .
Die akzeptierte Antwort legt nahe, dass diese Bilder mit einer 8x10-Fachkamera aufgenommen wurden, und die Verwendung einer 8x10-Kamera wurde in den Kommentaren bestätigt.

Meine Frage ist: Woran erkennt man das?


Bei Betrachtung auf der Webseite haben diese Bilder eine Größe von 496 x 620 = 0,37 Megapixel (oder 720 x 900 = 0,65 Megapixel, wenn Sie auf „Vollansicht“ klicken).
Daher sollte jede Kamera mit einer Auflösung von mehr als 0,37 Mpx in der Lage sein, diese Bilder aufzunehmen, also so ziemlich jedes Smartphone und jede Webcam auf dem Markt.

Ich kenne Bayer-Sensoren . Der Worst-Case-Effekt eines Bayer-Sensors sollte jedoch darin bestehen, die Auflösung um den Faktor vier zu reduzieren: Wenn Sie das Bild in jeder Richtung um den Faktor zwei verkleinern, enthält jedes Ausgangspixel Daten von mindestens einem Eingangssensor für jeden die R/G/B-Kanäle.
Das Herunterskalieren um den Faktor 4 bedeutet immer noch, dass jede Kamera mit einer Auflösung von mehr als 1,5 Mpx (anstelle der 0,37 Mpx der Ausgabe) in der Lage sein sollte, diese Bilder aufzunehmen. Wir sprechen immer noch über so ziemlich jedes Smartphone und die meisten Webcams auf dem Markt.

Ich kenne mich mit der Farbtiefe aus . Aber JPG, das Format, das wir verwenden, um diese Bilder anzuzeigen, ist 8x3=24 Bit. Und laut den DxOMark-Ergebnissen gibt es mehrere Kameras, darunter die Sony NEX 7 und die Nikon D3200, die in der Lage sind, 24 Bit Farbe aufzunehmen.
Selbst wenn eine 10-Dollar-Webcam die Nuancen in diesen Bildern nicht ganz erfassen kann, sollte eine NEX 7 oder D3200 dazu in der Lage sein.

Ich weiß, dass die meisten Objektive eine niedrigere Auflösung haben als die meisten Sensoren. Zum Beispiel ist das Nikkor 85mm f/1.4G laut DxOMark das schärfste Objektiv von Nikon und liefert im besten Fall eine Auflösung von 19 Mpx auf einer 24-Mpx-Kamera (die Vollformat-Nikon D3X), während das am wenigsten scharfe Objektiv eine hat Äquivalent von 8 Mpx im besten Fall auf derselben Kamera.
Aber das schlechteste Objektiv in ihrer Datenbank bietet immer noch eine Größenordnung mehr Auflösung als das Ausgabeformat dieser Beispiele.

Ich kenne den Dynamikumfang. Aber diese Bilder steuern die Beleuchtung, sodass sie weder die Lichter überstrahlen noch die Schatten verlieren. Solange Sie dazu in der Lage sind, spielt der Dynamikumfang keine Rolle; es wird ohnehin auf den Ausgabebereich 0-255 von JPG abgebildet.
In jedem Fall sagt DxOMark, dass mehrere Kameras mit Vollformat oder kleineren Sensoren einen besseren Dynamikbereich haben als die besten Mittelformatkameras.


Das weiß ich, und nichts in diesen Theoriefragmenten kann mir sagen, wie es möglich ist, eine 8x10-Fachkamera von einer Sony NEX 7 zu unterscheiden, wenn Sie das Ergebnis als 0,37-Mpx-JPG anzeigen.

Soweit ich weiß, sollte es im Wesentlichen irrelevant sein, wie viele Megapixel und wie viel Farbtiefe der Sensor erfassen kann, solange es mindestens so viel ist, wie das Ausgabeformat darstellen kann.

Trotzdem zweifle ich nicht an der Beurteilung der Antwort von Stan Rogers. Und ich habe noch nie etwas Ähnliches in Bezug auf die wahrgenommene Schärfe von Kameras mit kleinem Sensor gesehen.

Habe ich falsch verstanden, was Auflösung bedeutet?

Ich denke, ich frage hauptsächlich nach der Theorie: Wie kann ein Unterschied zwischen zwei Auflösungen (gemessen in Pixel, lp / mm, Farbtiefe oder was auch immer) in einem Anzeigeformat sichtbar sein, das eine geringere Auflösung als eines der Originale hat?

Oder anders formuliert: Was hindert mich im Prinzip daran, diese Bilder mit einer Sony NEX 7 und einer Beleuchtung im Wert von 10.000 Dollar pixelgenau nachzubilden?

Solange Sie alles perfekt in Ihre Aufnahme bekommen, hat es auch keinen großen Vorteil, RAW gegenüber JPEG zu fotografieren. Bei Auflösung, Bittiefe und RAW-Daten geht es darum, das Beste aus Ihrem Foto herauszuholen! Heute kleines Webfoto, morgen 4x Retina Display oder hochwertiger Druck.
Leider kann ich nur eine Antwort akzeptieren. Matt Grum argumentiert glaubwürdig, dass ein kleiner Sensor plus Beleuchtung und ein wenig Nachbearbeitung vielleicht 95 % dessen replizieren kann, was wir auf den Bildern von Martin Schoeller in Webgröße sehen (ohne die DoF-Effekte). Ich denke, Michael Nielsen argumentiert glaubwürdig, dass Sie möglicherweise eine bessere als die typische APS-C-Systemauflösung benötigen, um 100% zu erreichen. Und Stan Rogers erklärt, wie wir eine Großformatkamera auch auf Fotos in Webgröße erkennen können. Ich schlage vor, Sie lesen sie alle :)

Antworten (4)

Es dreht sich alles um den Mikrokontrast. Schauen Sie sich die Posts über aps-c im Vergleich zu Vollbild an und erweitern Sie diesen Unterschied dann auf Mittel- und Großformatsensoren.

Wann spielen die Unterschiede zwischen APS-C- und Vollformatsensoren eine Rolle und warum?

Nach den Theorien zum Oversampling ist es besser, mit einer höheren Rate abzutasten und dann herunterzutasten, als von Anfang an an der Nyquist-Grenze abzutasten - dh. Wenn Ihr Endziel 640 x 480 ist, ist es immer noch besser, einen 1280 x 960-Sensor als einen 640 x 480-Sensor zu verwenden.

Es spielt sowieso keine Rolle, wie viele MPixel Sie haben, wenn benachbarte Pixel voneinander abhängen, da der Verwirrungskreis größer ist als Ihre Pixel auf der Sensorebene. Die Linsen haben auch eine begrenzte Auflösungsfähigkeit. Darüber hinaus müssen Sie die "Schärfe" des Objektivs im Vergleich zu seiner Blende berücksichtigen, und ein größerer Sensor ermöglicht es Ihnen, näher heranzugehen und einen engeren DOF zu erreichen, was bedeutet, dass Sie noch mehr Details erfassen können - der Verwirrungskreis ist größer, das Objektiv arbeitet mit weniger Verbreitung usw.

Und dann haben Sie die "Tiefenkompression" durch die Brennweite des Objektivs, die bei diesen Aufnahmen ziemlich aggressiv ist und auf ein Teleobjektiv hinweist. Das FOV auf einem kleinen Sensor würde erfordern, dass Sie weit zurücktreten und die Blende stark öffnen, um diesen engen DOF zu erhalten. Wenn Sie jedoch die Zahlen ausführen, könnten Sie es mit einer Vollformatkamera erreichen, 210 mm, 2 Meter Entfernung, F8 würde einen DOF von 4 cm und ein Sichtfeld ergeben, das genau das Gesicht wie diese Aufnahmen aufnimmt.

Anders ausgedrückt: Je größer der Sensor im Verhältnis zum Motiv ist, desto weniger muss das Objektiv an den Lichtstrahlen arbeiten, um sie zu einem engen Punkt zu komprimieren. Dies erhöht die Klarheit der Aufnahme und wird unabhängig vom Betrachtungsabstand angezeigt (was durch die Größenänderung des Bildes auf eine niedrigere Auflösung simuliert wird).

Nach Diskussionen über Detailverbesserung und Beibehaltung durch Größenänderung ist hier ein Vergleich, ob ähnliche Motive Großformat vs. Vollbild und Großformat vs. Apsc:

Oben: männliche Gesichter mit Bartstummeln. In der Auflösung auf der Seite, auf die Sie verlinken, wird der Bart mit pixelbreiten Haaren gerendert, aber all das geht bei der gleichen Größe wie in Matts Beispiel verloren. Jetzt sind die Bärte diffus. Wenn wir Matts Bild in derselben Größe wie die 8x10-Fotos auf der Website sehen, sehen wir möglicherweise einen großen Unterschied, wenn der Kopf nicht scharfgestellt ist. Selbst ein aps-c-System und kleinerer Sensor könnten dieses Ergebnis liefern (in Bezug auf Details).

Unten: Vergleichen wir die weiblichen Gesichtswimpern in ähnlicher Größe wie auf der von Ihnen gezeigten Webseite mit einem fokussierten Auge einer Aps-C-Kamera, und das Schärfen wird die Poren in der Haut nicht zurückbringen. Wir könnten die Wahrnehmung der Wimpern auf Kosten eines hellen Heiligenscheins um sie herum verbessern.

Wir sehen jetzt einen großen Unterschied in der Auflösung des "Gesamtsystems" , und die Apsc-Kamera + das verwendete Objektiv + bei der gegebenen Auflösung mit niedriger Auflösung können nicht die gleichen Details wiedergeben wie die 8x10-Kamera + dieses Objektiv + die angezeigte Auflösung . Hoffe, mein Punkt ist jetzt klarer.

Einzelheiten

Ein weiterer Vergleich zu aps-c, Bartstummeln, nachdem sie geschärft wurden. Obwohl StackExchange die Größe ändert, können wir immer noch einen Unterschied in der Klarheit wahrnehmen.

apsc

Zusammenfassend sind die anderen Faktoren, nach denen Sie fragen, außer der Pixelauflösung:

  • Gesamtsystemauflösung lp/mm
  • SNR
  • Vergrößerung von der Person über den Sensor bis zum Bildschirm, auf dem Sie ihn in der angegebenen Entfernung betrachten, bis zur Projektion Ihres Auges auf die Netzhautauflösung - je kleiner (unter 1:1) Vergrößerung eines Teils des Systems, desto höher die Anforderungen für die beiden oben genannten Faktoren, die wiederum durch die kleinere Projektionsfläche negativ beeinflusst werden.

In einer verkleinerten Makroaufnahme erhalten Sie mehr Details als ohne Makroaufnahme.

Ein letzter Beweis dafür, dass die Auflösung vor dem Herunterskalieren wichtig ist. Oben: 21 MP FF Unten: 15 MP Aps-c mit der gleichen Objektiv-/Blendenbrennweite.

Zwei Diff-Sensoren Auflösung/Größe

Jetzt auf gleiche Auflösung neu skaliert:

Klein

Kleiner

Kleinste

Sehr klein

und wendete ein wenig Schärfung an, um einige Details zurückzubringen. Was siehst du? ein bisschen mehr Details von der 21-MP-FF-Kamera bei gleicher Größe/Auflösung, was einer 3-MP-Kamera entspricht. Sie können die Linien im neu skalierten Bild nicht zählen, aber die Wahrnehmung, dass es sich um Linien handelt, ist wahr. Ob Sie dies möchten oder nicht, ist Ihre kreative Entscheidung, aber beginnend mit der höheren Auflösung (gegeben durch das Gesamtsystem) haben Sie die Wahl. Wenn Sie sie nicht möchten, können Sie das Bild vor der Neuskalierung verwischen.

Ein letztes Experiment, um den Unterschied zwischen einem kleinen Sensor mit niedriger Auflösung und einem größeren Sensor mit höherer Auflösung zu zeigen, aber auf die gleiche Auflösung neu skaliert und geschärft, am Ende in der GLEICHEN GRÖSSE gezeigt - mit ALLEN ANDEREN GLEICH. Cool, oder? Wie habe ich das gemacht? Meine APS-C-Kamera, die ich nehme, simuliert einen "Crop-Sensor" (kleiner als mein APC-C), indem ich ein Bild aus dem Bild beschneide. Dann gehe ich näher an das Motiv heran, um einen 4x größeren Sensor mit demselben Motiv zu füllen. - wie die Porträts auf dem großformatigen Sensor im Grunde eine Makroaufnahme - viel näher kommen als mit einer Aps-C-Kamera. Gleiche Elektronikqualität, gleiches Objektiv, gleiche Einstellungen, gleiches Licht.

So sieht es auf dem kleinen Sensor aus, nennen wir ihn "Mini-Aps-CC":

Kleiner Fühler

Hier sehen wir das "große Format" (großes volles aps-c ):

aps-c

Hier sehen wir jede Menge Details, oder? Aber das spielt keine Rolle, nachdem wir es auf ein Bild mit 0,016 MP herunterskaliert und für den insgesamt gleichen Kontrast geschärft haben, oder?

Vergleich gleich groß

Aber das tun wir in der Tat! Wenn du mir immer noch nicht glaubst, gebe ich auf :)

Eine Anmerkung zu dem Labyrinthmuster, das diese Ernten zeigen: Es ist das Bayer-Interpolationsartefakt, das für AHD-Bayer-Desaiking üblich ist.
Die Wahrnehmung, dass es sich um eine Reihe von Linien handelt, ist jedoch originalgetreuer als das Sehen eines grauen Kästchens. Dasselbe wie Poren in der Haut zu sehen, vielleicht nicht so viele wie im wirklichen Leben, aber sie wären da.
Danke, interessante Vergleiche. Es sieht so aus, als ob Schärfe/Detail (oder zumindest eine Illusion von Details) eine stärkere Verkleinerung überlebt, als ich dachte. Du hast mir etwas zum Nachdenken gegeben.
Denken Sie daran, dass konvergierende Linien ein Albtraum für Interpolationsalgorithmen sind, und wir WISSEN, wie es aussehen SOLLTE, wir haben nicht die gleichen Annahmen über die Details in einer schönen Hautstruktur, also bewegt sich ein Fleck um ein halbes Pixel in dem Gesicht, das er immer noch sieht fantastisch. Im kleinsten Beispiel oben nehmen wir immer noch wahr, dass es Linien bis zur zweiten Vertikalen hat.
Michael, eine verwandte Frage – was ist, wenn die Sensorgröße gleich ist? Werde ich bessere Ergebnisse mit einem APS-C-Sensor mit einer nativen Auflösung von 16 MP erzielen, aber beispielsweise auf 8 MP heruntergerechnet, anstatt eine (hypothetische) Kamera mit einem 8-MP-ASP-C-Sensor zu kaufen?
Angenommen Technologie der gleichen Generation? Wenn nicht, dann wird das 8-MP-APSC von beispielsweise 2006 sein und das 16-MP-APSC von 2009 und höher. Von 2006 bis etwa 2009 hat sich die Sensortechnologie stark verbessert (mehr als von 2009 bis 2013), sodass die neue bei 8 MP besser wäre. Im hypothetischen Fall, in dem es sich um die gleiche Gentechnik handeln würde, ist es eine Grauzone, es hängt davon ab, wie gut sie mit den kleineren Pixeln mit den Rauschquellen umgehen. Beachten Sie jedoch, dass es sich nur um einen 1,4-fachen Auflösungsgewinn handelt und die Verkleinerung die beste verfügbare NR-Methode ist, sodass ich wetten würde, dass das 16-MP-Bild besser wäre.
Ich bin jedoch der Meinung, dass Bilder immer überabgetastet und auf mindestens 1/4 MP (0,5-fache Auflösung) herunterskaliert werden sollten, sodass der Vergleich bei 2 MP erfolgen sollte, wobei der 8-MP-Sensor ebenfalls von dem erstaunlichen Downsampling profitiert hat. Und dann bin ich mir nicht so sicher, ob du einen Unterschied siehst. Sollte auch von der Art der Bilder abhängen (schwaches Licht, Sonnenlicht, Schwarz)

Das Hauptmerkmal der Fachkamera war eine extrem geringe Schärfentiefe, die nicht parallel zur Filmebene verläuft. Die Lippen und Augen in mehreren Bildern mit der Körperhaltung des Motivs und dem sehr flachen DoF (meistens ist die Stirn in der Kinnlinie direkt unter den Augen weich) ohne Neigung zu fokussieren, ist unmöglich.

Es gibt auch die Art der Bereiche außerhalb des Fokus; Es ist eher typisch für eine nahezu lebensgroße Wiedergabe als für einen Fernfokus. Die DoF-Erweiterung zur Kamera hin entspricht fast der Erweiterung zum Hintergrund, was Sie erwarten würden, wenn Sie sich einer 1: 1-Wiedergabe nähern. Bei normaleren Arbeitsabständen würden Sie etwa eine Verteilung der scheinbaren Schärfe von etwa einem Drittel/zwei Dritteln um die Ebene des scharfen Fokus erwarten (ein Drittel des DoF vor der Fokusebene; zwei Drittel dahinter). Das deutet also auf einen deutlich größeren „Sensor“ als APS-C, Vollformat oder sogar Mittelformat hin. Erfahrungen mit den Formaten 4x5 und 8x10 sagten mir, dass es eher ein 8x10 sein würde (obwohl auch eine der seltenen Großformatkameras nicht ausgeschlossen gewesen wäre), und ich hielt das 210mm-Objektiv für wahrscheinlicher als, sagen,

Wie Michael Nielsen betonte, ist in den Bildern viel „Mikrokontrast“ zu sehen, aber bis zu einem gewissen Grad können Sie das in der Nachbearbeitung vortäuschen, insbesondere wenn das Ziel darin besteht, in Webby-Größen zu rendern. Und ich nehme an, Sie könnten sogar den DoF und die Fokusebene fälschen, wenn Sie gewissenhaft eine Tiefenkarte mit einer Gradienten-Fokusebene erstellen, die auf ein 3D-Modell des Motivs angewendet wird, und die Fokusdynamik eines 8x10 bei verstehen ca. 50-60% Reproduktion in Lebensgröße, aber das wäre verdammt viel Arbeit. Die wirtschaftliche Lösung, sowohl für den Fotografen als auch für jeden, der das Bild analysiert, wäre eine echte 8x10-Fachkamera.

Das Erhöhen des Mikrokontrasts in der Nachbearbeitung führt jedoch zu Artefakten, und die Algorithmen "raten" die Details, sodass es nicht dasselbe Bild wäre.
@Michael aber in einer verkleinerten Reproduktion könnten diese für alle Zwecke nicht ersichtlich sein? Oder nicht?
War "bis zu einem gewissen Grad" mehrdeutig?
Meinen Sie, wenn Sie zuerst schärfen und dann die Größe ändern, wo die Verbesserung ausgelöscht wird, es sei denn, das Hochpassfilterfenster ist so groß, dass es ein Klingeln über den Rahmen einführt? Die Details in diesen Porträts sind so unglaublich, dass, wenn Sie einen 1x50-Pixel-Ausschnitt der Haut untersuchen, es wie ein Binärbild aussieht, das mit Schärfungsfiltern leicht Halo-Ringe erzeugen kann.
@MichaelNielsen Wenn Sie ein riesiges Downsample durchführen, können Sie Aliasing in ein völlig weiches Bild (ohne jeglichen Mikrokontrast) einfügen und ein extrem scharf aussehendes Bild ohne Lichthöfe oder andere Schärfungsartefakte erhalten. Ohne die geneigte Fokusebene könnten Sie anhand der offensichtlichen "Details" nicht erkennen, dass diese Bilder großformatig waren.
Ihr Beispielbild ist zu klein, um die Art von Details zu zeigen, über die wir sprechen, und die fraglichen 8x10-Bilder verlieren bei dieser Größe auch ihre Details. Die Auflösung auf der Originalseite ist genau richtig, um einen Detailgrad zu zeigen, der mit einer durchschnittlichen Point-and-Shoot-, Handy- und Apsc-Kamera selbst mit Nachbearbeitung schwer zu erreichen ist. Wie ich in meiner Antwort sagte, bin ich jedoch nicht davon überzeugt, dass ähnliche Ergebnisse nicht mit einem FF erzielt werden können.
@MichaelNielsen Die Frage dreht sich alles um Bilder, die zu klein sind, um diese Art von Detail zu zeigen! Es erwähnt ausdrücklich Auflösungen wie 496x620 und 720x900. Bei diesen Größen können Sie nicht einmal sagen, ob ein Bild scharf ist, geschweige denn, wie viel Mikrokontrast es hat. Ja, es gibt eine Größe, bei der der Unterschied deutlich wird, aber das ist eine andere Frage!
ja diese: daily-i-show.livejournal.com/106914.html , die Details zeigt, die mit einem 10-Mp-APS-C schwer zu erreichen sind (siehe Beispiele in meiner Antwort). Der Vorteil von Nah-Makro im Vergleich zu zu vielen Lichtstrahlen auf einem zu kleinen Bereich, unabhängig von der Auflösung. Die Details in Ihrem Beispiel sind leicht zu erhalten.
Es ist nicht nur eine Frage der Auflösung, sondern der Vergrößerung. Ihr Beispiel hat ein ~ 30 cm großes Gesicht, das auf meinem Bildschirm als 3 cm angezeigt wird, und sein Zwischenschritt auf dem Sensor betrug 2,4 cm. Die Bilder, über die wir hier sprechen, haben ein 30 cm großes Gesicht, das als 20 cm angezeigt wird, und seine Zwischenstufe auf dem Sensor betrug 25 cm.
@MichaelNielsen Die Vergrößerung unterscheidet sich grundlegend von der Auflösung. Diese Frage wurde speziell zur Auflösung gestellt.
Nicht, wenn das OP einen Unterschied feststellte, der nicht allein durch Auflösung erklärt werden konnte. Dann MÜSSEN Sie andere Konzepte einbringen, um die Erklärung zu finden.
Danke, macht Sinn. Zum Fälschen von DoF denke ich, dass die 3D-Modelle, die in der Computergrafik verwendet werden, so weit fortgeschritten sind, dass es hauptsächlich eine Frage der Zeit ist. Vielleicht ein zukünftiges Plugin für Lightroom/Photoshop 10? :)

Nein, eine hochauflösende Kamera spielt wirklich keine Rolle, wenn die Ausgabe eine niedrige Auflösung hat, zumindest nicht, wenn Sie von zweistelligen Megapixeln auf ein Viertel Megapixel heruntergehen. Nehmen Sie das folgende Bild:

Für das Internet angepasst, sieht es gut aus, obwohl das Gesicht des Motivs nicht einmal im Fokus war! Es ist offensichtlich, wenn es zu 100 % betrachtet wird, und im Druck, aber Sie können es absolut nicht erkennen, wenn es auf 2 % seiner ursprünglichen Pixel skaliert und für das Internet geschärft wurde.

Hier ist ein weiteres Beispiel, nehmen Sie ein massiv weiches Originalbild mit etwa 8 Megapixeln:

Führen Sie ein starkes Downsampling auf eine webfreundliche Auflösung durch und schärfen Sie, und sehen Sie sich plötzlich den ganzen Mikrokontrast an!

Ein 2-faches Oversampling hilft definitiv bei der Auflösung und Farbtreue von Bayer-Bildern. Aber ein Bild aus dem ursprünglichen Canon Digital Rebel (300D), das vor langer Zeit im Jahr 2003 auf 600 x 400 verkleinert wurde, ist ein 5-faches Oversampling, was bedeutet, dass jedes Pixel im verkleinerten Bild 25 Originalpixel ersetzt. Sehr, sehr wenig von der Qualität dieser 25 Pixel wird sich auf das in der Größe geänderte Bild auswirken.

Der erhöhte Mikrokontrast, den ein System mit größerem Format bietet, wird einfach nicht sichtbar sein, der Makrokontrast, den Sie sehen, kann durch Nachbearbeitung ausgeglichen werden, wenn Sie so viel Auflösung haben, um die Schärfungsartefakte wegzuwerfen, werden nicht sichtbar sein.

Wenn Sie die Schärfentiefe anpassen, wäre es äußerst schwierig, den Unterschied zwischen einer 10x8-Fachkamera und einer Kompaktkamera zu erkennen, wenn die Größe auf weniger als 1 Megapixel geändert wird.

Kann ich sein Gesicht in der gleichen Größe wie die Porträts sehen?
Ja, wenn ich nach Hause komme und die Originale ausgrabe!
Ich muss der unverblümten Aussage "eine hochauflösende Kamera spielt wirklich keine Rolle, wenn die Ausgabe eine niedrige Auflösung hat" widersprechen. Oversampling und Vergrößerungsverhältnisse spielen in den Endergebnissen eine Rolle (bis zu einer bestimmten Grenze).
Sie erhalten schöne Details im kleinen Bild, genau weil Sie so oft überabgetastet haben. Wenn Sie nur 2x Oversampling mit der gleichen Menge an Unschärfe verwendet hätten, hätten Sie keine der Hautdetails erhalten. Und du hast es mit dem Schärfen übertrieben, sein Haar sieht komisch aus. Außerdem sieht diese Aufnahme wie ein typisches Low-End-Bild aus. Nichts wie die Bilder, über die wir sprechen, die mehr Details enthalten, als ein APS-C-System mit einem anständigen Objektiv produzieren kann.
Vielen Dank für das neueste Beispiel, es lässt glaubhaft erscheinen, dass so etwas wie die in der Frage verlinkten Bilder mit einem APS-C-Sensor erstellt werden könnten. @MichaelNielsen Aber das ist die Art von Oversampling, um die es in der Frage geht, z. B. das Herunterskalieren einer 16-Mpx-APS-C-Aufnahme auf eine Webgröße von <1 Mpx. Kann also in Bezug auf das Oversampling ein 7-faches Oversampling (49 Pixel Eingang zu 1 px Ausgang) sichtbar besser sein als ein 5-faches Oversampling? Ich neige zu "wahrscheinlich nicht", in Ihrem Beispiel mit den Zeilen kann ich über das 4-fache Oversampling hinaus keinen großen / keinen Unterschied erkennen.
@MichaelNielsen Aber danke für deine Beispiele. Es gibt noch einige Unterschiede, die ich nicht erklären kann, aber ich glaube nicht, dass es unter die Überschrift "Auflösung" fällt. Ich könnte mich natürlich irren :) - Ich muss selbst ein paar Experimente machen.
Denken Sie daran, dass ich, wenn ich Auflösung sage, von der Gesamtsystemauflösung spreche, bei der ein 1000-Pixel-FF eine höhere Auflösung als 1000 Pixel aps-c und ein 1000-Pixel-MF mehr als ein 1000-Pixel-FF hat. Aus diesem Grund gibt es in diesen Bildern so erstaunliche Details, die Matt und ich in unseren Beispielen nicht reproduzieren konnten.
@MichaelNielsen Stimmen Sie zu, dass größere Sensoren eine höhere Systemauflösung haben. Nach den DxOMark-Zahlen liefert ein Low-End-Objektiv auf einem 16-Mpx-APS-C-Sensor nicht mehr als 4 Mpx an Details. Aber 4 Mpx an Details sind immer noch ~ 3x Oversampling bei Webgröße, also würde ich keinen großen Unterschied zu einem MF erwarten, der ~ 6x erreichen könnte. Vielleicht übertreibt DxOMark ihre "wahrnehmungsbezogene Mpx" -Zahl, ich denke, sie basiert auf MTF 20 . Es ist also denkbar, dass ein MF-Foto in Webgröße eine MTF von ~100 hat, während ein APS-C-Foto in Webgröße weniger hat.
Denken Sie daran, die Auflösungsteiler zu quadrieren, wenn Sie MPs vergleichen. 4 MP ist nur die doppelte Auflösung von 1 MP. 16MP sind 2x die 4MP (Bayer-Muster allein könnte für die erste Reduzierung von 16MP auf 4MP verantwortlich sein. Und dann müssen wir uns mit dem Antialias-Filter und dem Linsen-COC befassen. Schnell sind wir unter 1MP :) Schauen Sie sich mein neues Beispiel an. Im aktualisiere meine Antwort mit.

Beim Rendern einer Szene mit feinen Details in ein Bild mit niedriger Auflösung ist es erforderlich, eine räumliche Filterung anzuwenden, um alle Inhalte zu entfernen, deren Frequenz über der Nyquist-Grenze liegt. Bei der Anwendung räumlicher Filterung gibt es zwei widersprüchliche Ziele:

  1. Inhalte, deren Ortsfrequenz niedrig genug ist, um angezeigt zu werden, sollten so wenig wie möglich gedämpft werden.

  2. Inhalte, deren räumliche Frequenzen ähnlich sind, sollten um ungefähr gleiche Beträge gedämpft werden.

Um zu sehen, wo die Ziele in Konflikt geraten, stellen Sie sich eine Szene mit einem Muster aus zusammenlaufenden Linien vor. Wenn der Abstand etwas nahe an der Nyquist-Grenze für die Zielauflösung liegt, die Linien aber immer genug voneinander getrennt sind, um klar angezeigt zu werden, ist es oft besser, sie klar zu zeigen, als sie zu verwischen. Wenn die Szene jedoch ein Muster konvergierender Linien enthält, die zu nahe kommen, um unterscheidbar zu sein, wäre es weniger störend, wenn die Linien allmählich verschwommen werden, wenn sich ihr Abstand der Auflösungsgrenze nähert, als wenn die Linien bis zu einem Punkt klar erscheinen, an dem sie sind scharfen Übergang zu einem soliden Grau.

In vielen Fällen hängt die optimale Art der Filterung für eine Szene von ihrem Inhalt ab und davon, welche Aspekte davon von Interesse sind. Das Erfassen einer Szene in einer Auflösung, die höher als das beabsichtigte Ausgabeformat ist, stellt sicher, dass alle Informationen, die im endgültigen Bild erwünscht sein könnten , erhalten bleiben. Informationen müssen herausgefiltert werden, bevor das Bild in einer niedrigeren Auflösung gerendert werden kann, aber die hochauflösende Erfassung ermöglicht es, die genauen Filtermethoden so anzupassen, dass sie optimal auf die Bedürfnisse der Szene abgestimmt sind (und möglicherweise verschiedene Methoden für unterschiedliche Teile einer Szene). Wenn Sie beabsichtigen, ein endgültiges Bild mit 640 x 480 zu rendern, wäre der Vorteil der Aufnahme mit 6400 x 4800 wahrscheinlich nicht viel größer als der von 1600 x 1200, aber es kann einige Vorteile haben, auf etwa 2,5x zu gehen.