Reichen 2 Megapixel für Bilder in HD-Auflösung?

HD-Bilder haben 1920 x 1080 = 2073600 Pixel = 2025 Kilopixel = 1,98 Megapixel.

Bedeutet das, dass wir mit einer 2-MP-Kamera HD-Bilder aufnehmen können? Wenn nein, warum nicht?

Ich will nicht pedantisch sein, aber ich denke, die akzeptierte Definition von Megapixel ist 1 Million Pixel, nicht 1.048.576. HD hätte also 2,07 MP
Ich denke, dass es aufgrund der Rundung im Allgemeinen keine Rolle spielt, ob "Megapixel" binär oder dezimal ist. Megapixel ist ein nützlicher Begriff, weil er zufällig in dem Bereich liegt, in dem wir mit den Digitalkameras (bisher) menschlich nützliche kleine Zahlen erhalten. Es wird selten verwendet, um einen genauen Wert zu bezeichnen – eine 16-Megapixel-Kamera erzeugt wahrscheinlich Fotos mit einer etwas anderen Größe als die einer anderen Marke. Aus dem gleichen Grund ist „Kilopixel“ kein richtiges Wort, weil es keinen besonderen Fall gibt, in dem es nützlich wäre.
Grundsätzlich ja. In der Praxis verwenden die meisten Menschen den Begriff HD nicht im Zusammenhang mit Fotografie, es sei denn, sie verwenden ihn für Marketingzwecke, da Unternehmen den Begriff HD heute offenbar überall verwenden wollen. Wenn Sie Bilder auf einem 1080p-Fernseher anzeigen, sehen 2 MP großartig aus.
Meiner Meinung nach ist eine hohe Auflösung fast immer gut, da Sie unnötige Teile, die Sie nicht benötigen, ausschneiden und die guten Teile des Fotos extrahieren können. Wenn Sie an der Auflösung sparen müssen, ist es schwieriger, großzügig zu fotografieren.

Antworten (4)

Wenn die Auflösung lange Achse mindestens 1920 und die kurze Kante mindestens 1080 beträgt, dann ja, Sie können HD-Bilder aufnehmen, ohne hochskalieren zu müssen.

Aufgrund der Vorteile des Oversampling erhalten Sie jedoch ein besseres HD-Bild, indem Sie ein 16-Megapixel-Bild aufnehmen und dann die Größe mit der besten verfügbaren Größenänderungsmethode ändern, z. B. Lanczos-Interpolation, falls verfügbar.

Ein weiteres Problem, auf das Sie möglicherweise stoßen, besteht darin, dass eine 2-Megapixel-Kamera nicht im Hinblick auf eine qualitativ hochwertige Bildgebung entwickelt wurde (*es sei denn, Sie sprechen von etwas wie einer Canon EOS D2000 von 1998, die sowieso das falsche Seitenverhältnis hat), sodass sie keine Kosten gespart haben nur der Sensor, aber auch der Rest des Bildgebungssystems - Low-End-Optik, ADC, Verarbeitung usw., was zu einer niedrigeren Gesamtsystemauflösung und einem niedrigeren IQ führt.

Ich würde wetten, dass 90 % der Fotografen, die von dieser Frage profitieren könnten, nicht wissen, was "Lanczos-Interpolation" ist. ;PI würde den Ausdruck "etwas grundlegendes Herunterskalieren in Photoshop" verwenden, was mehr als gut genug ist, um Pixel zu mitteln, Rauschen zu reduzieren und die Schärfe eines 1920x1080-Ausgabebildes zu verbessern.
Erinnern Sie sich an meine Oversampling-Bildtests in einer anderen Frage, bei der ich gezeigt habe, dass feine Texturen in der herunterskalierten Version bestehen bleiben, während das direkte Aufnehmen mit dieser Auflösung die Textur nicht erfasst? Ich stellte fest, dass das Endergebnis auf der Verwendung der besten verfügbaren Größenänderungsmethode beruhte. Ich glaube, das kann ich schreiben :)
@jrista Ich weiß nicht, wie die Situation in den USA ist, aber hier in Europa sind Lanczos und andere Kernel-basierte Filter Teil des Vorschullehrplans;)
@jrista Warum nicht mehr Informationen bereitstellen? Ich weiß nicht, was es ist, aber weil Michael es erwähnt hat, bin ich in der Lage, Nachforschungen über Interpolationsmethoden anzustellen, um mehr herauszufinden.

Nein, wegen dem Bayer-Filter. Eigentlich bräuchte man rund 11 Megapixel.

Was ein Bayer-Filter ist

Farbkamerasensoren verwenden Bayer-Filter, um die verschiedenen Farben zu erfassen. Der Bayer-Filter halbiert effektiv die Auflösung des Sensors für jede Farbe (obwohl Grün etwas mehr in einem Schachbrettmuster übrig bleibt).

Jedes Pixel auf dem Sensor kann nur entweder rotes, grünes oder blaues Licht erfassen , aber nicht alle drei Farben. Ein Softwarealgorithmus muss die Daten später interpolieren, um das Foto mit voller Auflösung in voller Farbe zu rekonstruieren.

Demosaicing

Dieser Interpolationsprozess (genannt Demosaicing ) wird einen Großteil der effektiv verlorenen Auflösung visuell wiederherstellen, wodurch es wieder ziemlich scharf aussieht, aber dies kann nur durch ziemlich intelligente Vermutungen geschehen. Es ist nicht dasselbe, als hätten Sie das Bild überhaupt in voller Auflösung aufnehmen können.

Während beispielsweise Demosaicing ziemlich gut darin ist, verlorene Schärfe vom Bayer-Filter zurückzugewinnen, leiden feine Details wie Haare, kammartige Muster oder feine Streifen wahrscheinlich unter Aliasing , das sich als bunte Interferenzmuster zeigen kann:

( Quelle )

(Diese Bilder zeigen zur Veranschaulichung sehr schlechte Demosaicing-Algorithmen. Moderne Kameras – sogar Mobiltelefone – verwenden viel intelligentere.)

Moderne Demosaicing-Algorithmen sind ziemlich schlau und können den Aliasing-Effekt minimieren, aber die feinen Details können immer noch nicht beibehalten werden. Ein entfernter Lattenzaun, der mit einem 1920 x 1080-Farbsensor aufgenommen wurde, behält eine weniger effektive Auflösung als ein RGB-1920 x 1080-Bild, das computergeneriert oder von einem größeren Sensor herunterskaliert oder auf einem Scanner gescannt wird.

Wie sich dies auf die Auflösung auswirkt

(und wie ich auf die Zahl "11 Megapixel" gekommen bin)

Die effektive Auflösung des resultierenden Bildes nach dem Demosaicing sieht nicht so aus, als wäre es die Hälfte der vom Sensor beanspruchten Auflösung, aufgrund der Vorteile, die durch intelligente Demosaicing-Routinen erzielt werden, und der Tatsache, dass der grüne Kanal, der gut mit der Luminanz korreliert, mehr hat Auflösung als die anderen Farben.

Aber es müsste immer noch um 50 % verkleinert werden, um jeglichen Verlust aufgrund von Interpolation zu beseitigen. Wenn Sie wirklich sicherstellen möchten, dass Ihr Bild "volle Auflösung" hat, ohne dass Details durch Interpolation verloren gehen, benötigen Sie einen Farbsensor mit der doppelten gewünschten Auflösung sowohl in horizontaler als auch in vertikaler Richtung und müssen dann neu abtasten das resultierende Bild auf 50 %.

Um die volle effektive Auflösung von 1920 x 1080 zu erfassen, müsste ein Farbkamerasensor (mit einem Bayer-Filter, der 99 % der Farbkamerasensoren enthält) eine doppelt so hohe Auflösung haben: 3840 x 2160. Das sind über 8,2 Megapixel. Aufgrund des Zuschneidens auf dem Sensor (wiederum aufgrund der Demosaicing-Methode der Kamera) würden Sie effektiv etwa 8,8 Megapixel benötigen, um sicherzugehen.

Und das, wenn Ihr Sensor ein perfektes Seitenverhältnis von 16: 9 hätte. Wenn Ihr Sensor ein Seitenverhältnis von 3:2 hat, benötigen Sie etwa 10,7 Megapixel, um ein Bild mit 3840 x 2160 aufzunehmen, einschließlich verworfener Bereiche oben und unten, um das Seitenverhältnis auszugleichen, und einem kleinen Rand, um eventuelle Demosaicing-Zuschnitte zu berücksichtigen .

Sensoren ohne Bayer-Filter

Während 99 % der Farbkamerasensoren Bayer-Filter verwenden, gibt es einige, die ein alternatives Pixellayout verwenden, aber das Prinzip ist dasselbe.

Es gibt auch einige Farbsensoren, die überhaupt keinen Farbfilter benötigen, wie z. B. der Fovean X3-Sensor , aber diese sind immer noch außergewöhnlich selten und haben ihre eigenen Probleme. Hersteller neigen auch dazu, über ihre Pixelanzahl zu lügen (um mit Sensoren mit Bayer-Filter konkurrenzfähig zu sein, bei denen die Pixelanzahl aufgrund des oben beschriebenen Filters immer viel beeindruckender klingt, als sie wirklich ist).

Eine andere Alternative, die von einigen teuren professionellen Videokameras verwendet wird, besteht darin, drei völlig separate Sensoren zu haben, einen für Rot, Grün und Blau, und einen Lichtteiler zu verwenden, um das gleiche Bild auf alle drei zu werfen. Offensichtlich kann dies in einer DSLR- oder Kompaktkamera oder einer normalen Standbildkamera für Verbraucher nicht existieren. Aber es kann erklären, warum die Pixelzahlen auf den Sensoren professioneller Videokameras nicht mit denen auf DSLRs verglichen werden können.

Aber Video verwendet sowieso Chroma-Subsampling!

(Nur für technische Köpfe)

Obwohl Video (und manchmal JPEG) Chroma-Subsampling verwendet, benötigt es immer noch den Luminanzkanal, um die volle Auflösung beizubehalten. In einem Bild von einem Bayer-Sensor muss der Luminanzkanal immer noch mit einem Interpolationsprozess berechnet werden, obwohl es mit einem guten Demosaicing-Algorithmus aufgrund der hohen Korrelation zwischen Luminanz und dem grünen Kanal in den meisten Fällen so aussehen kann, als würde er sich der vollen Auflösung nähern Inhalt.

Ihre 11-Megapixel-Mathematik geht davon aus, dass Bayer-Demosaicing keinen Wert hat. Vernünftige Leute können sich darüber streiten, wo die genaue Zahl ist, aber es ist sicherlich etwas weniger Dramatisches.
Wie kann ein 3840 x 1216-Frame, der bereits vor der Verkleinerung interpoliert wurde, genauer sein als ein 1920 x 1080-Frame, der aus einem 1920 x 1080-Bayer-Array interpoliert wurde? Es scheint mir, dass wir die RGB-Kanäle des größeren Bildes uninterpoliert halten müssten. Es müsste doppelt so breit und hoch sein, damit ein R-, ein B- und ein 2 G-Pixel in jedem Pixel eines 1920 x 1080-Frames kombiniert und nicht interpoliert werden können.
@mattdm Die 2x-Zahl basiert einfach auf dem minimal erforderlichen Downsampling, um jegliche Auswirkungen der Interpolation vollständig zu eliminieren . Sie haben Recht, dass der Bayer-Filter die effektive Auflösung des resultierenden Bildes nicht vollständig halbiert - er bewahrt mehr Details als das. Um jedoch einen Interpolationseffekt vollständig zu eliminieren, muss die Auflösung halbiert werden.
Es ist spät und ich bin etwas müde, aber geht Ihre Mathematik nicht davon aus, dass das 4x4-Bayer-Array ein diskretes Pixel ohne Überlappung ist?
Wenn Sie 2x2 meinen, dann ist das die effektive Annahme, ja. Es basiert auf der 2x-Zahl, die das Minimum ist, das für das Downsampling von den Originaldaten erforderlich ist, um jegliche Notwendigkeit einer Interpolation vollständig zu eliminieren. Ich behaupte jedoch nicht, dass jede 2x2-Gruppe von Bayer-Pixeln nicht mehr Informationen speichert als ein einzelnes RGB-Pixel.
Ja, ich sagte, es sei spät ... :) 2x2 ist das, was ich meinte. Wenn ich mich jedoch erinnere, überschneidet sich der Algorithmus für das Demosaikieren von Sensoren so, dass ein 4x4-Array tatsächlich Daten im Wert von 9 Pixeln liefern würde. Ich könnte mich aber sehr irren.
Du hättest Recht. Demosaicing-Algorithmen müssen , um Muster zu erkennen, bei ihrer Berechnung eine Reihe von umgebenden Pixeln berücksichtigen. Das ist auch der Grund, warum kamerainterne Demosaicing-Algorithmen dazu neigen, einige Pixel vom Rand des Bildes wegzuschneiden – der Rand würde den einfacheren, eingebetteten Demosaicing-Algorithmus verwirren.
Ich lehne diese Antwort ab, obwohl sie gut geschrieben ist, und hier ist der Grund: Fast jede Kamera liefert durch Bayer-Interpolation Bilder mit der gleichen Anzahl von Pixeln wie ihr Sensor. Dies wird allgemein akzeptiert. Wenn man von einem 12-Megapixel-Digitalfoto spricht, können wir davon ausgehen, dass es von einer 12-Megapixel-Kamera stammt, die technisch gesehen einen 12-Megapixel-Sensor hat. Auf der anderen Seite sprechen wir über die Auflösung, aber wir müssen die Seitenverhältnisse und die Bildqualität als Ganzes ansprechen. Interpolation ist mit dem damit verbundenen Qualitätsverlust vorhanden, aber das ist ein anderes Problem.
MattiaG: Ich sehe nicht, dass diese Antwort jemals impliziert, dass ein X-MP-Bild von einem Y-mP-Sensor (wobei Y ~ X/2 ) stammt. Er sagt (richtig), dass Sie die Auflösung verdoppeln müssen (in beiden Dimensionen, was zu einem x4-Faktor führt, um feine Details zu erfassen, die aufgrund von Bayer-Mustern nicht durcheinander gebracht werden (im Detail schlagen die Annahmen der Algorithmen tatsächlich fehl). die MPs Und Clark: Es hilft, zuerst die feineren Details zu interpolieren und dann zum Verkleinern erneut zu sampeln, weil es die maximale Frequenz im Signal, das Sie erfassen können, verdoppelt.
Und bei der Interpolation erraten Sie unbekannte Daten, was immer bedeutet, dass Sie Annahmen treffen, während Sie beim Resampling bekannte Daten neu interpretieren, damit sie zuverlässiger sind.
Ich denke, dass 11 Megapixel zu viel sind, aber es ist immer noch die beste Antwort, da die anderen Bayer-Filter und die Farbauflösung vollständig ignorieren
Die erste Illustration in dieser Antwort ist völlig falsch und falsch. Werfen Sie einen Blick auf die Reaktionskurve eines beliebigen maskierten Bayer-Sensors, und es ist offensichtlich, dass einige der anderen beiden Farben (eigentlich ein Wellenlängenbereich) es durch jeden Filter schaffen. Dasselbe gilt für die Zapfen in der menschlichen Netzhaut. Unser Gehirn konstruiert „Farbe“ aus dem Intensitätsunterschied zwischen den dreien. Ich habe noch nie einen maskierten Bayer-Sensor ohne Überlappung zwischen den rot-, grün- und blaugefilterten Sensoren gesehen, und Sie auch nicht.
Da außerdem fast alle Details, die wir oft als „Auflösung“ bezeichnen, im grünen Band für das menschliche Sehen vorkommen, geben selbst sehr grobe Demosaicing-Algorithmen einem maskierten Bayer-Sensor etwa die Hälfte der Auflösung der Gesamtzahl von Pixeln. Sehr gute Algorithmen können es näher an 1/√2 bringen.

Sie haben recht, dass ein 1080p-HD-Bild knapp 2 Megapixel hat .

Jetzt müssen Sie vorsichtig sein, wenn Sie das Seitenverhältnis Ihrer Kamera berücksichtigen. Wenn sie nativ 16:9-Bilder schießt und 2 MP hat, dann hättest du genug Auflösung. Wenn die Kamera einen 4:3-Sensor hat, was bei kleinen Kameras am häufigsten vorkommt, würde eine 2-MP-Kamera höchstwahrscheinlich ein Bild mit 1680 x 1260 aufnehmen. Dadurch erhalten Sie leider keine ausreichende horizontale Auflösung.

Andererseits erzeugt eine 3-MP-Kamera mit einem 4:3-Sensor normalerweise 2048 x 1536-Bilder, was ausreicht, um herunterzuskalieren und auf ein 1080p-Bild zuzuschneiden.

Es gibt drei gängige High-Definition-Videomodi: Videomodus: Bildgröße (BxH): Pixel im Bild (Auflösung) Scantyp

  1. 720p 1.280 x 720 921.600 (fast 1 MP) Progressiv
  2. 1080i 1.920 x 1.080 2.073.600 (>2MP) Interlaced
  3. 1080p 1.920 x 1.080 2.073.600 (>2 MP) Progressiv

es hängt davon ab, welche Nutzung Sie planen. Wenn Sie Ihr Video auf eine große Leinwand (z. B. Projektor) projizieren möchten, verwenden Sie einen höheren Videomodus von mindestens 1080p, was natürlich eine höhere Auflösung (dh mehr Megapixel) für eine reibungslose Projektion des Bildes erfordert. Beachten Sie auch, dass eine höhere Auflösung einen höheren Speicherplatzverbrauch auf einer Speicherkarte bedeutet und eine höhere Ausstattung Ihres PCs für die Videobearbeitung erfordern würde. Wenn Sie jedoch eine kleine Bildschirmprojektion planen (Laptop, PC), würde 720p ausreichen.

Besonderer Hinweis zum Scantyp Progressiv - ist eine Methode zum Anzeigen, Speichern oder Übertragen von bewegten Bildern, bei der alle Zeilen jedes Frames nacheinander gezeichnet werden. Der Hauptvorteil von Progressive Scan besteht darin, dass Bewegungen glatter und realistischer erscheinen.

Interlaced – häufig im analogen Zeitalter von TV und CRT verwendet, ist eine Technik zur Verdopplung der wahrgenommenen Bildrate, die mit dem Signal eingeführt wird, ohne zusätzliche Bandbreite zu verbrauchen. Das Hauptproblem dabei ist das Interline-Twitter. Beispielsweise kann eine Person im Fernsehen, die ein Hemd mit feinen dunklen und hellen Streifen trägt, auf einem Videomonitor erscheinen, als würden die Streifen auf dem Hemd "zwitschern". Dieser Aliasing-Effekt tritt auf, wenn das Motiv vertikale Details enthält, die sich der horizontalen Auflösung des Videoformats annähern.