Wie viele „Megapixel“ kann das menschliche Auge sehen?

Es gibt offensichtlich eine Grenze dessen, was der menschliche Körper verarbeiten kann, wie z. B. Bilder pro Sekunde. Meine Frage ist, wie viele Megapixel würde es brauchen, bis das menschliche Auge es nicht mehr vom Leben unterscheiden kann?

Bonus für die Aufnahme einer Antwort für andere Arten.

Die „Grenzen“, die Sie für offensichtlich halten, sind nicht einmal im Entferntesten offensichtlich. Zum einen haben unsere Augen und unser Gehirn keine Bilder pro Sekunde. Zweitens sehen wir letztendlich mit unserem Gehirn, nicht mit unseren Augen, was das Problem noch komplizierter macht.
Manchmal müssen Sie eine Analogie zu einer bekannten quantifizierbaren Quelle angeben, um die Frage vollständig zu verstehen.
@whatsisname Wir sehen mit unserem Gehirn? Sicherlich läuft es darauf hinaus, dass OP wissen möchte, ob er eine Linse auf ein Auge und das Auge auf einen Computer gehackt hat, was die Obergrenze der Informationen ist, die er bekommen könnte.
Es gibt Macken des menschlichen Gehirns, die diese Frage knifflig machen, wie Falschfarben und so.

Antworten (10)

Fragen zu Dingen wie Bildrate, Auflösung oder Dynamikbereich des menschlichen Auges und wie sie im Vergleich zu Kameras immer die gleichen Probleme haben:

  1. Das „Bild“, das Sie sehen, ist keine „Einzelbelichtung“, das Auge bewegt sich ständig und passt sich an.

  2. Der Teil des Tee-Gehirns, der für das Sehen zuständig ist, ist wirklich gut (und ziemlich groß), er kombiniert ständig die "Frames", die vom Auge kommen, und füllt die Lücken.

Grundsätzlich ist jedes Bild, das Sie mit Ihren Augen sehen, ein HDR-Panorama, das mit inhaltsbewusster Füllung fixiert wurde (und genau wie bei einer Kamera können Sie HDR-Panoramen mit beliebig hoher Auflösung und DR erstellen).

Außerdem funktioniert das Auge/Gehirn tatsächlich nur auf den Teil der Szene, auf den Sie sich konzentrieren, Sie erhalten eine erstaunlich hohe Auflösung für den winzigen Teil der Welt, an den Sie gerade denken – für den Rest der Szene nicht wirklich überhaupt "sehen", man muss es nur wirklich bemerken, wenn etwas Gefährliches auf einen zukommt (deshalb lenkt die Bewegung an den Seiten so ab).

Das ist im Grunde der Grund, warum das, was wir „sehen“, in einer viel höheren Auflösung ist, als die physikalischen Eigenschaften unserer Augen es uns erlauben, es wirklich zu registrieren. Der schärfste Teil liegt zudem genau in der Mitte unseres Gesichtsfeldes, näher am Rand lässt die Auflösung schnell nach.
@Emiel - nicht genau das Zentrum - um das genaue Zentrum herum, genau in der Mitte haben wir einen günstig gelegenen blinden Fleck
Weder die Fovea noch der blinde Fleck liegen genau auf der optischen Achse, aber die Fovea ist näher als der blinde Fleck.
Noch etwas zu beachten: Die Augen sind eine ziemlich lockere Sache, wenn Sie einen Blick auf ein Auge werfen, das sich in Zeitlupe bewegt, können Sie feststellen, dass es herumzittert. Mit diesem Jitter interpoliert unser Gehirn die Bilder, die es erhält, um die gesehene Auflösung zu erhöhen.

Wenn Sie sich die Spezifikationen des menschlichen Auges so ansehen, als wäre es eine Kamera, werden Sie feststellen, dass es ziemlich niedrig spezifiziert ist.

  • Sehr niedrige Pixelauflösung – sehr wenige Megapixel – wobei die meisten Pixel auf einen sehr kleinen Bereich in der Mitte konzentriert sind. Praktisch keine Fähigkeit, feine Details außerhalb eines kleinen Bereichs in der Mitte des Rahmens zu unterscheiden.

  • Schreckliche extreme chromatische Aberration, sphärische Aberration und Rauschen.

  • Die minimale und maximale Fokussierentfernung verschlechtert sich mit zunehmendem Alter, und viele Modelle weisen bereits ab Werk Defekte auf.

Das alles zählt jedoch nicht, weil es keinen Sinn macht, das Auge wie eine Kamera zu vermessen: Das Bild, das wir sehen, wird von unserem Gehirn erzeugt, das unzählige Bilder, die unsere Augen aufgenommen haben, fehlerfrei und kontinuierlich zusammenfügt und verarbeitet.

Während das Auge nur einen sehr kleinen Bereich in der Mitte unseres Sehvermögens hat, der wirklich in der Lage ist, Details zu erkennen, verfügt das Gehirn über einen motorischen Mechanismus, der das Auge herumschwenkt, um Hunderte von schnellen Abtastungen des Bildes nacheinander aufzunehmen , fügt dies dann zu einem großen Bild zusammen (mit drei Dimensionen und Bewegung!).

Sie würden Hunderte von Megapixeln Auflösung und eine praktisch makellose Linse benötigen, um das zusammengesetzte Bild zu reproduzieren, das das Gehirn zusammensetzt, obwohl das isolierte Auge bei weitem nicht zu so etwas Gutem fähig ist.

Woher hast du <1MP?
Nur eine Schätzung - ich habe hauptsächlich nur versucht, einen Punkt zu veranschaulichen, dass unser Auge wirklich nicht viele Details sehen kann, außer in einem winzigen Bereich in der Mitte seines Sichtfelds.
Unser Auge hat ca. 6-7 Millionen Zapfen in den Augen, das wäre also die absolute Höchstauflösung. Da die Außenbereiche eher spärlich sind (siehe hyperphysics.phy-astr.gsu.edu/hbase/vision/rodcone.html ), denke ich, dass eine gute Schätzung bei etwa 6 Millionen Zapfen -> Megapixel liegen würde. Die Pixel auf dem Kamerasensor werden durch einen Bayer-Filter maskiert, so wie die Zapfen unserer Augen nur für bestimmte Farben empfänglich sind. <1M finde ich zu wenig.
einwandfrei könnte zu stark sein. Es scheint makellos zu sein, weil das Gehirn auch die Geschichte erzählen darf.

Wie viele "Pixel" das menschliche Auge erfasst, beantwortet die Frage nicht wirklich. Es ist nur gleichbedeutend, wenn beispielsweise das Bild, das Sie mit einer Kamera aufgenommen haben, vergrößert wird, um so groß zu sein, dass es das gesamte Sichtfeld des Betrachters einnimmt. Bei dieser Größe hätte das Originalfoto ungefähr 576 Mp groß sein müssen.

Details für ein Bild werden normalerweise in DPI (Punkte pro Zoll) gemessen, und selbst dann müssen die Größe und der Abstand zum Betrachter festgelegt werden, um zu bestimmen, wie dicht die Punkte sein müssen, damit das menschliche Auge nicht mehr ist erkennen können, dass es sich um Punkte handelt.

Hochwertiger Druck für den durchschnittlichen Leseabstand (18-24 Zoll) liegt in der Größenordnung von 5-10.000 DPI. Für ein quadratisches 1-Zoll-Bild (@10K) sind das genau 100 Mp ... für ein 1x1-Zoll-Bild.

Das Problem besteht darin, dass, obwohl eine allgemeine Szene vielleicht nur 576 Mp benötigt, das Auge, wenn es sich tatsächlich auf eine bestimmte Region konzentriert, seine ganze Schärfe auf diese Region zum Tragen kommt. Daher muss ein 1x1-Zoll-Bild eine viel höhere Dichte aufweisen, um das Auge zu "täuschen".

Um ein Bild groß genug und dennoch detailliert genug zu machen, um sich darauf konzentrieren zu können, ist die Anzahl der Megapixel riesig. Deshalb sieht man Brillen verwendet werden. Der Bildschirm ist viel näher am Auge, wodurch das Bild dichter und dennoch größer erscheint.

Angenommen, Sie haben eine 5-MP-Kamera. Das sind ungefähr 2.200 x 2.200 Pixel. Wenn der Sensor (CCD) ungefähr 1 Zoll x 1 Zoll groß ist, sind das ... Sie haben es 2.200 DPI erraten.

Jetzt blasen Sie das auf 8 in x 8 auf dem Foto auf, und es sind nur 275 DPI. Bei weitem nicht die 5000 DPI, die Sie für einen hochwertigen Druck benötigen. (allerdings wenn man es 8 mal so weit weg betrachtet ... )

Um ehrlich zu sein, 2K DPI ist für einen Standarddruck passabel (@Leseabstand), und wenn man ein Foto auf einem kleinen Bildschirm (oder Druck) betrachtet, sieht es viel "echter" aus.

Um ein 4x5 @ 5K DPI zu erhalten, benötigen Sie 500 Mp. @ 2K bräuchte man noch 80 Mp. Grob gesagt entspricht eine 24-MP-Kamera (CCD) der 35-mm-Filmqualität.

Natürlich gibt es viele Verbesserungstechniken, mit denen Sie die fehlende Dichte „auffüllen“ können, wenn Sie ein digitales Bild haben.

Aber wenn Sie große Bilder brauchen, können altmodische Filme in viel größeren Größen als CCDs gemacht werden (z .

Quelle für diese 576-MP-Nummer?
Ich muss die Verwendung von DPI in solchen Situationen wirklich unterdrücken. DPI steht für DOTS per Inch. Ein Punkt ist ein willkürliches Maß ... und es bedeutet verschiedene Dinge in verschiedenen Kontexten. Der einzig angemessene Begriff ist PPI, Pixel pro Zoll, da dies das kleinste vollständige Element des BILDES ist, mit dem Sie als Fotograf arbeiten können.
Ich muss auch darum bitten, dass auf die Postulationen in dieser Antwort verwiesen wird. Ich weiß, woher die 576-MP-Nummer kommt, aber es ist eine nicht referenzierte Nummer für jeden Gelegenheitsleser. Einige Ihrer Zahlen sind einfach falsch, es sei denn, Sie verwenden gemischte Bedeutungen für den Begriff „DPI“ (was ich bereits bemerkt habe, ist ein schrecklicher Begriff in diesem Zusammenhang.) FAKT hier ist, dass mit zunehmendem Betrachtungsabstand minimal erforderliche räumliche Druckauflösung VERRINGERT sich. Unter der Annahme einer leicht überdurchschnittlichen Sehschärfe (z. B. 20/18) würde ein Druck bei 18 Zoll nur 230 PPI benötigen. Angenommen, jemand mit hoher Sehschärfe ...
...wie 20/10, bräuchte man 280ppi. Bei 24 Zoll sinkt diese Zahl auf 210 ppi! (Bei den meisten Tintenstrahldruckern ist DPI ein fester Faktor ... Standardpunkte pro Zoll bei einem Canon sind immer 4800 x 2400; bei einem Epson sind es 5760 x 1440 ... unabhängig davon die tatsächliche Auflösung des gedruckten Bildes.) Es tut mir leid, aber Ihre Fakten sind verzerrt, verwirrt und in einigen Fällen einfach falsch. Bitte sehen Sie sich meine Antwort hier an .

Die Zahl 576MP, die hier von Roger Clark abgeleitet wird , ist eine EXTREM GROBE ANNÄHERUNG. Zum einen ist es eine konservative Schätzung bei einem FOV von 120º, wenn das menschliche Sehvermögen näher bei 180º liegt (was tatsächlich 1,3 GIGAPIXEL entspricht!!!). Es ignoriert auch die Tatsache, dass wir einen 2º "fovealen Fleck" in der Nähe des Zentrums von haben unsere Augen, wo unsere Sehschärfe am höchsten ist, und eine breitere Region von 10º, wo unsere Sicht anständig, aber nicht wirklich "gut" und sicherlich nicht ausgezeichnet ist (als schneller Test ... sehen Sie, wie viel Text in dieser Antwort tatsächlich vollständig klar ist , und wie viel ist tatsächlich undeutlich und unlesbar, wenn Sie genau dieselbe Stelle für eine gewisse Zeit betrachten ... Sie werden vielleicht überrascht sein, wie viel von Ihrem Bildschirm Sie nicht in wirklich sinnvollen Details analysieren können.) An der Peripherie unseres Sehvermögen, die Sehschärfe ist ziemlich gering, es mangelt an Farbtreue usw.

Meiner Meinung nach ist es nicht richtig, das menschliche Sehvermögen in Megapixeln zu beschreiben. Ich habe großen Respekt vor Roger Clark, aber sein Artikel muss ins rechte Licht gerückt werden: Er setzt maximale Sehschärfe über das gesamte Sichtfeld voraus! Die kritische Tatsache hier ist, dass unsere maximale Sehschärfe nur einen kleinen Bereich des zentralen Teils unseres Sehvermögens betrifft. Eine Region, die wahrscheinlich nicht einmal einen einzelnen 8 x 10 Zoll großen Druck abdeckt, der einen Fuß entfernt betrachtet wird ... was weniger als 9 Megapixel (3330 x 2664 Pixel) erfordert, um mit 333 ppi zu drucken ( die erforderliche Auflösung für einen Betrachtungsabstand von einem Fuß. )

Man würde theoretisch immer weniger Megapixel benötigen, um weiterhin Ringe von 8x10-Zoll-Drucken zu drucken, die einen zentralen umkreisen, um das gesamte menschliche Sichtfeld auszufüllen. Aus Sicht der realen Sehschärfe benötigt man wahrscheinlich 1/3 weniger Megapixel pro "Ring" von Abzüge (grobe Schätzung) und vielleicht vier Ringe von Abzügen, um das Sichtfeld vollständig „von Ecke zu Ecke“ auszufüllen .

Abgesehen davon ... glaube ich immer noch nicht, dass es genau oder nützlich ist, die menschliche Sehschärfe in Megapixeln zu beschreiben. Wir haben eine unterschiedliche Sehschärfe von der Mitte bis zum Rand unseres Gesichtsfeldes, mit einem schnellen Abfall außerhalb von vielleicht 4-5º zentraler Region mit hoher Sehschärfe.

Überblick.

Eine sehr schwierige, aber interessante Frage. Es gibt eine wichtige Sache, bevor wir anfangen. Das Gehirn löscht neben anderen superintensiven Verarbeitungen sofort unnötige Informationen und konzentriert sich auf Dinge, an die es sich zu erinnern lohnt. Was Sie „sehen“, entspricht nicht der technischen Fähigkeit des Auges. Aber was seine technischen Fähigkeiten betrifft; Es gibt eine Reihe von Schätzungen, von 5 bis über 500 Megapixel.

Hinweis: Keine dieser Berechnungen ist wissenschaftlich anerkannt.

Menschliche Augen.

Ein Mensch mit 20/20-Sehvermögen kann das Äquivalent einer 52-Megapixel-Kamera auflösen (bei einem Blickwinkel von 60°). Dies basiert darauf, dass jede Stäbchen- und Zapfenzelle ein Megapixel darstellen kann. Es gibt ungefähr 7 Millionen Zapfen (benötigen hohe Lichtstärken und liefern Farbe) und 120 Millionen Stäbchen (arbeiten bei schwachem Licht, geben keine Farbe aus, sind nicht immer aktiviert). Zusammen arbeiten diese, um irgendwo zwischen 50-500MP zu schaffen . (Wirklich ungefähr!). Weniger konservative Schätzungen gehen von über 500 Millionen Megapixeln aus.

Keiner dieser Artikel wurde einem Peer-Review unterzogen, daher gibt es für keine dieser Ideen eine wissenschaftliche Realisierbarkeit. Die Schätzung von 567 MP geht nicht von einem Standbild aus. Es berücksichtigt winzige Winkelschwingungen, die die Augen ausführen, um mehr Informationen zu sammeln. Die Schätzung berücksichtigt auch ein breiteres Sichtfeld (120˚) (daher hat es mehr MP als Fotorezeptoren).

Dieser Artikel bestreitet diese hohen Schätzungen und sagt, „solche Berechnungen sind irreführend“. Unter Dingen wie schwachem Licht und fehlender Verschlusszeit ergibt sich der bemerkenswerteste Unterschied zwischen einem Bild und Ihrem Sehvermögen aus der Art und Weise, wie sich Ihre Augen auf etwas konzentrieren.

Nur die zentrale Vision ist 20/20. Das Gesamtbild ist ziemlich weit weg von der Mitte. Nur 20° außermittig lösen unsere Augen nur ein Zehntel so viele Details auf. An der Peripherie erkennen wir nur großflächigen Kontrast und minimale Farbe. Auf dieser Grundlage ist ein einziger Augenaufschlag daher nur in der Lage, Details zu erkennen, die mit einer 5-15-Megapixel -Kamera vergleichbar sind (je nach Sehstärke). Das Auge muss dafür mehrmals hinsehen und auch dann bleiben nur die einprägsamen Texturen, Farben und Formen in Erinnerung.

Andere Tiere.

Falke. Dies ist wahrscheinlich das, was den Menschen als Greifvogel mit Adleraugen am besten vertraut sein wird. Sie haben eine etwa fünfmal höhere Dichte an Fotorezeptoren als wir, sagen wir also, sie haben ein Viertel Gigapixel ( 250 MP-5,5 GP ). Was an diesen Jungs besser ist als an uns, ist, dass sie viel mehr Nerven haben, die zum Gehirn gehen, als wir. Es gibt keine sichere Art zu sagen, dass eine bessere Auflösung angezeigt wird, aber es zeigt an, dass mehr Informationen von ihren Augen an das Gehirn weitergeleitet werden.

http://en.wikipedia.org/wiki/Hawk#Eyesight

Fangschreckenkrebse. Wir haben 3 Arten von Farbfotorezeptoren (Kegelzellen). Wissenschaftler haben 16 Farbrezeptoren in Fangschreckenkrebsen identifiziert. Offensichtlich übersteigt dies unser Verstandesverständnis. Außerdem hat das nichts mit der Auflösung zu tun, aber die Farbtiefe der Jungs ist phänomenal.

Sie sollten wahrscheinlich nicht danach fragen megapixels, das menschliche Auge ist ein komplexes System, nicht nur die "Matrix". Sie sollten besser nach der Reichweite fragen angular resolutions.

Suche es hier:

http://en.wikipedia.org/wiki/Naked_eye

http://en.wikipedia.org/wiki/Angular_resolution

Winkelauflösung: etwa 4 Bogenminuten oder etwa 0,07°,[1] was 1,2 m in 1 km Entfernung entspricht.

Nach dem, was ich gelesen habe, glaube ich, dass Sie bei der Erörterung des endgültigen Auflösungsvermögens des Auges berücksichtigen müssen, dass die Fovea der einzige Teil der Netzhaut ist, der in der Lage ist, die feinen Details zu unterscheiden. Die Größe dieser Region auf unserer Netzhaut ist ziemlich klein und erfordert, dass wir unsere Augen ständig anpassen, damit das „Objekt“ auf diesen Bereich fallen kann. Tatsächlich ist es so klein, dass wir, selbst wenn wir uns auf ein kleines Objekt konzentrieren, darüber scannen müssen, wir können nicht einmal die Details eines kleinen Objekts auf einmal auflösen. Wie groß ist ein Bereich, den wir mit maximaler Klarheit auflösen können, ohne unsere Augen herumzuwerfen? Dieser Bereich hat einen Durchmesser von etwa dem Abstand zwischen den beiden Punkten eines Doppelpunkts, der bei normaler Leseentfernung gelesen wird.

In Bezug auf Bilder pro Sekunde glaube ich, dass die Äquivalenz für Menschen 1/10 Sekunde beträgt. Probieren Sie ein Experiment aus – wenn Sie an einer Ampel anhalten, bemerken Sie, wie die Details der Leichtmetallräder an den Autos, die Ihren Weg kreuzen, verschwommen sind. Während Sie einem mit Ihren Augen folgen, klopfen Sie (nicht schlagen) auf die Seite Ihres Kopfes an der Schläfe. Dies wird Ihre Augen erschüttern und manchmal werden Ihre Augen für einen kurzen Moment mit einem Teil des Rades „schwenken“, der seine Details enthüllen wird.

Die einfache Antwort auf diese Frage wären 2 Megapixel. Ich meine es so. Hier ist eine wissenschaftliche Erklärung zu MindLabs .

Das menschliche Auge sieht überhaupt nicht gut. Wenn wir nah fokussieren, sind wir wirklich wählerisch, dass es gleich f1 sein kann. Die 99% der Szene sind zu verschwommen.

Wir haben auch einen blinden Fleck, der im obigen Link erklärt wird.

Auch können wir keine Szene einfrieren, die nicht einmal mit einer billigsten Kamera vergleichbar ist.

Um es zusammenzufassen, unser Auge ist schlecht, aber unser Gehirn kompensiert zu gut, dass wir alle glauben, dass wir besser sind als jede Kamera auf dem Markt.

Oder um es anders auszudrücken: Wir sind besser als jede Kamera auf dem Markt, aufgrund unserer erstaunlichen Nachbearbeitung.

576 Megapixel - das ist laut einem Artikel des Wissenschaftlers und Fotografen Roger Clark , der auch mehr über das menschliche Auge und seine Entsprechungen zur digitalen Technologie erzählt...

Der Artikel enthält die richtige Antwort, aber bitte fassen Sie die kritischen Teile in Ihrer Antwort zusammen.
Die Frage wurde speziell gestellt "Wie viele Megapixel". Diese Antwort bietet eine einfache, prägnante Antwort auf diese Frage und zitiert eine Referenz. Der kritische Teil ist die Zahl - 576 MP.
Ja, aber ich hätte gerne eine Erklärung dafür, warum diese Megapixel nicht direkt mit denen eines digitalen Bildes verglichen werden können.

Es gibt etwa 120 Millionen Stäbchen und etwa 6 Millionen Zapfen, also sollte die maximale theoretische Auflösung des menschlichen Auges (unter Berücksichtigung der perfekten optischen Lichtübertragung in der Netzhaut) bei einer wirklichen Zahl von 2 Megapixeln liegen (es braucht 3 Zapfen für ein RGB-Triplett). hoher Dynamikumfang in den Randbereichen (dafür sind die Ruten da).

Wollen Sie andeuten, dass die Stäbchen überhaupt nicht zu unserem Auflösungsvermögen beitragen?
Und übrigens, dass unser Gehirn keine Interpolation/Integration ähnlich dem Bayer-Demosaiking durchführt?
Nun, schauen Sie sich an, wie sie verteilt sind und wozu sie dienen (in der Peripherie des Auges, monochrome Nachtsicht) ... Ich würde nicht wagen zu sagen, dass sie viel für Dinge beitragen, die ein genaues Sehen erfordern, wie das Lesen ( aber sie sind natürlich nützlich, um sich nähernde Raubtiere zu sehen!). Und die reale räumliche Auflösung für ein demosaikiertes Bayern-Muster ist geringer als die von MPx gemeldete (fragen Sie die Foveon-Jungs: p).