Es gibt offensichtlich eine Grenze dessen, was der menschliche Körper verarbeiten kann, wie z. B. Bilder pro Sekunde. Meine Frage ist, wie viele Megapixel würde es brauchen, bis das menschliche Auge es nicht mehr vom Leben unterscheiden kann?
Bonus für die Aufnahme einer Antwort für andere Arten.
Fragen zu Dingen wie Bildrate, Auflösung oder Dynamikbereich des menschlichen Auges und wie sie im Vergleich zu Kameras immer die gleichen Probleme haben:
Das „Bild“, das Sie sehen, ist keine „Einzelbelichtung“, das Auge bewegt sich ständig und passt sich an.
Der Teil des Tee-Gehirns, der für das Sehen zuständig ist, ist wirklich gut (und ziemlich groß), er kombiniert ständig die "Frames", die vom Auge kommen, und füllt die Lücken.
Grundsätzlich ist jedes Bild, das Sie mit Ihren Augen sehen, ein HDR-Panorama, das mit inhaltsbewusster Füllung fixiert wurde (und genau wie bei einer Kamera können Sie HDR-Panoramen mit beliebig hoher Auflösung und DR erstellen).
Außerdem funktioniert das Auge/Gehirn tatsächlich nur auf den Teil der Szene, auf den Sie sich konzentrieren, Sie erhalten eine erstaunlich hohe Auflösung für den winzigen Teil der Welt, an den Sie gerade denken – für den Rest der Szene nicht wirklich überhaupt "sehen", man muss es nur wirklich bemerken, wenn etwas Gefährliches auf einen zukommt (deshalb lenkt die Bewegung an den Seiten so ab).
Wenn Sie sich die Spezifikationen des menschlichen Auges so ansehen, als wäre es eine Kamera, werden Sie feststellen, dass es ziemlich niedrig spezifiziert ist.
Sehr niedrige Pixelauflösung – sehr wenige Megapixel – wobei die meisten Pixel auf einen sehr kleinen Bereich in der Mitte konzentriert sind. Praktisch keine Fähigkeit, feine Details außerhalb eines kleinen Bereichs in der Mitte des Rahmens zu unterscheiden.
Schreckliche extreme chromatische Aberration, sphärische Aberration und Rauschen.
Die minimale und maximale Fokussierentfernung verschlechtert sich mit zunehmendem Alter, und viele Modelle weisen bereits ab Werk Defekte auf.
Das alles zählt jedoch nicht, weil es keinen Sinn macht, das Auge wie eine Kamera zu vermessen: Das Bild, das wir sehen, wird von unserem Gehirn erzeugt, das unzählige Bilder, die unsere Augen aufgenommen haben, fehlerfrei und kontinuierlich zusammenfügt und verarbeitet.
Während das Auge nur einen sehr kleinen Bereich in der Mitte unseres Sehvermögens hat, der wirklich in der Lage ist, Details zu erkennen, verfügt das Gehirn über einen motorischen Mechanismus, der das Auge herumschwenkt, um Hunderte von schnellen Abtastungen des Bildes nacheinander aufzunehmen , fügt dies dann zu einem großen Bild zusammen (mit drei Dimensionen und Bewegung!).
Sie würden Hunderte von Megapixeln Auflösung und eine praktisch makellose Linse benötigen, um das zusammengesetzte Bild zu reproduzieren, das das Gehirn zusammensetzt, obwohl das isolierte Auge bei weitem nicht zu so etwas Gutem fähig ist.
Wie viele "Pixel" das menschliche Auge erfasst, beantwortet die Frage nicht wirklich. Es ist nur gleichbedeutend, wenn beispielsweise das Bild, das Sie mit einer Kamera aufgenommen haben, vergrößert wird, um so groß zu sein, dass es das gesamte Sichtfeld des Betrachters einnimmt. Bei dieser Größe hätte das Originalfoto ungefähr 576 Mp groß sein müssen.
Details für ein Bild werden normalerweise in DPI (Punkte pro Zoll) gemessen, und selbst dann müssen die Größe und der Abstand zum Betrachter festgelegt werden, um zu bestimmen, wie dicht die Punkte sein müssen, damit das menschliche Auge nicht mehr ist erkennen können, dass es sich um Punkte handelt.
Hochwertiger Druck für den durchschnittlichen Leseabstand (18-24 Zoll) liegt in der Größenordnung von 5-10.000 DPI. Für ein quadratisches 1-Zoll-Bild (@10K) sind das genau 100 Mp ... für ein 1x1-Zoll-Bild.
Das Problem besteht darin, dass, obwohl eine allgemeine Szene vielleicht nur 576 Mp benötigt, das Auge, wenn es sich tatsächlich auf eine bestimmte Region konzentriert, seine ganze Schärfe auf diese Region zum Tragen kommt. Daher muss ein 1x1-Zoll-Bild eine viel höhere Dichte aufweisen, um das Auge zu "täuschen".
Um ein Bild groß genug und dennoch detailliert genug zu machen, um sich darauf konzentrieren zu können, ist die Anzahl der Megapixel riesig. Deshalb sieht man Brillen verwendet werden. Der Bildschirm ist viel näher am Auge, wodurch das Bild dichter und dennoch größer erscheint.
Angenommen, Sie haben eine 5-MP-Kamera. Das sind ungefähr 2.200 x 2.200 Pixel. Wenn der Sensor (CCD) ungefähr 1 Zoll x 1 Zoll groß ist, sind das ... Sie haben es 2.200 DPI erraten.
Jetzt blasen Sie das auf 8 in x 8 auf dem Foto auf, und es sind nur 275 DPI. Bei weitem nicht die 5000 DPI, die Sie für einen hochwertigen Druck benötigen. (allerdings wenn man es 8 mal so weit weg betrachtet ... )
Um ehrlich zu sein, 2K DPI ist für einen Standarddruck passabel (@Leseabstand), und wenn man ein Foto auf einem kleinen Bildschirm (oder Druck) betrachtet, sieht es viel "echter" aus.
Um ein 4x5 @ 5K DPI zu erhalten, benötigen Sie 500 Mp. @ 2K bräuchte man noch 80 Mp. Grob gesagt entspricht eine 24-MP-Kamera (CCD) der 35-mm-Filmqualität.
Natürlich gibt es viele Verbesserungstechniken, mit denen Sie die fehlende Dichte „auffüllen“ können, wenn Sie ein digitales Bild haben.
Aber wenn Sie große Bilder brauchen, können altmodische Filme in viel größeren Größen als CCDs gemacht werden (z .
Die Zahl 576MP, die hier von Roger Clark abgeleitet wird , ist eine EXTREM GROBE ANNÄHERUNG. Zum einen ist es eine konservative Schätzung bei einem FOV von 120º, wenn das menschliche Sehvermögen näher bei 180º liegt (was tatsächlich 1,3 GIGAPIXEL entspricht!!!). Es ignoriert auch die Tatsache, dass wir einen 2º "fovealen Fleck" in der Nähe des Zentrums von haben unsere Augen, wo unsere Sehschärfe am höchsten ist, und eine breitere Region von 10º, wo unsere Sicht anständig, aber nicht wirklich "gut" und sicherlich nicht ausgezeichnet ist (als schneller Test ... sehen Sie, wie viel Text in dieser Antwort tatsächlich vollständig klar ist , und wie viel ist tatsächlich undeutlich und unlesbar, wenn Sie genau dieselbe Stelle für eine gewisse Zeit betrachten ... Sie werden vielleicht überrascht sein, wie viel von Ihrem Bildschirm Sie nicht in wirklich sinnvollen Details analysieren können.) An der Peripherie unseres Sehvermögen, die Sehschärfe ist ziemlich gering, es mangelt an Farbtreue usw.
Meiner Meinung nach ist es nicht richtig, das menschliche Sehvermögen in Megapixeln zu beschreiben. Ich habe großen Respekt vor Roger Clark, aber sein Artikel muss ins rechte Licht gerückt werden: Er setzt maximale Sehschärfe über das gesamte Sichtfeld voraus! Die kritische Tatsache hier ist, dass unsere maximale Sehschärfe nur einen kleinen Bereich des zentralen Teils unseres Sehvermögens betrifft. Eine Region, die wahrscheinlich nicht einmal einen einzelnen 8 x 10 Zoll großen Druck abdeckt, der einen Fuß entfernt betrachtet wird ... was weniger als 9 Megapixel (3330 x 2664 Pixel) erfordert, um mit 333 ppi zu drucken ( die erforderliche Auflösung für einen Betrachtungsabstand von einem Fuß. )
Man würde theoretisch immer weniger Megapixel benötigen, um weiterhin Ringe von 8x10-Zoll-Drucken zu drucken, die einen zentralen umkreisen, um das gesamte menschliche Sichtfeld auszufüllen. Aus Sicht der realen Sehschärfe benötigt man wahrscheinlich 1/3 weniger Megapixel pro "Ring" von Abzüge (grobe Schätzung) und vielleicht vier Ringe von Abzügen, um das Sichtfeld vollständig „von Ecke zu Ecke“ auszufüllen .
Abgesehen davon ... glaube ich immer noch nicht, dass es genau oder nützlich ist, die menschliche Sehschärfe in Megapixeln zu beschreiben. Wir haben eine unterschiedliche Sehschärfe von der Mitte bis zum Rand unseres Gesichtsfeldes, mit einem schnellen Abfall außerhalb von vielleicht 4-5º zentraler Region mit hoher Sehschärfe.
Überblick.
Eine sehr schwierige, aber interessante Frage. Es gibt eine wichtige Sache, bevor wir anfangen. Das Gehirn löscht neben anderen superintensiven Verarbeitungen sofort unnötige Informationen und konzentriert sich auf Dinge, an die es sich zu erinnern lohnt. Was Sie „sehen“, entspricht nicht der technischen Fähigkeit des Auges. Aber was seine technischen Fähigkeiten betrifft; Es gibt eine Reihe von Schätzungen, von 5 bis über 500 Megapixel.
Hinweis: Keine dieser Berechnungen ist wissenschaftlich anerkannt.
Menschliche Augen.
Ein Mensch mit 20/20-Sehvermögen kann das Äquivalent einer 52-Megapixel-Kamera auflösen (bei einem Blickwinkel von 60°). Dies basiert darauf, dass jede Stäbchen- und Zapfenzelle ein Megapixel darstellen kann. Es gibt ungefähr 7 Millionen Zapfen (benötigen hohe Lichtstärken und liefern Farbe) und 120 Millionen Stäbchen (arbeiten bei schwachem Licht, geben keine Farbe aus, sind nicht immer aktiviert). Zusammen arbeiten diese, um irgendwo zwischen 50-500MP zu schaffen . (Wirklich ungefähr!). Weniger konservative Schätzungen gehen von über 500 Millionen Megapixeln aus.
Keiner dieser Artikel wurde einem Peer-Review unterzogen, daher gibt es für keine dieser Ideen eine wissenschaftliche Realisierbarkeit. Die Schätzung von 567 MP geht nicht von einem Standbild aus. Es berücksichtigt winzige Winkelschwingungen, die die Augen ausführen, um mehr Informationen zu sammeln. Die Schätzung berücksichtigt auch ein breiteres Sichtfeld (120˚) (daher hat es mehr MP als Fotorezeptoren).
Dieser Artikel bestreitet diese hohen Schätzungen und sagt, „solche Berechnungen sind irreführend“. Unter Dingen wie schwachem Licht und fehlender Verschlusszeit ergibt sich der bemerkenswerteste Unterschied zwischen einem Bild und Ihrem Sehvermögen aus der Art und Weise, wie sich Ihre Augen auf etwas konzentrieren.
Nur die zentrale Vision ist 20/20. Das Gesamtbild ist ziemlich weit weg von der Mitte. Nur 20° außermittig lösen unsere Augen nur ein Zehntel so viele Details auf. An der Peripherie erkennen wir nur großflächigen Kontrast und minimale Farbe. Auf dieser Grundlage ist ein einziger Augenaufschlag daher nur in der Lage, Details zu erkennen, die mit einer 5-15-Megapixel -Kamera vergleichbar sind (je nach Sehstärke). Das Auge muss dafür mehrmals hinsehen und auch dann bleiben nur die einprägsamen Texturen, Farben und Formen in Erinnerung.
Andere Tiere.
Falke. Dies ist wahrscheinlich das, was den Menschen als Greifvogel mit Adleraugen am besten vertraut sein wird. Sie haben eine etwa fünfmal höhere Dichte an Fotorezeptoren als wir, sagen wir also, sie haben ein Viertel Gigapixel ( 250 MP-5,5 GP ). Was an diesen Jungs besser ist als an uns, ist, dass sie viel mehr Nerven haben, die zum Gehirn gehen, als wir. Es gibt keine sichere Art zu sagen, dass eine bessere Auflösung angezeigt wird, aber es zeigt an, dass mehr Informationen von ihren Augen an das Gehirn weitergeleitet werden.
http://en.wikipedia.org/wiki/Hawk#Eyesight
Fangschreckenkrebse. Wir haben 3 Arten von Farbfotorezeptoren (Kegelzellen). Wissenschaftler haben 16 Farbrezeptoren in Fangschreckenkrebsen identifiziert. Offensichtlich übersteigt dies unser Verstandesverständnis. Außerdem hat das nichts mit der Auflösung zu tun, aber die Farbtiefe der Jungs ist phänomenal.
Sie sollten wahrscheinlich nicht danach fragen megapixels
, das menschliche Auge ist ein komplexes System, nicht nur die "Matrix". Sie sollten besser nach der Reichweite fragen angular resolutions
.
Suche es hier:
http://en.wikipedia.org/wiki/Naked_eye
http://en.wikipedia.org/wiki/Angular_resolution
Winkelauflösung: etwa 4 Bogenminuten oder etwa 0,07°,[1] was 1,2 m in 1 km Entfernung entspricht.
Nach dem, was ich gelesen habe, glaube ich, dass Sie bei der Erörterung des endgültigen Auflösungsvermögens des Auges berücksichtigen müssen, dass die Fovea der einzige Teil der Netzhaut ist, der in der Lage ist, die feinen Details zu unterscheiden. Die Größe dieser Region auf unserer Netzhaut ist ziemlich klein und erfordert, dass wir unsere Augen ständig anpassen, damit das „Objekt“ auf diesen Bereich fallen kann. Tatsächlich ist es so klein, dass wir, selbst wenn wir uns auf ein kleines Objekt konzentrieren, darüber scannen müssen, wir können nicht einmal die Details eines kleinen Objekts auf einmal auflösen. Wie groß ist ein Bereich, den wir mit maximaler Klarheit auflösen können, ohne unsere Augen herumzuwerfen? Dieser Bereich hat einen Durchmesser von etwa dem Abstand zwischen den beiden Punkten eines Doppelpunkts, der bei normaler Leseentfernung gelesen wird.
In Bezug auf Bilder pro Sekunde glaube ich, dass die Äquivalenz für Menschen 1/10 Sekunde beträgt. Probieren Sie ein Experiment aus – wenn Sie an einer Ampel anhalten, bemerken Sie, wie die Details der Leichtmetallräder an den Autos, die Ihren Weg kreuzen, verschwommen sind. Während Sie einem mit Ihren Augen folgen, klopfen Sie (nicht schlagen) auf die Seite Ihres Kopfes an der Schläfe. Dies wird Ihre Augen erschüttern und manchmal werden Ihre Augen für einen kurzen Moment mit einem Teil des Rades „schwenken“, der seine Details enthüllen wird.
Die einfache Antwort auf diese Frage wären 2 Megapixel. Ich meine es so. Hier ist eine wissenschaftliche Erklärung zu MindLabs .
Das menschliche Auge sieht überhaupt nicht gut. Wenn wir nah fokussieren, sind wir wirklich wählerisch, dass es gleich f1 sein kann. Die 99% der Szene sind zu verschwommen.
Wir haben auch einen blinden Fleck, der im obigen Link erklärt wird.
Auch können wir keine Szene einfrieren, die nicht einmal mit einer billigsten Kamera vergleichbar ist.
Um es zusammenzufassen, unser Auge ist schlecht, aber unser Gehirn kompensiert zu gut, dass wir alle glauben, dass wir besser sind als jede Kamera auf dem Markt.
576 Megapixel - das ist laut einem Artikel des Wissenschaftlers und Fotografen Roger Clark , der auch mehr über das menschliche Auge und seine Entsprechungen zur digitalen Technologie erzählt...
Es gibt etwa 120 Millionen Stäbchen und etwa 6 Millionen Zapfen, also sollte die maximale theoretische Auflösung des menschlichen Auges (unter Berücksichtigung der perfekten optischen Lichtübertragung in der Netzhaut) bei einer wirklichen Zahl von 2 Megapixeln liegen (es braucht 3 Zapfen für ein RGB-Triplett). hoher Dynamikumfang in den Randbereichen (dafür sind die Ruten da).
wie heißt es
Speziell
James
James
Kaleb