Konnte Legolas tatsächlich so weit sehen?

Das Video „Wie weit kann Legolas sehen?“ von MinutePhysics wurde kürzlich viral. Das Video besagt, dass Legolas zwar prinzipiell zählen könnte 105 Reiter 24  km entfernt hätte er nicht erkennen können, dass ihr Anführer sehr groß war.

Geben Sie hier die Bildbeschreibung ein

Ich verstehe, dass das Hauptziel von MinutePhysics hauptsächlich pädagogisch ist, und aus diesem Grund geht es von einem vereinfachten Modell für das Sehen aus. Aber wenn wir ein detaillierteres Modell für das Sehen betrachten, scheint es mir sogar mit Augäpfeln und Pupillen in Menschengröße , könnte man tatsächlich (im Prinzip) kleinere Winkel als die bekannte Winkelauflösung unterscheiden :

θ 1.22 λ D

Hier ist also meine Frage – unter Verwendung der Tatsachen, dass:

  • Elfen haben zwei Augen (was zB bei der Very Large Array nützlich sein kann ).
  • Augen können sich dynamisch bewegen und die Größe ihrer Pupillen verändern.

Und davon ausgegangen:

  • Legolas konnte intensive Bildverarbeitung betreiben.
  • Die Dichte der Photorezeptorzellen in der Netzhaut von Legolas ist hier kein limitierender Faktor.
  • Elfen sind so ziemlich auf sichtbares Licht beschränkt, genau wie Menschen.
  • Sie hatten an diesem Tag die sauberste Luft, die auf der Erde möglich war.

Wie gut konnte Legolas diese Reiter sehen?


Ich bin mir nicht sicher, ob dies eine genaue Beschreibung der Elfen in Tolkiens Fantasie ist

Sie haben "Legolas war irgendwie magisch" in Ihrer Aufzählungsliste der Annahmen vergessen.
@Ali nur für das Lulz +1
Wer sagt, dass Legolas Licht sieht? Vielleicht gibt es ein "Elfen-Messfeld", das er "sehen" kann. Wer weiß... Wenn er auch die Vergangenheit sehen kann, sind es wahrscheinlich nur Gravitationswellen.
Mit einem ausreichenden dynamischen Bereich in seinen Augen konnte er erkennen, dass der „Klecks“ eines Fahrers dunkler war als der der anderen. Wenn sie alle dieselbe Uniform trugen und der Hintergrund ebenfalls einheitlich war, konnte er daraus schließen, dass dieser größer war. Auflösung schmezolution.
@Floris Ich nehme an, so bestimmen Astronomen die Größe von buchstäblich jedem Objekt, abgesehen von vielleicht einem oder zwei Dutzend.
@nickT Ich glaube, so "sehen" sie Exoplaneten. Wenn sie vor "ihrer" Sonne vorbeiziehen, wird die Sonne etwas weniger hell. Ein Punkt, der periodisch dunkler wird.
@Floris Ich bezog mich mehr auf die Größe von Sternen, kleinen Monden, Kuipergürtelobjekten, Asteroiden, Schwarzen Löchern usw.
@PlasmaHH - Im Ernst, ich habe die "Elfenaugen" immer eher als Weitseher als als buchstäbliche Vision angesehen. Ich bin mir nicht sicher, ob es irgendetwas in den Büchern gibt, das dies unterstützt, es ist eine Weile her, seit ich es gelesen habe, aber Elfen sind ziemlich magisch ...
@Davor: Klingt nach einer guten Frage für scifi.SE
Bitte, es gibt keine Apostrophe im Plural. Niemals, aus irgendeinem Grund. Es sind nur 24 km oder (wenn Sie wirklich wollen) 24 km.
So kann er auf Pulverschnee stehen, ohne einen Fußabdruck zu hinterlassen, aber bei starkem Wind nicht weggeblasen werden, und das ist in Ordnung; Wir haben jedoch ein Problem damit, zu sagen, dass er Adleraugen hat?
@Fattie Niemals, aus irgendeinem Grund, außer - abhängig von Ihrer Region und Ihrem Styleguide - nach: einzelnen Kleinbuchstaben (ebd. hat zwei i); einzelne Zahlen (101 hat zwei Einsen); nicht zitierte Wörter, die als Substantive für diese Wörter verwendet werden (die Vielleicht, Nein und Ja – manchmal umständlich geschriebene „Vielleicht, Nein und Ja“); ironischerweise im Begriff "Gemüsehändler Apostroph"; Mixed-Case-Initialismen (PhD's); punktbegrenzte Initialismen (TLA's - umstritten); numerische Dekadennamen (1980er und 90er – sehr umstritten); Possessiv Plural (eine Woche, zwei Wochen); ... usw. Englisch, oder?
richtig, aber das ist alles falsch
@Fattie Weder "24km" noch "24 km" sind zulässig; Sie müssen "24 km" schreiben.

Antworten (9)

Lustige Frage!

Wie Sie betonten,

θ 1.22 λ D

Für ein menschenähnliches Auge, das einen maximalen Pupillendurchmesser von ca 9   m m und Auswählen der kürzesten Wellenlänge im sichtbaren Spektrum von etwa 390   n m , die Winkelauflösung beträgt ca 5.3 × 10 5 (Radiant natürlich). In einer Entfernung von 24   k m , dies entspricht einer linearen Auflösung ( θ d , wo d ist die Entfernung) von etwa 1.2   m . Das Zählen von berittenen Fahrern erscheint also plausibel, da sie wahrscheinlich durch ein- bis einige Male dieser Auflösung getrennt sind. Ein Vergleich ihrer Höhen, die in der Größenordnung der Auflösung liegen, wäre schwieriger, könnte aber immer noch mit Dithering möglich sein . Wackelt Legolas beim Zählen vielleicht viel mit dem Kopf? Dithering hilft nur, wenn die Bildabtastung (in diesem Fall durch elfische Fotorezeptoren) schlechter ist als die Auflösung der Optik. Menschliche Augen haben anscheinend einen äquivalenten Pixelabstand von einigen Zehntel Bogenminuten , während die beugungsbegrenzte Auflösung etwa ein Zehntel Bogenminute beträgt, sodass Dithering oder eine andere Technik erforderlich wäre, um die Optik voll auszunutzen.

Ein Interferometer hat eine Winkelauflösung, die einem Teleskop gleicht, dessen Durchmesser gleich dem Abstand zwischen den beiden am weitesten voneinander entfernten Detektoren ist. Legolas hat zwei Detektoren (Augäpfel), die etwa den 10-fachen Durchmesser seiner Pupillen voneinander entfernt sind. 75   m m oder so höchstens. Dies würde ihm eine lineare Auflösung von etwa geben fünfzehn   c m in einer Entfernung von 24   k m , wahrscheinlich ausreichend, um die Körpergröße von berittenen Reitern zu vergleichen.

Allerdings ist die Interferometrie etwas komplizierter. Mit nur zwei Detektoren und einem einzigen festen Abstand werden nur Merkmale mit Winkelabständen aufgelöst, die der Auflösung entsprechen, und auch die Richtung ist wichtig. Wenn Legolas' Augen horizontal ausgerichtet sind, kann er mit interferometrischen Techniken keine Struktur in vertikaler Richtung auflösen. Er müsste also zumindest seinen Kopf seitwärts neigen und wahrscheinlich auch wieder viel herumwackeln (einschließlich einiger Drehungen), um eine anständige Abtastung verschiedener Grundlinienausrichtungen zu erhalten. Dennoch scheint es, als könnte er mit einem ausreichend ausgeklügelten Prozessor (Elfengehirn?) Die gemeldete Beobachtung erreichen.

Luboš Motl weist in seiner Antwort auf einige andere mögliche Schwierigkeiten bei der Interferometrie hin, vor allem darauf, dass die Kombination einer polychromatischen Quelle und eines Detektorabstands, der um ein Vielfaches größer ist als die beobachtete Wellenlänge, zu keiner Korrelation in der Phase des Lichts führt, das in die beiden Detektoren eintritt. Das stimmt zwar, Legolas kann dies jedoch möglicherweise umgehen, wenn seine Augen (insbesondere die Fotorezeptoren) ausreichend ausgefeilt sind, um gleichzeitig als hochauflösendes Bildspektrometer oder integraler Feldspektrograf und Interferometer zu fungieren. Auf diese Weise konnte er Signale einer bestimmten Wellenlänge herausgreifen und sie in seiner interferometrischen Verarbeitung verwenden.

Einige der anderen Antworten und Kommentare erwähnen die potenzielle Schwierigkeit, eine Sichtlinie zu einem Punkt zu ziehen 24 k m weg aufgrund der Erdkrümmung. Wie bereits erwähnt, muss Legolas nur einen Höhenvorteil von etwa haben 90   m (der radiale Abstand von einem Kreis 6400   k m im Radius zu einer Tangente 24   k m entlang des Umfangs; Mittelerde hat anscheinend ungefähr die Größe der Erde oder könnte in der Vergangenheit die Erde gewesen sein, obwohl ich dies nach einer schnellen Suche nicht wirklich mit einer kanonischen Quelle festmachen kann). Er muss nicht auf einem Berggipfel oder so sein, also scheint es vernünftig anzunehmen, dass die Geographie eine Sichtlinie zulässt.

Abschließend noch etwas zum Thema „saubere Luft“. In der Astronomie (wenn Sie mein Gebiet noch nicht erraten haben, wissen Sie es jetzt.) bezeichnen wir Verzerrungen, die durch die Atmosphäre verursacht werden, als "Sehen" . Seeing wird oft in Bogensekunden gemessen ( 3600 = 60 ' = 1 ), was sich auf die Grenze bezieht, die der Winkelauflösung durch atmosphärische Verzerrungen auferlegt wird. Das beste Seeing, das von Berggipfeln bei perfekten Bedingungen erreicht wird, ist ungefähr 1 , oder im Bogenmaß 4.8 × 10 6 . Das ist ungefähr die gleiche Winkelauflösung wie die erstaunlichen interferometrischen Augen von Legolas. Ich bin mir nicht sicher, wie das horizontale Sehen über eine Entfernung von aussehen würde 24   k m . Einerseits gibt es viel mehr Luft als senkrecht nach oben zu schauen; die Atmosphäre ist dicker als 24   k m aber seine Dichte nimmt mit der Höhe schnell ab. Andererseits würden die relativ gleichmäßige Dichte und Temperatur bei fester Höhe weniger Schwankungen im Brechungsindex verursachen als in der vertikalen Richtung, was das Sehen verbessern könnte. Wenn ich raten müsste, würde ich sagen, dass er bei sehr ruhiger Luft bei gleichmäßiger Temperatur so gut wie sehen könnte 1 a r c s e c , aber unter realistischeren Bedingungen mit strahlender Sonne übernehmen wahrscheinlich Fata Morgana-ähnliche Effekte die Begrenzung der Auflösung, die Legolas erreichen kann.

Jemand muss ein Video von der Gymnastik machen, die Legolas ausführen müsste, um die Körpergröße der Reiter zu unterscheiden.
Wie würden die Zahlen aussehen, wenn Elfen außerhalb unseres sichtbaren Spektrums sehen könnten?
@Thebluefish λ in dieser Gleichung ist die Wellenlänge des Lichts. Kleinere Winkelauflösung ( θ ) ist besser und macht λ kleinere Fabrikate θ kleiner. Das Sehen längerer Wellenlängen (Infrarot, Mikrowelle, Radio) hilft daher nicht, aber das Sehen kürzerer Wellenlängen (UV, Röntgen, γ ) tut dies, vorausgesetzt, eine solche Strahlung ist in der Nähe zu sehen (unwahrscheinlich für X und γ , und UV wird ziemlich stark von der Luft absorbiert, wie das Video zeigt). Wellenlänge doppelt so kurz wie Violett (was immer noch nahe UV ist) verdoppelt die Auflösung, 4x so kurz vervierfacht sie usw.
Und wenn das Legolas Binocular Array weiß, wie man Intensitätsinterferometrie durchführt, braucht er keinen Wellenfrontsensor oder ähnliches, um Phasen zu erkennen. Dies war schließlich die Technik, die entwickelt wurde, um die Größe mehrerer Sterne zu messen. Was das Sehen betrifft... biologisches AO? Von den Elfenbroschen der Hobbits reflektiertes Sonnenlicht als Leitsterne verwenden?
@ChrisWhite Hah, ich dachte an Elf-AO, gab es aber auf, da mir kein geeigneter Leitstern-Ersatz einfiel.
@Kyle Eine weitere Sorge wäre das Aussterben von Aerosolen. Sichtweiten über 24 km sind zwar in unverschmutzten Gebieten der Erde gegeben, aber nicht selbstverständlich. Was die Verwendung kürzerer Wellenlängen betrifft, gibt es aufgrund der Absorption durch die Ozonschicht grundsätzlich kein Licht unter 300 nm in der Atmosphäre. Mittelerde hat wahrscheinlich auch eine Ozonschicht, da sie Leben an Land beherbergt. Vielleicht haben Legolas-Augen eine eingebaute Lichtquelle für UV, aber Wellenlängen kürzer als 250 nm würden es aufgrund der Absorption durch molekularen Sauerstoff wahrscheinlich nicht über die 48 km hin und zurück schaffen.
@jkej Für das UV-Licht gibt es einen Grund, warum ich mich an das kurzwellige Ende des sichtbaren Lichts gehalten habe ( 390 n m ) in meiner Antwort. Was die Aerosole betrifft, so habe ich dies ähnlich ausgelassen, wie ich anfangs Höhen- / Topologiebedenken ausgelassen habe, da sich die Frage hauptsächlich darauf konzentriert, ob Legolas die Fahrer auflösen kann, und nicht darauf, ob es ein Signal gibt, das aufgelöst werden muss oder nicht. Ich glaube, die Streuung durch Aerosole würde das Signal schwächen / Rauschen hinzufügen, aber die Auflösung nicht beeinträchtigen.
@Kyle Ja, ich denke, deine Antwort war gut. Ich wollte nur einige relevantere physikalische Überlegungen hinzufügen. Das Einzige, was ich an Ihrer Antwort bezweifle, ist, dass das Sehen in der Vertikalen aufgrund einer gleichmäßigeren Dichte und Temperatur besser wäre. Soweit ich weiß, liegt das Problem beim Sehen überhaupt nicht in den großräumigen vertikalen Inhomogenitäten der Atmosphäre, sondern in kleinräumigen Turbulenzen. Die meisten Turbulenzen finden in den unteren Teilen der Atmosphäre statt; Ich würde annehmen, dass die Grenzschicht dominiert. Dieser ist höchstens 1-2 km dick, unsere 24 km würden also den 12-24-fachen vertikalen Weg darin bedeuten.
„Menschliche Augen haben anscheinend einen äquivalenten Pixelabstand von etwa einigen Zehntel Bogenminuten, während die beugungsbegrenzte Auflösung etwa ein Zehntel Bogenminute beträgt, sodass Dithering oder eine andere Technik erforderlich wäre, um die Optik voll auszunutzen.“ -- Ich dachte immer, dafür sei okularer Mikrotremor ( journalofvision.org/content/8/14/20/F8.expansion ) da.
Wenn Sie sich jemals gefragt haben, ob Legolas Dithering verwendet: Wir alle tun es. Es ist in den Sakkaden, en.wikipedia.org/wiki/Saccade

Lassen Sie uns zuerst die Zahlen ersetzen, um zu sehen, was der erforderliche Durchmesser der Pupille gemäß der einfachen Formel ist:

θ = 1.22 0,4 μ m D = 2 m 24 k m
Ich habe die minimale (violette ...) Wellenlänge ersetzt, weil diese Farbe mir eine bessere Auflösung ermöglichte, dh kleiner θ . Die Höhe der Ritter beträgt zwei Meter. Wenn ich mich nicht geirrt habe, der Durchmesser D muss 0,58 Zentimeter betragen. Das ist durchaus sinnvoll, denn die maximal geöffnete menschliche Pupille hat einen Durchmesser von 4-9 Millimetern.

Wie das Video sagt, erlaubt die Beugungsformel also marginal, nicht nur die Anwesenheit der Ritter zu beobachten – sie zu zählen – sondern marginal ihre ersten „inneren detaillierten“ Eigenschaften, vielleicht, dass die Hose dunkler ist als das Hemd. Zu sehen, ob der Leader 160 cm oder 180 cm groß ist, ist jedoch eindeutig unmöglich, da die Auflösung um eine Größenordnung besser sein müsste. Genau wie das Video sagt, ist es mit dem sichtbaren Licht und den menschlichen Augen nicht möglich. Man würde entweder ein 10-mal größeres Auge und eine 10-mal größere Pupille benötigen; oder etwas ultraviolettes Licht mit 10-mal höherer Frequenz.

Es hilft nichts, die Pupillen enger zu machen, weil die Auflösung, die die Beugungsformel erlaubt, schlechter würde. Die deutlich unschärferen Bilder sind als Ergänzung zum schärfsten Bild nicht hilfreich. Das kennen wir auch aus der realen Welt der Menschen. Wenn die Sicht von jemandem viel schärfer ist als die Sicht von jemand anderem, ist die zweite Person ziemlich nutzlos, um die Informationen über einige schwer zu sehende Objekte zu verfeinern.

Die atmosphärischen Effekte werden wahrscheinlich die Auflösung relativ zu der einfachen obigen Erwartung verschlechtern. Auch wenn wir die sauberste Luft haben – es geht nicht nur um die saubere Luft; wir brauchen die gleichmäßige Luft mit einer konstanten Temperatur und so weiter, und sie ist niemals so gleichmäßig und statisch – sie verzerrt immer noch die Lichtausbreitung und impliziert eine zusätzliche Verschlechterung. All diese Überlegungen sind natürlich für mich, der vernünftigerweise darüber nachdenken könnte, ob ich Menschen aus 24 Metern Entfernung scharf genug sehe, um sie zu zählen, völlig akademisch. ;-)

Selbst wenn die Atmosphäre die Auflösung um den Faktor 5 oder so verschlechtert, können die Ritter immer noch die minimalen "verschwommenen Punkte" auf der Netzhaut induzieren, und solange der Abstand zwischen den Rittern größer ist als der Abstand von der (verschlechterten) Auflösung, wie 10 Meter, man wird sie zählen können.

Im Allgemeinen sind die Photorezeptorzellen tatsächlich dicht genug, um die geschätzte Auflösung nicht wirklich zu verschlechtern. Sie sind dicht genug, damit das Auge die Grenzen der Beugungsformel voll ausschöpft, denke ich. Die Evolution hat wahrscheinlich bis an ihre Grenzen gearbeitet, weil es für die Natur nicht so schwer ist, die Netzhäute dicht zu machen, und die Natur würde eine Gelegenheit verpassen, den Säugetieren nicht die schärfste Sicht zu geben, die sie bekommen können.

Tricks zur Verbesserung der Auflösung oder zur Umgehung der Beugungsgrenze gibt es kaum. Die Langzeitbeobachtungen helfen nicht weiter, es sei denn, man könnte die Lage der Punkte genauer beobachten als den Abstand der Photorezeptorzellen. Die Organe von Säugetieren können einfach nicht so statisch sein. Eine Bildverarbeitung mit vielen unvermeidlich verschwommenen Bildern an wechselnden Orten kann einfach kein scharfes Bild erzeugen.

Auch der Trick aus dem Very Large Array funktioniert nicht. Das liegt daran, dass das Very Large Array nur für Radiowellen (dh lange Wellen) hilft, sodass die einzelnen Elemente im Array die Phase der Welle messen und die Informationen über die relative Phase verwendet werden, um die Informationen über die Quelle zu schärfen. Die Phase des sichtbaren Lichts – es sei denn, es kommt von Lasern, und selbst in diesem Fall ist es fraglich – ist in den beiden Augen völlig unkorreliert, da das Licht nicht monochromatisch ist und der Abstand zwischen den beiden Augen erheblich größer ist als die durchschnittliche Wellenlänge . Die beiden Augen haben also nur den Vorteil, die Gesamtintensität zu verdoppeln; und um uns die 3D-Stereovision zu geben. Letzteres ist auch bei der Distanz von 24 Kilometern offensichtlich irrelevant. Der Winkel, in dem die beiden Augen auf das 24 km entfernte Objekt blicken, unterscheidet sich messbar von den parallelen Richtungen. Aber sobald sich die Muskeln an diese leicht nicht parallelen Winkel gewöhnt haben, ist das, was die beiden Augen aus 24 km Entfernung sehen, nicht mehr zu unterscheiden.

Sie gehen davon aus, dass Elfen Säugetiere sind. Zugegeben, sie können sich mit Menschen kreuzen, aber trotzdem ...
@rodrigo: Tolkien selbst sagte, dass Menschen und Elfen dieselbe Spezies sind (vgl. diesen SciFi.SE-Beitrag ), daher wäre es absolut sinnvoll anzunehmen, dass Elfen Säugetiere sind.
Sie mögen dieselbe Spezies sein, aber in Tolkiens Welt haben sich weder Elfen noch Menschen aus irgendetwas entwickelt. Beide Rassen wurden erst wenige tausend Jahre zuvor geschaffen.
Es heißt, der Anführer sei „sehr groß“. Dies ist ein wenig offen für Interpretationen, denn wenn er 1,5-mal größer als die anderen Ritter wäre, könnte er groß genug erscheinen. Sie können also nicht feststellen, dass es unmöglich ist.

Nehmen Sie die folgende idealisierte Situation:

  • die interessierende Person steht vollkommen still und hat eine festgelegte homogene Farbe
  • der Hintergrund (Gras) hat eine festgelegte homogene Farbe (deutlich verschieden von der Person).
  • Legolas kennt die Proportionen von Menschen und die Farben der interessierenden Person und des Hintergrunds
  • Legolas kennt die PSF seines optischen Systems (einschließlich seiner Fotorezeptoren)
  • Legoalas kennen die genaue Position und Ausrichtung seiner Augen.
  • Nehmen Sie an, dass in seinen Fotorezeptoren im Wesentlichen kein Rauschen vorhanden ist und er Zugriff auf die Ausgabe von jedem hat.

Daraus kann Legolas die genaue Reaktion über seine Netzhaut für jede Position und (Winkel-)Größe der interessierenden Person berechnen, einschließlich aller Beugungseffekte. Er kann dann diese genaue Vorlage mit den tatsächlichen Sensordaten vergleichen und diejenige auswählen, die am besten passt - beachten Sie, dass dies die übereinstimmende Art und Weise umfasst, in der die Reaktion abfällt und / oder Beugungsstreifen um den Rand der abgebildeten Person herum (ich bin unter der Annahme, dass die Sensorzellen in seinen Augen die PSF der optischen Teile seiner Augen überabtasten.)

(Um es noch einfacher zu machen: Es ist ziemlich offensichtlich, dass wir angesichts der PSF und eines schwarzen Rechtecks ​​auf weißem Hintergrund die genaue Reaktion des optischen Systems berechnen können - ich sage nur, dass Legolas dasselbe für sein tun kann Augen und jede hypothetische Größe/Farbe einer Person.)

Die wichtigsten Einschränkungen dabei sind:

  1. wie viele verschiedene Musterhypothesen er in Betracht zieht,
  2. Jedes Rauschen oder jede Turbulenz, die die Reaktion seiner Augen von der berechenbaren idealen Reaktion weg verzerrt (Rauschen kann durch Integrationszeit gemildert werden),
  3. Seine Fähigkeit, die Position und Ausrichtung seiner Augen zu kontrollieren, dh 2 m bei 24 k m ist nur 0,01 Radiant -- Zuordnung zu 0,8 μ m Verschiebungen in der Position eines Flecks auf der Außenseite seiner Augen (angenommen 1 c m Augapfelradius).

Im Wesentlichen skizziere ich eine Superauflösungstechnik vom Typ Bayes, wie auf der Wikipedia-Seite zur Superauflösung angedeutet .

Um die Probleme zu vermeiden, die Person mit seinem Reittier zu vermischen, nehmen wir an, dass Legolas die Leute beobachtet hat, als sie abgestiegen sind und vielleicht eine Pause gemacht haben. Er konnte feststellen, dass der Anführer groß war, indem er einfach die relative Größe verschiedener Personen vergleicht (unter der Annahme, dass sie in Abständen herumliefen, die viel größer waren als die Auflösung seines Auges).

Die eigentliche Szene in dem Buch lässt ihn dies erkennen, während die Reiter montiert waren und sich bewegten – an dieser Stelle muss ich nur sagen: „Es ist ein Buch“, aber die Idee, dass die Beugungsgrenze irrelevant ist, wenn Sie viel über Ihre wissen optisches System und was Sie sehen, ist erwähnenswert.

Daneben sind menschliche Stäbchenzellen Ö ( 3 5 μ m ) -- dies wird zusätzlich zu allen Beugungseffekten von der Pupille eine Tiefpassfilterung auferlegen.

Eine Spielzeugmodell-Illustration eines ähnlichen Problems

Lassen B ( x ; x 0 , d x ) = 1 zum x 0 < x < x 0 + d x und ansonsten Null sein; falten B ( x ; x 0 , d x 1 ) und B ( x ; x 0 , d x 2 ) , mit d x 2 > d x 1 , mit einigen bekannten PSF; Nehmen Sie an, dass dies die Breite dieser PSF ist, wenn sie viel viel kleiner als beide ist d x 1 , d x 2 aber breit im Vergleich zu d x 2 d x 1 produzieren ich 1 ( j ) , ich 2 ( j ) . (In meiner Konzeption dieses Modells ist dies die Antwort einer einzelnen Netzhautzelle als Funktion der Winkelposition des Auges ( j ).) Das heißt, nehmen Sie zwei Bilder von Blöcken unterschiedlicher Größe und richten Sie die Bilder so aus, dass sich die linken Kanten der beiden Blöcke an derselben Stelle befinden. Stellt man sich dann die Frage: Wo kreuzen die rechten Ränder der Bilder einen gewählten Schwellwert, dh ich 1 ( j 1 ) = ich 2 ( j 2 ) = T das wirst du finden j 2 j 1 = d x 2 d x 1 unabhängig von der Breite des PSF (vorausgesetzt, dass es viel schmaler als jeder Block ist). Ein Grund, warum Sie häufig scharfe Kanten wünschen, ist, dass bei vorhandenem Rauschen die Werte von j 1 , j 2 wird um einen Betrag variieren, der umgekehrt proportional zur Neigung des Bildes ist; aber in Abwesenheit von Rauschen ist die theoretische Fähigkeit, Größenunterschiede zu messen, unabhängig von der optischen Auflösung.

Hinweis: Beim Vergleich dieses Spielzeugmodells mit dem Legolas-Problem kann der berechtigte Einwand erhoben werden, dass die PSF nicht viel kleiner ist als die abgebildeten Körpergrößen der Menschen. Aber es dient der Veranschaulichung des allgemeinen Punktes.

+1 "Die Beugungsgrenze ist irrelevant, wenn Sie viel über Ihr optisches System wissen und das, was Sie betrachten, erwähnenswert ist." Das ist ein ausgezeichneter Punkt und eine fantastische Zusammenfassung, aber um es klingen zu lassen, würde ich hinzufügen "wenn Sie viel über Ihr optisches System wissen, was Sie sehen und wenn es kein Rauschen gibt". Ich würde auch sagen, dass es immer noch eine Restbeugungsgrenze gibt, weil die FT einiger PSFs Nullen haben, die Informationen bei den Raumfrequenzen von Null zerstören. Aber insgesamt ist Ihre Idee als theoretischer Begriff etwas, das nicht allgemein anerkannt wird.

Eine Sache, die Sie nicht berücksichtigt haben. Die Kurve des Planeten (Mittelerde ist in Größe und Krümmung ähnlich wie die Erde). Bei einer Höhe von 6 Fuß können Sie nur 3 Meilen bis zum Horizont des Ozeans sehen. Um 24 km zu sehen, müssten Sie sich fast 100 m über den betrachteten Objekten befinden. Wenn Legolas also nicht auf einem sehr (sehr) hohen Hügel oder Berg war, hätte er aufgrund der Krümmung des Planeten überhaupt keine 24 km sehen können.

Guter Punkt, aber ich hielt es für eine triviale Annahme, dass die Geographie dies zulassen würde. Außerdem ist dies nicht wirklich eine Antwort, sondern eher ein Kommentar.
+1 Obwohl die effektive Erdkrümmung aufgrund der Variation des Brechungsindex mit der Höhe erheblich geringer sein kann als die tatsächliche Erdkrümmung. Unter ungewöhnlichen, aber in einigen Teilen der Erde nicht ungewöhnlichen atmosphärischen Bedingungen wäre die Erde über 24 km effektiv flach oder sogar leicht konkav. Ist Ihnen aufgefallen, dass einige Berge, besonders weit entfernte, an manchen Tagen höher erscheinen und an anderen nicht? In der Nähe meines Wohnortes gibt es eine Bergkette, die an manchen klaren Tagen über uns aufzuragen scheint und an anderen nicht einmal zu sehen ist.
@WetSavannaAnimalakaRodVance Gutes Beispiel. Sie würden dieses Bild einer Bergkette genießen , das aus einer Entfernung von 165 Meilen aufgenommen wurde.
@Jim, ich bin verwirrt, warum jemand über jemandem sein muss? Es gibt viel Geographie auf der Erde (und Mittelerde) jenseits einer perfekt glatten, abgerundeten Oberfläche wie dem Ozean.
Ich kann einen flachen Horizont von mehr als 3 Meilen bei 6 Fuß verifizieren.

Dekonvolution kann funktionieren, aber es funktioniert nur gut im Fall von Punktquellen, wie zB hier aufgezeigt . Das Prinzip ist einfach; die Unschärfe aufgrund der endlichen Apertur ist eine bekannte mathematische Abbildung, die ein Bild mit hypothetischer unendlicher Auflösung auf eines mit endlicher Auflösung abbildet. Angesichts des verschwommenen Bildes können Sie dann versuchen, diese Zuordnung umzukehren. Das unscharfe Bild einer Punktquelle, die bei völlig unscharfem Bild nur ein Pixel hätte beeinflussen sollen, wird als Punktstreufunktion bezeichnet. Die Abbildung auf das unscharfe Bild wird vollständig durch die Punktverteilungsfunktion definiert. Es gibt verschiedene Algorithmen, die in der Lage sind, ein Bild einigermaßen zu verwischen, z. B. Richardson-Lucy-Entfaltung oder Wiener-Filter-Methode .

In der Praxis können Sie ein Bild nicht perfekt entfalten, da dies die Division der Fourier-Transformation des unscharfen Bildes durch die Fourier-Transformation der Punktstreufunktion beinhaltet, und letztere bei großen Wellenzahlen gegen Null tendiert. Das bedeutet, dass Sie am Ende das Rauschen bei hohen Wellenzahlen verstärken und genau bei den hohen Wellenzahlen sind die kleinen Details vorhanden. Die erreichbare Auflösung wird also letztendlich durch das Rauschen begrenzt.

Wenn Sie ein bestimmtes Modell dafür haben, wie sich die Fourier-Transformation des Objekts insgesamt verhält k Sie können die Vergrößerung des Rauschens vermeiden.
Ich denke, diese gute Antwort kann in eine hervorragende umgewandelt werden, wenn Sie ein anschauliches Beispiel mit einem kleinen Stück zB Mathematica-Code hinzufügen.

Legolas braucht wahrscheinlich nur ein Auge, wenn er genug Zeit hat und ausreichend genaue Spektralmessungen vornehmen kann.

Beachten Sie zunächst, dass Legolas an einem sonnigen Tag zugesehen hat; Wir nehmen an, dass zwischen der einfallenden Intensität und der Albedo dieses Objekt in der Größenordnung von reflektiert wurde 100 W / m 2 Licht, das ist ungefähr 10 22 Photonen pro Sekunde. Bei 24 Kilometern sind das etwa 10 8 Photonen pro c m 2 .

Wir sind uns nicht sicher, wie groß Legolas Augen sind, da die Bücher nicht sagen, aber wir können davon ausgehen, dass sie nicht unheimlich groß sind, also in der Größenordnung von 1 cm im Durchmesser liegen, was ihm ungefähr entspricht 6 10 5 Winkelauflösung im Bogenmaß oder ungefähr 1.5 m . Wie bereits beschrieben, sollte dies ausreichen, um die Anzahl der Fahrer zu zählen.

Jetzt gibt es zwei Faktoren, die enorm wichtig sind. Zuerst bewegen sich die Reiter. Durch die Betrachtung zeitlicher Korrelationen in Spektren kann Legolas also im Prinzip ableiten, was die Spektren von Reitern vom Hintergrund unterscheidet. Wir können auch davon ausgehen, dass er mit den Spektren verschiedener gewöhnlicher Objekte (Leder, verschiedenfarbige Haare usw.) vertraut ist. Er kann somit ein Unterauflösungs-Mischungsmodell erstellen, wo er Hypothesen aufstellt n Objekte mit unterschiedlichen Spektren und versucht, die Größe/Leuchtdichte von jedem zu finden. Dies ist wahrscheinlich der schwierigste Teil, da die Spektren vieler Elemente dazu neigen, ziemlich breit zu sein, was zu einer erheblichen Überlappung der Spektren führt. Nehmen wir an, das Objekt, nach dem er sucht, unterscheidet sich im Spektralprofil nur um 10 % von den anderen (insgesamt). Dann hätte er bei einer Integrationszeit von einer Sekunde ein Photonenschussrauschen in der Größenordnung von 10 4 Photonen, sondern ein Signal von ca EIN 10 7 Photonen wo EIN ist die Teilleuchtdichte des Zielobjekts innerhalb des beugungsbegrenzten Sichtfelds.

Da die Superauflösungsmikroskopie Elemente ungefähr proportional zum SNR auflösen kann (einfachstes Beispiel: Wenn sich eine Quelle vollständig in einem Pixel, vollständig in einem anderen oder einem Bruchteil dazwischen befindet, müssen Sie im Grunde nur die Intensität in diesen beiden Pixeln vergleichen). bedeutet, dass Legolas möglicherweise ein helles Objekt in der Größenordnung von finden könnte 1.5 m m . Wenn er zum Beispiel den Glanz von Helm und Steigbügel nutzt, könnte er die Körpergröße ausreichend gut messen und Details wie „Gelb ist ihr Haar“ erkennen.

Im Sinne Ihrer Frage können Sie, wenn Sie zwei Augen haben und davon ausgehen, dass Sie sie als Array verwenden können (wofür die Messung der Phase des Lichts erforderlich ist - etwas, was Augen nicht tun), den Abstand zwischen ihnen verwenden D in der Auflösungsgleichung. Ich kenne den Abstand der Augen eines Elfen nicht, werde es also verwenden 6 c m zur Bequemlichkeit. Mit violettem Licht von λ = 430 n m , wir bekommen θ 1.22 430 10 9 0,06 = 8.7 10 6 . In einer Entfernung von 24 k m , dies ergibt eine Auflösung von 21 c m . Sie können wahrscheinlich Reiter unterscheiden, aber die Größenschätzung ist sehr schwierig.

Das andere Problem ist die Erdkrümmung. Wenn der Erdradius ist 6400 k m Sie können ein rechtwinkliges Dreieck mit Beinen zeichnen 24 , 6400 und entdecke das andere ist 6400.045 , also muss er nur auf a sein 45 m hoher Hügel. Bodentrübung wird ein Problem sein.

Die anderen beiden Antworten verwenden die Pupillengröße für D und nicht der Augenabstand - was ist richtig und warum? Die anderen Werte für D sind 1/10 von dir...
Lieber @tpg2114, D ist aus einem einfachen Grund der Durchmesser der Öffnung. Es ist eine Beugungsgrenze - eine Begrenzung, die durch die Interferenz von Licht verursacht wird. Lichtstrahlen, die in die beiden Augen einfallen - die relativ zur Wellenlänge sehr, sehr weit voneinander entfernt sind - stören sich nicht gegenseitig. Die Phasen der Lichtwellen in den beiden Augen sind völlig zufällig und unkorreliert. Der Abstand zwischen den beiden Augen hat also keinen Einfluss auf die Beugung (Wellenoptik). Es betrifft nur das 3D-Sehen (das ist die geometrische Optik), und das 3D-Sehen verliert alles Fleisch in einer Entfernung von 24 km, was praktisch unendlich ist.
Sie haben vorgeschlagen, zwei Augen als Array zu verwenden. Dazu muss die Phase in jedem Auge gemessen werden, was Augen normalerweise nicht tun, aber ich beschloss, das zu übersehen (und kommentierte es). Es erfordert auch Messungen auf Zeitskalen, die im Vergleich zur Oszillationszeit der Strahlung schnell sind, was wir mit sichtbarem Licht nicht tun können. Wenn Sie dies nicht tun, ist es korrekt, den Pupillendurchmesser zu verwenden.
@LubošMotl: Wie OP vorgeschlagen hat, können Arrays mit Empfängern arbeiten, die durch viele Wellenlängen getrennt sind. Sie erfordern Fähigkeiten, die Augen nicht haben, aber ich habe in diesem Sinne geantwortet. Ich denke, dass die Stereoeffekte des Sehens in der populären Literatur stark überbewertet werden. Wenn Sie ein Auge schließen, können Sie 3D ziemlich gut von anderen Hinweisen sehen.
Lieber Ross, richtig, die Entfernung mag ein Vielfaches der Wellenlänge sein, aber das ist nicht die einzige Bedingung, damit dieser Trick funktioniert. Die Information über die relative Phase muss immer noch beibehalten werden und ist für nicht-monochromatisches sichtbares Licht in Abständen von 9 cm einfach nicht möglich. ... Sie können "3D" nicht mit einem Auge sehen. „3D“ zu sehen bedeutet per Definition , die Informationen aus zwei verschiedenen Blickwinkeln zu haben. Ein Auge kann sehen, dass einige Objekte bei einer bestimmten Fokussierung verschwommen sind, und ihre Entfernung schätzen, aber das wird nicht als "3D-Sehen" bezeichnet.

Hier ist eine weitere Möglichkeit, die noch nicht erwähnt wurde. Wenn ein Objekt A vollständig hinter einem anderen Objekt ähnlicher Form B verborgen werden kann, dann muss B größer sein als A. Umgekehrt geht A hinter B und bleibt die ganze Zeit teilweise sichtbar, dies ist ein Beweis dafür, dass A größer als B ist (oder dass A fährt nicht direkt hinter B vorbei, ignorieren wir diese Möglichkeit vorerst).

Wenn der Anführer in Legolas 'Situation ein unterscheidbares Merkmal aufweist (glänzender Helm, andersfarbige Jacke) und Legolas etwas von dieser Farbe sehen kann, während der Anführer hinter anderen in seiner Gruppe vorbeigeht, würde ich daraus schließen, dass der Anführer größer ist. Die Auflösung ist in diesem Fall nicht wichtig. Legolas kann erkennen, welches Objekt vorne ist, weil die Menge an Leader-farbigen Photonen reduziert wird, wie bei einem Planeten, der vor einem entfernten Stern vorbeizieht.

Es gibt auch eine geometrische Einschränkung, um so weit zu sehen. Ich habe es auf mathematik.SE mit Fragen und Antworten beantwortet . Wenn Legolas auf ebenem Boden gestanden hätte, hätte er aufgrund der Krümmung des Planeten nur 4,8 km weit sehen können (vorausgesetzt, Mittelerde befindet sich auf einem Planeten, der unserem ähnelt). Um so weit zu sehen, müsste er einen Hügel oder Baum von etwa 50 m Höhe erklommen haben.

Duplikat von Jims Antwort . Mein mentales Modell von Rohan ist eher Kansas als Colorado, aber nachdem ich in Los Alamos gestanden und nach Santa Fe und Albuquerque gesehen habe, stört mich dieser Teil der Geschichte nicht. Legolas blickte den Entwash hinauf in Richtung Fangorn. Damit die Fahrer 50 m bergauf waren, müsste der Entwash (und seine Ufer und Täler, die die Charaktere verwendeten) 2 m pro Kilometer abfallen. das klingt sanfter als die meisten echten Flüsse, die ich gewandert bin. Und natürlich hätten Legolas und Co. wahrscheinlich auf einem Hügel gezeltet, ausdrücklich um weiter zu sehen.
Ich schätze, 25 km sind es von diesem Aussichtspunkt bis zu den grün bewaldeten Bergen im Osten.