Warum muss ein Objekt größer als die Lichtwellenlänge sein, damit wir es sehen können?

Ich höre immer wieder diese Regel, dass ein Objekt größer sein muss als die Wellenlänge des Lichts, damit wir es sehen können, und obwohl ich keine professionelle Beziehung zur Physik habe, möchte ich die Erklärung dafür lernen. Auch ich habe meine Frage vielleicht falsch ausgedrückt, aber ich hoffe, Sie verstehen, was ich zu fragen versuche.

Kannst du das für einen Nicht-Physiker so einfach wie möglich erklären?

Hallo davsan und willkommen bei Physics Stack Exchange! Eigentlich ist dies eine ausgezeichnete Frage, wie es ist. (Eine Sache, die ich vorschlagen würde, ist, Ihre Frage auch in den Hauptteil des Beitrags zu stellen, damit jemand, der den Titel nicht gelesen hat, ihn immer noch versteht.)
@DavidZaslavsky Danke David :] Ich habe den Körper jetzt bearbeitet.
Möchten Sie das Objekt einfach erkennen oder die Struktur des Objekts auflösen ? Sie können einen Punkt theoretisch erkennen, indem Sie einfach nach Streuung suchen. Sie können zwei Punkte nicht auflösen, um zu wissen, ob sie zwei Punkte von einem sind, wenn sie zu nahe beieinander liegen.
Unter Verwendung von Nahfeldmethoden ist es möglich, Strukturen von viel weniger als einer Wellenlänge aufzulösen (sogar abzubilden). λ / 100 Auflösung ist typisch für NSOM (Near-Field Scanning Optical Microscopy).

Antworten (5)

Auf Vorschlag von David Zaslavsky übertrage ich dies von den Kommentaren auf die Antworten (ich war etwas zögerlich, weil ich nicht weiß, wie zuverlässig YouTube-Videos in beispielsweise 6 Monaten noch sein sollen!):

Dieses kleine YouTube-Video könnte helfen. Sie können die Objekte nur auflösen, indem Sie die reflektierten Wellen betrachten. Die Menge an Details, die Sie in den reflektierten Wellen erhalten können, kann nicht kleiner sein als die Wellenlänge (grob gesagt).

Bearbeiten: Das Video zeigt einfallende Wellen, die von kleinen Unregelmäßigkeiten in der Oberfläche am unteren Bildrand reflektiert werden. Der erste Fall (Wellenlänge kleiner als die Unregelmäßigkeiten) zeigt Informationen über die "zurückgekoppelten" Unregelmäßigkeiten in den reflektierten Wellen:Geben Sie hier die Bildbeschreibung ein

Der letzte Fall (Wellenlänge größer als die Unregelmäßigkeiten) zeigt viel gröbere Informationen, die zurückgeführt werden, wodurch es nicht möglich ist, Informationen über beispielsweise die Größe dieser Unregelmäßigkeiten zu erhalten:Geben Sie hier die Bildbeschreibung ein

Natürlich sind Schnappschüsse etwas schwer zu lesen, man müsste sich wirklich die Statistik der empfangenen reflektierten Wellen als Funktion der Position ansehen, um wirklich zu sehen, was los ist, aber das Video gibt einen allgemeinen Eindruck des Problems.

Ich denke, YouTube ist ziemlich gut darin, die Dinge aufrechtzuerhalten, außer in Fällen mutmaßlicher Urheberrechtsverletzungen. Auf jeden Fall ist es kein so großes Problem, wenn man auch kurz erklärt, was man aus dem Video herausholen soll ;-)
Danke @twistor59, die Antwort ist jetzt mit den Bildern viel klarer.

Klassischerweise ist es schwierig, Details in einem Objekt in weniger als der Hälfte der Lichtwellenlänge (Abbe-Grenze) aufzulösen.

Es ist möglich, ein „Bild“ der Struktur eines Objekts zu machen, wenn man näher als eine Wellenlänge an das Objekt herankommt – Nahfeldmikroskopie , im Wesentlichen durch direktes Messen des elektrischen Felds des Lichts, anstatt es zu fokussieren.

Und wenn Sie ein Material mit einem negativen Brechungsindex herstellen können, können Sie Strukturen abbilden, die viel kleiner als eine Wellenlänge sind, siehe: Das perfekte Objektiv und Superlensimaging

letzter Link ist tot

Wie bereits an anderer Stelle ausgeführt wurde, ist die Prämisse der Frage nicht ganz zutreffend.

Ja, eine kürzere Wellenlänge macht es einfacher, kleinere Objekte zu sehen, aber die Wellenlänge muss nicht unbedingt kleiner sein als das Objekt.

Die kurze Antwort lautet, dass die Grenze für die Auflösung kleiner Objekte meistens auf der Lichtbeugung beruht und diese Grenze (unter anderem) durch die Wellenlänge des Lichts und die Größe der Blende bestimmt wird.

Als Ergebnis der Beugung wird das Bild eines kleinen Objekts verschwommen und relativ zu dem von der Strahlenoptik vorhergesagten Bild vergrößert.

Geben Sie hier die Bildbeschreibung ein

Die Beugung hindert uns also nicht daran, ein Objekt zu sehen oder zu erkennen, sondern hindert uns vielmehr daran, feine Details eines Objekts zu sehen. Es kommt auf die Fähigkeit an, zwei nahe beieinander liegende Punkte eines Objekts als verschieden zu sehen, was auf die Bestimmung eines Mindestwinkels zwischen zwei nahe beieinander liegenden Punkten hinausläuft, bei dem sie noch als verschieden wahrgenommen werden.

Der minimale Winkel zwischen den beiden Punkten ist ein besseres Merkmal als der minimale Abstand, da der Winkel auf einen großen Bereich von Abständen anwendbar ist, der ein Abstand zwischen zwei Atomen, zwei Autoscheinwerfern oder zwei Sternen sein könnte.

Wenn eine Öffnung, durch die die Punkte beobachtet werden, kreisförmig ist, könnte dieser minimale Beobachtungswinkel (oder Auflösung) θ durch diese Formel angenähert werden:

θ=1,22λ/D,

wobei λ die Wellenlänge des Lichts und D der Durchmesser der Öffnung ist.

Geben Sie hier die Bildbeschreibung ein

Auf dem Bild oben geht das Licht, das von den beiden linken Punkten ausgeht, durch eine kreisförmige Öffnung (die Pupille einer Kamera oder eines Auges) und hinterlässt zwei Bilder auf dem Bildschirm (den Film in einer Kamera oder die Netzhaut in einem Auge). ).

Wie auf dem Bild zu sehen, sind die Bilder auf dem Bildschirm etwas gespreizt und überlappen sich teilweise. Es ist leicht zu erkennen, dass bei einem kleineren Winkel θ die beiden Bilder verschmelzen und als eins wahrgenommen würden.

Die Streuung der Bilder wird durch die Beugung (Streuung) von Licht verursacht, wenn es durch die Öffnung hindurchtritt, und der Grad der Streuung hängt von der Wellenlänge des Lichts und dem Durchmesser der Öffnung ab. Deshalb definieren diese beiden Parameter (nicht nur die Wellenlänge) den minimalen Winkel zwischen den beiden Punkten, bei dem sie noch als deutlich wahrgenommen werden.

Hier ist eine Wäscheliste mit einigen der grundlegenden Konzepte hinter dieser Formel, mit einigen vereinfachten Erklärungen, wie sie mit dem vorliegenden Problem zusammenhängen:

  • Das Huygens-Fresnel-Prinzip, das besagt, dass jeder Punkt einer Wellenfront als Quelle einer neuen Welle (eines Wavelets) fungiert.

  • Welleninterferenz, die beschreibt, wie sich zwei Wellen addieren und subtrahieren, wenn sie sich überlagern.

  • Beugung, die eine Streuung eines Lichtstrahls ist, der durch eine Öffnung tritt, oder eine Beugung von Licht, das eine Kante eines Objekts passiert. Die Beugung resultiert aus der Interferenz mehrerer Wavelets an der Wellenfront des Strahls.

  • Beugung eines Einzelspalts, die speziell die Bildung des (Airy-)Beugungsmusters des Lichts beschreibt, das durch eine einzelne Blende fällt, und die in direktem Zusammenhang mit dem vorliegenden Fall steht.

  • Rayleigh-Kriterium, das den Mindestabstand zwischen zwei Airy-Mustern definiert, bei dem sie noch als zwei verschiedene Bilder erkannt werden können. Dieses Kriterium wird verwendet, um den Winkel in unserer Formel zu berechnen.

Deine Formulierung ist nicht korrekt.

Tatsächlich kann ein Objekt auch dann gesehen werden, wenn es eine Größe in der Größenordnung der Weglänge hat, und noch weniger. Das hängt alles davon ab, was Sie mit "sehen" meinen.

Einfach gesagt wirken sich alle "Wellen"-Effekte von Photonen auf das "Bild" aus, das von einem einfachen Parameter abhängt: dem Verhältnis zwischen der Wellenlänge und der Objektgröße (und der Entfernung, in der sie beobachtet werden).

Wenn die Größenordnung der Objektgröße viel größer als die Wellenlänge ist, erhalten Sie ein "klassisches" Bild. OTOH, wenn sich die Objektgröße der Wellenlänge nähert, beginnen die Welleneffekte zu dominieren.

Mit "sehen" meinte ich, Informationen über ihre Größe, Struktur usw. zu erhalten.

Ich glaube nicht, dass jemand Nahfeldmethoden erwähnt hat. In der Optik erreichen Techniken wie NSOM (Near Field Scanning Optical Microscopy) routinemäßig eine Auflösung von λ / 100 . Mit Millimeterwellen konnten wir Strukturen von etwa 1/6 abbilden λ . Hier sehen Sie ein Bild eines RFID-Chips in der Plastikkarte, aufgenommen bei 260 GHz. Die Grauskala bezieht sich auf den Phasenkontrast, in diesem Fall des reflektierten E-Felds. pdf Papier . Mit Optiken können Sie besser abschneiden als mit Millimeterwellen, weil Sie Photomultiplier-Röhren und viel kleinere Aperturen verwenden können.

reflektiertes Phasenbild