Ist es theoretisch notwendig, dass, wenn Licht durch eine Glasplatte fällt, seine Intensität abnehmen sollte?

Ist es notwendig, dass eine E/M-Welle einer bestimmten Frequenz, die ein Medium mit einem bestimmten Brechungsindex passieren kann, etwas von ihrer Intensität verlieren sollte? In der Praxis muss dies aufgrund von Fehlern im Kristall oder anderen Defekten notwendig sein.

Ich denke auch, dass es einen Intensitätsverlust geben muss, wenn die Photonen mit dem Kern kollidieren, aber ich beabsichtige, den Effekt der direkten Kollision mit dem Kern zu ignorieren, der wie erwartet sehr klein wäre. Gibt es also noch andere Gründe für den Intensitätsverlust? Angenommen, wir sprechen von Glas und rotem (monochromatischem) Licht.

Bearbeiten: Ich habe gelesen, dass Glas im sichtbaren Bereich des Lichts transparent ist, da Photonen im sichtbaren Bereich den Elektronen nicht genau die Energie liefern können, damit die Elektronen sie absorbieren und in einen angeregten Zustand springen. Wenn wir davon ausgehen, dann wird ein monochromatisches Licht entweder reflektiert oder gebrochen . Wie können beide in der gleichen Situation auftreten?

Können wir also ein monochromatisches Licht mit einer solchen Energie wählen, dass es geringer ist als die Energie, die erforderlich ist, um die im Material vorhandenen Elektronen anzuregen, und das Material daher die Photonen überhaupt nicht absorbieren kann? (unter der Annahme vollständiger Einheitlichkeit im Kristalldesign des Materials durchweg). Daher wird es theoretisch keinen Intensitätsverlust geben.

Antworten (2)

Wenn Licht auf eine Barriere trifft, auch auf transparente, wird ein Teil des Lichts reflektiert und ein Teil gebrochen. Dies wird oft durch den Transmissionskoeffizienten für dieses Material und bei dieser Wellenlänge beschrieben . Dies kann an den makroskopischen Barrieren und an den kleineren Barrieren zwischen Kristallen oder Körnern innerhalb eines Materials geschehen. Es ist eine einfache Eigenschaft von Wellen, die bei Lichtwellen zutrifft.

Sie können sich dies als Licht vorstellen, das von einem Material in zufällige Richtungen absorbiert und wieder emittiert wird, wobei jedoch die Richtung des einfallenden Lichts bevorzugt wird. Aufgrund der Tatsache, dass einige Photonen hindurchgehen und andere in andere Richtungen emittiert werden, nimmt die Intensität ab. Außerdem werden einige der absorbierten Photonen nicht wirklich wieder emittiert und in Wärme umgewandelt.

Können wir ein monochromatisches Licht mit einer solchen Energie wählen, dass es geringer ist als die Energie, die erforderlich ist, um die im Material vorhandenen Elektronen anzuregen, und das Material daher die Photonen überhaupt nicht absorbieren kann? (unter der Annahme vollständiger Einheitlichkeit im Kristalldesign des Materials durchweg). Daher wird es theoretisch keinen Intensitätsverlust geben.
@Raja Theoretisch ja. In der Praxis kommt das selten vor. Wir können uns aber ziemlich nahe kommen.

Da Ihr Titel mit "Theoretisch" beginnt, gebe ich die theoretische Antwort: nein.

Die Intensität muss nicht verringert werden. Wenn Sie polarisiertes Licht im Brewster-Winkel in eine Platte aus transparentem Material senden , gibt es KEINE Reflexion, und das gesamte Licht wird übertragen. Theoretisch bedeutet dies, dass Sie möglicherweise eine 100% ige Übertragung erhalten. In der Praxis weisen Materialien Defekte auf, die dazu führen können, dass nicht das gesamte Licht durchgelassen wird, aber es gibt keinen grundsätzlichen Grund, warum dies immer der Fall sein sollte.