Ich habe eine Frage zu einem Messschema für Phasenrauschen, das ich zu implementieren versuche. Die Idee ist, dass ich zwei identische Signalgeneratoren habe (das tue ich tatsächlich), die beispielsweise ein sinusförmiges Spannungssignal erzeugen
Wo ist die Amplitude, nu die Frequenz (ich nehme einfach an, dass dies vorerst perfekt implementiert ist) und die Phase, wo die Zeitabhängigkeiten auf das Rauschen zurückzuführen sind; Idealerweise wären natürlich sowohl die Amplitude als auch die Phase statische Werte, aber in der Praxis sind sie es nicht. Im Allgemeinen hat dieses Rauschen einen verschwindenden Mittelwert, also könnte ich zum Beispiel schreiben
Wo Und . Damit werden die von den Generatoren erzeugten Signale
Nun ist der Zweck meiner Untersuchung, zu charakterisieren : Ich versuche, seine spektrale Leistungsdichte zu finden. Ich mache das, indem ich das Spannungssignal in einer Zeitreihe messe und (diskrete) Fourier-Transformationen verwende, um die spektrale Spannungsdichte und dann die spektrale Leistungsdichte zu finden.
Aber im Allgemeinen ist das Rauschen natürlich ziemlich schwer zu unterscheiden, wenn es mit dem eigentlichen zeitalternierenden Teil aufgrund von nu konkurriert. Um dies herauszuholen, verwenden wir einen IQ-Mischer mit einem LO- und einem HF-Signal auf derselben Frequenz, und wir verwenden das herunterkonvertierte Signal mit ihrer Differenzfrequenz (= 0), um ein DC-Signal zu erhalten, das aufgrund der Zeit tatsächlich leicht variiert zum Phasenrauschen.
Dann hätten wir (glaube ich) ein Signal vom Typ (setting zur Bequemlichkeit)
Aber hier kommt meine Frage ins Spiel. Wir wollen nur das Phasenrauschen messen, nicht das Amplitudenrauschen, und ich verstehe nicht, wie das erreicht wird. Das von uns verwendete Schema ist hier dargestellt
Es verwendet einen IQ-Mischer (Eingänge LO und RF) mit Ausgängen I und Q, aber wir terminieren Q und verwenden nur den Ausgang von I. Irgendwie ergibt dies ein Signal, bei dem die Amplitudenschwingungen laut meinem Vorgesetzten nicht relevant sind. Ich persönlich sehe das aber nicht. Ich habe das Gefühl, dass die Amplitudenabhängigkeit immer noch darin enthalten sein wird.
Das Argument, das mein Vorgesetzter mir gibt (dem ich nicht folge), ist jedoch, dass wir unser Signal in der IQ-Ebene so einstellen, dass der Mittelwert entlang Q liegt, was bedeutet, dass wenn wir dann I messen, es unempfindlich gegenüber der verglichenen Amplitude ist zur Phase. Das machen wir mit dem Voltmeter: Während die beiden Signalgeneratoren den gleichen Takt haben, sind ihre Phasen immer noch nicht identisch, also stellen wir an einem der beiden eine relative Phase ein, bis das Voltmeter (fast) 0 anzeigt.
Könnte mir jemand helfen zu verstehen (vorzugsweise mit einer oder zwei Gleichungen), warum dies tatsächlich nicht empfindlich auf das Amplitudenrauschen (Modulationsrauschen) reagiert?
Der Mischerausgang sollte nicht empfindlich auf kleine Amplitudenänderungen auf dem LO-Pfad reagieren. Somit wird jeder Amplitudenfehler in der Messung durch den Amplitudenfehler von Quelle SG2 dominiert. Im Allgemeinen ist der Amplitudenfehler eines guten Signalgenerators sehr gering. Der von Ihnen gemessene Fehler ist also fast ausschließlich eine Kombination der Phasenfehler aus beiden Quellen.
Zur Kontrolle können Sie den Amplitudenfehler selbst mit einem einzigen Signalgenerator messen. Teilen Sie den Ausgang auf und legen Sie das Signal sowohl an die LO- als auch an die HF-Eingänge an.
Benutzer129412
Andi aka
Spannungsspitze
johnnymopo
Benutzer129412
Benutzer129412