Jitter in 'ppm' und 'ns'

In vielen Datenblättern wird die Takttoleranz in ppm und in einigen anderen in ns oder ps angegeben. Was ist der Unterschied bei der Angabe der Takttoleranz in ppm und ns/ps . Wie kann es von einer Einheit in eine andere umgewandelt werden?

Antworten (4)

Wie kann es von einer Einheit in eine andere umgewandelt werden?

Du kannst nicht. Bei den beiden Spezifikationen geht es um völlig unterschiedliche Dinge.

Wenn die Frequenztoleranz beispielsweise 100 ppm beträgt, hat Ihr 1-MHz-Takt eine Frequenz im Bereich von 1 000 000 Hz +/- 100 Hz.

Das sagt nichts über Jitter aus. Die Frequenz ist nur die durchschnittliche Anzahl von Taktzyklen in einer Sekunde. Bei Jitter geht es um die Varianz der Taktperiode. Wenn also Ihre Taktperiode zufällig um Tj = 10 ns RMS (z. B.) variiert, die Periode jedoch im Durchschnitt immer noch 1 µs beträgt, können Sie eine sehr genaue (aber zittrige) 1-MHz-Uhr haben.

EDIT: ... aber wenn die Genauigkeit in µs / Minute (zum Beispiel) angegeben ist, dann ist es Genauigkeit und kein Jitter. Der Weg zum Umwandeln ist ganz einfach...

P P M = 10 6 D R ich F T ich N T e R v A l

also 1µs Drift über 1 Minute = 1 µ S / 60 S = 0,016 ppm (das muss teuer sein ...) es hängt nicht von der Frequenz ab, da es sich um eine zeitlich gemessene Drift über ein Zeitintervall handelt. Wenn Sie beide mit der Frequenz multiplizieren, dann ist es eine Drift, die in Anzahl von Perioden gemessen wird, über ein Intervall, das ebenfalls in Anzahl von Perioden gemessen wird. Die Frequenz erscheint sowohl als Zähler als auch als Nenner, also verschwindet sie.

Nun zum Jitter, da ich nicht weiß, ob Sie von einer Jitter-Spezifikation oder einer Drift-Spezifikation sprechen ... Die ppm-Spezifikation ist nützlich, wenn Sie an der Frequenzgenauigkeit interessiert sind. Bei der Jitter-Spezifikation (oder genauer gesagt dem Phasenrauschen) geht es um die spektrale Reinheit, die sehr wichtig ist, wenn Sie die Frequenz als HF-Träger verwenden. Außerdem hat sie einen starken Einfluss auf das ADC / DAC-Grundrauschen usw. Zum Beispiel bei der Datenübertragung (wie USB)-Frequenzgenauigkeit ist nicht wichtig, da sich der Empfänger mithilfe einer PLL mit dem Sender synchronisiert, aber Jitter in der wiedergewonnenen Uhr ist äußerst wichtig, da Sie die empfangenen Bits zur richtigen Zeit abtasten möchten .

Der Teufel steckt im Detail.

Nur auf den ersten Blick kann man das nicht. Aber wenn Sie den Mittelwert kennen, können Sie. ppm ist einfach "Parts Per Million", was genau wie ein Prozentsatz funktioniert.

Ein Teil pro Million (1 ppm) bedeutet 1/1000000, oder 1 % sind 10000 ppm.

Wenn die Zeitbasis eine Millisekunde (1 kHz) und der Jitter ein ppm beträgt, beträgt der Jitter ein Millionstel von 1 ms oder 1 ns.

ppm gibt die Genauigkeit an, also die Abweichung vom Nennwert. Andererseits gibt ns/ps an, wie viele Sekunden der Fehler pro Tag/Monat/Jahr beträgt...
Sie könnten also ns/ps und den schlimmsten Fall in ppm vergleichen. Eine 20-MHz-Uhr mit 20 ppm arbeitet zwischen 20M(1-20/1000000) und 20M(1+20/1000000) Hz und hat einen Fehler (im schlimmsten Fall) von 86400*(20/1000000)=1,728 Sekunden pro Tag.

Zeitjitter = Vnoise / SlewRate

Wenn ihr mehr Details braucht, einfach pfeifen (aus Casablanca)