Ich möchte ein Spannungsmesssystem für den Ausgang einer kürzlich gekauften HV-Stromquelle aufbauen. Die Quelle liefert etwa 0 - -60 kV DC und 10 mA an meine Last. Leider verfügt die Quelle über kein Spannungsmesssystem, daher werde ich mit deren Erstellung beauftragt. Das wird besonders schwierig, weil ich nicht genug Geld habe, um genügend HV-Sonden zu kaufen, die einfach an ein Multimeter angeschlossen werden könnten. Daher brauche ich eine Möglichkeit, die Eingangsspannung von -60 kV auf etwas zu senken, das für das Multimeter handhabbar ist.
Derzeit ist dies der Schaltplan, den ich verwenden möchte, um die Spannung zu senken:
Simulieren Sie diese Schaltung – Mit CircuitLab erstellter Schaltplan
Das Multimeter, das ich derzeit besitze, kann bis zu 660 VDC verarbeiten. Wäre das Multimeter unter Verwendung meines obigen Geräts in Verbindung mit dem Multimeter in der Lage, die an es gelieferte Spannung zu verarbeiten und einen genauen Messwert der Netzspannung auszugeben (vorausgesetzt, dass eine Reihe von Berechnungen durchgeführt werden)?
Es ist unwahrscheinlich, dass Sie einen einzelnen Widerstand finden, der 60 kV verarbeiten kann. Sie müssen wahrscheinlich viele Widerstände in Reihe verwenden. Achten Sie darauf, die Toleranz zu berücksichtigen, wenn Sie die Spannung über jedem Widerstand berechnen.
Der 100-M-Widerstand würde 36 W verbrauchen.
Achten Sie auf die Belastung des Vorrats. Diese Vorrichtung zieht 0,6 mA.
Meines Wissens hängt die Genauigkeit Ihrer Messung von der Empfindlichkeit Ihres Multimeters ab. Laut Ihrem Teiler fließen etwa 600 uA durch die Widerstände. Ein kleiner Strom wie 100 uA, der in das Multimeter gezogen wird, ändert also die Messwerte.
Fast jedes digitale Multimeter verwendet einen elektronischen Verstärker (Operationsverstärker) in der Eingangsstufe, der die Impedanz festlegt. Ein gutes digitales Multimeter erledigt also die Arbeit für Sie. Die meisten analogen Multimeter ziehen jedoch je nach Eingangsspannung einen unterschiedlichen Strom. Das wird also ein No Go.
Eine kleine Änderung wäre, das Multimeter im Strommessbereich zu verwenden, statt Spannungsmessung.
Auf diese Weise können Sie den Messstrom auf Mikroampere reduzieren, und er wäre auch viel unempfindlicher gegenüber der Impedanz des Multimeters. Und die Spannung an den Drähten, die zum Multimeter führen, beträgt weniger als ein Volt.
Es ist immer noch eine gute Idee, R2 an Ort und Stelle zu lassen, um die Spannung zu begrenzen, falls das Messgerät nicht angeschlossen ist. Für den µA-Pegelmessstrom ist Ihr Wert von 1 MOhm geeignet, um die Spannung auf ungefährliche ~60 Volt zu begrenzen.
Und wie bei anderen bereits erwähnten Antworten müssen Sie R1 aus mehreren Widerständen als physikalisch lange Kette aufbauen, um Lichtbögen zu vermeiden. Zum Beispiel würden 100 x 10-MOhm-Widerstände in Reihe eine Antwort von 1 µA = 1 kV für das Messgerät ergeben.
Der Vorteil ist, dass im Strommessmodus die Impedanz des Multimeters im Vergleich zu R2 sehr niedrig ist (höchstens einige Kiloohm). Auf diese Weise wird der gesamte Messstrom sinnvoll im Messgerät verwendet, anstatt als Wärme verschwendet zu werden. Auch die genaue Impedanz spielt keine Rolle, da sie in jedem Fall viel kleiner als R2 ist, während im Spannungsmodus die Impedanz mehrere Megaohm beträgt und somit dem R2-Wert ähnlich ist.
Durch Reduzierung des Messstroms auf Mikroampere reduziert sich die Wärmeverlustleistung auf zB 60 µA * 60 kV = 3,6 W, also nur 0,036 W pro Widerstand.
JRE
Elliot Alderson
jonk
Mike Wasser
Pfingst3
Mast