Stromabfall in einer Lampe aufgrund der Skalenänderung eines analogen Amperemeters

Ich verstehe nicht, was in der folgenden Situation bezüglich des Innenwiderstands eines analogen Amperemeters passiert. Der Innenwiderstand des analogen Amperemeters ändert sich, wenn die Skala geändert wird.

Wenn das Amperemeter beispielsweise eine Skala hat, bei der der maximale Strom 50 mA beträgt, und ich dann zu einer anderen Skala wechsle, bei der der maximale Strom 500 mA beträgt, ist der Innenwiderstand unterschiedlich, da das Ändern der Skala dem Hinzufügen oder Entfernen von Shunt-Widerständen entspricht.

Betrachten Sie die Schaltung im Bild, bei der die Lampe eine Wolframfadenlampe ist (der Widerstandswert liegt bei Raumtemperatur und steigt mit der Temperatur). Daneben habe ich Amperemeter und Voltmeter und deren Innenwiderstand dargestellt. Betrachten Sie die beiden Skalen 1. und 2. des Amperemeters:

  1. Der maximale Strom beträgt i=50 mA und der Innenwiderstand beträgt Ra=6 Ohm
  2. Der maximale Strom beträgt i=500 mA und der Innenwiderstand beträgt Ra=1 Ohm

schematisch

Simulieren Sie diese Schaltung – Mit CircuitLab erstellter Schaltplan

Angenommen, ich setze AM1 auf Skala 1. Ich messe die Spannungsdifferenz über R mit VM1 und finde einen bestimmten Wert.

Wenn ich nun AM1 auf Skala 2 schalte. was passiert mit dem Strom I und der Spannung V an R?

Ich habe dies mit einer echten Schaltung versucht und festgestellt, dass die

  • Die Spannung V über R steigt an
  • Strom I nimmt ab

Wie lässt sich das erklären? Warum nimmt insbesondere der Strom ab?


Ich habe versucht, mir folgende Erklärungen zu geben: Das Ohmsche Gesetz besagt

V=I*R|| =R||*10/(Ra+R||) (wobei R|| die von der Lampe und dem Voltmeter gegebene Parallele ist, die fast gleich dem Widerstand der Lampe ist)

Ich sehe, warum V zunehmen sollte, wenn Ra abnimmt, aber wenn ich mir die Formel anschaue, sollte der Strom I auch zunehmen!

Ich denke, dass das Problem darin besteht, den Widerstandsanstieg der Lampe zu berücksichtigen, daher R|| steigt, wenn V steigt, und dies würde erklären, warum der Strom I abnimmt.

Aber gleichzeitig, dieser Argumentation folgend, R|| sollte auch zunehmen, wenn der Strom I zunimmt (da mehr Wärme von der Lampe erzeugt wird und sie heißer werden sollte).

Ich verstehe nicht, wie ich die Erklärung richtig machen soll, und ich verstehe nicht, wie ich "beweisen" soll, dass der Strom abnehmen muss, nur ausgehend von der Tatsache, dass die Lampe einen stark von der Temperatur abhängigen Widerstand hat.

Bitte bearbeiten Sie Ihre Frage so, dass die im Text verwendeten "R" mit den "R" in Ihrem Schaltplan übereinstimmen. Das heißt: Ra & Rv, nicht einfach R. Außerdem ändern Amperemeter normalerweise den Bereich, indem sie Shunt- (dh parallele) Widerstände hinzufügen / subtrahieren, nicht einen Vorwiderstand, wie Sie in Ihrem Diagramm zeigen.

Antworten (1)

Um die Skala eines Amperemeters zu ändern, ändern Sie einen Widerstand parallel zum Messgerät, nicht in Reihe. Die Skalenendspannung ist für alle Bereiche gleich. Für eine 1-Ampere-Skala auf einem 1-V-Messgerät würden Sie also einen Widerstand anbringen, der Ihnen 0,1 V über das Messgerät liefert. Für eine 100-mA-Skala würden Sie einen Widerstand setzen, der Ihnen 1 V über das Messgerät gibt. Ra sollte über dem Messgerät liegen.