Energieverluste bei der Übertragung von Elektrizität [Duplikat]

Könnte bitte jemand erklären, warum wir die Spannung erhöhen, wenn wir Strom über große Entfernungen übertragen? Ich habe gelesen, dass es Energieverluste reduzieren soll. Warum führt eine hohe Spannung nicht zu hohen Energieverlusten? Könnten Sie es mir auch anhand der p = v ^ 2 / R-Gleichung zeigen, da hier meine Schwierigkeiten liegen. Wenn die Spannung wirklich hoch ist, würde die Verlustleistung nicht größer sein?

Ich stimme @CDCM zu ... mehrere Leute haben diese Frage bereits beantwortet, mich eingeschlossen.
Tut mir leid, Leute. Sie beantworten es nicht wirklich und zeigen, wie ich die p = v ^ 2 / r-Gleichung falsch verwende, was der eigentliche Fehler ist, den ich habe.
Die Spannung ist nicht die Gesamtspannung zwischen Übertragungsleitung und Erde, sondern der Spannungsabfall vom Anfang bis zum Ende der Leitung. Das ist v L in der doppelten Frage.

Antworten (1)

In deinem Ausdruck v ist der Spannungsabfall über den Kabeln, der mit dem Widerstand der Kabel abnimmt R verringert wird.

In Ihrem Ausdruck für die Verlustleistung wird der Spannungsterm quadriert und damit der Zähler v 2 nimmt schneller ab als der Nenner R, wenn der Widerstand abnimmt, daher nimmt die Verlustleistung in den Kabeln ab, wenn der Widerstand der Kabel abnimmt.

Wenn der Strom ist ICH dann der Spannungsabfall über den Kabeln v = R ICH und so ist der Leistungsverlust ( R ICH ) 2 R = ICH 2 R Welche Form ist vielleicht bekannter?