Warum wird der Audio-Hilfsträger niemals mit dem analogen Basisband-Videosignal übertragen?

Wenn Sie im Zeitalter des analogen Videos eine lokale Videoquelle (STB, VCR, Spielkonsole, DVD-Player usw.) eine Composite-Video-Verbindung. Aber es wurde nur ein Videosignal übertragen - für Audio benötigte man ein zweites RCA-Kabel. Und da der Ton oft in Stereo ist, wurde es üblich, dreifache RCA-Kabel mit farbcodierten weißen, roten und gelben Steckern an beiden Enden zu sehen.

Es gibt natürlich Kombikabel wie SCART oder D-Terminal , aber lassen wir das erstmal beiseite.

Nun stellt sich die Frage - warum nicht einfach das Audiosignal, moduliert auf die gleiche Weise wie in einem Rundfunkkanal, innerhalb des Basisband-Videokabels übertragen? Es sollte weder die Qualität von Video (da der Audio-Unterträger außerhalb der Videobandbreite liegt) noch von Audio (da die Tonträgerfrequenz von je nach Region 4,5-6,5 MHz - und ihre Bandbreite - hoch genug sind, um alles zu codieren, nicht wesentlich beeinträchtigen hörbare Frequenzen). Stereo könnte auch auf dem üblichen Rundfunkweg übertragen werden ( MTS , A2 oder NICAM ).

Ich weiß nicht, was die praktische Bandbreite für ein typisches Composite-Videokabel ist, aber in PAL-Regionen trägt das Basisbandsignal bereits den 4,43-MHz-Chroma-Träger - ungefähr die gleiche Frequenz, auf der sich NTSC- (und PAL-M / N) -Audio befindet (4,5 MHz), also reicht das wohl als Machbarkeitsnachweis zumindest in NTSC-Regionen.

Analoge Videogeräte enthielten normalerweise sowieso einen HF-Modulator - daher war die gesamte Logik, die zum Modulieren dieses FM- (oder AM- in Frankreich) Audiosignals erforderlich ist, normalerweise bereits vorhanden -, sodass sich dies nicht wesentlich auf den Preis des Geräts auswirken sollte.

Eine solche Anordnung würde es ermöglichen, eine Basisband-Videoquelle mit einem einzigen Kabel anzuschließen – was ein ziemlich guter Komfort und ein Verkaufsargument zu sein scheint – das Anschließen einer Reihe identischer Stecker kann fehleranfällig sein, insbesondere bei weniger technisch versierten Kunden.

Darüber hinaus können Composite-Videokabel viel dünner, länger, robuster und billiger werden als zB die oben genannten SCART-Kabel - ich sehe viele Leute, die bereit sind, Qualitätseinbußen (im Vergleich zu S-Video oder RGB, die von SCART angeboten werden) in Kauf zu nehmen - und viele Leute würden den Unterschied nicht einmal sehen) für die größere Flexibilität bei der Kabelanordnung, die auf diese Weise gewonnen wird.

Also... warum wurde es nie so gemacht?

Willkommen bei EE.SE! Ausgezeichnete Frage. Dahinter dürfte eine interessante Designgeschichte stecken.
Die roten und weißen RCA-Stecker können direkt mit den Aux-Eingängen eines Stereoverstärkers verbunden werden. Wenn das Audio in modulierter Form vorliegt, benötigen Sie irgendwo zusätzliche Geräte, um es zu demodulieren.

Antworten (2)

Weil das Video Basisband ist . Das heißt, es wird NICHT auf einen VHF- oder UHF-Träger aufmoduliert. Sie möchten das auf einen HF-Träger modulierte Audio mit dem Basisband -Videosignal kombinieren . Und dann, um das Audio am anderen Ende des Kabels wieder ins Basisband zu demodulieren . Das hat die tödliche Kombination aus höheren Kosten und geringerer Qualität. Wie ist das "besser"?

Denken Sie daran, dass die meisten Verbraucher-"Unterhaltungselektronikgeräte" als Audiogeräte begannen, bei denen das RCA-Verbindungsschema für den linken und rechten Kanal bereits gut etabliert war. Daher war es einfacher, nur Basisbandvideo auf einem separaten RCA-Anschluss/Kabel zu übertragen.

Darüber hinaus reisen Audio- und Videosignale sehr oft auf unterschiedlichen Wegen und werden von getrennten Geräten sowohl am Erzeugungsende der Kette als auch am Verbraucherende der Kette unterschiedlich behandelt. Daher ist die Kombination von Audio und Video oft eher ein Problem als eine Bequemlichkeit. Hier im digitalen 21. Jahrhundert müssen wir ZUSÄTZLICHE Geräte verwenden, um Audio aus Video „auszubrechen“ und es dann „neu zu kombinieren“, was häufig zu einem Verlust der A/V-Synchronisierung führt, da es normalerweise länger dauert, die viel höhere Bandbreite zu verarbeiten Videodaten als für den Audiobitstrom.

Wie ich bereits erwähnte, umfasste die Ausrüstung der damaligen Zeit ohnehin üblicherweise HF-Modulatoren. Ich bin mit dem Design eines typischen HF-Modulators nicht genau vertraut - wird das Audio zuerst auf HF auf das Basisband-Videosignal moduliert und dann das resultierende Signal als Ganzes auf VHF / UHF moduliert, oder werden Video und Audio separat auf ihre moduliert jeweiligen Endfrequenzen? Im ersten Fall würde das Hinzufügen eines "Basisband-Video + HF-Audio" -Signals nur dazu führen, dass ein bereits vorhandenes Zwischensignal als externe Buchse freigelegt wird. Kaum Kosten, soweit ich das beurteilen kann.
Analoge Fernsehsender hatten typischerweise getrennte Sender für Bild und Ton. Die Ausgänge der beiden Sender wurden zusammengeführt und an die Sendeantenne gesendet. Es scheint ziemlich sicher, dass Ihr Schema sorgfältig geprüft wurde, bevor sich die Industrie für die einfachere (und flexiblere und qualitativ hochwertigere) Option entschied, die Basisband-Video- und Basisband-Audiosignale getrennt zu handhaben.
Wie ich bereits sagte, enthielten die Geräte der damaligen Zeit ohnehin HF-Modulatoren , aber der springende Punkt bei Composite-Video ist, es nicht zu modulieren. Ihr Punkt ist also ziemlich strittig, @kFYatek.
Tatsächlich überträgt Composite-Video praktisch das, was die Röhrensteuerschaltung sieht, nachdem das HF-Frontend das HF-Signal demoduliert hat. Technisch gesehen wird es am häufigsten anstelle dessen eingespeist, was von HF demoduliert wird – es gibt keine Möglichkeit, es durch den HF-Teil zu leiten; die Mittenfrequenzen sind einfach zu unterschiedlich, damit kann der HF-Teil nicht umgehen. Wenn Sie es auf eine Frequenz legen möchten, mit der der HF-Teil arbeiten könnte, benötigen Sie "teure" Koaxial- und Antennenanschlüsse.
@MarcusMüller Sowohl Sie als auch Richard irren sich hier ziemlich. Composite-Video enthält bereits modulierte Komponenten, dh die Farbinformationen. Das Poster schlägt lediglich vor, auch den Audio-Hilfsträger hinzuzufügen, wodurch das Basisbandsignal den gleichen Inhalt wie ein typisches ZF-Signal eines Rundfunkempfängers aus der analogen Ära hat ... nur die ZF-Frequenz ist jetzt Null.
Wenn man so scharf darauf ist, Qualität für "Komfort" zu opfern, dann benutzt man einfach den "Antennen"-Anschluss, wo alles zusammen moduliert wird. Ja, es ist wahr, dass die Chroma-Amplituden- und Phaseninformationen auf einen internen Unterträger (3,14159 MHz für NTSC) moduliert werden, und jeder, der das ursprüngliche RGB-Signal mit der NTSC-„Composite“-Codierung verglichen hat, versteht, warum JEDE Art der Codierung eine signifikante Qualität erzeugt Schlag.

Beim analogen Fernsehen ist Video Amplitudenmodulation, Audio ist Frequenzmodulation, zumindest bei einem Rundfunksignal. AM kann direkt demoduliert und in ein analoges Breitbandsignal umgewandelt werden, normalerweise 4,5 MHz breit, was bedeutet, dass es genau das ist. Das ausgestrahlte FM-Signal muss von FM nach AM umgewandelt werden, um es hörbar zu machen... Bei niedrigen Frequenzen gibt es zu viel Verlust. Noch wichtiger ist, dass es zu viele Schaltkreise erfordern würde, was Videorecorder und Boxen viel teurer machen würde.

Sie müssten von UKW-Rundfunk in AM-Audio konvertieren (was alle bereits tun), dann das zusammengesetzte AM-Audio in ein UKW-Signal im unteren Band, das über 4,5 MHz passt, neu modulieren und dann auf der Empfängerseite dekodieren es und wandle es zurück in AM zur Verstärkung usw.

Sie könnten. Ich habe dies bei spezialisierten Überwachungskamerasystemen getan, bei denen ich nur ein Koaxialkabel hatte und Audio benötigte.

Bei manchen Systemen muss man auch berücksichtigen, dass es sich um Composite-Stereo handelt. Demodulieren und erneut modulieren und demodulieren erfordert geeignete Betonungskurven usw.

Die einfache Antwort ist, dass vor den 1990er Jahren viele Videorecorder und sogar einige Laser Discs „RF OUT“-Anschlüsse hatten, die ein virtuelles TV-Sendesignal modulierten, sodass ein Videorecorder über einen einfachen Anschluss angeschlossen werden konnte, was es zu einer verbraucherfreundlichen Technologie machte, die Ihre Großeltern umgehen konnte. Fast die ganze Zeit über konnten die Videorecorder, Set-Top-Boxen usw. jedoch kein Composite-STEREO-TV über die Koaxialverbindung übertragen.

Daher gibt es Tonnen von VHS-Bändern usw., die über Kabel auf Stereo-Videorecordern aufgenommen wurden, die Zweikanal-Mono sind. Es war eine schlechte Implementierung dieser Systeme, die dazu führte, dass RCA-Kabel, SCART-Stecker usw.

Es gibt weniger Verluste bei der Übertragung über Audio- und Videokabel im Vergleich zu moduliertem Composite auf einem Fernsehkanal.

Sowohl VHS-Recorder als auch Betamax zeichnen den Ton als FM-Signal auf dem Videoband auf, entweder in einem anderen Winkel oder als Zwischenträger unter dem Video.

In Wirklichkeit macht das Betamax-System genau das, es platziert ein zusammengesetztes FM-Signal mit dem Video. Aber Fernsehen wie NTSC war eine Technologie der 40er und frühen 50er Jahre, und es war nicht möglich, alle Fernsehgeräte der Welt auf ein bandbreiteneffizienteres System wie das verwendete Verbraucher-Betamax umzustellen.

Der einzige Vorteil von ATSC als TV-Signal besteht darin, dass die Audiopakete mit dem Video gehen, obwohl auch diese technisch getrennte Pakete in einem Stream sind.

Nur die Intensitätskomponente (sprich: Schwarzweiß) des Videos wird als Amplitudenmodulation codiert; je nachdem ob PAL, SECAM oder NTSC gemeint sind, Chroma usw. werden als Phase oder Frequenz kodiert, und seltsame Mischungen von Modulationen.