Berücksichtigen wir die Bedeutung von Bits bei der Berechnung der Bitfehlerrate?

Die Frage bezieht sich allgemein auf die Bitfehlerrate, aber um konkret zu sein, stelle ich sie im Zusammenhang mit 16-QAM.

Stellen Sie sich vor, wir haben eine rechteckige 16-QAM-Modulation und nehmen auch an, dass wir Gray-Codierung haben. Soweit ich weiß, ist Gray-Codierung hilfreich, denn selbst wenn es Rauschen gibt, sind wir nur um 1 Bit daneben.

Betrachten Sie nun die Symbole, die in der Abbildung unten in einem roten Rechteck dargestellt sind: „0000“, „0001“ und „0100“. Wenn wir '0000' fälschlicherweise als '0001' oder '0100' erkennen, ist der Bitfehler derselbe, da wir in beiden Fällen nur um 1 Bit daneben liegen. Wenn wir jedoch fälschlicherweise in '0001' fallen, ist der Fehler tolerierbar, da wir um das niederwertigste Bit daneben liegen. Wenn wir andererseits in '0100' fallen, sollte der Fehler schlimmer sein, da wir um ein höherwertiges Bit daneben liegen.

Um es zusammenzufassen: Berücksichtigen wir die Bedeutung von Bits bei der Berechnung der Bitfehlerrate? Wenn nicht, warum ist das so?

Geben Sie hier die Bildbeschreibung ein

Die meisten modernen Codierungsschemata berücksichtigen die Bitwertigkeit. Beispielsweise verwendet einer der neueren GSM-Sprachcodecs eine stärkere Vorwärtsfehlerkorrektur für die "wichtigen" Bits im Rahmen und weniger Schutz für kleinere Bits. Dies tendiert dazu, die Wichtigkeit aller übertragenen Bits auszugleichen. Die meisten physikalischen Kanalcodierungen, wie OFDM oder CDMA, haben ebenfalls diesen Bitwichtigkeitsausgleich als Ziel oder zumindest als nützlichen Nebeneffekt.

Antworten (2)

Nein, denn dazu müsste man etwas über die Semantik des Inhalts wissen. Bits sind Bits; entweder haben sie recht oder nicht, und wenn sie falsch liegen, macht es keinen Sinn, sie zu verwenden.

Hier kommt die Fehlererkennung und Fehlerbehebung ins Spiel. Prüfsummen- oder MAC-Systeme (Message Authentication Code) erkennen einen Fehler in jedem Bit. Manchmal führt dies dazu, dass eine erneute Übertragung angefordert wird.

Ein alternativer Ansatz ist die Verwendung einer Vorwärtsfehlerkorrektur , wie z. B. Reed-Solomon, die zusätzliche Bits überträgt, die es dem Empfänger ermöglichen, sich von einer bestimmten Anzahl von Einzelbitfehlern zu erholen. Auch hier spielt es keine Rolle, an welcher Bitposition sich der Fehler befindet.

(Außerdem sollten wir nicht davon ausgehen, dass das LSB der Übertragungscodierung dem LSB von irgendetwas im empfangenen Datenstrom zugeordnet ist! Was ist, wenn es das höchstwertige Halbbyte einer Größe ist, die eine 128-Bit-Zahl darstellt?)

Außerdem hat der Encoder natürlich keine Möglichkeit zu wissen, ob die Datenblöcke (Bytes, Wörter usw.) Little-Endian oder Big-Endian sind.

Die Bitfehlerrate ist genau das, was sie sagt: die Gesamtzahl fehlerhafter Bits pro Zeiteinheit.

Ob das Bit zufällig das niederwertigste Bit im Codierungsschema war, spielt bei den allermeisten Links überhaupt keine Rolle.

Betrachten Sie Video; Wenn ein Frame ein fehlerhaftes Bit enthält, müsste ich in einigen Anwendungen den Frame in einigen Anwendungen vollständig verwerfen , wenn der Link keine Möglichkeit hätte, ein erneutes Senden anzufordern.

Selbst wenn der Link über eine Methode zum Anfordern des fehlerhaften Frames verfügt (z. B. bei Ethernet , PCI Express und anderen), verringern Fehler effektiv den Gesamtdurchsatz des Links.

Also - nein; die Position des fehlerhaften Bits im Strom ist ohne Bedeutung.