Zum Inhalt springen

„Binary Symmetric Channel“ – Versionsunterschied

aus Wikipedia, der freien Enzyklopädie
[gesichtete Version][gesichtete Version]
Inhalt gelöscht Inhalt hinzugefügt
K Kapitelreihenfolge
Zeile 1: Zeile 1:
[[Datei:Binary symmetric channel (en).svg|thumb|upright=2|Schema eines BSC]]
[[Datei:Binary symmetric channel (en).svg|mini|hochkant=2|Schema eines BSC]]
Ein '''binärer symmetrischer Kanal''' (englisch binary symmetric channel, kurz BSC) ist ein [[Kanal (Informationstheorie)|informationstheoretischer Kanal]], bei dem die [[Wahrscheinlichkeit]] einer Falschübermittlung (auch Fehlerwahrscheinlichkeit) von 1 genau so hoch ist wie die Wahrscheinlichkeit der Falschübermittlung einer 0. Das heißt, die Wahrscheinlichkeit, dass eine 1 empfangen wurde, falls eine 0 gesendet wurde und umgekehrt, beträgt die Wahrscheinlichkeit <math>p</math>. Für die verbleibenden Fälle, also der korrekten Übermittlung, ergibt sich damit eine Wahrscheinlichkeit von jeweils <math>1-p</math>:
Ein '''binärer symmetrischer Kanal''' (englisch binary symmetric channel, kurz BSC) ist ein [[Kanal (Informationstheorie)|informationstheoretischer Kanal]], bei dem die [[Wahrscheinlichkeit]] einer Falschübermittlung (auch Fehlerwahrscheinlichkeit) von 1 genau so hoch ist wie die Wahrscheinlichkeit der Falschübermittlung einer 0. Das heißt, die Wahrscheinlichkeit, dass eine 1 empfangen wurde, falls eine 0 gesendet wurde und umgekehrt, beträgt die Wahrscheinlichkeit <math>p</math>. Für die verbleibenden Fälle, also der korrekten Übermittlung, ergibt sich damit eine Wahrscheinlichkeit von jeweils <math>1-p</math>:


Zeile 12: Zeile 12:


== Kapazität ==
== Kapazität ==
Die [[ Kanalkapazität ]] des binären symmetrischen Kanals ist
Die [[Kanalkapazität]] des binären symmetrischen Kanals ist
:<math>\ C_{\text{BSC}} = 1 - \operatorname H_\text{b}(p), </math>
:<math>\ C_{\text{BSC}} = 1 - \operatorname H_\text{b}(p), </math>
wobei <math>\operatorname H_\text{b}(p)</math> die [[ Bernoulli-Verteilung#Entropie | Entropie der Bernoulli-Verteilung ]] mit Wahrscheinlichkeit <math>p</math> ist:
wobei <math>\operatorname H_\text{b}(p)</math> die [[Bernoulli-Verteilung#Entropie | Entropie der Bernoulli-Verteilung]] mit Wahrscheinlichkeit <math>p</math> ist:


<math>\operatorname H_\text{b}(p) = -p\log_2(p)-(1-p)\log_2(1-p)</math>
<math>\operatorname H_\text{b}(p) = -p\log_2(p)-(1-p)\log_2(1-p)</math>
Zeile 31: Zeile 31:
\end{align}</math>
\end{align}</math>


wobei die ersten beiden Schritte aus der Definition von Transinformation bzw. der [[ Bedingte Entropie | bedingten Entropie ]] folgen. Die Entropie am Ausgang, bei gegebenem und festem Eingangsbit (<math>H(Y|X=x)</math>) gleicht der Entropie der Bernoulli-Verteilung, was zur dritten Zeile führt, welche weiter vereinfacht werden kann.
wobei die ersten beiden Schritte aus der Definition von Transinformation bzw. der [[Bedingte Entropie | bedingten Entropie]] folgen. Die Entropie am Ausgang, bei gegebenem und festem Eingangsbit (<math>H(Y|X=x)</math>) gleicht der Entropie der Bernoulli-Verteilung, was zur dritten Zeile führt, welche weiter vereinfacht werden kann.


In der letzten Zeile ist nur der erste Term <math>H(Y)</math> von der Wahrscheinlichkeitsverteilung am Eingang <math>p_X(x)</math> abhängig. Außerdem ist von der Entropie einer binären Zufallsvariable bekannt, dass diese ihr Maximum von 1 bei einer Gleichverteilung besitzt. Die Gleichverteilung am Ausgang kann, bedingt durch die Symmetrie des Kanals, nur erreicht werden, wenn auch eine Gleichverteilung am Eingang vorliegt. Damit erhält man <math>C_{\text{BSC}}=1-\operatorname H_\text{b}(p)</math>.
In der letzten Zeile ist nur der erste Term <math>H(Y)</math> von der Wahrscheinlichkeitsverteilung am Eingang <math>p_X(x)</math> abhängig. Außerdem ist von der Entropie einer binären Zufallsvariable bekannt, dass diese ihr Maximum von 1 bei einer Gleichverteilung besitzt. Die Gleichverteilung am Ausgang kann, bedingt durch die Symmetrie des Kanals, nur erreicht werden, wenn auch eine Gleichverteilung am Eingang vorliegt. Damit erhält man <math>C_{\text{BSC}}=1-\operatorname H_\text{b}(p)</math>.
<ref>Thomas M. Cover, Joy A. Thomas: ''Elements of information theory'', S. 187, 2. Auflage, New York: Wiley-Interscience, 2006, ISBN 978-0471241959.</ref>
<ref>Thomas M. Cover, Joy A. Thomas: ''Elements of information theory'', S. 187, 2. Auflage, New York: Wiley-Interscience, 2006, ISBN 978-0471241959.</ref>

== Siehe auch ==
* [[Binärer Auslöschungskanal]]


== Literatur ==
== Literatur ==
Zeile 41: Zeile 44:
* R. Mathar:''Informationstheorie''. Diskrete Modelle und Verfahren, B.G. Teubner Verlag, Stuttgart 1996, ISBN 978-3-519-02574-0.
* R. Mathar:''Informationstheorie''. Diskrete Modelle und Verfahren, B.G. Teubner Verlag, Stuttgart 1996, ISBN 978-3-519-02574-0.


== Siehe auch ==
== Einzelnachweise ==
* [[Binärer Auslöschungskanal]]

==Einzelnachweise==
<references />
<references />


Zeile 51: Zeile 51:
* [http://page.mi.fu-berlin.de/juergen/WS0910/Codierungstheorie/codtheo3.pdf Kanalcodierung] (abgerufen am 22. Januar 2018)
* [http://page.mi.fu-berlin.de/juergen/WS0910/Codierungstheorie/codtheo3.pdf Kanalcodierung] (abgerufen am 22. Januar 2018)
* [https://www.uni-salzburg.at/fileadmin/oracle_file_imports/556438.PDF SKRIPTUM zur Lehrveranstaltung INFORMATIONSTHEORIE] (abgerufen am 22. Januar 2018)
* [https://www.uni-salzburg.at/fileadmin/oracle_file_imports/556438.PDF SKRIPTUM zur Lehrveranstaltung INFORMATIONSTHEORIE] (abgerufen am 22. Januar 2018)






Version vom 24. Februar 2018, 12:12 Uhr

Schema eines BSC

Ein binärer symmetrischer Kanal (englisch binary symmetric channel, kurz BSC) ist ein informationstheoretischer Kanal, bei dem die Wahrscheinlichkeit einer Falschübermittlung (auch Fehlerwahrscheinlichkeit) von 1 genau so hoch ist wie die Wahrscheinlichkeit der Falschübermittlung einer 0. Das heißt, die Wahrscheinlichkeit, dass eine 1 empfangen wurde, falls eine 0 gesendet wurde und umgekehrt, beträgt die Wahrscheinlichkeit . Für die verbleibenden Fälle, also der korrekten Übermittlung, ergibt sich damit eine Wahrscheinlichkeit von jeweils :

Dabei gilt , denn falls wäre, könnte der Empfänger alle empfangenen Bits invertieren und würde damit einen äquivalenten Kanal mit einer Fehlerwahrscheinlichkeit von erhalten.

Kapazität

Die Kanalkapazität des binären symmetrischen Kanals ist

wobei die Entropie der Bernoulli-Verteilung mit Wahrscheinlichkeit ist:

Beweis: Die Kapazität ist definiert als die maximale Transinformation zwischen Eingang und Ausgang für alle möglichen Wahrscheinlichkeitsverteilungen am Eingang :

Die Transinformation kann umformuliert werden zu

wobei die ersten beiden Schritte aus der Definition von Transinformation bzw. der bedingten Entropie folgen. Die Entropie am Ausgang, bei gegebenem und festem Eingangsbit () gleicht der Entropie der Bernoulli-Verteilung, was zur dritten Zeile führt, welche weiter vereinfacht werden kann.

In der letzten Zeile ist nur der erste Term von der Wahrscheinlichkeitsverteilung am Eingang abhängig. Außerdem ist von der Entropie einer binären Zufallsvariable bekannt, dass diese ihr Maximum von 1 bei einer Gleichverteilung besitzt. Die Gleichverteilung am Ausgang kann, bedingt durch die Symmetrie des Kanals, nur erreicht werden, wenn auch eine Gleichverteilung am Eingang vorliegt. Damit erhält man . [1]

Siehe auch

Literatur

  • Bernd Friedrichs: Kanalcodierung. Grundlagen und Anwendungen in modernen Kommunikationssystemen. Springer Verlag, Berlin/ Heidelberg 1995, ISBN 3-540-59353-5.
  • Werner Lütkebohmert: Codierungstheorie. Algebraisch-geometrische Grundlagen und Algorithmen. Vieweg Verlag, Braunschweig u. a. 2003, ISBN 3-528-03197-2 (Vieweg-Studium – Aufbaukurs Mathematik).
  • R. Mathar:Informationstheorie. Diskrete Modelle und Verfahren, B.G. Teubner Verlag, Stuttgart 1996, ISBN 978-3-519-02574-0.

Einzelnachweise

  1. Thomas M. Cover, Joy A. Thomas: Elements of information theory, S. 187, 2. Auflage, New York: Wiley-Interscience, 2006, ISBN 978-0471241959.