„Binary Symmetric Channel“ – Versionsunterschied
[gesichtete Version] | [gesichtete Version] |
→Literatur: + 1 |
K Kapitelreihenfolge |
||
Zeile 1: | Zeile 1: | ||
[[Datei:Binary symmetric channel (en).svg| |
[[Datei:Binary symmetric channel (en).svg|mini|hochkant=2|Schema eines BSC]] |
||
Ein '''binärer symmetrischer Kanal''' (englisch binary symmetric channel, kurz BSC) ist ein [[Kanal (Informationstheorie)|informationstheoretischer Kanal]], bei dem die [[Wahrscheinlichkeit]] einer Falschübermittlung (auch Fehlerwahrscheinlichkeit) von 1 genau so hoch ist wie die Wahrscheinlichkeit der Falschübermittlung einer 0. Das heißt, die Wahrscheinlichkeit, dass eine 1 empfangen wurde, falls eine 0 gesendet wurde und umgekehrt, beträgt die Wahrscheinlichkeit <math>p</math>. Für die verbleibenden Fälle, also der korrekten Übermittlung, ergibt sich damit eine Wahrscheinlichkeit von jeweils <math>1-p</math>: |
Ein '''binärer symmetrischer Kanal''' (englisch binary symmetric channel, kurz BSC) ist ein [[Kanal (Informationstheorie)|informationstheoretischer Kanal]], bei dem die [[Wahrscheinlichkeit]] einer Falschübermittlung (auch Fehlerwahrscheinlichkeit) von 1 genau so hoch ist wie die Wahrscheinlichkeit der Falschübermittlung einer 0. Das heißt, die Wahrscheinlichkeit, dass eine 1 empfangen wurde, falls eine 0 gesendet wurde und umgekehrt, beträgt die Wahrscheinlichkeit <math>p</math>. Für die verbleibenden Fälle, also der korrekten Übermittlung, ergibt sich damit eine Wahrscheinlichkeit von jeweils <math>1-p</math>: |
||
Zeile 12: | Zeile 12: | ||
== Kapazität == |
== Kapazität == |
||
Die [[ |
Die [[Kanalkapazität]] des binären symmetrischen Kanals ist |
||
:<math>\ C_{\text{BSC}} = 1 - \operatorname H_\text{b}(p), </math> |
:<math>\ C_{\text{BSC}} = 1 - \operatorname H_\text{b}(p), </math> |
||
wobei <math>\operatorname H_\text{b}(p)</math> die [[ |
wobei <math>\operatorname H_\text{b}(p)</math> die [[Bernoulli-Verteilung#Entropie | Entropie der Bernoulli-Verteilung]] mit Wahrscheinlichkeit <math>p</math> ist: |
||
<math>\operatorname H_\text{b}(p) = -p\log_2(p)-(1-p)\log_2(1-p)</math> |
<math>\operatorname H_\text{b}(p) = -p\log_2(p)-(1-p)\log_2(1-p)</math> |
||
Zeile 31: | Zeile 31: | ||
\end{align}</math> |
\end{align}</math> |
||
wobei die ersten beiden Schritte aus der Definition von Transinformation bzw. der [[ |
wobei die ersten beiden Schritte aus der Definition von Transinformation bzw. der [[Bedingte Entropie | bedingten Entropie]] folgen. Die Entropie am Ausgang, bei gegebenem und festem Eingangsbit (<math>H(Y|X=x)</math>) gleicht der Entropie der Bernoulli-Verteilung, was zur dritten Zeile führt, welche weiter vereinfacht werden kann. |
||
In der letzten Zeile ist nur der erste Term <math>H(Y)</math> von der Wahrscheinlichkeitsverteilung am Eingang <math>p_X(x)</math> abhängig. Außerdem ist von der Entropie einer binären Zufallsvariable bekannt, dass diese ihr Maximum von 1 bei einer Gleichverteilung besitzt. Die Gleichverteilung am Ausgang kann, bedingt durch die Symmetrie des Kanals, nur erreicht werden, wenn auch eine Gleichverteilung am Eingang vorliegt. Damit erhält man <math>C_{\text{BSC}}=1-\operatorname H_\text{b}(p)</math>. |
In der letzten Zeile ist nur der erste Term <math>H(Y)</math> von der Wahrscheinlichkeitsverteilung am Eingang <math>p_X(x)</math> abhängig. Außerdem ist von der Entropie einer binären Zufallsvariable bekannt, dass diese ihr Maximum von 1 bei einer Gleichverteilung besitzt. Die Gleichverteilung am Ausgang kann, bedingt durch die Symmetrie des Kanals, nur erreicht werden, wenn auch eine Gleichverteilung am Eingang vorliegt. Damit erhält man <math>C_{\text{BSC}}=1-\operatorname H_\text{b}(p)</math>. |
||
<ref>Thomas M. Cover, Joy A. Thomas: ''Elements of information theory'', S. 187, 2. Auflage, |
<ref>Thomas M. Cover, Joy A. Thomas: ''Elements of information theory'', S. 187, 2. Auflage, New York: Wiley-Interscience, 2006, ISBN 978-0471241959.</ref> |
||
== Siehe auch == |
|||
⚫ | |||
== Literatur == |
== Literatur == |
||
Zeile 41: | Zeile 44: | ||
* R. Mathar:''Informationstheorie''. Diskrete Modelle und Verfahren, B.G. Teubner Verlag, Stuttgart 1996, ISBN 978-3-519-02574-0. |
* R. Mathar:''Informationstheorie''. Diskrete Modelle und Verfahren, B.G. Teubner Verlag, Stuttgart 1996, ISBN 978-3-519-02574-0. |
||
== |
== Einzelnachweise == |
||
⚫ | |||
==Einzelnachweise== |
|||
<references /> |
<references /> |
||
Zeile 51: | Zeile 51: | ||
* [http://page.mi.fu-berlin.de/juergen/WS0910/Codierungstheorie/codtheo3.pdf Kanalcodierung] (abgerufen am 22. Januar 2018) |
* [http://page.mi.fu-berlin.de/juergen/WS0910/Codierungstheorie/codtheo3.pdf Kanalcodierung] (abgerufen am 22. Januar 2018) |
||
* [https://www.uni-salzburg.at/fileadmin/oracle_file_imports/556438.PDF SKRIPTUM zur Lehrveranstaltung INFORMATIONSTHEORIE] (abgerufen am 22. Januar 2018) |
* [https://www.uni-salzburg.at/fileadmin/oracle_file_imports/556438.PDF SKRIPTUM zur Lehrveranstaltung INFORMATIONSTHEORIE] (abgerufen am 22. Januar 2018) |
||
Version vom 24. Februar 2018, 12:12 Uhr

Ein binärer symmetrischer Kanal (englisch binary symmetric channel, kurz BSC) ist ein informationstheoretischer Kanal, bei dem die Wahrscheinlichkeit einer Falschübermittlung (auch Fehlerwahrscheinlichkeit) von 1 genau so hoch ist wie die Wahrscheinlichkeit der Falschübermittlung einer 0. Das heißt, die Wahrscheinlichkeit, dass eine 1 empfangen wurde, falls eine 0 gesendet wurde und umgekehrt, beträgt die Wahrscheinlichkeit . Für die verbleibenden Fälle, also der korrekten Übermittlung, ergibt sich damit eine Wahrscheinlichkeit von jeweils :
Dabei gilt , denn falls wäre, könnte der Empfänger alle empfangenen Bits invertieren und würde damit einen äquivalenten Kanal mit einer Fehlerwahrscheinlichkeit von erhalten.
Kapazität
Die Kanalkapazität des binären symmetrischen Kanals ist
wobei die Entropie der Bernoulli-Verteilung mit Wahrscheinlichkeit ist:
Beweis: Die Kapazität ist definiert als die maximale Transinformation zwischen Eingang und Ausgang für alle möglichen Wahrscheinlichkeitsverteilungen am Eingang :
Die Transinformation kann umformuliert werden zu
wobei die ersten beiden Schritte aus der Definition von Transinformation bzw. der bedingten Entropie folgen. Die Entropie am Ausgang, bei gegebenem und festem Eingangsbit () gleicht der Entropie der Bernoulli-Verteilung, was zur dritten Zeile führt, welche weiter vereinfacht werden kann.
In der letzten Zeile ist nur der erste Term von der Wahrscheinlichkeitsverteilung am Eingang abhängig. Außerdem ist von der Entropie einer binären Zufallsvariable bekannt, dass diese ihr Maximum von 1 bei einer Gleichverteilung besitzt. Die Gleichverteilung am Ausgang kann, bedingt durch die Symmetrie des Kanals, nur erreicht werden, wenn auch eine Gleichverteilung am Eingang vorliegt. Damit erhält man . [1]
Siehe auch
Literatur
- Bernd Friedrichs: Kanalcodierung. Grundlagen und Anwendungen in modernen Kommunikationssystemen. Springer Verlag, Berlin/ Heidelberg 1995, ISBN 3-540-59353-5.
- Werner Lütkebohmert: Codierungstheorie. Algebraisch-geometrische Grundlagen und Algorithmen. Vieweg Verlag, Braunschweig u. a. 2003, ISBN 3-528-03197-2 (Vieweg-Studium – Aufbaukurs Mathematik).
- R. Mathar:Informationstheorie. Diskrete Modelle und Verfahren, B.G. Teubner Verlag, Stuttgart 1996, ISBN 978-3-519-02574-0.
Einzelnachweise
- ↑ Thomas M. Cover, Joy A. Thomas: Elements of information theory, S. 187, 2. Auflage, New York: Wiley-Interscience, 2006, ISBN 978-0471241959.
Weblinks
- Vorlesungsskript Kanalcodierung I (abgerufen am 22. Januar 2018)
- Kanalcodierung (abgerufen am 22. Januar 2018)
- SKRIPTUM zur Lehrveranstaltung INFORMATIONSTHEORIE (abgerufen am 22. Januar 2018)