www.wikidata.de-de.nina.az
Ein binarer symmetrischer Kanal englisch binary symmetric channel kurz BSC ist ein informationstheoretischer Kanal bei dem die Wahrscheinlichkeit einer Falschubermittlung auch Fehlerwahrscheinlichkeit von 1 genau so hoch ist wie die Wahrscheinlichkeit der Falschubermittlung einer 0 Das heisst die Wahrscheinlichkeit dass eine 1 empfangen wurde falls eine 0 gesendet wurde und umgekehrt betragt die Wahrscheinlichkeit p displaystyle p Fur die verbleibenden Falle also der korrekten Ubermittlung ergibt sich damit eine Wahrscheinlichkeit von jeweils 1 p displaystyle 1 p Schema eines BSC Pr Y 0 X 0 1 p Pr Y 0 X 1 p Pr Y 1 X 0 p Pr Y 1 X 1 1 p displaystyle begin aligned operatorname Pr Y 0 X 0 amp 1 p operatorname Pr Y 0 X 1 amp p operatorname Pr Y 1 X 0 amp p operatorname Pr Y 1 X 1 amp 1 p end aligned Dabei gilt 0 p 1 2 displaystyle 0 leq p leq 1 2 denn falls p gt 1 2 displaystyle p gt 1 2 ware konnte der Empfanger alle empfangenen Bits invertieren und wurde damit einen aquivalenten Kanal mit einer Fehlerwahrscheinlichkeit von 1 p 1 2 displaystyle 1 p leq 1 2 erhalten Inhaltsverzeichnis 1 Kapazitat 2 Siehe auch 3 Literatur 4 Einzelnachweise 5 WeblinksKapazitat BearbeitenDie Kanalkapazitat des binaren symmetrischen Kanals ist C BSC 1 H b p displaystyle C text BSC 1 operatorname H text b p nbsp wobei H b p displaystyle operatorname H text b p nbsp die Entropie der Bernoulli Verteilung mit Wahrscheinlichkeit p displaystyle p nbsp ist H b p p log 2 p 1 p log 2 1 p displaystyle operatorname H text b p p log 2 p 1 p log 2 1 p nbsp Beweis Die Kapazitat ist definiert als die maximale Transinformation zwischen Eingang X displaystyle X nbsp und Ausgang Y displaystyle Y nbsp fur alle moglichen Wahrscheinlichkeitsverteilungen am Eingang p X x displaystyle p X x nbsp C max p X x I X Y displaystyle C max p X x left I X Y right nbsp Die Transinformation kann umformuliert werden zu I X Y H Y H Y X H Y x 0 1 p X x H Y X x H Y x 0 1 p X x H b p H Y H b p displaystyle begin aligned I X Y amp H Y H Y X amp H Y sum x in 0 1 p X x H Y X x amp H Y sum x in 0 1 p X x operatorname H text b p amp H Y operatorname H text b p end aligned nbsp wobei die ersten beiden Schritte aus der Definition von Transinformation bzw der bedingten Entropie folgen Die Entropie am Ausgang bei gegebenem und festem Eingangsbit H Y X x displaystyle H Y X x nbsp gleicht der Entropie der Bernoulli Verteilung was zur dritten Zeile fuhrt welche weiter vereinfacht werden kann In der letzten Zeile ist nur der erste Term H Y displaystyle H Y nbsp von der Wahrscheinlichkeitsverteilung am Eingang p X x displaystyle p X x nbsp abhangig Ausserdem ist von der Entropie einer binaren Zufallsvariable bekannt dass diese ihr Maximum von 1 bei einer Gleichverteilung besitzt Die Gleichverteilung am Ausgang kann bedingt durch die Symmetrie des Kanals nur erreicht werden wenn auch eine Gleichverteilung am Eingang vorliegt Damit erhalt man C BSC 1 H b p displaystyle C text BSC 1 operatorname H text b p nbsp 1 Siehe auch BearbeitenBinarer AusloschungskanalLiteratur BearbeitenBernd Friedrichs Kanalcodierung Grundlagen und Anwendungen in modernen Kommunikationssystemen Springer Verlag Berlin Heidelberg 1995 ISBN 3 540 59353 5 Werner Lutkebohmert Codierungstheorie Algebraisch geometrische Grundlagen und Algorithmen Vieweg Verlag Braunschweig u a 2003 ISBN 3 528 03197 2 Vieweg Studium Aufbaukurs Mathematik Rudolf Mathar Informationstheorie Diskrete Modelle und Verfahren B G Teubner Verlag Stuttgart 1996 ISBN 978 3 519 02574 0 Einzelnachweise Bearbeiten Thomas M Cover Joy A Thomas Elements of information theory S 187 2 Auflage New York Wiley Interscience 2006 ISBN 978 0471241959 Weblinks BearbeitenVorlesungsskript Kanalcodierung I abgerufen am 22 Januar 2018 Kanalcodierung abgerufen am 22 Januar 2018 SKRIPTUM zur Lehrveranstaltung INFORMATIONSTHEORIE abgerufen am 22 Januar 2018 Abgerufen von https de wikipedia org w index php title Binary Symmetric Channel amp oldid 233963903