www.wikidata.de-de.nina.az
Die Verbundentropie ist ein Mass fur den mittleren Informationsgehalt mehrerer Nachrichtenquellen Inhaltsverzeichnis 1 Definition 2 Siehe auch 3 Literatur 4 Weblinks 5 EinzelnachweiseDefinition BearbeitenDie Verbundentropie fur zwei Quellen ist folgendermassen definiert 1 H X Y y Y x X P r X x Y y log 2 P r X x Y y bit Symbolpaar displaystyle H XY sum y in Y sum x in X Pr X x Y y log 2 Pr X x Y y quad Big frac text bit text Symbolpaar Big nbsp Hierbei sind x displaystyle x nbsp und y displaystyle y nbsp jeweils einzelne Symbole aus den Quellenalphabeten X displaystyle X nbsp und Y displaystyle Y nbsp Im Spezialfall der statistischen Unabhangigkeit der Quellen gilt P r X x i Y y j P r X x i P r y y j displaystyle Pr X x i Y y j Pr X x i cdot Pr y y j nbsp und somit H X Y H X H Y displaystyle H XY H X H Y nbsp Fur mehr als zwei Quellen ergibt sich H X 1 X n x 1 x n P r x 1 x n log 2 P r x 1 x n displaystyle H X 1 dots X n sum x 1 dots sum x n Pr x 1 dots x n log 2 Pr x 1 dots x n nbsp Siehe auch BearbeitenEntropie Informationstheorie Entropieschatzung Symbolische DynamikLiteratur BearbeitenMartin Werner Information und Codierung Grundlagen und Anwendungen 2 Auflage Vieweg Teubner Verlag Wiesbaden 2008 ISBN 978 3 8348 0232 3 Peter Bocker Datenubertragung Band I Grundlagen Springer Verlag Berlin Heidelberg 1976 ISBN 978 3 662 06499 3 Weblinks BearbeitenInformationstheorie abgerufen am 8 Marz 2018 Kodierungs und Informationstheorie abgerufen am 8 Marz 2018 Entropie abgerufen am 8 Marz 2018 Information und Kommunikation abgerufen am 8 Marz 2018 Einzelnachweise Bearbeiten T H Cover J A Thomas Elements of Information Theory S 16 f 2nd Edition 2006 Wiley Interscience ISBN 978 0 471 24195 9 Abgerufen von https de wikipedia org w index php title Verbundentropie amp oldid 222945106