www.wikidata.de-de.nina.az
Entropie nach dem Kunstwort ἐntropia 1 ist in der Informationstheorie einfach gesagt die durchschnittliche Anzahl von Entscheidungen bits die benotigt werden um ein Zeichen aus einer Zeichenmenge zu identifizieren oder zu isolieren anders gesagt ein Mass welches fur eine Nachrichtenquelle den mittleren Informationsgehalt ausgegebener Nachrichten angibt Der Begriff ist eng verwandt mit der Entropie in der Thermodynamik und statistischen Mechanik Das informationstheoretische Verstandnis des Begriffes Entropie geht auf Claude E Shannon zuruck und existiert seit etwa 1948 In diesem Jahr veroffentlichte Shannon seine fundamentale Arbeit A Mathematical Theory of Communication 2 und pragte damit die moderne Informationstheorie Die Entropie wird ublicherweise mit einem grossen Eta H displaystyle mathrm H bezeichnet 1 Inhaltsverzeichnis 1 Definition 2 Interpretation 3 Maximaler Entropiewert und Normierung 4 Beispiele 4 1 Alphabet 4 2 Munzwurf 4 3 Idealer Wurfel 5 Entropietests 6 Datenkompression und Entropie 7 Alternative Moglichkeiten der Informationsquantifizierung 8 Ahnlichkeit zur Entropie in der Physik 9 Siehe auch 10 Literatur 11 Weblinks 12 EinzelnachweiseDefinition BearbeitenClaude Elwood Shannon definierte die Entropie H displaystyle mathrm H nbsp einer diskreten gedachtnislosen Quelle diskreten Zufallsvariable X displaystyle X nbsp uber einem endlichen aus Zeichen bestehenden Alphabet Z z 1 z 2 z m displaystyle Z z 1 z 2 dots z m nbsp wie folgt Zunachst ordnet man jeder Wahrscheinlichkeit p displaystyle p nbsp eines Ereignisses seinen Informationsgehalt I z log 2 p z displaystyle I z log 2 p z nbsp zu Dann ist die Entropie eines Zeichens definiert als der Erwartungswert des Informationsgehalts H 1 E I z Z p z I z z Z p z log 2 p z displaystyle mathrm H 1 E I sum z in Z p z I z sum z in Z p z log 2 p z nbsp Sei z Z displaystyle z in Z nbsp dann ist p z P X z displaystyle p z P X z nbsp die Wahrscheinlichkeit mit der das Zeichen z displaystyle z nbsp des Alphabets auftritt oder gleichwertig 1 H 1 i 1 m p i log 2 p i displaystyle 1 qquad mathrm H 1 sum i 1 m p i log 2 p i nbsp mit p i p z i displaystyle p i p z i nbsp Dabei wird 0 log 2 0 0 displaystyle 0 cdot log 2 0 0 nbsp gesetzt entsprechend dem Grenzwert lim x 0 x log 2 x displaystyle lim x rightarrow 0 x log 2 x nbsp Summanden mit verschwindender Wahrscheinlichkeit tragen daher aufgrund der Definition nicht zur Summe bei Die Entropie H n displaystyle mathrm H n nbsp fur Worter w displaystyle w nbsp der Lange n displaystyle n nbsp ergibt sich durch H n w Z n p w log 2 p w displaystyle mathrm H n sum w in Z n p w log 2 p w nbsp wobei p w P X w displaystyle p w P X w nbsp die Wahrscheinlichkeit ist mit der das Wort w displaystyle w nbsp auftritt Die Entropie H displaystyle mathrm H nbsp ist dann der Limes n displaystyle n to infty nbsp davon 2 H lim n H n n displaystyle 2 qquad mathrm H lim n to infty frac mathrm H n n nbsp Wenn die einzelnen Zeichen voneinander stochastisch unabhangig sind dann gilt H n n H 1 displaystyle mathrm H n n mathrm H 1 nbsp fur alle n displaystyle n nbsp also H H 1 displaystyle mathrm H mathrm H 1 nbsp vgl Blockentropie Interpretation BearbeitenEntropie ist ein Mass fur den mittleren Informationsgehalt pro Zeichen einer Quelle die ein System oder eine Informationsfolge darstellt In der Informationstheorie spricht man bei Information ebenso von einem Mass fur beseitigte Unsicherheit Je mehr Zeichen im Allgemeinen von einer Quelle empfangen werden desto mehr Information erhalt man und gleichzeitig sinkt die Unsicherheit uber das was hatte gesendet werden konnen nbsp Je kleiner die Auftrittswahrscheinlichkeit eines Zeichens ist desto hoher ist seine Information Andersherum ist die Information eines Zeichens gering wenn es oft vorkommt Anschaulich lasst sich die Definition des Informationsgehalts wie folgt begrunden Wenn ein Ereignis das mit Wahrscheinlichkeit p i displaystyle p i nbsp eintreten kann tatsachlich eintritt dann wird dadurch ein konkretes Ereignis aus einer hypothetischen Menge von 1 p i displaystyle tfrac 1 p i nbsp gleich wahrscheinlichen stochastisch unabhangigen Ereignissen ausgewahlt Um diese Anzahl von Ereignissen unterscheiden zu konnen benotigt man log 2 1 p i log 2 p i displaystyle log 2 left tfrac 1 p i right log 2 p i nbsp Binarbits Dieser Wert gibt also den Informationsgehalt eines speziellen Ereignisses in Bits an Gewichtet man den tatsachlichen Informationsgehalt der moglichen Ereignisse mit der jeweiligen Eintrittswahrscheinlichkeit so erhalt man den mittleren oder erwarteten Informationsgehalt eines Zeichens Die Einheit 1 Shannon ist definiert als der Informationsgehalt eines Ereignisses mit der Wahrscheinlichkeit p 0 5 displaystyle p 0 5 nbsp Ein Beispiel fur ein solches Ereignis ist das Ergebnis Kopf eines Munzwurfs Die Basis 2 fur den Logarithmus ist willkurlich Es stellt sich nur heraus dass sich Bits Binarziffern technisch besonders einfach handhaben lassen Wurde eine andere Basis gewahlt werden zum Beispiel 3 so erhielte man ternare Ziffern Trits Der Informationsgehalt lasst sich leicht durch Multiplikation mit dem Modulus log 3 2 displaystyle log 3 2 nbsp von Bits auf Trits umrechnen Die mindestens notwendige Anzahl von Bits die zur Darstellung der Information des Textes notwendig ist ergibt sich aus dem Produkt des durchschnittlichen Informationsgehalts eines Zeichens I X log 2 Z log 2 N displaystyle I X log 2 Z log 2 N nbsp und der Anzahl n displaystyle n nbsp der Zeichen z displaystyle z nbsp im Informationstext I X z I X n n log 2 N displaystyle I X z I X n n log 2 N nbsp Shannons ursprungliche Absicht die Entropie als das Mass der benotigten Bandbreite eines Ubertragungskanals zu nutzen wurde schnell verallgemeinert Die Entropie wurde generell als ein Mass fur den Informationsgehalt betrachtet Bei einer kleinen Entropie enthalt der Informationstext Redundanzen oder statistische Regelmassigkeiten Die Entropie ist im Allgemeinen nicht durch 1 gegeben Beispielsweise ist die Wahrscheinlichkeit eine 0 oder 1 in der Zeichenkette 1010101010 displaystyle 1010101010 dots nbsp zu finden genauso gross wie in einer Zeichenkette die durch statistisch unabhangige Ereignisse etwa wiederholten Munzwurf entstanden ist Daher ist die Entropie H 1 displaystyle mathrm H 1 nbsp einzelner Zeichen fur beide Zeichenketten gleich obwohl die erste Kette weniger zufallig ist Bereits H 2 displaystyle mathrm H 2 nbsp zeigt einen Unterschied Die erste Zeichenkette liefert H 2 1 displaystyle mathrm H 2 1 nbsp die zweite liefert H 2 2 displaystyle mathrm H 2 2 nbsp Man kann das auch so deuten Die Wahrscheinlichkeit eines Zeichens hangt vom vorangegangenen Zeichen ab Stochastische Unabhangigkeit ist also nicht gegeben Fur aufeinander folgende Ereignisse die nicht stochastisch unabhangig sind reduziert sich die Entropie aufeinander folgender abhangiger Ereignisse fortlaufend In einem solchen Fall kann man auch mit der bedingten Entropie und der Quell entropie arbeiten die beide auf Verbundwahrscheinlichkeiten aufbauen In engem Zusammenhang mit bedingter Entropie steht auch die Transinformation welche die Starke des statistischen Zusammenhangs zweier Zufallsgrossen angibt Noch einfacher formuliert ist die Entropie die durchschnittliche Anzahl von Entscheidungen bits die benotigt werden um ein Zeichen aus einer Zeichenmenge zu identifizieren oder zu isolieren Es ist sinnvoll dass ein Alphabet aus mindestens zwei verschiedenen Zeichen vorliegt Eine Alphabetsgrosse von eins bedeutet dass man weder uber neu ankommende Zeichen aus der Senderquelle neue Information erhalt noch die Unsicherheit uber das vorangegangene Zeichen verringern kann Maximaler Entropiewert und Normierung BearbeitenMochte man ein normiertes Mass fur die Entropie einer beliebigen diskreten Verteilung haben ist es von Vorteil die maximal mogliche Entropie die bei Gleichverteilung der p i displaystyle p i nbsp erreicht wird zur Normierung heranzuziehen Sei N Z displaystyle N Z nbsp die Anzahl der Zeichen in X displaystyle X nbsp uber dem Alphabet Z displaystyle Z nbsp dann ist die maximale Entropie H m a x displaystyle mathrm H mathrm max nbsp gegeben wenn p i 1 Z 1 N p i displaystyle p i frac 1 Z frac 1 N forall p i nbsp dann ist H m a x i 1 N 1 N log 2 1 N log 2 N displaystyle mathrm H mathrm max sum i 1 N frac 1 N log 2 frac 1 N log 2 N nbsp Daraus folgt beispielsweise H m a x 1 displaystyle mathrm H mathrm max 1 nbsp fur eine Binarverteilung Z 0 1 displaystyle Z 0 1 nbsp also benotigt man ein Bit pro Zeichen und I displaystyle I nbsp Zeichen fur die komplette Information I displaystyle I nbsp Dieser Wert wird erreicht wenn Nullen und Einsen gleich haufig vorkommen Normiert man nun die Entropie einer beliebigen Verteilung mit N Z displaystyle N Z nbsp verschiedenen Zeichen mit H m a x displaystyle mathrm H mathrm max nbsp erhalt man H H m a x i 1 Z p i log 2 p i log 2 N i 1 Z p i log N p i 1 displaystyle frac mathrm H mathrm H mathrm max sum i 1 Z p i cdot frac log 2 p i log 2 N sum i 1 Z p i cdot log N p i leq 1 nbsp Die so definierte normierte Entropie kann maximal den Wert 1 displaystyle 1 nbsp annehmen Um die Entropien von Nachrichten unterschiedlicher Lange vergleichen zu konnen hat man die Entropierate eingefuhrt die die Entropie auf das einzelne Zeichen bezieht siehe dort Beispiele BearbeitenAlphabet Bearbeiten Bei gleichmassiger Verteilung kann bei einem Alphabet auf kein Zeichen verzichtet werden Dagegen ist die Buchstabenhaufigkeit in der deutschen Sprache ungleichmassig siehe auch Entropie Kryptologie Beispielsweise ist der Buchstabe E im Deutschen siebenmal so haufig wie M oder O was zu Redundanz im Alphabet fuhrt Nun mochte man ermitteln wie gross diese Redundanz ist Sei N 26 displaystyle N 26 nbsp die Grosse des Alphabets Die Redundanz R berechnet sich mit R H m a x H displaystyle R mathrm H mathrm max mathrm H nbsp Fur das deutsche Alphabet errechnet man anhand der Buchstabenhaufigkeit eine Entropie H displaystyle mathrm H nbsp von 4 0629 bit Zeichen Die maximale Entropie betragt H m a x log 2 26 4 700 4 displaystyle mathrm H mathrm max log 2 26 4 7004 nbsp bit Zeichen Damit folgt eine Redundanz von R 4 700 4 4 062 9 0 637 5 displaystyle R 4 7004 4 0629 0 6375 nbsp bit Zeichen Berechnet man weiter die gesamte Redundanz die sich aus der Summe der Redundanzen eines jeden Zeichens ergibt so erhalt man R N 16 575 displaystyle R cdot N 16 575 nbsp Bits Nun ware interessant zu wissen wie vielen Zeichen dies aus unserem Alphabet entspricht Dividiert man die redundanten Bits durch den durchschnittlichen Informationsgehalt eines gleichverteilten Zeichens so erhalt man R N H m a x 3 53 displaystyle R cdot N mathrm H mathrm max 3 53 nbsp Zeichen 3 Zeichen Ohne Informationsverlust konnte das Alphabet also um drei Buchstaben reduziert werden Diese Uberlegung berucksichtigt nur die statistische Verteilung der Buchstaben Haufige Buchstabenkombinationen wie SCH oder ST bleiben genauso unberucksichtigt bedingte Entropie wie gleich klingende Buchstaben Q K Munzwurf Bearbeiten nbsp Maximale Entropie bei p 0 5Bei einem Munzwurf sind idealerweise Kopf oder Zahl gleich wahrscheinlich Wenn man die Entropie als Mass fur die Ungewissheit auffasst wird sie hier einen maximalen Wert aufweisen Es ist vollig ungewiss ob beim nachsten Wurf Kopf oder aber Zahl geworfen wird Sei X displaystyle X nbsp eine diskrete Zufallsvariable und der Erwartungswert E X P X x i x i displaystyle textstyle E X sum P X x i cdot x i nbsp mit P X x 0 p 0 p 1 2 displaystyle P X x 0 p 0 p frac 1 2 nbsp Kopf und P X x 1 p 1 q 1 2 displaystyle P X x 1 p 1 q frac 1 2 nbsp Zahl so ergibt sich aus obiger Definition Entropie H 1 displaystyle mathrm H 1 nbsp bit Anders bei einer gezinkten Munze etwa einer Munze die im Mittel in 60 der Falle Kopf und nur in 40 der Falle Zahl anzeigt Die Ungewissheit ist hier geringer als bei der normalen Munze da man eine gewisse Praferenz fur Kopf hat Gemessen als Entropie liegt die Ungewissheit bei nur noch etwa 0 971 Die Summe der Wahrscheinlichkeiten ist immer 1 p q 1 displaystyle p q 1 nbsp Die Entropie lasst sich aus der Summe der Teilentropien berechnen H H p H q p log 2 p q log 2 q displaystyle mathrm H mathrm H p mathrm H q p cdot log 2 p q cdot log 2 q nbsp Ersetzt man q displaystyle q nbsp durch den Ausdruck 1 p displaystyle 1 p nbsp so erhalt man die Formel H p log 2 p 1 p log 2 1 p displaystyle mathrm H p cdot log 2 p 1 p cdot log 2 1 p nbsp Dies kann man grafisch folgendermassen darstellen Fur jedes p displaystyle p nbsp kann man daraus die Entropie direkt ablesen Die Funktion ist symmetrisch zur Geraden p 0 5 displaystyle p 0 5 nbsp Sie fallt bei p 0 displaystyle p 0 nbsp steil zu einem Entropie Wert von 0 ab Auch bei Werten die sich dem sicheren Ereignis von p 1 displaystyle p 1 nbsp nahern fallt die Entropie auf 0 ab Dieser Zusammenhang gilt jeweils fur ein Zufallsereignis Bei mehreren Zufallsereignissen muss man die einzelnen Entropien zusammenzahlen und man kann so leicht Entropiewerte uber 1 erreichen Die Wahrscheinlichkeit p displaystyle p nbsp dagegen bleibt auch bei Wiederholungen definitionsgemass immer zwischen 0 und 1 nbsp Entropie in Abhangigkeit von der Zahl der MunzwurfeWiederholt man den Munzwurf zweimal wachst die Zahl der Moglichkeiten auf vier Die Wahrscheinlichkeit jeder einzelnen Moglichkeit liegt bei 0 25 Die Entropie des zweimaligen Munzwurfes ist dann 2 Sh Wenn man einen idealen Munzwurf mehrfach wiederholt dann addiert sich die Entropie einfach Die Entropie einer Reihe von 20 idealen Munzwurfen berechnet sich einfach H 20 1 b i t 20 b i t displaystyle mathrm H 20 cdot 1 mathrm bit 20 mathrm bit nbsp Dies ist im Bild dargestellt Man kann nicht einfach aus einem Wert der Wahrscheinlichkeit die Entropie ausrechnen Die Entropie betrifft den gesamten Zufallsprozess Jede Teilwahrscheinlichkeit eines moglichen Ergebnisses geht in die Berechnung der Entropie des Gesamtprozesses ein Die Angabe einer Teilentropie fur jedes mogliche Ergebnis ist dabei wenig sinnvoll In der Shannonschen Entropieformel sollte also die Summe der Wahrscheinlichkeiten 1 ergeben sonst kann das Ergebnis missverstandlich sein Speichert man eine Folge von Munzwurfen als Bitfolge dann bietet es sich an Kopf stets durch 0 und Zahl stets durch 1 zu reprasentieren oder umgekehrt Bei der gezinkten Munze sind kompaktere Kodierungen moglich zum Beispiel die Huffman Kodierung Idealer Wurfel Bearbeiten Bei einem Wurf eines idealen Wurfels mit sechs Moglichkeiten ist die Entropie grosser als 1 Im Allgemeinen ist die Entropie grosser als 1 fur ein Zufallsereignis mit stochastisch unabhangigen Zufallsvariablen aus einem Zufallsexperiment mit mehr als zwei gleichberechtigten Moglichkeiten im Ergebnisraum Ihr Wert wird bei gleich wahrscheinlichen Moglichkeiten im Ergebnisraum folgendermassen berechnet Sei n die Anzahl der Moglichkeiten dann sind die Wahrscheinlichkeiten p i 1 n displaystyle p i tfrac 1 n nbsp und die Entropie H log 2 1 p i log 2 n displaystyle mathrm H log 2 left frac 1 p i right log 2 n nbsp Beim idealen Wurfel sind sechs Moglichkeiten im Ergebnisraum Daraus folgt die Entropie fur einmaliges Werfen H log 2 6 log 2 2 3 log 2 2 log 2 3 1 log 2 3 1 1 585 2 585 S h displaystyle mathrm H log 2 6 log 2 2 cdot 3 log 2 2 log 2 3 1 log 2 3 approx 1 1 585 2 585 mathrm Sh nbsp nbsp Entropie vs Zahl der MoglichkeitenEinfach zu berechnen ist die Entropie eines Wurfes eines idealen Achterwurfels Er hat acht gleichberechtigte Moglichkeiten H log 2 8 3 S h displaystyle mathrm H log 2 8 3 mathrm Sh nbsp Die Entropie eines Wurfes mit dem idealen Achterwurfel entspricht der Entropie von drei Wurfen mit der idealen Munze Die Abbildung stellt den Zusammenhang zwischen der Entropie und der Zahl der gleichberechtigten Moglichkeiten eines Zufallsexperimentes dar Entropietests BearbeitenUm zu testen wie gut Daten komprimierbar sind oder um Zufallszahlen zu testen werden Entropietests verwendet Als Zufallszahltest wird die Entropie einer bestimmten Anzahl von Zufallszahlen bestimmt und ab einem Mindestwert beispielsweise 7 Bit je Byte gilt er als bestanden Allerdings gibt es viele solcher Tests da die Entropie nicht eindeutig ist sie kann beispielsweise bitbasiert oder bytebasiert definiert sein Ein einfaches Beispiel Eine Quelle etwa ein Spielwurfel oder eine Munze gebe nur die Werte 0xAA dezimal 170 und 0x55 dezimal 85 aus beide mit gleicher Wahrscheinlichkeit Bitweise ist die Ausgabe zu 50 0 oder 1 byteweise ist sie zu 50 0xAA oder 0x55 Die bitweise Entropie ist mit log log 2 displaystyle log log 2 nbsp H H m a x 1 log 2 1 2 log 1 2 1 2 log 1 2 1 displaystyle frac mathrm H mathrm H mathrm max 1 log 2 cdot 1 2 cdot log 1 2 1 2 cdot log 1 2 1 nbsp wahrend die byteweise Entropie mit H H m a x 1 log 256 1 2 log 1 2 1 2 log 1 2 1 8 displaystyle frac mathrm H mathrm H mathrm max 1 log 256 cdot 1 2 cdot log 1 2 1 2 cdot log 1 2 1 8 nbsp deutlich kleiner ist Der Hersteller dieses Zufallszahlengenerators wird naturlich als Entropie des Gerats die bitweise Entropie also 1 angeben Analog wird ein Programmierer eines Kompressionsprogramms moglichst diejenige Basis wahlen bei der die Entropie minimal ist hier Bytes sich also die Daten am besten komprimieren lassen Dieses Beispiel ist wenig realistisch da nur zwei von 256 moglichen Werten verwendet werden aber wenn auch die anderen Bytes mit einer kleinen Wahrscheinlichkeit von beispielsweise 1 123456789 ausgegeben werden so andert dies an der bitweisen Entropie nichts und die byteweise wird kaum grosser sie bleibt unter 1 2 Erst mit Annaherung der Byte Wahrscheinlichkeiten an 1 256 erreicht die byteweise Entropie den Wert 1 aber dann kann es noch Korrelationen der Bytes geben also etwa die Folge 0xaaaa viel haufiger sein als die Folge 0x5555 Dies ist der Hauptgrund weshalb es viele verschiedene Zufallszahlentests gibt Diese Mehrdeutigkeit ist nicht moglich beim Entropiebelag da dort nicht nur uber Wahrscheinlichkeiten summiert wird sondern uber ergodische Wahrscheinlichkeiten von Zustanden Zustandsubergangswahrscheinlichkeiten und bedingte Wahrscheinlichkeiten Berechnet wird er mit der Theorie der Markow Kette Allerdings ist der Rechenaufwand dafur bei realen Zufallszahlengeneratoren hoch Es ist wichtig zu erklaren dass Entropietests nur Gleichwahrscheinlichkeit messen und keine echte Unvorhersehbarkeit Der Unterschied zwischen echten Zufallszahlengeneratoren und Pseudozufallszahlengeneratoren ist unmessbar Datenkompression und Entropie BearbeitenDie Entropiekodierung ist ein Kompressionsalgorithmus um Daten verlustfrei zu komprimieren In diesem Zusammenhang spielen die Kreuzentropie sowie die Kullback Leibler Divergenz als Mass fur die durch eine schlechte Kodierung ausgelosten Verschwendungen von Bits eine Rolle Beispiel Gegeben sei die Zeichenkette ABBCAADA siehe auch Entropiekodierung Die Buchstaben Wahrscheinlichkeit p A 4 8 0 5 displaystyle p A 4 8 0 5 nbsp p B 0 25 displaystyle p B 0 25 nbsp p C p D 0 125 displaystyle p C p D 0 125 nbsp H 0 5 log 2 0 5 0 25 log 2 0 25 2 0 125 log 2 0 125 1 75 displaystyle mathrm H 0 5 cdot log 2 0 5 0 25 cdot log 2 0 25 2 cdot 0 125 cdot log 2 0 125 1 75 nbsp dd Maximalentropie p A p B p C p D 0 25 displaystyle p A p B p C p D 0 25 nbsp H m a x 4 0 25 log 2 0 25 log 2 4 1 log 2 4 2 displaystyle mathrm H mathrm max 4 cdot 0 25 cdot log 2 0 25 log 2 4 1 log 2 4 2 nbsp dd Die Maximalentropie lasst sich ebenso mit der Formel der maximalen Entropie berechnen H m a x log 2 A B C D log 2 1 p A log 2 4 2 displaystyle mathrm H mathrm max log 2 A B C D log 2 frac 1 p A log 2 4 2 nbsp dd Alternative Moglichkeiten der Informationsquantifizierung BearbeitenEin anderer Zugang den Informationsgehalt einer Nachricht zu messen ist durch die Kolmogorow Komplexitat gegeben worin der kurzestmogliche Algorithmus zur Darstellung einer gegebenen Zeichenkette die Komplexitat der Nachricht angibt Ahnlich ist die Logische Tiefe definiert die sich aber auf die Zeitkomplexitat eines Algorithmus zur Erzeugung der Daten bezieht Gregory Chaitin ist ebenfalls uber die Shannonsche Definition der Entropie einer Information hinausgegangen siehe Algorithmische Informationstheorie Die differentielle Entropie hingegen kann zum Vergleich des Informationsgehalts zwischen kontinuierlichen Zufallsvariablen verwendet werden Ahnlichkeit zur Entropie in der Physik BearbeitenIn der Physik siehe Thermodynamik speziell Entropie spielt eine gleich benannte Grosse eine wesentliche Rolle 3 4 Die physikalische Entropie unterscheidet sich von der Shannon schen Informationsentropie durch einen zusatzlichen Normierungsfaktor k B displaystyle k mathrm B nbsp die Boltzmannsche Konstante und durch die Ersetzung der im Logarithmus benutzten Basis der duale Logarithmus wird durch den naturlichen Logarithmus ersetzt Somit unterscheiden sich physikalische Entropie und mathematische Entropie durch den positiven Umrechnungsfaktor k B ln 2 displaystyle k mathrm B ln 2 nbsp versehen mit seiner physikalischen Einheit Der Zusammenhang wurde durch ein Maxwellscher Damon genanntes Gedankenexperiment hergestellt Siehe auch BearbeitenAuffalligkeit Informationstheorie Blockentropie Differentielle Entropie fur kontinuierliche Verteilungen Entropieschatzung Quellentropie Renyi Entropie Transinformation und Kullback Leibler DivergenzLiteratur BearbeitenC E Shannon A Mathematical Theory of Communication In Bell System Technical Journal Band 27 Nr 3 1948 S 379 423 doi 10 1002 j 1538 7305 1948 tb01338 x PDF Claude Elwood Shannon und Warren Weaver The Mathematical Theory of Communication University of Illinois Press 1963 ISBN 0 252 72548 4 Softcover und ISBN 0 252 72546 8 Hardcover Rolf Johannesson Informationstheorie Addison Wesley 1992 ISBN 3 89319 465 7 Norbert Bischof Struktur und Bedeutung 1998 ISBN 3 456 83080 7 Das Buch ist fur Sozialwissenschaftler geschrieben und erklart mathematische Zusammenhange Nicht Mathematikern in sehr verstandlicher Weise Das Kapitel 2 widmet sich der Informationstheorie Sven P Thoms Ursprung des Lebens Fischer Frankfurt a M 2005 ISBN 3 596 16128 2 Das Buch ist aus biologischer und chemischer Perspektive geschrieben Ein Kapitel behandelt den Zusammenhang von Leben und Entropie Thomas Cover Elements of Information Theory Wiley Interscience 2006 ISBN 0 471 24195 4 Das Buch ist nur auf Englisch erhaltlich Es behandelt ausfuhrlich die Informationstheorie und ist mathematisch gehalten Martin Werner Information und Codierung Vieweg 2002 ISBN 3 528 03951 5Weblinks Bearbeiten nbsp Wikibooks Zusammenhang zwischen Entropie und Information Lern und Lehrmaterialien Einfuhrung der Entropie als Gesamtzufallsmenge mit vielen Beispielen und Erklarungen zur Formel von Shannon Entropie und Information Owen Maroney Information Processing and Thermodynamic Entropy In Edward N Zalta Hrsg Stanford Encyclopedia of Philosophy Shannon entropie Rechner Text englisch Shannon entropie Rechner Binary englisch Einzelnachweise Bearbeiten a b Kulturgeschichte der Physik Karoly Simonyi Urania Verlag Leipzig 1990 ISBN 3 332 00254 6 S 372 C E Shannon A Mathematical Theory of Communication In Bell System Technical Journal Band 27 Nr 3 1948 S 379 423 doi 10 1002 j 1538 7305 1948 tb01338 x PDF Konkrete Ahnlichkeiten zwischen der Shannon schen Informationsentropie und der thermodynamischen Entropie werden u a behandelt in U Krey A Owen Basic Theoretical Physics A Concise Overview Berlin Springer 2007 ISBN 978 3 540 36804 5 und in Arieh Ben Naim Statistical Thermodynamics Based on Information A Farewell to Entropy 2008 ISBN 978 981 270 707 9 W A Kreiner Thermodynamik und Informationstheorie Deutungen und Bedeutungsunterschiede im Entropiebegriff doi 10 18725 OPARU 4097 Eine vergleichende Gegenuberstellung Abgerufen von https de wikipedia org w index php title Entropie Informationstheorie amp oldid 237345848