www.wikidata.de-de.nina.az
Die Informationstheorie ist eine mathematische Theorie aus dem Bereich der Wahrscheinlichkeitstheorie und Statistik die auf den US amerikanischen Mathematiker Claude Shannon zuruckgeht Sie beschaftigt sich mit Begriffen wie Information und Entropie der Informationsubertragung Datenkompression und Kodierung sowie verwandten Themen Neben der Mathematik Informatik und Nachrichtentechnik wird die theoretische Betrachtung von Kommunikation durch die Informationstheorie auch zur Beschreibung von Kommunikationssystemen in anderen Bereichen z B Medien in der Publizistik Nervensystem in der Neurologie DNA und Proteinsequenzen in der Molekularbiologie Wissen in der Informationswissenschaft und Dokumentation eingesetzt Die Shannonsche Theorie verwendet den Begriff der Entropie um den Informationsgehalt auch Informationsdichte genannt von Nachrichten zu charakterisieren Je ungleichformiger eine Nachricht aufgebaut ist desto hoher ist ihre Entropie Grundlegend fur die Informationstheorie ist neben dem Entropiebegriff das Shannon Hartley Gesetz nach Shannon und Ralph Hartley Es beschreibt die theoretische Obergrenze der Kanalkapazitat also die maximale Datenubertragungsrate die ein Ubertragungskanal in Abhangigkeit von Bandbreite und Signal zu Rausch Verhaltnis ohne Ubertragungsfehler erreicht Inhaltsverzeichnis 1 Geschichte 2 Siehe auch 3 Literatur 3 1 Lehrbucher 3 2 Popularwissenschaftliche Einfuhrungen 4 WeblinksGeschichte BearbeitenVor allem Claude Shannon lieferte in den 1940er bis 1950er Jahren wesentliche Beitrage zur Theorie der Datenubertragung und der Wahrscheinlichkeitstheorie Er fragte sich wie man eine verlustfreie Datenubertragung uber elektronische heute auch optische Kanale sicherstellen kann Dabei geht es insbesondere darum die Datensignale vom Hintergrundrauschen zu trennen Ausserdem versucht man wahrend der Ubertragung aufgetretene Fehler zu erkennen und zu korrigieren Dazu ist es notwendig zusatzliche redundante d h keine zusatzliche Information tragenden Daten mitzusenden um dem Datenempfanger eine Datenverifikation oder Datenkorrektur zu ermoglichen Es ist zweifelhaft und wurde auch von Shannon so nicht beansprucht dass seine 1948 veroffentlichte Studie A Mathematical Theory of Communication Informationstheorie von substantieller Bedeutung fur Fragestellungen ausserhalb der Nachrichtentechnik ist Bei dem von ihm benutzten mit der Thermodynamik verbundenen Entropiebegriff handelt es sich um eine formale Analogie fur einen mathematischen Ausdruck Allgemein lasst sich die Informationstheorie als Ingenieurtheorie auf hohem Abstraktionsniveau definieren Sie zeigt den Trend zur Verwissenschaftlichung der Technik der zur Herausbildung der Ingenieurwissenschaften fuhrte Der Bezugspunkt von Shannons Theorie ist die forcierte Entwicklung der elektrischen Nachrichtentechnik mit ihren Auspragungen Telegrafie Telefonie Funk und Fernsehen in der ersten Halfte des 20 Jahrhunderts Vor und neben Shannon trugen auch Harry Nyquist Ralph Hartley und Karl Kupfmuller mit bedeutenden Beitragen zur Theoriebildung der Nachrichtentechnik bei Mathematische Klarungen von Relevanz fur die Informationstheorie lieferte Norbert Wiener der ihr auch im Rahmen seiner Uberlegungen zur Kybernetik zu betrachtlicher Publizitat verhalf Eine ubergreifende Frage fur Nachrichtentechniker war wie eine wirtschaftlich effiziente und storungsfreie Nachrichtenubertragung erreicht werden kann Es wurden die Vorteile der Modulation erkannt d h der Veranderung der Form der Nachricht mit technischen Mitteln Im technischen Zusammenhang lassen sich zwei Grundformen fur Nachrichten kontinuierlich und diskret unterscheiden Diesen konnen die gebrauchlichen Darstellungsformen von Information Nachrichten Schrift diskret Sprache kontinuierlich und Bild kontinuierlich zugeordnet werden Ende der 1930er Jahre kam es zu einem technischen Durchbruch als es mit Hilfe der Puls Code Modulation gelang eine als Kontinuum vorliegende Nachricht in befriedigender Annaherung diskret darzustellen Mit dieser Methode wurde es moglich Sprache zu telegrafieren Shannon der fur die Bell Telephone Laboratories arbeitete war mit der technischen Entwicklung vertraut Die grosse Bedeutung seiner Theorie fur die Technik liegt darin dass er Information als physikalische Grosse mit einer Mass bzw Zahleinheit dem Bit definierte Das erlaubte quantitativ exakt den Aufwand fur die technische Ubertragung von Informationen in verschiedener Gestalt Tone Zeichen Bilder zu vergleichen die Effizienz von Codes sowie die Kapazitat von Informationsspeichern und ubertragungskanalen zu bestimmen Die Definition des Bit ist ein theoretischer Ausdruck der neuen technischen Moglichkeiten unterschiedliche Darstellungsformen von Nachrichten Information in eine gemeinsame fur technische Zwecke vorteilhafte Reprasentation der Information zu transformieren Eine Folge von elektrischen Impulsen die durch einen Binarcode ausgedruckt werden kann Das ist letztendlich die Grundlage fur eine Informationstechnik auf digitaler Basis wie auch fur Multimedia Das war im Prinzip mit der Informationstheorie bekannt In der Praxis wurde jedoch der digitale Umbruch der Informationstechnik erst spater moglich verbunden mit der sturmischen Entwicklung der Mikroelektronik in der zweiten Halfte des 20 Jahrhunderts Shannon selbst bezeichnet sein Werk als eine mathematische Theorie der Kommunikation Er schliesst semantische und pragmatische Aspekte der Information also Aussagen uber den Inhalt ubertragener Nachrichten sowie deren Bedeutung fur den Empfanger ausdrucklich aus Dies bedeutet dass eine sinnvolle Botschaft ebenso gewissenhaft ubertragen wird wie eine zufallige Folge von Buchstaben Obwohl die Shannon Theorie ublicherweise als Informationstheorie bezeichnet wird macht sie also keine direkte Aussage uber den Informationsgehalt von ubertragenen Botschaften In neuerer Zeit wird zunehmend versucht die Komplexitat einer Nachricht nicht mehr nur uber statistische Betrachtung der Daten zu bestimmen sondern vielmehr die Algorithmen zu betrachten die diese Daten erzeugen konnen Solche Ansatze sind insbesondere die Kolmogorow Komplexitat und die algorithmische Tiefe sowie die algorithmische Informationstheorie von Gregory Chaitin Klassische Informationskonzepte versagen teilweise in quantenmechanischen Systemen Dies fuhrt zum Konzept der Quanteninformation Die Informationstheorie stellt mathematische Methoden zur Messung bestimmter Eigenschaften von Daten zur Verfugung Der Begriff der Information aus der Informationstheorie hat keinen direkten Bezug zu Semantik Bedeutung und Wissen da sich diese Eigenschaften mit informationstheoretischen Verfahren nicht messen lassen Siehe auch BearbeitenKodierungstheorie Kommunikation Informationstheorie EntropiekodierungLiteratur BearbeitenClaude E Shannon A mathematical theory of communication Bell System Tech J 27 379 423 623 656 1948 Shannons bahnbrechende Veroffentlichung Claude E Shannon Warren Weaver Mathematische Grundlagen der Informationstheorie Dt Ubers von The mathematical theory of communication durch Helmut Dressler Munchen Wien Oldenbourg 1976 ISBN 3 486 39851 2 Neil J A Sloane Aaron D Wyner Claude Elwood Shannon Collected Papers IEEE Press Piscataway NJ 1993 Christoph Arndt Information Measures Information and its Description in Science and Engineering Springer Series Signals and Communication Technology 2004 ISBN 978 3 540 40855 0 springer com Siegfried Buchhaupt Die Bedeutung der Nachrichtentechnik fur die Herausbildung eines Informationskonzeptes der Technik im 20 Jahrhundert In Technikgeschichte 70 2003 S 277 298 Lehrbucher Bearbeiten Holger Lyre Informationstheorie Eine philosophisch naturwissenschaftliche Einfuhrung UTB 2289 Stuttgart UTB 2002 ISBN 3825222896 Werner Heise Pasquale Quattrocchi Informations und Codierungstheorie Mathematische Grundlagen der Daten Kompression und Sicherung in diskreten Kommunikationssystemen 3 Auflage Springer Berlin Heidelberg 1995 ISBN 3 540 57477 8 John R Pierce An Introduction to Information Theory Symbols Signals and Noise Dover Publications Inc New York second edition 1980 William Sacco Wayne Copes Clifford Sloyer und Robert Stark Information Theory Saving Bits Janson Publications Inc Dedham MA 1988 Solomon Kullback Information Theory and Statistics Dover Books on Mathematics 1968 Alexander I Khinchin Mathematical Foundations of Information Theory Fazlollah M Reza An Introduction to Information Theory 1961 Robert B Ash Information Theory 1965 Thomas M Cover Joy A Thomas Elements of Information Theory Wiley Series in Telecommunication 1991 Popularwissenschaftliche Einfuhrungen Bearbeiten William Poundstone Die Formel des Glucks Weblinks Bearbeiten Wiktionary Informationstheorie Bedeutungserklarungen Wortherkunft Synonyme Ubersetzungen Allgemeine Teilgebiete der Kybernetik Grundlagen Komplexitatstheorie Kybernetik zweiter Ordnung Radikaler Konstruktivismus Varietat Kybernetik Methoden Automatentheorie Entscheidungstheorie Spieltheorie Informationstheorie Informetrie Konnektionismus Semiotik Synergetik Systemtheorie Systemwissenschaft Kunstliche IntelligenzAnwendung Anthropokybernetik Bildungskybernetik Biokybernetik Medizinische Kybernetik Biomedizinische Kybernetik Neuroinformatik Psychokybernetik Soziokybernetik Systembiologie Technische Kybernetik Normdaten Sachbegriff GND 4026927 9 lobid OGND AKS Abgerufen von https de wikipedia org w index php title Informationstheorie amp oldid 231909862