www.wikidata.de-de.nina.az
Die Datenkompression wohl lehnubersetzt und eingedeutscht aus dem englischen data compression auch weiter eingedeutscht Datenkomprimierung 1 genannt ist ein Vorgang bei dem die Menge digitaler Daten verdichtet oder reduziert wird Dadurch sinkt der benotigte Speicherplatz und die Ubertragungszeit der Daten verkurzt sich In der Nachrichtentechnik wird die Komprimierung von Nachrichten aus einer Quelle durch einen Sender als Quellenkodierung bezeichnet 2 3 Grundsatzlich wird bei der Datenkompression versucht redundante Informationen zu entfernen Dazu werden die Daten in eine Darstellung uberfuhrt mit der sich alle oder zumindest die meisten Informationen in kurzerer Form darstellen lassen Diesen Vorgang ubernimmt ein Kodierer und man bezeichnet den Vorgang als Kompression oder Komprimierung Die Umkehrung bezeichnet man als Dekompression oder Dekomprimierung Man spricht von verlustfreier Kompression verlustfreier Kodierung oder Redundanzreduktion wenn aus den komprimierten Daten wieder exakt die Originaldaten gewonnen werden konnen Das ist beispielsweise bei der Kompression ausfuhrbarer Programmdateien notwendig Bei der verlustbehafteten Kompression oder Irrelevanzreduktion konnen die Originaldaten aus den komprimierten Daten meist nicht mehr exakt zuruckgewonnen werden das heisst ein Teil der Information geht verloren die Algorithmen versuchen moglichst nur unwichtige Informationen wegzulassen Solche Verfahren werden haufig zur Bild oder Videokompression und Audiodatenkompression eingesetzt Inhaltsverzeichnis 1 Allgemein 1 1 Grenzen der Komprimierbarkeit 1 1 1 Verlustbehaftete Kompression 1 1 2 Verlustfreie Kompression 2 Verlustfreie Kompression 2 1 Text 2 1 1 Worterbuchmethode 2 1 2 Run length encoding RLE 2 1 3 Entropiekodierung 2 2 Programmdateien 3 Verlustbehaftete Kompression 3 1 Bilder Videos und Tonaufnahmen 3 1 1 Kompressionsartefakte 4 Anwendung in der Nachrichtentechnik 5 Zeittafel der Kompressions Algorithmen 6 Bekannte Methoden zur Quellcodierung 6 1 Datenubertragung 7 Biologie 8 Siehe auch 9 Weblinks 10 EinzelnachweiseAllgemein BearbeitenDatenkompression findet heutzutage bei den meisten Fernubertragungen digitaler Daten statt Sie hilft Ressourcen bei der Ubertragung oder Speicherung von Daten einzusparen indem sie in eine Form verwandelt werden die abhangig von der Anwendung moglichst minimal ist Dabei konnen verlustlos nur Daten komprimiert werden die in irgendeiner Form redundant sind Ist keine Redundanz vorhanden zum Beispiel bei vollig zufalligen Daten ist verlustlose Kompression wegen der Kolmogorov Komplexitat prinzipiell unmoglich Ebenso verbietet das Taubenschlagprinzip dass jede beliebige Datei verlustlos komprimiert werden kann Hingegen ist verlustbehaftete Kompression immer moglich Ein Algorithmus ordnet die Daten danach wie wichtig sie sind und verwirft die unwichtigen dann In der Auflistung wie wichtig welche Bestandteile sind kann stets mehr verworfen werden indem die Behalten Schwelle entsprechend verschoben wird Bei der Datenkompression ist sowohl auf Sender als auch auf Empfangerseite Berechnungsaufwand notig um die Daten zu komprimieren oder wiederherzustellen Der Berechnungsaufwand ist jedoch bei verschiedenen Kompressionsmethoden sehr unterschiedlich So sind etwa Deflate und LZO sowohl bei Kompression und Dekompression sehr schnell wahrend etwa LZMA unter grossem Aufwand eine besonders weitgehende Kompression und somit moglichst kleine Datenmengen erzielt wahrend komprimierte Daten sehr schnell wieder in die ursprungliche Form zuruckgewandelt werden konnen Dies erzwingt je nach Anwendungsgebiet eine unterschiedliche Wahl der Kompressionsmethode Daher sind Kompressionsmethoden entweder auf Datendurchsatz Energiebedarf oder die Datenreduktion optimiert und die Kompression hat somit nicht immer eine moglichst kompakte Darstellung als Ziel Deutlich wird der Unterschied bei diesen Beispielen Werden Video oder Tonaufnahmen live gesendet mussen Kompression und Wiederherstellung moglichst schnell durchgefuhrt werden Qualitatseinbussen sind vertretbar wenn dafur die maximale mogliche Ubertragungsrate eingehalten wird Dies gilt beispielsweise fur Telefongesprache wo der Gesprachspartner oft auch bei schlechter Tonqualitat noch verstanden wird Wird eine einzelne Datei von unzahligen Nutzern heruntergeladen lohnt sich ein langsamer aber sehr leistungsfahiger Kompressions Algorithmus Die reduzierte Bandbreite bei der Ubertragung macht den Zeitaufwand der Kompression leicht wett Bei der Datensicherung und der Archivierung von Daten muss ein Algorithmus verwendet werden der gegebenenfalls auch in ferner Zukunft verwendet wird In diesem Fall kommen nur verbreitete bewahrte Algorithmen in Frage die mitunter nicht die besten Kompressionsraten aufweisen Auch die Art der Daten ist relevant fur die Auswahl der Kompressionsmethode Zum Beispiel haben die beiden auf unixoiden Betriebssystemen gebrauchlichen Kompressions Programme gzip und bzip2 die Eigenschaften dass gzip nur 32 000 Bytes grosse Blocke komprimiert wahrend bzip2 900 000 Bytes Blockgrosse aufweist Redundante Daten werden nur innerhalb dieser Blocke komprimiert Mitunter werden die Daten vor der Kompression noch in eine andere Darstellung transformiert Das ermoglicht einigen Verfahren die Daten anschliessend effizienter zu komprimieren Dieser Vorverarbeitungsschritt wird Prakodierung genannt Ein Beispiel dafur ist die Burrows Wheeler Transformation und Move to front bei bzip2 4 Das Fachgebiet der Datenkompression uberschneidet sich zum Teil mit Informationstheorie und kunstlicher Intelligenz und im Bereich der verlustbehafteten Datenkompression auch mit Wahrnehmungspsychologie s weiter unten Informationstheorie ist insofern betroffen weil die Dateigrosse eines bestmoglich komprimierten Datensatzes direkt den Informationsgehalt dieses Datensatzes angibt Kann ein Kompressionsalgorithmus lernen unter welchen Umstanden auf die Zeichenkette ABC ein D folgt muss das D in der komprimierten Datei gar nicht gespeichert werden bei der Wiederherstellung der ursprunglichen Datei weiss der Algorithmus an welchen Stellen ein D einzufugen ist Obwohl noch kein derartiger Kompressionsalgorithmus in der Praxis verwendet wird sind diverse Kompressionsverfahren die kunstliche neuronale Netzwerke und maschinelles Lernen verwenden in Entwicklung 5 Grenzen der Komprimierbarkeit Bearbeiten Verlustbehaftete Kompression Bearbeiten Verlustbehaftete Kompression ist wie oben beschrieben stets moglich die Schwelle was als redundant gilt kann so lange heraufgesetzt werden bis nur noch 1 Bit ubrig bleibt Die Grenzen sind fliessend und werden durch den Anwendungsfall bestimmt Zum Beispiel konnte Das Haus ist gross zu Das Haus ist gr komprimiert werden will der Leser wissen welche Eigenschaft hat das Haus so ist nicht mehr unterscheidbar ob es grau grun oder gross ist Will der Leser wissen wurde etwas uber ein Haus gesagt so kann das noch immer eindeutig bejaht werden Bei verlustbehafteter Bildkompression gehen zunehmend Details verloren werden unscharf schliesslich verschwimmt alles zu einer Flache mit einheitlicher Farbe eine Audio Aufnahme wird meist dumpfer und undeutlicher sie wurde nach grosstmoglicher Kompression bei den meisten Algorithmen nur noch einen einfachen Sinuston aufweisen Verlustfreie Kompression Bearbeiten Bei verlustfreier Kompression gelten sehr viel engere Grenzen da gewahrleistet sein muss dass die komprimierte Datei wieder in die Originaldatei rucktransformiert werden kann Die Kolmogorow Komplexitat befasst sich mit der kleinstmoglichen Anleitung die notwendig ist um aus den komprimierten Daten die Originaldaten wiederherzustellen So zum Beispiel lasst sich die Zahl 100000000000000000000000000000000000 sehr einfach komprimieren Schreibe 1 und dann 35 Nullen was eine Kompression von 36 auf 29 Zeichen darstellt Ebenfalls lassen sich beliebig viele Nachkommastellen der Kreiszahl Pi mit ihrer Berechnungsvorschrift komprimieren wobei der Kompressionsalgorithmus dann erkennen musste dass es sich um die Zahl Pi handelt Zu beachten ist dass bei komprimierten Dateien der Wiederherstellungs Algorithmus ebenfalls zur Dateigrosse hinzugerechnet werden musste da jede komprimierte Datei ohne einen solchen Algorithmus wertlos ist So liesse sich die obige Zahl auch mit 10 35 oder 1e35 komprimieren wobei dann der Leser von der Wiederherstellungsmethode namlich der Potenzschreibweise Kenntnis haben muss Weist eine Zeichenkette aber keinerlei erkennbare Struktur Besonderheiten auf dann ist eine Kompression nicht moglich die Anleitung musste die unveranderten Originaldaten beinhalten Ein weiterer Grund fur die Unkomprimierbarkeit mancher Daten ist das sogenannte Taubenschlagprinzip Gibt es weniger Nistplatze fur Tauben als es Tauben im Taubenschlag gibt mussen sich zwangslaufig zwei oder mehr Tauben einen Nistplatz teilen Auf einem n bit grossen Speicherplatz kann man eine von 2n moglichen Informationen abspeichern und auf einem Speicherplatz der um ein bit kleiner ist kann man folglich nur eine von halb so viel moglichen Informationen speichern 16 bits 216 65536 mogliche Informationen 15 bits 215 32768 mogliche Informationen Unter der Annahme man konne jede mogliche Datei um ein bit verkleinern wurde dies nach dem Taubenschlagprinzip bedeuten dass jeder Speicherplatz gleichzeitig zwei verschiedene komprimierte Dateien enthalten musste Da aber in der verlustfreien Kompression eine umkehrbar eindeutige Zuordnung zwischen komprimierter und unkomprimierter Datei bestehen muss verbietet sich dies Galte das Taubenschlagprinzip nicht und gabe es einen Algorithmus der jede beliebige Datei um mindestens ein Bit komprimieren kann konnte dieser rekursiv auf die jeweils komprimierte Datei angewendet werden jede beliebige Information liesse sich auf 0 bit reduzieren In der Praxis lassen sich nur dann bereits komprimierte Daten nochmals komprimieren wenn im vorherigen Durchlauf ein nicht 100 ig effizienter Algorithmus verwendet wurde welcher die Redundanz noch nicht vollstandig entfernt hat z B eine sehr grosse Datei voller Nullen wird zwei Mal mit gzip komprimiert Aus diesen beiden Tatsachen ergibt sich die Schlussfolgerung dass rein zufallige Daten hochstwahrscheinlich unkomprimierbar sind da sie zumeist keine Struktur aufweisen und dass zwar viele aber nicht alle Daten komprimiert werden konnen Zwei Preisgelder 100 Dollar fur die erfolgreiche Kompression von einer Million zufalliger Ziffern 6 7 und 5000 Dollar fur die erfolgreiche Kompression einer Datei beliebiger Lange die vom Preisstifter Mike Goldman erzeugt wird 8 wurden noch nicht ausbezahlt Verlustfreie Kompression BearbeitenBei der verlustfreien Kompression konnen die Originaldaten exakt aus den komprimierten Daten wiederhergestellt werden Dabei geht keinerlei Information verloren Im Wesentlichen nutzen verlustfreie Kompressionsverfahren die Redundanz von Daten aus man spricht auch von Redundanzreduktion Die theoretische Grundlage bildet die Informationstheorie verwandt mit der algorithmischen Informationstheorie Sie gibt durch den Informationsgehalt eine minimale Anzahl an Bits vor die zur Kodierung eines Symbols benotigt werden Verlustlose Kompressionsverfahren versuchen nun Nachrichten so zu kodieren dass sie sich ihrer Entropie moglichst gut annahern Text Bearbeiten Texte sofern sie aus Buchstaben bestehen oder als Zeichenketten abgespeichert sind und somit nicht als Bild Rastergrafik typischerweise eine Bilddatei nach dem Einscannen eines Buches belegen vergleichsweise wenig Speicherplatz Dieser lasst sich durch ein Verfahren zur verlustfreien Kompression auf 20 bis 10 des ursprunglich von ihr benotigten Platzes reduzieren Beispiele Ausgangstext AUCH EIN KLEINER BEITRAG IST EIN BEITRAG Kodiertext AUCH EIN KLEINER BEITRAG IST 2 4 Hier wurde erkannt dass die Worter EIN und BEITRAG zweimal auftauchen und dadurch angegeben dass diese mit den gerade zuruckliegenden ubereinstimmen Bei genauerer Betrachtung konnte dann auch das in KLEINER enthaltene EIN entsprechend kodiert werden Worterbuchmethode Bearbeiten Verwandt ist die tokenbasierte Kompression Haufig wiederkehrende Schlusselworter werden durch Abkurzungen Tokens ersetzt Ausgangstext Print Hallo Print Hier Kodiertext 3F Hallo 3F Hier Fur die Zuordnung der Tokens zu den eigentlichen Wortern muss entweder ein externes Worterbuch vorhanden sein oder in der komprimierten Datei ersichtlich mit enthalten sein Run length encoding RLE Bearbeiten Bei der RLE deutsch Lauflangenkodierung werden identische Textbestandteile die hintereinander stehen nur einmal abgespeichert mit der Anzahl ihrer Wiederholungen Hier wird 10 Grad drei Mal wiederholt Ausgangstext In den letzten Tagen betrug die Temperatur 10 Grad 10 Grad 10 Grad und dann 14 Grad Kodiertext In den letzten Tagen betrug die Temperatur 3 10 Grad und dann 14 Grad Die Burrows Wheeler Transformation ist eine umkehrbare Operation welche einen gegebenen Text so umformt dass dieselben Buchstaben moglichst oft gleich hintereinander stehen So konnen die Daten dann mit RLE komprimiert werden Entropiekodierung Bearbeiten Verfahren der so genannten Entropiekodierung Huffman Code in modifizierter Form zum Beispiel fur die Fax Ubertragung Arithmetische Kodierung 4 Der bekannte Morse Code funktioniert nach einem ahnlichen Prinzip und dient als gutes Beispiel Haufige Buchstaben der englischen Sprache z B E werden als kurze Codes abgespeichert seltene als lange Codes z B Q Als Beispiel ein Ausgangstext von 66 Zeichen Lange Datenmenge 462 Bit bei 7 Bit pro Zeichen siehe ASCII WENN HINTER FLIEGEN FLIEGEN FLIEGEN FLIEGEN FLIEGEN FLIEGEN NACH Eine sehr einfache aber nicht sehr effiziente Entropiekodierung besteht darin alle Teile einer Nachricht siehe Tabelle steht fur das Leerzeichen nach ihrer Haufigkeit zu sortieren und mittels binaren Zahlen zu nummerieren Textteil wird ersetzt durch FLIEGEN 1WENN 10 NACH 11HINTER 100 101Der mit diesem Worterbuch komprimierte Text lautet 10 100 1 1 1 101 1 1 1 11 und benotigt in binarer Kodierung 50 Bit denn das Ergebnis enthalt drei verschiedene Zeichen 0 1 und das Trennzeichen also 2 Bit pro Zeichen Die Trennzeichen sind hier notwendig da dieser Code nicht prafixfrei ist Der prafixfreie Huffman Code also folgendes Worterbuch Textteil wird ersetzt durch FLIEGEN 1WENN 011 NACH 010HINTER 001 000ist effizienter denn es fuhrt direkt zu einem binaren Ergebnis von 18 Bit Lange 011001111000111010 In beiden Fallen muss aber auch das Worterbuch in der komprimierten Datei abgespeichert werden sonst lasst sich der Ausgangstext nicht rekonstruieren Programmdateien Bearbeiten Hauptartikel Kompression ausfuhrbarer Programmdateien Bei Programmdateien ist es kritisch dass sie nach erfolgter Dekomprimierung wieder im ursprunglichen Zustand sind Andernfalls ware eine fehlerfreie bzw korrekte Ausfuhrung unwahrscheinlich Komprimierte Programmdateien sind meist selbst wieder ausfuhrbare Dateien Sie bestehen aus einer Routine die den Programmcode wieder dekomprimiert und anschliessend ausfuhrt Dadurch ist die Kompression des Programms fur den Benutzer vollkommen transparent er bemerkt sie nicht Anwendungsbeispiele sind UPX und Upack Verlustbehaftete Kompression BearbeitenBei der verlustbehafteten Kompression werden irrelevante Informationen entfernt man spricht auch von Irrelevanzreduktion Dabei geht ein Teil der Information aus den Originaldaten verloren sodass aus den komprimierten Daten nicht mehr das Original rekonstruiert werden kann Es wird ein Modell benotigt das entscheidet welcher Anteil der Information fur den Empfanger entbehrlich ist Verlustbehaftete Kompression findet meist in der Bild Video und Audio Ubertragung Anwendung Als Modell wird dort die menschliche Wahrnehmung zugrunde gelegt Ein populares Beispiel ist das Audio Format MP3 das Frequenzmuster entfernt die der Mensch schlecht oder gar nicht hort Die theoretische Grundlage bildet die Rate Distortion Theorie Sie beschreibt welche Datenubertragungsrate mindestens notig ist um Informationen mit einer bestimmten Gute zu ubertragen Bilder Videos und Tonaufnahmen Bearbeiten nbsp Bei stark komprimierten Bildern im JPEG Format zeichnen sich 8 8 Pixel grosse Quadrate als Kompressionsartefakte ab Oben Originalgrosse unten Ausschnittsvergrosserung nbsp Vergleich der Kompressionsartefakte im JPEG Format mit dem verlustfreien PNG FormatTon Bild und Film sind Einsatzgebiete verlustbehafteter Kompression Anders waren die oftmals enormen Datenmengen sehr schwer zu handhaben Bereits die Aufnahmegerate begrenzen das Datenvolumen Die Reduktion der gespeicherten Daten orientiert sich an den physiologischen Wahrnehmungseigenschaften des Menschen Die Kompression durch Algorithmen bedient sich dabei typischerweise der Wandlung von Signalverlaufen von Abtastsignalen in eine Frequenzdarstellung In der akustischen Wahrnehmung des Menschen werden Frequenzen oberhalb von ca 20 kHz nicht mehr wahrgenommen und konnen bereits im Aufnahmesystem beschnitten werden Ebenso werden existierende leise Nebentone in einem Klanggemisch nur schwer wahrgenommen wenn zur exakt gleichen Zeit sehr laute Tone auftreten so dass die unhorbaren Frequenzanteile vom Daten Kompressions System entfernt werden konnen siehe Psychoakustik ohne dass dies als storend vom Horer wahrgenommen wurde Der Mensch kann bei einer Reduktion digitalisierter akustischer Ereignisse Musik Sprache Gerausche auf Werte um etwa 192 kbit s wie bei vielen Internet Downloads kaum oder gar keine Qualitatsunterschiede zum unkomprimierten Ausgangsmaterial so bei einer CD feststellen In der optischen Wahrnehmung des Menschen werden Farben weniger stark aufgelost als Helligkeitsanderungen daraus leitet sich die schon beim analogen Farbfernsehen bekannte YUV 422 Reduzierung ab Kanten sind dagegen bedeutsamer und es existiert eine biologische Kontrastanhebung Machsche Streifen Mit moderater Tiefpassfilterung zur Farbreduktion zum Beispiel durch den auf DCT Transformation basierenden JPEG Algorithmus oder den neueren auf Wavelet Transformation basierenden JPEG2000 Algorithmus lasst sich die Datenmenge meist auf 10 oder weniger der ursprunglichen Datenmenge reduzieren ohne deutliche Qualitatsverringerungen Bewegtbilder Filme bestehen aus aufeinanderfolgenden Einzelbildern Erster Ansatz war jedes Bild einzeln gemass JPeg Algorithmus zu komprimieren Das resultierende Format ist Motion JPEG entspricht MPEG 1 wenn dieses nur I Frames enthalt Die heutzutage sehr viel hoheren Kompressionsraten sind nur erreichbar wenn man bei der Kodierung die Ahnlichkeit von benachbarten Bildern engl Frames berucksichtigt Dazu wird das Bild in kleinere Kastchen typische Grossen liegen zwischen 4 4 und 16 16 Pixel zerlegt und es werden ahnliche Kastchen in schon ubertragenen Bildern gesucht und als Vorlage verwendet Die Einsparung ergibt sich daraus dass statt des gesamten Bildinhalts nur noch die Unterschiede der an sich ahnlichen Kastchen ubertragen werden mussen Zusatzlich wird aus den Anderungen vom vorherigen zum aktuellen Bild gefolgert in welche Richtung sich Bildinhalte wie weit verschoben haben fur den entsprechenden Bereich wird dann nur ein Verschiebungsvektor gespeichert Kompressionsartefakte Bearbeiten Hauptartikel Kompressionsartefakt Als Kompressionsartefakte bezeichnet man Signalstorungen die durch die verlustbehaftete Kompression verursacht werden Anwendung in der Nachrichtentechnik Bearbeiten nbsp Nutzung von Quellen Kanal und Leitungskodierung zur Ubertragung eines SignalsBei der Datenubertragung wird haufig die zu ubertragende Datenmenge durch Kompression reduziert In so einem Fall spricht man dann auch von Quellenkodierung 2 3 Die Quellenkodierung wird dabei haufig zusammen mit Kanalkodierung und Leitungskodierung verwendet sollte aber nicht mit diesen verwechselt werden Wahrend die Quellencodierung uberflussige redundante Information einer Datenquelle reduziert hat die Kanalcodierung die Aufgabe durch zusatzlich eingebrachte Redundanz Ubertragungs bzw Speicherfehler im Rahmen der Datenubertragung erkennen und korrigieren zu konnen Die Leitungskodierung hingegen nimmt eine spektrale Anpassung des Signals an die Anforderungen des Ubertragungskanals vor Zeittafel der Kompressions Algorithmen BearbeitenDie jahrhundertealte Stenografie kann als Datenkompression angesehen werden welche der Handschrift eine moglichst hohe Datenrate verleiht1833 1865 Entwicklung des Morse Codes welcher haufige Buchstaben in kurze Zeichen ubersetzt und seltene Buchstaben in langere was die Idee der Entropiekodierung vorzeichnet1883 David Forsyth Schachspieler und Journalist publiziert eine Methode mit welcher auf platzsparende Weise die Position von Schach Figuren mit Lauflangenkodierung festgehalten wird Forsyth Edwards Notation1949 Informationstheorie Claude Shannon1949 Shannon Fano Kodierung1952 Huffman Kodierung static1964 Konzept der Kolmogorow Komplexitat1975 Integer coding scheme Elias1977 Lempel Ziv Verfahren LZ771978 Lempel Ziv Verfahren LZ781979 Bereichskodierung eine Implementierung arithmetischer Kodierung 1982 Lempel Ziv Storer Szymanski LZSS 1984 Lempel Ziv Welch Algorithmus LZW 1985 Apostolico Fraenkel Fibonacci coding1986 Move to front Bentley et al Ryabko 1991 Reduced Offset Lempel Ziv ROLZ auch LZRW4 Lempel Ziv Ross Williams 1994 Burrows Wheeler Transformation bzip2 1995 zlib freie Standardbibliothek fur Deflate1996 Lempel Ziv Oberhumer Algorithmus LZO sehr schnelle Kompression1997 Sequitur1998 Lempel Ziv Markow Algorithmus LZMA 2006 Hutter Preis fur beste Datenkompression2009 PAQ hochste Kompressionsraten auf Kosten sehr langer Laufzeit Verwendung eines neuronalen Netzwerks heute ZPAQ 2011 Snappy schneller Kodierer von Google2011 LZ4 sehr schneller Kodierer2013 zopfli verbesserter Deflate Kodierer2015 Brotli starke KompressionBekannte Methoden zur Quellcodierung Bearbeitenverlustbehaftet beides moglich verlustfreiAAC MPEG AiffALS MPEG Apple LosslessATRACDjVuDolby DigitalDTSFLACMonkey s AudioG 729GIFHuffYUVJPEGJPEG 2000LAMJPEGMP2 MPEG MP3 MPEG MPEG 1MPEG 2MPEG 4 siehe H 264 Xvid DivX MusepackPGFPNGTGATIFFVorbis Ogg WavPackWebPWMAWMVBilder Audio VideoDatenubertragung Bearbeiten MNP 1 bis MNP 10 Microcom Networking Protocol Fehlerkorrektur und Datenkompressionsprotokolle der Firma Microcom Inc fur Modems ein jahrelanger Standard Wurde verbessert durch dd V 42bis Datenkompressionsprotokoll der ITU TBiologie BearbeitenSinneswahrnehmungen werden gefiltert was auch eine Art der Kompression darstellt genauer eine verlustbehaftete Kompression da nur aktuell relevante Informationen wahrgenommen werden Fehlendes wird bei Bedarf unbewusst ersetzt So sehen menschliche Augen beispielsweise nur in einem kleinen Bereich Fovea centralis scharf ausserhalb dieses engen Blickfeldes werden fehlende Informationen durch Muster unbewusst ersetzt Ebenso kann das menschliche Auge Helligkeitsunterschiede wesentlich besser wahrnehmen als Unterschiede im Farbton diesen Umstand nutzt das in JPEG Bildern verwendete YCbCr Farbmodell und speichert den Farbwert mit einer wesentlich geringeren Prazision ab Auch beim Horen werden schwache oder fehlende Signale unbewussterweise ersetzt was sich Algorithmen wie MPEG MP3 oder Vorbis zunutze machen Siehe auch BearbeitenKanalkodierung Canterbury Corpus Liste von Datenkompressionsprogrammen Liste von DateinamenserweiterungenWeblinks Bearbeiten nbsp Wikibooks Buch zu Datenkompression Lern und Lehrmaterialien nbsp Wiktionary Datenkompression Bedeutungserklarungen Wortherkunft Synonyme Ubersetzungen Vergleich der Kompressionsleistung von uber 250 Packprogrammen englisch LA Verlustfreies Audioformat mit den angeblich hochsten Kompressionsraten englisch Data Compression Systematisation by T Strutz englisch Data compression FAQ englisch Lelewer Debra A Hirschberg Daniel S Data Compression ACM Computing Surveys 19 1987 S 261 297 Ubersichtsartikel englisch Liste mit Kompressionsvergleichen englisch Einzelnachweise Bearbeiten Datenkomprimierung Duden Bibliographisches Institut 2016 a b Stefan Brunthaler Quellen und Leitungscodierung PDF 528 kB In TH Wildau 2018 abgerufen am 12 August 2018 Vorlesungsscript Kommunikationstechnik in der Telematik SS2018 a b Peter Maluck Jurg Scheidegger Quellencodierung Gelenktes Entdeckendes Lernen PDF 776 kB In SwissEduc 24 August 2009 abgerufen am 12 August 2018 Seminar Kommunikationstechnik a b Tilo Strutz Bilddatenkompression Grundlagen Codierung Wavelets JPEG MPEG H 264 HEVC Springer Vieweg Wiesbaden 2017 ISBN 978 3 8348 1427 2 S 421 Matthew V Mahoney Fast Text Compression with Neural Networks In AAAI Hrsg Proceedings of the Thirteenth International Florida Artificial Intelligence Research Society Conference 2000 ISBN 1 57735 113 4 S 5 Mark Nelson The Million Random Digit Challenge Revisited 20 Juni 2006 abgerufen am 12 August 2018 englisch Mark Nelson The Enduring Challenge of Compressing Random Data DrDobbs com 6 November 2012 abgerufen am 12 August 2018 englisch Patrick Craig The 5000 Compression Challenge Abgerufen am 12 August 2018 englisch Abgerufen von https de wikipedia org w index php title Datenkompression amp oldid 233541766