www.wikidata.de-de.nina.az
Blockcodes sind eine Art der Kanalkodierung der Familie der fehlererkennenden und fehlerkorrigierenden Codes Sie zeichnen sich durch eine feste Blockgrosse aus n displaystyle n Symbolen eines festen Alphabets S displaystyle Sigma bei Binarcodes S 0 1 displaystyle Sigma 0 1 aus Einzelne Blocks werden im Gegensatz zu Faltungscodes unabhangig voneinander kodiert und dekodiert Systematischer Blockcode aus voneinander getrennten Informations und PrufsymbolenWichtige Eigenschaften eines Blockcodes sind die Informationsrate das Verhaltnis aus enthaltener Informationsmenge k displaystyle k zur Gesamt Datenmenge n displaystyle n sowie seine Korrekturrate d h die Fahigkeit Fehler zu erkennen und oder zu korrigieren Beide Eigenschaften beeinflussen einander und spannen eine gemeinsame unuberwindbare Schranke auf Durch Optimierung kann man sich der Schranke nahern erhalt aber lange und aufwandig zu dekodierende Codes Hier hat sich das Kaskadieren von Codes als praktikablere Losung erwiesen Obwohl Blockcodes haufig nicht optimal im Sinne einer minimalen mittleren Codewortlange sind schrankt man sich oft auf Blockcodes ein Eine weitere Spezialisierung stellen lineare Codes und systematische Codes dar Inhaltsverzeichnis 1 Aufbau 2 Typen von Blockcodes 3 Informationsrate von Blockcodes 4 Beispiele fur Blockcodes 4 1 Wiederholungscode 4 2 Paritatscode 4 3 Hadamard Code 4 4 Weitere Beispiele fur Blockcodes 4 4 1 Beispiel 1 4 4 2 Beispiel 2 4 4 3 Beispiel 3 5 Fehlerkorrektur 6 Schranken 6 1 Singleton Schranke 6 2 Plotkin Grenze 7 Literatur 8 Weblinks 9 EinzelnachweiseAufbau BearbeitenAus dem Alphabet S displaystyle Sigma nbsp und der Blockgrosse n displaystyle n nbsp ergeben sich S n displaystyle Sigma n nbsp mogliche Worte von denen eine Teilmenge C S n displaystyle mathcal C subseteq Sigma n nbsp die gultigen Codeworte darstellt Die Machtigkeit des Alphabets S displaystyle Sigma nbsp wird mit q S displaystyle q Sigma nbsp bezeichnet sie betragt im Falle von Binarcodes q S 2 displaystyle q Sigma 2 nbsp Die Machtigkeit des Codes C displaystyle mathcal C nbsp kann bei vielen Codes bei linearen Codes immer als C q k displaystyle mathcal C q k nbsp mit k N displaystyle k in mathbb N nbsp geschrieben werden Diese Codes konnen bei einer Blockgrosse von n displaystyle n nbsp Symbolen eine Nutzlast k n displaystyle k leq n nbsp tragen Die Informationrate betragt k n 1 displaystyle k n leq 1 nbsp die Korrekturrate wird durch den minimalen Hamming Abstand des Codes C displaystyle mathcal C nbsp limitiert Der Hamming Abstand zweier Codeworte c i displaystyle c i nbsp und c j displaystyle c j nbsp ist hierbei die Anzahl unterschiedlicher Symbole dieser Codeworte D c i c j displaystyle Delta c i c j nbsp der minimale Hamming Abstand d displaystyle d nbsp eines ganzen Codes C displaystyle mathcal C nbsp ist der minimale Hamming Abstand aller disjunkten Codewort Paare d h d D C d e f min i j D c i c j displaystyle d Delta mathcal C overset underset mathrm def min i neq j Delta c i c j nbsp Letztere beschrankt die maximale zuverlassige Korrekturleistung auf t displaystyle t nbsp Symbolfehlern mit t d 1 2 displaystyle t left lfloor d 1 2 right rfloor nbsp ein Bei kaskadierten Korrekturverfahren spielt neben der Fehlerkorrektur auch die Fehlererkennung eine Rolle Zum einen erkennen Nicht perfekte Codes eine gewisse Menge an Mehrbit Fehler mit t M e h r b i t gt t displaystyle t mathrm Mehrbit gt t nbsp die sie selbst nicht mehr korrigieren konnen zum anderen kann man Fehlerkorrektur Fahigkeiten gegen weitere garantierte Fehlererkennungs Fahigkeiten r displaystyle r nbsp eintauschen und damit folgende Korrektur Stufen unterstutzen r d 1 t b e n u t z t displaystyle r d 1 t mathrm benutzt nbsp Fur Codes haben sich in der Literatur unterschiedliche Notationen etabliert n k d q displaystyle n k d q nbsp oder n k d q displaystyle n k d q nbsp haufig wird das Semikolon durch ein Komma ersetzt die eckigen Klammern durch runde Klammern q 2 displaystyle q 2 nbsp wird haufig weggelassen gleiches gilt fur das d 3 displaystyle d 3 nbsp der klassischen Hamming Codes Haufig wird statt k displaystyle k nbsp der Anzahl der Nutzsymbole die Machtigkeit des Codes q k C displaystyle q k mathcal C nbsp d h n q k d q displaystyle n q k d q nbsp oder der Code selbst angegeben n C d q displaystyle n mathcal C d q nbsp angegeben zum Teil wird diese Information in der Art der verwendeten Klammern versteckt Im Weiteren wird versucht dies wie auch die Nutzung von Variablennamen sowohl in diesem Artikel wie auch in verwandten Artikeln konsistent zu halten Man bezeichnet allgemein C displaystyle mathcal C nbsp als einen n C d q displaystyle n mathcal C d q nbsp Code falls S displaystyle Sigma nbsp ein Alphabet mit S q displaystyle Sigma q nbsp ist der Code C S n displaystyle mathcal C subseteq Sigma n nbsp ist und der minimalen Hamming Abstand d D C displaystyle d Delta mathcal C nbsp ist Betrachtet man lineare Codes so spricht man von n k d q displaystyle n k d q nbsp Codes bzw n k d q displaystyle n k d q nbsp Codes wobei k displaystyle k nbsp hier die Dimension von C displaystyle mathcal C nbsp uber dem Korper F q displaystyle mathbb F q nbsp ist n displaystyle n nbsp und d displaystyle d nbsp haben dabei die gleiche Bedeutung wie bei den allgemeinen Blockcodes nbsp Es gibt zwar theoretische Grenzen wie die Hamming Grenze aber eine andere Frage ist welche Codes tatsachlich konstruiert werden konnen Es ist als wurde man Kugeln in einem eckigen Karton verpacken Dieses Diagramm zeigt die konstruierbaren Codes die linear und binar sind Die x Achse zeigt die Anzahl der geschutzten Symbole k und die y Achse die Anzahl der benotigten Prufsymbole n k Es sind die Grenzen fur verschiedene Hamming Distanzen dargestellt Von 1 ungeschutzt bis 34 Mit Punkten markiert sind perfekte Codes hellorange auf der x Achse trivial ungeschutzte Codes orange auf der y Achse trivial Wiederholungs Codes dunkelorange auf der Linie fur d 3 klassische perfekte Hamming Codes dunkelrot und gross der einzige perfekte binare Golay CodeMan interessiert sich bei gegebenem n displaystyle n nbsp d displaystyle d nbsp und q displaystyle q nbsp fur eine Maximierung der Machtigkeit des Codes d h fur max C C m i t D C d displaystyle max mathcal C mathcal C mathrm mit Delta mathcal C geq d nbsp da hierbei eine optimale Informationsrate fur diese Parameter erzielt wird Allerdings gibt es gunstige Parameter die zu effizienteren Codes als ihre Nachbarparameter fuhren So fordert ein 23 12 7 2 displaystyle 23 12 7 2 nbsp Code 11 Schutzbits ein 27 13 7 2 displaystyle 27 13 7 2 nbsp Code allerdings schon 14 Ein 41 24 7 2 displaystyle 41 24 7 2 nbsp kommt wie ein 55 38 7 2 displaystyle 55 38 7 2 nbsp Code mit 17 Schutzbits aus Es gibt Abschatzungen ob Codes moglich sein konnten oder gegen gewisse Prinzipien verstossen Singleton Schranke MDS Code Hamming Schranke Perfekter Code Plotkin Schranke Gilbert Varshamov Schranke Johnson Schranke Griesmer Schranke Bassalygo Elias Schranke Optimaler CodeSchranken weisen darauf hin ob Codes existieren konnen nicht ob sie konstruierbar sind und wirklich existieren Typen von Blockcodes BearbeitenFormal heisst der Code C S n displaystyle mathcal C subseteq Sigma n nbsp Blockcode wobei S displaystyle Sigma nbsp als Alphabet bezeichnet wird und n displaystyle n nbsp die Lange jedes Codewortes c C displaystyle c in mathcal C nbsp ist Triviale Blockcodes sind Codes die nur ein Wort als Code umfassen C 1 displaystyle mathcal C 1 nbsp Es lassen sich alle Ubertragungsfehler erkennen aber keine Information ubertragen oder die alle moglichen Worte als Code umfassen C S n displaystyle mathcal C Sigma n nbsp Es lassen sich keine Ubertragungsfehler erkennen die ubertragene Information ist aber maximal Bemerkungen Der erste Code lasst sich als n 0 2 n 1 q displaystyle n 0 2n 1 q nbsp Code schreiben Er hat im klassischen Sinne keine Hamming Distanz da es keine Codepaare gibt Es lassen sich bis zu maximal t n displaystyle t n nbsp Symbolfehler im ubertragenen Wort w displaystyle w nbsp korrigieren das ubertragene Codewort ist bekannt was eine typische Eigenschaft fur Codes mit d 2 t 1 2 n 1 displaystyle d 2t 1 2n 1 nbsp ist Das gleiche gilt fur die Anzahl von Codes die sich eindeutig dekodieren lassen Die Gleichung q n i 0 d 1 2 q 1 i n i displaystyle q n sum i 0 lfloor d 1 2 rfloor q 1 i binom n i nbsp liefert fur d 2 n 1 displaystyle d geq 2n 1 nbsp das richtige Ergebnis Der zweite Code lasst sich als n n 1 2 displaystyle n n 1 2 nbsp Code schreiben Er hat eine Hamming Distanz von 1 Lineare Blockcodes sind Codes wenn C displaystyle mathcal C nbsp ein k displaystyle k nbsp dimensionaler Untervektorraum von S n displaystyle Sigma n nbsp ist Es existiert dann eine Basis g 1 g k displaystyle g 1 dots g k nbsp von C displaystyle mathcal C nbsp Fasst man diese Basis zu einer Matrix G g 1 g 2 g k 1 g k displaystyle G begin pmatrix g 1 g 2 vdots g k 1 g k end pmatrix nbsp zusammen erhalt man eine Generatormatrix dieses linearen Blockcodes Die Codeworte erhalt man durch Multiplizieren des Eingangssignals x displaystyle x nbsp mit der Generatormatrix c x x G displaystyle c x x cdot G nbsp Der Hauptvorteil linearer Code ist die einfache Codierbarkeit und die einfache Decodierbarkeit Bemerkungen Zur Kodierung eines Codes mit q k displaystyle q k nbsp Codeworten muss man nur noch k displaystyle k nbsp Codeworte vorratig halten Gleiches gilt fur die Dekodierung mit q n displaystyle q n nbsp vs n displaystyle n nbsp Systematische Blockcodes sind Codes bei denen die k displaystyle k nbsp Informationssymbole direkt im Block ablesbar sind meist am Blockanfang siehe Abbildung am Anfang des Artikels Sie konnen gleichzeitig lineare Blockcodes sein mussen es aber nicht Sie sind lineare Blockcodes wenn neben den Informationssymbolen die immer linear sind auch die Prufsymbole linear sind Perfekte Blockcodes sind Codes in denen jedes Wort w S n displaystyle w in Sigma n nbsp nur zu genau einem Codewort c C displaystyle c in mathcal C nbsp und nicht zu mehreren einen geringsten Hamming Abstand d w displaystyle d w nbsp hat Jedes Wort lasst sich damit eindeutig decodieren Der Hamming Code ist ein Beispiel fur einen perfekten Code Maximum Distanz Codes MDS Codes sind Blockcodes deren Codeworte den grosstmoglichen Hamming Abstand voneinander haben Beispiele fur MDS Codes sind Wiederholungscodes Paritatscodes und Reed Solomon Codes Informationsrate von Blockcodes BearbeitenDie Informationsrate auch Coderate R displaystyle R nbsp gibt an wie viel Information pro Codewortsymbol im Mittel ubertragen wird sie ist also das Verhaltnis von Nachrichtensymbolen zu Codewortsymbolen Da ein Code Redundanz hinzufugt gilt allgemein 0 R 1 displaystyle 0 leq R leq 1 nbsp Sei C S n displaystyle mathcal C subseteq Sigma n nbsp ein Blockcode und es gelte q S displaystyle q Sigma nbsp das Alphabet habe also q displaystyle q nbsp verschiedene Elemente Dann lautet fur C displaystyle mathcal C nbsp die Definition der Informationsrate R log q C log q S n log q C n displaystyle R frac log q mathcal C log q Sigma n frac log q mathcal C n nbsp Ist z B C displaystyle mathcal C nbsp ein binarer Code mit s displaystyle s nbsp verschiedenen Codeworten dann benotigt man log 2 s displaystyle lceil log 2 s rceil nbsp Bits um diese eindeutig zu unterscheiden Handelt es sich um einen linearen Code so ist die Informationsrate R log q q k n k n displaystyle R frac log q q k n frac k n nbsp Beispiele fur Blockcodes BearbeitenWiederholungscode Bearbeiten Wiederholungscodes sind lineare systematische n 1 n displaystyle n 1 n nbsp Blockcodes uber einem beliebigen Alphabet bei denen jedes Nachrichtensymbol n mal wiederholt wird Damit hat ein Wiederholungscode die GeneratormatrixG 1 1 displaystyle G begin pmatrix 1 cdots 1 end pmatrix nbsp und eine Informationsrate von R 1 n displaystyle R frac 1 n nbsp Paritatscode Bearbeiten Paritatscodes engl Single Parity Check SPC codes sind lineare systematische und binare Codes bei denen der Nachricht ein einziges Prufbit angefugt wird das sich als XOR Verknupfung aller Nachrichtenbits ergibt Somit hat jedes Codewort eine gerade Anzahl an 1 Bits Die Generatormatrix hat folgende Form G 10 00 1 01 00 1 00 10 1 00 01 1 displaystyle G begin pmatrix 10 dots 00 1 01 dots 00 1 vdots ddots vdots vdots 00 dots 10 1 00 dots 01 1 end pmatrix nbsp Sie haben eine Hamming Distanz von 2 und stellen n n 1 2 2 displaystyle n n 1 2 2 nbsp Blockcodes dar Sie konnen einen Fehler erkennen aber keine Fehler korrigieren Lineare binare Blockcodes mit ungeradem Hamming Abstand n k 2 m 1 2 displaystyle n k 2m 1 2 nbsp lassen sich mit einem zusatzlichen Paritatscode zu einem n 1 k 2 m 2 2 displaystyle n 1 k 2m 2 2 nbsp Code erweitern Hadamard Code Bearbeiten Hadamard Codes sind lineare nicht systematische Blockcodes 2 k k 1 2 k 1 displaystyle 2 k k 1 2 k 1 nbsp Die Generatormatrix hat eine sehr auffallige Form G 01010101 10 01010101 00110011 10 00110011 00001111 10 00001111 00000000 01 11111111 11111111 10 00000000 displaystyle G begin pmatrix 01010101 cdots 10 cdots 01010101 00110011 cdots 10 cdots 00110011 00001111 cdots 10 cdots 00001111 vdots 00000000 cdots 01 cdots 11111111 11111111 cdots 10 cdots 00000000 end pmatrix nbsp Sie haben eine geringe Coderate von R k 1 2 k displaystyle R frac k 1 2 k nbsp konnen aber noch Daten aus sehr fehlerbehafteten Signal dekodieren Daher fanden sie unter anderem in der Mariner 9 Mission Anwendung Weitere Beispiele fur Blockcodes Bearbeiten Beispiel 1 Bearbeiten 9 0 31 227 364 437 474 5 2 displaystyle 9 0 31 227 364 437 474 5 2 nbsp Die C 6 displaystyle mathcal C 6 nbsp Codeworte c displaystyle c nbsp lauten in der Binardarstellung Es existiert kein linearer Code dieser Machtigkeit Zum einen ist log q 6 N displaystyle text log q 6 not in mathbb N nbsp zum anderen sind die grossten lineare Code dieser Art ein 8 2 5 2 displaystyle 8 2 5 2 nbsp und ein 10 3 5 2 displaystyle 10 3 5 2 nbsp Code Der Code lasst sich nicht in einen linearen Code umwandeln Beispiel 2 Bearbeiten 11 0 143 307 444 597 730 870 1001 1130 1253 1369 1494 1599 1712 1804 1923 5 2 displaystyle 11 0 143 307 444 597 730 870 1001 1130 1253 1369 1494 1599 1712 1804 1923 5 2 nbsp Die C 16 displaystyle mathcal C 16 nbsp Codeworte c displaystyle c nbsp lauten in der Binardarstellung MSB links Es handelt sich um einen linearen systematischen Code mit der Basis Die 16 Codeworte lassen sich durch eine XOR Verknupfung der Basisvektoren erzeugen deren Informationsbits gesetzt sind daher linearer Code Die Informationsbits stellen die linken 4 Bit dar Bit 10 bis 7 die Schutzbits die rechten 7 Bit Bit 6 bis 0 daher systematischer Code Beispiel 3 Bearbeiten 8 0 7 25 30 42 53 75 84 97 108 114 127 140 147 166 169 176 194 197 216 3 2 displaystyle 8 0 7 25 30 42 53 75 84 97 108 114 127 140 147 166 169 176 194 197 216 3 2 nbsp Die C 20 displaystyle mathcal C 20 nbsp Codeworte c displaystyle c nbsp lauten in der Binardarstellung Es existiert kein linearer Code dieser Machtigkeit Auch hier ist zum einen log q 20 N displaystyle text log q 20 not in mathbb N nbsp zum anderen sind die grossten lineare Code dieser Art ein 7 4 3 2 displaystyle 7 4 3 2 nbsp und ein 9 5 3 2 displaystyle 9 5 3 2 nbsp Code Der Code lasst sich nicht in einen linearen Code umwandeln Fehlerkorrektur BearbeitenBlockcodes konnen zur Fehlererkennung und Fehlerkorrektur bei der Ubertragung von Daten uber fehlerbehaftete Kanale verwendet werden Dabei ordnet der Sender dem zu ubertragenen Informationswort der Lange k displaystyle k nbsp ein Codewort der Lange n displaystyle n nbsp zu wobei n gt k displaystyle n gt k nbsp Durch das Hinzufugen der n k displaystyle n k nbsp zusatzlichen Symbole entsteht Redundanz und die Informationsrate sinkt jedoch kann der Empfanger die redundante Information nun dazu nutzen Ubertragungsfehler zu erkennen und zu korrigieren Verwendet man beispielsweise im Fall der Binarkodierung die Zuordnung Informationswort Codewort0 0001 111so konnen empfangene Codeworter mit genau einem Bitfehler korrigiert werden indem man mit Hilfe einer Mehrheitsfunktion das abweichende Bit umkehrt FehlerhaftesCodewort KorrigiertesCodewort ZugeordnetesInformationswort001 000 0010 000 0011 111 1100 000 0101 111 1110 111 1Sind in diesem Falle jedoch zwei Bits falsch so wird zwar ein Fehler erkannt aber fehlerhaft korrigiert Sind gar drei Bits falsch so kann nicht einmal mehr ein Fehler erkannt werden Schranken BearbeitenSingleton Schranke Bearbeiten Die Singleton Schranke bezeichnet eine obere Schranke fur die Mindestdistanz d displaystyle d nbsp eines Blockcodes der Lange n displaystyle n nbsp bei Informationswortern der Lange k displaystyle k nbsp uber einem einheitlichen Alphabet S displaystyle Sigma nbsp Sie lautet d n k 1 displaystyle d leq n k 1 nbsp Die Schranke kann auf folgende Art intuitiv klargemacht werden Annahme Alphabet S 0 q 1 displaystyle Sigma 0 ldots q 1 nbsp Anzahl der moglichen Informationsworter I q k displaystyle mathcal I q k nbsp Anzahl der Codeworter C I q k displaystyle mathcal C mathcal I q k nbsp Mindestdistanz d displaystyle d nbsp Streicht man nun in den Codewortern jeweils die letzten d 1 displaystyle d 1 nbsp der n displaystyle n nbsp Stellen so haben die ubrigen Codeworter zueinander immer noch mindestens den Hamming Abstand 1 Bei d displaystyle d nbsp Streichungen ware dies nicht mehr gewahrleistet Damit sind immer noch alle Codeworter unterschiedlich also C C q k displaystyle mathcal C mathcal C q k nbsp Deswegen muss auch die Anzahl der durch die Lange n d 1 displaystyle n d 1 nbsp erzeugbaren Worter q n d 1 q k displaystyle q n d 1 geq q k nbsp sein Stellt man diese Gleichung um ergibt sich daraus die Singleton Schranke n d 1 k d n k 1 displaystyle n d 1 geq k Leftrightarrow d leq n k 1 nbsp Fur nicht lineare Codes gilt entsprechend M q n d 1 displaystyle M leq q n d 1 nbsp wobei M C displaystyle M mathcal C nbsp Codes die die Singleton Schranke mit Gleichheit erfullen nennt man auch MDS Codes Im Falle der Hamming Schranke ist t d 1 2 displaystyle t lfloor d 1 2 rfloor nbsp die Anzahl der maximal korrigierbaren Fehler eines Codes mit der Hamming Distanz d displaystyle d nbsp Die Hamming Schranke sagt aus dass q n q k i 0 t q 1 i n i displaystyle q n geq q k sum i 0 t q 1 i binom n i nbsp beziehungsweise n k log q i 0 t q 1 i n i displaystyle n geq k log q sum i 0 t q 1 i binom n i nbsp erfullt sein muss fur einen Code der mittels n displaystyle n nbsp Symbolen eines Alphabets S displaystyle Sigma nbsp der Grosse q displaystyle q nbsp eine Nachricht mit der Lange k displaystyle k nbsp transportiert Die Singleton Schranke ist eine ungenauere Abschatzung als die Hamming Schranke die die Grosse des Alphabets nicht berucksichtigt Weiterhin gibt es Unterschiede in der Beziehung zwischen t displaystyle t nbsp und d displaystyle d nbsp Plotkin Grenze Bearbeiten In der Kanalcodierung verwendet man Blockcodes um Fehler in Datenstromen erkennen und korrigieren zu konnen Ein Blockcode C displaystyle C nbsp der Lange n displaystyle n nbsp uber einem q displaystyle q nbsp naren Alphabet mit einem Minimalabstand d displaystyle d nbsp erfullt die Plotkin Grenze auch als Plotkin Schranke bezeichnet 1 2 C d d q 1 q n displaystyle C leq frac d d frac q 1 q cdot n nbsp dann wenn der Nenner positiv ist Somit liefert die Plotkin Grenze nur dann ein Resultat wenn d displaystyle d nbsp hinreichend nahe bei n displaystyle n nbsp liegt Nimmt ein Code C displaystyle C nbsp die Plotkin Schranke an so gilt insbesondere dass der Abstand zweier beliebiger Codeworter genau d displaystyle d nbsp ist Ist q 3 displaystyle q geq 3 nbsp und C a q b displaystyle C a cdot q b nbsp mit b lt q displaystyle b lt q nbsp so gilt sogar die scharfere Beziehung 3 d C 2 n C 2 b a 1 2 q b a 2 displaystyle d C choose 2 leq n left C choose 2 b a 1 choose 2 q b a choose 2 right nbsp Beispielsweise liefert die Plotkin Grenze fur q 3 displaystyle q 3 nbsp n 9 displaystyle n 9 nbsp und d 7 displaystyle d 7 nbsp nur C 7 displaystyle C leq 7 nbsp die Verscharfung jedoch C 6 displaystyle C leq 6 nbsp da sich fur a 2 displaystyle a 2 nbsp und b 1 displaystyle b 1 nbsp ein Widerspruch ergibt Sie wurde 1960 von Morris Plotkin veroffentlicht Literatur BearbeitenRudolf Nocker Digitale Kommunikationssysteme 1 Grundlagen der Basisbandubertragung 1 Auflage Friedrich Vieweg amp Sohn Verlag Wiesbaden 2004 ISBN 978 3 528 03976 9 Markus Hufschmid Information und Kommunikation Grundlagen der Informationsubertragung Vieweg und Teubner Wiesbaden 2006 ISBN 3 8351 0122 6 Bernd Friedrichs Kanalcodierung Grundlagen und Anwendungen in modernen Kommunikationssystemen Springer Verlag Berlin Heidelberg 1995 ISBN 3 540 59353 5 Weblinks BearbeitenKanalcodierung und Blockcodes abgerufen am 6 April 2018 Lineare Fehlerkorrigierende Codes abgerufen am 6 April 2018 Proinformatik Funktionale Programmierung abgerufen am 6 April 2018 Formelsammlung Kanalcodierung abgerufen am 6 April 2018 Theory and Practice of Error Control Codes Block Code Performance abgerufen am 6 April 2018 Einzelnachweise Bearbeiten M Plotkin Binary codes with specified minimum distance IRE Transactions on Information Theory 6 445 450 1960 engl W C Huffman V Pless Fundamentals of Error Correcting Codes Cambridge University Press 2003 engl Die Plotkin Grenze und ihre Verscharfung englisch Abgerufen von https de wikipedia org w index php title Blockcode amp oldid 234159239