z.B. 8 Zeichen gleichverteilt
P(x) = Entropie = 3 Bit pro Zeichen
z.B. 1 Zeichen mit P(x) = Entropie = 3 - 7 = 0.2
7 Zeichen mit je
P(x) =
Entropie
= 56 = 5.8
Wahrscheinlichkeiten werden bei Modellen höherer Ordnung kontextbezogen
definiert, z.B. in Abhängigkeit vom Vorgängersymbol.
Im C-Source gilt | P(newline) = |
P(newline hinter '}') = | |
Bei variable length encoding darf kein Code Anfangsstück eines
anderen Codes sein (präfixfrei).
Gut durch Baum zu repräsentieren:
Symbol | Blatt | |
Code | Kantenbeschriftung auf dem Weg zum Symbol |