Datenkompression: AufgabenLösungen

Aus testwiki
Zur Navigation springen Zur Suche springen

zurück

Kapitel 1

Kapitel 2

Kapitel 3

Lösungen Huffman

1.) Die Entropie kann mit der Formel H(X)=k=1NPkld(1Pk) berechnet werden. Für P1=0.71 und P2=0.29 ergeben sich H(X)=0.71ld(10.71)+0.29ld(10.29). Es ergibt sich eine Entropie H(X)=0.869 [Bit/Symbol]. Bei einem Huffmancode mit der Länge 1 für jedes der beiden Symbole ergibt sich eine Redundanz von R(X)=10.869=0.131 [Bit/Symbol].

Eine Redundanz R(X)>=0 bedeutet, dass eine größere Datenmenge gespeichert wird, als tatsächlich für Daten mit den angegebenen statistischen Eigenschaften notwendig wäre.

2.) Man kann aus dem Zwei-Symbolcode bspw. ein Vier-Symbolcode erzeugen. Dieser Code ist auf dem ersten Blick nur auf Daten


3.) Für statistisch unabhängige Symbolwahrscheinlichkeiten gilt die Verbundwahrscheinlichkeit bei verbundenen Symbolen PXY=PXPY.

P00=0.710.71=0.5041,

P01=0.710.29=0.2059,

P10=0.290.71=0.2059 und

P11=0.290.29=0.0841. Somit ergibt sich eine Entropie von

H(X)=0.5041ld(10.5041)+20.2059ld(10.2059)+0.0841ld(10.0841)=1.737 [Bit/2 Symbole] = 0.869 [Bit/Symbol}.

für den Huffmancode mit der Länge 1 für die Symbolfolge 00, die Länge 2 für die Symbolfolge 01, die Länge 3 für die Symbolfolge 10 und die Länge 3 für die Symbolfolge 11.

10.5041+20.2059+30.2059+30.0841=1.7859 [Bit/2 Symbole]

0.89295 Bit/Symbol

Durch die Verwendung eines Vier-Symbolcode auf Basis eines Zwei-Symbolcodes kann eine Reduktion der Datenmenge von 1 Bit/Symbol auf 0.89295 Bit/Symbol erreicht werden. Damit reduziert sich die Redundanz von 0.131 auf 0.02395 Bit/Symbol.

Die neuen Wahrscheinlichkeiten für die Symbole 0 und 1 ergeben sich:

P0=0.50411+0.20591+0.20591=0.9159

P1=0.20591+0.20592+0.08413=0.87

Die relative Wahrscheinlichkeit der neuen Ausgabesymbole ist P0=0.51285 und P1=0.48715.

H(X)=0.512850.963391+0.487151.037562=0.99925

Die Redundanz beträgt 0.00075 Bit pro Ausgabesymbol.

Die Redundanzen unterscheiden sich aus verschiedenen Gründen:

  • Die Redundanz bezieht sich auf die Ausgabesymbole vs. Eingabesymbolen
  • Die Ausgabesymbole sind statistisch !NICHT! unabhängig voneinander eine Symbolfolge 111 tritt mit der Wahrscheinlichkeit von P111=0.0841 auf, wäre sie statistisch unabhängig voneinander, würde sie mit der Wahrscheinlichkeit von P111=0.1156 auftreten.

Kapitel 4

Kapitel 5

Kapitel 6

Kapitel 7