Zum Inhalt springen

Entropie (Informationstheorie)

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 13. Juli 2004 um 13:02 Uhr durch 212.144.55.100 (Diskussion) (Definition). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Entropie als Begriff in der Informationstheorie ist in Analogie zur Entropie in der Thermodynamik und Statistischen Mechanik benannt. Beide Begriffe haben Gemeinsamkeiten, deren Erkennen allerdings Kenntnisse in beiden Fachgebieten voraussetzt.

Das informationstheoretische Verständnis des Begriff Entropie geht auf Claude Shannon und existiert seit etwa 1948. In diesem Jahr veröffentliche Shannon seine fundamentale Arbeit A Mathematical Theory of Communication und prägte damit die moderne Informationstheorie.

Definition

Shannon definierte die Entropie H einer gegebenen Information I über einem Alphabet Z durch

,

wobei pj die Wahrscheinlichkeit ist, mit der das j-te Symbol zj des Alphabet Z im Informationtext I auftritt. Die Einheit der Entropie wird mit bit bezeichnet. H multipliziert mit der Anzahl der Zeichen im Informationstext ergibt dann die mindestens notwendige Anzahl von Bits, die zur Darstellung der Information notwendig sind.

Prinzipiell lässt dich die Berechnung der Entropie auch auf andere Zahlensysteme (Oktalsystem, Hexadezimalsystem, ...) als das Binärssystem (Basis 2) übertragen. In diesem Fall wird nicht der Logarithmus zur Basis 2 sondern zur entsprechenden informationstheoretischen Basis des Zahlensystems gebildet.

Interpretation

Shannons ursprüngliche Absicht, diese Entropie als das Maß der benötigten Bandbreite eines Übertragungskanals zu nutzen, wurde schnell verallgemeinert. Die Entropie wurde generell als ein Maß für den Informationsgehalt betrachtet. Wenn die Entropie etwa einen Wert von 1 hat, dann gilt die Information als zufällig. Bei einer kleinen Entropie enthält der Informationstext Redundanzen oder statistische Regelmäßigkeiten.

Die rein statistische Berechnung der informationstheoretischen Entropie nach obiger Formel ist gleichzeitig ihre Beschränkung. Beispielsweise ist die Wahrscheinlichkeit, eine 0 oder 1 in einer geordneten Zeichenkette "1010101010..." zu finden, genauso groß, wie in einer Zeichenkette, die durch statistisch unabhängige Ereignisse (etwa wiederholten Münzwurf) entstanden ist. Daher ist Shannons Entropie für beide Zeichenketten identisch, obwohl man intuitiv die erste Kette als weniger zufällig bezeichnen würde. Eine angemessenere Definition der Entropie einer Zeichenkette liefert die Bedingte Entropie und Quellentropie (siehe Blockentropie), die beide auf Verbundwahrscheinlichkeiten aufbauen.

Maximaler Entropiewert und Normierung

Möchte man ein normiertes Maß für die Entropie einer beliebigen diskreten Verteilung haben, ist es von Vorteil, die maximal mögliche Entropie, die bei Gleichverteilung der pj erreicht wird, zur Normierung heranzuziehen. Sei z = |Z| die Anzahl der erlaubten Symbole in I über dem Alphabet Z, dann ist die maximale Entropie Hmax gegeben durch:

Daraus folgt beispielsweise Hmax=1 für eine Binärverteilung (Z={0,1}), also benötigt man 1 Bit pro Zeichen und |I| Zeichen für die komplette Information I. Dieser Wert wird erreicht, wenn 0en und 1en gleich häufig vorkommen. Normiert man nun die Entropie einer beliebigen Verteilung mit z verschiedenen Symbolen mit Hmax erhält man:

Die so erhaltene Entropie wird immer maximal gleich 1.

Datenkompression und Entropie

Die Entropiekodierung ist ein Kompressionsalgorithmus, um Daten verlustfrei zu komprimieren.

Beispiel

  • Gegeben sei die Zeichenkette ABBCAADA (siehe auch Entropiekodierung).
  • Die Buchstaben-Wahrscheinlichkeit: ; ;
  • Maximalentropie ():

Alternative Möglichkeiten der Informationsquantifizierung

Ein anderer Zugang, den Gehalt einer Information zu messen, ist durch die Kolmogorov Komplexität gegeben, worin der kürzestmögliche Algorithmus zur Darstellung einer gegebenen Zeichenkette die Komplexität derselben angibt. Gregory Chaitin ist ebenfalls über die Shannonsche Definition der Entropie einer Information hinausgegangen (siehe Chaitinkette).

Literatur

Siehe auch: Kolmogorov-Entropie, Kolmogorov-Sinai-Entropie, Maximum-Entropie-Methode, Metrische Entropie, Transinformation, Nat, Ornstein Theorem, Redundanz, Topologische Entropie, Markow-Kette, Renyi-Entropie, Entropierate, Transinformation, Kullback-Leiber-Entropie, Negentropie, Blockentropie