Die Verbundentropie bzw. Blockentropie ist die Verallgemeinerung der Shannonentropie für eine multivariate Zufallsvariable.
Sei X eine multivariate Zufallsvariable (ein Zufallsvektor) Länge k und x eine Realisierung von X über einer Symbolmenge Z (beispielsweise eine DNA-Sequenz mit Z={A,G,C,T}). Sei weiterhin I eine Information (z.B. ein Text) der Länge n>k über der gleichen Symbolmenge Z. Betrachtet man nun eine Realisierung x als eine Folge von Symbolen xj aus z (genannt Block), dann gibt die Verbundwahrscheinlichkeit
an, wie groß die Wahrscheinlichkeit ist, dass ein bestimmter k-Zeichen-Block in I vorkommt. Die Menge aller möglichen Realisierungen bzw. Blöcke sei [X]k. Man kann darüber die Blockentropie definieren:
Die Menge [X]k wird in den meisten Fällen auch Realisierungen enthalten, die nicht in I vorkommen, also pk(x)=0. Die Anzahl aller möglichen Realisierungen |[X]k| ist gemäß Kombinatorik gegeben durch:
Eine allgemeinere Formulierung der Verbundentropie H(X1,X2) für zwei Zufallsvariablen X1 und X2 ist gegeben durch
die Summe aus der Entropie von X1 und der bedingten Entropie von X2 unter gegebenem X1. Sind X1 und X2 unabhängig, dann gilt (äquivalent zur bedingten Wahrscheinlichkeit):
Die bedingte Entropie wird im Folgenden erläutert.
Bedingte Entropie
Die bedingte Entropie von zwei Zufallsvariablen X und Y ist die Unsicherheit über Y, die verbleibt, wenn X bereits bekannt ist. Sind X und Y voneinander unabhängig, dann bleibt die Entropie von Y vollständig erhalten. Sind X und Y aber voneinander abhängig, dann kann die bedingte Entropie kleiner sein als im unabhängigen Fall.
Formal ist die bedingte Entropie H(X|Y) definiert durch:
Für den Fall, dass X und Y unabhängig sind, ergibt sich:
Übertragen auf eine multivariate Zufallsvariable X der Länge k (siehe oben), als Darstellung für einen k-Block von Symbolen (x1,..,xk), lässt sich die bedingte Entropie hk definieren als die Unsicherheit eines Symbols xk+1 (nach einem bestimmten vorgegebenen k-Block):
wobei Hk+1 bzw. Hk die Blockentropie ist.
Der zweidimensionale Fall
Wenn das Auftreten eines Zeichens xi nur vom vorherigen Zeichen xj abhängt (wie etwa in der "101010..."-kette) erhält man aus
und
den Ausdruck
wobei xi den Zustand, d.h. die Folge der vorhergehenden Symbole, bezeichnet und p(yj|xi) ist die bedingte Wahrscheinlichkeit von yj gegeben xi. Die Verbundwahrscheinlichkeit von xi und yj, p(xi,yj) ist wiederum die Wahrscheinlichkeit des gemeinsamen Auftretens von xi und yj.
Es lautet also hier h1:
Quellentropie
Schließlich ist zu bemerken, dass die beiden vorgenannten Definitionen im Grenzübergang gleichwertig sind; man erhält einen Ausdruck, der die Entropie pro Symbol unabhängig von der Blocklänge beschreibt, die so genannte Quellentropie (source entropy):
Es gelten die Ungleichungen
Siehe auch: Kullback-Leibler Entropie, Zeitreihenanalyse