Verbundentropie
Die Blockentropie oder Verbundentropie ist die Verallgemeinerung der Shannonentropie für ein multivariate Zufallsvariable.
Sei X eine multivariate Zufallsvariable mit der Realisierung x endlicher Länge n, also z.B. einer Symbolsequenz wie der DNA. Die Verbundwahrscheinlichkeit
gibt an, wie groß die Wahrscheinlichkeit ist, in einer Realisierung die Komponenten von in genau der vorliegenden Kombination anzufinden. Die Menge aller erlaubten bzw. gefundenen Realisierungen sei [X]n. Man kann darüber die Blockentropie definieren:
Fehler beim Parsen (SVG (MathML kann über ein Browser-Plugin aktiviert werden): Ungültige Antwort („Math extension cannot connect to Restbase.“) von Server „http://localhost:6011/de.wikipedia.org/v1/“:): {\displaystyle H_n(\mathbf{x}) = -\sum_{\mathbf{x} \in [X]_n} p_n(\mathbf{x}) \log p_n(\mathbf{x})}
Die Unsicherheit jeder Komponente oder jedes Symbols xi eines n-Blocks ist:
Bedingte Entropie
Davon abgeleitet ist die Entropie pro Zeitschritt oder bedingte Entropie. Sie gibt an, wie groß die Unsicherheit ist, ein bestimmtes Symbol nach einer Kette von n vorhergehenden Symbolen erwarten zu können - anders ausgedrückt, mit welcher Sicherheit xn+1 vorherzusagen ist
Der zweidimensionale Fall
Wenn das Auftreten eines Zeichens i nur vom vorherigen Zeichen j abhängt (wie etwa in der "101010..."-kette) erhält man aus
und
- ,
wobei i den Zustand, d.h. die Folge der vorhergehenden Symbole, bezeichnet und ist die bedingte Wahrscheinlichkeit von j gegeben i. Die alternative Definition benutzt die Verbundwahrscheinlichkeit von i und j, , d.h. die Wahrscheinlichkeit des gemeinsamen Auftretens von i und j.
Quellentropie
Schließlich ist zu bemerken, daß die beiden vorgenannten Definitionen im Grenzübergang gleichwertig sind; man erhält einen Ausdruck, der die Entropie pro Symbol unabhängig von der Blocklänge beschreibt, die sogenannte Quellentropie (source entropy):
Es gelten die Ungleichungen
Siehe auch: Zeitreihenanalyse