Redundanz (Informationstheorie)

Informationen, die in einer Informationsquelle mehrfach vorhanden sind
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 21. Juli 2005 um 00:15 Uhr durch JensBaitinger (Diskussion | Beiträge). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Vorlage:Stub Als Redundanz (Weitschweifigkeit) bezeichnet man in der Informationstheorie die Differenz zwischen der mittleren Kodewortlänge () einer Nachrichtenquelle und der mittleren Entropie () der selben Nachrichtenquelle.

Da die Kodewortlänge nicht kleiner als die Entropie sein kann, ist die Redundanz nie negativ.