Digitale Information

Information, die durch Ziffern beschrieben wird
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 11. Mai 2003 um 13:22 Uhr durch Nerd (Diskussion | Beiträge) (umform). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Digitale Information ist Information, die in einer Abfolge von ja/nein-Symbolen (bzw. 1/0) codiert ist. Die Verarbeitung digitaler Informationen ist Grundlage der Computertechnik. Durch die Reduzierung auf digitale Information lassen sich einige allgemeine Aussagen der Informationstheorie berechnen.

Nach Einführung der Computer ist bald klar geworden, dass Systeme, die nur mit zwei unterschiedlichen Zuständen arbeiten, wie Nein und Ja, An und Aus oder 0 und 1, für die Bearbeitung durch Computer am besten geeignet sind. Und so hat man bald eine weitere Basisaussage der Informationstheorie formuliert: Es ist der Satz von der Digitalisierbarkeit.

Alles, was man als Folge von 0 und 1 darstellen kann, ist Information.

Auch folgende Einschränkung dieses Satzes kann man wohl als richtig akzeptieren. Information ist nur das, was man als Folge von Null und Eins darstellen kann. Oder stimmt das nicht? Digitalisierung heißt also Darstellung als Folge von 0 und 1, oder allgemeiner: Darstellung in Form von Zahlenwerten.

Erst mit der massenhaften Einführung von Musik-CDs ist vielen Menschen diese Speicherungsmöglichkeit von Information als einfache Kette von 0 und 1 klar geworden. Dennoch bleibt es vielen Leuten unverständlich, wie man so etwas schönes wie Musik in so eine banale Folge aus Nullen und Einsen bringen kann. Will man es ketzerisch kommentieren, so kann man sagen: Schönheit ist digitalisierbar.

Es gibt ruhende, fixierte Information und es gibt aktive, gerade gelesene oder übertragene Information.
Es gibt potentielle = mögliche Information und aktuelle = tatsächliche Information. So steckt in einer Münze vor dem Werfen potentielle Information. Nach dem Werfen wird sie zu aktueller Information.

Information ist eine austauschbare Größe, die eng mit der Energie und Entropie verknüpft ist. Sie reduziert die Unbestimmtheit des Zustandes eines Systems. Die Informationsübertragung zwischen zwei Systemen ist immer mit Energie- und Entropieübertragung verknüpft. Dabei kann allerdings mit relativ wenig Energie viel Information übertragen werden (z.B. Telefonnetz). Andererseits kann mit der Übertragung von viel Energie relativ wenig Informationstransport verknüpft sein (z.B. Starkstromnetz der Überlandleitungen). Information und Energie sind nur in Ausnahmefällen direkt proportional.