Informationstheorie

mathematische Theorie aus dem Bereich der Wahrscheinlichkeitstheorie und Statistik
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 3. Juni 2003 um 13:47 Uhr durch 212.183.121.33 (Diskussion) (+ Hinweis auf Quanteninformation). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Unter Informationstheorie versteht man im Allgemeinen die Beschäftigung mit den mathematischen und statistischen Grundlagen der Nachrichtenübertragung. Claude Shannon hat sich in den Jahren 1940 bis 1950 mit der Theorie der Datenübertragung und der Wahrscheinlichkeitstheorie beschäftigt.

Er fragte sich, wie man eine verlustfreie Datenübertragung, i.a. über elektronische, heute auch optische Kanäle, sicherstellen kann. Dabei geht es insbesondere darum, die Datensignale vom Hintergrundrauschen zu trennen. Außerdem versucht man, während der Übertragung aufgetretene Fehler zu erkennen und/oder zu korrigieren. Dazu ist es notwendig, redundante (d.h. überflüssige Daten) mitzusenden, um dem Datenempfänger eine Datenverifikation oder Datenkorrektur zu ermöglichen.

Neben den Medien (Rundfunk, Fernsehen, Computer) findet die Theorie auch Anwendung in der Untersuchung von Nervenverbindungen in Menschen oder Tieren.

Die Informationstheorie hat folgende neue Disziplinen hervorgerufen:

Klasssische Informationskonzepte versagen teilweise in quantenmechanischen Systemen. Dies führt zum Konzept der Quanteninformation.

Weitere Fragestellungen

  • Wie kann man Information mathematisch definieren und messen?
  • Wie kann man Zufall mathematisch definieren und messen?
  • Wieviel passt durch einen Übertragungskanal (Kanalkapazität)?

Siehe auch: http://werner-heise.de/Einleitung_IC.html

Allgemeine Informationstheorie:

Die großen und meist noch ungelösten Fragen der allgemeinen Informationstheorie sind im Folgenden aufgelistet:

  • Gibt es Informationsteilchen (Infonen)?
  • Gibt es Information ohne Informationsträger?
  • Welche Formen der Enkodierung von Information mit Zeichen kennen wir?
  • Welche Bedeutung hat der Zusammenhang zwischen Entropie und Information?
  • Ist es möglich, dass bedeutsame Information ohne menschliches Zutun entsteht?
  • Gibt es für bedeutsame Information ein einheitliches Maß?
  • Wie entsteht und wie arbeitet ein Informationsverarbeitendes System, z.B. eine lebende Zelle von alleine?
  • Wie entsteht und wie arbeitet ein Informationsverarbeitendes System mit Bewusstsein wie z.B. unser Gehirn?
  • Wie hoch war die Entropie und die Information beim Urknall?

Siehe auch: Kommunikation

/Quellen