Informationstheorie
Die Informationstheorie beschäftigt sich mit den mathematischen und statistischen Grundlagen der Nachrichtenübertragung. Sie wurde von Claude Shannon in den Jahren 1940 bis 1950 begründet. Sie vereint Beiträge der Theorie der Datenübertragung und der Wahrscheinlichkeitstheorie.
Die ursprüngliche Fragestellung war, wie man eine verlustfreie Datenübertragung, i.a. über elektronische, heute auch optische Kanäle, sicherstellen kann. Dabei geht es insbesondere darum, die Datensignale vom Hintergrundrauschen zu trennen. Ausserdem versucht man, während der Übertragung aufgetretene Fehler zu erkennen und/oder zu korrigieren. Dazu ist es notwendig, redundante (d.h. überflüssige Daten) mitzusenden, um dem Datenempfänger eine Datenverifikation oder Datenkorrektur zu ermöglichen.
Neben den Medien (Rundfunk, Fernsehen, Computer) findet die Theorie auch Anwendung in der Untersuchung von Nervenverbindungen in Menschen oder Tieren. Die dabei auftretenden Signale haben keine Bedeutung (im üblichen Sinne des Wortes).
Die Informationstheorie hat folgende neue Disziplinen hervorgerufen:
- Datenkomprimierung
- Kryptographie (Datenkodierung)
Weiter Fragestellungen
- Wie kann man Information mathematisch definieren und messen ?
- Wie kann man Zufall mathematisch definieren und messen ?
- Wieviel passt durch einen Übertragungskanal ( Kanalkapazität)?
Siehe auch : http://werner-heise.de/Einleitung_IC.html
Allgemeine Informationstheorie:
Neben der speziellen Informations- und Codierungstheorie der Nachrichtentechnik etabliert sich langsam eine allgemeine Informationstheorie (GIT, General Informationstheorie), die sich weniger mit angewandten, und mehr philosophischen Fragen widmet.
Die großen und meist noch ungelösten Fragen der allgemeinen Informationstheorie sind im Folgenden aufgelistet:
- Gibt es Infonen? Gibt es Informationsteilchen? Gibt es die Uralternativen? Gibt es Information ohne Informationsträger?
- Gibt es einen Zusammenhang zwischen Entropie und Information?
- Wie entsteht bedeutsame Information ohne menschliches Zutun? Gibt es für bedeutsame Information ein einheitliches Maß ?
- Wie ensteht und wie arbeitet ein Informationsverarbeitendes System zb eine lebende Zelle von alleine?
- Wie entsteht und wie arbeitet ein Informationsverarbeitendes System mit Bewußtsein wie zb unser Gehirn?
- Werden Computer denken können?
- Wie hoch war die Entropie und die Information beim Urknall?
- Was passiert mit der Information am Rand von schwarzen Löchern?
/Quellen