Informationstheorie
Eine Allgemeine Theorie der Information ist von der Gemeinde der Wissenschaftler bisher noch nicht entwickelt oder anerkannt worden. Ansätze hierzu liegen vermutlich in der Semiotik, Kommunikationswissenschaft und der Philosophie. Im zweiten Teil des Artikels sind einige erwähnt.
Bedeutung und Anerkennung dagegen hat die Informationstheorie von Claude Shannon (*1916) auf theoretischen Gebiet insbesondere durch die Formulierung der Informationsentropie gewonnen. Die Informationsentropie ist heute Grundlage moderner Kompressions- und Kryptoverfahren.
Shannons technisch-mathematische Informationstheorie befasst sich mit den mathematischen und statistischen Grundlagen der Nachrichtenübertragung. Claude Shannon hat sich in den Jahren 1940 bis 1950 mit der Theorie der Datenübertragung und der Wahrscheinlichkeitstheorie beschäftigt. Zur Geschichte siehe Hagemeyer, F.-W., 1979, Die Entstehung von Informationskonzepten in der Nachrichtentechnik
Shannon fragte sich, wie man eine verlustfreie Datenübertragung, i.a. über elektronische, heute auch optische Kanäle, sicherstellen kann. Dabei geht es insbesondere darum, die Datensignale vom Hintergrundrauschen zu trennen. Außerdem versucht man, während der Übertragung aufgetretene Fehler zu erkennen und/oder zu korrigieren. Dazu ist es notwendig, redundante (d.h. überflüssige Daten) mitzusenden, um dem Datenempfänger eine Datenverifikation oder Datenkorrektur zu ermöglichen.
Neben den Medien (Rundfunk, Fernsehen, Computer) findet die Theorie auch Anwendung in der Untersuchung von Nervenverbindungen in Menschen oder Tieren.
Die Informationstheorie hat folgende neue Disziplinen hervorgerufen:
- Datenkompression
- Kryptographie (Datenkodierung)
Weitere Fragestellungen
- Wie kann man Information mathematisch definieren und messen?
- Wie kann man Zufall mathematisch definieren und messen?
- Wieviel passt durch einen Übertragungskanal (Kanalkapazität)?
Siehe auch: http://werner-heise.de/Einleitung_IC.html
Allgemeine Informationstheorie:
Werden in der technischen Informationstheorie (Shannon, C. E., 1948, A Mathematical Theory of Communication die Grundbegriffe Information (Differenz), Redundanz (Gleichheit) und Entropie (Kommunikation) als pragmatische Abstrakta lediglich vorausgesetzt, so versuchen Entwürfe allgemeiner Informationstheorien diese Begriffe in ihrer weltlichen Bedeutung zu begründen und zu entfalten.
Ein Beispiel ist die Quantentheorie der Information
Holger Lyre konzipiert eine Quantentheorie der Information (1998, ISBN: 3-211-83204-1) in Weiterführung des Ure-Ansatzes von C. F. Weizsäcker. Siehe auch Lyre, 1999, Zur apriorischen Begründbarkeit von Information.
Es gibt einige weitere recht unterschiedlicher Versuche das Thema "Information" zu fassen. Einige der damit verbundenen Fragen sind im Folgenden aufgezählt:
- Gibt es Informationsteilchen (Infonen)?
- Gibt es Information ohne Informationsträger?
- Welche Formen der Enkodierung von Information mit Zeichen kennen wir?
- Welche Bedeutung hat der Zusammenhang zwischen Entropie und Information?
- Ist es möglich, dass bedeutsame Information ohne menschliches Zutun entsteht?
- Gibt es für bedeutsame Information ein einheitliches Maß?
- Wie entsteht und wie arbeitet ein Informationsverarbeitendes System, z.B. eine lebende Zelle von alleine?
- Wie entsteht und wie arbeitet ein Informationsverarbeitendes System mit Bewusstsein wie z.B. unser Gehirn?
- Wie hoch war die Entropie und die Information beim Urknall?
Siehe auch: Kommunikation