Informationstheorie
Eine Allgemeine Theorie der Information ist von der Gemeinde der Wissenschaftler bisher noch nicht entwickelt oder anerkannt worden. Ansätze hierzu liegen vermutlich in der Semiotik, Kommunikationswissenschaft und der Philosophie. Im zweiten Teil des Artikels sind einige erwähnt.
Bedeutung und Anerkennung dagegen hat die Informationstheorie von Claude Shannon (*1916) auf theoretischen Gebiet insbesondere durch die Formulierung der Informationsentropie gewonnen. Die Informationsentropie ist heute Grundlage moderner Kompressions- und Kryptoverfahren.
Shannons (technisch-mathematische) Informationstheorie befaßt sich mit den mathematischen und statistischen Grundlagen der Nachrichtenübertragung. Claude Shannon hat sich in den Jahren 1940 bis 1950 mit der Theorie der Datenübertragung und der Wahrscheinlichkeitstheorie beschäftigt.
Shannon fragte sich, wie man eine verlustfreie Datenübertragung, i.a. über elektronische, heute auch optische Kanäle, sicherstellen kann. Dabei geht es insbesondere darum, die Datensignale vom Hintergrundrauschen zu trennen. Außerdem versucht man, während der Übertragung aufgetretene Fehler zu erkennen und/oder zu korrigieren. Dazu ist es notwendig, redundante (d.h. überflüssige Daten) mitzusenden, um dem Datenempfänger eine Datenverifikation oder Datenkorrektur zu ermöglichen.
Neben den Medien (Rundfunk, Fernsehen, Computer) findet die Theorie auch Anwendung in der Untersuchung von Nervenverbindungen in Menschen oder Tieren.
Die Informationstheorie hat folgende neue Disziplinen hervorgerufen:
- Datenkompression
- Kryptographie (Datenkodierung)
Weitere Fragestellungen
- Wie kann man Information mathematisch definieren und messen ?
- Wie kann man Zufall mathematisch definieren und messen ?
- Wieviel passt durch einen Übertragungskanal (Kanalkapazität)?
Siehe auch: http://werner-heise.de/Einleitung_IC.html
Allgemeine Informationstheorie:
Werden in der technischen Informationstheorie (Shannon, C. E., 1948, A Mathematical Theory of Communication die Grundbegriffe Information (Differenz), Redundanz (Gleichheit) und Entropie (Kommunikation) als pragmatische Abstrakta lediglich vorausgesetzt, so versuchen Entwürfe allgemeiner Informationstheorien diese Begriffe in ihrer weltlichen Bedeutung zu begründen und zu entfalten.
- Quantentheorie der Information
Holger Lyre konzipiert eine Quantentheorie der Information (1998, ISBN: 3-211-83204-1) in Weiterführung des Ure-Ansatzes von C.F.Weizsäcker. Siehe auch Lyre, 1999, Zur apriorischen Begründbarkeit von Information.
- Die Selbstorganisation der Information (GIT/SOI)
In der Site http://generalit.de/ findet sich ein Ansatz, der aus den Grundbegriffen Information, Kommunikation und Entropie ein allgemeines Modell der Welt entwickelt. Einer Welt, deren Dynamik sich aus spezifischen entropischen Kommunikationsströmen entwickelt. Evolution der menschlichen Sprache, die Physik (als Wissenschaft), Wirtschaft, Politik, Gesellschaft usw. werden gleichermaßen als je spezifische Entropie-Prozesse interpretiert. Information wird hier also tatsächlich als fundamentales Phänomen aufgegriffen. Auf der Site-Leitseite finden sich kurze Skizzen, die den Ansatz in knapper Form in etwa erkennbar werden lassen:
- Informationsbegriff und Rechte-Evolution
- Informationstechnologie und menschliches Informationsbedürfnis
- Sprache als Informationsmedium
- Sprache als entwickelte Form der Zeichenverarbeitung
Es gibt eine Vielzahl weiterer und recht unterschiedlicher Versuche das Thema "Information" zu fassen. Einige der damit verbundenen Fragen sind im Folgenden aufgelistet:
- Gibt es Infonen? Gibt es Informationsteilchen? Gibt es die Uralternativen? Gibt es Information ohne Informationsträger?
- Welche Bedeutung hat der Zusammenhang zwischen Entropie und Information?
- Wie entsteht bedeutsame Information ohne menschliches Zutun? Gibt es für bedeutsame Information ein einheitliches Maß?
- Wie entsteht und wie arbeitet ein Informationsverarbeitendes System, z.B. eine lebende Zelle von alleine?
- Wie entsteht und wie arbeitet ein Informationsverarbeitendes System mit Bewusstsein wie z.B. unser Gehirn?
- Werden Computer denken können?
- Wie hoch war die Entropie und die Information beim Urknall?
- Was passiert mit der Information am Rand von schwarzen Löchern?
Siehe auch: Kommunikation