Information
Information (von lateinisch informare=bilden, durch Unterweisung Gestalt geben) ist potentiell oder aktuell vorhandenes, nutzbares oder genutztes Wissen. Im allgemeinen Sprachgebrauch wird unter einer "Information" auch eine Nachricht verstanden, die zweckorientiert ist, also Information im eigentliche Sinne transportiert.
Die Transformation von Wissen in Informationen ist Aufgabe des Information Retrieval.
Wesentlich für die Information ist die Wiedererkennbarkeit und der Neuigkeitsgehalt eines bestimmten Musters von Materie und/oder Energieformen in Raum und/oder Zeit: Das Muster entwickelt für einen Betrachter innerhalb eines bestimmten Kontextes Bedeutung.
Es ist sehr schwierig, eine allgemeine, dem Verstand leicht fassbare Definition des Begriffes Information zu geben. Ansätze hierzu aus der Biologie, der Informatik, der Nachrichtentechnik der Linguistik und der Philosophie unterscheiden sich zum Teil erheblich. Die Informationswissenschaft, die sich mit dem Wesen der Information befasst, ist eine recht junge Wissenschaft. Zur Zeit wird versucht, die einzelnen Ansätze zu verbinden und zu einem allgemeingültigen Informationsbegriff zu kommen.
Nach gegenwärtigem Stand des Wissens ist das Vorhandensein von Information immer an das Vorhandensein von Materie bzw. Energie gebunden. Diese dienen als Informationsträger: Information ist räumliche und/oder zeitliche Struktur innerhalb eines Informationsträgers, und kann daher ohne diesen nicht existieren. Inwieweit Information als dritte, eigenständige Grundkomponente neben Materie und Energie and der Struktur des Universums und des Lebens beteiligt ist, ist nicht klar.
Interessant ist jedoch die Beobachtung, dass das Universum sich zu einem Zustand hoher Entropie hinbewegt, die Evolution es dagegen fertigbringt, unter Einsatz von Information diesem Trend entgegenzuwirken, lokal die Entropie zu verringern und sehr komplexe Strukturen zu schaffen.
Insbesondere in der Philosophie wird jedoch auch immer wieder auch in eine Richtung gedacht, der Information eine eigene Existenz unabhängig von Energie und Materie zuzuschreiben. Diese Sichtweise findet sich zum Beispiel bereits bei Platos Ideenlehre. Würden sich Belege für die Existenz solche "reiner Informationen" finden lassen, wären auch reine Geistwesen denkbar.
Eine der Hauptschwierigkeiten des Informationsbegriffes liegt darin, dass im allgemeinen Sprachgebrauch oft "Information" mit "Bedeutung" gleichgesetzt wird. Die Informationswissenschaft entstand aber aus der Nachrichtentechnik, und in den frühen Theorien (insbesondere von Claude Shannon) ist Information erst einmal völlig von jeglicher Bedeutung gelöst, und auf die reine Unterscheidbarkeit von Zuständen reduziert.
In diesem Artikel wird zunächst auf die begriffliche Unterscheidung von Struktur und Bedeutung eingeangen, sowie auf die Verschränkungen, denen diese Teilaspekte unterliegen. (...)
Struktur und Bedeutung
Dem Begriff der Information kann man sich also von zwei Seiten aus nähern: Die eine Betrachtungsweise greift am Informationsträger an, und stellt sich die Frage, welche Struktur sich innerhalb dieses Trägers feststellen lässt. Der andere Ansatz bemüht sich zu verstehen, welche Bedeutung dem zukommt, was man dann (irgendwie) diesem Informationsträger entnommmen hat. Die erste Sichtweise hat ihre Wurzeln in der Nachrichtentechnik, die zweite eher in den Kognitionswissenschaften. Eine nachrichtentechnisch erkennbare Struktur (z.B. Lichtimpulse, die in einer zeitlichen Reihenfolge auf einzelne Zellen in der Netzhaut treffen) muss in einem komplexen Dekodierungsprozess in eine Bedeutung übersetzt werden (z.B.Wikipedia-Artikel über Information). Wo hier die reine Strukturinformation aufhört, und beginnt, eine Bedeutungsinformation zu werden, wo also in diesem Dekodierungsprozeß die Grenze zum Bewusstsein zu ziehen ist, ist eine der spannenden Fragen der Informations- und Kognitionswissenschaften: Denn je tiefer man die Grenze ansetzt, um so metaphysischer wird die strukturelle Information: Ist die in der DNA gespeicherte Erbinformation nur Struktur oder schon Bedeutung? Oder wird sie vielleicht erst zur Bedeutung, indem sie benutzt wird, also zur Herstellung von Proteinen dient?
Aus diesen Betrachtungen ergeben sich drei Ebenen, unter denen der Begriff der Information heute allgemein betrachtet wird. Diese sind
Diese Ebenen steigern sich im Hinblick auf die Bedeutungsgehalt der Information. Sie dabei spiegeln auch die oben erwähnten theoretischen Angriffspunkte wider, wobei die syntaktische Ebene der Sichtweise der Nachrichtentechnik nahekommt, die semantische Ebene Ansätze aus aus der Semiotik integriert, und die Pragmatik eher auf Konzepte der Kognitionswissenschaften zurückgreift.
Die drei Ebenen sollen an der Zeichenfolge "ES IST WARM" erläutert werden:
Syntaktische Ebene der Information
Binarisierung
Die Zeichenfolge "ES IST WARM" enthält nur Großbuchstaben. Wenn wir einmal nur davon ausgehen, dass wir nur Großbuchstaben zur Verfügung hätten (also 27 Buchstaben einschließlich Leerzeichen), so können wir an jeder der elf Stellen der obigen Nachricht eines der 27 Zeichen setzen. Jede Stelle der Nachricht hat also 27 mögliche "Zustände". Man kann dies nun dahingehend verallgemeinern, dass man die Zustände binarisiert, also in mehrere Unterscheidungen zwischen exakt zwei möglichen Zuständen unterteilt, die man durch eins und null darstellt. Diese kleinstmögliche Unterscheidung zwischen zwei Zuständen wird als Bit bezeichnet. Man kann zum Beispiel den Buchstaben A durch "00001", B durch "00010", C durch "00011", D durch "00100", E durch "00101" darstellen, und so weiter bis zum Leerzeichen "11100".
Unsere Nachricht hieße dann "00101 10011 11100 01001 10011 10100 11100 ... 01101".
Jede Stelle hat jetzt also den Informationsgehalt von 1 Bit. Um einen unserer 27 Buchstaben zu codieren, braucht man, wie zu sehen ist, genau fünf Bit: Es muss fünf mal die Unterscheidung zwischen ja und nein getroffen werden, bis klar ist, um welchen Buchstaben es sich handelt.
Auftretenswahrscheinlichkeiten
Nun ist die obige Codierung der Buchstaben in fünf ja/nein-Entscheidungen nicht die allein gültige. Im Rahmen der Informationstheorie macht man nämlich nun den Schritt, den Informationsträger in einem semantischen Kontext zu betrachten, und zu berücksichtigen, wie häufig ein bestimmtes Zeichen des Zeichenvorrats verwendet wird, mit anderen Worten, wie wahrscheinlich sein Auftreten ist. Dies ist die Basis der klassischen Informationstheorie. (Wichtig ist an dieser Stelle festzuhalten, dass der Zeichenvorrat für jede syntaktische Betrachtung bekannt sein muss, dass Information also bereits zur rein syntaktischen Aufbereitung im Rahmen eines semantischen Kontextes betrachtet werden muss.)
Berücksichtigt man die Auftretenswahrscheinlichkeit der Zeichen im Zeichenvorrat (so ist der Buchstabe "E" im Deutschen zum Beispiel häufiger als der Buchstabe "Y"), so kann man die Anzahl der benötigten Ja/Nein Entscheidungen, die zum Erkennen eines Zeichens notwendig sind, je nach Zeichen unterschiedlich groß machen. (Technisch lässt sich ein solcher Code zum Beispiel nach dem Huffman-Verfahren entwickeln.
Damit benötigt man, um ein häufig auftretendes Zeichen zu codieren, weniger Bits, als um ein selten auftretendes Zeichen zu codieren. Ein Zeichen hat also einen um so höheren Informationsgehalt (benötigt zur Erkennung eine höhere Anzahl an atomaren Entscheidungseinheiten, an Bits), wenn es in einem semantischen Kontext seltener auftritt.
Mathematisch ergibt sich die Anzahl der benötigten Bits (dem Informationsgehalt) eines Zeichens aus dem neagtiven dualen Logarithmus seiner Auftretenswahrscheinlichkeit :
Das Verständnis der syntaktische Ebene war lange Zeit gekennzeichnet durch das Sender-Empfänger-Modell: Ein Sender will eine Information dem Empfänger
mitteilen. Dazu codiert er seine Information nach bestimmten Prinzipen (z.B. als Abfolge von Nullen und Einsen nach dem oben erwähnten Prinzip)
in einen Informationsträger, der Empfänger wertet diesen Informationsträger
aus, denn auch er kennt den Code, und erhält dadurch die Information (siehe auch: Kommunikation).
Nicht immer ist jedoch ein Sender vorhanden, der uns etwas mitteilen will. Ein typisches Beispiel ist die Messung: Dem physikalischen System ist es, bildlich gesprochen, völlig egal, was wir von ihm denken. Dennoch ist das Ziel der Messung eine Informationsübertragung vom gemessenen System zu dem, der die Messung durchführt (man misst, um etwas über das gemessene System zu erfahren). Ein Beispiel ist die Geschwindigkeitsmessung per Radarfalle: Das Auto hat sicher keine Intention, seine Geschwindigkeit zu verraten (und der Autofahrer meist auch nicht). Dennoch gewinnt der Polizist durch die Messung Information über die Geschwindigkeit. Hier ist die Codierung nicht Folge einer Planung, sondern eines physikalischen Gesetzes (Dopplereffekt).
(... fehlt noch: Wegfall des Senders, mögliches anderes System bei Dekodierung)
Zusammengefasst:
- In jeder Art von Struktur oder Muster von Materie oder Energie steckt Information
- Syntaktisch entspricht Information der Auftretenswahrscheinlichkeit eines bestimmten Symbols innerhalb eines definierten Dekodierungsschemas
- Information ist eine räumliche oder zeitliche Folge physikalischer Signale, die mit bestimmten Wahrscheinlichkeiten oder Häufigkeiten auftreten.
- Der Informationsgehalt einer Nachricht ergibt sich aus der Anzahl der ja/nein-Möglichkeiten, für die in der Nachricht einer der Werte festgelegt ist
Semantische Ebene der Information
Strukturierte, syntaktische Informationen werden erst verwertbar, indem sie gelesen und interpretiert werden. Das heißt, zur Strukturebene muss die Bedeutungsebene hinzukommen. Dazu muss ein bestimmtes Bezugssystem angelegt werden, um die Strukturen in eine Bedeutung überführen zu können. Dieses Bezugssystem bezeichnet man als Code. Im obigen Beispiel muss man also "wissen", dass die Nachricht aus den Buchstaben "A" bis "Z" und dem Leerzeichen bestehen kann. Würde man versuchen, den gleichen Code an eine Nachricht anlegen, die eigentlich chinesische Schriftzeichen darstellen soll, so hätte man wenig Erfolg.
Jedoch ist die Überführung von Syntax in Semantik selten so direkt: In der Regel wird die Information über sehr viele unterschiedliche Codes immer höherer semantischer Ebene verarbeitet: Dabei wird auf den unterschiedlichen semantischen Ebenen wiederum Informationsverarbeitung auf struktureller, syntaktischer Ebene geleistet: Die Lichtimpulse, die gerade auf Ihre Netzhaut treffen, werden dort von Nervenzellen registriert (Bedeutung für die Nervenzelle), an das Gehirn weitergeleitet, in einen räumlichen Zusammenhang gebracht, als Buchstaben erkannt, zu Worten zusammengefügt - während dieser ganzen Zeit werden Nervenimpulse (Strukturinformationen!) von einer Gehirnzelle zur nächsten geschossen, bis sich auf diese Weise in ihrem Bewusstsein die durch Worte nur unzureichend wiedergebbaren Begriffe für "warm", "jetzt", und "hier" zu formen beginnen, die dann im Zusammenhang eine Bedeutung haben: Sie wissen jetzt, dass es bei diesen Worten um die Feststellung geht, dass es warm (und nicht etwa kalt) ist.
Zusammengefasst:
- Strukturinformation wird in einem Dekodierungsprozess in Semantik (Bedeutung) überführt.
- Dabei wird Strukturinformation stufenweise über Codes in andere Strukturinformation überführt, wobei sich auf auf den unterschiedlichen sematischen Stufen jeweils Bedeutung für das verarbeitende System entwickelt.
- Information ist übertragbar, z.B. als Nachricht; Auskunft; Belehrung, Aufklärung
- Information kann weitergegeben werden, ohne dadurch weniger zu werden. Information wird durch Weitergabe also quasi verdoppelt. Mit Materie oder Energie geht das nicht.
Pragmatische Ebene der Information
Diese kommt dem umgangssprachlichen Informationsbegriff am nächsten.
Die Aussage, dass es warm ist (die wir nun semantisch richtig interpretiert haben, wir wissen, was diese Botschaft uns sagen will), hat echten Informationscharakter, wenn wir uns mittags um zwölf nach einer durchzechten Nacht noch halb schlaftrunken überlegen was wir anziehen sollen, und uns die Freundin mit den Worten "es ist warm" davon abhält, in den Rollkragenpullover zu schlüpfen.
Der Informationsgehalt der - semantisch exakt gleichen - Aussage ist aber gleich null, wenn wir bereits im T-Shirt auf dem Balkon sitzen und schwitzen. Diese Information bietet uns nichts neues. Smalltalk ist eine Art des Informationsaustausches, bei dem die offensichtlich über die Sprache ausgetauschten semantischen Informationen so gut wie keine pragmatische Information darstellen - wichtig sind hier die Körpersignale, deren Semantik (Freundlichkeit, Abneigung) wir erkennen und pragmatisch (mag die mich?) verwerten können.
In diesem pragmatischen Sinne ist wesentliches Kriterium von Information, dass sie das Subjekt, dass die Information aufnimmt, verändert, was konkret bedeutet, dass sich die Information, die potentiell dem Subjekt entnommen werden kann, verändert.
Zusammengefasst:
- Information ist ein Gewinn an Wissen
- Information ist die Verringerung von Ungewissheit
- Information ist eine Mitteilung, die den Zustand des Empfängers ändert.
Zyklische Verschränkung der Ebenen
Die drei genannten Ebenen sind jedoch nicht getrennt zu betrachten. Vielmehr stellen sie sozusagen - man verzeihe das schräge Bild - die drei Seiten der selben Medaille dar: Bereits die strukturelle Ebene setzt eine Semantik voraus, innerhalb derer die Symbole dekodiert werden: Die Struktur der DNA codiert im Rahmen des Genetischen Codes bestimmte Proteine: Um diese Struktur innerhalb der DNA überhaupt zu erkennen, muss bereits die Semantik des genetischen Codes berücksichtigt werden. Denn das DNA-Molekül kann durchaus noch andere Informationen tragen: So ist zum Beispiel die "Doppelhelixstruktur" der Ausdruck einer anderen Semantik, nämlich der des räumlichen Erscheinungsbildes des Moleküls.
Auch stellt die semantische Verarbeitung (z.B. das Zusammenfassen von Buchstaben zu Wörtern) wiederum syntaktische Information (nämlich eine Abfolge von Wort-Symbolen) her. Letztlich definiert sich auch die pragmatische Ebene nicht zuletzt dadurch, dass sie selbst neue Information syntaktischer Natur schaffen muss (sonst hätte die Information keine Wirkung entfaltet).
Aufgrund des engen Zusammenspiels zwischen semantischen Dekodierungsprozess und Wirkentfaltung in der Pragmatik, die beide wiederum syntaktische Informationen als End- und Zwischenprodukte generieren, werden manchmal diese beiden Ebenen auch zur Semantopragmatik verschmolzen.
Im folgenden Beispiel eines Telefongespräches werden die unterschiedlichen Verschränkungen der Ebenen nochmals deutlich
Syntax |
Semantik |
Pragmatik |
Schallwellen mit wechselnder Frequenz und Intensität |
Unterschiedlicher elektr. Widerstand bei unterschiedl. Druck |
Unterschiedlich fließender elektrischer Strom |
Unterschiedlich fließender elektrischer Strom |
Unterschiedliches Magnetfeld bei Unterschiedlichem Strom |
Bewegung einer am Magneten befestigten Membran |
Bewegung einer am Magneten befestigten Membran |
Schwingungsübertragung durch Luftmoleküle |
Entstehen einer Schallwelle |
Auftreffen einer Schallwelle auf das System Trommelfell / Gehörknöchelchen / Schnecke / Schallrezeptoren |
Feuern der Rezeptor-Nervenzelle bei Erregung |
Nervenimpuls |
Impuls vieler Rezeptornevenzellen an einer verarbeitenden Nervenzelle im Gehirn |
Feuern der verarbeitenden Zelle bei Schwellwertüberschreitung |
Feuern oder Nichtfeuern einer verarbeitenden Nervenzelle |
Feuern oder Nichtfeuern vieler verarbeitenden Nervenzelle |
Vernetzung der Nervenzellen |
Emergierende Muster in Raum und Zeit aus verarbeitenden Nervenzellen |
Emergierende Muster in Raum und Zeit aus verarbeitenden Nervenzellen |
(dieser semantische Schritt ist eines der größten Rätsel der Gehirnforschung) |
Wort "Ich" gehört |
Worte "Ich komme morgen an" gehört |
(dieser semantische Schritt ist ein noch viel größeres Rätsel der Bewußtseinsforschung) - erneut spielt die Emergenz der Muster von feuernden Gehirnzellen eine Rolle. |
Diese Worte mit dem Begriff über Gesprächspartners verbunden, und den Begriffen über den morgigen Tag, und dem Begriff, dass jemand kommt, und dem Begriff, dass es sich bei dem, der da kommt, um den Gesprächspartner handelt. Mit anderen Worten: Jetzt wissen, dass der Gesprächspartner morgen eintrifft. |
Wissen, dass der Gesprächspartner morgen eintrifft. Sich erinnern, dass er mit dem Zug kommen wollte und dass der Bahnhof zwanzig Kilometer weit weg ist |
(dieser semantische Schritt ist ein noch viel viel größeres Rätsel der Bewußtseinsforschung) |
Ihm sagen werden, dass man ihm mit dem Auto abholen kommt |
Information im praktischen Alltag:
Information steckt in der Sprache, in der Schrift, in Büchern, auf Tonbändern, auf Disketten, in Zeitungen, im Rundfunk, im Fernsehen, in gemalten Bildern, in Fotos, in Verkehrszeichen, in der Farbe, in der Form, in der Temperatur, im Gesichtsausdruck, in der Telefonleitung, im Funkverkehr, im Erbgut, in den Nervenströmen, im Geschmack, im Geruch und in vielem anderen.
Steckt in einem Stein Information?
Auch ein Stein kann Information tragen: in seiner Herkunft, in seiner chemischen Zusammensetzung, in Größe, Gewicht, Temperatur, in Form, Oberfläche,Farbe etc. Auch seine Lage z.B: in einem Bachbett kann Information sein, über geologische Vorgänge der Vergangenheit.
Was kann als Informationsträger dienen?
Viele physikalische Systeme (Schallwellen, elektromagnetische Wellen, Materiestruktur, Stoffkonzentrationen) können Information tragen.
Man kann Informationsträger unterscheiden in "flüchtige" (z.B. Funkwellen) oder dauerhafte (siehe Permanentspeichermedium).
Information gibt es nur in Systemen, die mehrere mögliche Zustände einnehmen können.
Welche Arten von Information gibt es?
Einige Arten von Informationsunterscheidungen:
- falsche und richtige Informationen
- teilweise richtige Informationen
- neue und alte Informationen
- bekannte und unbekannte Informationen
- konkrete und abstrakte Informationen
- Zufallsinformationen und geordnete, nicht zufällige Informationen
- aktuelle und potentielle Information
Tödliche Information
In jedem informationsverabeitenden System gibt es Informationssequenzen, die erheblichen Schaden anrichten können bzw. den Zusammenbruch des informationsverarbeitenden Systems zur Folge haben.
Informationstransport
Information kann mit Lichtgeschwindigkeit transportiert werden.
Interessant ist es, dass Information, die an Materie als Informationsträger gebunden ist, auf elektromagnetische Wellen übertragen werden kann. Diese Information kann dann mit Lichtgeschwindigkeit transportiert werden. Schließlich kann die Information wieder zurück an Materiestrukturen gebunden werden. Ein Beispiel für so einen Übertragungsprozess ist das Telefax. Dabei wird die Information eines bestimmte Schriftstückes mit Lichtgeschwindigkeit über große Entfernungen transportiert und am Ziel auf ein zweites Schriftstück mit exakt demselben Informationsinhalt übertragen.
Allgemeiner: Informationstransport hängt also immer vom verwendeten Informationsträger ab.
Digitale Information
Digitale Information entstehen durch Digitalisierung beliebiger Information. Das Ergebnis sind Daten.
Obwohl für die Messung von Informationsmengen, für Informationsströme und für die Informationsspeicherung das Bit und das Byte als Basiseinheiten vorliegen, wird die Informationsmenge immer noch gerne an Hand des jeweiligen Informationsträgers quantifiziert.
So kann man die digitale Informationsmenge, die in einem Buch steht, leicht und anschaulich an der Seitenzahl oder an der Zahl der Wörter ablesen.
Quanteninformation
Die Quantenmechanik zeigt, dass Quantenobjekte eine Art Information enthalten, die nicht über klassische Kanäle (also z.B. als Folge von Nullen und Einsen) übertragen werden kann. Außerdem kann man Quanteninformation nicht kopieren (ohne die Information im Original zu zerstören).
Die besonderen Eigenschaften der Quanteninformation ermöglichen Anwendungen, die mit klassischer Information nicht möglich sind, wie Quantencomputer und Quantenkryptographie.
Zufallsinformation und geordnete Information
Wenn man die drei Basisbegriffe der heutigen Naturwissenschaften Materie (= Stoff), Energie (= Strahlung) und Information (= Struktur) betrachtet, kann man fragen, wie der Begriff Information in weitere Subkategorien untergliedert werden kann. Die erste und wichtigste Unterteilung der Information ist dann die Unterscheidung zwischen Zufallsinformation und nicht zufälliger Information oder auch zwischen Zufallsstruktur und geordneter Struktur.
Ein Beispiel dazu: Betrachtet man eine binäre Datei einer bestimmten Länge z.B. mit 20 Stellen, dann kann man die Gesamtinformationsmenge ausrechnen, die mit 20 Stellen dargestellt werden kann: I = 220 = 1 048 576 Bit = 217 Byte = ca 130 kByte. Ein Teil der Möglichkeiten aus dieser Gesamtinformationsmenge sind reine Zufallsfolgen, der Rest sind mehr oder minder geordnete Folgen. Die Grenze zwischen beiden Bereichen ist nicht scharf zu ziehen, sondern nur mit einem Wahrscheinlichkeitsniveau von z.B. 95% festzulegen. Je weiter man von der Grenze weg ist, desto klarer ist die Zuordnung. Chaitin hat 2 Beispiele genannt:
- Geordnete Reihe: 10101010101010101010
- Zufall = 0, oder fast Null
- Ungeordnete Reihe: 01101100110111100010
Beide Reihen haben dieselbe Länge und denselben Speicherplatzbedarf in kByte. Trotzdem unterscheiden sie sich fundamental. Ist die Menge an Zufall so etwas wie die Entropie einer Reihe, dann unterscheiden sich beide Reihen im Hinblick auf die Entropie sehr stark. Die erste Reihe hat eine Entropie von 0 oder nahe 0, die zweite Reihe hat eine Entropie von 20 bit.
Eine interessante Frage ist nun, wie hoch der Anteil der Zufallsfolgen an der Zahl der gesamten Möglichkeiten ist. Eine weitere interessante Frage ist, ob man die Nichtzufälligkeit irgendwie
quantifizieren kann. Kann man z.B. sagen: Je stärker eine nichtzufällige Reihe komprimierbar ist, desto größer ist ihre Ordnung.
Dann ergeben sich die allgemeinen Aussagen: Der Anteil der Zufallsfolgen wächst mit der Anzahl der Gesamtmöglichkeiten, oder anders ausgedrückt: Je länger eine 01 Sequenz ist, desto mehr Möglichkeiten für Zufallsfolgen stecken in ihr.
Je geordneter eine ganz bestimmte 0/1 Folge ist, desto weniger Zufall steckt in ihr. Vor allem in dem Begriff der Komprimierbarkeit, den man zur Definition der geordneten Folge heranzieht, stecken einige Tücken. Er ist mathematisch nur schwer definierbar.
Bei kurzen 01 Sequenzen überlappen sich der geordnete und der Zufallsbereich am Anfang vollständig, je länger die Sequenzen werden, desto besser sind sie dem Bereich des Zufalls oder dem Bereich geordnete Folge zuzuordnen.
Trotzdem bleiben auch bei längeren 01 Folgen Überlappungen zwischen geordneten Folgen und Zufallsfolgen bestehen. Jede geordnete 01 Folge kann mittels eines guten Komprimierungsverfahrens in eine scheinbare Zufallsfolge überführt werden.
Das Ergebnis schaut zufällig aus, in ihr steckt aber bedeutsame Information.
Umgekehrt kann man mittels komplizierter Rechenverfahren Zufallszahlen erzeugen, die ausschauen wie echte (z.B. gewürfelte) Zufallszahlen, die aber in Wirklichkeit das Ergebnis eines festgelegten Algorithmus sind. (Pseudozufallszahlen)
Es gibt die Möglichkeit bis zu einem gewissen Grad Information auch ohne Informationsverlust zu verdichten. Dies bewerkstelligen z.B. Kompressionsprogramme auf Computern wie ZIP oder ARC. Diese Verdichtungsprogramme haben bei der Übertragung von Information in Leitungen oder bei der Speicherung bei begrenztem Speicherplatz ihre Bedeutung. Komprimiert werden hier allerdings nur die Daten, also die Informationscodes. Bevor die Information wieder verständlich ist, müssen die Daten dekomprimiert werden.
Wo findet man offensichtlich keine Information?
Völlige Abwesenheit von Information kann eigentlich nur im Zustand totaler Entropie entstehen. Wenn alles gleichförmig ist, können auch keine Unterschiede wahrgenommen werden.
Im Vakuum, das heißt im luftleeren Raum, ist keine Information zu finden, die auf Luft als Träger basiert (z.B. Schall, Temperatur). Aber schon in der äußeren Form, die das Vakuum begrenzt, findet sich Information. Auch können physikalische Felder ein Vakuum durchkreuzen. In diesen Feldern steckt dann potentielle Information. In der allgemeinen Relativitätstheorie kann der leere Raum (also das Vakuum) gekrümmt sein, und daher auch ohne materiellen Inhalt Information enthalten (z.B. in Form von Gravitationswellen).
Von der Seite des Informationsempfängers gesehen, findet man dort keine Information, wo man den Informationsträger nicht wahrnehmen kann.
Allerdings kann die Abwesenheit von Information selber eine Information darstellen. Zum Beispiel kann die Tatsache, dass ein Hohlraum evakuiert ist, die Information beinhalten, dass die Vakuumpumpe funktioniert (amsonsten wäre der Hohlraum noch immer mit Luft gefüllt).
Informationsbedeutung, Informationsqualität, Informationsgehalt, Semantik
Die Informationsqualität ist weit schwerer zu messen als die reine Informationsmenge. So kann in einem Buch nur Blabla stehen und in einem anderen wichtige mathematische Formeln, bei denen jeder Buchstabe und jedes Zeichen eine Bedeutung hat.
Die reine Informationsmenge, z.B. die Zahl der Buchstaben oder die Zahl der Seiten, kann dieselbe sein, die Bedeutung ist es sicher nicht. Hier muss man sich anderer, weniger leicht quantifizierbarer Maßstäbe bedienen, um die Qualität zu messen.
- Wie häufig wurde das Buch gekauft?
- Wieviele Auflagen hat das Buch erlebt?
- Wie lange gibt es dieses Buch schon?
- In wieviele Sprachen wurde es übersetzt?
- Wie bewerten Kritiker das Buch?
- Wie bewerten Leser das Buch?
Der Informationsgehalt kann manchmal sehr klein sein, obwohl die Informationsmenge sehr groß sein kann. So kann man einen Computerbildschirm voll mit Buchstaben schreiben, die per Zufall dort hingesetzt wurden. Die Informationsmenge ist dann maximal, da man, um exakt dieselbe Information zu übertragen, keine Datenkompression vornehmen kann. Information mit Bedeutung ist immer ein Zwischending zwischen völlig gleichförmiger Ordnung und völlig gleichförmigem Chaos. Dieselbe Information kann in verschiedenen Formen stecken, z.B. ein geschriebener Satz und ein gesprochener Satz. Dieselbe Informationsbedeutung kann in verschiedenen Zeichenfolgen stecken. Die Bedeutung einer Information kann man folgendermaßen erkennen:
- Wie oft existiert die spezielle Informationsfolge überhaupt zur Zeit?
- Wie oft existierte die spezielle Informationsfolge in den letzten 1000 Jahren?
- Was passiert, wenn man diese Information weglässt oder verändert?
- Wann kann - geschichtlich betrachtet - eine bestimmte Informationsfolge das
erste oder das letzte Mal nachgewiesen werden?
- Wie wird eine spezielle Informationsfolge variiert, und bei welchen Variationen
ist der ursprüngliche Gehalt nicht mehr erkennbar bzw. ist die Funktion der
Information nicht mehr erkennbar, d.h. welche Passagen einer Informationskette sind essentiell und welche sind weniger wichtig?
- Welche Folgen, Wirkungen und Funktionen hat eine bestimmte Informationskette in
Ihrem Umfeld?
- Gibt es völlig andere Informationsfolgen, die aber eine identische Funktion
erfüllen?
- Wenn eine bestimmte Informationsfolge vermehrt weitergegeben wird, wie erfolgt diese Weitergabe? Erfolgt diese Vermehrung und Weitergabe anorganisch, biologisch genetisch, neurologisch oder technisch?
Die praktische Bedeutung von Information ist schwer in Zahlen anzugeben. Am ehesten geht dies noch bei biologischer Information.
So ist zum Beispiel das Molekül Insulin in vielen Tieren vorhanden und dementsprechend sehr wichtig. Man kann also sagen Insulin hat so eine hohe Informationsqualität, dass ohne diesen Stoff kein Säugetier in der uns bekannten Form existieren könnte. Außerdem kann man abschätzen, wieviel Insulin in jedem Lebewesen und wieviel auf der ganzen Erde vorhanden ist. Man kann dann die geschätzte Menge in Kilogramm oder in einer geschätzten absoluten Zahl an Molekülen angeben.
Verschiedene Säugetierarten haben etwas abweichende Formen von Insulin. Die prinzipielle Wirkung des Insulins, die Zuckersenkung im Blut eines Tieres, bleibt aber diesselbe. Dieselbe Informationsqualität kann also in einer etwas abweichenden Informationsfolge stecken. Teile einer Informationsfolge sind dann meist essentiell, andere Teile dürfen variieren.
Informationen haben je nach Umfeld verschiedene Informationsqualitäten. Unter Informationsqualität versteht man den Gehalt, die Bedeutung und den Sinn einer Information und der wird wesentlich durch das Umfeld mitbestimmt. So ist Insulin im Magen nur eine Kette von Aminosäuren, die in ihre Einzelglieder zerlegt und als Nahrung genutzt wird. Gleich nebenan in einem Blutgefäß des Magens ist das Insulin ein stark zuckersenkendes Prinzip, weil es Rezeptoren gibt, die seine Botschaft verstehen.
In welcher Information steckt keine oder fast keine Bedeutung? Nimmt man eine reine Zufallssequenz von 0 und 1, so steckt nur in der Länge der Zufallssequenz und in der Art, wie diese Sequenz erzeugt wurde eine gewisse Bedeutung. Ansonsten ist die Sequenz bedeutungslos.
Anstatt die Qualität einer Information (auf der semantischen Ebene) zu bewerten, wird oft der ökonomische Wert einer Information bestimmt. Der ökonomische Wert einer Information kann auf mehrere Arten bestimmt werden:
- Man kann von den Kosten ausgehen, die anfallen, wenn man die Information
produziert, oder
- man kann den Wert anhand des Preises bestimmen, den man für die Information erzielen kann oder
- man kann den erwarteten Nutzen (unter rationalem Verhalten) bestimmen.
Siehe auch:
Logikalie - Signal - Information als dritter Kernbegriff der Naturwissenschaften neben Energie und Materie - Lebenszyklus von Informationen - Informationsmenge - Wortfeld Information - Digitale Information - Negentropie - Unterscheidbarkeit - Wahrheit - Repräsentation
Weblinks
Literatur
"Unmathematische" Einführungen:
- Nørretranders, Tor: Spüre die Welt, Rowohlt, 1994; ISBN 3-4980-4637-3; eine verständliche Einführung in die Welt der Information, der Entropie und des Bewußtseins
- Lyre, Holger: Informationstheorie, Wilhelm Fink Verlag, München 2002; ISBN 3-7705-3446-8, Einführung in die Informationstheorie mit Ausblick auf die aktuellen Forschungen Lyres zur Quantentheorie der Information. Kenntnisse der Quantenphysik werden jedoch vorausgesetzt.
Populärwissenschaftliche Einführungen mit mathematischen Beweisführungen:
- Penrose, Roger: Computerdenken, Spektrum der Wissenschaften-Verlagsgesellschaft, Heidelberg 1991; ISBN 3-8933-0708-7; Einführung in den Informationsbegriff, Turingmaschinen, Berechenbarkeit und künstliche Intelligenz
Alle Bücher enthalten weitere Bibliografien.