Information
Definition des Begriffes Information
Der Begriff der Information kristallisiert sich seit einigen Jahrzehnten als ein ähnlich grundlegender Begriff heraus, wie das die Begriffe Energie und Materie schon seit langem als Basis jeder Naturwissenschaft geworden sind. Dabei steht der Begriff Information an der Grenze zwischen den Naturwissenschaften und den Geisteswissenschaften und er kann vielleicht helfen, Gräben, die sich zwischen diesen Wissenschaftsbereichen aufgetan haben, zu überbrücken. Norbert Wiener, der Begründer der Kybernetik, hat dies auf den Punkt gebracht, als er sagte: "Information ist Information, weder Materie noch Energie. Kein Materialismus, der dies nicht berücksichtigt, kann heute überleben." Nach Umberto Eco (Einführung in die Semiotik, UTB, 1972, p60) ist Information das Mass der Freiheit der Wahl innerhalb eines bestimmten Wahrscheinlichkeitssystems".
Eigenschaften von Information
- In jeder Art von Struktur oder Muster von Materie oder Energie steckt Information.
- Alles, was man als Folge von 0 und 1 darstellen kann, ist Information
- Information ist Gewinn an Wissen
- Information ist beseitigte Ungewissheit
- Information = Nachricht; Auskunft; Belehrung, Aufklärung.
- Information = räumliche oder zeitliche Folge physikalischer Signale, die mit bestimmten Wahrscheinlichkeiten oder Häufigkeiten auftreten.
- Information = sich zusammensetzende Mitteilung, die beim Empfänger ein bestimmtes Verhalten bewirkt.
Basisbegriffe der Naturwissenschaften: Materie, Energie, Information
Der Begriff Information scheint eine ähnliche Vereinheitlichung der Anschauungen zu bringen, wie sie der Begriff der Energie für die Physik des 19. Jahrhunderts gebracht hat. Allerdings müssen dazu noch einige Ungereimtheiten und Unklarheiten bereinigt werden, die im Begriff Information stecken. Vor allem der semantische Aspekt der Information, also die Bedeutung von Information, bereitet noch erhebliche Verständnisprobleme. Die Bedeutung von Information ergibt sich meist erst durch die Betrachtung des jeweiligen Zusammenhanges. Sie kann oft durch die Frage "Bedeutung für wen oder für was?" - geklärt werden.
Information ist etwas anderes als Energie und Materie. Es ist eine Eigenschaft von Energie oder Materie. Betrachten wir zunächst das Wortfeld zum Thema Information und vergleichen es mit dem Wortfeld Energie und Materie.
http://home.t-online.de/home/0926161717-0001/3.jpg
Information
- Form, Muster, Struktur
- räumliche Strukturen z.B. Kristalle
- zeitliche Strukturen z.B. Rhythmen
- hierarchische Strukturen
- Bildinformation
- Toninformation
- Sprachinformation
- genetische Information
- Geist in Nervensystemen
- Ordnung -- Unordnung
- Zufallssequenz - nicht zufällige Sequenz
- Beschreibbarkeit
- Komplexität
- mechanische Arbeit
- Bewegungsenergie
- Wärmeenergie
- elektrische Energie
- magnetische Energie
- potentielle Energie
- chemische Energie
- Atomenergie
- feste Stoffe
- Flüssigkeiten
- Gase
- Plasma
- Elementarteilchen
- Kristalle
- Verbindungen = Moleküle
- Lösungen
- Gemische
Wo steckt überall Information drin?
Fangen wir mit der Erklärung des Begriffes Information zunächst mit leicht einsehbaren Aussagen aus dem heutigen Alltagsleben an.
Information im praktischen Alltag:
Information steckt in der Sprache, in der Schrift, in Büchern, auf Tonbändern, auf Disketten, in Zeitungen, im Rundfunk, im Fernsehen, in gemalten Bildern, in Fotos, in Verkehrszeichen, in der Farbe, in der Form, in der Temperatur, im Gesichtsausdruck, in der Telefonleitung, im Funkverkehr, im Erbgut, in den Nervenströmen, im Geschmack, im Geruch und in vielem anderen.
Wo findet man offensichtlich keine Information?
Im Vakuum, das heißt im luftleeren Raum, ist keine Information zu finden. Aber schon in der äußeren Form, die das Vakuum begrenzt, findet sich Information. Auch können physikalische Felder ein Vakuum durchkreuzen. In diesen Feldern steckt dann potentielle Information.
Steckt in einem Stein Information?
Auch ein Stein kann Information tragen: in seiner Herkunft, in seiner chemischen Zusammensetzung, in Größe, Gewicht, Temperatur, in Form, Oberfläche,Farbe etc.
Informationsträger
Informationsträger im weiteren Sinn sind Dinge, die nur über sich selber Auskunft geben. Dazu zählen beispielsweise Steine.
Informationsträger im engeren Sinne sind Dinge, die von Lebewesen zur Übertragung oder Speicherung von Information genutzt werden können. So kann man beispielsweise mehrere kleine Steine zum Abzählen benutzen.
Was kann als Informationsträger dienen?
Schallwellen, elektromagnetische Wellen, Lichtwellen, Schrift, Materiestruktur und Stoffkonzentrationen sind Beispiele für Informationsträger.
Information gibt es nur in Systemen, die mehrere mögliche Zustände einnehmen können.
Wichtige Informationen sollte man immer mindestens doppelt aufbewahren. Dies bemerkten übrigens schon Herr James Watson und Herr Francis Crick, als sie den Aufbau der DNS erforschten.
Zum Thema Informationsträger existiert ein zentrales Dogma der Informationstheorie und dieser lautet:
Information ohne Informationsträger gibt es nicht.
Vielleicht kommt dieses Dogma mit der postulierten Existenz von Infonen nochmal auf den Prüfstand. Die Gretchenfrage der Informationstheorie lautet also:
Gibt es Beispiele für reine, nackte Information ohne Informationsträger?
Kann man diese Frage mit Ja beantworten, dann wäre auch die Existenz eines reinen Geistwesens denkbar. Bislang ist sie zu verneinen.
Welche Anforderungen sind an Informationsträger zu stellen?
- Sie müssen abgelesen werden können.
- Sie müssen zuverlässig sein.
- Sie müssen Bestand haben.
- Sie dürfen nicht überschreibbar sein.
- Sie müssen überschreibbar sein.
In den zwei letzten Anforderungen scheint ein Widerspruch zu stecken. Dieser Widerspruch löst sich aber auf, wenn man weiß, wozu man einen Informationsträger benutzen will. Braucht man ihn als immer wieder zu benutzende Arbeitsumgebung, dann muß er löschbar sein. Braucht man ihn, um ein Dokument zu bewahren, dann sollte er nicht löschbar sein.
Beispiele für löschbare und neu beschreibbare Informationsträger:
- Musikkassetten
Beispiele für nicht neu beschreibbare Informationsträger:
- in Stein gehauene Schrift
Die Begriffe RAM und ROM kommen aus der Computertechnik und heißen Random Access Memory (beliebig beschreibarer und löschbarer Arbeitsspeicher) und Read Only Memory (nur lesbarer Speicher).
Ein großes Problem ist mittlerweile das Altern von Informationsträgern geworden. Nicht nur Bücher, auch digitale Speichermedien sind einem Alterungsprozess unterworfen. Durch diesen Prozess kann es zu einer Zerstörung von wichtigen Informationen kommen.
Dieselbe Information kann auf völlig verschiedenen Informationsträgern transportiert oder gespeichert werden.
Ein Beispiel:
Aus einem Eisenbahnfahrplan wird eine Information gelesen. | Die Information steckt in den gedruckten Buchstaben des Fahrplans. |
Über das reflektierte Licht wird die Information zum Auge übertragen: | Die Information steckt in den elektromagnetischen Lichtwellen. |
Über die Augen wird diese Information aufgenommen. | Information in Sinneszellen der Augen und in den Nervenzellen der Sehbahn. |
Die abglesene Uhrzeit soll einem anderen Menschen übers Telefon mitgeteilt werden. | Information wird auf die Muskelzellen des Kehlkopfs übertragen. |
Die Information wird mittels Schallwellen weitergeleitet. | Die Information steckt in den Luftschwingungen. |
Das gesprochene Wort wird in einem Telefonhörer in elektrische Signale umgewandelt. | Die Information steckt in den elektromagnetischen Schwingungen. |
Im Telefonhörer des Empfängers wird die Information wieder in Schallwellen umgewandelt. | Die Information steckt in den Luftschwingungen. |
Die Schallwellen aus dem Telefonhörer werden vom Trommelfell auf die Gehörknöchelchen weitergegeben. | Die Information steckt in den mechanischen Bewegungen der Gehörknöchelchen. |
Von den Gehörknöchelchen wird die Information auf das Wasser der Gehörschnecke übertragen. | Die Information steckt in den Wasserwellen. |
Von der Gehörschnecke wird die Information auf die Haarzellen übertragen. | Die Information steckt in den Ausschlägen verschiedener Haarzellen. |
Von den Haarzellen gehts weiter über die Nervenzellen der Gehörbahn ins Gehirn | Die Information steckt in den Entladungen der Nervenzellen und den chemischen Überträgerstoffen der Synapsen. |
Vom Gehirn wird die Information zu Hand weitergeleitet und auf ein Papier aufgschrieben. | Die Information steht auf dem Papier:
|
Wo wird Information neu produziert?
- Abbildungs- und Aufzeichnungsinstrumente
- Fotoapparate
- Bücher
- Zeitungen
- Untersucher
- Forscher
Menschliche Kreativitätsquellen
- Geschichtenerzähler
- die belebte Natur
- die unbelebte Natur: z.B. Kristallisation
Biologische Kreativitätsquellen
- Erbgut
- Kopierer der DNS
- Zeugung, Wachstum
- Evolutionierer: Variation
Anorganische Strukturbildung (= Kreativität?)
- Kristallisation
- Bildung chemischer Verbindungen
Wo wird Information vernichtet?
- Altern
- Sterben
- Vergessen
- Verdauung
- Verfall
- Recycling von Papier und anderen Informationsträgern
- Aussterben von Arten
- Selektion
- Standardisierung
Welche Arten von Information gibt es?
Wortfeld Information
- Form, Muster, Struktur
- räumliche Strukturen z.B. Kristalle
- zeitliche Strukturen z.B. Rhythmen
- hierarchische Strukturen
- Bildinformation
- stehendes Bild
- Film
- Toninformation
- Sprachinformation
- Schriftinformation
- biologische Information
- genetische Information
- Eiweißstruktur
- Information in Hormonsystemen
- Information in Nervensystemen
- krankmachende Information
- tödliche Information
- Mathematische Informationen
- Ordnung -- Unordnung
- Entropie -- Negentropie
- Zufallssequenz - nicht zufällige Sequenz
- Beschreibbarkeit
- Komplexität
- Digitale Information - Analoge Information
Daten:
Digitalisierte Informationen bezeichnet man auch als Daten. Das heißt, sie sind zerlegt in eine Reihe von "Ja-Nein-Entscheidungen“ oder Nullen und Einsen. Will man eine Informationsmenge betrachten, ganz unabhängig von ihrer Bedeutung, sollte man besser von Datenmenge sprechen.
Dateien:
Dateien sind gespeicherte Daten. Dateien können ausführbar sein oder nur Informationen enthalten.
Programme:
Programme bestehen aus einer oder mehreren Dateien, von denen mindestens eine ausführbar ist. Programme ermöglichen die Arbeit am Computer, denn sie enthalten Arbeitsanweisungen.
Sonstige Arten von Informationen:
- falsche und richtige Informationen
- teilweise richtige Informationen
- neue und alte Informationen
- bekannte und unbekannte Informationen
- konkrete und abstrakte Informationen
- Zufallsinformationen und geordnete, nicht zufällige Informationen
Tödliche Information
In jedem Informationsverabeitenden System gibt es Informationssequenzen, die erheblichen Schaden anrichten können bzw. den Zusammenbruch des informationsverarbeitenden Systems zur Folge haben.
Informationstransport
Information kann mit Lichtgeschwindigkeit transportiert werden.
Interessant ist es, dass Information, die an Materie als Informationsträger gebunden ist, auf elektromagnetische Wellen übertragen werden kann. Diese Information kann dann mit Lichtgeschwindigkeit transportiert werden. Schließlich kann die Information wieder zurück an Materiestrukturen gebunden werden. Ein Beispiel für so einen Übertragungsprozess ist das Telefax. Dabei wird eine Schriftstück mit einer bestimmten Information mit Lichtgeschwindigkeit über große Entfernungen transportiert und am Ziel in ein zweites Schriftstück aber mit exakt demselben Informationsinhalt zurückverwandelt.
Was kann man mit Information alles machen?
- Information kann übertragen werden
- Information kann gespeichert werden.
- Information kann verändert werden
- Information kann verbessert werden
- Information kann konzentriert werden
- Information kann gefiltert werden
- Information kann vermehrt werden
- Information kann neu entstehen.
Informationstransport
InfoQuelle ====> direkter Kontakt ====> InfoSenke
z.B. Stein rollt den Berg herunter und erzeugt einen Abdruck
InfoQuelle ====> Transportmedium (Kanal) ====> InfoSenke
Informationsverarbeitung
EVA - Prinzip: Eingabe (E) ===> Verarbeitung (V) ====> Ausgabe (A)
z.B. Auge: einlaufende Lichtstrahlen werden in der Netzhaut verarbeitet und die Informationen über Nervenzellen ausgegeben.
Digitale Information
Nach Einführung der Computer ist bald klar geworden, daß Systeme,die nur mit zwei unterschiedlichen Zuständen arbeiten wie Nein und Ja, An und Aus oder 0 und 1, für die Bearbeitung durch Computer am besten geeignet sind. Und so hat man bald eine weitere Basisaussage der Informationstheorie formuliert: Es ist der Satz von der Digitalisierbarkeit.
Alles, was man als Folge von 0 und 1 darstellen kann, ist Information.
Auch folgende Einschränkung dieses Satzes kann man wohl als richtig akzeptieren. Information ist nur das, was man als Folge von Null und Eins darstellen kann. Oder stimmt das nicht?
Digitalisierung heißt also Darstellung als Folge von 0 und 1, oder allgemeiner: Darstellung in Form von Zahlenwerten.
Erst mit der massenhaften Einführung von Musik-CDs ist vielen Menschen diese Speicherungsmöglichkeit von Information als einfache Kette von 0 und 1 klar geworden. Dennoch bleibt es vielen Leuten unverständlich, wie man so etwas schönes wie Musik in so eine banale Folge aus Nullen und Einsen bringen kann. Will man es ketzerisch kommentieren, so kann man sagen: Schönheit ist digitalisierbar.
Es gibt ruhende, fixierte Information und es gibt aktive, gerade gelesene oder übertragene Information.
Es gibt potentielle = mögliche Information und aktuelle = tatsächliche Information. So steckt in einer Münze vor dem Werfen potentielle Information. Nach dem Werfen wird sie zu aktueller Information.
Information ist eine austauschbare Größe, die eng mit der Energie und Entropie verknüpft ist. Sie reduziert die Unbestimmtheit des Zustandes eines Systems.
Die Informationsübertragung zwischen zwei Systemen ist immer mit Energie- und Entropieübertragung verknüpft. Dabei kann allerdings mit relativ wenig Energie viel Information übertragen werden (z.B. Telefonnetz). Andererseits kann mit der Übertragung von viel Energie relativ wenig Informationstransport verknüpft sein (z.B. Starkstromnetz der Überlandleitungen). Information und Energie sind nur in Ausnahmefällen direkt proportional.
Quantitative Beschäftigung mit dem Begriff Information
Heute wird Information wissenschaftlich auch definiert als die Abweichung einer Signalverteilung vom statistischen Durchschnitt unabhängig von jeglichem Inhalt. In diesem Sinne ist also eine Folge von Zeichen, die man nicht lesen kann, die aber nicht zufällig hingestreut ist, als eine Information erkennbar, obwohl ihr Inhalt zunächst unbekannt bleibt.
Man muß also unterscheiden: Die Informationsmenge, die man messen kann, und den Informationsgehalt, der schwerer quantifizierbar ist. Will man Informationsmengen betrachten, ganz unabhängig von ihrer Bedeutung, sollte man besser von Datenmenge sprechen. Das deckt sich besser mit dem allgemeinen Verständnis von Information. Information ohne Bedeutung ist in der Alltagsvorstellung schwer verständlich zu machen.
Die kleinste Informationseinheit = Dateneinheit kann man sich unabhängig von einem speziellen Inhalt oder einer bestimmten Bedeutung vorstellen als eine Entscheidung zwischen zwei gleichberechtigten Wahlmöglichkeiten.
Die kleinste Informationseinheit ist das Bit'. Bit ist die Kurzform für Binary digit, bedeutet also Binärzahl oder Zahl aus dem Zweiersystem. Man kann auch sagen, eine Binärzahl ist eine Zahl, die nur aus Einsen und Nullen besteht. Die Information, die in einer Ja-Nein Entscheidung steckt, ist ein Bit.
Ein Informationsspeicher mit 1 Bit Speicherkapazität hat also nur einen Speicherplatz mit 2 Möglichkeiten
z.B. "besetzt oder leer", "an oder aus", "Kerbe oder keine Kerbe".
In einer Münze steckt die Zufallsinformation ein Bit, wenn sie geworfen wird, denn es wird ja die Entscheidung zwischen 2 Möglichkeiten getroffen.
Wenn man jemanden an einer Weggabel nach dem richtigen Weg fragt, enthält die Antwort meist die Informationsmenge ein Bit, nämlich die Auswahl rechts oder links. Auch hier wieder ist die Informationsmenge unabhängig von ihrem Inhalt, denn die Antwort könnte auch falsch sein. Keine Information enthält die Antwort, wenn der Gefragte den richtigen Weg nicht weiß.
Die größten Informationsmengen stecken in unserem Gehirn, in unseren Bibliotheken, Büchern, Filmen, Bildern und Computern, im Erbgut und den Molekülstrukturen der belebten Natur, in den Gesetzen der unbelebten und belebten Natur, in der Struktur des gesamten Weltraums und die maximal denkbare Information in der Geschichte des gesamten Weltraums.
Technische Umsetzung:
Ein Bit (binary digit) ist eine "Ja-Nein-Entscheidung", für Ja (Strom) wird die Zahl 1 gesetzt für Nein (kein Strom) die 0.
Ein Byte umfaßt die Länge eines speicherbaren Zeichens und besteht aus 8 Bits. Alle 8 Bit gleichzeitig betrachtet ergeben – je nach Zustand - eine Reihe von Einsen und Nullen. Insgesamt sind 28 = 256 verschiedene Zustände möglich. Jedem dieser Zustände wird z.B. durch den ASCII-Code ein Zeichen eindeutig zugeordnet. z.B. 01000001 entspricht dem A bzw. 01000010 dem B.
- 1 Byte = 8 Bit
- 1 Kilobyte 1 KB = 210 Byte (1.024 Byte)
- 1 Megabyte 1 MB = 220 Byte (1.048.576 Byte)
- 1 Gigabyte 1 GB = 230 Byte (1.073.741.824 Byte)
Wer mit der Informationsmenge rechnen will, der sollte sich mit dem Logarithmus auskennen, denn es gilt:
Information I = lg2Z (bit)
(Die Informationsmenge I ist gleich dem Logarithmus zur Basis 2 der Zahl Z der möglichen Ereignisse.)
Aus der Informationsmenge kann man auch zurückrechnen auf die Zahl Z der zugrundeliegenden möglichen Ereignisse:
- 0 bit => Z = 1, da 20 = 1
- 1 Bit => Z = 2, da 21 = 2
- 8 bit = 1 Byte => Z = 256, da 28 = 256
Bei 1 kB ist die Zahl Z der möglichen Erreignisse bereits riesig groß: 28192 = 1,09 * 102466
Die Zahl Z kann man auch bestimmen, wenn man weiss, wieviele Ja - Nein Entscheidungen notwendig sind, um aus einer gegebenen Zahl von Möglichkeiten genau eine einzige zu wählen.
Codierung
Natürlich kann man Information nicht nur als Folge von 0 und 1 darstellen, sondern man kann auch andere Darstellungsarten = Codes benutzen. So erhält man dann eine Abwandlung des obigen Lehrsatzes:
Alles was codierbar ist, ist Information.
Zu fragen ist dann natürlich: Ist jegliche Information codierbar? Gibt es nichtcodierbare Informationen? Was ist überhaupt ein Code?
Oft verläuft eine Codierung auf verschiedenen Ebenen ab. Als Beispiel einer solchen stufenweisen Codierung kann man unsere gesprochene Sprache anführen:
Laut oder Buchstabe, Silbe, Wort, Satz
Als Beispiel einer stufenweisen Computercodierung kann man anführen:
Codierung eines Buchstabens im ANSI Code
(ANSI Code=genormte Zahlendarstellung von Buchstaben)
Codierung des ANSI Codes in einer Folge von 0 und 1
Weitere verbreitete Codes sind das Morsealphabet und die Brailleschrift.
Obwohl für die Messung von Informationsmengen, für Informationsströme und für die Informationsspeicherung das Bit und das Byte als Basiseinheiten vorliegen, wird die Informationsmenge immer noch gerne an Hand des jeweiligen Informationsträgers quantifiziert. So kann man die digitale Informationsmenge, die in einem Buch steht, leicht und anschaulich an der Seitenzahl oder an der Zahl der Wörter ablesen.
Zufallsinformation und geordnete Information
Wenn man die drei Basisbegriffe der heutigen Naturwissenschaften Materie (= Stoff), Energie (= Strahlung) und Information (= Struktur) betrachtet, kann man fragen, wie der Begriff Information in weitere Subkategorien untergliedert werden kann.
Die erste und wichtigste Unterteilung der Information ist dann die Unterscheidung zwischen Zufallsinformation und nicht zufälliger Information oder auch zwischen Zufallsstruktur und geordneter Struktur.
Ein Beispiel dazu:
Betrachtet man eine binäre Datei einer bestimmten Länge z.B. mit 20 Stellen, dann kann man die Gesamtinformationsmenge ausrechnen, die mit 20 Stellen dargestellt werden kann:
I = 2^20 = 1 048 576 Bit = 2^17 Byte = ca 130 kByte.
Ein Teil der Möglichkeiten aus dieser Gesamtinformationsmenge sind reine Zufallsfolgen, der Rest sind mehr oder minder geordnete Folgen.
Die Grenze zwischen beiden Bereichen ist nicht scharf zu ziehen, sondern nur mit einem Wahrscheinlichkeitsniveau von z.B. 95% festzulegen.
Je weiter man von der Grenze weg ist, desto klarer ist die Zuordnung. Chaitin hat 2 Beispiele genannt:
- Geordnete Reihe: 10101010101010101010
- Zufall = 0, oder fast Null
- Ungeordnete Reihe: 01101100110111100010
Beide Reihen haben dieselbe Länge und denselben Speicherplatzbedarf in kiloByte. Trotzdem unterscheiden sie sich fundamental.
Ist die Menge an Zufall so etwas wie die Entropie einer Reihe, dann unterscheiden sich beide Reihen im Hinblick auf die Entropie sehr stark.
Die erste Reihe hat eine Entropie von 0 oder nahe 0, die zweite Reihe hat eine Entropie von 20 bit.
Eine interessante Frage ist nun, wie hoch der Anteil der Zufallsfolgen an der Zahl der gesamten Möglichkeiten ist.
Eine weitere interessante Frage ist, ob man die Nichtzufälligkeit irgendwie quantifizieren kann. Kann man z.B. sagen: Je stärker eine nichtzufällige Reihe komprimierbar ist, desto größer ist ihre Ordnung.
Dann ergeben sich die allgemeinen Aussagen:
Der Anteil der Zufallsfolgen wächst mit der Anzahl der Gesamtmöglichkeiten, oder anders ausgedrückt: Je länger eine 01 Sequenz ist, desto mehr Möglichkeiten für Zufallsfolgen stecken in ihr.
Je geordneter eine ganz bestimmte 0/1 Folge ist, desto weniger Zufall steckt in ihr.
Vor allem in dem Begriff der Komprimierbarkeit, den man zur Definition der geordneten Folge heranzieht, stecken einige Tücken. Er ist mathematisch nur schwer definierbar.
Bei kurzen 01 Sequenzen überlappen sich der geordnete und der Zufallsbereich am Anfang vollständig, je länger die Sequenzen werden desto besser sind sie dem Bereich des Zufalls oder dem Bereich geordnete Folge zuzuordnen.
Trotzdem bleiben auch bei längeren 01 Folgen Überlappungen zwischen geordneten Folgen und Zufallsfolgen bestehen. Jede geordnete 01 Folge kann mittels eines guten Komprimierungsverfahrens in eine scheinbare Zufallsfolge überführt werden. Das Ergebnis schaut zufällig aus, in ihr steckt aber bedeutsame Information.
Umgekehrt kann man mittels komplizierter Rechenverfahren Zufallszahlen erzeugen, die ausschauen wie echte (z.B. gewürfelte) Zufallszahlen, die aber in Wirklichkeit das Ergebnis eines festgelegten Algorithmus sind. (Pseudozufallszahlen)
Redundanz und Kompression
Es gibt redundante Informationen, das heißt es wird dasselbe noch einmal wiederholt. Redundanz ist wiederholte Information, also eigentlich überflüssige Information. Die Redundanz hilft einem, wichtige Informationen trotz eines teilweisen Informationsverlustes noch entziffern und benutzen zu können. Sie schützt also vor Informationsverlust.
Es gibt die Möglichkeit bis zu einem gewissen Grad Information auch ohne Informationsverlust zu verdichten. Dies bewerkstelligen z.B. Kompressionsprogramme auf Computern wie ZIP oder ARC. Diese Verdichtungsprogramme haben bei der Übertragung von Information in Leitungen oder bei der Speicherung bei begrenztem Speicherplatz ihre Bedeutung.
Informationsbedeutung, Informationsqualität, Informationsgehalt, Semantik
Die Informationsqualität ist weit schwerer zu messen als die reine Informationsmenge. So kann in einem Buch nur Blabla stehen und in einem anderen wichtige mathematische Formeln, bei denen jeder Buchstabe und jedes Zeichen eine Bedeutung hat.
Die reine Informationsmenge, z.B. die Zahl der Buchstaben oder die Zahl der Seiten, kann dieselbe sein, die Bedeutung ist es sicher nicht. Hier muß man sich anderer, weniger leicht quantifizierbarer Maßstäbe bedienen, um die Qualität zu messen.
- Wie häufig wurde das Buch gekauft?
- Wieviel Auflagen hat das Buch erlebt?
- Wie lange gibt es dieses Buch schon?
- In wieviele Sprachen wurde es übersetzt?
- Wie bewerten Kritiker das Buch?
- Wie bewerten Leser das Buch?
Der Informationsgehalt kann manchmal sehr klein sein, obwohl die Informationsmenge sehr groß sein kann. So kann man einen Computerbildschirm voll mit Buchstaben schreiben, die per Zufall dort hingesetzt wurden. Die Informationsmenge ist dann maximal, da man, um exakt dieselbe Information zu übertragen, keine Datenkompression vornehmen kann.
Information mit Bedeutung ist immer ein Zwischending zwischen völlig gleichförmiger Ordnung und völlig gleichförmigem Chaos.
Dieselbe Information kann in verschiedenen Formen stecken, z.B. ein geschriebener Satz und ein gesprochener Satz. Dieselbe Informationsbedeutung kann in verschiedenen Zeichenfolgen stecken.
Die Bedeutung einer Information kann man folgendermaßen erkennen:
- Wie oft existiert die spezielle Informationsfolge überhaupt zur Zeit?
- Wie oft existierte die spezielle Informationsfolge in den letzten 1000 Jahren?
- Was passiert, wenn man diese Information wegläßt oder verändert?
- Wann kann - geschichtlich betrachtet - eine bestimmte Informationsfolge das erste oder das letzte Mal nachgewiesen werden?
- Wie wird eine spezielle Informationsfolge variiert, und bei welchen Variationen ist der ursprüngliche Gehalt nicht mehr erkennbar bzw. ist die Funktion der Information nicht mehr erkennbar, d.h. welche Passagen einer Informationskette sind essentiell und welche sind weniger wichtig?
- Welche Folgen, Wirkungen und Funktionen hat eine bestimmte Informationskette in ihrem Umfeld?
- Gibt es völlig andere Informationsfolgen, die aber eine identische Funktion erfüllen?
- Wenn eine bestimmte Informationsfolge vermehrt weitergegeben wird, wie erfolgt diese Weitergabe? Erfolgt diese Vermehrung und Weitergabe anorganisch, biologisch genetisch, neurologisch oder technisch?
Die praktische Bedeutung von Information ist schwer in Zahlen anzugeben. Am ehesten geht dies noch bei biologischer Information.
So ist zum Beispiel das Molekül Insulin in vielen Tieren vorhanden und dementsprechend sehr wichtig. Man kann also sagen Insulin hat so eine hohe Informationsqualität, daß ohne diesen Stoff kein Säugetier in der uns bekannten Form existieren könnte. Außerdem kann man abschätzen, wieviel Insulin in jedem Lebewesen und wieviel auf der ganzen Erde vorhanden ist. Man kann dann die geschätzte Menge in Kilogramm oder in einer geschätzten absoluten Zahl an Molekülen angeben.
Verschiedene Säugetierarten haben etwas abweichende Formen von Insulin. Die prinzipielle Wirkung des Insulins, die Zuckersenkung im Blut eines Tieres, bleibt aber diesselbe. Dieselbe Informationsqualität kann also in einer etwas abweichenden Informationsfolge stecken. Teile einer Informationsfolge sind dann meist essentiell, andere Teile dürfen variieren.
Informationen haben je nach Umfeld verschiedene Informationsqualitäten. Unter Informationsqualität versteht man den Gehalt, die Bedeutung und den Sinn einer Information und der wird wesentlich durch das Umfeld mitbestimmt. So ist Insulin im Magen nur eine Kette von Aminosäuren, die in ihre Einzelglieder zerlegt und als Nahrung genutzt wird.
Gleich nebenan in einem Blutgefäß des Magens ist das Insulin ein stark zuckersenkendes Prinzip, weil es Rezeptoren gibt, die seine Botschaft verstehen.
In welcher Information steckt keine oder fast keine Bedeutung?
Nimmt man eine reine Zufallssequenz von 0 und 1, so steckt nur in der Länge der Zufallssequenz und in der Art, wie diese Sequenz erzeugt wurde eine gewisse Bedeutung. Ansonsten ist die Sequenz bedeutungslos.
Es wird unterschieden zwischen den Begriffen:
- syntaktische Information, semantische Information, pragmatische Information
syntaktische Information = reine Informationsmenge, ohne Rücksicht auf die Bedeutung der Information.
- semantische und pragmatische Information = Bedeutung der Information, Qualität der Information
Der ökonomische Wert einer Information kann auf mehrere Arten bestimmt werden: Man kann von den Kosten ausgehen, die anfallen, wenn man die Information produziert, oder man kann den Wert anhand des Preises bestimmen, den man für die Information erzielen kann.
Siehe auch: http://home.t-online.de/home/0926161717-0001/definfo.htm
/Quellen
/Diskussion