Zum Inhalt springen

Information

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 5. November 2004 um 14:02 Uhr durch Duesentrieb (Diskussion | Beiträge) (Tätigkeiten: Informieren und ''sich informieren'': Diskussion bitte auf die Diskussionsseite!). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Information (lat. informare= bilden, durch Unterweisung Gestalt geben) ist potenziell oder aktuell vorhandenes, nutzbares oder genutztes Wissen. Wesentlich für die Information ist die Wiedererkennbarkeit sowie der Neuigkeitsgehalt anhand eines bestimmten Musters von Materie und/oder Energieformen in Raum und/oder Zeit: Das verwendete Muster entwickelt für einen Betrachter innerhalb eines bestimmten Kontextes Bedeutung und verändert dadurch dessen inneren Zustand - im menschlichen Zusammenhang insbesondere dessen Wissen.

Charakteristika des Informationsbegriffes

Information ist heute ein sehr weitläufig verwendeter und daher auch schwer abzugrenzender Begriff. Verschiedene Wissenschaften betrachten die Information als ihr Arbeitsgebiet, namentlich die Informatik, die Informationstheorie und die Informationswissenschaft, die Nachrichtentechnik, die Informationsökonomik und die Semiotik, doch auch die Physik und die Biologie beschäftigen sich mit Information. Diese Ansätze unterscheiden sich zum Teil erheblich.

Erst in jüngster Zeit gibt es Bestrebungen, die einzelnen Ansätze zu verbinden und zu einem allgemeingültigen Informationsbegriff zu kommen. Entsprechende Literatur findet sich derzeit meist unter dem Stichwort Philosophie in den Regalen. Von einer vereinheitlichten Theorie der Information kann vorläufig noch nicht gesprochen werden.

Im allgemeinen Sprachgebrauch sowie in einigen Wissenschaften (Semiotik, Informationswissenschaften) wird "Information" mit "Bedeutung" oder "übertragenem Wissen" gleichgesetzt. Eine eingeschränktere Sichtweise des Begriffes die heute von großer praktischer Bedeutung ist (Computertechnik) stammt aus der Nachrichtentechnik. Die wegweisende Theorie dort ist diejenige von Claude Shannon. Er betrachtet die Information erst einmal völlig von jeglicher Bedeutung gelöst, das heißt ihn interessieren die statistischen Aspekte (Unterscheidbarkeit von Zuständen). Das unmittelbare Ziel seiner Überlegungen ist die optimale Übertragung von Information in einem Nachrichtenkanal (Telefonie, Funk).

In diesem Artikel wird versucht die verschiedenen Ebenen Statistik, Struktur und Bedeutung zu unterscheiden und auf die Bezüge zwischen diesen Ebenen einzugehen.

Struktur und Bedeutung

Eine Sichtweise geht vom Informationsträger aus. Die Frage welche Struktur sich innerhalb dieses Trägers feststellen lässt wird untersucht.

Der andere Ansatz bemüht sich zu verstehen, welche Bedeutung dem zukommt, was man dann (irgendwie) diesem Informationsträger entnommmen hat.

Die erste Sichtweise hat ihre Wurzeln in der Nachrichtentechnik, die zweite in den Kognitionswissenschaft, der Sprachwissenschaft oder allgemein in der Geisteswissenschaft. Eine nachrichtentechnisch erkennbare Struktur (beispielsweise Lichtimpulse, die in einer zeitlichen Reihenfolge auf einzelne Zellen in der Netzhaut treffen) muss in einem komplexen Dekodierungsprozess in eine Bedeutung übersetzt werden.

Wo hier die reine Strukturinformation aufhört, und beginnt, eine Bedeutungsinformation zu werden, wo also in diesem Dekodierungsprozess die Grenze zum Bewusstsein zu ziehen ist, ist eine der spannenden Fragen der Informations- und Kognitionswissenschaften. Je tiefer man die Grenze ansetzt, um so metaphysischer wird die strukturelle Information. Als Beispiel sei die DNA erwähnt: Ist die in der DNA gespeicherte Erbinformation nur Struktur oder schon Bedeutung? Oder wird sie vielleicht erst zur Bedeutung, indem sie benutzt wird, also zur Herstellung von Proteinen dient?

Aus diesen Betrachtungen ergeben sich vier Ebenen, unter denen der Begriff der Information heute allgemein betrachtet wird. Diese sind

  1. Codierung
  2. Syntax
  3. Semantik
  4. Pragmatik

Diese Ebenen steigern sich im Hinblick auf den Bedeutungsgehalt der Information. Sie spiegeln dabei auch die oben erwähnten theoretischen Angriffspunkte wider, wobei die Codierungs-Ebene der Sichtweise der Nachrichtentechnik nahekommt, die Syntaxebene die Sichtweise der Linguistik oder der Theorie der formalen Sprachen wiedergibt, die semantische Ebene Ansätze aus der Semiotik oder Semantik integriert, und die Pragmatik eher auf Konzepte der Kognitionswissenschaften zurückgreift.

Die vier Ebenen sollen an der Zeichenfolge "ES IST WARM" erläutert werden:

Code-Ebene

Die Zeichenfolge "ES IST WARM" ist zu kurz für eine statistische Betrachtung. Bei längeren Texten wird aber klar, dass nicht alle Elemente der Zeichenfolge (Buchstaben) gleich häufig vorkommen. Gewisse Buchstaben wie zum Beispiel die Buchstaben e und t - in unserem Beispiel aber s - sind häufiger als andere. Diese Tatsache kann bei der Informationsübertragung genutzt werden um Übertragungszeit zu sparen. Als Beispiel seien die Huffman-Codes erwähnt. Sie stellen ein Verfahren dar, mit dem Information effizient übermittelt und gespeichert werden kann. Viele weitere Verfahren existieren. Auf dieser Ebene sind auch Fragen nach der Wahl von optimalen Codes für einen bestimmten Zweck interessant (Chiffrierung, ASCII-Code, Unicode, Braille-Schrift, Flaggenalphabet, Genetischer Code, ...)

Syntaktische Ebene der Information

Auf der syntaktischen Ebene wird Information nur als Struktur gesehen, die es zu übermitteln gilt. Der Inhalt der Information ist hierbei im Wesentlichen uninteressant. Beispielsweise könnte das Problem darin bestehen, das Bild einer Kamera auf einen Monitor zu übertragen. Das Übertragungssystem interessiert sich dabei beispielsweise nicht dafür, ob es das Bild überhaupt wert ist, übertragen zu werden (Einbrecher macht sich am Fenster zu schaffen) oder nicht (Katze läuft am Fenstersims entlang), oder ob überhaupt etwas zu erkennen ist (auch das Bild einer komplett unscharf eingestellten Kamera wird vollständig übertragen, obwohl es da eigentlich nichts erkennbares zu sehen gibt). Der Informationsgehalt ist dabei ein Maß für die maximale Effizienz, mit der die Information verlustfrei übertragen werden kann.

Unterscheidbarkeit und Informationsgehalt

Grundprinzip der syntaktischen Information ist die Unterscheidbarkeit: Information enthält, was unterschieden werden kann. Eine Unterscheidung setzt jedoch mindestens zwei unterschiedliche Möglichkeiten voraus.

Sind es genau zwei Möglichkeiten, so lässt sich die Unterscheidung mit einer einzigen Ja/Nein-Frage klären. Beispiel: Angenommen, auf einer Speisekarte gibt es nur zwei Gerichte, Schnitzel und Spaghetti. Um herauszufinden, was jemand bestellt hat, braucht man ihm nur eine einzige Frage zu stellen: "Haben Sie Schnitzel bestellt?" Lautet die Antwort "Ja", so hat er ein Schnitzel bestellt, lautet die Antwort "Nein", so hat er Spaghetti bestellt (denn etwas anderes gibt es ja nicht zu bestellen).

Sind hingegen mehr als zwei Möglichkeiten vorhanden, so kann man dennoch mittels Ja-Nein-Fragen herausfinden, welche Alternative zutrifft. Eine einfache Möglichkeit wäre, einfach der Reihenfolge nach alle Gerichte abzufragen. Jedoch ist das eine recht ineffiziente Methode: Wenn ein Gericht gegen Ende der Speisekarte bestellt wurde, braucht man sehr viele Fragen, um es herauszufinden. Günstiger ist es, wenn man beispielsweise erst fragt: "Haben Sie ein Fleischgericht bestellt?", um dann konkreter zu werden, "War es Schweinefleisch?", so dass schließlich nur noch wenige Alternativen übrig bleiben ("War es Schweineschnitzel?", "Schweinebraten?", "Schweinshaxe?").

Auch die Wahrscheinlichkeiten spielen bei einer optimalen Fragestrategie eine Rolle: Wenn man beispielsweise weiß, dass die Hälfte aller Gäste Schweineschnitzel bestellt, so ist es sicher sinnvoll, erst einmal nach Schweineschnitzel zu fragen, bevor man den Rest der Karte durchgeht.

Der Informationsgehalt einer Struktur bestimmt sich nun dadurch, wieviele Ja-Nein-Fragen man im Mittel bei einer idealen Fragestrategie braucht.

Interessant ist hierbei, dass zwar vordergründig keinerlei semantische oder pragmatische Informationen verwendet werden, diese jedoch implizit in Form der Wahrscheinlichkeit dennoch eingehen. Beispielsweise ist die Tatsache, dass 50% der Gäste Schweineschnitzel bestellen, nicht aus der Speisekarte zu erkennen; es ist eine pragmatische Information. Und dass man normalerweise nicht nach der Bestellung von "Wir wünschen Ihnen einen guten Appetit" fragt, folgt aus der semantischen Information, dass dies keine Speise ist, und es daher höchst unwahrscheinlich ist, dass jemand dies bestellt.

Siehe auch: Informationstheorie

Binarisierung und die Wahrscheinlichkeit von Zeichen

Die Zeichenfolge "ES IST WARM" enthält nur Großbuchstaben. Wenn wir einmal nur davon ausgehen, dass wir nur Großbuchstaben zur Verfügung hätten (also 27 Buchstaben einschließlich Leerzeichen), so können wir an jeder der elf Stellen der obigen Nachricht eines der 27 Zeichen setzen. Jede Stelle der Nachricht hat also 27 mögliche "Zustände". Den Code den wir hier verwenden hat also 27 Stellen.

Von grosser technischer Bedeutung ist aber der Binärcode. Jeder Code wird durch eine Folge von Bits dargestellt. Ein Bit unterscheidet nur zwischen zwei möglichen Zuständen, die man durch eins und null darstellt. Damit wir 27 verschiedene Zustände darstellen können benötigen wir mehrere Bits - in diesem Fall genau fünf. Damit kann man 2 hoch 5 = 32 Zustände unterscheiden.

Ein naheliegender, möglicher Binärcode sieht wie folgt aus:

  A    00001
  B    00010
  C    00011
  D    00100
  E    00101
  ..   ..... 
  <LZ> 11100   (Leerzeichen)

Unsere Nachricht hieße dann "00101 10011 11100 01001 10011 10100 11100 ... 01101".

Nun ist die obige Codierung der Buchstaben in fünf Ja/Nein-Entscheidungen nicht die allein gültige. Im Rahmen der klassischen Informationstheorie wird nämlich der Informationssequenz aus statistischer Sicht betrachtet. So kann berücksichtigt werden, wie häufig ein bestimmtes Zeichen des Zeichenvorrats verwendet wird, mit anderen Worten, wie wahrscheinlich sein Auftreten ist. So ist beispielsweise der Buchstabe "E" im Deutschen häufiger als der Buchstabe "Y".

Berücksichtigt man diese Auftretenswahrscheinlichkeit der Zeichen im Zeichenvorrat, so kann man die Anzahl der benötigten Ja/Nein-Entscheidungen, die zum Erkennen eines Zeichens notwendig sind, je nach Zeichen unterschiedlich groß machen. Ein solche Codierung nennt man auch Entropiekodierung. Damit benötigt man, um ein häufig auftretendes Zeichen zu codieren, weniger Bits, als für ein selten auftretendes Zeichen. Ein Zeichen hat also einen um so höheren Informationsgehalt (benötigt zur Erkennung eine höhere Anzahl an atomaren Entscheidungseinheiten, an Bits) je seltener es auftritt.

Siehe auch: Entropie (Informationstheorie)

Semantische Ebene der Information

Strukturierte, syntaktische Informationen werden erst verwertbar, indem sie gelesen und interpretiert werden. Das heißt, zur Strukturebene muss die Bedeutungsebene hinzukommen. Dazu muss ein bestimmtes Bezugssystem angelegt werden, um die Strukturen in eine Bedeutung überführen zu können. Dieses Bezugssystem bezeichnet man als Code. Im obigen Beispiel muss man also "wissen", was warm bedeutet.

Jedoch ist die Überführung von Syntax in Semantik selten so direkt; in der Regel wird die Information über sehr viele unterschiedliche Codes immer höherer semantischer Ebene verarbeitet: Dabei wird auf den unterschiedlichen semantischen Ebenen wiederum Informationsverarbeitung auf strukturell-syntaktischer Ebene geleistet: Die Lichtimpulse, die gerade auf Ihre Netzhaut treffen, werden dort von Nervenzellen registriert (Bedeutung für die Nervenzelle), an das Gehirn weitergeleitet, in einen räumlichen Zusammenhang gebracht, als Buchstaben erkannt, zu Worten zusammengefügt. Während dieser ganzen Zeit werden Nervenimpulse (also Strukturinformationen) von einer Gehirnzelle zur nächsten geschossen, bis sich auf diese Weise in ihrem Bewusstsein die durch Worte nur unzureichend wiedergebbaren Begriffe für "warm", "jetzt", und "hier" zu formen beginnen, die dann im Zusammenhang eine Bedeutung haben: Sie wissen jetzt, dass es bei diesen Worten um die Feststellung geht, dass es warm (und nicht etwa kalt) ist.

Zusammengefasst:

  • Strukturinformation wird in einem Dekodierungsprozess in Semantik (Bedeutung) überführt.
  • Dabei wird Strukturinformation stufenweise über Codes in andere Strukturinformation überführt, wobei sich auf den unterschiedlichen sematischen Stufen jeweils Bedeutung für das verarbeitende System entwickelt.
  • Information kann weitergegeben werden, ohne dadurch weniger zu werden. Information wird durch Weitergabe also quasi verdoppelt. Mit Materie oder Energie geht das nicht.

Siehe auch: Kodierung, Kommunikation (Informationstheorie)

Pragmatische Ebene der Information

Diese kommt dem umgangssprachlichen Informationsbegriff am nächsten. Die Aussage, dass es warm ist (die wir nun semantisch richtig interpretiert haben, wir wissen, was diese Botschaft uns sagen will), hat echten Informationscharakter, wenn wir uns mittags um zwölf nach einer durchzechten Nacht noch halb schlaftrunken überlegen was wir anziehen sollen, und uns die Freundin mit den Worten "es ist warm" davon abhält, in den Rollkragenpullover zu schlüpfen. Der pragmatische Informationsgehalt der - semantisch exakt gleichen - Aussage ist aber gleich null, wenn wir bereits im T-Shirt auf dem Balkon sitzen und schwitzen. Diese Information bietet uns nichts neues. Smalltalk ist eine Art des Informationsaustausches, bei dem die offensichtlich über die Sprache ausgetauschten semantischen Informationen so gut wie keine pragmatische Information darstellen - wichtig sind hier die Körpersignale, deren Semantik (Freundlichkeit, Abneigung) wir erkennen und pragmatisch (mag er/sie mich?) verwerten können.

In diesem pragmatischen Sinne ist wesentliches Kriterium von Information, dass sie das Subjekt, das die Information aufnimmt, verändert, was konkret bedeutet, dass sich die Information, die potentiell dem Subjekt entnommen werden kann, verändert.

Zusammengefasst:

  • Information ist ein Gewinn an Wissen
  • Information ist die Verringerung von Ungewissheit
  • Information ist eine Mitteilung, die den Zustand des Empfängers ändert.
  • Information ist übertragbar, beispielsweise als Nachricht; Auskunft; Belehrung, Aufklärung

Bezüge zwischen den Ebenen

Wenn man das Phänomen Information betrachtet, sind die vier Ebenen im Zusammenhang zu betrachten. Damit Information stattfindet sind Vereinbarungen auf allen vier Ebenen notwendig.

Bereits die strukturelle Ebene setzt eine Semantik voraus, innerhalb derer die Symbole dekodiert werden: Die Struktur der DNA codiert im Rahmen des Genetischen Codes bestimmte Proteine: Um diese Struktur innerhalb der DNA überhaupt zu erkennen, muss bereits die Semantik des genetischen Codes berücksichtigt werden. Denn das DNA-Molekül kann durchaus noch andere Informationen tragen: So ist zum Beispiel die "Doppelhelixstruktur" der Ausdruck einer anderen Semantik, nämlich der des räumlichen Erscheinungsbildes des Moleküls.

Auch stellt die semantische Verarbeitung (beispielsweise das Zusammenfassen von Buchstaben zu Wörtern) wiederum syntaktische Information (nämlich eine Abfolge von Wort-Symbolen) her. Letztlich definiert sich auch die pragmatische Ebene nicht zuletzt dadurch, dass sie selbst neue Information syntaktischer Natur schaffen muss (sonst hätte die Information keine Wirkung entfaltet). Aufgrund des engen Zusammenspiels zwischen semantischen Dekodierungsprozess und Wirkentfaltung in der Pragmatik, die beide wiederum syntaktische Informationen als End- und Zwischenprodukte generieren, werden manchmal diese beiden Ebenen auch zur Semantopragmatik verschmolzen.


Physik und Information

Der Begriff der Information gewinnt in der Physik mehr und mehr an Bedeutung. Die erste Theorie, die eine Verbindung zwischen der Physik und der Informationstheorie aufzeigte, war die statistische Mechanik. Die Quantenmechanik schließlich zeigt den Weg zu einer völlig neuen Art von Information. Siehe dazu auch Informationsübertragung (Physik).

Information und statistische Mechanik

Mit der Thermodynamik wurde auch eine neue Größe in der Physik eingeführt: Die Entropie. Diese Größe zeigt ein ungewöhnliches Verhalten: Sie kann in einem geschlossenen System nicht ab-, sondern nur zunehmen. Diese Eigenschaft ist in Form des 2. Hauptsatzes eine der Grundlagen der Thermodynamik.

Die statistische Mechanik, die die Thermodynamik auf ungeordnete mikroskopische Bewegungen zurückführt, erklärt nun die Entropie über die Wahrscheinlichkeit von Bewegungszuständen. Die Formel, die dabei auftritt, ist bis auf einen konstanten Vorfaktor gerade die Formel für die Informationsentropie. In der Tat lässt sich die statistische Mechanik vollständig aus dem Prinzip der maximalen Entropie herleiten, das darauf beruht, bei nur teilweise bekannten Daten stets davon auszugehen, dass die (durch die Informationsentropie beschriebene) Unkenntnis über das System maximal ist.

Ein anschauliches Beispiel, wie der 2. Hauptsatz der Thermodynamik mit der Information zusammenhängt, liefert der Maxwellsche Dämon. Der Maxwellsche Dämon umgeht den zweiten Hauptsatz, indem er an einem kleinen Loch zwischen zwei Gasbehältern sitzt, das durch eine reibungsfreie Klappe verschlossen werden kann. Das Loch ist so klein, dass nur ein Gasmolekül gleichzeitig hindurchfliegen kann. Der Dämon beobachtet nun die Gasmoleküle, die auf das Loch zufliegen. Kommt von links ein schnelles Molekül oder von rechts ein langsames Molekül, so macht er die Klappe auf, so dass es durchkann. Kommt hingegen von links ein langsames oder von rechts ein schnelles Molekül, so schließt er die Klappe. Dadurch sammeln sich links die langsamen und rechts die schnellen Moleküle, das heißt der rechte Behälter heizt sich auf und der linke kühlt sich ab, ohne dass Arbeit verrichtet werden müsste, im Widerspruch zum 2. Hauptsatz. Durch Information (ist das Molekül ein "erwünschtes" oder "unerwünschtes"?) wird also scheinbar ein physikalisches Gesetz "ausgehebelt".

Die Lösung des Problems liegt darin, dass der Erwerb (beziehungsweise das anschließende Vergessen) der Information seinerseits Entropie (also Wärme) produziert, die groß genug ist, um die Entropieverringerung der Behälter auszugleichen. Eine Folge davon ist, dass nach heutigen Konstruktionsprinzipien aufgebaute Computer bei gegebener Temperatur einen inhärenten Energieverbrauch pro Operation haben, der prinzipiell nicht unterschritten werden kann (heutige Computerchips sind jedoch noch weit von dieser prinzipiellen Grenze entfernt).

Quanteninformation

Die Quantenmechanik zeigt, dass Quantenobjekte eine Art Information enthalten, die nicht über klassische Kanäle (also beispielsweise als Folge von Nullen und Einsen) übertragen werden kann. Außerdem kann man Quanteninformation nicht kopieren (ohne die Originalinformation im Original zu zerstören).

Die besonderen Eigenschaften der Quanteninformation ermöglichen Anwendungen, die mit klassischer Information nicht möglich sind, wie Quantencomputer und Quantenkryptographie.

Kommunikationsmodell der Information

Das Verständnis der syntaktischen Ebene war lange Zeit gekennzeichnet durch das Sender-Empfänger-Modell: Ein Sender will eine Information dem Empfänger mitteilen. Dazu codiert er seine Information nach bestimmten Prinzipien (beispielsweise als Abfolge von Nullen und Einsen nach dem oben erwähnten Prinzip) in einen Informationsträger, der Empfänger wertet diesen Informationsträger aus, denn auch er kennt den Code, und erhält dadurch die Information (siehe auch: Kommunikation).

Nicht immer ist jedoch ein menschlicher Sender vorhanden, der uns etwas mitteilen will. Ein typisches Beispiel ist die Messung: Dem physikalischen System ist es, bildlich gesprochen, völlig egal, was wir von ihm denken. Das Ziel der Messung ist eine Informationsübertragung vom gemessenen System zu dem, der die Messung durchführt (man misst, um etwas über das gemessene System zu erfahren).

Ein Beispiel ist die Geschwindigkeitsmessung per Radarfalle: Das Auto hat keine Intention, seine Geschwindigkeit zu verraten (und der Autofahrer meist auch nicht). Dennoch gewinnt der Polizist durch die Messung Information über die Geschwindigkeit. Für die Gewinnung der Information wird ein physikalisches Gesetz genutzt, der (Dopplereffekt), das von einem Ingenieur aufgegriffen wurde um das Gerät zu konstruieren. Die Polizei setzt das Gerät ein und veranlasst somit, dass Information erzeugt wird. Die unmittelbare Erzeugung von Information hingegen wird damit an einen Apparat delegiert.

Zusammengefasst:

  • Damit Information vorliegt muss Materie oder Energie eine Struktur aufweisen.
  • Syntaktisch entspricht Information der Auftretenswahrscheinlichkeit eines bestimmten Symbols innerhalb eines definierten Dekodierungsschemas
  • Information ist eine räumliche oder zeitliche Folge physikalischer Signale, die mit bestimmten Wahrscheinlichkeiten oder Häufigkeiten auftreten.
  • Der Informationsgehalt einer Nachricht ergibt sich aus der Anzahl der ja/nein-Möglichkeiten, für die in der Nachricht einer der Werte festgelegt ist.

Siehe auch: Informationsübertragung (Physik)


Informationstransport

Interessant ist es, dass Information, die an Materie als Informationsträger gebunden ist, auf Elektromagnetische Wellen übertragen werden kann. Diese Information kann, da masselos, dann im Prinzip mit Lichtgeschwindigkeit transportiert werden. Schließlich kann die Information wieder zurück an Materiestrukturen gebunden werden. Ein Beispiel für so einen Übertragungsprozess ist das Telefax. Dabei wird die Information eines bestimmte Schriftstückes mit Lichtgeschwindigkeit über große Entfernungen transportiert und am Ziel auf ein zweites Schriftstück mit exakt demselben Informationsinhalt übertragen.

Allgemeiner: Um Informationen zu transportieren ist ein Informationsträger nötig.

(Kritische Anmerkung: Auch während der Übertragung der Informationen mit Hilfe von elektromagnetischen Wellen ist sie an Materie gebunden. Lediglich die Ruhemasse der Teilchen der Strahlung (Photonen) ist Null. Man sollte vielleicht deshalb besser von stofflosem anstelle von masselosem Transport sprechen. Dieselbe Kritik gilt auch an einigen anderen Stellen dieses Artikels. Es ist wahrscheinlich besser, überall statt "Materie und Energie" "Stoff und Energie" zu verwenden, die beide verschiedene Ausprägungen von Materie sind.)

Digitale Information

Digitale Information entsteht durch Digitalisierung beliebiger Information. Das Ergebnis sind Daten.

Obwohl für die Messung von digitalen Informationsmengen, für Informationsströme und für die Informationsspeicherung das Bit und das Byte als Basiseinheiten vorliegen, wird die Informationsmenge immer noch gerne an Hand des jeweiligen Informationsträgers quantifiziert. So kann man die digitale Informationsmenge, die in einem Buch steht, leicht und anschaulich an der Seitenzahl oder an der Zahl der Wörter ablesen.

Siehe auch: Dualsystem, Informationstheorie

Definition der Information in verschiedenen Fachrichtungen

Zum Abschluss sollen hier die einzelnen Fach- und Forschungsrichtungen zu Wort kommen, die je ihr eigenes Verständnis der Information haben. Deutlich wird dabei jeweilige Ansatz auf den unterschiedlichen, oben geschilderten Ebenen zwischen der reinen Syntax bis zur Pragmatik, teilweise auch mit der besonderen Betonung des Transportcharakters von Information.

Semiotik

Die Semiotik versteht unter Informationen zweckorientierte Daten, die das Wissen erweitern. In älterer Literatur sind sie oft noch als zweckorientiertes Wissen definiert.

Informationswissenschaft

Die Informationswissenschaft verwendet den Begriff der Information ähnlich zum semiotischen Ansatz. Für sie sind die Begriffe Wissen und Information von zentraler Bedeutung. Information ist dabei Wissenstransfer beziehungsweise "Wissen in Aktion". Information entsteht in diesem Sinne immer nur punktuell, wenn ein Mensch zur Problemlösung Wissen (eine bestimmte Wissenseinheit) benötigt. Diese Wissenseinheit geht als Information aus einem Wissensvorrat in einen anderen über, beispielsweise aus einer Datenbank in den Wissensvorrat eines Menschen. Wissen wird intern repräsentiert, Information wird - zum besseren Verständnis für den Informationssuchenden - präsentiert. (Wissensrepräsentation - Informationspräsentation).

siehe auch Informationsmanagement

Information als Wirtschaftsgut

Information kann als wirtschaftliches Gut angesehen werden, da Information im Unternehmen durch Einsatz anderer Produktionsfaktoren (Menschen, Computer, Software, Kommunikation, etc.) produziert, oder von außen angekauft werden kann. Information hat somit einen Wert, der handelbar ist. Der Wert ergibt sich aus dem Nutzen der Information und den Kosten zur Produktion, Bereitstellung und Weiterleitung. Problematisch hierbei ist, dass der potenzielle Käufer den Wert der Information nicht immer im voraus kennt und sie teilweise erst nachdem er sie erworben hat, bewerten kann. Bereits der angestrebte Handel mit Information ist dabei mit dem Problem asymmetrischer Information behaftet.

Weiterhin kann man Information auch als Produktionsfaktor verstehen. Information wird somit nicht nur konsumptiv genutzt, sondern kann auch produktiv verwendet werden.

Dokumentations- und Ordnungslehre

W. Gaus schreibt in seinem Werk Dokumentations- und Ordnungslehre (Gaus, W. [1995], , Berlin Heidelberg 1995) dass Information unter verschiedenen Aspekten betrachtet werden kann

  1. Struktur = structure approach
  2. Erkenntnis = knowlegde approach
  3. Signal = signal approach
  4. Nachricht = message approach
  5. verstandene Nachricht = meaning approach
  6. Wissensvermehrung = effect approach
  7. Vorgang = process approach

Ontologische Fragestellung

Nach gegenwärtigem Stand des Wissens ist das Vorhandensein von Information immer an das Vorhandensein von Materie beziehungsweise Energie gebunden. Diese dienen als Informationsträger: Information ist räumliche und/oder zeitliche Struktur innerhalb eines Informationsträgers, und kann daher ohne diesen nicht existieren. Inwieweit Information als dritte, eigenständige Grundkomponente neben Materie und Energie an der Struktur des Universums und des Lebens beteiligt ist, ist nicht klar.

Interessant ist jedoch die Beobachtung, dass das Universum sich zu einem Zustand hoher Entropie hinbewegt, die Evolution es dagegen fertigbringt, unter Einsatz von Information diesem Trend entgegenzuwirken, lokal die Entropie zu verringern und sehr komplexe Strukturen zu schaffen. Insbesondere in der Philosophie wird daher auch immer wieder in eine Richtung gedacht, der Information eine eigene Existenz unabhängig von Energie und Materie zuzuschreiben. Diese Sichtweise findet sich zum Beispiel bereits bei Platos Ideenlehre. Würden sich Belege für die Existenz solcher "reiner Informationen" finden lassen, wären auch reine Geistwesen denkbar.

Siehe auch: Ontologie


Verwandte Themenkomplexe

Der Begriff der Information ist eng verknüpft mit Fragestellungen im Themenkomplex "Wissen". Dazu gehört insbesondere das Problem der Definition von Komplexität, die sich über die algorithmische Tiefe eines informationsverabeitenden Prozesses beschreiben lässt. Weiterhin zählen hierzu Betrachtungen über den Unterschied zwischen Zufall und Ordnung sowie der Begriff der Unterscheidbarkeit und der Relevanz.

Ebenfalls wichtig ist in diesem Zusammenhang der Begriff der Kommunikation, das diese den Informationsbegriff voraussetzt. Andersherum ist es auch so, das häufig Argumentiert wird, dass kommunizierbarkeit eine wesentliche Eigenschaft von Information sei.



Weiterführende Angaben

Siehe auch

Literatur

  • Gitt, Werner: Am Anfang war die Information, 2. überarbeitete Auflage, Neuhausen / Stuttgart 1994
  • Nørretranders, Tor: Spüre die Welt, Rowohlt, 1994; ISBN 3-4980-4637-3; eine verständliche Einführung in die Welt der Information, der Entropie und des Bewußtseins
  • Lyre, Holger: Informationstheorie, Wilhelm Fink Verlag, München 2002; ISBN 3-7705-3446-8, Einführung in die Informationstheorie mit Ausblick auf die aktuellen Forschungen Lyres zur Quantentheorie der Information. Kenntnisse der Quantenphysik werden jedoch vorausgesetzt.