Zum Inhalt springen

Information

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 3. März 2003 um 14:24 Uhr durch Stefan Kühn (Diskussion | Beiträge). Sie kann sich erheblich von der aktuellen Version unterscheiden.


Definition des Begriffes Information

Es ist schwierig, eine allgemeine Definition von Information zu geben. Ansätze hierzu aus der Biologie, der Informatik, der Linguistik und der Philosophie unterscheiden sich zum Teil erheblich. Deshalb hier eine kurze Liste alternativer Definitionen.

  • Information setzt sich aus Struktur und Bedeutung (Semantik) zusammen. Die Struktur der Information "Es ist heiß" wäre beispielsweise die Abfolge der Zeichen "E","s"," ","i", usw. Die Bedeutung besteht darin, dass die Temperatur hoch ist.
  • Eine rein zufällige Struktur (z.B. "cxffecdfröäfröe") ist bedeutungslos, wenn man von der Länge der Zufallsfolge oder der Bedeutung der daran beteiligten Elemente absieht.
  • Information hat Struktur.
  • Information kann nicht nur Struktur und Bedeutung haben, sondern auch Pragmatik, d.h. sie kann bestimmte Handlungen bewirken.


Wir unterscheiden in diesem Text zwischen reinen Strukturen und Information:

  • Reine Struktur = Information ohne Berücksichtigung der Bedeutung
  • Information = Struktur mit Bedeutung

Unter reiner Information kann man dann Information verstehen, die losgelöst von Materie oder Energie existiert. Es ist eine große Streitfrage der Physik, der Informationstheorie und der Philosophie, ob reine Information wirklich nachweisbar sein wird oder ob Information immer nur gebunden an Materie bzw. Energie vorkommt.

Die folgende Liste nennt Themen und Fragestellungen, die sich um den Begriff Information ranken und bereits so umfangreich geworden sind, dass ihnen eigene Unterseiten oder sogar eigene Einträge gewidmet sind. Weitere Themen befinden sich im weiteren Verlauf dieser Seite.

Eigenschaften von Information

  • Strukturebene
    • In jeder Art von Struktur oder Muster von Materie oder Energie steckt Information.
    • Information ist eine räumliche oder zeitliche Folge physikalischer Signale, die mit bestimmten Wahrscheinlichkeiten oder Häufigkeiten auftreten.
    • Alles, was man als Folge von 0 und 1 darstellen kann, ist Information
  • Bedeutungsebene
    • Information ist Gewinn an Wissen
    • Information ist beseitigte Ungewissheit
    • Information ist übertragbar, z.B. als Nachricht; Auskunft; Belehrung, Aufklärung
    • Information als (zusammensetzende) Mitteilung, die beim Empfänger ein bestimmtes Verhalten bewirkt.
    • Information kann weitergegeben werden, ohne dadurch weniger zu werden. Information wird durch Weitergabe also quasi verdoppelt. Mit Materie oder Energie geht das nicht.
    • (Information ist eine Folge von Daten)

Wo steckt überall Information drin?

Fangen wir bei der Erklärung des Begriffes Information zunächst mit leicht einsehbaren Aussagen aus dem heutigen Alltagsleben an.

Information im praktischen Alltag:

Information steckt in der Sprache, in der Schrift, in Büchern, auf Tonbändern, auf Disketten, in Zeitungen, im Rundfunk, im Fernsehen, in gemalten Bildern, in Fotos, in Verkehrszeichen, in der Farbe, in der Form, in der Temperatur, im Gesichtsausdruck, in der Telefonleitung, im Funkverkehr, im Erbgut, in den Nervenströmen, im Geschmack, im Geruch und in vielem anderen.

Wo findet man offensichtlich keine Information?

Im Vakuum, das heißt im luftleeren Raum, ist keine Information zu finden. Aber schon in der äußeren Form, die das Vakuum begrenzt, findet sich Information. Auch können physikalische Felder ein Vakuum durchkreuzen. In diesen Feldern steckt dann potentielle Information.

Steckt in einem Stein Information?

Auch ein Stein kann Information tragen: in seiner Herkunft, in seiner chemischen Zusammensetzung, in Größe, Gewicht, Temperatur, in Form, Oberfläche,Farbe etc.

Informationsträger

Informationsträger im weiteren Sinn sind Dinge, die nur über sich selber Auskunft geben. Dazu zählen beispielsweise Steine.

Informationsträger im engeren Sinne sind Dinge, die von Lebewesen zur Übertragung oder Speicherung von Information genutzt werden können. So kann man beispielsweise mehrere kleine Steine zum Abzählen benutzen.

Was kann als Informationsträger dienen?

Schallwellen, elektromagnetische Wellen, Lichtwellen, Schrift, Materiestruktur und Stoffkonzentrationen sind Beispiele für Informationsträger.

Information gibt es nur in Systemen, die mehrere mögliche Zustände einnehmen können. Wichtige Informationen sollte man immer mindestens doppelt aufbewahren. Dies bemerkten übrigens schon Herr James Watson und Herr Francis Crick als sie den Aufbau der DNS erforschten.

Zum Thema Informationsträger existiert ein zentrales Dogma der Informationstheorie und dieser lautet:

Information ohne Informationsträger gibt es nicht.

Vielleicht kommt dieses Dogma mit der postulierten Existenz von Infonen nochmal auf den Prüfstand. Die Gretchenfrage der Informationstheorie lautet also:

Gibt es Beispiele für reine, nackte Information ohne Informationsträger? 

Kann man diese Frage mit Ja beantworten, dann wäre auch die Existenz eines reinen Geistwesens denkbar. Bislang ist sie zu verneinen.

Welche Anforderungen sind an Informationsträger zu stellen?

  • Sie müssen abgelesen werden können.
  • Sie müssen zuverlässig sein.
  • Sie müssen Bestand haben.
  • Sie dürfen nicht überschreibbar sein.
  • Sie müssen überschreibbar sein.


In den zwei letzten Anforderungen scheint ein Widerspruch zu stecken. Dieser Widerspruch löst sich aber auf, wenn man weiß, wozu man einen Informationsträger benutzen will. Braucht man ihn als immer wieder zu benutzende Arbeitsumgebung, dann muss er löschbar sein. Braucht man ihn, um ein Dokument zu bewahren, dann sollte er nicht löschbar sein.

Beispiele für löschbare und neu beschreibbare Informationsträger:

Beispiele für nicht neu beschreibbare Informationsträger:

Die Begriffe RAM und ROM kommen aus der Computertechnik und heißen Random Access Memory (beliebig beschreibarer und löschbarer Arbeitsspeicher) und Read Only Memory (nur lesbarer Speicher).

Ein großes Problem ist mittlerweile das Altern von Informationsträgern geworden. Nicht nur Bücher, auch digitale Speichermedien sind einem Alterungsprozess unterworfen. Durch diesen Prozess kann es zu einer Zerstörung von wichtigen Informationen kommen.

Dieselbe Information kann auf völlig verschiedenen Informationsträgern transportiert oder gespeichert werden. Ein Beispiel:

Aus einem Eisenbahnfahrplan wird eine Information gelesen. Die Information steckt in den gedruckten Buchstaben des Fahrplans.
Über das reflektierte Licht wird die Information zum Auge übertragen: Die Information steckt in den elektromagnetischen Lichtwellen.
Über die Augen wird diese Information aufgenommen. Information in Sinneszellen der Augen und in den Nervenzellen der Sehbahn.
Die abglesene Uhrzeit soll einem anderen Menschen übers Telefon mitgeteilt werden. Information wird auf die Muskelzellen des Kehlkopfs übertragen.
Die Information wird mittels Schallwellen weitergeleitet. Die Information steckt in den Luftschwingungen.
Das gesprochene Wort wird in einem Telefonhörer in elektrische Signale umgewandelt. Die Information steckt in den elektromagnetischen Schwingungen.
Im Telefonhörer des Empfängers wird die Information wieder in Schallwellen umgewandelt. Die Information steckt in den Luftschwingungen.
Die Schallwellen aus dem Telefonhörer werden vom Trommelfell auf die Gehörknöchelchen weitergegeben. Die Information steckt in den mechanischen Bewegungen der Gehörknöchelchen.
Von den Gehörknöchelchen wird die Information auf das Wasser der Gehörschnecke übertragen. Die Information steckt in den Wasserwellen.
Von der Gehörschnecke wird die Information auf die Haarzellen übertragen. Die Information steckt in den Ausschlägen verschiedener Haarzellen.
Von den Haarzellen gehts weiter über die Nervenzellen der Gehörbahn ins Gehirn Die Information steckt in den Entladungen der Nervenzellen und den chemischen Überträgerstoffen der Synapsen.
Vom Gehirn wird die Information zu Hand weitergeleitet und auf ein Papier aufgschrieben. Die Information steht auf dem Papier: "Ich komme morgen abend mit dem Zug um 18 Uhr 32 bei dir an!"

Welche Arten von Information gibt es?

Wortfeld Information

  • Form, Muster, Struktur
  • Bildinformation
    • stehendes Bild
    • Film
  • Toninformation
  • Sprachinformation
  • Schriftinformation
  • biologische Information
    • genetische Information
    • Eiweißstruktur
    • Information in Hormonsystemen
    • Information in Nervensystemen
    • krankmachende Information
    • tödliche Information
  • Mathematische Informationen
    • Ordnung -- Unordnung
    • Entropie -- Negentropie
    • Zufallssequenz - nicht zufällige Sequenz
    • Beschreibbarkeit
    • Komplexität
    • Digitale Information - Analoge Information
  • Quanteninformation

Daten:

Digitalisierte Informationen bezeichnet man auch als Daten. Das heißt, sie sind zerlegt in eine Reihe von "Ja-Nein-Entscheidungen? oder Nullen und Einsen. Will man eine Informationsmenge betrachten, ganz unabhängig von ihrer Bedeutung, sollte man besser von Datenmenge sprechen.

Dateien:

Dateien sind gespeicherte Daten. Dateien können ausführbar sein oder nur Informationen enthalten.

Programme:

Programme bestehen aus einer oder mehreren Dateien, von denen mindestens eine ausführbar ist. Programme ermöglichen die Arbeit am Computer, denn sie enthalten Arbeitsanweisungen.

Sonstige Arten von Informationen:

  • falsche und richtige Informationen
  • teilweise richtige Informationen
  • neue und alte Informationen
  • bekannte und unbekannte Informationen
  • konkrete und abstrakte Informationen
  • Zufallsinformationen und geordnete, nicht zufällige Informationen
  • aktuelle und potentielle Information


Tödliche Information

In jedem Informationsverabeitenden System gibt es Informationssequenzen, die erheblichen Schaden anrichten können bzw. den Zusammenbruch des informationsverarbeitenden Systems zur Folge haben.

Informationstransport

Information kann mit Lichtgeschwindigkeit transportiert werden.

Interessant ist es, dass Information, die an Materie als Informationsträger gebunden ist, auf elektromagnetische Wellen übertragen werden kann. Diese Information kann dann mit Lichtgeschwindigkeit transportiert werden. Schließlich kann die Information wieder zurück an Materiestrukturen gebunden werden. Ein Beispiel für so einen Übertragungsprozess ist das Telefax. Dabei wird die Information eines bestimmte Schriftstückes mit Lichtgeschwindigkeit über große Entfernungen transportiert und am Ziel auf ein zweites Schriftstück mit exakt demselben Informationsinhalt übertragen.

Digitale Information

Nach Einführung der Computer ist bald klar geworden, dass Systeme, die nur mit zwei unterschiedlichen Zuständen arbeiten, wie Nein und Ja, An und Aus oder 0 und 1, für die Bearbeitung durch Computer am besten geeignet sind. Und so hat man bald eine weitere Basisaussage der Informationstheorie formuliert: Es ist der Satz von der Digitalisierbarkeit.

Alles, was man als Folge von 0 und 1 darstellen kann, ist Information.

Auch folgende Einschränkung dieses Satzes kann man wohl als richtig akzeptieren. Information ist nur das, was man als Folge von Null und Eins darstellen kann. Oder stimmt das nicht? Digitalisierung heißt also Darstellung als Folge von 0 und 1, oder allgemeiner: Darstellung in Form von Zahlenwerten.

Erst mit der massenhaften Einführung von Musik-CDs ist vielen Menschen diese Speicherungsmöglichkeit von Information als einfache Kette von 0 und 1 klar geworden. Dennoch bleibt es vielen Leuten unverständlich, wie man so etwas schönes wie Musik in so eine banale Folge aus Nullen und Einsen bringen kann. Will man es ketzerisch kommentieren, so kann man sagen: Schönheit ist digitalisierbar.

Es gibt ruhende, fixierte Information und es gibt aktive, gerade gelesene oder übertragene Information.
Es gibt potentielle = mögliche Information und aktuelle = tatsächliche Information. So steckt in einer Münze vor dem Werfen potentielle Information. Nach dem Werfen wird sie zu aktueller Information.

Information ist eine austauschbare Größe, die eng mit der Energie und Entropie verknüpft ist. Sie reduziert die Unbestimmtheit des Zustandes eines Systems. Die Informationsübertragung zwischen zwei Systemen ist immer mit Energie- und Entropieübertragung verknüpft. Dabei kann allerdings mit relativ wenig Energie viel Information übertragen werden (z.B. Telefonnetz). Andererseits kann mit der Übertragung von viel Energie relativ wenig Informationstransport verknüpft sein (z.B. Starkstromnetz der Überlandleitungen). Information und Energie sind nur in Ausnahmefällen direkt proportional.


Codierung

Natürlich kann man Information nicht nur als Folge von 0 und 1 darstellen, sondern man kann auch andere Darstellungsarten = Codes benutzen. So erhält man dann eine Abwandlung des obigen Lehrsatzes:

Alles was codierbar ist, ist Information.

Zu fragen ist dann natürlich: Ist jegliche Information codierbar? Gibt es nichtcodierbare Informationen? Was ist überhaupt ein Code? Oft verläuft eine Codierung auf verschiedenen Ebenen ab. Als Beispiel einer solchen stufenweisen Codierung kann man unsere gesprochene Sprache anführen: Laut oder Buchstabe, Silbe, Wort, Satz

Als Beispiel einer stufenweisen Computercodierung kann man anführen: Codierung eines Buchstabens im ANSI Code (ANSI Code=genormte Zahlendarstellung von Buchstaben) Codierung des ANSI Codes in einer Folge von 0 und 1

Weitere verbreitete Codes sind das Morsealphabet und die Brailleschrift.

Obwohl für die Messung von Informationsmengen, für Informationsströme und für die Informationsspeicherung das Bit und das Byte als Basiseinheiten vorliegen, wird die Informationsmenge immer noch gerne an Hand des jeweiligen Informationsträgers quantifiziert. So kann man die digitale Informationsmenge, die in einem Buch steht, leicht und anschaulich an der Seitenzahl oder an der Zahl der Wörter ablesen.

Quanteninformation

Die Quantenmechanik zeigt, dass Quantenobjekte eine Art Information enthalten, die nicht über klassische Kanäle (also z.B. als Folge von Nullen und Einsen) übertragen werden kann. Außerdem kann man Quanteninformation nicht kopieren (ohne das Original zu zerstören).

Die besonderen Eigenschaften der Quanteninformation ermöglichen Anwendungen, die mit klassischer Information nicht möglich sind, wie Quantencomputer und Quantenkryptographie.

Zufallsinformation und geordnete Information

Wenn man die drei Basisbegriffe der heutigen Naturwissenschaften Materie (= Stoff), Energie (= Strahlung) und Information (= Struktur) betrachtet, kann man fragen, wie der Begriff Information in weitere Subkategorien untergliedert werden kann. Die erste und wichtigste Unterteilung der Information ist dann die Unterscheidung zwischen Zufallsinformation und nicht zufälliger Information oder auch zwischen Zufallsstruktur und geordneter Struktur.

Ein Beispiel dazu: Betrachtet man eine binäre Datei einer bestimmten Länge z.B. mit 20 Stellen, dann kann man die Gesamtinformationsmenge ausrechnen, die mit 20 Stellen dargestellt werden kann: I = 220 = 1 048 576 Bit = 217 Byte = ca 130 kByte. Ein Teil der Möglichkeiten aus dieser Gesamtinformationsmenge sind reine Zufallsfolgen, der Rest sind mehr oder minder geordnete Folgen. Die Grenze zwischen beiden Bereichen ist nicht scharf zu ziehen, sondern nur mit einem Wahrscheinlichkeitsniveau von z.B. 95% festzulegen. Je weiter man von der Grenze weg ist, desto klarer ist die Zuordnung. Chaitin hat 2 Beispiele genannt:

  • Geordnete Reihe: 10101010101010101010
  • Zufall = 0, oder fast Null
  • Ungeordnete Reihe: 01101100110111100010

Beide Reihen haben dieselbe Länge und denselben Speicherplatzbedarf in kByte. Trotzdem unterscheiden sie sich fundamental. Ist die Menge an Zufall so etwas wie die Entropie einer Reihe, dann unterscheiden sich beide Reihen im Hinblick auf die Entropie sehr stark. Die erste Reihe hat eine Entropie von 0 oder nahe 0, die zweite Reihe hat eine Entropie von 20 bit.

Eine interessante Frage ist nun, wie hoch der Anteil der Zufallsfolgen an der Zahl der gesamten Möglichkeiten ist. Eine weitere interessante Frage ist, ob man die Nichtzufälligkeit irgendwie quantifizieren kann. Kann man z.B. sagen: Je stärker eine nichtzufällige Reihe komprimierbar ist, desto größer ist ihre Ordnung.

Dann ergeben sich die allgemeinen Aussagen: Der Anteil der Zufallsfolgen wächst mit der Anzahl der Gesamtmöglichkeiten, oder anders ausgedrückt: Je länger eine 01 Sequenz ist, desto mehr Möglichkeiten für Zufallsfolgen stecken in ihr.

Je geordneter eine ganz bestimmte 0/1 Folge ist, desto weniger Zufall steckt in ihr. Vor allem in dem Begriff der Komprimierbarkeit, den man zur Definition der geordneten Folge heranzieht, stecken einige Tücken. Er ist mathematisch nur schwer definierbar.

Bei kurzen 01 Sequenzen überlappen sich der geordnete und der Zufallsbereich am Anfang vollständig, je länger die Sequenzen werden, desto besser sind sie dem Bereich des Zufalls oder dem Bereich geordnete Folge zuzuordnen.

Trotzdem bleiben auch bei längeren 01 Folgen Überlappungen zwischen geordneten Folgen und Zufallsfolgen bestehen. Jede geordnete 01 Folge kann mittels eines guten Komprimierungsverfahrens in eine scheinbare Zufallsfolge überführt werden. Das Ergebnis schaut zufällig aus, in ihr steckt aber bedeutsame Information.

Umgekehrt kann man mittels komplizierter Rechenverfahren Zufallszahlen erzeugen, die ausschauen wie echte (z.B. gewürfelte) Zufallszahlen, die aber in Wirklichkeit das Ergebnis eines festgelegten Algorithmus sind. (Pseudozufallszahlen)


Es gibt redundante Informationen, das heißt es wird dasselbe noch einmal wiederholt. Redundanz ist wiederholte Information, also eigentlich überflüssige Information. Die Redundanz hilft einem, wichtige Informationen trotz eines teilweisen Informationsverlustes noch entziffern und benutzen zu können. Sie schützt also vor Informationsverlust. Es gibt die Möglichkeit bis zu einem gewissen Grad Information auch ohne Informationsverlust zu verdichten. Dies bewerkstelligen z.B. Kompressionsprogramme auf Computern wie ZIP oder ARC. Diese Verdichtungsprogramme haben bei der Übertragung von Information in Leitungen oder bei der Speicherung bei begrenztem Speicherplatz ihre Bedeutung.

Informationsbedeutung, Informationsqualität, Informationsgehalt, Semantik

Die Informationsqualität ist weit schwerer zu messen als die reine Informationsmenge. So kann in einem Buch nur Blabla stehen und in einem anderen wichtige mathematische Formeln, bei denen jeder Buchstabe und jedes Zeichen eine Bedeutung hat.

Die reine Informationsmenge, z.B. die Zahl der Buchstaben oder die Zahl der Seiten, kann dieselbe sein, die Bedeutung ist es sicher nicht. Hier muss man sich anderer, weniger leicht quantifizierbarer Maßstäbe bedienen, um die Qualität zu messen.

  • Wie häufig wurde das Buch gekauft?
  • Wieviele Auflagen hat das Buch erlebt?
  • Wie lange gibt es dieses Buch schon?
  • In wieviele Sprachen wurde es übersetzt?
  • Wie bewerten Kritiker das Buch?
  • Wie bewerten Leser das Buch?

Der Informationsgehalt kann manchmal sehr klein sein, obwohl die Informationsmenge sehr groß sein kann. So kann man einen Computerbildschirm voll mit Buchstaben schreiben, die per Zufall dort hingesetzt wurden. Die Informationsmenge ist dann maximal, da man, um exakt dieselbe Information zu übertragen, keine Datenkompression vornehmen kann. Information mit Bedeutung ist immer ein Zwischending zwischen völlig gleichförmiger Ordnung und völlig gleichförmigem Chaos. Dieselbe Information kann in verschiedenen Formen stecken, z.B. ein geschriebener Satz und ein gesprochener Satz. Dieselbe Informationsbedeutung kann in verschiedenen Zeichenfolgen stecken. Die Bedeutung einer Information kann man folgendermaßen erkennen:

  • Wie oft existiert die spezielle Informationsfolge überhaupt zur Zeit?
  • Wie oft existierte die spezielle Informationsfolge in den letzten 1000 Jahren?
  • Was passiert, wenn man diese Information wegläßt oder verändert?
  • Wann kann - geschichtlich betrachtet - eine bestimmte Informationsfolge das erste oder das letzte Mal nachgewiesen werden?
  • Wie wird eine spezielle Informationsfolge variiert, und bei welchen Variationen ist der ursprüngliche Gehalt nicht mehr erkennbar bzw. ist die Funktion der Information nicht mehr erkennbar, d.h. welche Passagen einer Informationskette sind essentiell und welche sind weniger wichtig?
  • Welche Folgen, Wirkungen und Funktionen hat eine bestimmte Informationskette in ihrem Umfeld?
  • Gibt es völlig andere Informationsfolgen, die aber eine identische Funktion erfüllen?
  • Wenn eine bestimmte Informationsfolge vermehrt weitergegeben wird, wie erfolgt diese Weitergabe? Erfolgt diese Vermehrung und Weitergabe anorganisch, biologisch genetisch, neurologisch oder technisch?

Die praktische Bedeutung von Information ist schwer in Zahlen anzugeben. Am ehesten geht dies noch bei biologischer Information.

So ist zum Beispiel das Molekül Insulin in vielen Tieren vorhanden und dementsprechend sehr wichtig. Man kann also sagen Insulin hat so eine hohe Informationsqualität, dass ohne diesen Stoff kein Säugetier in der uns bekannten Form existieren könnte. Außerdem kann man abschätzen, wieviel Insulin in jedem Lebewesen und wieviel auf der ganzen Erde vorhanden ist. Man kann dann die geschätzte Menge in Kilogramm oder in einer geschätzten absoluten Zahl an Molekülen angeben.

Verschiedene Säugetierarten haben etwas abweichende Formen von Insulin. Die prinzipielle Wirkung des Insulins, die Zuckersenkung im Blut eines Tieres, bleibt aber diesselbe. Dieselbe Informationsqualität kann also in einer etwas abweichenden Informationsfolge stecken. Teile einer Informationsfolge sind dann meist essentiell, andere Teile dürfen variieren.

Informationen haben je nach Umfeld verschiedene Informationsqualitäten. Unter Informationsqualität versteht man den Gehalt, die Bedeutung und den Sinn einer Information und der wird wesentlich durch das Umfeld mitbestimmt. So ist Insulin im Magen nur eine Kette von Aminosäuren, die in ihre Einzelglieder zerlegt und als Nahrung genutzt wird. Gleich nebenan in einem Blutgefäß des Magens ist das Insulin ein stark zuckersenkendes Prinzip, weil es Rezeptoren gibt, die seine Botschaft verstehen.

In welcher Information steckt keine oder fast keine Bedeutung? Nimmt man eine reine Zufallssequenz von 0 und 1, so steckt nur in der Länge der Zufallssequenz und in der Art, wie diese Sequenz erzeugt wurde eine gewisse Bedeutung. Ansonsten ist die Sequenz bedeutungslos.

Es wird unterschieden zwischen den Begriffen Syntax von Information, Semantik von Information und Pragmatik von Information:

  • syntaktische Information = reine Informationsmenge (bzw. reine Struktur), ohne Rücksicht auf die Bedeutung der Information.
  • semantische Information = Bedeutung der Information, Qualität der Information
  • pragmatische Information = Wirkung der Information, Folgen der Information

Anstatt die Qualität einer Information (auf der semantischen Ebene) zu bewerten, wird oft der ökonomische Wert einer Information bestimmt. Der ökonomische Wert einer Information kann auf mehrere Arten bestimmt werden:

  • Man kann von den Kosten ausgehen, die anfallen, wenn man die Information produziert, oder
  • man kann den Wert anhand des Preises bestimmen, den man für die Information erzielen kann oder
  • man kann den erwarteten Nutzen (unter rationalem Verhalten) bestimmen.

Siehe auch: http://home.t-online.de/home/0926161717-0001/definfo.htm

Quellen