Information
Dieser Artikel beschäftigt sich mit dem Informationsbegriff im allgemeinen Sinne und versucht unterschiedliche Sichtweisen zu integrieren. Zu den speziellen Definitionen einzelner Fachrichtungen siehe auch: Information (Semiotik), (...)
Information (von lateinisch informare=bilden, durch Unterweisung Gestalt geben) ist potentiell oder aktuell vorhandenes, nutzbares oder genutztes Wissen. Im allgemeinen Sprachgebrauch wird unter einer "Information" auch eine Nachricht verstanden, die zweckorientiert ist, also Information im eigentliche Sinne transportiert.
Charakteristika der Informationsbegriffes
Wesentlich für die Information ist die Wiedererkennbarkeit und der Neuigkeitsgehalt eines bestimmten Musters von Materie und/oder Energieformen in Raum und/oder Zeit: Das Muster entwickelt für einen Betrachter innerhalb eines bestimmten Kontextes Bedeutung.
Es ist sehr schwierig, eine allgemeine, dem Verstand leicht fassbare Definition des Begriffes Information zu geben. Ansätze hierzu aus der Biologie, der Informatik, der Nachrichtentechnik der Linguistik und der Philosophie unterscheiden sich zum Teil erheblich. Die Informationswissenschaft, die sich mit dem Wesen der Information befasst, ist eine recht junge Wissenschaft. Zur Zeit wird versucht, die einzelnen Ansätze zu verbinden und zu einem allgemeingültigen Informationsbegriff zu kommen.
Nach gegenwärtigem Stand des Wissens ist das Vorhandensein von Information immer an das Vorhandensein von Materie bzw. Energie gebunden. Diese dienen als Informationsträger: Information ist räumliche und/oder zeitliche Struktur innerhalb eines Informationsträgers, und kann daher ohne diesen nicht existieren. Inwieweit Information als dritte, eigenständige Grundkomponente neben Materie und Energie und der Struktur des Universums und des Lebens beteiligt ist, ist nicht klar.
Interessant ist jedoch die Beobachtung, dass das Universum sich zu einem Zustand hoher Entropie hinbewegt, die Evolution es dagegen fertigbringt, unter Einsatz von Information diesem Trend entgegenzuwirken, lokal die Entropie zu verringern und sehr komplexe Strukturen zu schaffen. Insbesondere in der Philosophie wird daher auch immer wieder in eine Richtung gedacht, der Information eine eigene Existenz unabhängig von Energie und Materie zuzuschreiben. Diese Sichtweise findet sich zum Beispiel bereits bei Platos Ideenlehre. Würden sich Belege für die Existenz solcher "reiner Informationen" finden lassen, wären auch reine Geistwesen denkbar.
Eine der Hauptschwierigkeiten des Informationsbegriffes liegt darin, dass im allgemeinen Sprachgebrauch oft "Information" mit "Bedeutung" gleichgesetzt wird. Die Informationswissenschaft entstand aber aus der Nachrichtentechnik, und in den frühen Theorien (insbesondere von Claude Shannon) ist Information erst einmal völlig von jeglicher Bedeutung gelöst, und auf die reine Unterscheidbarkeit von Zuständen reduziert.
In diesem Artikel wird zunächst auf die begriffliche Unterscheidung von Struktur und Bedeutung eingegangen, sowie auf die Verschränkungen, denen diese Teilaspekte unterliegen.
Struktur und Bedeutung
Dem Begriff der Information kann man sich also von zwei Seiten aus nähern: Die eine Betrachtungsweise greift am Informationsträger an, und stellt sich die Frage, welche Struktur sich innerhalb dieses Trägers feststellen lässt. Der andere Ansatz bemüht sich zu verstehen, welche Bedeutung dem zukommt, was man dann (irgendwie) diesem Informationsträger entnommmen hat. Die erste Sichtweise hat ihre Wurzeln in der Nachrichtentechnik, die zweite eher in den Kognitionswissenschaften. Eine nachrichtentechnisch erkennbare Struktur (z.B. Lichtimpulse, die in einer zeitlichen Reihenfolge auf einzelne Zellen in der Netzhaut treffen) muss in einem komplexen Dekodierungsprozess in eine Bedeutung übersetzt werden. Wo hier die reine Strukturinformation aufhört, und beginnt, eine Bedeutungsinformation zu werden, wo also in diesem Dekodierungsprozess die Grenze zum Bewusstsein zu ziehen ist, ist eine der spannenden Fragen der Informations- und Kognitionswissenschaften. Je tiefer man die Grenze ansetzt, um so metaphysischer wird die strukturelle Information: Ist die in der DNA gespeicherte Erbinformation nur Struktur oder schon Bedeutung? Oder wird sie vielleicht erst zur Bedeutung, indem sie benutzt wird, also zur Herstellung von Proteinen dient?
Aus diesen Betrachtungen ergeben sich drei Ebenen, unter denen der Begriff der Information heute allgemein betrachtet wird. Diese sind
Diese Ebenen steigern sich im Hinblick auf den Bedeutungsgehalt der Information. Sie spiegeln dabei auch die oben erwähnten theoretischen Angriffspunkte wider, wobei die syntaktische Ebene der Sichtweise der Nachrichtentechnik nahekommt, die semantische Ebene Ansätze aus aus der Semiotik integriert, und die Pragmatik eher auf Konzepte der Kognitionswissenschaften zurückgreift.
Die drei Ebenen sollen an der Zeichenfolge "ES IST WARM" erläutert werden:
Syntaktische Ebene der Information
Binarisierung und die Wahrscheinlichkeit von Zeichen
Die Zeichenfolge "ES IST WARM" enthält nur Großbuchstaben. Wenn wir einmal nur davon ausgehen, dass wir nur Großbuchstaben zur Verfügung hätten (also 27 Buchstaben einschließlich Leerzeichen), so können wir an jeder der elf Stellen der obigen Nachricht eines der 27 Zeichen setzen. Jede Stelle der Nachricht hat also 27 mögliche "Zustände". Man kann dies nun dahingehend verallgemeinern, dass man die Zustände binarisiert, also in mehrere Unterscheidungen zwischen exakt zwei möglichen Zuständen unterteilt, die man durch eins und null darstellt. Diese kleinstmögliche Unterscheidung zwischen zwei Zuständen wird als Bit bezeichnet. Man kann zum Beispiel den Buchstaben A durch "00001", B durch "00010", C durch "00011", D durch "00100", E durch "00101" darstellen, und so weiter bis zum Leerzeichen "11100".
Unsere Nachricht hieße dann "00101 10011 11100 01001 10011 10100 11100 ... 01101".
Jede Stelle hat jetzt also den Informationsgehalt von 1 Bit. Um einen unserer 27 Buchstaben zu codieren, braucht man, wie zu sehen ist, genau fünf Bit: Es muss fünf mal die Unterscheidung zwischen ja und nein getroffen werden, bis klar ist, um welchen Buchstaben es sich handelt.
Nun ist die obige Codierung der Buchstaben in fünf Ja/Nein-Entscheidungen nicht die allein gültige. Im Rahmen der klassischen Informationstheorie wird nämlich der Informationsträger in einem semantischen Kontext betrachtet. So kann berücksichtigt werden, wie häufig ein bestimmtes Zeichen des Zeichenvorrats verwendet wird, mit anderen Worten, wie wahrscheinlich sein Auftreten ist. So ist beispielsweise der Buchstabe "E" im Deutschen häufiger als der Buchstabe "Y". (Wichtig ist an dieser Stelle festzuhalten, dass der Zeichenvorrat für jede syntaktische Betrachtung bekannt sein muss, dass Information also bereits zur rein syntaktischen Aufbereitung im Rahmen eines semantischen Kontextes betrachtet werden muss.)
Berücksichtigt man diese Auftretenswahrscheinlichkeit der Zeichen im Zeichenvorrat, so kann man die Anzahl der benötigten Ja/Nein-Entscheidungen, die zum Erkennen eines Zeichens notwendig sind, je nach Zeichen unterschiedlich groß machen. Technisch lässt sich ein solcher Code zum Beispiel nach dem Huffman-Verfahren entwickeln.
Damit benötigt man, um ein häufig auftretendes Zeichen zu codieren, weniger Bits, als für ein selten auftretendes Zeichen. Ein Zeichen hat also einen um so höheren Informationsgehalt (benötigt zur Erkennung eine höhere Anzahl an atomaren Entscheidungseinheiten, an Bits), wenn es in einem semantischen Kontext seltener auftritt.
Mathematisch ergibt sich die Anzahl der benötigten Bits (dem Informationsgehalt) eines Zeichens aus dem negativen dualen Logarithmus seiner Auftretenswahrscheinlichkeit :
Kommunikationsmodell der Information
Das Verständnis der syntaktischen Ebene war lange Zeit gekennzeichnet durch das Sender-Empfänger-Modell: Ein Sender will eine Information dem Empfänger mitteilen. Dazu codiert er seine Information nach bestimmten Prinzipen (z.B. als Abfolge von Nullen und Einsen nach dem oben erwähnten Prinzip) in einen Informationsträger, der Empfänger wertet diesen Informationsträger aus, denn auch er kennt den Code, und erhält dadurch die Information (siehe auch: Kommunikation).
Nicht immer ist jedoch ein Sender vorhanden, der uns etwas mitteilen will. Ein typisches Beispiel ist die Messung: Dem physikalischen System ist es, bildlich gesprochen, völlig egal, was wir von ihm denken. Dennoch ist das Ziel der Messung eine Informationsübertragung vom gemessenen System zu dem, der die Messung durchführt (man misst, um etwas über das gemessene System zu erfahren). Ein Beispiel ist die Geschwindigkeitsmessung per Radarfalle: Das Auto hat sicher keine Intention, seine Geschwindigkeit zu verraten (und der Autofahrer meist auch nicht). Dennoch gewinnt der Polizist durch die Messung Information über die Geschwindigkeit. Hier ist die Codierung nicht Folge einer Planung, sondern eines physikalischen Gesetzes (Dopplereffekt).
Zusammengefasst:
- In jeder Art von Struktur oder Muster von Materie oder Energie steckt Information
- Syntaktisch entspricht Information der Auftretenswahrscheinlichkeit eines bestimmten Symbols innerhalb eines definierten Dekodierungsschemas
- Information ist eine räumliche oder zeitliche Folge physikalischer Signale, die mit bestimmten Wahrscheinlichkeiten oder Häufigkeiten auftreten.
- Der Informationsgehalt einer Nachricht ergibt sich aus der Anzahl der ja/nein-Möglichkeiten, für die in der Nachricht einer der Werte festgelegt ist.
Semantische Ebene der Information
Strukturierte, syntaktische Informationen werden erst verwertbar, indem sie gelesen und interpretiert werden. Das heißt, zur Strukturebene muss die Bedeutungsebene hinzukommen. Dazu muss ein bestimmtes Bezugssystem angelegt werden, um die Strukturen in eine Bedeutung überführen zu können. Dieses Bezugssystem bezeichnet man als Code. Im obigen Beispiel muss man also "wissen", dass die Nachricht aus den Buchstaben "A" bis "Z" und dem Leerzeichen bestehen kann. Würde man versuchen, den gleichen Code an eine Nachricht anlegen, die eigentlich chinesische Schriftzeichen darstellen soll, so hätte man wenig Erfolg.
Jedoch ist die Überführung von Syntax in Semantik selten so direkt: In der Regel wird die Information über sehr viele unterschiedliche Codes immer höherer semantischer Ebene verarbeitet: Dabei wird auf den unterschiedlichen semantischen Ebenen wiederum Informationsverarbeitung auf struktureller, syntaktischer Ebene geleistet: Die Lichtimpulse, die gerade auf Ihre Netzhaut treffen, werden dort von Nervenzellen registriert (Bedeutung für die Nervenzelle), an das Gehirn weitergeleitet, in einen räumlichen Zusammenhang gebracht, als Buchstaben erkannt, zu Worten zusammengefügt - während dieser ganzen Zeit werden Nervenimpulse (Strukturinformationen!) von einer Gehirnzelle zur nächsten geschossen, bis sich auf diese Weise in ihrem Bewusstsein die durch Worte nur unzureichend wiedergebbaren Begriffe für "warm", "jetzt", und "hier" zu formen beginnen, die dann im Zusammenhang eine Bedeutung haben: Sie wissen jetzt, dass es bei diesen Worten um die Feststellung geht, dass es warm (und nicht etwa kalt) ist.
Zusammengefasst:
- Strukturinformation wird in einem Dekodierungsprozess in Semantik (Bedeutung) überführt.
- Dabei wird Strukturinformation stufenweise über Codes in andere Strukturinformation überführt, wobei sich auf den unterschiedlichen sematischen Stufen jeweils Bedeutung für das verarbeitende System entwickelt.
- Information ist übertragbar, z.B. als Nachricht; Auskunft; Belehrung, Aufklärung
- Information kann weitergegeben werden, ohne dadurch weniger zu werden. Information wird durch Weitergabe also quasi verdoppelt. Mit Materie oder Energie geht das nicht.
Pragmatische Ebene der Information
Diese kommt dem umgangssprachlichen Informationsbegriff am nächsten.
Die Aussage, dass es warm ist (die wir nun semantisch richtig interpretiert haben, wir wissen, was diese Botschaft uns sagen will), hat echten Informationscharakter, wenn wir uns mittags um zwölf nach einer durchzechten Nacht noch halb schlaftrunken überlegen was wir anziehen sollen, und uns die Freundin mit den Worten "es ist warm" davon abhält, in den Rollkragenpullover zu schlüpfen.
Der pragmatische Informationsgehalt der - semantisch exakt gleichen - Aussage ist aber gleich null, wenn wir bereits im T-Shirt auf dem Balkon sitzen und schwitzen. Diese Information bietet uns nichts neues. Smalltalk ist eine Art des Informationsaustausches, bei dem die offensichtlich über die Sprache ausgetauschten semantischen Informationen so gut wie keine pragmatische Information darstellen - wichtig sind hier die Körpersignale, deren Semantik (Freundlichkeit, Abneigung) wir erkennen und pragmatisch (mag die mich?) verwerten können.
In diesem pragmatischen Sinne ist wesentliches Kriterium von Information, dass sie das Subjekt, das die Information aufnimmt, verändert, was konkret bedeutet, dass sich die Information, die potentiell dem Subjekt entnommen werden kann, verändert.
Zusammengefasst:
- Information ist ein Gewinn an Wissen
- Information ist die Verringerung von Ungewissheit
- Information ist eine Mitteilung, die den Zustand des Empfängers ändert.
Zyklische Verschränkung der Ebenen
Die drei genannten Ebenen sind jedoch nicht getrennt zu betrachten. Vielmehr stellen sie sozusagen - man verzeihe das schräge Bild - die drei Seiten der selben Medaille dar: Bereits die strukturelle Ebene setzt eine Semantik voraus, innerhalb derer die Symbole dekodiert werden: Die Struktur der DNA codiert im Rahmen des Genetischen Codes bestimmte Proteine: Um diese Struktur innerhalb der DNA überhaupt zu erkennen, muss bereits die Semantik des genetischen Codes berücksichtigt werden. Denn das DNA-Molekül kann durchaus noch andere Informationen tragen: So ist zum Beispiel die "Doppelhelixstruktur" der Ausdruck einer anderen Semantik, nämlich der des räumlichen Erscheinungsbildes des Moleküls.
Auch stellt die semantische Verarbeitung (z.B. das Zusammenfassen von Buchstaben zu Wörtern) wiederum syntaktische Information (nämlich eine Abfolge von Wort-Symbolen) her. Letztlich definiert sich auch die pragmatische Ebene nicht zuletzt dadurch, dass sie selbst neue Information syntaktischer Natur schaffen muss (sonst hätte die Information keine Wirkung entfaltet).
Aufgrund des engen Zusammenspiels zwischen semantischen Dekodierungsprozess und Wirkentfaltung in der Pragmatik, die beide wiederum syntaktische Informationen als End- und Zwischenprodukte generieren, werden manchmal diese beiden Ebenen auch zur Semantopragmatik verschmolzen.
Im folgenden Beispiel eines Telefongespräches werden die unterschiedlichen Verschränkungen der Ebenen nochmals deutlich:
Syntax |
Semantik |
Pragmatik |
Schallwellen mit wechselnder Frequenz und Intensität |
Unterschiedlicher elektr. Widerstand bei unterschiedl. Druck |
Unterschiedlich fließender elektrischer Strom |
Unterschiedlich fließender elektrischer Strom |
Unterschiedliches Magnetfeld bei Unterschiedlichem Strom |
Bewegung einer am Magneten befestigten Membran |
Bewegung einer am Magneten befestigten Membran |
Schwingungsübertragung durch Luftmoleküle |
Entstehen einer Schallwelle |
Auftreffen einer Schallwelle auf das System Trommelfell / Gehörknöchelchen / Schnecke / Schallrezeptoren |
Feuern der Rezeptor-Nervenzelle bei Erregung |
Nervenimpuls |
Impuls vieler Rezeptornevenzellen an einer verarbeitenden Nervenzelle im Gehirn |
Feuern der verarbeitenden Zelle bei Schwellwertüberschreitung |
Feuern oder Nichtfeuern einer verarbeitenden Nervenzelle |
Feuern oder Nichtfeuern vieler verarbeitender Nervenzellen |
Vernetzung der Nervenzellen |
Emergierende Muster in Raum und Zeit aus verarbeitenden Nervenzellen |
Emergierende Muster in Raum und Zeit aus verarbeitenden Nervenzellen |
(dieser semantische Schritt ist eines der größten Rätsel der Gehirnforschung) |
Wort "Ich" gehört |
Worte "Ich komme morgen an" gehört |
(dieser semantische Schritt ist ein noch viel größeres Rätsel der Bewußtseinsforschung) - erneut spielt die Emergenz der Muster von feuernden Gehirnzellen eine Rolle. |
Diese Worte mit dem Begriff über Gesprächspartner verbunden, und den Begriffen über den morgigen Tag, und dem Begriff, dass jemand kommt, und dem Begriff, dass es sich bei dem, der da kommt, um den Gesprächspartner handelt. Mit anderen Worten: Jetzt wissen, dass der Gesprächspartner morgen eintrifft. |
Wissen, dass der Gesprächspartner morgen eintrifft. Sich erinnern, dass er mit dem Zug kommen wollte und dass der Bahnhof zwanzig Kilometer weit weg ist |
(dieser semantische Schritt ist ein noch viel viel größeres Rätsel der Bewußtseinsforschung) |
Ihm sagen werden, dass man ihn mit dem Auto abholen kommt |
Informationstransport
Information kann, da masselos, im Prinzip mit Lichtgeschwindigkeit transportiert werden.
Interessant ist es, dass Information, die an Materie als Informationsträger gebunden ist, auf elektromagnetische Wellen übertragen werden kann. Diese Information kann dann mit Lichtgeschwindigkeit transportiert werden. Schließlich kann die Information wieder zurück an Materiestrukturen gebunden werden. Ein Beispiel für so einen Übertragungsprozess ist das Telefax. Dabei wird die Information eines bestimmte Schriftstückes mit Lichtgeschwindigkeit über große Entfernungen transportiert und am Ziel auf ein zweites Schriftstück mit exakt demselben Informationsinhalt übertragen.
Allgemeiner: Informationstransport hängt also immer vom verwendeten Informationsträger ab.
Digitale Information
Digitale Information entsteht durch Digitalisierung beliebiger Information. Das Ergebnis sind Daten.
Obwohl für die Messung von digitalen Informationsmengen, für Informationsströme und für die Informationsspeicherung das Bit und das Byte als Basiseinheiten vorliegen, wird die Informationsmenge immer noch gerne an Hand des jeweiligen Informationsträgers quantifiziert.
So kann man die digitale Informationsmenge, die in einem Buch steht, leicht und anschaulich an der Seitenzahl oder an der Zahl der Wörter ablesen.
Quanteninformation
Die Quantenmechanik zeigt, dass Quantenobjekte eine Art Information enthalten, die nicht über klassische Kanäle (also z.B. als Folge von Nullen und Einsen) übertragen werden kann. Außerdem kann man Quanteninformation nicht kopieren (ohne die Originalinformation im Original zu zerstören).
Die besonderen Eigenschaften der Quanteninformation ermöglichen Anwendungen, die mit klassischer Information nicht möglich sind, wie Quantencomputer und Quantenkryptographie.
Zufallsinformation und geordnete Information
Die wichtigste Unterteilung der Information ist die Unterscheidung zwischen Zufallsinformation und nicht zufälliger Information oder auch zwischen Zufallsstruktur und geordneter Struktur.
Ein Beispiel dazu:
Betrachtet man eine binäre Datei einer bestimmten Länge z.B. mit 20 Stellen, dann kann man die Gesamtinformationsmenge ausrechnen, die mit 20 Stellen dargestellt werden kann:
I = 220 = 1 048 576 Bit = 217 Byte = ca. 130 kByte.
Ein Teil der Möglichkeiten aus dieser Gesamtinformationsmenge sind reine
Zufallsfolgen, der Rest sind mehr oder minder geordnete Folgen.
Die Grenze zwischen beiden Bereichen ist nicht scharf zu ziehen, sondern nur mit einem Wahrscheinlichkeitsniveau von z.B. 95% festzulegen.
Je weiter man von der Grenze weg ist, desto klarer ist die Zuordnung. Chaitin hat 2 Beispiele genannt:
- Geordnete Reihe: 10101010101010101010
- Zufall = 0, oder fast Null
- Ungeordnete Reihe: 01101100110111100010
Beide Reihen haben dieselbe Länge und denselben Speicherplatzbedarf in kByte. Trotzdem unterscheiden sie sich fundamental. Ist die Menge an Zufall einer Reihe lässt sich durch die Entropie (Informationstheorie) quantifizieren, bezüglicher der sich beide Reihen sehr stark unterscheiden. Die erste Reihe hat eine Entropie von 0 oder nahe 0, die zweite Reihe hat eine Entropie von 20 bit.
Eine interessante Frage ist nun, wie hoch der Anteil der Zufallsfolgen an der Zahl der gesamten Möglichkeiten ist. Eine weitere interessante Frage ist, ob man die Nichtzufälligkeit irgendwie quantifizieren kann, also ob man sagen kann: Je stärker eine nichtzufällige Reihe komprimierbar ist, desto größer ist ihre Ordnung.
Dann ergeben sich die allgemeinen Aussagen: Der Anteil der Zufallsfolgen wächst mit der Anzahl der Gesamtmöglichkeiten, oder anders ausgedrückt: Je länger eine binäre Sequenz ist, desto mehr Möglichkeiten für Zufallsfolgen stecken in ihr.
Je geordneter eine ganz bestimmte Binärfolge ist, desto weniger "Zufall" steckt in ihr. Vor allem in dem Begriff der Komprimierbarkeit, den man zur Definition der geordneten Folge heranzieht, stecken einige Tücken. Er ist mathematisch auf verschiedene Arten definierbar.
Bei kurzen binären Sequenzen ist die Unterscheidung zwischen Ordnung und Zufall willkürlich, je länger die Sequenzen werden, desto besser sind sie dem Bereich des Zufalls oder dem Bereich geordneter Folge zuzuordnen.
Trotzdem bleiben auch bei längeren Folgen von Nullen und Einsen Überlappungen zwischen geordneten Folgen und Zufallsfolgen bestehen. Jede geordnete binäre Folge kann mittels eines guten Komprimierungsverfahrens in eine scheinbare Zufallsfolge überführt werden.
Das Ergebnis sieht dann zwar zufällig aus, in ihm steckt aber aber bedeutsame Information.
Umgekehrt kann man mittels komplizierter Rechenverfahren Zufallszahlen erzeugen, die ausschauen wie echte (z.B. gewürfelte) Zufallszahlen, die aber in Wirklichkeit das Ergebnis eines festgelegten Algorithmus sind (siehe Pseudozufallszahlen).
Weiterführende Angaben
Siehe auch
Desinformation - Digitale Information - Lebenszyklus von Informationen - Information neben Energie und Materie als dritter Kernbegriff der Naturwissenschaften - information literacy - Informationsmenge - Informationsquellen - Logikalie - Kommunikation - Negentropie - Neurolinguistische Programmierung - Quanteninformation - Rhetorik - Repräsentation - Signal - Unterscheidbarkeit - Wahrheit - Wortfeld Information
Literatur
"Unmathematische" Einführungen:
- Nørretranders, Tor: Spüre die Welt, Rowohlt, 1994; ISBN 3-4980-4637-3; eine verständliche Einführung in die Welt der Information, der Entropie und des Bewußtseins
- Lyre, Holger: Informationstheorie, Wilhelm Fink Verlag, München 2002; ISBN 3-7705-3446-8, Einführung in die Informationstheorie mit Ausblick auf die aktuellen Forschungen Lyres zur Quantentheorie der Information. Kenntnisse der Quantenphysik werden jedoch vorausgesetzt.
Populärwissenschaftliche Einführungen mit mathematischen Beweisführungen:
- Penrose, Roger: Computerdenken, Spektrum der Wissenschaften-Verlagsgesellschaft, Heidelberg 1991; ISBN 3-8933-0708-7; Einführung in den Informationsbegriff, Turingmaschinen, Berechenbarkeit und künstliche Intelligenz
Alle Bücher enthalten weitere Bibliografien.
Weblinks
- http://home.t-online.de/home/0926161717-0001/definfo.htm - diente als Quelle für die unteren Abschnitte dieses Artikels