Diskussion:Information/Archiv1
Mit dem Bild will ich andeuten, daß auch die Naturwissenschaften auf Basisdogmen (Basisaxiome) aufbaut , die teilweise nur schwer erklär- und verstehbar sind. Vergleiche zb die Abgrenzung von
Entropie - und Information , meines Erachtens ein ziemlich ungeklärtes Verhältnis. Gleichzeitig die Basis vieler Aussagen in der Physik und Naturwissenschaft.
Außerdem soll Wikipedia m.E. auch nicht so toternst sein. Gerade die Definition von Information ist ja eher trocken . Da ist ein bißchen Provokation mit dem Begriff heilige Dreieinigkeit zum Aufwachen vielleicht ganz gut.
Wenn es auf allgemeines Mißfallen stößt kann ich das Bild auch ändern. Siehe auch http://home.t-online.de/home/0926161717-0001/definfo.htm Mfg rho --- Mich stört mehr, dass diese Dualität von Materie und Energie schon nicht stimmt. Materie ist in der Naturwissenschaft nichts anderes als eine Form der Energie. Und die Rolle der Information ist ziemlich umstritten, d. h. man kann vermutlich gar nicht mehr tun, als eine schwammige Meinung dazu zu präsentieren, aber es ist problematisch, das wie eine Lehrmeinung darzustellen. IMHO -- HelmutLeitner
Im allgemeinen ist Materie und Energie grundverschieden , nur in der Sonne kann Materie in Energie verwandelt werden. Deswegen halte ich es schon für richtig Energie und Materie einander gegenüberzustellen. Energie kann sich zb mit Lichtgeschwindigkeit ausbreiten , Materie nicht.
Beim Thema Information sind die Akten noch nicht geschlossen . Es ist unklar, ob es eigenständige Infonen , Uralternativen also Informations"teilchen" geben kann. Da wird noch viel gestritten und geforscht. Für unser Alltagsverständnis stimmt das Dogma : Reine Information gibt es nicht . Information gibt es immer nur im Zusammmenhang mit Energie und Materie. Übrigens kann man das naturwissenschaftliche Dreigestirn auch noch anders bezeichnen: Stoff -- Strahlung -- Struktur
Man sollte sich immer in Erinnerung rufen , daß diese physikalischen Begriffe sich nur sehr langsam herausgeschält haben. Bis ca 1850 war zb die Unterscheidung zwischen Kraft und Energie noch nicht vollzogen und Anlaß für viele Mißverständnisse.
Im 20.Jahrhundert ist als fundamentale Größe eben noch die Information dazugekommen. Diese Größe hat aber in der Physik bis heute noch keinen so richtigen Platz gefunden . Über den Zusammenhang zwischen Information und Entropie wird da auch noch heftig diskutiert.
Mfg rho
Wenn "die Akten noch nicht geschlossen" sind, und "noch viel gestritten und geforscht" wird, so sollte das aber im Artikel klargemacht werden. Ich bin der Ansicht, dass der Artikel viel 'Spekulation' und 'Ideen', aber nicht 'Ergebnisse der Wissenschaft' enthält. Die Tatsache, dass physikalische Begriffe lange unklar definiert waren, verlangt ja geradezu, hier auch bei der Information besonders vorsichtig zu sein, um eben nicht Dinge, die noch nicht wohldefiniert sind, hier so darzustellen, als ob sie wohldefiniert seien.
Ausserdem ist mit nicht bekannt, in welcher Wissenschaft die 'Information' eine fundamentale Größe sein soll. Die von Dir oft angeführte Beziehung zur Entropie ist vielleicht in der populären Darstellung der Physik verbreitet, wird aber in der Physik selbst nicht benutzt. Ich sage mal bewußt provokativ: "Information' ist nur ein leeres Schlagwort, das in vielen Bereichen benutzt wird, aber nirgends definiert ist.
Wenn Du z.B. schreibst:
- "In jeder Art von Struktur oder Muster von Materie oder Energie steckt Information",
dann finde ich das eine leere Definition. Ein vager Begriff (Information) wird durch einen anderen vagen Begriff (Struktur) definiert.
Wenn ich (um Masse zu definieren) schriebe,
- "In jeder Art von Materie steckt Masse",
dann ist das auch nicht definierend.
Ich finde Deinen Zugang, hier riesige Artikel abzuladen, sehr problematisch:
Warum beginnst Du nicht klein, und erlaubst uns auch unsere Ideen einzubringen.
Die Wikipedia soll doch ein Gemeinschaftsprojekt sein, und ich zumindest finde solche langen, kontroversen Artikel nicht der Idee einer Gemeinschaftsarbeit förderlich.
-- Schewek
Hallo Schewek ! Ich beschäftige mich schon ziemlich lange mit dem Begriff Information und habe dazu einige Arbeitstexte ins Internet gestellt.
- http://home.t-online.de/home/0926161717-0001/definfo.htm
- http://home.t-online.de/home/0926161717-0002/infotheo.htm
- http://home.t-online.de/home/0926161717-0002/zufall.htm
Das der Begriff Information grundlegend ist , kann man bei vielen Leuten nachlesen
- zb Weizsäcker
- zb Shannon
- zb Wiener
- zb von Haken
Typisch für die Naturwissenschaften ist , daß sie eine vage Idee von etwas hat und dann anfängt damit zu arbeiten. Sie kümmert sich zunächst nicht um genaue Definitionen . Wir leben im "Informationszeitalter" und haben nur eine vage Vorstellung von dem Begriff , der dem zu Grunde liegt. Dem wollte ich mit meinem Beitrag etwas abhelfen.
Das interessante an dem Begriff Information ist , daß er an der Grenze der Naturwissenschaften zur Mathematik , bzw auch zu den Geisteswissenschaften steht. Auch die Mathematik hat Probleme grundlegende Begriffe sauber zu erklären. Frage mal einen Mathematiker, was ein Punkt ist . Jeder Schüler arbeitet damit , hat eine intuitive Vorstellung davon , aber eine saubere Definition ist schwierig. So eine saubere Definition hört sich dann auch ein bißchen tautologisch an . Siehe dein Beispiel mit der Materie und der Masse.
Wenn dich die Länge meines Beitrages stört , dann lösch ihn wieder heraus . Ich fände es schade, da viel Mühe in meinem Beitrag steckt, aber ich kann dich nicht dran hindern. Besser wäre es , den Artikel wirklich durchzuarbeiten und zu überlegen , wo noch Widersprüche und Unklarheiten zu finden sind, die man verbessern kann.
Oder du versuchst dich mal an anderen Begriffen , wie zb Bedeutung oder Ordnung , die eng verwandt mit der Definition der Information sind , aber m.E. in Wikipedia noch zuwenig beackert wurden Mfg rho
Danke, Rho, für das Beispiel mit dem Punkt! Genau was ich brauchte: Ein Punkt ist jedem Schüler 'bekannt', in seinem 'Erfahrungsbereich' oder 'Zusammenhang'. Ein Mathematiker kann dir genau sagen, wenn er einen Beweis führt oder ein Theorem formuliert, was ein 'Punkt' in genau dem Zusammenhang bedeuten soll. Er gibt die Definition für den konkreten Fall (zB Punktmenge, Vektorraum, ...) an, und schafft damit einen Bedeutungszusammenhang, so dass er ein sinnvolles Gespräch mit dem Kollegen führen kann. Und genau dieser Zusammenhang ist es, was ich in Deinem Artikel vermisse! Ich habe leider auch nur vage Kenntnisse dazu, was zZ in den verschiedenen Wissenschaften zum Thema Informatik geforscht wird. Aber wenn zB Shannon den Begriff gebraucht, so geschieht das in einem Zusammenhang. Wenn Du solche Hinweise geben würdest, wäre Dein Artikel einem interessierten Laien viel zugänglicher; ausserdem natürlich dann auch Ausgangspunkt zu anderen Artikeln in der Wikipedia.
-- Schewek
Probier doch einmal eine Definition des Begriffes Punkt für Wikipedia . Es ist gar nicht so einfach.
Wenn man bei Shannon zum Thema Information nachliest , dann findet man da auch keine allzu tiefschürfende philosophische Abhandlung , sondern er setzt einfach Information gleich der Entropie und fängt fröhlich damit zu rechnen an. Für sein Gebiet der praktischen Nachrichtentechnik ist das ganz brauchbar. Gleichzeitig hat er aber eine seit 50 Jahren währende Diskussion über das Verhältnis zwischen Information und Entropie losgetreten , die bis heute noch nicht befriedigend zu Ende gekommen ist. Die Grundfrage lautet dabei : Was unterscheidet geordnete Information von Zufallsinformation ?
Das ist ja ein bunter Reigen zum Thema Information. Insgesamt eben ein vielschichtiges Thema. Ich würde auf der obersten Ebene vielleicht etwas weniger schreiben. Die Aussagen zu Energie und Materie z.B. weglassen. Mit einer wirklichen Definition beginnen, oder eben schreiben, daß es eine solche nicht gibt. Außerdem stört mich die fehlende Trennung zwischen Daten und Informationen. Bei der Kurzzusammenfassung der Shannonschen Informationstheorie fehlt ein Verweis auf Shannon, obwohl dieser dann durchaus in den Quellenangaben genannt wird. Hmmm ... werde mich vielleicht in den nächsten Tagen da mal etwas einbringen :o) Markus Schaal
Hallo! Die Verbindung zur Energie und Materie habe ich deswegen gebracht , weil es m.E. die 3 grundlegenden Begriffe der Naturwissenschaften sind, die in vielfältiger Weise miteinander verknüpft sind . Man sie auch anders bezeichnen : Strahlung - Stoff und Struktur. Jeder soll eben auch einmal selber nachdenken, was für ihn die Basisbegriffe sind, auf die er seine Vorstellungen von der Welt aufbaut.
Der reine Materialismus hat ja immer nur Energie und Materie als grundlegend zugelassen , mit dem Begriff Information ( oder Struktur,Muster etc) kommt es aber zu einer entscheidenden Erweiterung des naturwissenschaftlichen Denkens, auch wenn sich zb die Physik dem Begriff Information noch nicht so klar geöffnet hat.
Auch wenn die Definition eines solchen grundlegenden Begriffes schwierig ist, sollte man sie trotzdem versuchen . Ich habe das mit den Basisaussagen zur Information versucht.
Der Text ist ein Anfang und eine Diskussionsanregung , kein abgeschlossenes Thema. Verbesserungen und Diskussionsbeiträge sind sehr willkommen.
Daten und Information hängen eng zusammen . Vielleicht kann man Daten als Informationseinheiten bezeichnen .
Sehr interessant finde ich die Frage, wie bedeutsame Information entsteht und wie sich Zufallsinformation von geordneter Information unterscheidet.
[snip]
Danach dann erst das Verhältnis von Information zu Materie und Energie. Doch auch hierzu habe ich noch eine Anmerkung. Dein Text beschreibt eigentlich nicht das Verhältnis zu Materie und Energie, sondern er sagt nur, daß es neben Materie und Energie eben noch etwas drittes gibt. Dazu habe ich zwei kritische Fragen: 1) Ist der Zusammenhang zwischen Energie und Materie ähnlich wie zwischen Energie und Information oder wie zwischen Energie und Materie? Falls nein, welchen Informationsgehalt trägt dann das Bild von der Dreieinigkeit? 2) Gibt es nicht noch weitere wichtige Konzepte neben Energie, Materie, Information? Zum Beispiel Zeit?
Ich denke im übrigen, daß Daten und Strukturen in der Tat Informationseinheiten sein können. Hierbei ist zu berücksichtigen, daß die Einheit typischerweise nicht festgelegt ist.
Zufallsinformation unterscheidet sich auf der Datenebene nicht von geordneter Information ... was immer das auch heißen mag. Auf der Bedeutungsebene mglw. schon. Bedeutung der Information entsteht m.E. immer dadurch, daß eine Bedeutung zugeordnet wird. Mich würde interessieren, was man unter der Zuordnung von Bedeutung versteht. Die Evolution hat beispielsweise sehr viel bedeutsame Information hervorgebracht, deren Bedeutsamkeit alleine aus dem Erfolg erwächst, ohne Beurteilung durch den Menschen.
Gruß, Markus
Antwort rho: Mir scheint es wichtig, zunächst einmal Information völlig unabhängig vom Menschen zu definieren. Es gab Information nach meinem Verständnis bereits lange bevor es Menschen gab. Es gab informationsverarbeitenden Systeme wie zb lebende Zellen oder Nervensysteme in Tieren. Auch die Entstehung von bedeutsamer Information kann völlig ohne menschliches Zutun erfolgen. Die ganze biologische Evolution ist ein Prozess der Entwicklung von bedeutsamer Information.
Der Fachbegriff für Bedeutung ist die Semantik und Pragmatik. Auch hier gilt semantische und pragmatische Information kann sich völlig unabhängig vom Menschen entwickeln.
Dann kann man sich fragen, wie unterscheidet sich bedeutsame Information von nicht bedeutsamer Information. Wenn man nur die Zeichenfolge einer Informationssequenz anschaut kann man darüber schon gewiße Aussagen treffen. Eine völlig gleichförmige Informationsfolge zb 101010101010101010101010 hat relativ wenig Bedeutung. Eine völlig zufällige Informationsfolge hat auch wenig Bedeutung. Bedeutsames liegt also immer zwischen den 2 Extremen völlig gleichförmige Ordnung und Zufallsreihe.
Ob der Begriff Information wirklich eine echte, eigenständige Entität im philosophischen Sinne sein kann, weiß ich auch nicht. Es ist bis heute offen, ob es Infonen oder die Weizäckerschen Uralternativen unabhängig von Energie und Materie gibt. Ich habe das die Gretchen Frage der Informationstheorie bezeichnet.
Jedenfalls ist der Begriff Information sehr gut brauchbar, er ist sehr grundlegend und wichtig und er ist einigermaßen neutral. Auch Raum und Zeit sind solche grundlegenden Begriffe. Bei beiden Begriffen streiten sich die Physiker auch, ob es nur Eigenschaften von Energie und Materie sind oder ob sie eine eigenständige physikalische Existenz haben, wie das die klassische Physik angenommen hat.
Man kann die Physik auf den drei Begriffen Energie, Materie und Information aufbauen oder man sucht sich andere Begriffe wie Feld, Kraft, Entropie . Auch darauf läßt sich ganz gut die Physik aufbauen. Welche Begriffe dann die unterste Ebene bilden ist Ansichtssache und muß pragmatisch entschieden werden.
Ist der Zusammenhang zwischen Energie und Materie ähnlich wie zwischen Energie und Information oder wie zwischen Energie und Materie?
Das kann ich auch nicht klar beantworten. Manche Physiker sehen da eine Ähnlichkeit. So behauptet Stonier , daß Materie in Energie und Energie in Information umgerechnet werden kann. Wobei die Dimensionsstufen immer einige Zehnerpotenzen auseinanderliegen. So kann man aus sehr wenig Materie eine große Menge Energie erzeugen und das läuft in der Sonne auch so ab. Ähnlich soll man aus einer kleinen Menge Energie eine sehr große Menge Information erzeugen können. Hier komme ich persönlich nicht mehr mit, denn bislang wurde eben reine (nackte ) Information nie nachgewiesen. Fest steht aber, die Information, die in der Struktur von Materie gespeichert ist kann in die Struktur einer elektromagnetischen Welle umgewandelt werden und umgekehrt.
Deine Aussage "Zufallsinformation unterscheidet sich auf der Datenebene nicht von geordneter Information" ist meines Erachtens nicht korrekt.
Man kann zb 01 Folgen statistisch betrachten und schon recht gut herausfiltern, ob es sich um Zufallsinformation oder nicht zufällige Information handelt. siehe dazu zb: Mein Programm 01 Statistik.
Mfg Rho
O.K., das mit der Gleichheit von Zufälligkeit und Ordnung nehme ich zurück. Ich wollte wohl eher sagen, daß Zufälligkeit und Ordnung für mich nichts mit Bedeutung zu tun hat, d.h. dies kein Weg ist, der Bedeutung auf die Spur zu kommen. Auch bedeutsame Information kann zufällig regelmäßig erscheinen oder zufällig, je nachdem. Dennoch halte ich die Bedeutung für ein wesentliches Element von Information (auch unabhängig vom Menschen) und würde gerne von der Materie/Energie-Diskussion wegkommen. Bist Du einverstanden, daß ich mir die Seite mal vornehme und etwas anders strukturiere? Ich möchte insbesondere schon früh im Text interessante Fragen geballt stellen und dabei auf Unterseiten verweisen, die sich dann dem jeweiligen Thema (Bezug zu Materie und Energie, Bezug zu Zeit und Raum, Shannonsche Informationsmenge, Infonentheorie, etc.) annehmen. Auf diese Weise wird es auch leichter, einzelne Punkte getrennt zu diskutieren :o) Ich werde dabei keine wichtigen Teile von Dir entfernen. Immerhin will ich mir die Arbeit ja nicht nochmal machen ... ;-)
Gruß, Markus
Hallo! Kannst du gerne machen. Ich habe meine Texte sowieso , etwas ausführlicher aber vielleicht auch etwas ungeordneter noch einmal getrennt im Netz stehen. Siehe zb : http://home.t-online.de/home/0926161717-0002/mathe2.htm Oder: http://home.t-online.de/home/0926161717-0001/2nkmdef.htm Mfg rho
Hallo!
Hallo, ich finde, daß das Konzept der reinen Information etwas unklar formuliert ist. Aus diesem Grunde ist es auch schwierig, die Bedeutung der damit verbundenen grundsätzlichen philosophischen Frage zu verstehen. Wie wäre es, reine Information in einem separaten Artikel zu diskutieren? In meinem Verständnis stellt sich in diesem Artikel (Information) die Frage der Gebundenheit von Information an Materie gar nicht, weil Information über Struktur und Bedeutung definiert wird. Die Frage hängt also eng damit zusammen, ob (1) die Bindung von Information an Struktur zulässig ist und (2) Struktur überhaupt notwendig der Bindung an Materie bedarf.
Markus Schaal 07:48, 9. Sep 2002 (UTC)
Hi,
spannendes Thema :-)
nicht geklärt ist m.E. auch das Verhältnis des Begriffs zur Vorstellung über den Begriff und zur beschriebenen Sache, seinem "Objekt". Der normale Alltagsverstand nimmt an, das JEDEM Begriff eine "objektive Realität" entspricht, also eine Sache, die "wirklich existiert". So wird jeder Begriff zum Problem, das man zu lösen sucht indem der Begriff durch andere Begriffe "erklärt" wird. Durch die Natur unseres Denkens verlassen wir dabei jedoch "nie wirklich" die "begriffliche Ebene"... nur deshalb wage ich die Definition:
- Information ist die Bedeutung die Menschen Strukturen beimessen -
Gruss Jonas 22.01.2003
Hallo Jonas!
Zu deinem Satz
- Information ist die Bedeutung die Menschen Strukturen beimessen -
folgender Kommentar und ein paar Fragen:
Wenn die Vorstellung von Information sehr grundlegend ist, sollte sie auch ohne die Menschen in der Definition auskommen. Oder würdest du zB die Begriffe Materie und Energie nur auf den Menschen bezogen definieren ? Information und Informationsverarbeitung gab es schon lange vor den Menschen und wird es noch lange nach den Menschen geben. zb Information die in einem Kristall steckt. Oder Information in der DNS
Zum Thema Bedeutung: Schau dir einmal den Wiki Beitrag dazu an Bedeutung. Es gibt auch völlig unbedeutsame Informationen. Zufallsinformation ist weitgehend bedeutungslos. Auch C.Shannon hat seine Berechnungen der Leistungsfähigkeit von Informationsübertragungskabel ohne jede Rücksicht auf die Bedeutung der Information gemacht. Es kam ihm nur darauf an wieviel er fehlerfrei durch eine Leitung bekommen konnte . Welche Bedeutung die Information hatte, hat ihn zunächst nicht interessiert. Übrigens: Bedeutung entsteht in der Natur auch von ganz alleine, ohne Menschen.
Zum Thema Struktur: Dieser Begriff ist sicher sehr eng mit dem Begriff Information verwandt und könnte genauso gut als Basis einer allgemeinen Informationstheorie dienen.
So etwas grundlegendes zu definieren wie Information ist schwierig, ohne sich im Kreis zu drehen. Ich habe einiges darüber zusammengetragen, an der Basis bleibt es trotzdem dünn, weil die Vorstellung von Information sehr abstrakt ist Siehe auch:
- http://home.t-online.de/home/0926161717-0001/definfo.htm
- http://home.t-online.de/home/0926161717-0002/zufall.htm
Mfg rho
23.01.2003 - Hallo rho,
ob ich die Begriffe Materie und Energie nur auf den Menschen bezogen definieren würde - ja und nein. Jein?
Im praktischen Leben ist es sicherlich ratsam so zu tun, als wären Materie und Energie objektive Tatsachen. Das bringt auch in wissenschaftlicher Hinsicht zumindest im praktischen Bereich einige Vorteile.
Im Zuge der Interpretationen zur Quantenphysik ist jedoch klar geworden, dass der Beobachter durchaus eine Rolle spielt, die weit über die blosse Beobachtung und Interpretation hinausgeht - Stichwort Schrödingers Katze.
Information, Bedeutung, Struktur und sogar Mensch sind Begriffe die so abstrakt sind dass sie m.E. mehr mit der menschlichen Art des Denkens zu tun haben als mit dem, was wir die physikalische Realität nennen. Und dennoch sind solche Begriffe, neben der Mathematik, so immens wichtig in der Wissenschaft und Philosophie...
ich habe angefangen auf deinen Seiten zu lesen und finde sie sehr lesenswert :-)
dort hast du auch einen Link zu http://www.mauthner-gesellschaft.de/ - zum Thema Religionskritik. Diese Seite bietet auch mir schon seit einiger Zeit einen wahren Online-Schatz an philosophischen Texten. Viele von Mauthner, aber auch einige andere. Es geht dort primär um die Sprachkritik, welche allerdings die Religionskritik fast notwendigerweise folgen lässt ;-) Sprachkritik im Wortsinn beschreibt und kritisiert die "Sprache selbst", sozusagen sprachliche "Metaebene" (auch wieder "nur" so ein "Begriff"...).
"vielleicht" "kann" "man" "auch" "alles" "in" "Anführungszeichen" "schreiben" "."
"jeder" "Begriff" "ist" "ein" "Problem" (lol)
was bedeuten für Dich eigentlich Anführungszeichen ('"')?
Beste Grüsse - Jonas
--zeno 03:06, 24. Apr 2003 (CEST)
- Mir fehlt hier der Begriff der Relevanz, also dass Informationen in sinnvoll/-los ein/ausgegrenzt werden müssen. --nerd 12:59, 11. Mai 2003 (CEST)~
"Information ist die Wiedererkennbarkeit eines bestimmten Musters innerhalb einer Situation, die mehr ist, als das Muster." mir gefällt der 1. Satz nicht, oder findet den jm gut? --nerd 22:48, 13. Mai 2003 (CEST)
- Bin auch nicht begeistert, aber er ist allgemein gehalten und nicht falsch. Für den Anfang eigentlich gut. Cassis 14:24, 19. Mai 2003 (CEST)
Desinformation -> da gehört in einen eig Artikel. der ist eh noch Kraut und Rüben--nerd 10:35, 28. Mai 2003 (CEST)
- Wieder rein. Gehört zum 1. Teil der Definition!
- Ich ersuch um Angabe einer Quelle, die deine Meinung stützt. --nerd
- Quelle ist Wikipedia! Ist doch nur die Erg. des 1. Teils. Kann man doch nicht so halb stehenlassen.
- Und sonst haste nix anzubieten? Lehrbuch? Webseite? --nerd 15:31, 28. Mai 2003 (CEST)
- Warum muss ich meinen Teil haarklein belegen, und du schreibst den ersten Teil so rein? Biste was besseres??
- Darüber können wir wo anders diskutieren - nur mir erscheint der erste Teil (der nicht von mir stammt) schon nicht sehr gut. Und der zweite halt auch nicht? Ein Anfrage zu Quellen ist sinnvoll. --nerd 15:47, 28. Mai 2003 (CEST)
- Warum muss ich meinen Teil haarklein belegen, und du schreibst den ersten Teil so rein? Biste was besseres??
Zufallsinformation ist nicht sehr verbreitet. --nerd 10:41, 28. Mai 2003 (CEST)
---
Dies "Muster"def. ist nur eine von vielen (IMHO sehr informatiklastig, wenn überhaupt gültig) und sollte nicht am Anfang stehen, siehe en. WP.
Meyers meint: zu lat. Informare=druch Unterweisung Gestalt geben unterrichten:
- Unterrichtung, Benachrichtigung
- Nachricht (zweckorientiert, a. neues Wissen vermittelnd)
Zur aktuellen Definition (Wiedererkennbarkeit eines Musters in einer Situation, die mehr ist, als das Muster): Die stammt von mir, und ich kann leider kein Lehrbuch angeben, dem ich sie entnommen habe. Das Problem ist, das es einfach noch keine allgemeingültige Definition von Information gibt. Es gibt die Shannonsche Nachrichtentechnik (Information von 1 bit ist die Unterscheidbarkeit von 2 Zuständen), und den allgemeinen Sprachgebrauch (Information ist irgendwas semantopragmatisches). Wir sollten aber einen einleitenden Satz haben, der alle drei Aspekte (Syntax, Semantik, Pragmatik) einschließt. Diese Definition tut das:
- Wiedererkennbarkeit: Semantik
- eines Musters: Syntaktik
- Innerhalb einer Situation, die mehr ist als das Muster: Pragmatik
Uli 17:20, 28. Mai 2003 (CEST)
Vielleicht kommt man tatsächlich zu so einer Definition, wenn man sich eingehend mit verschiedenen Informationstheorien beschäftigt, aber für mich als normale Sprachbenutzerin ist der Bezug zur normalen Verwendung des Wortes kaum nachvollziehbar. Und ich denke nicht, dass der erste und einleitende Satz so formuliert sein sollte, dass man zuerst eine halbe Stunde darüber nachdenken muss, was gemeint sein könnte.
Was mit Muster gemeint ist, lässt sich ja vielleicht noch ertüfteln, da solllte man dann aber m.E. Beispiele dazuschreiben (sprachliche, graphische...), aber die Wiedererkennbarkeit? Ist die Wiedererkennbarkeit nicht erst die Voraussetzung, dass ich die Information aus irgend etwas rausholen kann? Und was ist dann die neue Information für mich, wenn ich etwas w i e d e r erkenne? -Hunne 12:26, 11. Jun 2003 (CEST)
- Das en WP ziegt immerhin noch drei andere Def, die ohen Muster auskommen und verichtet auf eine (IMHO= informatiklastige Def. im 1. Satz. --nerd 21:28, 28. Mai 2003 (CEST)
Zwei Vorschläge / Verständnisschwierigkeiten:
1. Müßte es a.E. von "Semantische Ebene" statt
"Sie wissen jetzt, daß es warm ist" nicht heißen:
"Sie wissen jetzt, daß dort steht, daß es warm
ist" oder "...daß jemand dahin geschrieben hat: "es ist warm" " ? Der Unterschied ist doch erheblich! Nicht alles, was geschrieben ist stimmt.
- Hast recht, ist eingebaut! Uli 17:26, 10. Jun 2003 (CEST)
2. Bei Quanteninformation könnte hinzugefügt
werden "zu zerstören oder zu verändern". Kann's mir einer erklären / Stellung nehmen? hhc2, 8.6.03, 15,45 h
Zum Punkt 2: "Zu zerstören" soll sich hier auf die (Quanten-)Information beziehen, nicht auf das Objekt, das diese Information trägt. Eine Veränderung der Information ist eine Zerstörung derselben (wenn ich das Wort "hier" in das Wort "dort" verändere, dann ist die Information des Wortes "hier" zerstört).
- OK, das kann man so sehen, auch wenn die Zerstörung im unbefangenen Verständnis (soweit auf dem Level möglich) das Vernichten des Informationscharakters überhaupt ist, und das Verändern eine Änderung des Informationsinhalts, unter Beibehaltung der Tatsache, dass Information vorliegt. Und zu Punkt 1? Der ist imho wichtiger.
- Den ersten Abschnitt incl. Definition, der schon einige Disskussion hier ausglöst hat, finde ich auch problematisch, aber darüber muss ich noch nachdenken. hhc2
- Nun ja, wenn man Quanteninformation naiv "kopiert", dann wird in gewissem Sinn auch der Informationscharakter des Originals zerstört: Das Original und die "Kopie" sind dann nämlich in einem verschränkten Zustand, d.h., keines von beiden hat für sich einen definierten Zustand (die Information steckt aber noch in der Kombination beider). Man kann allerdings die Information auf das andere System transferieren, und das Originalsystem hat dann einen definierten Zustand, der aber nichts mehr mit der ursprünglichen Information zu tun hat.
- Was Punkt 1 angeht: Wie wäre es mit: "Sie wissen jetzt, dass die Zeichenfolge bedeutet, dass es warm ist."?
Jetzt wurde wieder komentarlos diesen Blödsinn aus der englischen Wikipedia eingebaut:
Information ist ein Begriff, der sehr verschiedene, abhängig vom Kontext, gebraucht wird und mit verschiedenen Konzepten wie Wissen, Negentropy, Unterscheidung, Kommunikation, Wahrheit, Repräsentation, und mentalen Reizen in Verbindung gebracht wird.
Kann mir jemand einen guten Grund nennen, warum? Der Absatz ist: a) Absolut nichtssagend (Lieber Leser, wir können Euch leider garnichts über Information sagen, außer dass es häufig vokommt), b) grammatisch falsch (sehr verschiedene gebraucht wird, hä?), c) inhaltlich falsch (Information und Wahrheit sind wie Äpfel und Birnen), d) falsch übersetzt (Negentropy ist im deutschen die Negentropie), e) blankes Name-Dropping ohne Auswahl
Ich behaupte nicht, dass meine Definition eine letztgültige sein muss, aber sie ist allemal besser als gar keine, und sie schließt jeden mir bekannten Anwendungsfall des Wortes und des Begriffes Information ein. Ich finde, sie ist eine gute Ausgangsgrundlage für einen Encyclopädie-Artikel zum Thema. Sie ist offen für Diskussion und Veränderung. Wenn jemand eine bessere hast, immer her damit, aber dieses Blabla aus der Englischen WP blind zu übernehmen halte ich wirklich nicht für glücklich. Uli 17:26, 10. Jun 2003 (CEST)
- j'en suis d'accord. in den ersten beiden saetzen steht jetzt etwas allgemeines, aber eher fassbares. kompliziert wird es weiter unten sowieso. 8-) die buzzwords sind in das siehe auch herabgestuft worden. -- kakau 17:46, 10. Jun 2003 (CEST)
Falls mich keiner vom Gegenteil überzeugt, werde ich Auftretenswahrscheinlichkeiten ausgliedern. Das ist IMHO zu speziell! --'~'
- Oh Nerd, Sorry, ich hab das zu spät mitbekommen. Bitte das ganz dringend wieder zurück zu lagern und von mir aus gerne besser zu formulieren. Aber der Begriff und die Formel I = - log p ist so zentral für die gesamte Informationstheorie, dass sie unbedingt wieder rein müssen. Im Grunde ist die Zentrale Aussage der Informationstheorie, das Information etwas mit Wahrscheinlichkeit zu tun hat. Sie sind viel zentraler als das jetzt drin stehende Beispiel für Binarisierung, (aber das brauchts, um den Schritt mit der Wahrscheilichkeit zu machen). Speziell wäre IMHO die (recht lange) Herleitung der Formel, aber die ist ja schon nicht drin. Wenn Du nicht's dagegen hast, glieder ich das wieder ein. Ich geb aber zu, dass die Ausführungen zu lang geraten sind, irgendwie müssen wir die ganze Passage kräftig kürzen.
- Uli 11:00, 26. Okt 2003 (CET)
- Mach nur - ich hab das durchs googlen nicht finden können, aber du wirst schon wissen.--'~'