Sehr (!) gehaltvoll. Ein ganzes Kompendium! Das "Bild" "heilige Dreieinigkeit" fällt aus der geballten Information heraus. Ein gewollter oder ungewollter Kalauer? Das so für sich recht absonderlich wirkende Schema sollte begründet oder durch einen Sachtext ersetzt werden. --Wst
Mit dem Bild will ich andeuten, daß auch die Naturwissenschaften auf Basisdogmen (Basisaxiome) aufbaut , die teilweise nur schwer erklär- und verstehbar sind. Vergleiche zb die Abgrenzung von Entropie - und Information , meines Erachtens ein ziemlich ungeklärtes Verhältnis. Gleichzeitig die Basis vieler Aussagen in der Physik und Naturwissenschaft.
Außerdem soll Wikipedia m.E. auch nicht so toternst sein. Gerade die Definition von Information ist ja eher trocken . Da ist ein bißchen Provokation mit dem Begriff heilige Dreieinigkeit zum Aufwachen vielleicht ganz gut.
Wenn es auf allgemeines Mißfallen stößt kann ich das Bild auch ändern. Siehe auch http://home.t-online.de/home/0926161717-0001/definfo.htm Mfg rho
Mich stört mehr, dass diese Dualität von Materie und Energie schon nicht stimmt. Materie ist in der Naturwissenschaft nichts anderes als eine Form der Energie. Und die Rolle der Information ist ziemlich umstritten, d. h. man kann vermutlich gar nicht mehr tun, als eine schwammige Meinung dazu zu präsentieren, aber es ist problematisch, das wie eine Lehrmeinung darzustellen. IMHO -- HelmutLeitner
Im allgemeinen ist Materie und Energie grundverschieden , nur in der Sonne kann Materie in Energie verwandelt werden. Deswegen halte ich es schon für richtig Energie und Materie einander gegenüberzustellen. Energie kann sich zb mit Lichtgeschwindigkeit ausbreiten , Materie nicht.
Beim Thema Information sind die Akten noch nicht geschlossen . Es ist unklar, ob es eigenständige Infonen , Uralternativen also Informations"teilchen" geben kann. Da wird noch viel gestritten und geforscht. Für unser Alltagsverständnis stimmt das Dogma : Reine Information gibt es nicht . Information gibt es immer nur im Zusammmenhang mit Energie und Materie. Übrigens kann man das naturwissenschaftliche Dreigestirn auch noch anders bezeichnen: Stoff -- Strahlung -- Struktur
Man sollte sich immer in Erinnerung rufen , daß diese physikalischen Begriffe sich nur sehr langsam herausgeschält haben. Bis ca 1850 war zb die Unterscheidung zwischen Kraft und Energie noch nicht vollzogen und Anlaß für viele Mißverständnisse.
Im 20.Jahrhundert ist als fundamentale Größe eben noch die Information dazugekommen. Diese Größe hat aber in der Physik bis heute noch keinen so richtigen Platz gefunden . Über den Zusammenhang zwischen Information und Entropie wird da auch noch heftig diskutiert.
Mfg rho
Wenn "die Akten noch nicht geschlossen" sind, und "noch viel gestritten und geforscht" wird, so sollte das aber im Artikel klargemacht werden. Ich bin der Ansicht, dass der Artikel viel 'Spekulation' und 'Ideen', aber nicht 'Ergebnisse der Wissenschaft' enthält. Die Tatsache, dass physikalische Begriffe lange unklar definiert waren, verlangt ja geradezu, hier auch bei der Information besonders vorsichtig zu sein, um eben nicht Dinge, die noch nicht wohldefiniert sind, hier so darzustellen, als ob sie wohldefiniert seien.
Ausserdem ist mit nicht bekannt, in welcher Wissenschaft die 'Information' eine fundamentale Größe sein soll. Die von Dir oft angeführte Beziehung zur Entropie ist vielleicht in der populären Darstellung der Physik verbreitet, wird aber in der Physik selbst nicht benutzt. Ich sage mal bewußt provokativ: "Information' ist nur ein leeres Schlagwort, das in vielen Bereichen benutzt wird, aber nirgends definiert ist.
Wenn Du z.B. schreibst:
- "In jeder Art von Struktur oder Muster von Materie oder Energie steckt Information",
dann finde ich das eine leere Definition. Ein vager Begriff (Information) wird durch einen anderen vagen Begriff (Struktur) definiert.
Wenn ich (um Masse zu definieren) schriebe,
- "In jeder Art von Materie steckt Masse",
dann ist das auch nicht definierend.
Ich finde Deinen Zugang, hier riesige Artikel abzuladen, sehr problematisch: Warum beginnst Du nicht klein, und erlaubst uns auch unsere Ideen einzubringen. Die Wikipedia soll doch ein Gemeinschaftsprojekt sein, und ich zumindest finde solche langen, kontroversen Artikel nicht der Idee einer Gemeinschaftsarbeit förderlich.
-- Schewek
Hallo Schewek ! Ich beschäftige mich schon ziemlich lange mit dem Begriff Information und habe dazu einige Arbeitstexte ins Internet gestellt.
- http://home.t-online.de/home/0926161717-0001/definfo.htm
- http://home.t-online.de/home/0926161717-0002/infotheo.htm
- http://home.t-online.de/home/0926161717-0002/zufall.htm
Das der Begriff Information grundlegend ist , kann man bei vielen Leuten nachlesen
- zb Weizsäcker
- zb Shannon
- zb Wiener
- zb von Haken
Typisch für die Naturwissenschaften ist , daß sie eine vage Idee von etwas hat und dann anfängt damit zu arbeiten. Sie kümmert sich zunächst nicht um genaue Definitionen . Wir leben im "Informationszeitalter" und haben nur eine vage Vorstellung von dem Begriff , der dem zu Grunde liegt. Dem wollte ich mit meinem Beitrag etwas abhelfen.
Das interessante an dem Begriff Information ist , daß er an der Grenze der Naturwissenschaften zur Mathematik , bzw auch zu den Geisteswissenschaften steht. Auch die Mathematik hat Probleme grundlegende Begriffe sauber zu erklären. Frage mal einen Mathematiker, was ein Punkt ist . Jeder Schüler arbeitet damit , hat eine intuitive Vorstellung davon , aber eine saubere Definition ist schwierig. So eine saubere Definition hört sich dann auch ein bißchen tautologisch an . Siehe dein Beispiel mit der Materie und der Masse.
Wenn dich die Länge meines Beitrages stört , dann lösch ihn wieder heraus . Ich fände es schade, da viel Mühe in meinem Beitrag steckt, aber ich kann dich nicht dran hindern. Besser wäre es , den Artikel wirklich durchzuarbeiten und zu überlegen , wo noch Widersprüche und Unklarheiten zu finden sind, die man verbessern kann.
Oder du versuchst dich mal an anderen Begriffen , wie zb Bedeutung oder Ordnung , die eng verwandt mit der Definition der Information sind , aber m.E. in Wikipedia noch zuwenig beackert wurden Mfg rho
Danke, Rho, für das Beispiel mit dem Punkt! Genau was ich brauchte: Ein Punkt ist jedem Schüler 'bekannt', in seinem 'Erfahrungsbereich' oder 'Zusammenhang'. Ein Mathematiker kann dir genau sagen, wenn er einen Beweis führt oder ein Theorem formuliert, was ein 'Punkt' in genau dem Zusammenhang bedeuten soll. Er gibt die Definition für den konkreten Fall (zB Punktmenge, Vektorraum, ...) an, und schafft damit einen Bedeutungszusammenhang, so dass er ein sinnvolles Gespräch mit dem Kollegen führen kann. Und genau dieser Zusammenhang ist es, was ich in Deinem Artikel vermisse! Ich habe leider auch nur vage Kenntnisse dazu, was zZ in den verschiedenen Wissenschaften zum Thema Informatik geforscht wird. Aber wenn zB Shannon den Begriff gebraucht, so geschieht das in einem Zusammenhang. Wenn Du solche Hinweise geben würdest, wäre Dein Artikel einem interessierten Laien viel zugänglicher; ausserdem natürlich dann auch Ausgangspunkt zu anderen Artikeln in der Wikipedia.
-- Schewek
Probier doch einmal eine Definition des Begriffes Punkt für Wikipedia . Es ist gar nicht so einfach.
Wenn man bei Shannon zum Thema Information nachliest , dann findet man da auch keine allzu tiefschürfende philosophische Abhandlung , sondern er setzt einfach Information gleich der Entropie und fängt fröhlich damit zu rechnen an. Für sein Gebiet der praktischen Nachrichtentechnik ist das ganz brauchbar. Gleichzeitig hat er aber eine seit 50 Jahren währende Diskussion über das Verhältnis zwischen Information und Entropie losgetreten , die bis heute noch nicht befriedigend zu Ende gekommen ist. Die Grundfrage lautet dabei : Was unterscheidet geordnete Information von Zufallsinformation ?
Meinen Beitrag zum Thema Information, der ja auch nach deiner Meinung schon viel zu lang ist , wollte ich durch ausführliche Quellenangaben nicht noch länger machen . Aber du hast recht, vielleicht füge ich ich noch einen Verweis Information/Quellen an . Dann wird das ganze vielleicht etwas klarer.
rho
Das ist ja ein bunter Reigen zum Thema Information. Insgesamt eben ein vielschichtiges Thema. Ich würde auf der obersten Ebene vielleicht etwas weniger schreiben. Die Aussagen zu Energie und Materie z.B. weglassen. Mit einer wirklichen Definition beginnen, oder eben schreiben, daß es eine solche nicht gibt. Außerdem stört mich die fehlende Trennung zwischen Daten und Informationen. Bei der Kurzzusammenfassung der Shannonschen Informationstheorie fehlt ein Verweis auf Shannon, obwohl dieser dann durchaus in den Quellenangaben genannt wird. Hmmm ... werde mich vielleicht in den nächsten Tagen da mal etwas einbringen :o) Markus Schaal
Hallo!
Die Verbindung zur Energie und Materie habe ich deswegen gebracht , weil es m.E. die 3 grundlegenden Begriffe der Naturwissenschaften sind, die in vielfältiger Weise miteinander verknüpft sind .
Man sie auch anders bezeichnen : Strahlung - Stoff und Struktur.
Jeder soll eben auch einmal selber nachdenken, was für ihn die Basisbegriffe sind, auf die er seine Vorstellungen von der Welt aufbaut.
Der reine Materialismus hat ja immer nur Energie und Materie als grundlegend zugelassen , mit dem Begriff Information ( oder Struktur,Muster etc) kommt es aber zu einer entscheidenden Erweiterung des naturwissenschaftlichen Denkens, auch wenn sich zb die Physik dem Begriff Information noch nicht so klar geöffnet hat.
Auch wenn die Definition eines solchen grundlegenden Begriffes schwierig ist, sollte man sie trotzdem versuchen . Ich habe das mit den Basisaussagen zur Information versucht.
Der Text ist ein Anfang und eine Diskussionsanregung , kein abgeschlossenes Thema. Verbesserungen und Diskussionsbeiträge sind sehr willkommen.
Daten und Information hängen eng zusammen . Vielleicht kann man Daten als Informationseinheiten bezeichnen .
Sehr interessant finde ich die Frage, wie bedeutsame Information entsteht und wie sich Zufallsinformation von geordneter Information unterscheidet.
Ich würde die Definition etwa so beginnen: Im heutigen Verständnis setzen sich Informationen aus Struktur und Bedeutung zusammen. Die Struktur der Information "Es ist heiß" wäre beispielsweise die Abfolge der Zeichen "E","s"," ","i", usw. im lateinischen Alphabet. Die Bedeutung besteht darin, daß die Temperatur hoch ist. Weiterhin kann aus einer Information natürlich auch Handeln abgeleitet werden, etwa die Vermeidung unnötiger Arbeitsgänge solange es heiß ist. Dieser Aspekt wird auch als Pragmatik der Information bezeichnet. Zum Teil wird auch reine Struktur als Information bezeichnet. Um die Klarheit des Konzeptes Information zu erhöhen, werden reine Strukturen in diesem Text als Struktur oder Daten und nicht als Information bezeichnet werden.
(Es ist mir klar, daß dies nur eine von mehreren möglichen Definitionen ist, aber es ist immerhin eine Definition)
Danach dann erst das Verhältnis von Information zu Materie und Energie. Doch auch hierzu habe ich noch eine Anmerkung. Dein Text beschreibt eigentlich nicht das Verhältnis zu Materie und Energie, sondern er sagt nur, daß es neben Materie und Energie eben noch etwas drittes gibt. Dazu habe ich zwei kritische Fragen: 1) Ist der Zusammenhang zwischen Energie und Materie ähnlich wie zwischen Energie und Information oder wie zwischen Energie und Materie? Falls nein, welchen Informationsgehalt trägt dann das Bild von der Dreieinigkeit? 2) Gibt es nicht noch weitere wichtige Konzepte neben Energie, Materie, Information? Zum Beispiel Zeit?
Ich denke im übrigen, daß Daten und Strukturen in der Tat Informationseinheiten sein können. Hierbei ist zu berücksichtigen, daß die Einheit typischerweise nicht festgelegt ist.
Zufallsinformation unterscheidet sich auf der Datenebene nicht von geordneter Information ... was immer das auch heißen mag. Auf der Bedeutungsebene mglw. schon. Bedeutung der Information entsteht m.E. immer dadurch, daß eine Bedeutung zugeordnet wird. Mich würde interessieren, was man unter der Zuordnung von Bedeutung versteht. Die Evolution hat beispielsweise sehr viel bedeutsame Information hervorgebracht, deren Bedeutsamkeit alleine aus dem Erfolg erwächst, ohne Beurteilung durch den Menschen.
Gruß, Markus
Antwort rho: Mir scheint es wichtig, zunächst einmal Information völlig unabhängig vom Menschen zu definieren. Es gab Information nach meinem Verständnis bereits lange bevor es Menschen gab. Es gab informationsverarbeitenden Systeme wie zb lebende Zellen oder Nervensysteme in Tieren. Auch die Entstehung von bedeutsamer Information kann völlig ohne menschliches Zutun erfolgen. Die ganze biologische Evolution ist ein Prozess der Entwicklung von bedeutsamer Information.
Der Fachbegriff für Bedeutung ist die Semantik und Pragmatik. Auch hier gilt semantische und pragmatische Information kann sich völlig unabhängig vom Menschen entwickeln.
Dann kann man sich fragen, wie unterscheidet sich bedeutsame Information von nicht bedeutsamer Information. Wenn man nur die Zeichenfolge einer Informationssequenz anschaut kann man darüber schon gewiße Aussagen treffen. Eine völlig gleichförmige Informationsfolge zb 101010101010101010101010 hat relativ wenig Bedeutung. Eine völlig zufällige Informationsfolge hat auch wenig Bedeutung. Bedeutsames liegt also immer zwischen den 2 Extremen völlig gleichförmige Ordnung und Zufallsreihe.
Ob der Begriff Information wirklich eine echte, eigenständige Entität im philosophischen Sinne sein kann, weiß ich auch nicht. Es ist bis heute offen, ob es Infonen oder die Weizäckerschen Uralternativen unabhängig von Energie und Materie gibt. Ich habe das die Gretchen Frage der Informationstheorie bezeichnet.
Jedenfalls ist der Begriff Information sehr gut brauchbar, er ist sehr grundlegend und wichtig und er ist einigermaßen neutral. Auch Raum und Zeit sind solche grundlegenden Begriffe. Bei beiden Begriffen streiten sich die Physiker auch, ob es nur Eigenschaften von Energie und Materie sind oder ob sie eine eigenständige physikalische Existenz haben, wie das die klassische Physik angenommen hat.
Man kann die Physik auf den drei Begriffen Energie, Materie und Information aufbauen oder man sucht sich andere Begriffe wie Feld, Kraft, Entropie . Auch darauf läßt sich ganz gut die Physik aufbauen. Welche Begriffe dann die unterste Ebene bilden ist Ansichtssache und muß pragmatisch entschieden werden.
Ist der Zusammenhang zwischen Energie und Materie ähnlich wie zwischen Energie und Information oder wie zwischen Energie und Materie?
Das kann ich auch nicht klar beantworten. Manche Physiker sehen da eine Ähnlichkeit. So behauptet Stonier , daß Materie in Energie und Energie in Information umgerechnet werden kann. Wobei die Dimensionsstufen immer einige Zehnerpotenzen auseinanderliegen. So kann man aus sehr wenig Materie eine große Menge Energie erzeugen und das läuft in der Sonne auch so ab. Ähnlich soll man aus einer kleinen Menge Energie eine sehr große Menge Information erzeugen können. Hier komme ich persönlich nicht mehr mit, denn bislang wurde eben reine (nackte ) Information nie nachgewiesen. Fest steht aber, die Information, die in der Struktur von Materie gespeichert ist kann in die Struktur einer elektromagnetischen Welle umgewandelt werden und umgekehrt.
Deine Aussage "Zufallsinformation unterscheidet sich auf der Datenebene nicht von geordneter Information" ist meines Erachtens nicht korrekt.
Man kann zb 01 Folgen statistisch betrachten und schon recht gut herausfiltern, ob es sich um Zufallsinformation oder nicht zufällige Information handelt. siehe dazu zb: Mein Programm 01 Statistik.
Mfg Rho
O.K., das mit der Gleichheit von Zufälligkeit und Ordnung nehme ich zurück. Ich wollte wohl eher sagen, daß Zufälligkeit und Ordnung für mich nichts mit Bedeutung zu tun hat, d.h. dies kein Weg ist, der Bedeutung auf die Spur zu kommen. Auch bedeutsame Information kann zufällig regelmäßig erscheinen oder zufällig, je nachdem. Dennoch halte ich die Bedeutung für ein wesentliches Element von Information (auch unabhängig vom Menschen) und würde gerne von der Materie/Energie-Diskussion wegkommen. Bist Du einverstanden, daß ich mir die Seite mal vornehme und etwas anders strukturiere? Ich möchte insbesondere schon früh im Text interessante Fragen geballt stellen und dabei auf Unterseiten verweisen, die sich dann dem jeweiligen Thema (Bezug zu Materie und Energie, Bezug zu Zeit und Raum, Shannonsche Informationsmenge, Infonentheorie, etc.) annehmen. Auf diese Weise wird es auch leichter, einzelne Punkte getrennt zu diskutieren :o) Ich werde dabei keine wichtigen Teile von Dir entfernen. Immerhin will ich mir die Arbeit ja nicht nochmal machen ... ;-)
Gruß, Markus
Hallo! Kannst du gerne machen. Ich habe meine Texte sowieso , etwas ausführlicher aber vielleicht auch etwas ungeordneter noch einmal getrennt im Netz stehen. Siehe zb : http://home.t-online.de/home/0926161717-0002/mathe2.htm Oder: http://home.t-online.de/home/0926161717-0001/2nkmdef.htm Mfg rho
Hallo!
Die Texte sind bereits jetzt so umfangreich, daß es schwer war, mit den Änderungen zu beginnen. Ich habe jetzt mal mit einer Stichpunkteliste für tatsächliche Definitionen angefangen, die natürlich gerne erweitert und diskutiert werden soll. Danach kommt dann eine Liste für Verweise auf ausgelagerte Themen (bisher als Unterseiten). Ich könnte mir aber vorstellen, daß man z.B. den Informationslebenszyklus als eigene Seite hat. Danach kommt dann der Rest. Hier sehe ich noch weitere Themen, die sich auslagern ließen, beispielsweise die Ausführungen zur Codierungstheorie, zu Informationsbeispielen und Trägern, zur Informationsmenge, etc. ... Falls Du meine Änderungen nicht schon jetzt total bescheuert findest, würde ich damit in den nächsten Tagen fortfahren.
Gruß, Markus
Obwohl ich nicht gefragt bin wollte ich nur kundtun, dass ich Dein Konzept für sehr gut halte. Sei mutig beim Ändern der Seiten! --Kurt Jansson
Hallo, ich finde, daß das Konzept der reinen Information etwas unklar formuliert ist. Aus diesem Grunde ist es auch schwierig, die Bedeutung der damit verbundenen grundsätzlichen philosophischen Frage zu verstehen. Wie wäre es, reine Information in einem separaten Artikel zu diskutieren? In meinem Verständnis stellt sich in diesem Artikel (Information) die Frage der Gebundenheit von Information an Materie gar nicht, weil Information über Struktur und Bedeutung definiert wird. Die Frage hängt also eng damit zusammen, ob (1) die Bindung von Information an Struktur zulässig ist und (2) Struktur überhaupt notwendig der Bindung an Materie bedarf.
Markus Schaal 07:48, 9. Sep 2002 (UTC)
Hi,
spannendes Thema :-)
nicht geklärt ist m.E. auch das Verhältnis des Begriffs zur Vorstellung über den Begriff und zur beschriebenen Sache, seinem "Objekt". Der normale Alltagsverstand nimmt an, das JEDEM Begriff eine "objektive Realität" entspricht, also eine Sache, die "wirklich existiert". So wird jeder Begriff zum Problem, das man zu lösen sucht indem der Begriff durch andere Begriffe "erklärt" wird. Durch die Natur unseres Denkens verlassen wir dabei jedoch "nie wirklich" die "begriffliche Ebene"... nur deshalb wage ich die Definition:
- Information ist die Bedeutung die Menschen Strukturen beimessen -
Gruss Jonas 22.01.2003
Hallo Jonas! Zu deinem Satz - Information ist die Bedeutung die Menschen Strukturen beimessen - folgender Kommentar und ein paar Fragen:
Wenn die Vorstellung von Information sehr grundlegend ist, sollte sie auch ohne die Menschen in der Definition auskommen. Oder würdest du zB die Begriffe Materie und Energie nur auf den Menschen bezogen definieren ? Information und Informationsverarbeitung gab es schon lange vor den Menschen und wird es noch lange nach den Menschen geben. zb Information die in einem Kristall steckt. Oder Information in der DNS
Zum Thema Bedeutung: Schau dir einmal den Wiki Beitrag dazu an Bedeutung. Es gibt auch völlig unbedeutsame Informationen. Zufallsinformation ist weitgehend bedeutungslos. Auch C.Shannon hat seine Berechnungen der Leistungsfähigkeit von Informationsübertragungskabel ohne jede Rücksicht auf die Bedeutung der Information gemacht. Es kam ihm nur darauf an wieviel er fehlerfrei durch eine Leitung bekommen konnte . Welche Bedeutung die Information hatte, hat ihn zunächst nicht interessiert. Übrigens: Bedeutung entsteht in der Natur auch von ganz alleine, ohne Menschen.
Zum Thema Struktur: Dieser Begriff ist sicher sehr eng mit dem Begriff Information verwandt und könnte genauso gut als Basis einer allgemeinen Informationstheorie dienen.
So etwas grundlegendes zu definieren wie Information ist schwierig, ohne sich im Kreis zu drehen. Ich habe einiges darüber zusammengetragen, an der Basis bleibt es trotzdem dünn, weil die Vorstellung von Information sehr abstrakt ist Siehe auch:
- http://home.t-online.de/home/0926161717-0001/definfo.htm
- http://home.t-online.de/home/0926161717-0002/zufall.htm
Mfg rho
23.01.2003 - Hallo rho,
ob ich die Begriffe Materie und Energie nur auf den Menschen bezogen definieren würde - ja und nein. Jein?
Im praktischen Leben ist es sicherlich ratsam so zu tun, als wären Materie und Energie objektive Tatsachen. Das bringt auch in wissenschaftlicher Hinsicht zumindest im praktischen Bereich einige Vorteile.
Im Zuge der Interpretationen zur Quantenphysik ist jedoch klar geworden, dass der Beobachter durchaus eine Rolle spielt, die weit über die blosse Beobachtung und Interpretation hinausgeht - Stichwort Schrödingers Katze.
Information, Bedeutung, Struktur und sogar Mensch sind Begriffe die so abstrakt sind dass sie m.E. mehr mit der menschlichen Art des Denkens zu tun haben als mit dem, was wir die physikalische Realität nennen. Und dennoch sind solche Begriffe, neben der Mathematik, so immens wichtig in der Wissenschaft und Philosophie...
ich habe angefangen auf deinen Seiten zu lesen und finde sie sehr lesenswert :-)
dort hast du auch einen Link zu http://www.mauthner-gesellschaft.de/ - zum Thema Religionskritik. Diese Seite bietet auch mir schon seit einiger Zeit einen wahren Online-Schatz an philosophischen Texten. Viele von Mauthner, aber auch einige andere. Es geht dort primär um die Sprachkritik, welche allerdings die Religionskritik fast notwendigerweise folgen lässt ;-) Sprachkritik im Wortsinn beschreibt und kritisiert die "Sprache selbst", sozusagen sprachliche "Metaebene" (auch wieder "nur" so ein "Begriff"...).
"vielleicht" "kann" "man" "auch" "alles" "in" "Anführungszeichen" "schreiben" "."
"jeder" "Begriff" "ist" "ein" "Problem" (lol)
was bedeuten für Dich eigentlich Anführungszeichen ('"')?
Beste Grüsse - Jonas
Hallo, ich habe gerade den Punkt
- Alles, was man als Folge von 0 und 1 darstellen kann, ist Information
entfernt, das ist m.E. nicht hilfreich zum Verständnis, sondern nur eine technische Teilmenge. Genauso ist alles, was man mit zwei Flaggen darstellen kann Information. Weniger ist mehr.
Gruss, Cassis 16:33, 8. Apr 2003 (CEST)
Es wird unterschieden zwischen den Begriffen Syntax von Information, Semantik von Information und Pragmatik von Information:
- syntaktische Information = reine Informationsmenge (bzw. reine Struktur), ohne Rücksicht auf die Bedeutung der Information.
- semantische Information = Bedeutung der Information, Qualität der Information
- pragmatische Information = Wirkung der Information, Folgen der Information
Das macht keinen Sinn: semantische Information = Bed. d. Information
Was jetzt, geht es um die Semantik (=Bedeutung) einer Information, oder um die semantische Information innerhalb eines sprachlichen Ausdruckes?
--zeno 03:06, 24. Apr 2003 (CEST)
Der ganze Artikel ist etwas wirr!
- Und viel zu lang und umfangreich. Wer Artikel verfaßt, sollte ab und zu mal nachschauen, welche anderen Artikel auf ihn verweisen, und worauf aus dem großen Thema wohl Bezug genommen werden will. Ein Artikel "Information" wirkt von außen so harmlos, und wird man erschlagen, wo man eigentlich nur eine grobe, einfache Übersicht erwartet. Das ist unnütze Information, nämlich keine! Man kriegt doch als Experte sicherlich auch Unterkategorien hin und kann sie in entsprechend benannte Unterartikel auslagern.
Zitat aus dem Artikel: Eine rein zufällige Struktur (z.B. "cxffecdfröäfröe") ist bedeutungslos, wenn man von der Länge der Zufallsfolge oder der Bedeutung der daran beteiligten Elemente absieht.
- Nein, das interessante an Information ist, dass dies nicht bedeutungslos ist. Es besagt zum Beispiel, dass der Autor über eine Tastatur mit Umlauten verfügte, und dort im linken und im rechten Bereich der Tastatur (aber nicht in der Mitte) ein wenig herumklimperte. Das ist IMHO eine Feststellung, die zumindest das Shannonsche Informationstheorem widerlegt: Eine Nachricht kann sehr wohl Information enthalten, die nie (bewusst) dort hineingelegt wurde. Uli 23:16, 24. Apr 2003 (CEST)
- Das Shannon'sche Theorem ist seit 50 Jahren gut mathematisch fundiert. Es besagt vereinfacht gesagt, dass bei der Übertragung von Information über einen Nachrichtenkanal am Ausgang nicht mehr Information (Bits) herauskommen, als man am Eingang hineinsteckt. Dies wird einleuchtend nachgewiesen. Es geht hier in diesem Zusammenhang nicht um Bewusstsein. Zudem: Was soll das für eine Information sein, dass jemand auf einer Tastatur herumgeklimpert hat? Um das Shannon'sche Theorem zu wiederlegen braucht es substantielle Argumente. Eine tatsächliche Widerlegung wäre das ein ausserordentliches wissenschaftliches Ereignis.
- Das Problem ist, das Shannon Nachrichtentechniker ist (besser: war), und die Bedeutungsebene im Grunde genommen übersieht. Es ist eine Information, dass jemand auf einer Tastatur herumgeklimpert hat, wenn Du beispielsweise ein Historiker des 23. Jahrhunderts bist und eine Arbeit darüber schreibst, wie man im frühen 21. Jahrhunderts Beispiele für zufällige Buchstabenfolgen erzeugt hat. Weit hergeholt, zugegeben. Ich denke aber, dass der Rolle des Beobachters in der Informationstheorie noch viel zu wenig Beachtung geschenkt wird. Man geht irgendwie davon aus, dass Information was absolutes ist. Aber war da nicht mal was mit einem Heisenberg und einer Unschärferelation und einem Beobachter, der das Beobachtete selbst beeinflußt?
- Das Shannon'sche Theorem ist seit 50 Jahren gut mathematisch fundiert. Es besagt vereinfacht gesagt, dass bei der Übertragung von Information über einen Nachrichtenkanal am Ausgang nicht mehr Information (Bits) herauskommen, als man am Eingang hineinsteckt. Dies wird einleuchtend nachgewiesen. Es geht hier in diesem Zusammenhang nicht um Bewusstsein. Zudem: Was soll das für eine Information sein, dass jemand auf einer Tastatur herumgeklimpert hat? Um das Shannon'sche Theorem zu wiederlegen braucht es substantielle Argumente. Eine tatsächliche Widerlegung wäre das ein ausserordentliches wissenschaftliches Ereignis.
- Nett beobachtet. Beweist aber nur, dass die Folge nicht wirklich zufällig ist. Je mehr Einblick der Empfänger in die Gesetzmäßigkeiten des die "zufällige" Folge erzeugenden Sende-Systems hat, desto schwerer ist es, eine für ihn wirklich zufällige (=undurchschaubare) Folge zu erzeugen. Heizer 23:43, 24. Apr 2003 (CEST)
- Mir fehlt hier der Begriff der Relevanz, also dass Informationen in sinnvoll/-los ein/ausgegrenzt werden müssen. --nerd 12:59, 11. Mai 2003 (CEST)~