Zum Inhalt springen

Claude Shannon

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 20. Mai 2003 um 10:57 Uhr durch Ulrich.fuchs (Diskussion | Beiträge) ("bit" ist nicht von Shannon, sondern von Tukey geprägt (schreibt Shannon selbst in "Mathematical Theory...")). Sie kann sich erheblich von der aktuellen Version unterscheiden.


Claude E. Shannon (* 30. April 1916 in Petoskey, Michigan, † 24. Februar 2001 in Medford, Massachusetts) war amerikanischer Mathematiker. Er gilt (zusammen mit Norbert Wiener) als Begründer der Informationstheorie.

Shannon wuchs auf in Gaylord, Michigan, welches oft auch als Geburtsort angegeben wird, und arbeitete dort in seiner High School-Zeit als Bote für die Western Union. Er war ein Mitglied von Tau Beta Pi.

1932 begann er ein Elektroingenieur- und Mathematikstudium an der University of Michigan, die er 1936 mit einem Abschluss in Mathematik und Elektrotechnik verlies, um an das MIT zu wechseln. In seiner Abschlussarbeit zum Master in Elektrotechnik, A Symbolic Analysis of Relay and Switching Circuits, benutzte er Boolsche Algebra zur Konstruktion von digitalen Schaltkreisen. Außerdem erwarb er seinen Doktortitel in Mathematik mit einer Arbeit über theoretische Genetik (1940).

Nach kurzem Aufenthalt als Forscher am Institute for Advanced Study in Princeton, New Jersey, kam er 1941 als Mathematiker zu den ebenfalls in New Jersey gelegenen AT&T Bell Labs.

Nachdem er schon 1956 eine Gastprofessur am MIT angetreten hatte, wechselt er 1958 ganz an dorthin. 1978 wurde er vom MIT emeritiert. Seine professionellen Beziehung zu den Bell Labs als Berater hielt er währenddessen bis 1972.

1948 veröffentlichte er seine bahnbrechende Arbeit A Mathematical Theory of Communication ("Mathematische Theorie der Kommunikation") [1]. In diesem Aufsatz konzentriert er sich auf das Problem, unter welchen Bedingungen von einem Sender kodierte und durch einen Kommunikationskanal übermittelte Information am Zielort wieder hergestellt, also ohne Informationsverlust, dekodiert werden kann. Zu diesem Zweck entwickelte er das Konzept der Entropie.


Eine weiterer, bemerkenswerter Artikel erschien 1949: Communication Theory of Secrecy Systems[2], in dem Shannon die formalen Grundlagen der Kryptographie klärte und sie damit in den Rang einer eigenständigen Wissenschaft erhob.

Shannon war unwahrscheinlich vielseitig interessiert und kreativ; laut einer Anekdote sah man ihn bei Bell in der Nacht jonglierend (!) auf einem Einrad in den Gängen herumfahren. Randprodukte seiner beruflichen Tätigkeit sind unter anderem eine Jongliermaschine, Raketen-getriebene Frisbees, motorisierte Pogostöcke, eine Gedankenlesemaschine, eine mechanische Maus, die sich in Labyrinthen orientieren konnte, und schon in den 1960ern ein früher Schachcomputer.


Siehe auch: Kryptologie, Ralph Vinton Lyon Hartley, Warren Weaver, Künstliche Intelligenz


Weblinks: