Zum Inhalt springen

Zeichenkodierung

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 26. Juli 2004 um 14:37 Uhr durch Pjacobi (Diskussion | Beiträge). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Unter Zeichencodierung versteht man das Darstellen eines Zeichens, also eines Buchstabens, einer Ziffer oder eines Symbols, mittels eines im Aufbau einfacheren oder für die betreffende Anwendung geeigneteren Codes. Häufig geschieht dies mittels Zahlenkodierung um Zeichen für Computer verarbeitungfähig zu machen. Ursprünglich wurden hierfür aber optische, akustische oder elektrische Signale verwendet, in aller Regel durch Abfolgen von

  • langem und kurzem Signal,
  • an und aus,
  • hohem und tiefem Ton,

da mit steigender Anzahl der Basiselemte des Codes die Gefahr von Verwechslungen steigt.

Geschichte

Die Anfänge dieser Technik liegen bereits in der Antike, wobei hier das Beispiel von Agamemnon angeführt sei, der von einem Schiff aus mit dem Licht eines Feuers seine Truppen darüber informierte, dass er die Invasion Trojas starten wollte. Bekannt sind ferner Rauchzeichen bei den Indianern oder Nachrichtenübermittlung durch Trommelzeichen.

Insbesondere zur Verständigung von Schiffsverbänden in der Nautik wurden die Techniken später verfeinert. Sir Walter Raleigh erfand für die Verständigung seines Geschwaders auf der Südamerikafahrt 1617 eine Art Vorläufer der Flaggencodierung.

1648 schließlich war es Englands späterer König James II., der das erste Flaggensignalsystem in der britischen Marine einführte.

Nach der Erfindung der Telegrafie benötigte man auch hier eine Zeichenkodierung. Aus den ursprünglichen Ideen des Engländers Alfred Brain entstanden 1837 der originale Morsecode und 1844 der modifizierte Morsecode.

Das CCITT (Commité Consultatif International Telegraphique et Telephonique) war schließlich die Erste Institution, die einen standardisierten Zeichensatz definierte. Dabei basierte dieser Zeichensatz auf einem von Emil Baudot 1880 entwickelten 5er-Code-Alphabet für seinen Synchrontelegraphen, das vom Prinzip her noch heute verwendet wird.

Mit der Entwicklung des Computers begann die binäre Zeichenkodierung. Dabei wurde 1963 eine erste Version des ASCII-Codes durch die ASA (American Standards Association) definiert, um eine Vereinheitlichung der Zeichenkodierung zu erreichen. Obwohl IBM an der Definition mitgearbeitet hatte, führte man 1964 einen eigenen Zeichencode EBCDIC ein. Beide finden bis heite in der Computertechnik Verwendung.

Das Unicode Consortium schließlich veröffentlichte 1991 eine erste Fassung des gleichnamigen Standards, der es sich zum Ziel gesetzt hat, alle Zeichen aller Sprachen in Kodeform zu definieren.