Zum Inhalt springen

Unicode-Konsortium

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 18. September 2007 um 20:45 Uhr durch KnopfBot (Diskussion | Beiträge) (Link auf BKL berichtigt AWB). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Das Unicode-Konsortium ist eine gemeinnützige Organisation (Unicode Inc.), die den Unicode-Standard entwickelt und erweitert und sich für seine Verbreitung einsetzt. Das Konsortium wird ausschließlich über Mitgliedsbeiträge finanziert. Die Mitgliedschaft steht allen natürlichen und juristischen Personen weltweit offen, die bereit sind, den Mitgliedsbeitrag zu entrichten und sich für die Ziele der Organisation zu engagieren. Mittlerweile gehören praktisch alle großen Softwarefirmen wie Adobe Systems, Apple Computer, Microsoft, HP, IBM, Oracle, SAP, Xerox, usw. dem Unicode-Konsortium an.

Das Unicode Consortium arbeitet eng mit dem Normungsgremium ISO (International Organization for Standardization) zusammen, das die bezüglich der Zeichenkodierung mit Unicode vollkommen übereinstimmende Norm ISO 10646 herausgibt. Die Weiterentwicklung der Norm ISO 15924 (Script Codes) ist offiziell an das Unicode Consortium delegiert worden.

Geschichte der Standardisierung von Kodierungssystemen

Eine der frühsten Formen der Digitalisierung war der Morsecode. Dieser wurde mit der Einführung von Fernschreibern aus den Telegrafennetzen verdrängt und durch Baudot-Code und Murray Code ersetzt.

In der frühen elektronischen Datenverarbeitung waren etwa 60 verschiedene Kodierungen in Gebrauch, ehe sich der 1972 festgelegte 7-Bit-ASCII-Standard weitgehend durchgesetzt hat. Wie der Name („American Standard Code for Information Interchange“) schon sagt, diente der ASCII-Code ursprünglich zur Darstellung von Schriftzeichen der englischen Sprache. So wurden verschiedene nationale Abwandlungen des ASCII-Standards in der ISO-Norm 646 festgelegt.

Die ISO 646-Kodierung bot keine Möglichkeit, mit verschiedenen nationalen Zeichensätzen kodierte Daten gleichzeitig darzustellen. So wurde unter Beibehaltung der ASCII-Kodierung für die unteren 128 Zeichen der Coderaum in ISO 8859 auf 8 Bit (256 Zeichen) erweitert, um beispielsweise den größten Teil der Sonderzeichen europäischer Sprachen gleichzeitig darstellen zu können.

Auch ein 8-Bit Code bietet zu wenig Platz, alle Sonderzeichen gleichzeitig unterzubringen, weshalb es von ISO 8859 allein 15 regionale Versionen gibt. An die Festlegung eines brauchbaren chinesischen Zeichensatzes in 8 Bit Kodierung ist gar nicht zu denken. Die zunehmende Internationalisierung aber erfordert eine einheitliche Zeichenkodierung, um den reibungslosen Austausch von Dokumenten zu gewährleisten. Unicode ist heute der unverzichtbare Standard für den internationalen, elektronischen Informationsaustausch, wie im Word Wide Web das Wikipediaprojekt besonders eindrucksvoll demonstriert.

Die ersten Versuche mit einem 16-Bit Code machte Joseph D. Becker Ende der 1980er Jahre im Xerox PARC. Der erste Rechner mit 16-Bit-Schriften war der Xerox Star ca. 1981, er hatte nur leider keinen kommerziellen Erfolg. Doch Joseph D. Becker ließ nicht locker. Mit befreundeten Mitarbeitern von Apple entwarf er 1990 den ersten Unicode Standard 1.0. Im Jahre 1991 wurde dann das Unicode Consortium gegründet.