Naar inhoud springen

Unicode

Uit Wikipedia, de vrije encyclopedie
Dit is een oude versie van deze pagina, bewerkt door 213.17.96.235 (overleg) op 12 jan 2004 om 20:11. (Unicode, van 1 byte naar 2 bytes)
Deze versie kan sterk verschillen van de huidige versie van deze pagina.
(wijz) ← Oudere versie | Huidige versie (wijz) | Nieuwere versie → (wijz)

In sommige computerprogramma's (simpele tekstverwerkers, zoals Kladblok) wordt de ASCII-code gebruikt. Dit houdt in dat 1 teken (een letter, cijfer, leesteken etc.) uit 8 bits (dus 1 byte) betaat. Een bit kan gezien worden als òf een 1 òf een 0 (alles wat digitaal is heeft hier mee te maken). In een rijtje van 2 bits heb je dus 4 (2^2) mogelijkheden. 00 01 10 11 In een rijtje van 3 bits heb je dus 8 (2^3) mogelijkheden. 000 001 010 100 011 110 101 111 Hieruit volgt dat je in een rijtje van 8 bits (een byte) 256 (2^8) mogelijkheden hebt. Voor de Nederlandse taal is dit wel genoeg, maar voor een taal met andere tekens (bijvoorbeeld Chinees, Japans of Arabisch) is dat bij lange na niet genoeg. Toen ze hier achter kwamen is Unicode ontwikkeld. Dit houdt in dat voor elk teken niet één byte (8 bits) wordt gerekend, maar 2 bytes (16 bits). Je hebt nu telkens rijtjes met 16 bits. Aangezien een bit 2 waardes (een 1 of een 0) kan hebben heb je nu 2^16 (65536) mogelijkheden. Nu kan je wel een heel Chinees alfabet met alle leestekens erbij weergeven.