Aller au contenu

Normalisation Unicode

Un article de Wikipédia, l'encyclopédie libre.
Ceci est une version archivée de cette page, en date du 8 décembre 2010 à 16:05 et modifiée en dernier par Bibi Saint-Pol (discuter | contributions) (- série + palette). Elle peut contenir des erreurs, des inexactitudes ou des contenus vandalisés non présents dans la version actuelle.

La normalisation Unicode est une normalisation de texte qui transforme des caractères ou séquences de caractères équivalents en représentation fondamentale afin que celle-ci puisse être facilement comparée.

NFD

Les caractères sont décomposés par équivalence canonique et réordonnés.

Exemples
  caractères   forme
normalisée
à a +  ̀ = a +   ̀
ẹ́ e +  ́ +  ̣ e +  ̣ +  ́
ñ ñ n +  ̃
Ω (ohm) Ω Ω (omega)
fi (ligature) =
² ² = ²

NFC

Les caractères sont décomposés par équivalence canonique, réordonnés, et composés par équivalence canonique.

Exemples
  caractères   forme
normalisée
à a +  ̀ à
ẹ́ e +  ́ +  ̣ ẹ +  ́
ñ ñ ñ
Ω (ohm) Ω Ω (omega)
fi (ligature) =
² ² = ²

NFKD

Les caractères sont décomposés par équivalence canonique et de compatibilité, et sont réordonnés.

Exemples
  caractères   forme
normalisée
à a +  ̀ = a +  ̀
ẹ́ e +  ́ +  ̣ e +  ̣ +  ́
ñ ñ n +  ̃
Ω (ohm) Ω Ω (omega)
fi (ligature) = f + i
² ² 2

NFKC

Les caractères sont décomposés par équivalence canonique et de compatibilité, sont réordonnés et sont composés par équivalence canonique.

Exemples
  caractères   forme
normalisée
à a +  ̀ à
ẹ́ e +  ́ +  ̣ ẹ +  ́
ñ ñ = ñ
Ω (ohm) Ω Ω (omega)
fi (ligature) f + i
² ² 2

Annexes

Articles connexes

Liens externes