Aller au contenu

Normalisation Unicode

Un article de Wikipédia, l'encyclopédie libre.
Ceci est une version archivée de cette page, en date du 2 avril 2007 à 11:33 et modifiée en dernier par Moyogo (discuter | contributions) (+cat). Elle peut contenir des erreurs, des inexactitudes ou des contenus vandalisés non présents dans la version actuelle.

La normalisation Unicode est une normalisation de texte qui transforme des caractères ou séquences de caractères équivalents en représentation fondamentale afin que celle-ci puisse être facilement comparée.


NFD

Les caractères sont décomposés par équivalence canonique et réordonnés.

Exemples
  • e +  ́ , inchangé
  • e +  ́ +  ̣→ e +  ̣ +  ́
  • ñ → n +  ̃
  • Ω → Ω
  • fi, inchangé
  • ², inchangé

NFC

Les caractères sont décomposés par équivalence canonique, réordonnés, et composés par équivalence canonique.

Exemples
  • e +  ́ → é
  • e +  ́ +  ̣→ ẹ +  ́
  • n +  ̃→ ñ
  • Ω → Ω
  • fi, inchangé
  • ², inchangé

NFKD

Les caractères sont décomposés par équivalence canonique et de compatibilité, et sont réordonnés.

Exemples
  • e +  ́ , inchangé
  • e +  ́ +  ̣→ e +  ̣ +  ́
  • ñ → n +  ̃
  • Ω → Ω
  • fi → f + i
  • ² → 2

NFKC

Les caractèrs sont décomposés par équivalence canonique et de compatibilité, sont réordonnés et sont composés par équivalence canonique.

Exemples
  • e +  ́ → é
  • e +  ́ +  ̣→ ẹ +  ́
  • n +  ̃→ ñ
  • Ω → Ω
  • fi → f + i
  • ² → 2

Voir aussi

Liens externes