Pour représenter (” coder “) des caractères en informatique, on est amené à prendre en compte deux facteurs principaux :1) les ressources (mémoire vive, mémoire de masse, nombre de bits traités en un cycle par le processeur, etc.) dont on dispose (ou que l’on consent à allouer à cet usage) ;2) le nombre et la ” richesse ” des caractères que l’on veut représenter ;Aux débuts de l’informatique, les ressources étaient comptées très chichement et l’ octet (groupe de 8 bits) s’est imposé comme premier format de ” mot informatique “. ” Un ” peut prendre 256 valeurs et a servi à créer par convention les deux premiers grands codes de caractères : EBCDIC, d’IBM (encore utilisé aujourd’hui chez le constructeur) et ASCII, à partir de 1968. Ces codes ne transcrivaient au départ que les lettres de l’alphabet anglais, les chiffres et quelques symboles (plus des ” caractères de contrôle ” qui correspondaient à diverses fonctions comme retour à la ligne, tabulation, etc.).Aujourd’hui, les ressources informatiques se sont incomparablement enrichies. Un nouveau codage de caractères normalisé, Unicode/UCS, commence à s’implanter sur différents systèmes. Codé au minimum sur 16 bits (avec 20 bits dextension si nécessaire), il permet de représenter à la base plus de 65 000 caractères, soit la quasi-totalité des caractères utilisés dans toutes les langues du monde.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.