Les données informatiques étant stockées sur des supports et souvent transmises par des réseaux, le souci de faire en sorte qu’elles occupent le moins d’espace possible est naturel.Pour cela, la compression cherche à éliminer les redondances d’informations en les codant de façon plus économe. Ainsi, si dans une image, l’intégralité d’une ligne est de la même teinte, il est superflu de coder cette même teinte pour tous les points de cette ligne et il est envisageable de recourir à un code signifiant ” 640 fois un pixel de telle couleur “.C’est ainsi que fonctionne l’algorithme de compression le plus élémentaire, RLC (Run-Length Coding). D’autres algorithmes cherchent à optimiser le processus en analysant les données afin de relever les suites d’ octets les plus fréquentes, en vue de les coder de façon réduite.Pour les fichiers de données ou les programmes, la décompression doit permettre de retrouver le fichier dans son état d’origine, à l’octet près, faute de quoi il ne serait plus d’aucune utilité. Le processus de compression ne doit donc en aucun cas entraîner la perte d’une partie des données. Les taux de réduction courants de ces algorithmes sans pertes vont de 50 % à 25 % de la taille d’origine.En revanche, pour d’autres types de données, principalement le son et les images, il est envisageable d’accepter une perte de données, c’est-à-dire une baisse de qualité du son ou de l’image, pour bénéficier en contrepartie d’un volume de données réduit, plus facile à stocker et plus facile à transmettre.Ainsi, les algorithmes JPEG (images fixes) et MPEG (images animées, sons) parviennent à des taux de compression élevés, jusqu’à produire des fichiers vingt fois plus petits que les fichiers dorigine.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.