Un des premiers défis relevés par les industriels aux prémices de l’image numérique fut de trouver un moyen de réduire au maximum les données informatiques décrivant les images. En effet, une image numérique non compressée pose dans
la pratique, à cause de son poids important en octets, d’évidents problèmes de transfert (vitesse d’écriture sur la carte mémoire en photo, débit en vidéo) et de stockage. Et la définition des capteurs augmentant sans cesse, les fichiers deviennent
de plus en plus encombrants.Le Jpeg (pour Joint Photographic Expert Group, groupe de scientifiques spécialisés), format de compression très efficace apparu en 1989, est devenu le standard universel en photo, et aujourd’hui, seules quelques
applications professionnelles justifient encore l’emploi d’images non compressées. En vidéo, le standard de compression est le Mpeg (pour Moving Picture Expert Group) inventé en 1992, décliné en Mpeg-2 (1994) puis en Mpeg-4,
adopté comme norme mondiale depuis 1998, avec quelques difficultés de mise en place.
Éviter les répétitions
La compression des images numériques correspond à des calculs mathématiques éminemment complexes, dont on vous épargnera les détails, mais dont les principes de base ne sont pas difficiles à comprendre. Une image n’ayant subi aucune
compression se présente comme une grille régulière de pixels, décrite point par point : le fichier informatique se contente d’énumérer les valeurs RVB de chaque pixel l’un après l’autre.Le premier principe de la compression consiste à éliminer les informations redondantes de l’image, c’est-à-dire à coder de manière plus simple les informations les plus répétées. Ainsi, de grands aplats de couleur comme un mur ou un
ciel bleu ne vont plus être codés sous forme de liste, ce qui prendrait inutilement de la place ; il suffira pour décrire ces ensembles de pixels identiques de donner une seule fois la valeur RVB du pixel, puis d’indiquer la répartition sur
l’image de ces plages de couleurs, un peu à la manière d’un jeu de coloriage pour enfants.
Enlever le superflu
Afin d’optimiser encore le volume du fichier, chaque élément est nommé par un code d’autant plus court qu’il revient fréquemment dans l’image. C’est ce qu’on appelle le codage entropique. Plus l’image est complexe (détails nombreux,
motifs fins), plus elle sera donc difficile à compresser.Ce premier type de compression est dit ‘ sans perte ‘, car si les informations de l’image sont codées de manière plus compacte, aucune donnée de l’original n’est supprimée, et on retrouve donc l’image dans
son intégralité après décodage. Ce type de compression informatique relativement simple est utilisé en photo dans la plupart des fichiers Tiff (compression LZW), et permet de réduire d’un tiers environ les poids des fichiers.En plus de cette compression transparente mais limitée, les algorithmes (fonctions mathématiques) de traitement comme ceux du Jpeg appliquent une compression dite ‘ avec perte ‘. Cette fois, un certain
nombre de données visuelles est définitivement ‘ élagué ‘, ce qui permet d’obtenir des fichiers beaucoup plus légers. L’image est en revanche irrémédiablement dégradée, mais cette altération n’est pas forcément visible car
elle n’est pas réalisée au hasard : les calculs des logiciels de traitement permettent d’éliminer uniquement les éléments les moins visibles de l’image. Pour cela, les propriétés physiologiques de la vision humaine ont été prises en compte, en
particulier sa capacité à mieux discerner les formes générales de l’image que ses plus fins détails.
Un habile jeu de trompe-l’?”il
Ce sont uniquement ces données dites ‘ négligeables ‘ qui vont être sacrifiées, de façon plus ou moins prononcée selon le taux de compression choisi. Mais l’évaluation de la limite entre données négligeables
et données essentielles de l’image reste un exercice périlleux, car il dépend de nombreux critères, parfois subjectifs : format final de l’image, complexité de la scène, mais aussi culture visuelle et exigence de l’observateur.Bien sûr, la perte de qualité va dépendre avant tout du taux de compression appliqué. En pratique, on admet que la compression est apparente au-dessus de 10/1 (fichier final dix fois plus petit que l’original), mais tout dépend aussi
de la résolution et de la taille finale de l’image. À taux de compression et dimensions d’impression identiques, une image contenant plus de pixels se verra moins dégradée qu’une image de faible définition. Les calculs étant effectués sur des blocs
de 8 x 8 pixels, ceux-ci apparaîtront d’autant plus que la compression est forte et la résolution faible.De même, deux images de même poids original compressées de la même manière n’auront pas forcément un poids identique à l’arrivée : une image très détaillée prendra plus de volume qu’une photo sur un fond uniforme, par exemple.
Mais sur cette dernière, la compression sera sans doute moins visible. Il est donc impossible de donner une équivalence précise en poids de fichiers car les taux de compression appliqués réellement varient en fonction de la complexité de la
scènephotographiée. C’est pourquoi les valeurs de notre tableau ne sont proposées qu’à titre indicatif, même si elles fournissent des ordres de grandeur assez justes.Cela se complique encore quand on jette un coup d’?”il aux menus de la plupart des appareils photo. Pas un n’indique clairement le taux de compression (au moins théorique) appliqué à l’image, se contentant de mentions telles
que : extra-fin, superfin, haute qualité, super haute qualité. Seuls quelques modèles mentionnent les taux correspondants dans leurs manuels. Sur la plupart des appareils, on dispose de trois choix de compression différents. La plus fine,
correspondant généralement à un taux de 4/1, ne génère pas de défauts visibles.En revanche, la compression la plus poussée (en général 16/1) permet d’obtenir des fichiers très légers, mais les artefacts seront visibles à coup sûr : aplats disgracieux, motifs parasites… Ce niveau ne doit être utilisé
que pour des photos destinées à être envoyées sur Internet. Le niveau intermédiaire (8/1 en général), souvent programmé par défaut, représente un bon compromis entre poids de fichier et qualité d’image. Mais tout dépend des appareils : les taux
appliqués peuvent varier.
Attention aux compressions multiples
La qualité d’une image Jpeg dépend également de la façon dont elle est décodée lors de son ouverture sur un logiciel d’affichage ou de traitement. Il n’existe pas en effet de norme universelle sur les méthodes de compression et de
décompression en Jpeg. Ce qui signifie qu’une image produite par un appareil photo ou un scanner peut être dégradée même si elle ne subit aucun traitement, juste en étant ouverte puis enregistrée avec différents programmes !Heureusement, ceci ne concerne que le premier enregistrement sur chaque logiciel. À chaque nouvelle ouverture et sauvegarde sur un même logiciel, la méthode et le taux appliqués sont identiques à ceux spécifiés au moment de la
première ouverture. En revanche, il faut éviter de faire transiter une image JPeg sur de trop nombreux programmes différents : elle y perdrait quelques plumes.
Et le Jpeg 2000 ?
Cette limite propre au format Jpeg, déjà vieux de plus de 15 ans, devrait être supprimée grâce au Jpeg 2000. Cette nouvelle version, plus évoluée, permet une compression et une lecture standardisées des fichiers, afin d’assurer
une compatibilité entre tous les appareils et les logiciels. Il autorise également la gestion d’autres systèmes de couleurs que le RVB (notamment le CMJN). Mais le principal avantage du Jpeg 2000 est de pouvoir atteindre des taux de compression de
100/1 sans dégradation visible des images ! Pourquoi donc attendre pour généraliser ce format mis au point depuis cinq ans ? Il semble que les grands éditeurs de logiciels et fabricants d’appareils photo n’aient toujours pas trouvé
d’accord (même si Adobe l’a introduit discrètement sur Photoshop Elements 2), en partie à cause de brevets freinant la diffusion de ce format révolutionnaire.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.