Réduire le poids des données sans en altérer la qualité : c’est le but des techniques de compression d’image que les chercheurs tentent d’améliorer. Mais les difficultés restent nombreuses…
Entre la photo, la vidéo et la télévision, nous consommons toujours plus d’images numériques. Mais les tuyaux qui servent à les diffuser (liaisons ADSL et câble, réseaux de téléphonie mobile, etc.) comme les supports qui permettent de les stocker (cartes mémoire, disques durs, DVD, etc.) n’ont pas des capacités infinies ?” même si elles augmentent continuellement. D’autant que cette boulimie de pixels va encore s’accentuer avec le développement de nouvelles technologies, telles la haute définition, la télévision sur téléphone mobile, etc. Pour satisfaire ces nouveaux besoins, les spécialistes cherchent à mettre au point d’autres méthodes de compression d’image, afin de réduire le poids des données. Avec une contrainte incontournable : ne pas ?” trop ?” dégrader la qualité.
Le principe du JPeg : le découpage de l’image en carrés
Les premiers standards de compression d’image n’avaient que peu d’incidences sur la qualité. A l’instar des techniques de compression de données ‘ informatiques ‘, elles se contentaient de réduire la taille des fichiers en codant intelligemment les redondances (les parties qui se répètent à l’identique). Ainsi, au lieu de coder une image point par point, toutes les zones présentant des caractéristiques semblables (des aplats de couleurs, par exemple) utilisaient le même code, et ce code était d’autant plus court que l’élément était fréquent. Avec ce type de compression, l’image compressée ne présentait qu’un faible taux de dégradation, elle ressemblait beaucoup à l’image d’origine. Revers de la médaille : le poids du fichier était souvent quasi identique à celui du fichier d’origine !Puis est arrivé le JPeg. Ce format tire son nom du Joint Photographic Expert Group, le comité de spécialistes de l’image qui a défini sa norme en 1991. Destructif, le JPeg permet de faire varier le taux de compression de façon inversement proportionnelle à la qualité de l’image. Son principe repose sur le découpage de l’image en carrés de 8 x 8 pixels (ou 16 x 16), puis sur leur compression à l’aide d’une opération mathématique appelée Transformée DCT (en français Transformée en cosinus discrète). Cette opération traduit les carrés, d’une part en fréquences, dont la valeur représente l’importance et la rapidité d’un changement dans l’image ; d’autre part en amplitudes, dont la valeur représente l’écart des changements de couleurs. Pour faire baisser le poids des images, on augmente le taux de compression en éliminant les fréquences de faible amplitude. Bien entendu, plus le nombre de valeurs éliminées est important, plus l’image est mauvaise. Mais c’est le prix à payer pour une compression importante. Plus efficace que les méthodes de compression non destructives pour réduire le poids des images, le JPeg présente toutefois un défaut majeur : après l’opération, le réassemblage des carrés engendre des artefacts disgracieux en faisant apparaître des traces au niveau de leurs jonctions.
Une nouvelle technique qui repose sur les ondelettes
En 2001, des chercheurs ont finalisé un procédé qui élimine ce défaut. Baptisé JPeg 2000, il ne repose plus sur les DCT, mais sur les ondelettes. Plutôt que de compresser l’ensemble de l’image au même taux, le procédé des ondelettes analyse les contrastes et les classe en fonction de leur importance. La compression tient compte de ces différences : une dégradation plus importante est admise pour les régions à faible contraste, là où les approximations n’auront que peu d’importance pour le rendu de l’image. Les zones de fort contraste sont, en revanche, ménagées. Cette compression à géométrie variable autorise, à qualité identique, une compacité plus grande que le JPeg. S’il n’est pas parfait, le résultat introduit une impression de flou général plus acceptable que l’apparition d’artefacts aux jointures des blocs. Mais la complexité de ses calculs nécessite tant de ressources au niveau de la mémoire et des processeurs que le JPeg 2000 n’a pas réussi à s’imposer.Aujourd’hui, plusieurs pistes sont suivies pour trouver un autre successeur au JPeg. Certains chercheurs tentent d’améliorer les processus mathématiques servant à compresser les images, tandis que d’autres essaient d’en élaborer de nouveaux. Mais aucun n’a encore fait la preuve de la supériorité de son procédé de compression par rapport au JPeg. L’enjeu est pourtant de taille, car imposer un nouveau format reviendrait à percevoir des droits de la part de nombreux fabricants (constructeurs d’appareils photo numériques, de décodeurs, de téléphones mobiles…). C’est pour cette raison que les chercheurs restent discrets sur leurs nouvelles pistes et leurs progrès. En matière de compression d’images, la bataille des standards ne fait que débuter.