Un phénomène naturel ou artificiel peut être représenté ou quantifié de façon continue – on le qualifiera d’ analogique – ou de façon discontinue, par découpage d’échantillons dudit phénomène – on le qualifiera de numérique.Le numérique est une technique plus moderne de quantification et de création de phénomènes qui joue sur l’ échantillonnage, c’est-à-dire l’économie de moyens (on ne représente ou on ne crée que la proportion suffisante du phénomène pour qu’il soit perçu par les sens humains comme ” réaliste ” ou utile).L’informatique est entièrement fondée sur la représentation numérique de phénomènes et de contenus. La relation entre phénomène physique et codification numérique s’instaure au plus bas niveau, celui des millions de transistors que regroupent les processeurs et autres circuits intégrés d’aujourd’hui. La présence ou l’absence d’électricité permet de définir un système de numération binaire sur lequel sont fondés des représentations numériques et symboliques plus complexes.La conséquence et l’intérêt majeur de la numérisation, c’est la possibilité de manipuler à volonté, grâce à l’ ordinateur, tous les contenus représentés sous cette forme.Notons qu’il existe une tendance à emprunter dans le langage courant le mot anglais équivalent digital, mais il semble plus indiqué de réserver à ce mot son sens français classique (relatif aux doigts, comme dans ” empreintes digitales “) et de profiter de l’existence de l’adjectif ” numérique “, qui exprime plus clairement ce quil désigne.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.