Un peu d’épistémologie : pour compter, il faut un système de numération (des chiffres et une manière de les combiner) et un tel système s’appuie souvent sur une donnée naturelle. Ainsi, notre système de numération standard, le système décimal, est très probablement issu du fait que nous avons dix doigts sur lesquels compter.La donnée ” naturelle ” la plus simple de l’informatique, c’est qu’en tel ou tel point d’un circuit électronique, il peut y avoir un courant électrique qui passe, ou non.Cela fait deux états possibles qu’on a arbitrairement choisi de considérer comme les chiffres 0 et 1. On appelle l’unité qui peut prendre ces deux valeurs possibles un ” bit “. Comme on dispose là d’un éventail de possibilités extrêmement restreint, il s’agit ensuite de combiner ces bits pour étendre les possibilités de comptage et de codage.Sans rentrer dans les détails, on peut dire que les ” millions de transistors ” que l’on retrouve en quantité toujours plus grande dans les circuits intégrés d’aujourd’hui sont autant de bits qui seront employés à différents usages.Il est ainsi plaisant de penser que les tâches très avancées que nous effectuons grâce aux ordinateurs d’aujourd’hui sont toutes assises en dernière analyse sur la présence ou non d’un courant électrique en un point dun circuit électronique.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.