En anglais : gigabyteUnité multiple de l’ octet, valant pour le sens commun 1 milliard d’octets.En réalité, la valeur exacte d’un gigaoctet est de 1 073 741 824 octets (1024 x 1024 x 1024).Pourquoi ? Parce que s’il est pratique de recourir à des préfixes multiplicateurs qui nous sont familiers (kilo, méga, giga, etc.). Ceux-ci sont issus de la numération décimale, où les multiples ” ronds ” vont de 10 en 10, et sont fondés sur les puissances de 10 en général.Or l’informatique est fondée sur la numération binaire, où l’on compte de 2 en 2, de 8 en 8, etc., c’est-à-dire sur la base des puissances de 2.Ainsi, afin de disposer exactement de 1 milliard d’octets sur une barrette de mémoire vive (quand des barrettes de cette capacité existeront), il faudrait que la huitième et dernière puce de la barrette soit environ réduite de moitié ! Bref, les unités dérivées du bit ou de l’octet ne respectent pas physiquement ce compte 10 par 10, et il semble préférable d’aménager un peu la valeur de ces facteurs multiplicateurs sans réellement les trahir plutôt que d’inventer d’autres préfixes ou de forcer une réalité physique binaire à suivre une logique décimale qui lui est étrangère.Cela dit, les situations où lutilité de cette précision est patente sont extrêmement rares. Désignations équivalentes : Gigaoctet – Go
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.