Skip to main content

Qu'est-ce qu'un quadbit?

Un quadbit est une unité de mémoire d'ordinateur contenant quatre bits. Lorsqu'ils utilisent un système connu sous le nom de format décimal emballé pour stocker des nombres extrêmement longs sur un ordinateur, un quadbit contient chaque chiffre.

Pour comprendre comment un quadbit est utile, vous devez d'abordN'oubliez pas que la plus petite unité de mémoire informatique est un peu.Un peu est simplement un chiffre, qui ne peut être qu'un zéro ou un.Il s'agit de la base même du fonctionnement informatique et des machines très anciennes avaient en fait des chiffres représentés par des cylindres individuels de gaz qui étaient vides ou pleins selon que le chiffre pertinent était nul ou un.

Un quadbit contient quatre bits.Parce que chaque bit peut être l'une des deux possibilités - une ou un zéro - le nombre de combinaisons possibles de données dans un quadbit est de 2 x 2 x 2 x 2, ce qui équivaut à 16. Cela coïncide très bien avec le système de numérotation hexadécimal, dans lequel il y a 16 unités, par rapport aux 10 que nous utilisons dans le système décimal le plus courant.Ces 16 unités sont généralement représentées par les nombres 0 à 9 et les lettres A à F.

Hexadecimal est couramment utilisée dans le calcul en raison de la façon dont tout dans l'informatique dérive des deux valeurs possibles du système binaire, chacune «niveau »du stockage de données double généralement, créant les séries 1, 2, 4, 8, 16, 32 et ainsi de suite.Un exemple de cela est qu'un ordinateur peut avoir 256 Mo, 512 Mo ou 1 024 Mo de RAM, cette dernière figure équivalente à 1 Go.En théorie, chaque collection de données stockées dans un ordinateur peut être divisée en 2 morceaux, 4 morceaux, 8 morceaux, 16 morceaux et ainsi de suite.Étant donné que le système hexadécimal a 16 unités, il s'inscrit en douceur dans ce modèle et facilite beaucoup les calculs se référant au stockage de données que si vous avez utilisé notre système décimal traditionnel.

L'utilisation la plus courante du quadbit est au format décimal emballé.Cela prend une chaîne de nombres extrêmement longue, telle que la forme brute d'un programme informatique ou d'autres données, et la réécrit en tant que chaîne de nombres binaires.Chaque chiffre du numéro d'origine est transformé en une chaîne de quatre chiffres binaires - en d'autres termes un quadbit.L'utilisation du format décimal emballé peut permettre aux ordinateurs de traiter les données plus rapidement mais de le convertir facilement à son format d'origine une fois terminé.

Le quadbit est communément appelé un grignotage . Il s'agit d'une forme de jeu de mots basé sur le fait que la prochaine plus grande unité de stockage en informatique est appelée octet.Parce qu'un octet se compose de 8 bits, un quadbit est la moitié d'un octet.La blague vient du fait que dans la langue anglaise, un gribouillage est un mot signifiant une petite bouchée.