Skip to main content

Cos'è un Quadbit?

Un Quadbit è un'unità di memoria del computer contenente quattro bit. Quando utilizza un sistema noto come formato decimale imballato per archiviare numeri estremamente lunghi su un computer, un quadbita contiene ogni cifra.

Per capire come è utile un quadbita, è necessario innanzituttoRicorda che la più piccola unità di memoria del computer è un po '.Un po 'è semplicemente una cifra, che può essere solo uno zero o uno.Questa è la base del funzionamento del computer e le macchine molto vecchie avevano effettivamente cifre rappresentate da singoli cilindri di gas che erano vuoti o pieni a seconda che la cifra pertinente fosse zero o una.

Un quadbita contiene quattro bit.Perché ogni bit può essere una delle due possibilità - una o uno zero - il numero di possibili combinazioni di dati in un quadbita è 2 x 2 x 2 x 2, che è uguale a 16. Questo coincide in modo molto ordinato con il sistema di numerazione esadecimale, in cui ci sono 16 unità, rispetto alle 10 che utilizziamo nel sistema decimale più comune.Queste 16 unità sono generalmente rappresentate dai numeri da 0 a 9 e le lettere da A a F.

esadecimale sono comunemente usate nel calcolo a causa del modo in cui, poiché tutto nel calcolo deriva dai due possibili valori del sistema binario, ciascuno "Livello "dell'archiviazione dei dati di solito raddoppia, creando la serie 1, 2, 4, 8, 16, 32 e così via.Un esempio di ciò è che un computer potrebbe avere 256 MB, 512 MB o 1,024 MB di RAM, quest'ultima cifra equivalente a 1 GB.In teoria, ogni raccolta di dati memorizzati in un computer può essere suddivisa in 2 blocchi, 4 blocchi, 8 blocchi, 16 blocchi e così via.Poiché il sistema esadecimale ha 16 unità, si inserisce in questo modello senza intoppi e rende molto più facile fare calcoli riferendosi all'archiviazione dei dati rispetto a se hai utilizzato il nostro sistema decimale tradizionale.

L'uso più comune del Quadbit è in formato decimale imballato.Questo richiede una stringa di numeri estremamente lunga, come la forma grezza di un programma per computer o altri dati, e lo riscrive come una stringa di numeri binari.Ogni cifra nel numero originale viene trasformata in una stringa di quattro cifre binarie - in altre parole un quadbita.L'uso del formato decimale impacchettato può consentire ai computer di elaborare i dati più rapidamente ma facilmente convertirli nel suo formato originale al termine.

Il Quadbit è comunemente indicato come un bocconcino . Questa è una forma di gioco di parole basato sul fatto che la prossima unità più grande di archiviazione nel calcolo è nota come byte.Poiché un byte è composto da 8 bit, un quadbita è metà di un byte.La battuta deriva dal fatto che in lingua inglese, un

è una parola che significa un piccolo morso.