Cos’è un Quadbit?

Un quadbit è un’unità di memoria del computer contenente quattro bit. Quando si utilizza un sistema noto come formato decimale compresso per memorizzare numeri estremamente lunghi su un computer, un quadbit contiene ciascuna cifra.

Per capire quanto sia utile un quadbit, devi prima ricordare che la più piccola unità di memoria del computer è un po’. Un bit è semplicemente una cifra, che può essere solo uno zero o uno. Questa è la vera base del funzionamento del computer e macchine molto vecchie avevano effettivamente cifre rappresentate da singole bombole di gas che erano vuote o piene a seconda che la cifra rilevante fosse zero o uno.

Un quadbit contiene quattro bit. Poiché ogni bit può essere una delle due possibilità – uno o uno zero – il numero di possibili combinazioni di dati in un quadbit è 2 x 2 x 2 x 2, che è uguale a 16. Questo coincide molto chiaramente con il sistema di numerazione esadecimale, in che sono 16 unità, rispetto alle 10 che usiamo nel sistema decimale più comune. Queste 16 unità sono solitamente rappresentate dai numeri da 0 a 9 e dalle lettere da A a F.

L’esadecimale è comunemente usato in informatica per il modo in cui, poiché tutto in informatica deriva dai due possibili valori del sistema binario, ogni “livello” di memorizzazione dei dati solitamente raddoppia, creando le serie 1, 2, 4, 8, 16, 32 e così via. Un esempio di ciò è che un computer potrebbe avere 256 MB, 512 MB o 1,024 MB di RAM, quest’ultima cifra è equivalente a 1 GB. In teoria ogni raccolta di dati archiviata in un computer può essere suddivisa in 2 blocchi, 4 blocchi, 8 blocchi, 16 blocchi e così via. Poiché il sistema esadecimale ha 16 unità, si adatta perfettamente a questo schema e rende molto più semplice eseguire calcoli relativi all’archiviazione dei dati rispetto al nostro sistema decimale tradizionale.

L’uso più comune del quadbit è in formato decimale compresso. Ciò richiede una stringa di numeri estremamente lunga, come la forma grezza di un programma per computer o altri dati, e la riscrive come una stringa di numeri binari. Ogni cifra del numero originale viene trasformata in una stringa di quattro cifre binarie, in altre parole un quadbit. L’utilizzo del formato decimale compresso può consentire ai computer di elaborare i dati più rapidamente, ma convertirli facilmente nel formato originale al termine.

Il quadbit è comunemente indicato come un bocconcino. Questa è una forma di gioco di parole basata sul fatto che la successiva unità di archiviazione più grande nell’informatica è nota come byte. Poiché un byte è composto da 8 bit, un quadbit è la metà di un byte. La battuta deriva dal fatto che in lingua inglese un bocconcino è una parola che significa un piccolo morso.