Un quadbit es una unidad de memoria de computadora que contiene cuatro bits. Cuando se usa un sistema conocido como formato decimal empaquetado para almacenar números extremadamente largos en una computadora, un quadbit contiene cada dígito.
Para comprender la utilidad de un quadbit, primero debe recordar que la unidad más pequeña de memoria de la computadora es un bit. Un bit es simplemente un dígito, que solo puede ser un cero o un uno. Esta es la base misma del funcionamiento de la computadora y las máquinas muy antiguas en realidad tenían dígitos representados por cilindros individuales de gas que estaban vacíos o llenos dependiendo de si el dígito relevante era cero o uno.
Un quadbit contiene cuatro bits. Debido a que cada bit puede ser una de dos posibilidades, un uno o un cero, el número de posibles combinaciones de datos en un quadbit es 2 x 2 x 2 x 2, que es igual a 16. Esto coincide muy claramente con el sistema de numeración hexadecimal, en que son 16 unidades, en comparación con las 10 que usamos en el sistema decimal más común. Estas 16 unidades suelen estar representadas por los números del 0 al 9 y las letras de la A a la F.
El hexadecimal se usa comúnmente en computación debido a la forma en que, como todo en computación se deriva de los dos valores posibles del sistema binario, cada «nivel» de almacenamiento de datos generalmente se duplica, creando las series 1, 2, 4, 8, 16, 32 y así sucesivamente. Un ejemplo de esto es que una computadora puede tener 256 MB, 512 MB o 1,024 MB de RAM, siendo esta última cifra equivalente a 1 GB. En teoría, cada colección de datos almacenados en una computadora se puede dividir en 2 partes, 4 partes, 8 partes, 16 partes, etc. Debido a que el sistema hexadecimal tiene 16 unidades, encaja en este patrón sin problemas y hace que sea mucho más fácil hacer cálculos referidos al almacenamiento de datos que si utilizara nuestro sistema decimal tradicional.
El uso más común del quadbit es en formato decimal empaquetado. Esto toma una cadena de números extremadamente larga, como la forma sin procesar de un programa de computadora u otros datos, y la reescribe como una cadena de números binarios. Cada dígito del número original se convierte en una cadena de cuatro dígitos binarios, en otras palabras, un quadbit. El uso del formato decimal empaquetado puede permitir que las computadoras procesen los datos más rápidamente, pero que los conviertan fácilmente a su formato original cuando estén terminados.
El quadbit se conoce comúnmente como nibble. Esta es una forma de juego de palabras basada en el hecho de que la siguiente unidad de almacenamiento más grande en informática se conoce como byte. Dado que un byte consta de 8 bits, un quadbit es la mitad de un byte. La broma proviene del hecho de que en el idioma inglés, un mordisco es una palabra que significa un pequeño bocado.