Un gigabyte es un término que indica un valor definido de la cantidad de datos con respecto a la capacidad de almacenamiento o el contenido. Se refiere a una cantidad de algo, generalmente datos de algún tipo, que a menudo se almacenan digitalmente. Un gigabyte generalmente se refiere a mil millones de bytes. Un gigabyte se puede confundir potencialmente con un gibibyte, que también es una cantidad de almacenamiento pero se basa en un sistema binario o base dos.
La forma más fácil de entender el término «gigabyte» es dividirlo en sus dos partes base: «giga» y «byte». Un byte es un dato y, por lo general, se considera la cantidad más pequeña de datos que se utiliza para representar un solo carácter en un código de computadora. En otras palabras, los bytes son los bloques de construcción individuales de un código de computadora. Cada byte está compuesto por una cantidad de bits, generalmente ocho, y cada bit es un dato que generalmente tiene uno de dos valores posibles: generalmente representado como 1 o 0.
Los bits son las partes individuales del código binario que se agrupan, ocho a la vez, para crear un solo byte que luego constituye los datos en un sentido más amplio. Por lo tanto, los programas de computadora están formados por bytes, por lo que el tamaño de un programa se representa en términos de bytes. Así como una pared hecha con 100 ladrillos será más grande que una pared hecha con 10 de los mismos ladrillos, un programa de 100 bytes es más grande que uno de 10 bytes. En lugar de expresar los tamaños de programas grandes en miles o millones, y ahora miles de millones y billones de bytes, se utilizan prefijos para indicar órdenes de magnitud.
Estos prefijos siguen las notaciones establecidas del Sistema Internacional de Unidades, similar a lo que se usa en las medidas métricas. Por lo tanto, 1,000 bytes se denominan kilobyte, 1 millón de bytes es un megabyte, mil millones de bytes es un gigabyte y 1 billón de bytes es un terabyte. Cada uno de estos prefijos indica un orden de magnitud en el que se incrementan los bytes, y de alguna manera corresponden a la notación binaria que usa una terminología similar. Es debido a este tipo de notación que un gigabyte a veces se puede confundir con un gibibyte, que es similar pero de tamaño diferente.
Un gibibyte es un tamaño que se usa con mayor frecuencia para referirse a la capacidad de almacenamiento o procesamiento de la memoria, como la memoria de acceso aleatorio (RAM). Este tamaño se basa en un sistema binario o de base dos, en el que los órdenes de magnitud consisten en aumentos exponenciales de 10 a una base de dos. En otras palabras, 210 bytes es un kibibyte, 220 bytes es un mebibyte y 330 bytes es un gibibyte. Si bien esto está cerca de un gigabyte, no es exactamente lo mismo: un gibibyte tiene 1,073,741,824 bytes; y ha generado confusión con respecto a los tamaños de almacenamiento reales en discos duros y dispositivos de memoria similares.