Un formato entero es un tipo de datos en la programación de computadoras. Los datos se escriben según el tipo de información que se almacena, con qué precisión se almacenan los datos numéricos y cómo se manipula esa información en el procesamiento. Los enteros representan unidades enteras. Los enteros ocupan menos espacio en la memoria, pero esta función de ahorro de espacio limita la magnitud del entero que se puede almacenar.
Los enteros son números enteros que se utilizan en aplicaciones de aritmética, álgebra, contabilidad y enumeración. Un número entero implica que no hay unidades parciales más pequeñas. El número 2 como entero tiene un significado diferente que el número 2.0. El segundo formato indica que hay dos unidades enteras y cero décimas de unidad, pero que son posibles décimas de unidad. El primer número, como entero, implica que no se consideran unidades más pequeñas.
Hay dos razones para un formato entero en los lenguajes de programación. Primero, un formato entero es apropiado cuando se consideran objetos que no son divisibles en unidades más pequeñas. Un gerente que escribiera un programa de computadora para calcular la división de un bono de $ 100 entre tres empleados, no asignaría un formato entero a la variable del bono, pero usaría uno para almacenar el número de empleados. Los programadores reconocieron que los números enteros son números enteros y no requieren tantos dígitos para ser representados con precisión.
En los primeros días de la informática, el espacio de la memoria era limitado y valioso, y se desarrolló un formato de números enteros para ahorrar memoria. Como la memoria de la computadora es un sistema binario, los números se representaron en la base 2, lo que significa que los dígitos aceptables son 0 y 1. El número 10 en la base 2 representa el número 2 en la base 10, ya que el 1 en la columna del dos es el dígito multiplicado por 2 elevado a la segunda potencia. 100 en la base 2 es igual a 8 en la base 10, ya que el 1 en la primera columna es 1 multiplicado por 2 al cubo.
Usando una base de encendido / apagado para representar números binarios, se desarrollaron computadoras con base eléctrica. Un bit es una representación de datos única de encendido / apagado, verdadero / falso o 0/1. Si bien se exploraron diferentes configuraciones de hardware utilizando variaciones del número de bits directamente direccionables por la computadora, el byte de 8 bits y la palabra de 2 bytes se convirtieron en estándar para la computación de uso general. Entonces, la especificación del ancho del formato de entero determina no el número de lugares decimales sino el valor más grande y más pequeño que puede asumir un entero.
La mayoría de los formatos de números enteros permiten que se use un bit como signo para designar un entero positivo o negativo. En un compilador de lenguaje de 32 bits, los lenguajes C / C + utilizan el formato de entero, int, para almacenar valores enteros con signo entre –231 y 231-1. Se resta un valor entero para acomodar el cero, o aproximadamente +/- 2.1 billones. En un compilador de 64 bits, utilizando el tipo de datos int64, se permiten valores enteros con signo entre -263 y 263-1, o +/- 9.2 trillones.