Un tipo de datos primitivo es un término informático que se utiliza para describir un dato que existe dentro de un lenguaje de programación de computadoras de forma predeterminada. Por lo general, un programador de computadoras no puede cambiar los valores de estos tipos de datos. Por ejemplo, si un programa de computadora fuera una pared de ladrillos, los tipos de datos primitivos serían un tipo especial de ladrillo que no se podría descomponer ni refinar más. Un ejemplo de un dato primitivo es el carácter «a»; este carácter se refiere a sí mismo y se utiliza para representar piezas de información más complicadas combinándolas con otras piezas de información. Si bien los tipos de datos primitivos precisos que están disponibles en cualquier lenguaje de programación de computadoras varían de un idioma a otro, los números enteros y los caracteres son tipos de datos primitivos básicos disponibles en la mayoría de ellos.
El «carácter» es uno de los tipos de datos primitivos básicos disponibles en la mayoría de los lenguajes de programación de computadoras, y a veces se lo denomina en la forma abreviada «char». Este tipo de datos incluye la mayoría de los símbolos individuales que se pueden ingresar en una computadora con una sola pulsación de tecla, como el símbolo numérico «5», signos de puntuación como «.» Y la letra «b». Sin embargo, el término carácter no solo significa letra, número o signo de puntuación. Los caracteres de control como eliminar, tabulación y retroceso también se incluyen en el carácter de tipo de datos primitivo.
En general, todo lo que sea un tipo de datos primitivo también es un tipo de valor, lo que significa que los datos no son muy exigentes. Los datos no siempre tienen que registrarse de la misma forma. Por ejemplo, no suele importar en qué orden se registran los bytes que describen los datos.
Un área en la que varían algunos lenguajes de programación es su tratamiento de las cadenas. Como término de ciencias de la computación, una cadena es una secuencia de símbolos, como caracteres. Algunos lenguajes de programación incorporan soporte para cadenas y las tratan como un tipo de datos primitivo, mientras que otros lenguajes no tienen un soporte básico para el tipo de datos.
Los enteros son un área donde el hardware de la computadora puede afectar el tratamiento de tipos de datos primitivos. En terminología informática, un número entero representa uno o más números enteros matemáticos. Las diferentes unidades de procesamiento central (CPU) tienen diferentes límites sobre la cantidad de bytes que se pueden usar para representar un número entero. A veces, esto es algo que los programadores de computadoras tienen en cuenta para que sus programas puedan ejecutarse en tantos tipos diferentes de CPU como sea posible.