Un tipo di dati primitivo è un termine informatico utilizzato per descrivere un dato che esiste all’interno di un linguaggio di programmazione per computer per impostazione predefinita. In genere, i valori di questi tipi di dati non possono essere modificati da un programmatore di computer. Ad esempio, se un programma per computer fosse un muro di mattoni, i tipi di dati primitivi sarebbero un tipo speciale di mattoni che non può essere scomposto o ulteriormente perfezionato. Un esempio di dato primitivo è il carattere “a”; questo carattere significa se stesso e viene utilizzato per rappresentare informazioni più complesse combinandole con altre informazioni. Mentre i precisi tipi di dati primitivi disponibili in un dato linguaggio di programmazione per computer variano da linguaggio a linguaggio, numeri interi e caratteri sono tipi di dati primitivi di base disponibili nella maggior parte di essi.
Il “carattere” è uno dei tipi di dati primitivi di base disponibili nella maggior parte dei linguaggi di programmazione per computer, ed è talvolta indicato nella forma abbreviata “char”. Questo tipo di dati include la maggior parte dei singoli simboli che possono essere inseriti in un computer con una singola pressione di un tasto, come il simbolo numerico “5”, i segni di punteggiatura come “.” e la lettera “b”. Tuttavia, il termine carattere non significa solo lettera, numero o segno di punteggiatura. Anche i caratteri di controllo come delete, tab e backspace rientrano nel carattere del tipo di dati primitivo.
In generale, tutto ciò che è un tipo di dati primitivo è anche un tipo di valore, il che significa che i dati non sono molto esigenti. I dati non devono essere sempre registrati allo stesso modo. Ad esempio, di solito non importa in quale ordine sono registrati i byte che descrivono i dati.
Un’area su cui variano alcuni linguaggi di programmazione è il loro trattamento delle stringhe. Come termine informatico, una stringa è una sequenza di simboli, come i caratteri. Alcuni linguaggi di programmazione supportano le stringhe e le trattano come un tipo di dati primitivo, mentre altri linguaggi non hanno un supporto di base per il tipo di dati.
Gli interi sono un’area in cui l’hardware del computer può influenzare il trattamento dei tipi di dati primitivi. Nella terminologia informatica, un numero intero rappresenta uno o più numeri interi matematici. Diverse unità di elaborazione centrale (CPU) hanno limiti diversi su quanti byte possono essere utilizzati per rappresentare un numero intero. A volte, questo è qualcosa che i programmatori di computer tengono a mente in modo che i loro programmi possano essere eseguiti su quanti più tipi diversi di CPU possibile.