Che cos’è il formato intero?

Un formato intero è un tipo di dati nella programmazione del computer. I dati vengono digitati in base al tipo di informazioni archiviate, alla precisione con cui vengono archiviati i dati numerici e al modo in cui tali informazioni devono essere manipolate durante l’elaborazione. I numeri interi rappresentano unità intere. Gli interi occupano meno spazio in memoria, ma questa funzione salvaspazio limita la grandezza dell’intero che può essere memorizzato.

Gli interi sono numeri interi utilizzati nelle applicazioni di aritmetica, algebra, contabilità ed enumerazione. Un numero intero implica che non ci sono unità parziali più piccole. Il numero 2 come numero intero ha un significato diverso dal numero 2.0. Il secondo formato indica che ci sono due unità intere e zero decimi di unità ma che sono possibili decimi di unità. Il primo numero, come intero, implica che le unità più piccole non vengono considerate.

Ci sono due ragioni per un formato intero nei linguaggi di programmazione. Innanzitutto, un formato intero è appropriato quando si considerano oggetti che non sono divisibili in unità più piccole. Un manager che scrive un programma per computer per calcolare la divisione di un bonus di $ 100 tra tre dipendenti, non assegnerebbe un formato intero alla variabile del bonus ma ne userebbe uno per memorizzare il numero di dipendenti. I programmatori hanno riconosciuto che gli interi sono numeri interi e non richiedono tante cifre per essere rappresentati con precisione.

Agli albori dell’informatica, lo spazio di memoria era limitato e prezioso e fu sviluppato un formato intero per risparmiare memoria. Poiché la memoria del computer è un sistema binario, i numeri sono stati rappresentati in base 2, il che significa che le cifre accettabili sono 0 e 1. Il numero 10 in base 2 rappresenta il numero 2 in base 10, poiché l’1 nella colonna dei due è la cifra moltiplicata per 2 elevato alla seconda potenza. 100 in base 2 è uguale a 8 in base 10, poiché l’1 nella prima colonna è 1 moltiplicato per 2 al cubo.

Utilizzando una base on/off per la rappresentazione dei numeri binari, sono stati sviluppati computer a base elettrica. Un bit è una singola rappresentazione di dati on/off, vero/falso o 0/1. Mentre sono state esplorate diverse configurazioni hardware utilizzando variazioni del numero di bit direttamente indirizzabili dal computer, il byte a 8 bit e la parola a 2 byte sono diventati standard per l’elaborazione di uso generale. Quindi la specifica della larghezza del formato intero non determina il numero di posizioni decimali ma il valore più grande e più piccolo che un intero può assumere.

I formati interi della maggior parte delle lingue consentono di utilizzare un bit per un segno per designare un intero positivo o negativo. In un compilatore di linguaggi a 32 bit, i linguaggi C/C+ utilizzano il formato intero, int, per memorizzare valori interi con segno compresi tra –231 e 231-1. Un valore intero viene sottratto per accogliere lo zero, o circa +/- 2.1 trilioni. In un compilatore a 64 bit, utilizzando il tipo di dati int64, sono consentiti valori interi con segno compresi tra -263 e 263-1 o +/- 9.2 quintilioni.