Un computer digitale è una macchina che memorizza i dati in un formato numerico ed esegue operazioni su tali dati utilizzando la manipolazione matematica. Questo tipo di computer include in genere una sorta di dispositivo per memorizzare informazioni, un metodo per l’input e l’output dei dati e componenti che consentono di eseguire operazioni matematiche sui dati memorizzati. I computer digitali sono quasi sempre elettronici, ma non necessariamente devono esserlo.
Esistono due metodi principali per modellare il mondo con una macchina informatica. I computer analogici utilizzano alcuni fenomeni fisici, come la tensione elettrica, per modellare un fenomeno diverso ed eseguono operazioni modificando direttamente i dati memorizzati. Un computer digitale, tuttavia, memorizza tutti i dati come numeri ed esegue operazioni su tali dati aritmeticamente. La maggior parte dei computer utilizza numeri binari per memorizzare i dati, poiché gli uni e gli zeri che compongono questi numeri sono facilmente rappresentabili con semplici stati elettrici on-off.
I computer basati su principi analogici presentano vantaggi in alcune aree specializzate, come la loro capacità di modellare continuamente un’equazione. Un computer digitale, tuttavia, ha il vantaggio di essere facilmente programmabile. Ciò significa che possono elaborare molti diversi set di istruzioni senza essere riconfigurati fisicamente.
I primi computer digitali risalgono al XIX secolo. Un primo esempio è il motore analitico teorizzato da Charles Babbage. Questa macchina avrebbe archiviato ed elaborato i dati meccanicamente. Quei dati, tuttavia, non sarebbero stati memorizzati meccanicamente, ma piuttosto come una serie di cifre rappresentate da stati fisici discreti. Questo computer sarebbe stato programmabile, il primo nel campo dell’informatica.
L’informatica digitale è entrata in uso diffuso nel corso del XX secolo. Le pressioni della guerra hanno portato a grandi progressi nel campo e i computer elettronici sono emersi dalla seconda guerra mondiale. Questo tipo di computer digitale generalmente utilizzava array di tubi a vuoto per memorizzare informazioni per l’uso attivo nel calcolo. Carta o schede perforate sono state utilizzate per l’archiviazione a lungo termine. L’input da tastiera e i monitor sono emersi più tardi nel secolo.
All’inizio del 21° secolo, i computer si affidano a circuiti integrati piuttosto che a valvole termoioniche. Utilizzano ancora memoria attiva, archiviazione a lungo termine e unità di elaborazione centrale. I dispositivi di input e output si sono moltiplicati notevolmente, ma continuano a svolgere le stesse funzioni di base.
Nel 2011, i computer stanno iniziando a spingere i limiti dei circuiti convenzionali. I percorsi dei circuiti in un computer digitale possono ora essere stampati così vicini che devono essere presi in considerazione effetti come il tunneling elettronico. Il lavoro su computer ottici digitali, che elaborano e memorizzano dati utilizzando luce e lenti, può aiutare a superare questa limitazione.
La nanotecnologia può portare a una varietà completamente nuova di calcolo meccanico. I dati possono essere archiviati ed elaborati digitalmente a livello di singole molecole o piccoli gruppi di molecole. Un numero sorprendente di elementi di calcolo molecolare si adatterebbe in uno spazio relativamente piccolo. Ciò potrebbe aumentare notevolmente la velocità e la potenza dei computer digitali.