Verso la fine del XX secolo, le emittenti hanno iniziato a introdurre programmi televisivi ad alta definizione (HD) per fornire una migliore chiarezza e risoluzione delle immagini rispetto ai televisori analogici o digitali standard. Questi miglioramenti sono stati apportati allo stesso tempo in cui i televisori a diodi a emissione di luce (LED) e a diodi a cristalli liquidi (LCD) in formati a schermo piatto hanno fornito la tecnologia necessaria per visualizzare segnali ad alta definizione. I televisori ad altissima definizione (UHDTV) forniscono fino a 20 volte più elementi dell’immagine, o pixel, rispetto agli schermi HD, consentendo una qualità dell’immagine ad alta definizione su schermi più grandi.
Nel 20 ° secolo, i primi segnali ad alta definizione utilizzavano la tecnologia analogica, che è simile alle trasmissioni radio dell’immagine e del suono. L’alta definizione analogica richiedeva fino a quattro volte la larghezza di banda del segnale della televisione standard, il che ne limitava l’uso. Lo sviluppo di segnali digitali, in cui l’immagine e il suono vengono convertiti in zeri e uno binari, quindi riconvertiti nel formato televisivo al ricevitore, ha consentito di trasportare molti più dati su una banda di segnale.
I segnali televisivi utilizzano frequenze di trasmissione simili alle comunicazioni radio, marittime e telefoniche. Lo sviluppo della trasmissione televisiva ad alta e altissima definizione ha richiesto nuove tecnologie di compressione digitale, che prendono un segnale digitale standard e lo comprime elettronicamente per consentire il trasferimento di più dati su un segnale esistente. Questi miglioramenti hanno permesso di trasmettere segnali ad alta definizione ai clienti a partire dagli anni ‘1990.
Poiché i clienti richiedevano televisori più grandi, i produttori hanno apportato miglioramenti ai segnali ad alta definizione e all’elettronica per consentire la produzione di televisori con schermi da 50 pollici (125 cm) e più grandi. Ci sono limiti alle dimensioni dello schermo con segnali ad alta definizione, perché alla fine la qualità dell’immagine si degrada e si può vedere la frequenza di aggiornamento dello schermo, chiamata scansione. Queste limitazioni hanno portato allo sviluppo della tecnologia televisiva ad altissima definizione, per consentire l’alta definizione su schermi più grandi. UHDTV è stato dimostrato per la prima volta nel 2002 dai ricercatori dell’emittente statale giapponese NHK.
Lo sviluppo iniziale di UHDTV è stato limitato ai test di laboratorio della trasmissione del segnale e della compressione digitale, poiché il segnale UHDTV richiede una quantità molto grande di dati. I dati aggiuntivi richiedevano lo sviluppo di nuove tecnologie di compressione e trasmissione digitale, poiché il segnale televisivo ad altissima definizione non poteva essere inviato sulle frequenze televisive esistenti. I primi test di UHDTV erano segnali trasmessi dal Regno Unito al Giappone, che comportavano requisiti di larghezza di banda molto elevati su una frequenza dedicata.
Una preoccupazione della tecnologia televisiva ad altissima definizione è la nausea indotta dal movimento causata dal movimento di grandi immagini sullo schermo. I test iniziali con i consumatori hanno mostrato che alcuni utenti avevano sintomi simili alla cinetosi durante la visualizzazione di immagini UHDTV. Allontanarsi dallo schermo, limitare l’uso dell’UHDTV a stanze o luoghi più grandi può ridurre i sintomi.