Il tempo di bit è un termine di rete di computer che misura quanto tempo impiega un impulso o un bit a viaggiare da un trasmettitore a un ricevitore per produrre una velocità dati di rete specifica. A volte viene confuso con altri termini come bit rate o baud rate, che è il numero totale di bit al secondo (bps) trasmessi, e slot time, che è la quantità di tempo impiegata da un impulso per percorrere la lunghezza più lunga di un mezzo di rete. Il tempo di bit, tuttavia, calcola solo l’espulsione di un bit e, invece di concentrarsi sul supporto di rete, osserva come questo bit trasmette da una scheda di interfaccia di rete (NIC) a una determinata velocità, ad esempio 10 Mbit/s.
Molte persone hanno sentito il termine “bit” usato in riferimento ai computer, ma potrebbero non sapere esattamente cos’è o come viene utilizzato. Un bit è un singolo numero binario, zero o uno, utilizzato nella trasmissione di rete per indicare la quantità di tensione che pulsa attraverso un circuito. Pertanto, il tempo di bit sta esaminando uno di questi impulsi e la velocità con cui risponde a un’istruzione per lasciare la NIC. Non appena il sottolivello di controllo del collegamento logico 2 riceve un comando dal sistema operativo, inizia la misurazione del tempo di bit, calcolando il tempo necessario affinché il bit venga espulso dalla NIC. La formula di base per è la seguente: Tempo bit = 1 / velocità NIC.
Alcune misurazioni comuni del tempo di bit sono 10 nanosecondi per Fast Ethernet e 100 nanosecondi se la velocità determinata è 10 Mbit/s per la NIC. Il tempo di bit è di 1 nanosecondo per Gigabit Ethernet. Per dirla in altro modo, per trasmettere 1 Gbps di dati, ci vuole solo 1 nanosecondo. Nel complesso, quindi, maggiore è la velocità dei dati, minore è la velocità in bit.
Questa misurazione diventa una discussione significativa nell’analisi delle reti di computer per quanto riguarda il problema delle reti a bassa latenza. C’è qualche dubbio sul fatto che un tempo di bit inferiore combinato con una maggiore velocità di trasmissione del segnale si traduca in una latenza inferiore. Questo problema sembra essere oggetto di dibattito.
La latenza, insieme al throughput, è una misura fondamentale delle prestazioni della rete. La latenza misura quanto tempo impiega un messaggio a viaggiare attraverso un sistema. Pertanto, una bassa latenza indica che è necessario un breve lasso di tempo e che la rete è efficiente. Il bit time, quindi, entra in gioco qui poiché i gestori di rete lavorano continuamente per migliorare le prestazioni della rete e valutare come tempi diversi influenzano la latenza.