Cosa è coinvolto nella calibrazione del multimetro?

La calibrazione del multimetro comporta l’esecuzione di misurazioni e regolazioni su diverse modalità di misurazione di un multimetro o multitester. Le modalità di misurazione più comuni sono la tensione in corrente alternata/corrente continua (CA/CC), la corrente CA/CC e la resistenza CC. Esistono diverse apparecchiature e configurazioni di calibrazione del multimetro che fungono da riferimento per la calibrazione, a seconda della precisione richiesta.

I multimetri digitali di solito hanno processori integrati che gestiscono le misurazioni utilizzando riferimenti di tensione stabili. A differenza dei multimetri digitali, i multimetri analogici devono essere calibrati per mantenere la precisione. I multimetri analogici di solito hanno resistori regolabili chiamati resistori trimmer che possono essere utilizzati per compensare condizioni diverse.

Le proprietà elettriche ed elettroniche possono cambiare con l’uso ripetuto del multimetro. Diversi fattori, come resistori, sensibilità al movimento del misuratore e tensione della batteria, possono influire sulla precisione delle letture del multimetro. Alcuni multimetri analogici utilizzano anche una batteria interna per misurazioni di tensione e corrente.

Diversi intervalli di misurazione vengono controllati nella calibrazione del multimetro. In un multimetro che utilizza un movimento del misuratore con fondo scala di 50 microampere, il produttore etichetta il fondo scala CC con 10, 50, 250 e 500 volt di corrente continua (VDC). In questo caso, ci sono quattro posizioni del selettore di gamma che misurano la tensione CC.

È possibile calcolare la resistenza in serie totale necessaria con un movimento del misuratore di 1 kilo-ohm (k-ohm). A 10 VDC fondo scala, la corrente nel voltmetro deve essere di 50 microampere fondo scala e la resistenza totale coinvolta è 10 volt (V)/50 microampere o 200 k-ohm. La resistenza totale è di 200 k-ohm, quindi la resistenza in serie necessaria è di 200 k-ohm meno 1 k-ohm, o 199 k-ohm. La calibrazione consiste nell’utilizzare una resistenza fissa e una resistenza regolabile a circa 199 k-ohm. Un tipico esempio potrebbe essere una resistenza fissa da 180 k-ohm in serie con un resistore trimmer da 20 k-ohm per l’intervallo 10 VDC.

Per la calibrazione del multimetro CA, il circuito è lo stesso del circuito del multimetro CC con circuito raddrizzatore aggiunto. I diodi nel circuito raddrizzatore convertono la corrente alternata in impulsi CC proporzionali a semionda o onda intera che vengono filtrati e limitati per guidare il movimento del misuratore. Con la giusta selezione della resistenza in serie, le letture sono simili a quelle di un vero multimetro con radice quadrata media (RMS).
Negli amperometri DC, che misurano le correnti DC, i movimenti del misuratore sono paralleli con resistenze molto basse. La calibrazione viene solitamente eseguita regolando una resistenza in serie con il movimento del misuratore. Quando un movimento del misuratore di 50 microampere è parallelo a un resistore da 0.1 ohm, un fondo scala di 50 microampere corrisponde a una piccola tensione di 0.05 V CC attraverso l’amperometro. Ciò corrisponde a una corrente di 0.5 ampere (A) e l’etichetta di fondo scala è quindi 500.05 milliampere (mA).