LE MISURE ELETTRONICHE Richiami di teoria della misura

Transcript

LE MISURE ELETTRONICHE Richiami di teoria della misura
Richiami di Misure Elettroniche
pag. 1
LE MISURE ELETTRONICHE
Il termine misure elettroniche viene spesso riferito sia alla branca della scienza delle misure che si occupa delle misure
su sistemi elettronici che a quella molto più vasta delle misure eseguite con sistemi elettronici, cioè con l’ausilio di
strumentazione elettronica.
Dal punto di vista professionale, l’ingegnere elettronico deve essere in grado tanto di progettare e di sovrintendere alla
produzione e al collaudo di un sistema elettronico, quanto di gestire i sistemi elettronici e quindi di occuparsi della loro
manutenzione e del loro sviluppo. In tutte queste attività è necessario eseguire misure, sul sistema e/o sulle sue parti,
finalizzate a scopi che possono essere molto diversi. Ad esempio, nell’attività di progettazione è generalmente
necessario eseguire misure su componenti o su circuiti elettronici per determinare i parametri significativi ai fini del
progetto o per validare le scelte progettuali o ottimizzare il progetto stesso; nell’attività di produzione è necessario
eseguire misure sia per l’accettazione di componenti e circuiti forniti da terzi che per la verifica della qualità della
produzione; nel collaudo dei sistemi elettronici le misure servono a verificare sia che il sistema risponda alle specifiche
di progetto sia che esso sia conforme alle normative che ne permettono la commercializzazione (sicurezza, emissioni,
occupazioni di banda, etc.) e la omologazione per l’uso come parte di sistemi più vasti (telefonia, televisione, etc.).
Nell’attività di gestione dei sistemi elettronici le misure sono necessarie non solo per verificare il regolare
funzionamento e per la prevenzione dei guasti, ma anche per la ottimizzazione della gestione stessa dei sistemi e per
progettarne correttamente l’adeguamento e lo sviluppo.
Questo corso si propone di fornire le conoscenze di base necessarie sia per concepire e progettare sistemi di misura
adeguati alle varie esigenze dell’ingegnere elettronico che per eseguire misure con tali sistemi e per utilizzarne
correttamente i risultati. Quindi l’interesse sarà limitato alle metodologie di misura dei sistemi elettronici e alla
strumentazione elettronica di base necessaria per la realizzazione di sistemi di misura che su tali metodologie si basano.
Richiami di teoria della misura
Concetto di misura
Definizione: “La misurazione è il processo empirico ed oggettivo di assegnazione di numeri alle proprietà di oggetti o
eventi del mondo reale in modo tale da descriverli”.
Questo significa che:
1. deve esistere una corrispondenza fra le relazioni numeriche delle misure e le relazioni empiriche delle
corrispondenti manifestazioni della proprietà;
2. la misurazione è un processo di confronto fra una manifestazione della proprietà e altre manifestazioni della stessa
proprietà, quindi è il risultato di osservazione e non di un singolo esperimento;
3. il concetto di proprietà misurata deve essere basato su una relazione empirica e questa deve soddisfare la condizione
di unicità;
4. la misura permette di esprimere la relazione empirica in forma matematica, quindi in una forma molto rigorosa e
concisa che è la base per sviluppare i modelli induttivi-deduttivi che permettono di descrivere e spiegare l’universo.
In conclusione, la misurazione è il processo che permette di associare (mapping) un sistema relazionale numerico, detto
scala di misura, al sistema relazionale empirico definito per le manifestazioni della proprietà di interesse.
È ovvio che a queste considerazioni bisogna associare anche il concetto di incertezza, visto che qualunque osservazione
sperimentale è affetta da errore.
Misura diretta e indiretta
La misura si dice diretta quando è possibile associare direttamente la relazione empirica della proprietà di interesse
alla corrispondente scala di misura.
Spesso però la scala di misura di una data proprietà può essere costruita solamente indirettamente attraverso le
relazioni che legano la proprietà che deve essere misurata ad altre proprietà per le quali le rispettive scale di misura
sono già state definite. In questo caso si parla di misura indiretta e le altre proprietà che devono essere misurate
prendono il nome di componenti della misura.
Le ragioni della misura indiretta sono molteplici. Il caso più immediato è quello delle grandezze fisiche derivate, cioè
definite come relazione di un limitato insieme di altre grandezze, come ad esempio la velocità (spazio/tempo) o
l’accelerazione. Altre volte il problema è nella natura della relazione empirica, come, ad esempio, avviene per la
viscosità o la densità le cui scale di misura non hanno la proprietà dell’addizione. Molto spesso, più semplicemente, la
G. Martines
Appunti di Strumentazione e Misure Eelettroniche
Richiami di Misure Elettroniche
pag. 2
proprietà da misurare non è accessibile nell’oggetto o nell’evento del mondo reale, mentre lo sono altre proprietà a
questa legate da una precisa relazione.
NOTA: il processo della misurazione può essere visto come una delle tante metodologie che permettono la
rappresentazione simbolica delle entità sulla base di un modello matematico assunto valido. È ovvio allora che esistono
casi in cui una tale metodologia non è applicabile come ad esempio nella fisica dei quanti (interazione fra l’osservatore
ed il sistema osservato) o nella teoria della relatività quando viene meno il concetto di simultaneità.
Il modello matematico che normalmente è sottinteso nella teoria generale della misura, è di tipo black-box ma
contemporaneamente la ipotesi fondamentale per il processo di misurazione è che l’osservatore (il sistema di misura)
non interagisca con il sistema sotto misura (che ne risulterebbe perturbato).
Risulta ovvio che nella pratica delle misure elettroniche è necessario conoscere il sistema sotto misura (che quindi non
è più rappresentabile con un modello di tipo black-box) per potere approssimare l’ipotesi di non interazione fra il
sistema di misura e quello sotto misura. Anzi spesso è necessario conoscere dettagliatamente il sistema sotto misura sia
per potere garantire che il sistema di misura non ne alteri apprezzabilmente il funzionamento che per misurare entità
non direttamente accessibili (anche solo per problemi di interazione fra i sistemi).
Standardizzazione delle misure e terminologia
Da quanto fin qui ricordato, risulta evidente che il processo della misurazione costituisce il legame fondamentale fra gli
oggetti e gli eventi del mondo reale ed i modelli che vengono utilizzati per descriverli e comprenderli. È allora di
fondamentale importanza che le grandezze di riferimento e le metodologie di questo processo assumano validità
universale e questo scopo si persegue per mezzo della “standardizzazione” rigorosa non solo della definizione delle
unità di misura, ma anche della terminologia e delle procedure. A questo compito sono preposti svariati organismi
internazionali che negli ultimi decenni, grazie alla globalizzazione della scienza e dei mercati, operano su scala
planetaria e continuamente fissano e pubblicano nuovi standard. I più antichi e famosi nell’ambito del sistema metrico
degli standard internazionali (SI metric system) sono Bureau International des Poids et Measures (BIPM) di Parigi ed il
National Bureau of Standards (NBS) di Washington.
Campione internazionale (International Standard) di misurazione si definisce ciò che viene riconosciuto, tramite
accordi internazionali, come base per fissare il valore di altri campioni della stessa qualità.
La classe di un campione viene definita gerarchicamente sulla base della costanza del suo valore. Le principali classi
sono: Campione primario, campione secondario, campione di lavoro (working o field standard). La necessità di avere
campioni di classe diversa nasce dalla esigenza di avere disponibili campioni di prestazioni adeguate alle esigenze dei
vari tipi di misura.
Oggi i campioni primari tendono ad essere basati sulla applicazione di principi fisici che diano prova della massima
costanza.
Ad esempio, il campione primario della unità di lunghezza, il metro, non è più una barra di una particolare lega
metallica conservata in condizioni ambientali controllate negli uffici del BIPM o del NBS, né è definito sulla base di
misurazioni sul pianeta o di altro carattere astronomico, ma oggi è definito come 1,650,763.73 volte la lunghezza
d’onda della radiazione emessa dal gas Krypton-86 in condizioni strettamente controllate e definite. Un tale campione
primario verrà sostituito nel momento in cui l’applicazione di un qualche altro principio fisico darà universalmente
prova di garantire una maggiore costanza.
I campioni secondari vengono definiti per confronto con il campione primario, e normalmente la loro realizzazione si
basa su principi diversi da quelli su cui si basa quella del campione primario. Questo significa che il campione
secondario garantisce meno costanza della sua caratteristica ma risulta più facile da realizzare e confrontare.
Procedendo quindi verso campioni sempre meno qualificati, aumenta la maneggiabilità (e ovviamente si riduce il costo)
ma si riduce la costanza nel tempo. La precisione del campione invece dipende dalla procedura utilizzata per la
periodica calibrazione con un campione di qualità superiore.
In Fig. 1 si riporta una rappresentazione grafica delle Unità dei Campioni Internazionali del Sistema Metrico.
Per tutti gli altri campi di applicazione della “standardizzazione” in ambito ingegneristico-industriale, i più importanti
Enti Internazionali preposti, a cui bisogna rivolgersi per ottenere le normative, sono:
• International Organization for Standardization (ISO) con sede in Svizzera, cui fanno capo Enti Nazionali come il
DIN (Deutsches Institut für Normung) in Germania e lo UNI (Ente Nazionale Italiano di Unificazione) in Italia;
• International Electrotechnical Commission (IEC) con sede in Svizzera, cui fanno capo organismi nazionali come lo
ANSI (American National Standards Institute) negli USA.
G. Martines
Appunti di Strumentazione e Misure Eelettroniche
Richiami di Misure Elettroniche
G. Martines
pag. 3
Appunti di Strumentazione e Misure Eelettroniche
Richiami di Misure Elettroniche
pag. 4
Qui di seguito ricorderemo i principali termini e concetti, oggetto di standardizzazione, che più comunemente si usano
nelle misure elettroniche e nelle identificazione delle prestazioni dei sistemi elettronici di misura.
Prestazioni di un sistema di misura
1. Risoluzione (resolution in inglese ma il termine standardizzato sarebbe discrimination) descrive la qualità che
caratterizza la abilità del sistema di misura di reagire a piccole variazioni della quantità misurata.
Per aumentare la risoluzione è necessario aumentare la sensibilità del sistema di misura. Si noti che la risoluzione
dovrebbe essere scelta in fase di progetto in modo tale che il valore misurato in condizioni di regime vari
leggermente (può essere utile per verificare che il sistema risponde correttamente); una risoluzione eccessiva, infatti,
è da evitare perché in condizioni di regime può dare luogo ad eccessive fluttuazioni del valore misurato. In ogni
caso una risoluzione maggiore della ripetibilità e della precisione del sistema non ha significato dal punto di vista
misuristico
2. Ripetibilità (repeatibility ma il termine più diffuso nella lingua inglese, anche se non standardizzato, è precision)
descrive la qualità che caratterizza la abilità del sistema di dare lo stesso valore della quantità misurata non tenendo
in conto gli errori sistematici associati alle indicazioni, cioè la capacità di misurare lo stesso valore in tempi diversi
e quindi in condizioni diverse con lo stesso apparato di misura (cioè con le stesse apparecchiature e addirittura, nel
caso di visualizzazione analogica dei risultati, anche con lo stesso operatore).
Spesso questa qualità viene associata alla riproducibilità (reproducibilty) che invece descrive la abilità di ottenere
gli stessi valori della quantità misurata con lo stesso sistema di misura ma con apparati diversi (e diversi operatori) o
con intervalli di tempo molto lunghi.
Ovviamente nella valutazione di queste proprietà è necessario eliminare o correggere o minimizzare l’influenza
degli errori casuali sulla misura.
3. Precisione (accuracy) si definisce la qualità che descrive la abilità del sistema di misura di approssimare il “vero
valore” della quantità misurata, intendendo con “vero valore” quello riferito al campione primario della unità di
misura. In effetti nel concetto di precisione entra sia la qualità del sistema di misura che quella del campione
(standard) utilizzato per la calibrazione e della influenza degli errori nella procedura di calibrazione.
La precisione non è quindi una qualità propria del solo sistema di misura ma dipende anche dalla sua gestione cioè
dalla frequenza e dalla qualità delle procedure di calibrazione.
Errori
1. Incertezza (uncertainty) di misura si definisce il campo di valori (range), centrato sul valore misurato, entro cui
cade il valore vero della quantità misurata per effetto della influenza degli errori nel processo della misurazione.
Normalmente i limiti di questo campo di valori può solo essere stimato in termini di probabilità statistica.
Si noti che la incertezza di misura, che viene spesso espressa in termini di banda di errore associata al valore
misurato, non rappresenta il “vero errore” della misura, che è normalmente minore, ma il campo di valori entro cui
l’osservatore può essere certo che cade il “vero errore” di misura.
2. Errori sistematici ( Systematic Errors) si definiscono tutti gli errori che possono essere previsti dalla conoscenza
delle operazioni coinvolte e sulla base di una singola misurazione. Questo significa ovviamente che la causa di
questi errori o è nota ma non può essere eliminata (o non è conveniente eliminarla) oppure non è nota ma esiste la
possibilità di determinare una funzione, anche empirica, che permette di predirne l’entità dalla conoscenza di altre
variabili.
Ovviamente dalla definizione discende che l’influenza degli errori sistematici può essere annullata, essendo
possibile, a partire da una procedura di calibrazione (generalmente singolo processo di misurazione di una quantità
campione), prevedere l’influenza dell’errore nei successivi processi di misurazione.
3. Errori casuali (Random Errors) si definiscono viceversa tutti gli errori che non possono essere predetti sulla base
di una singola misurazione. Tuttavia è ancora possibile avere informazioni sulla loro influenza media (valore medio)
utilizzando la teoria della probabilità su un insieme di dati derivanti da molteplici processi di misurazione.
Spesso si assume che la natura dei segnali casuali sia Gaussiana.
G. Martines
Appunti di Strumentazione e Misure Eelettroniche
Richiami di Misure Elettroniche
pag. 5
Metodologie di misura
1. Metodo diretto (Direct Method): il valore della quantità da misurare è ottenuto direttamente, senza bisogno di
calcoli supplementari basati su una funzione che lega la quantità da misurare con altre quantità effettivamente
misurate.
2. Metodo indiretto (Indirect Method): il valore della quantità da misurare si ottiene dai valori di altre quantità
(componenti della misura) misurate in stadi intermedi del processo di misurazione attraverso il calcolo di una
relazione nota.
2.1. Metodo fondamentale (Fundamental Method) è un particolare metodo indiretto in cui le componenti della
misura sono unità base del sistema metrico.
3. Metodo di confronto (Comparison Method): si basa sul confronto del valore della quantità da misurare con un
valore noto della stessa quantità (confronto diretto) o con un valore noto di un’altra quantità che è funzione della
quantità da misurare (confronto indiretto).
4. Metodo di sostituzione (Substitution Method): si sostituisce la quantità da misurare con una analoga che può essere
variata in modo noto fino ad ottenere la stessa indicazione che si era ottenuta con la quantità da misurare.
5. Metodo di trasposizione (Transposition Method): dapprima si bilancia la quantità incognita con un valore noto A
della stessa quantità, poi si cambia di piatto la quantità incognita e si ripete il bilanciamento con un valore noto B
della stessa quantità; il valore della quantità misurata è semplicemente
bilanciamento fosse identica.
nell’ipotesi che l’indicazione di
6. Metodo differenziale (Differential Method): si lascia un piccolo sbilanciamento fra la quantità da misurare e quella
campione, la lettura dell’indicatore di bilanciamento (su scala tarata) viene utilizzata per aggiungere un piccolo
valore a quello del campione.
7. Metodo di zero (Null Method): si attua il bilanciamento fra la quantità da misurare e quella campione con un
indicatore non tarato ad altissima sensibilità
8. Metodo del complemento (Complementary Method): la quantità da misurare viene combinata con un valore noto
della stessa quantità fino ad ottenere il bilanciamento con una predefinita quantità campione.
9. Metodo della coincidenza (Coincidence Method): è un metodo di confronto diretto applicato alla simultaneità del
verificarsi di una predefinita condizione (confronto di frequenze)
10. Metodo della risonanza (Resonance Method): è un metodo di confronto basato sull’ottenimento di una condizione
di risonanza (confronto di reattanza).
Sistemi di misura
1. Calibrazione (Calibration) è il processo che verifica e quindi attesta la capacità di un sistema di misura di indicare
la grandezza della variabile per cui è stato progettato con la precisione (accuracy) prevista.
Ovviamente il processo di calibrazione coinvolge l’uso di campioni (standard) di classe adeguata (superiore a quella
del sistema) e deve essere eseguito in condizioni operative standardizzate per tenere adeguatamente sotto controllo
l’influenza degli errori ma può essere eseguita in qualunque momento e fa spesso parte delle procedure operative
del sistema di misura fissate dal progettista. Risulta evidente allora che, in generale, tale processo non dà indicazioni
circa la capacità del sistema di garantire la precisione (accuracy) nel tempo e soprattutto dopo essere stato
sottoposto ad urti (per esempio durante il trasporto) e/o ad escursioni significative delle condizioni ambientali
(temperatura, umidità, pressione atmosferica), sia durante il funzionamento che l’immagazzinamento, e di molti altri
fattori significativi per le prestazioni del sistema.
I sistemi di misura più pregiati spesso sono dotati di un campione di misura interno, di classe adeguata, che può
essere utilizzato sia nelle procedure di riduzione degli errori sistematici che per procedure di calibrazione (ad
esempio il generatore di onda quadra presente in tutti gli oscilloscopi che normalmente viene utilizzato per la
compensazione delle sonde di misura).
NOTA:
la precisione della misura è garantita dalla calibrazione solo se il sistema di misura opera nelle stesse
condizioni in cui la calibrazione è stata eseguita.
NOTA:
spesso il termine calibrazione viene utilizzato per indicare anche le procedure necessarie per inizializzare il
funzionamento del sistema di misura ogniqualvolta lo si mette in funzione. Ad esempio, la procedura di
azzeramento di un voltmetro o di un Ohmmetro con l’ingresso in cortocircuito (spesso eseguita automaticamente nei
voltmetri digitali) è una metodologia per la riduzione degli errori sistematici ma può essere considerata una
G. Martines
Appunti di Strumentazione e Misure Eelettroniche
Richiami di Misure Elettroniche
pag. 6
procedura di calibrazione, se eseguita in condizioni operative prefissate (in condizioni ambientali note e dopo un
adeguato periodo di warm-up).
2. Tracciabilità (Traceability) descrive la validità del sistema di misura nell’essere utilizzato come campione al livello
di gerarchia più basso (ma questo non significa assolutamente che è un campione di misura), cioè che i valori da
esso indicati sono pari, entro il livello di incertezza (uncertainty) ad esso assegnato, a quelli indicati con il campione
di misura.
La tracciabilità è un qualità che coinvolge non solo molti aspetti del funzionamento del sistema di misura ma anche
la sua calibrazione. Il migliore sistema di misura non ha la tracciabilità se non è stato calibrato in modo tracciabile.
Una calibrazione si dice “ essere tracciabile” se è possibile risalire, seguendo una definita linea di calibrazioni
sempre più certe, al campione primario o ai campioni primari del sistema dei campioni internazionali (SI system). In
altre parole una calibrazione è tracciabile se tutti i valori utilizzati nel processo di calibrazione sono certificati ed il
processo stesso di calibrazione è certificato. Normalmente per mantenere sotto controllo la incertezza di misura
nella catena di calibrazioni è necessario avere in ciascun anello una incertezza inferiore di almeno un ordine di
grandezza rispetto a quella dell’anello successivo.
NOTA:
la certificazione dei campioni di misura è demandata agli organismi nazionali preposti al mantenimento dei
campioni fisici di misura (NBS negli USA, National Physical Laboratory in UK, Ufficio Centrale Metrico in Italia)
mentre le procedure di calibrazione sono demandate a laboratori accreditati, cioè a laboratori di misura che,
controllati e autorizzati da questi organismi, eseguono la procedura di calibrazione con campioni certificati e
rilasciano la certificazione.
Inoltre un sistema di misura ha la tracciabilità se si può dimostrare che in qualsiasi momento, e soprattutto dopo un
guasto, i valori indicati sono in linea con i valori certificati. In particolare deve potersi dimostrare che i valori
misurati prima del guasto e dopo la riparazione (e la successiva calibrazione) sono uguali.
NOTA:
visto che la tracciabilità è una qualità che coinvolge la calibrazione, vale quanto già detto per la calibrazione,
cioè:
• la misura eseguita con un sistema di misura dotato di tracciabilità è precisa in senso tracciabile solo se eseguita
nelle stesse condizioni operative in cui è stata eseguita la calibrazione;
• la tracciabilità non è indipendente dalla storia del sistema di misura (urti, escursioni di condizioni ambientali e
operative) e quindi normalmente deve essere periodicamente riconfermata o ripristinata con procedure di
manutenzione preventiva e calibrazione tracciabile.
3. Valutazione dei costi (Evaluation): comprende molti fattori e quindi conviene fare riferimento al diagramma di
flusso, mostrato in Fig. 2, che illustra il ciclo di vita di un sistema di misura (dalla concezione alla dismissione)
evidenziandone le varie componenti di costo.
NOTA: non vengono presi in considerazione i costi di progettazione (compresa la sperimentazione di verifica del
progetto, che può necessitare dell’affitto della strumentazione non disponibile), di addestramento del personale sul
sistema di misura e di installazione e messa a punto del sistema perché si assume che tali compiti siano affidati a
personale interno all’azienda e non a consulenti esterni.
G. Martines
Appunti di Strumentazione e Misure Eelettroniche
Richiami di Misure Elettroniche
G. Martines
pag. 7
Appunti di Strumentazione e Misure Eelettroniche
Richiami di Misure Elettroniche
pag. 8
Misure su sistemi elettronici
Misura orientata alla caratterizzazione
Misura orientata al collaudo
Misura orientata alla funzionalità (pass-failed test)
Misure con strumentazione elettronica
Misura orientata al controllo
Misura orientata al monitoraggio
Misura orientata alla conoscenza
Il sistema di misura
Concepimento e progetto
Realizzazione e installazione
Manutenzione e aggiornamento
La strumentazione elettronica
Acquisizione dei dati (interfaccia con il sistema in prova)
Limitazione della dinamica (fattore di scala)
Limitazione della banda (conversione a frequenza intermedia)
Elaborazione dei dati
Riduzione degli errori sistematici
Modello di misura
Modello di errore
Calibrazione e taratura
Riduzione degli errori casuali
Presentazione dei risultati (interfaccia con l’operatore)
Visualizzazione analogica e numerica
Visualizzazione in forma grafica
Strumentazione virtuale
Telemetria
Simulazione
Didattica e addestramento
G. Martines
Appunti di Strumentazione e Misure Eelettroniche