LE MISURE ELETTRONICHE Richiami di teoria della misura
Transcript
LE MISURE ELETTRONICHE Richiami di teoria della misura
Richiami di Misure Elettroniche pag. 1 LE MISURE ELETTRONICHE Il termine misure elettroniche viene spesso riferito sia alla branca della scienza delle misure che si occupa delle misure su sistemi elettronici che a quella molto più vasta delle misure eseguite con sistemi elettronici, cioè con l’ausilio di strumentazione elettronica. Dal punto di vista professionale, l’ingegnere elettronico deve essere in grado tanto di progettare e di sovrintendere alla produzione e al collaudo di un sistema elettronico, quanto di gestire i sistemi elettronici e quindi di occuparsi della loro manutenzione e del loro sviluppo. In tutte queste attività è necessario eseguire misure, sul sistema e/o sulle sue parti, finalizzate a scopi che possono essere molto diversi. Ad esempio, nell’attività di progettazione è generalmente necessario eseguire misure su componenti o su circuiti elettronici per determinare i parametri significativi ai fini del progetto o per validare le scelte progettuali o ottimizzare il progetto stesso; nell’attività di produzione è necessario eseguire misure sia per l’accettazione di componenti e circuiti forniti da terzi che per la verifica della qualità della produzione; nel collaudo dei sistemi elettronici le misure servono a verificare sia che il sistema risponda alle specifiche di progetto sia che esso sia conforme alle normative che ne permettono la commercializzazione (sicurezza, emissioni, occupazioni di banda, etc.) e la omologazione per l’uso come parte di sistemi più vasti (telefonia, televisione, etc.). Nell’attività di gestione dei sistemi elettronici le misure sono necessarie non solo per verificare il regolare funzionamento e per la prevenzione dei guasti, ma anche per la ottimizzazione della gestione stessa dei sistemi e per progettarne correttamente l’adeguamento e lo sviluppo. Questo corso si propone di fornire le conoscenze di base necessarie sia per concepire e progettare sistemi di misura adeguati alle varie esigenze dell’ingegnere elettronico che per eseguire misure con tali sistemi e per utilizzarne correttamente i risultati. Quindi l’interesse sarà limitato alle metodologie di misura dei sistemi elettronici e alla strumentazione elettronica di base necessaria per la realizzazione di sistemi di misura che su tali metodologie si basano. Richiami di teoria della misura Concetto di misura Definizione: “La misurazione è il processo empirico ed oggettivo di assegnazione di numeri alle proprietà di oggetti o eventi del mondo reale in modo tale da descriverli”. Questo significa che: 1. deve esistere una corrispondenza fra le relazioni numeriche delle misure e le relazioni empiriche delle corrispondenti manifestazioni della proprietà; 2. la misurazione è un processo di confronto fra una manifestazione della proprietà e altre manifestazioni della stessa proprietà, quindi è il risultato di osservazione e non di un singolo esperimento; 3. il concetto di proprietà misurata deve essere basato su una relazione empirica e questa deve soddisfare la condizione di unicità; 4. la misura permette di esprimere la relazione empirica in forma matematica, quindi in una forma molto rigorosa e concisa che è la base per sviluppare i modelli induttivi-deduttivi che permettono di descrivere e spiegare l’universo. In conclusione, la misurazione è il processo che permette di associare (mapping) un sistema relazionale numerico, detto scala di misura, al sistema relazionale empirico definito per le manifestazioni della proprietà di interesse. È ovvio che a queste considerazioni bisogna associare anche il concetto di incertezza, visto che qualunque osservazione sperimentale è affetta da errore. Misura diretta e indiretta La misura si dice diretta quando è possibile associare direttamente la relazione empirica della proprietà di interesse alla corrispondente scala di misura. Spesso però la scala di misura di una data proprietà può essere costruita solamente indirettamente attraverso le relazioni che legano la proprietà che deve essere misurata ad altre proprietà per le quali le rispettive scale di misura sono già state definite. In questo caso si parla di misura indiretta e le altre proprietà che devono essere misurate prendono il nome di componenti della misura. Le ragioni della misura indiretta sono molteplici. Il caso più immediato è quello delle grandezze fisiche derivate, cioè definite come relazione di un limitato insieme di altre grandezze, come ad esempio la velocità (spazio/tempo) o l’accelerazione. Altre volte il problema è nella natura della relazione empirica, come, ad esempio, avviene per la viscosità o la densità le cui scale di misura non hanno la proprietà dell’addizione. Molto spesso, più semplicemente, la G. Martines Appunti di Strumentazione e Misure Eelettroniche Richiami di Misure Elettroniche pag. 2 proprietà da misurare non è accessibile nell’oggetto o nell’evento del mondo reale, mentre lo sono altre proprietà a questa legate da una precisa relazione. NOTA: il processo della misurazione può essere visto come una delle tante metodologie che permettono la rappresentazione simbolica delle entità sulla base di un modello matematico assunto valido. È ovvio allora che esistono casi in cui una tale metodologia non è applicabile come ad esempio nella fisica dei quanti (interazione fra l’osservatore ed il sistema osservato) o nella teoria della relatività quando viene meno il concetto di simultaneità. Il modello matematico che normalmente è sottinteso nella teoria generale della misura, è di tipo black-box ma contemporaneamente la ipotesi fondamentale per il processo di misurazione è che l’osservatore (il sistema di misura) non interagisca con il sistema sotto misura (che ne risulterebbe perturbato). Risulta ovvio che nella pratica delle misure elettroniche è necessario conoscere il sistema sotto misura (che quindi non è più rappresentabile con un modello di tipo black-box) per potere approssimare l’ipotesi di non interazione fra il sistema di misura e quello sotto misura. Anzi spesso è necessario conoscere dettagliatamente il sistema sotto misura sia per potere garantire che il sistema di misura non ne alteri apprezzabilmente il funzionamento che per misurare entità non direttamente accessibili (anche solo per problemi di interazione fra i sistemi). Standardizzazione delle misure e terminologia Da quanto fin qui ricordato, risulta evidente che il processo della misurazione costituisce il legame fondamentale fra gli oggetti e gli eventi del mondo reale ed i modelli che vengono utilizzati per descriverli e comprenderli. È allora di fondamentale importanza che le grandezze di riferimento e le metodologie di questo processo assumano validità universale e questo scopo si persegue per mezzo della “standardizzazione” rigorosa non solo della definizione delle unità di misura, ma anche della terminologia e delle procedure. A questo compito sono preposti svariati organismi internazionali che negli ultimi decenni, grazie alla globalizzazione della scienza e dei mercati, operano su scala planetaria e continuamente fissano e pubblicano nuovi standard. I più antichi e famosi nell’ambito del sistema metrico degli standard internazionali (SI metric system) sono Bureau International des Poids et Measures (BIPM) di Parigi ed il National Bureau of Standards (NBS) di Washington. Campione internazionale (International Standard) di misurazione si definisce ciò che viene riconosciuto, tramite accordi internazionali, come base per fissare il valore di altri campioni della stessa qualità. La classe di un campione viene definita gerarchicamente sulla base della costanza del suo valore. Le principali classi sono: Campione primario, campione secondario, campione di lavoro (working o field standard). La necessità di avere campioni di classe diversa nasce dalla esigenza di avere disponibili campioni di prestazioni adeguate alle esigenze dei vari tipi di misura. Oggi i campioni primari tendono ad essere basati sulla applicazione di principi fisici che diano prova della massima costanza. Ad esempio, il campione primario della unità di lunghezza, il metro, non è più una barra di una particolare lega metallica conservata in condizioni ambientali controllate negli uffici del BIPM o del NBS, né è definito sulla base di misurazioni sul pianeta o di altro carattere astronomico, ma oggi è definito come 1,650,763.73 volte la lunghezza d’onda della radiazione emessa dal gas Krypton-86 in condizioni strettamente controllate e definite. Un tale campione primario verrà sostituito nel momento in cui l’applicazione di un qualche altro principio fisico darà universalmente prova di garantire una maggiore costanza. I campioni secondari vengono definiti per confronto con il campione primario, e normalmente la loro realizzazione si basa su principi diversi da quelli su cui si basa quella del campione primario. Questo significa che il campione secondario garantisce meno costanza della sua caratteristica ma risulta più facile da realizzare e confrontare. Procedendo quindi verso campioni sempre meno qualificati, aumenta la maneggiabilità (e ovviamente si riduce il costo) ma si riduce la costanza nel tempo. La precisione del campione invece dipende dalla procedura utilizzata per la periodica calibrazione con un campione di qualità superiore. In Fig. 1 si riporta una rappresentazione grafica delle Unità dei Campioni Internazionali del Sistema Metrico. Per tutti gli altri campi di applicazione della “standardizzazione” in ambito ingegneristico-industriale, i più importanti Enti Internazionali preposti, a cui bisogna rivolgersi per ottenere le normative, sono: • International Organization for Standardization (ISO) con sede in Svizzera, cui fanno capo Enti Nazionali come il DIN (Deutsches Institut für Normung) in Germania e lo UNI (Ente Nazionale Italiano di Unificazione) in Italia; • International Electrotechnical Commission (IEC) con sede in Svizzera, cui fanno capo organismi nazionali come lo ANSI (American National Standards Institute) negli USA. G. Martines Appunti di Strumentazione e Misure Eelettroniche Richiami di Misure Elettroniche G. Martines pag. 3 Appunti di Strumentazione e Misure Eelettroniche Richiami di Misure Elettroniche pag. 4 Qui di seguito ricorderemo i principali termini e concetti, oggetto di standardizzazione, che più comunemente si usano nelle misure elettroniche e nelle identificazione delle prestazioni dei sistemi elettronici di misura. Prestazioni di un sistema di misura 1. Risoluzione (resolution in inglese ma il termine standardizzato sarebbe discrimination) descrive la qualità che caratterizza la abilità del sistema di misura di reagire a piccole variazioni della quantità misurata. Per aumentare la risoluzione è necessario aumentare la sensibilità del sistema di misura. Si noti che la risoluzione dovrebbe essere scelta in fase di progetto in modo tale che il valore misurato in condizioni di regime vari leggermente (può essere utile per verificare che il sistema risponde correttamente); una risoluzione eccessiva, infatti, è da evitare perché in condizioni di regime può dare luogo ad eccessive fluttuazioni del valore misurato. In ogni caso una risoluzione maggiore della ripetibilità e della precisione del sistema non ha significato dal punto di vista misuristico 2. Ripetibilità (repeatibility ma il termine più diffuso nella lingua inglese, anche se non standardizzato, è precision) descrive la qualità che caratterizza la abilità del sistema di dare lo stesso valore della quantità misurata non tenendo in conto gli errori sistematici associati alle indicazioni, cioè la capacità di misurare lo stesso valore in tempi diversi e quindi in condizioni diverse con lo stesso apparato di misura (cioè con le stesse apparecchiature e addirittura, nel caso di visualizzazione analogica dei risultati, anche con lo stesso operatore). Spesso questa qualità viene associata alla riproducibilità (reproducibilty) che invece descrive la abilità di ottenere gli stessi valori della quantità misurata con lo stesso sistema di misura ma con apparati diversi (e diversi operatori) o con intervalli di tempo molto lunghi. Ovviamente nella valutazione di queste proprietà è necessario eliminare o correggere o minimizzare l’influenza degli errori casuali sulla misura. 3. Precisione (accuracy) si definisce la qualità che descrive la abilità del sistema di misura di approssimare il “vero valore” della quantità misurata, intendendo con “vero valore” quello riferito al campione primario della unità di misura. In effetti nel concetto di precisione entra sia la qualità del sistema di misura che quella del campione (standard) utilizzato per la calibrazione e della influenza degli errori nella procedura di calibrazione. La precisione non è quindi una qualità propria del solo sistema di misura ma dipende anche dalla sua gestione cioè dalla frequenza e dalla qualità delle procedure di calibrazione. Errori 1. Incertezza (uncertainty) di misura si definisce il campo di valori (range), centrato sul valore misurato, entro cui cade il valore vero della quantità misurata per effetto della influenza degli errori nel processo della misurazione. Normalmente i limiti di questo campo di valori può solo essere stimato in termini di probabilità statistica. Si noti che la incertezza di misura, che viene spesso espressa in termini di banda di errore associata al valore misurato, non rappresenta il “vero errore” della misura, che è normalmente minore, ma il campo di valori entro cui l’osservatore può essere certo che cade il “vero errore” di misura. 2. Errori sistematici ( Systematic Errors) si definiscono tutti gli errori che possono essere previsti dalla conoscenza delle operazioni coinvolte e sulla base di una singola misurazione. Questo significa ovviamente che la causa di questi errori o è nota ma non può essere eliminata (o non è conveniente eliminarla) oppure non è nota ma esiste la possibilità di determinare una funzione, anche empirica, che permette di predirne l’entità dalla conoscenza di altre variabili. Ovviamente dalla definizione discende che l’influenza degli errori sistematici può essere annullata, essendo possibile, a partire da una procedura di calibrazione (generalmente singolo processo di misurazione di una quantità campione), prevedere l’influenza dell’errore nei successivi processi di misurazione. 3. Errori casuali (Random Errors) si definiscono viceversa tutti gli errori che non possono essere predetti sulla base di una singola misurazione. Tuttavia è ancora possibile avere informazioni sulla loro influenza media (valore medio) utilizzando la teoria della probabilità su un insieme di dati derivanti da molteplici processi di misurazione. Spesso si assume che la natura dei segnali casuali sia Gaussiana. G. Martines Appunti di Strumentazione e Misure Eelettroniche Richiami di Misure Elettroniche pag. 5 Metodologie di misura 1. Metodo diretto (Direct Method): il valore della quantità da misurare è ottenuto direttamente, senza bisogno di calcoli supplementari basati su una funzione che lega la quantità da misurare con altre quantità effettivamente misurate. 2. Metodo indiretto (Indirect Method): il valore della quantità da misurare si ottiene dai valori di altre quantità (componenti della misura) misurate in stadi intermedi del processo di misurazione attraverso il calcolo di una relazione nota. 2.1. Metodo fondamentale (Fundamental Method) è un particolare metodo indiretto in cui le componenti della misura sono unità base del sistema metrico. 3. Metodo di confronto (Comparison Method): si basa sul confronto del valore della quantità da misurare con un valore noto della stessa quantità (confronto diretto) o con un valore noto di un’altra quantità che è funzione della quantità da misurare (confronto indiretto). 4. Metodo di sostituzione (Substitution Method): si sostituisce la quantità da misurare con una analoga che può essere variata in modo noto fino ad ottenere la stessa indicazione che si era ottenuta con la quantità da misurare. 5. Metodo di trasposizione (Transposition Method): dapprima si bilancia la quantità incognita con un valore noto A della stessa quantità, poi si cambia di piatto la quantità incognita e si ripete il bilanciamento con un valore noto B della stessa quantità; il valore della quantità misurata è semplicemente bilanciamento fosse identica. nell’ipotesi che l’indicazione di 6. Metodo differenziale (Differential Method): si lascia un piccolo sbilanciamento fra la quantità da misurare e quella campione, la lettura dell’indicatore di bilanciamento (su scala tarata) viene utilizzata per aggiungere un piccolo valore a quello del campione. 7. Metodo di zero (Null Method): si attua il bilanciamento fra la quantità da misurare e quella campione con un indicatore non tarato ad altissima sensibilità 8. Metodo del complemento (Complementary Method): la quantità da misurare viene combinata con un valore noto della stessa quantità fino ad ottenere il bilanciamento con una predefinita quantità campione. 9. Metodo della coincidenza (Coincidence Method): è un metodo di confronto diretto applicato alla simultaneità del verificarsi di una predefinita condizione (confronto di frequenze) 10. Metodo della risonanza (Resonance Method): è un metodo di confronto basato sull’ottenimento di una condizione di risonanza (confronto di reattanza). Sistemi di misura 1. Calibrazione (Calibration) è il processo che verifica e quindi attesta la capacità di un sistema di misura di indicare la grandezza della variabile per cui è stato progettato con la precisione (accuracy) prevista. Ovviamente il processo di calibrazione coinvolge l’uso di campioni (standard) di classe adeguata (superiore a quella del sistema) e deve essere eseguito in condizioni operative standardizzate per tenere adeguatamente sotto controllo l’influenza degli errori ma può essere eseguita in qualunque momento e fa spesso parte delle procedure operative del sistema di misura fissate dal progettista. Risulta evidente allora che, in generale, tale processo non dà indicazioni circa la capacità del sistema di garantire la precisione (accuracy) nel tempo e soprattutto dopo essere stato sottoposto ad urti (per esempio durante il trasporto) e/o ad escursioni significative delle condizioni ambientali (temperatura, umidità, pressione atmosferica), sia durante il funzionamento che l’immagazzinamento, e di molti altri fattori significativi per le prestazioni del sistema. I sistemi di misura più pregiati spesso sono dotati di un campione di misura interno, di classe adeguata, che può essere utilizzato sia nelle procedure di riduzione degli errori sistematici che per procedure di calibrazione (ad esempio il generatore di onda quadra presente in tutti gli oscilloscopi che normalmente viene utilizzato per la compensazione delle sonde di misura). NOTA: la precisione della misura è garantita dalla calibrazione solo se il sistema di misura opera nelle stesse condizioni in cui la calibrazione è stata eseguita. NOTA: spesso il termine calibrazione viene utilizzato per indicare anche le procedure necessarie per inizializzare il funzionamento del sistema di misura ogniqualvolta lo si mette in funzione. Ad esempio, la procedura di azzeramento di un voltmetro o di un Ohmmetro con l’ingresso in cortocircuito (spesso eseguita automaticamente nei voltmetri digitali) è una metodologia per la riduzione degli errori sistematici ma può essere considerata una G. Martines Appunti di Strumentazione e Misure Eelettroniche Richiami di Misure Elettroniche pag. 6 procedura di calibrazione, se eseguita in condizioni operative prefissate (in condizioni ambientali note e dopo un adeguato periodo di warm-up). 2. Tracciabilità (Traceability) descrive la validità del sistema di misura nell’essere utilizzato come campione al livello di gerarchia più basso (ma questo non significa assolutamente che è un campione di misura), cioè che i valori da esso indicati sono pari, entro il livello di incertezza (uncertainty) ad esso assegnato, a quelli indicati con il campione di misura. La tracciabilità è un qualità che coinvolge non solo molti aspetti del funzionamento del sistema di misura ma anche la sua calibrazione. Il migliore sistema di misura non ha la tracciabilità se non è stato calibrato in modo tracciabile. Una calibrazione si dice “ essere tracciabile” se è possibile risalire, seguendo una definita linea di calibrazioni sempre più certe, al campione primario o ai campioni primari del sistema dei campioni internazionali (SI system). In altre parole una calibrazione è tracciabile se tutti i valori utilizzati nel processo di calibrazione sono certificati ed il processo stesso di calibrazione è certificato. Normalmente per mantenere sotto controllo la incertezza di misura nella catena di calibrazioni è necessario avere in ciascun anello una incertezza inferiore di almeno un ordine di grandezza rispetto a quella dell’anello successivo. NOTA: la certificazione dei campioni di misura è demandata agli organismi nazionali preposti al mantenimento dei campioni fisici di misura (NBS negli USA, National Physical Laboratory in UK, Ufficio Centrale Metrico in Italia) mentre le procedure di calibrazione sono demandate a laboratori accreditati, cioè a laboratori di misura che, controllati e autorizzati da questi organismi, eseguono la procedura di calibrazione con campioni certificati e rilasciano la certificazione. Inoltre un sistema di misura ha la tracciabilità se si può dimostrare che in qualsiasi momento, e soprattutto dopo un guasto, i valori indicati sono in linea con i valori certificati. In particolare deve potersi dimostrare che i valori misurati prima del guasto e dopo la riparazione (e la successiva calibrazione) sono uguali. NOTA: visto che la tracciabilità è una qualità che coinvolge la calibrazione, vale quanto già detto per la calibrazione, cioè: • la misura eseguita con un sistema di misura dotato di tracciabilità è precisa in senso tracciabile solo se eseguita nelle stesse condizioni operative in cui è stata eseguita la calibrazione; • la tracciabilità non è indipendente dalla storia del sistema di misura (urti, escursioni di condizioni ambientali e operative) e quindi normalmente deve essere periodicamente riconfermata o ripristinata con procedure di manutenzione preventiva e calibrazione tracciabile. 3. Valutazione dei costi (Evaluation): comprende molti fattori e quindi conviene fare riferimento al diagramma di flusso, mostrato in Fig. 2, che illustra il ciclo di vita di un sistema di misura (dalla concezione alla dismissione) evidenziandone le varie componenti di costo. NOTA: non vengono presi in considerazione i costi di progettazione (compresa la sperimentazione di verifica del progetto, che può necessitare dell’affitto della strumentazione non disponibile), di addestramento del personale sul sistema di misura e di installazione e messa a punto del sistema perché si assume che tali compiti siano affidati a personale interno all’azienda e non a consulenti esterni. G. Martines Appunti di Strumentazione e Misure Eelettroniche Richiami di Misure Elettroniche G. Martines pag. 7 Appunti di Strumentazione e Misure Eelettroniche Richiami di Misure Elettroniche pag. 8 Misure su sistemi elettronici Misura orientata alla caratterizzazione Misura orientata al collaudo Misura orientata alla funzionalità (pass-failed test) Misure con strumentazione elettronica Misura orientata al controllo Misura orientata al monitoraggio Misura orientata alla conoscenza Il sistema di misura Concepimento e progetto Realizzazione e installazione Manutenzione e aggiornamento La strumentazione elettronica Acquisizione dei dati (interfaccia con il sistema in prova) Limitazione della dinamica (fattore di scala) Limitazione della banda (conversione a frequenza intermedia) Elaborazione dei dati Riduzione degli errori sistematici Modello di misura Modello di errore Calibrazione e taratura Riduzione degli errori casuali Presentazione dei risultati (interfaccia con l’operatore) Visualizzazione analogica e numerica Visualizzazione in forma grafica Strumentazione virtuale Telemetria Simulazione Didattica e addestramento G. Martines Appunti di Strumentazione e Misure Eelettroniche