Scarica qui il numero della Rivista in PDF!

Transcript

Scarica qui il numero della Rivista in PDF!
TUTTO_MISURE
LA RIVISTA DELLE MISURE E DEL CONTROLLO QUALITÀ - PERIODICO FONDATO DA SERGIO SARTORI
ORGANO UFFICIALE DELL’ASSOCIAZIONE “GMEE” E DI “METROLOGIA & QUALITÀ”
ANNO XIV
N. 02 ƒ
2 012
GRUPPO MISURE ELETTRICHE
ED ELETTRONICHE
AFFIDABILITÀ
& TECNOLOGIA
EDITORIALE
ISSN 2038-6974 - Poste Italiane s.p.a. - Sped. in Abb. Post. - D.L. 353/2003 (conv. in L. 27/02/2004 n° 46) art. 1, comma 1, DCB Torino - nr 2 - Anno 14 - Giugno 2012
In caso di mancato recapito, inviare al CMP di Torino R. Romoli per restituzione al mittente, previo pagamento tariffa resi
TUTTO_MISURE - ANNO 14, N. 02 - 2012
Incubatori e altro ancora
IL TEMA: IL TESTING
TRV: Controlli e misure – sensori e soluzioni innovative
ALTRI TEMI
Il valore dell’affidabilità delle misure e prove
nella Diagnosi Energetica degli edifici
MEMS per analisi del movimento
Le misure in psicologia
Politiche energetiche e misure
La valutazione delle competenze
La norma IEC TR 61000
ARGOMENTI
Metrologia legale e forense: autovelox
IMP: Misure in film spessi
La norma 17025: Non conformità – parte III
TUTTO_MISURE
ANNO XIV
N. 02 ƒ
2012
IN QUESTO NUMERO
Moduli inerziali e Sensor Fusion per il
rilevamento del movimento umano
Inertial modules and sensor fusion to detect
human movement
I. Aleo, C. Brigante
97
Misure d’illuminamento con
Multi-luminanzometro
Illuminance measurements
from a multi-luminance
meter
P. Fiorentin,
A. Scroccaro
111
La valutazione della competenza
nei laboratori di prova e taratura
Competence evaluation in Test and
Calibration
Laboratories
M. Lanna
131
Misurare l’affidabilità: l’importanza
di conoscere il processo
di degradazione
Measuring reliability: the importance
of knowing the
degradation
process
M. Catelani,
L. Cristaldi,
M. Lazzaroni
142
Editoriale: Incubatori e altro ancora (F. Docchio)
85
Comunicazioni, Ricerca e Sviluppo, dagli Enti e dalle Imprese
Notizie nel campo delle misure e della strumentazione
87
Il tema: Controlli e misure
Sensori e soluzioni innovative: stato dell’arte
e future evoluzioni (a cura di M. Mortarino)
89
Gli altri temi: Misure MEMS
Moduli inerziali e Sensor Fusion per il rilevamento
del movimento umano (I. Aleo, C. Brigante)
97
Gli altri temi: Misure per la Diagnosi Energetica
Incrementare il valore degli edifici industriali
(a cura di P. Vigo, M. Dell’Isola, M. Mosca)
103
Gli altri temi: Misure meccaniche
Misuratore di prossimità per la sicurezza attiva
di motoseghe e attrezzi da taglio (M. Norgia, C. Svelto)
107
Gli altri temi: Misure per l’Illuminazione
Misure d’illuminamento con Multi-luminanzometro: un errore?
Una complicazione? … O una possibile soluzione?
(P. Fiorentin, A. Scroccaro)
111
Gli altri temi: Misure per la Salute dell’Uomo
Un nuovo sensore attivo per il monitoraggio del gas Radon
(L. Rovati, G.F. Dalla Betta, A. Bosi, F. Cardellini)
115
Gli altri temi: Misure a Microonde
Riflettometria a microonde per l’individuazione di perdite
in condotte idriche interrate
(A. Cataldo, G. Cannazza, E. De Benedetto, N. Giaquinto)
121
Gli altri temi: Psicologia e Misure
Da Fechner a Luce, la misura in psicologia – Prima parte
(S. Noventa, G. Vidotto)
127
Gli altri temi: I Laboratori di Prova
La valutazione della competenza nei laboratori di prova e taratura:
un metodo per valutare la competenza del personale (M. Lanna) 131
Gli altri temi: Energia e Misure
Politiche energetiche e sistemi di monitoraggio – Seconda parte
(A. Di Nisio, M. Savino, M. Spadavecchia)
135
Campi e Compatibilità Elettromagnetica
Strumentazione di base nelle misure di Compatibilità
Elettromagnetica: il ricevitore EMI di radiodisturbi
Prima parte (C. Carobbi, M. Cati, C. Panconi)
138
I Seriali di T_M: Misure e Fidatezza
Misurare l’affidabilità: l’importanza di conoscere il processo
di degradazione (M. Catelani, L. Cristaldi, M. Lazzaroni)
142
Le Rubriche di T_M: Metrologia legale
Autovelox & Co.: strumenti di misura? (V. Scotti)
145
Le Rubriche di T_M: Lettere al Direttore
Sul sistema SI: risposta all’articolo di Sergio Sartori
sul Sistema Internazionale (W. Bich)
147
Spazio Associazioni Universitarie di Misuristi
Dalle Associazioni Universitarie di Misuristi
(F. Docchio, A. Cigada, A. Spalla, S. Agosteo)
148
Lo spazio degli IMP
Un algoritmo per la misura ottica dello spessore
di film spessi (G.B. Picotto, F. Moro, V. Giaccone)
150
Manifestazioni, Eventi e Formazione
2012-2013: eventi in breve
154
Commenti alle norme: la 17025
Non conformità, azioni correttive, azioni preventive,
reclami e miglioramento - Parte terza (N. Dell’Arena)
155
Commenti alle norme
Guida alla valutazione dell’incertezza nelle misure EMC:
IEC/TR 61000-1-6 (C. Carobbi)
157
Abbiamo letto per voi
160
News 96-102-110-114-116-118-120-122-125-126-130-136-159
T_M
N.
2/12 ƒ 83
Franco Docchio
EDITORIALE
■
Incubatori e altro ancora
Incubators and more
Cari lettori!
L’edizione 2012 di Affidabilità e Tecnologie ha confermato il trend di crescita di
quelle precedenti, come
numero sia di espositori sia
di visitatori. Numerosi seminari e convegni si sono succeduti nelle due giornate di
evento: due di questi sono
stati dedicati, rispettivamente, alla Visione e alla Fotonica. Con una soddisfacente
partecipazione di pubblico, sono stati entrambi occasioni per uno stato dell’arte delle affascinanti evoluzioni di componentistica, tecnologie e applicazioni di queste discipline. Da Presidente del Comitato
Scientifico e Industriale, oltreché da “cultore della
materia” delle due discipline, ringrazio tutti per la
partecipazione.
L’evento mi ha dato lo spunto per l’argomento di
questo editoriale. Una brezza (“ventata” sarebbe
esagerato) di entusiasmo sembra scuotere il mondo
della ricerca congiuntamente al mondo imprenditoriale: l’industrializzazione e la diffusione dei prodotti della ricerca. Nei convegni e negli stand erano
presenti relazioni e prodotti high-tech di start-up universitarie. Colleghi docenti e ricercatori proponevano i loro prototipi, più o meno ingegnerizzati, con un
piglio sorprendente di “commerciali”, che mascherava una qualche timidezza. In aggiunta, anche in
questo numero della rivista compare un articolo che
presenta un prodotto di una start-up universitaria (il
sensore di Radon). Aria nuova anche in Italia?
Da me intervistati, quasi tutti i responsabili delle
start-up mi hanno detto di aver trovato sede presso
incubatori. Attenzione: non negli incubatori “istituzionali” (quelli realizzati da consorzi pubblici che
includono l’Università madre), bensì nei cosiddetti
incubatori privati! È proprio questa la novità, che
saluto con piacere. I “vecchi” centri di trasferimento
tecnologico, gestiti pubblicamente, stanno mostrando i loro limiti dovuti a una gestione di tipo pubblicistico, che spesso complica la vita alla neonata
azienda invece di semplificarla. La mancanza di stimoli all’innovazione e la tendenza al conservatorismo da parte di molti dei consigli di amministrazione di questi centri li fa spesso diventare (come dice
un amico imprenditore) una pura operazione immobiliare fatta di “gusci vuoti”.
Diverso è l’approccio del privato. Ad esempio nel
Bresciano, per quanto sto osservando, sta aumentando da parte degli imprenditori la voglia di realizzare incubatori, magari associata alla nuova
sede di un’impresa o dentro la ristrutturazione di un
immobile di proprietà. Qual è la motivazione del-
l’imprenditore (o del gruppo d’imprenditori) a realizzare incubatori che ospitino industrie high-tech provenienti dall’Università? In primis, il desiderio di attrarre nuovi ricercatori e dottori di ricerca, offrire loro
alloggio e servizi a prezzi concorrenziali e, nello
stesso tempo, monitorarli e “fiutare” una possibile sinergia, acquisizione o semplice partecipazione se la
start-up “funziona”. In secondo luogo, è evidente
l’ambizione a qualificarsi di fronte al loro mercato di
riferimento, e alla cerchia dei loro fornitori e clienti,
come fautori dell’innovazione e promotori di nuove
tecnologie.
Tutto ciò è positivo? Che il privato si affianchi e anzi
“rivaleggi” in efficienza con il pubblico è sicuramente un dato positivo, a due condizioni: la prima è che
si eviti l’italica tendenza alla frammentazione (nulla
sarebbe più dannoso di una miriade di microincubatori non coordinati tra di loro). La seconda, a mio avviso, è che queste iniziative non siano il pretesto per
l’accesso sfrenato a fondi pubblici: in caso contrario,
saremmo al punto di prima.
Il ruolo di questa rivista come Forum di discussione su
temi “caldi” relativi alle misure e alla metrologia si sta
rafforzando. Un esempio è dato dal “botta e risposta”
(la “botta” di Sergio Sartori sul numero precedente, la
“risposta” di Walter Bich nelle Lettere al Direttore di
questo numero) riguardo alle conseguenze della Rivoluzione del Sistema Internazionale. Un altro esempio è
la seconda parte dell’articolo di Mario Savino e collaboratori, sulle misure per l’energia. Il commento che
posso fare in questo caso è quello che, in molti settori
della vita di tutti i giorni, le attività umane sono sempre
più “distribuite” e “delocalizzate” (nella produzione di
energia così come nell’automazione industriale, nella
sensoristica come nel “cloud computing”, e così via).
Paradossalmente, in questo universo di relazioni sempre più “liquide” il vero legante sembra essere la misura. Aspetto, questo, che emerge forte nell’articolo
di Stefano Noventa e Giulio Vidotto sulle Misure in
psicologia.
Prosegue infine la serie delle Tavole Rotonde “virtuali” fra esperti di misure. La seconda Tavola Rotonda è
dedicata a Sensori e soluzioni innovative per Testing
e Misure.
Buona lettura! E, mi raccomando, continuate a contribuire numerosi alla rivista, inviate notizie e articoli
(quest’invito è rivolto particolarmente alle imprese,
piccole e grandi, vecchie e nuove che si occupano di
misure)!
Franco Docchio
p.s.: Data l’abbondanza dei contributi pervenuti, alcuni articoli e la Rubrica di “Visione artificiale” sono
stati rimandati al prossimo numero.
T_M
N.
2/12 ƒ 85
COMUNICAZIONI, RICERCA E SVILUPPO
DA ENTI E IMPRESE
▲
La Redazione di Tutto_Misure ([email protected])
Notizie nel campo delle misure
e della strumentazione
NEWS IN MEASUREMENT AND INSTRUMENTATION
This section contains an overview of relevant news of Italian R&D groups,
associations and industries, in the field of measurement science and instrumentation, at both theoretical and applied levels.
RIASSUNTO
L’articolo contiene una panoramica delle principali notizie riguardanti risultati scientifici, collaborazioni, eventi, start-up, dei Gruppi di R&S Italiani nel
campo della scienza delle misure e della strumentazione, a livello sia teorico che applicato. Le industrie sono i primi destinatari di queste notizie,
poiché i risultati di ricerca riportati possono costituire stimolo per attività di
Trasferimento Tecnologico.
TRASFERIMENTO TECNOLOGICO
A BRESCIA:
NUOVO SENSORE BIOMETRICO
misurazione del battito, esistono in varie versioni (per iPhone, per Android,
ecc.) proprio a causa dell’incompatibilità di supporto dei profili Bluetooth
da parte dei diversi sistemi operativi.
L’idea sviluppata a Brescia è quindi di
utilizzare l’universalità dei microfoni
Bluetooth per portare informazioni
biometriche quando non è in atto una
chiamata. I segnali biometrici, nel caso specifico un segnale fotopletismografico, sono opportunamente modulati e convogliati sull’ingresso audio
del modulo Bluetooth, dove viene normalmente portato il segnale del microfono in caso di accettazione della
chiamata. Il bassissimo consumo della
soluzione ideata permette di realizzare nuove generazioni di dispositivi
biometrici con interfaccia universale
Alcuni studenti di Laurea e di Dottora- per qualsiasi tipo di smartphone,
to di ricerca del Dipartimento di Inge- tablet o PC.
gneria dell’Informazione dell’Università di Brescia, coordinati dalla Prof.ssa
Alessandra Flammini, hanno ideato COLLABORAZIONE
un nuovo tipo di sensore biometrico. Il TRA IL GRUPPO GMEE
sensore, il cui brevetto è stato deposi- DELL’UNIVERSITÀ DELL’AQUILA
tato dall’Università stessa, è in grado ED ENERGETICA ITALIA SRL
di utilizzare il profilo audio Handsfree PER LA CARATTERIZZAZIONE
di Bluetooh e supererà i limiti d’in- E IL COLLAUDO
compatibilità d’interfaccia verso D’IMPIANTI FOTOVOLTAICI
smartphone con diverso sistema ope- DI MEDIA E GRANDE TAGLIA
rativo. Al momento, infatti, i dispositivi biometrici, come ad esempio di Energetica Italia srl ha avviato nel
2011 una collaborazione con i docenti dell’Unità GMEE della Facoltà
di Ingegneria dell’Università dell’Aquila per quanto concerne le tematiche di collaudo e di caratterizzazione degli impianti fotovoltaici di media
e grande taglia. È stato sviluppato un
sistema automatico di misura in grado
di acquisire simultaneamente 20 canali analogici con frequenza di campionamento fino a 500 kSample/s,
a 16 bits per l’acquisizione delle forme d’onda di correnti e tensioni continue e alternate, nonché dei parametri
ambientali quali irraggiamento, temperatura dell’aria e dei pannelli fotovoltaici. I trasduttori utilizzati consentono la misura di correnti fino a 2 kA
e tensioni fino ad 1 kV. Il software di
misura e di elaborazione dei dati è
stato sviluppato in ambiente NI LabVIEW. Il sistema è stato utilizzato per
il collaudo dell’impianto da 842 kWp
denominato “Cupello 1”, nel Comune
di Cupello (CH).
SCUOLA DI FISICA
E TECNOLOGIA
DELLA MATERIA A OTRANTO
Il CNR organizza la prima edizione
della Scuola di Fisica e Tecnologia
della Materia che si terrà a Otranto
dal 16 al 22 Settembre 2012. I Diret-
T_M
N.
2/12 ƒ 87
N. 02ƒ
; 2012
■
COMUNICAZIONI, RICERCA E SVILUPPO
DA ENTI E IMPRESE
Il Collega Prof. Bruno Andò comunica
l’elenco dei progetti
di ricerca finanziati
al Dipartimento di
Ingegneria Elettrica Elettronica e Informatica dell’Università di Catania,
dalla Regione Sicilia
su fondi comunitari.
Chiunque fosse interessato può contattare il Prof. Andò all’indirizzo bruno.
tori Scientifici sono il Prof. Mataloni [email protected].
(Università Sapienza) e il Prof. Fazio
(Scuola Normale Superiore di Pisa).
Progetti finanziati nell’ambito
La Scuola, rivolta a studenti PhD e del POR FESR Sicilia-4.1.1.1
post-doc, verterà quest’anno sul con- RESIMA: “REti di Sensori Intelligenti e
cetto di coerenza visto nei vari aspet- Mobilità Assistita per anziani e sogti, dalla fisica del laser all’ottica e al- getti svantaggiati”
l’informazione quantistica, al magne- SECESTA: “Reti di SEnsori per il monitismo e alla spintronica, supercondut- toraggio delle CEneri vulcaniche nella
tività, BEC, mentre per l’anno prossi- Sicurezza del Trasporto Aereo”
mo si pensa già a una tematica che SENTINELLA: “Sistemi multisensoriali
includa i sensori.
per il monitoraggio di pannelli fotoIl sito web della Scuola è disponibile voltaici: efficienza energetica e antiall’indirizzo www.dmd-sptm.it. taccheggio”
Nelle prossime settimane sarà reso SVI.SI.S.CA.: – SVIluppo di un Sistepubblico anche il programma, che in- ma Intelligente per la Salute a CAsa
cluderà sia seminari sia dibattiti scien- SEAMED: Satellite Emergency Assitifici alla presenza di esperti nei suc- stance for MEDiterranean Region
citati campi della fisica.
VERIficatore CHIMico – VERICHIM
Ricerca e Sviluppo di Trasduttori Elastomerici intelligenti per gli impieghi
RICERCA A PALERMO
industriali Monitorabili da remoto
SU FONDI COMUNITARI
testati su Applicazioni volte alla diagnostica strutturale – STEMA
Advanced High performance inTeRactive Egse: un “Ground Segment” innovativo per il testing, la simulazione
avanzata e il controllo di sistemi e
apparati spaziali – HERA.
sorta di pièce teatrale dedicata alle
misure elettriche, rappresentato il 14
Maggio scorso presso l’Università di
Milano Bicocca, nell’ambito della
cerimonia delle premiazioni delle
Olimpiadi della Fisica 2012.
La trama è semplice: si parte da un
modernissimo iPad e si fa un lungo
flash back al momento in cui il danese Oersted, nel 1819, appoggiando
sopra una bussola un filo elettrico percorso da corrente, si accorse che il
passaggio della corrente nel filo
influenza la posizione dell’ago magnetico. Da quel momento, in cui il
magnetismo e l’elettricità si sono in
qualche modo unificati, sebbene del
tutto empiricamente, diversi sono i
passi che ci hanno portato fino ai moderni strumenti analogici di misure
elettriche.
Una serie di strumenti della Collezione Misurando dell’Ing. Oronzo
Mauro, opportunamente selezionati, si “denudano” e si presentano
per le loro caratteristiche, per i loro
limiti, per le modalità con cui potevano essere utilizzati. La curiosità di
vederli in azione è stata assecondata con un concreto tuffo nell’elettricità ottocentesca! Bussole delle Tangenti, Galvanometri di Nobili, di
Deprez e d’Arsonval, di Thompson
e indicatori Weston si sono accesi e
si sono mostrati in tutte le loro fattezze.
La comunicazione è stata unica nel
Progetto finanziato
suo genere perché ha permesso ai
dalla comunità europea FP7
TIRAMISU: Toolbox Implementation partecipanti di correre sui binari del
for Removal of Anti-personnel Mines tempo scoprendo insieme l’astuzia e
le capacità costruttive di uno dei
Submunitions and UXO.
periodi della nostra storia tra i più ricchi d’innovazione tecnologica e scientifica.
PIECE TEATRALE
CON STRUMENTI DI MISURA
“Misurare la luce con la luce: ma… Per informazioni:
iniziamo dall’iPad” è il titolo di una [email protected].
T_M ƒ 88
▲
CONTROLLI E MISURE
IL
TEMA
a cura di Massimo Mortarino
Sensori e soluzioni innovative:
stato dell’arte e future evoluzioni
Tavola rotonda “virtuale” con autorevoli esperti
SENSORS AND INNOVATIVE TOOLS FOR CONTROLS
AND MEASUREMENTS
Encouraged by the appreciation of the readers for this kind of “editorial
inquiry”, Tutto_Misure organized a second “virtual” Round Table, focused
on “Sensors and innovative tools for controls and measurements”: an important topic for all manufacturers who wish to increase the value of their offer
to be competitive. Our aim is to focus the state of art, the possible evolution
and the real advantages for all manufacturers who wish to approach controls and measurements as an opportunity, making reasoned and informed
choices for a true competitive improvement.
In the next issues, Tutto_Misure will propose two other interesting Round
Tables: Tests and calibration to ensure reliability – Legal metrology.
RIASSUNTO
Confortata dall’apprezzamento dei lettori per questa forma di approfondimento editoriale, Tutto_Misure ha organizzato una seconda Tavola Rotonda
“virtuale” focalizzata questa volta su “Sensori e soluzioni innovative per controlli e misure”, argomento estremamente attuale e importante per tutte le aziende manifatturiere impegnate ad aumentare il valore della propria offerta per
essere competitive. Il nostro obiettivo è quello di delineare lo stato dell’arte, le
possibili evoluzioni e i vantaggi per tutte le imprese manifatturiere mirate ad
approcciare a controlli e misure come a reali opportunità, compiendo scelte
ragionate e informate per un vero miglioramento competitivo.
Nei prossimi numeri Tutto_Misure proporrà altre due interessanti Tavole
Rotonde: Prove e tarature a garanzia dell’affidabilità – Metrologia legale
CONTROLLI E MISURE: SENSORI
E SOLUZIONI INNOVATIVE
Si è da poco conclusa (18/19 aprile
scorso, a Torino, presso Lingotto Fiere) la
sesta edizione di AFFIDABILITÁ & TECNOLOGIE (www.affidabilita.eu),
la manifestazione italiana focalizzata
sui Metodi, Soluzioni e Tecnologie per
l’Innovazione Competitiva, che ha ospitato al proprio interno la più importante mostra di strumenti, soluzioni e servizi nell’ambito delle Misure, Prove e
Controlli. Un approfondimento obbligato, in considerazione della notevole
evoluzione in atto da tempo in questi
ambiti fra loro sempre più integrati e
sinergici, che ha suscitato l’interesse di
migliaia di decisori e responsabili tecnici di aziende manifatturiere, intervenuti all’evento per individuare le miglio-
ri soluzioni innovative di supporto alle
loro esigenze in termini di miglioramento competitivo. Da anni gli esperti
evidenziano che le aziende che gestiscono i controlli e le misure come
“opportunità”, non come mero “obbligo”, possono godere di vantaggi importanti in termini di qualità, affidabilità, flessibilità dei propri prodotti e processi. Ma in quali termini, a livello concreto? A quali condizioni? Con quale
impegno, a livello organizzativo ed
economico?
Per tentare di rispondere a questi e altri
interrogativi, fondamentali per moltissime imprese manifatturiere interessate
ad avvicinarsi a soluzioni innovative in
quest’ambito, in funzione di specifiche
problematiche per le quali trovare le risposte più efficaci e più competitive,
abbiamo interpellato i rappresentanti di
alcune realtà primarie operanti nell’ambito dei sensori e delle soluzioni innovative per controlli e misure, chiedendo
loro di tracciare uno “stato dell’arte”
delle tematiche in questione e anticiparne le possibili future evoluzioni. Nelle
loro risposte sono contenute informazioni puntuali e aggiornate per chi
deve indirizzare e governare i progetti
di cambiamento all’interno delle nostre
aziende manifatturiere, presentando il
reale valore di soluzioni ancora poco
diffuse (o, comunque, adottate più per
accontentare il committente che a fronte di una scelta d’investimento consapevole e ragionata), a causa di una scarsa specifica cultura da parte dell’utenza
e, a volte, della rapida evoluzione delle
proposte presentate sul mercato.
Hanno partecipato a questa Tavola
Rotonda Virtuale:
• Roberto Vegliach
(KISTLER Italia – Direttore Tecnico)
• Giovanni Martoccia
(ATEQ Systèmes Analitiques Italia –
Responsabile Commerciale)
• Gianni Reinaudo
(AVL Italia – Affiliate Business Unit
Manager Instrumentation & Test
System Combustion, Consumption
& Emission Measurement)
• Paolo Ambrogioni (BIMAL –
Responsabile Commerciale
& Marketing Estero)
• Angelo Marchini
(CATE – Presidente)
• Gianluca Marengo (HBM Italia –
Responsabile Marketing Italia)
D: Come giudica il livello di
attenzione, da parte delle
aziende manifatturiere italiane,
nei confronti delle soluzioni
innovative mirate a garantire
l’affidabilità della propria pro-
[email protected]
T_M
N.
2/12
T_M ƒ 89
Roberto Vegliach
Giovanni Martoccia Gianni Reinaudo
duzione, anche rispetto alla
realtà dei competitor esteri?
(Marengo – HBM) HBM è presente
in Italia da 40 anni, e da sempre
segue il trend di costante crescita del
gruppo a livello mondiale. L’industria
italiana comprende aziende ed enti di
eccellenza in molti settori, che hanno
consentito questa crescita di HBM nel
mercato italiano. L’affidabilità e l’innovazione sono caratteristiche che contraddistinguono l’industria italiana da
molti anni e gli investimenti fatti recentemente da molte aziende anche nel
campo del testing, della misura e nei
controlli della produzione fanno ben
sperare che le aziende italiane sapranno competere anche in futuro in un
mercato sempre più globale e che
richiede il rispetto di standard internazionali. Tuttavia, leggendo i dati degli
investimenti in ricerca e sviluppo sulla
percentuale del PIL, risulta che in Italia
si potrebbe e si sarebbe potuto fare
molto di più se aziende ed enti del settore privato e pubblico avessero investito nella ricerca quanto la media delle
omologhe realtà di altri Paesi europei.
(Vegliach – KISTLER) Kistler è da
sempre all’avanguardia per quanto
riguarda il controllo della qualità nei
processi produttivi e nel montaggio finale e il mercato italiano è sempre più
teso a garantire una qualità all’altezza
di quanto propongono i produttori tedeschi e francesi. Gli investimenti in questo campo sono sempre più in crescita
e la tendenza è positiva: vediamo che
per ogni nuovo prodotto che l’industria
mette in produzione viene sempre
messa in atto una politica molto stretta
di controllo di qualità totale.
(Martoccia-ATEQ) Persa la battaglia dei prezzi, l’unico campo nel
quale si può essere vincenti, rispetto
ai propri competitor esteri, è quello
dell’affidabilità e della qualità del
prodotto. Sempre più aziende, non
solo di grandi dimensioni, hanno fatto
propria questa politica e in tal senso
investono. Una delle priorità è la qualità, ambito nel quale il nostro ruolo e
la nostra responsabilità sono molto
importanti: in particolare nell’ottica di
garantire la qualità che viene richie-
Paolo Ambrogioni
sta. I risultati che stiamo ottenendo ci
convincono del fatto che questa è la
strada da percorrere: ricerca della
qualità e affidabilità, per poter offrire
un prodotto di eccellenza.
(Reinaudo – AVL ITALIA) Investire
per crescere e per essere affidabili:
questo è indubbiamente un metodo
consolidato. Le nuove normative e i
limiti sempre più restrittivi costringono
i nostri clienti all’investimento. Il prodotto finale sarà affidabile e di alta
qualità tanto quanto il produttore sarà
stato in grado di sfruttare al meglio
l’investimento. Per questo motivo, il
supporto applicativo al cliente risulta
nuovamente essere l’arma vincente.
(Ambrogioni – BIMAL) L’attività di
realizzare banchi di prova per il controllo e miglioramento della qualità, iniziata oltre 25 anni fa dalla Bimal, rappresenta una sfida ampiamente vinta. Nel corso dei primi anni
di attività solo poche aziende investivano in questo settore, mentre ora la
qualità è un importante cavallo di battaglia per sconfiggere la concorrenza. L’Italia è sicuramente fra i paesi
che credono maggiormente in questa
tipologia d’investimento; le riduzioni
d’investimento di questi ultimi periodi
sono solo legate alla generalizzata
crisi economica in atto.
(Marchini – CATE) La nostra esperienza ci dice che le aziende con una
chiara visione della loro strategia
aziendale investono, nella consapevolezza che non farlo significa decretare
la fine della propria impresa. Non tutte
però hanno questa chiara visione del
futuro: alcune vedono ancora l’investimento in un banco di collaudo o in una
sala prove come un costo da affrontare
solo se pagato da un finanziamento, se
necessario per legge o perché imposto
dai
propri
clienti. Alcuni
hanno anche
difficoltà oggettive a investire, a causa
della stretta economica e
delle condizioni di mer-
Angelo Marchini
Gianluca Marengo
cato. Ma le aziende che hanno progettato di crescere e, soprattutto, quelle
che vogliono aumentare la loro competitività sui mercati globali stanno investendo in maniera importante nella qualità, sia in fase di progetto sia in quella
del testing. Con un occhio attento al
costo, ma senza rinunciarvi.
D: L’offerta in quest’ambito
varia a seconda della sensibilità delle singole aziende manifatturiere e delle richieste degli
specifici mercati: che cosa propone la vostra azienda di realmente distintivo/competitivo
all’interno di questo vastissimo
panorama?
(Marengo – HBM) I nostri sistemi di
acquisizione dati sono concepiti per
fornire al cliente efficienza e affidabilità nelle misure in ogni ambiente operativo, puntando sulla specializzazione
delle caratteristiche della strumentazione in funzione delle applicazioni e fornendo catene di misura complete e perfettamente accordate, dal sensore al
software. Per questo motivo il compito
del team di HBM Italia è quello di consigliare l’utilizzatore nella scelta dello
strumento più idoneo per l’applicazione e poi di garantire la formazione del
cliente e il supporto post vendita. Che
si tratti di prove con un numero contenuto o elevato di canali, basse o alte
frequenze di campionamento, impieghi in laboratorio, su veicolo, macchinari di produzione o in ambienti ostili
e gravosi, HBM ha l’acquisitore dati
dedicato all’applicazione specifica.
Qualunque sia l’hardware prescelto, il
software di acquisizione è unico per
tutti, Catman AP, consentendo quindi
all’utilizzatore di ridurre i tempi di
apprendimento e ottenere in modo
semplice e rapido i risultati di misura.
(Vegliach – KISTLER) La filosofia di
Kistler è quella di proporre soluzioni sviluppate per risolvere al meglio le applicazioni per le quali, da più di 50 anni,
propone i suoi sensori. In particolare,
Kistler ha recentemente investito per
mettere a disposizione di chi sviluppa e
calibra motori a combustione interna un
prodotto innovativo, che rappresenta di
sicuro un notevole salto tecnologico. Il
sistema KiBox mette a disposizione
direttamente in vettura e in maniera
molto semplice e intuitiva tutto quanto
serve per conoscere i diversi parametri
di funzionamento di un motore, tutto
questo anche in regime fortemente
transitorio. Il successo di questo prodotto, che copre una nicchia di mercato
ben precisa e definita, conferma la validità della filosofia di sviluppo di Kistler.
(Martoccia – ATEQ) Noi di Ateq ci
occupiamo di leak testing dal 1975. I
nostri strumenti si collocano in maniera
trasversale nell’intero panorama produttivo. La capacità non solo di progettare
e costruire strumenti di misura performanti, ma anche di ascoltare e molto
spesso anticipare le necessità dei nostri
clienti, ci consente oggi di essere leader
nel settore e di poter offrire un prodotto
flessibile. Non solo strumenti, ma un
sistema modulare completo cucito, come un abito su misura, sulle esigenze
del cliente. E infine il nostro valore aggiunto: il know-how. Oltre 35 anni di
esperienza a disposizione dei nostri
clienti, che vengono affiancati passo
dopo passo, dal progetto alla realizzazione finale.
(Reinaudo – AVL ITALIA) La sempre
maggiore spinta verso alte performance
dei sistemi di misura e controllo coincide
con l’aumento della complessità d’uso
dei prodotti stessi. Per questa ragione,
da circa un paio d’anni, AVL ha creato
un team di Applicazione atto a favorire
la fase di start-up, di training on the job
e di supporto costante al cliente. L’utiliz-
▲
IL
TEMA
zo non appropriato di
uno strumento genera
malcontento
da parte del
cliente
e
spesso sfocia in un abbandono dello stesso, con
conseguente perdita dell’investimento
e del business da parte del fornitore.
Aumentare l’efficienza del sistema
cliente è per AVL un’azione obbligata
sulla quale crediamo e ci impegniamo
a perseguire.
(Ambrogioni – BIMAL) La Bimal si
caratterizza per l’ampio know-how
sulle tecnologie inerenti le attrezzature per il testing. La sua struttura di
circa 65 persone è in grado di supportare grandi aziende per svariate
esigenze di testing su componenti fluidici o meccanici.
(Marchini – CATE) La nostra società, presente sul mercato da 33 anni,
progetta e realizza banchi di collaudo e sale prova proponendo ai propri clienti soluzioni fortemente personalizzate, chiavi in mano. Non
costruendo prodotti standard, ci
distinguiamo per la disponibilità a
collaborare con il singolo cliente nell’analisi del problema, fino a ottenere la soluzione a lui più congeniale.
CATE è molto competente nella personalizzazione del software d’interfaccia e controllo dei banchi di test,
che sviluppa con tecnologie National Instruments di cui è Silver Partner. Oltre alle proprie risorse può
mettere a disposizione importanti
competenze nel settore meccanico,
oleodinamico e impiantistico, grazie
alla collaborazione con partnership
consolidate formate da piccole imprese, caratteristica e vanto della regione Emilia in cui opera. Questo tipo di organizzazione ci permette di
garantire competenze specializzate
e qualificate per ogni diverso problema, pur mantenendo costi competitivi. Ma, soprattutto, siamo un’azienda che svolge ancora il proprio
lavoro con grande passione.
neficiare delle Vostre proposte?
E quali sono le esigenze (prestazioni, prezzi, ecc.) alle quali
i clienti vi chiedono maggiormente di rispondere?
(Marengo – HBM) HBM punta principalmente su applicazioni nei campi
della ricerca e sviluppo, prove e misure e controlli di produzione e processo. I settori di applicazione vanno dall’automotive all’aerospaziale, dal ferroviario al navale, dall’ingegneria dei
materiali a quella civile, dal settore
energetico ai laboratori di taratura. I
clienti ci chiedono innanzitutto competenza nelle applicazioni, oltre a
strumenti che rispondano a criteri di
“usability” e affidabilità, e sempre di
più ci coinvolgono con spirito di partnership nei progetti, affidandoci consulenze tecniche e misurazioni.
(Vegliach – KISTLER) Le proposte
attuali di Kistler coprono, oltre al già
menzionato mercato dello sviluppo dei
motori endotermici, il mercato dello
stampaggio a iniezione delle materie
plastiche. Il sistema CoMo Injection
garantisce la possibilità di avere un
controllo in tempo reale della qualità
dei pezzi stampati con investimenti
estremamente contenuti e la possibilità
di controllo fino a 24 canali. Un terzo
settore che Kistler copre con una nuova
serie di prodotti è l’automazione dei
sistemi di montaggio automatico, grazie a sistemi di assemblaggio innovativi che prevedono assi elettrici da 100 N
a 300 kN con visualizzazione della
forza di assemblaggio e verifica dei
limiti in tempo reale. Ultimo nato, infine,
è il sistema MaXYmo che consente il
controllo dei processi di piantaggio con
controllo forza vs. spostamento a un
prezzo particolarmente interessante,
mettendo a disposizione diverse interfacce elettriche come ProfiBus, Ethernet,
USB, Digital I/O.
(Martoccia – ATEQ) Come già detto,
i nostri strumenti trovano collocazione
nell’intero panorama produttivo: automotive, aerospaziale, medicale, elettronico, gas, valvolame, fonderie, elettrodomestici e molti altri. Le esigenze
alle quali siamo chiamati a rispondere
sono un mix di prestazioni, prezzo,
D: Quali sono, oggi, i settori qualità, assistenza. È fondamentale
che possono maggiormente be- per noi fornire tutto questo al meglio.
T_M ƒ 93
Mai come oggi la qualità e la tempestività di ciò che viene fornito fa la differenza tra vendere e non vendere.
(Reinaudo – AVL ITALIA) Il rapporto
prestazioni/prezzi rappresenta da sempre una sfida che coinvolge non solo le
singole aziende fornitrici, bensì tutti i concorrenti dello specifico settore. Occorre
CONOSCERE per PROPORRE! Solo se
si conosce la reale necessità di un cliente si è davvero in grado di proporre il
miglior prodotto. Con “miglior prodotto”
non si intende sempre, in assoluto, il
best top della gamma, bensì ciò che
realmente potrebbe dare valore aggiunto al lavoro del cliente senza eccedere
oltre alle reali necessità. La concorrenza
è una giusta competizione, grazie alla
quale tutti siamo costretti a crescere in
qualità e prestazioni mantenendo il giusto rigore sui costi che determinano i
prezzi finali.
(Ambrogioni – BIMAL) Le aziende, nel passato, tendevano a realizzare al proprio interno tutte le attrezzature di prova. Oggi vi è stata una
forte inversione di tendenza, in quanto i produttori tendono a dedicarsi al
100% al loro core business demandando all’esterno tutte le attività complementari. Nel nostro caso, i settori
di maggiore interesse sono i grossi costruttori di componentistica meccanica
o idraulica (cambi, trasmissioni, freni,
motori/pompe idrauliche, tubazioni e
raccordi, filtri, ecc.).
(Marchini – CATE) CATE ha sviluppato molte esperienze, anche uniche, nel
settore delle pompe da acqua, da quelle più piccole con misure di portata a
peso fino a quelle in alta pressione; ma
tutto il settore della fluidodinamica,
quindi aria e olio, e degli organi di trasmissione, con prove a fatica e prove
torsionali, ci ha visti protagonisti di esperienze originali. La nostra peculiarità,
tuttavia, è quella di saper lavorare in
partnership su soluzioni speciali; quindi
i settori che possono maggiormente
avvantaggiarsi del nostro lavoro sono
quelli che non vogliono o non possono
affidarsi a un banco di collaudo standard ma necessitano di una piccola
azienda che sappia proporre loro sistemi di test realizzati in totale sinergia e
secondo precise specifiche. Le aziende
investono anche in progetti innovativi e
T_M ƒ 94
N. 02ƒ
; 2012
▲
IL
TEMA
per valutarli hanno bisogno di sistemi
flessibili e competitivi, da utilizzare
prima di predisporre una produzione e
facili da utilizzare. CATE ha investito per
produrre e mettere a disposizione un
software, il “CAMALEONTE”, sempre
sviluppato in LabVIEW con tecnologia
NI, in grado di essere programmato
autonomamente dal Cliente e quindi
facilmente modificabile per adattarsi
alle modifiche di progetto.
D: Dal Suo punto di vista, quali
saranno gli scenari futuri (evoluzione delle tecnologie, nuovi
ambiti di applicazione, nuovi
mercati)?
(Marengo – HBM) Limitando la riflessione al nostro settore di competenza,
riteniamo che “misurare e provare per
conoscere” sia un principio che sarà
sempre più adottato dall’industria e
dagli enti, in considerazione soprattutto
dei materiali innovativi che trovano
maggiori e nuovi settori d’impiego,
delle energie alternative, dei nuovi tipi
di propulsori. Pensiamo anche che in
futuro le prove e le misure sperimentali
saranno sempre più integrate con misure e prove virtuali. Per poter soddisfare
meglio la necessità d’integrare la prova
fisica con quella virtuale, HBM ha
acquisito negli anni scorsi aziende altamente specializzate in software di trattamento segnali, analisi dati e simulazione, come il caso di nCode.
(Vegliach – KISTLER) In sostanza,
crediamo che quanto è stato fatto dalle
industrie di punta, automotive e medicali in primo luogo, verrà sempre più
richiesto e trasferito anche in altri ambiti. Kistler sarà sempre più in prima fila
per proporre soluzioni adatte ad esigenze diverse e tesa a offrire sistemi al
passo con le nuove tecnologie dei diversi e nuovi bus di campo con la possibilità nativa di storicizzare la produzione.
(Martoccia – ATEQ) Mai come negli
ultimi anni le dinamiche dei mercati
sono diventate imprevedibili: da qui la
grande difficoltà nel poter delineare
scenari futuri. Dal nostro canto cerchiamo di essere attenti osservatori e di
cogliere le nuove esigenze. Non temiamo di esplorare nuovi settori e proporre
le nostre soluzioni e le nostre idee.
(Reinaudo – AVL ITALIA) Sicura-
mente l’Elettrificazione rappresenta un
traguardo che all’orizzonte pare essere
prossimo. AVL è fortemente impegnata
in questa direzione e negli ultimi anni
ha effettuato molteplici investimenti in
quest’ambito a livello globale: nuove
strutture di ricerca, nuovi team strutturati e, non ultimo, un’intensa collaborazione con alcuni key customer.
(Ambrogioni – BIMAL) Lo sforzo di
Bimal è quello di mantenersi sempre al
passo con tutte le nuove tecnologie, che
vengono poi impiegate nelle nostre
attrezzature. Gli scenari futuri sono quelli di un mercato sempre più allargato e
anche in questo, penso, abbiamo lavorato con forte impegno; a oggi le nostre
vendite hanno raggiunto percentuali di
export fino al 70%. I banchi prova Bimal sono oggi in funzione in tutta Europa, negli Stati Uniti, in Australia e Nuova Zelanda, in Cina e in India.
(Marchini – CATE) Rispondo con una
considerazione che mi è venuta alla
mente un po’ di tempo fa: “L’unica cosa
certa del futuro è che non sarà mai
come te lo immagini”. Vera o sbagliata
essa sia, questo particolare periodo storico sembra darmi ragione. In questo
contesto CATE cerca di essere attenta ai
cambiamenti, investendo essa stessa in
qualità e formazione e, soprattutto,
ascoltando il Cliente.
D: Secondo Lei, è necessaria
una maggiore cultura in materia? Quali strumenti di divulgazione suggerisce?
(Marengo – HBM) La formazione
ricopre un ruolo fondamentale per diffondere l’impiego corretto di tecnologie
di prova e misura. Da diversi anni HBM
investe molto nella divulgazione e nella
formazione degli utilizzatori, sia attraverso seminari tecnici e corsi dedicati
sia potenziando la propria struttura con
application engineer e figure dotate di
solido background tecnico. I forum e i
seminari tematici nelle manifestazioni
specialistiche rappresentano un veicolo
di divulgazione molto apprezzato, così
come la comunicazione via internet, ad
esempio i webseminar.
(Vegliach – KISTLER) Riteniamo
che la migliore divulgazione venga
fatta tramite seminari tecnici e la proposta di soluzioni tecniche “ad hoc”
N. 02ƒ
;2012
network oppure di forum dedicati.
(Reinaudo – AVL ITALIA) Nel
corso dell’ultimo ventennio abbiamo
assistito a un incremento della richiesta di cultura anche nell’ambito della
sperimentazione. Con l’avvento di
modelli multidimensionali, l’essere umano si è trovato di fronte a situazioni non gestibili da chi, come noi, ragiona al massimo sulle tre dimensioni.
La cultura in questo ci aiuta, ad esempio integrando in tool di ottimizzazione metodologie DOE, grazie alle
quali la cultura viene messa a disposizione dell’utente finale. La cultura è
ciò che ci permette di comprendere la
difficoltà e studiarne o individuarne la
soluzione.
(Ambrogioni – BIMAL) Secondo
noi, le informazioni sono ampiamente
disponibili attraverso vari canali di
divulgazione e la mentalità dei destinatari è sufficientemente ricettiva;
quello che forse manca è un forte sostegno finanziario a questo settore.
Tanto per essere chiari, occorrerebbe-
■
durante fiere e congressi tematici.
Inoltre, la stampa settoriale riveste
sempre un ruolo importante per portare all’attenzione dei possibili clienti le
soluzioni più all’avanguardia, permettendo una prima conoscenza di quanto il mercato propone.
(Martoccia – ATEQ) In materia di cultura nel testing e acquisizione dati,
tanto è stato fatto ma molto resta ancora da fare. Penso sia auspicabile una
maggiore divulgazione in tal senso.
Nel contempo è evidente che tale
opera richiede un impegno che spesso
non è ripagato dai risultati. Ho notato,
tuttavia, che negli ultimi anni sono
aumentate le iniziative (seminari, incontri, forum, ecc.) organizzate nell’ambito
di fiere ed esposizioni conclamate, che
hanno ottenuto favorevoli apprezzamenti da parte dei partecipanti. Altro
mezzo, che vedo molto apprezzato,
sono le newsletter di divulgazione,
dedicate ai singoli settori produttivi.
Una nuova strada, che forse potrebbe
essere sfruttata, è l’utilizzo dei social
IL
TEMA
ro importanti finanziamenti, accompagnati tuttavia dalla certezza che i soldi ricevuti per ricerca e sviluppo vengano utilizzati per gli scopi ufficialmente dichiarati, non certo assorbiti
dalle difficoltà quotidiane di produzione, come spesso accade.
(Marchini – CATE) Esistono molti
mezzi di divulgazione e non sempre si
può avere il tempo per seguirli con l’attenzione che meritano. Il problema invece è come e cosa comunicare. A tale
proposito, credo che molto potrebbero
fare il mercato e il confronto: il primo
perché sceglie i prodotti che maggiormente danno soddisfazione; il secondo perché potrebbe mettere in risalto
la differenza di risultati tra aziende
che investono in qualità e testing e
quelle che non lo fanno, tra le diverse
politiche economiche dei governi nei
confronti delle imprese. I mezzi di divulgazione potrebbero quindi portare
a conoscenza questi elementi di confronto, le scelte fatte, i risultati, gli errori e i successi.
Successo per AFFIDABILITÀ & TECNOLOGIE 2012!
198 Società espositrici – 5812 Visitatori
(+15% rispetto alla scorsa edizione)
700 marchi esposti, 15 Seminari,
10 Convegni, 3 Laboratori mobili esterni
La sesta edizione di AFFIDABILITÀ & TECNOLOGIE ha chiuso i battenti lo scorso
giovedì 19 aprile, con forte affluenza di pubblico qualificato: un successo auspicato, in controtendenza e quindi ancora più gradito.
I dati a consuntivo mostrano un ulteriore rafforzamento del trend di crescita registrato, anno dopo anno, dalla manifestazione, a livello sia di espositori sia di visitatori, nonostante l’attuale difficile contesto economico e produttivo.
Gli affollati corridoi del padiglione espositivo hanno provocato commenti decisamente positivi da parte dei presenti. Uno
per tutti (sentito più volte durante le due giornate), certamente particolare: “Che piacere partecipare a una manifestazione
nella quale si respira un clima diverso dal solito, insieme a tante persone che hanno ancora voglia di combattere…!”.
AFFIDABILITÀ & TECNOLOGIE 2012, in effetti, ha offerto ai partecipanti un programma di assoluto interesse per le migliaia di
partecipanti, soprattutto decisori d’impresa e responsabili tecnici di aziende di ogni dimensione e settore produttivo, alla ricerca d’indicazioni concrete per poter aumentare la competitività delle proprie imprese, ma anche di stimoli e suggerimenti per
approcciare a metodi, strumenti e tecnologie in grado di elevare il contenuto delle proprie offerte ai committenti e clienti.
La “formula” della manifestazione ha saputo ancora una volta distinguersi con l’offerta di contenuti ad alto livello specialistico e soddisfare le esigenze di un pubblico qualificato e sempre più attento alle proposte concrete e applicabili che la
manifestazione è in grado di offrire loro, rinnovandosi anno dopo anno.
Ciò grazie al prezioso contributo di autorevoli esperti, operanti nell’ambito di aziende private e pubbliche, associazioni ed
enti di ricerca, che hanno messo le loro conoscenze ed esperienze al servizio degli intervenuti.
La settima edizione di AFFIDABILITÁ & TECNOLOGIE si svolgerà, sempre a Torino, il 17/18 aprile 2013.
Vi aspettiamo!
T_M ƒ 95
N. 02ƒ
; 2012
ACCELEROMETRO PIEZOELETTRICO
TRIASSIALE
Gli accelerometri LIVM (denominati
anche IEPE) sono sensori piezoelettrici
che integrano un’elettronica che converte
il segnale a elevata impedenza generato
dal cristallo piezoelettrico in un segnale
a bassa impedenza avente un’eccellente
immunità al rumore e compatibilità per
l’uso con cavi lunghi. I cristalli piezoelettrici sono in materiale ceramico disposti
in configurazione al taglio (shear mode).
La serie Dytran 3023 comprende una
gamma completa di accelerometri triassiali con un eccellente rapporto prezzo/prestazioni. L’accelerometro Dytran mod. 3023A è
saldato e sigillato con il laser in una custodia leggera di titanio del
peso di soli 3 g e dimensioni di 9,1 x 9,1 x 9,1 mm3. La sua sensibilità nominale è di 10 mV/g per ogni asse (x, y e z) per un campo
di misura di 500 g e una risposta in frequenza fino a 10.000 Hz.
Il montaggio è adesivo, ma è disponibile anche una versione con
montaggio a vite 5-40. In opzione è disponibile una versione che
include un circuito TEDS (Transducer Electronic Data Sheet) che consente di memorizzare informazioni in formato digitale nel sensore
stesso, quali modello, numero di serie e dati relativi alla taratura.
Per ulteriori informazioni: www.luchsinger.it
OLTRE 30 NUOVE FUNZIONALITÀ
PER CAM2 GAGE 2.2, SOFTWARE
PER LA MISURA A CONTATTO
CAM2 (Gruppo FARO
Technologies), ha recentemente rilasciato
la nuova versione
CAM2 GAGE 2.2,
software per i dispositivi di misura portatili
a contatto CAM2 Gage e CAM2 Arm.
Trenta nuove funzionalità fanno di questo software una delle soluzioni CAM2 più
complete per veloci misurazioni a contatto a elevata precisione.
La funzionalità QuickTools consente agli utenti di importare e
utilizzare programmi QuickTools generati in CAM2 Measure
10. Codici a barre possono ora essere creati direttamente e
salvati con i dati dei piani d’ispezione tramite un semplice clic:
ciò assicura un’eccezionale velocità per tutte le attività di misura quotidiane ripetute con frequenza. Un ulteriore elemento di
novità è costituito dalla nuova sonda che misura la temperatura dei componenti durante l’attività di misurazione: si tratta di
un elemento molto importante poiché le variazioni della temperatura possono avere effetti negativi sulla precisione delle
misure. Monitorando e compensando automaticamente queste
variazioni, il software CAM2 GAGE garantisce risultati consistenti e di elevata precisione nonostante il cambiamento delle
condizioni di misura.
“Il software CAM2 GAGE 2.2 presenta nuove funzionalità che
accelerano e semplificano le attività di misurazione. CAM2 è impegnata a migliorare costantemente le proprie soluzioni software di
misura” afferma Markus Grau, Product & Business Development
Manager CAM2 Gage di CAM2. “Con questa nuova release
abbiamo raggiunto un altro importante traguardo: offrire il software di misura più semplice e intuitivo disponibile sul mercato”.
Per ulteriori informazioni: www.cam2.it
T_M ƒ 96
GLI
ALTRI TEMI
▲
MEMS
Ignazio Aleo 1, Carmen Brigante 2
Moduli inerziali e Sensor Fusion
per il rilevamento del movimento umano
Una tuta sensorizzata per l’analisi dei movimenti del corpo
INERTIAL MODULES AND SENSOR FUSION
TO DETECT HUMAN MOVEMENT
The opportunity to have a smart human motion tracking systems represents
an interesting tool in a wide range of advanced applications, such as
gaming, augmented reality, telemedicine, rehabilitation and many other
human machine interaction applications. This paper presents a modular
architecture to develop a wearable system for real-time human motion capture. The system is based on a network of smart inertial measurement units
(IMUs) distributed on the body. Each of these modules is provided by a 32bit RISC microcontroller (MCU) and miniaturized MEMS sensors: 3-axis
accelerometer, 3-axis gyroscopes and 3-axis magnetometer. The MCU collects measurements from the sensors and implements the sensor fusion algorithm.
RIASSUNTO
I sistemi intelligenti per il tracciamento del movimento del corpo umano rappresentano uno strumento interessante in una vasta gamma di applicazioni: dai videogiochi, alla realtà aumentata, alla telemedicina e al monitoraggio del paziente durante la riabilitazione.
In particolare, architetture basate su moduli inerziali consentono di sviluppare sistemi modulari e facilmente indossabili per l’acquisizione in tempo
reale del movimento del corpo umano.
Il sistema proposto si basa su una rete di moduli inerziali (Inertial Measurement Unit, IMU) distribuiti sul corpo. Ogni modulo è dotato di un microcontrollore a 32 bit (MCU) e di sensori MEMS (un accelerometro triassiale,
un giroscopio triassiale e un magnetometro triassiale). La MCU raccoglie le
misure dei sensori e implementa un algoritmo di sensor fusion.
LE NUOVE FRONTIERE
DEI SISTEMI MOCAP
Negli ultimi anni i sensori MEMS hanno avuto ampia diffusione nel mercato automobilistico e nel campo dell’elettronica di consumo grazie alla loro
continua miniaturizzazione e alla loro
crescente precisione e accuratezza.
Solo recentemente, con lo sviluppo di
algoritmi di sensor fusion avanzati, si
stanno schiudendo nuove frontiere applicative orientate alla medicina, allo
sport, alla realtà aumentata e alla
robotica. In particolare la possibilità
di utilizzare e integrare diverse tipologie di sensori MEMS, quali accelerometri, giroscopi e magnetometri, sta
consentendo lo sviluppo di piattafor-
rilevazione che siano di supporto
agli anziani o a soggetti con problemi motori. Inoltre, nella medicina
sportiva e nello sport in generale,
potrebbero essere facilmente valutate le prestazioni degli atleti e monitorati i progressi. L’atleta (come il
paziente) avrebbe a disposizione
uno strumento in grado di registrare
la storia del proprio movimento con
l’enorme vantaggio d’individuare in
modo specifico e mirato le eventuali
correzioni necessarie per il miglioramento della prestazione. Inoltre
architetture di sensori distribuiti per
il MOtion CAPture (MOCAP) disposte su diverse strutture robotiche,
come manipolatori industriali, sarebbero in grado di fornire una ridondanza nelle misure e conseguentemente aumentare la sicurezza e
migliorare l’interazione uomo-macchina e macchina-ambiente.
Da anni sono già disponibili sul mercato diverse tecnologie di MOCAP.
Esistono, ad esempio, sistemi ottici,
meccanici, magnetici e acustici. Questi metodi non risultano, tuttavia, ottimizzati per coprire tutte le applicazioni di cui discusso. I sistemi ottici
sono, in questo momento, il riferimento in termini di precisione e affidabilità. Questi sistemi utilizzano,
marcatori passivi che riflettono la
luce infrarossa emessa da diodi
emettitori disposti a corona intorno
all’obiettivo di ogni telecamera. La
posizione esatta dei marcatori nello
spazio viene calcolata dal confronto
e dalla sovrapposizione delle immagini registrate di tutte le telecamere
me in grado di monitorare il movimento con alta precisione e affidabilità. Queste piattaforme multi-sensore,
comunemente chiamate IMU (Inertial
Measurement Unit), possono rappresentare l’elemento base di una rete
sensoriale per il monitoraggio del movimento di architetture complesse come il corpo umano o un braccio robotico. Tale possibilità apre nuovi scenari nel campo della sanità, dalla
riabilitazione alla medicina sportiva,
così come nel campo dei videogiochi
con nuovi sviluppi verso la realtà
aumentata.
(1) Università di Catania
Sistemi di tracciamento e misura del
movimento del corpo umano consen- [email protected]
tono di ottenere terapie di riabilita- (2) STMicroelectronics, Catania
zione più efficaci e costruire reti di [email protected]
T_M
N.
2/12 ƒ 97
con metodi di triangolazione. Tale
approccio, pur offrendo ottima affidabilità e precisione, è costoso ed è difficilmente trasportabile: necessita di
un ambiente strutturato e identifica un
volume utile al tracciamento la cui
grandezza è inversamente proporzionale alla precisione ottenuta (alte
precisioni spesso si ottengono in volumi ridotti).
Altre soluzioni basate sull’elaborazione delle immagini che utilizzano tecniche di computer vision, spesso si
basano su forti ipotesi sulla struttura
cinematica tracciata (es. il corpo
umano) e su considerazioni tipiche di
studi sulla visione stereoscopica.
Questi approcci sono molto semplici
da un punto di vista hardware (e
quindi poco costosi) ma sono meno
precisi.
Le tecniche basate su sistemi meccanici richiedono esoscheletri da indossare che possono risultare poco comodi
e la persona non ha piena libertà di
movimento. Ad esempio risulta inutilizzabile in soggetti con problemi
motori. I sistemi acustici utilizzano il
tempo di volo di un segnale audio per
calcolare la posizione degli indicatori, ma la direzionalità dei trasmettitori/ricevitori influenza fortemente le
prestazioni del dispositivo.
I sistemi inerziali rappresentano una
frontiera molto promettente per i
sistemi di rilevamento del movimento
perché coniugano ottime caratteristiche in termini di precisione, vestibilità, dimensioni e costi. Il principale
limite di questi sistemi è stato finora
la loro eterogeneità, e il livello d’integrazione di vari sensori. È infatti
necessario associare accelerometri,
giroscopi e magnetometri (bussole)
per avere tutte le informazioni necessarie al ritrovamento dell’orientamento spaziale di un oggetto.
ARCHITETTURA DEL SISTEMA
L’aspetto fondamentale per ricostruire
correttamente il movimento umano
risiede nel modello cinematico del
corpo utilizzato, la sua precisione si
riflette nei risultati finali. Partendo da
un modello realistico del corpo u-
T_M ƒ 98
N. 02ƒ
; 2012
▲
GLI
ALTRI TEMI
mano, è stata progettata una tuta sensorizzata nella quale sono distribuite le
IMU lungo i tratti fondamentali del
corpo. Ogni IMU ha il compito di calcolare l’orientamento e la direzione di
un segmento, e trasferire queste informazioni a un’unità centrale (CU). In
questo modo, la ricostruzione del movimento viene effettuata applicando relazioni cinematiche dirette (Fig. 1).
alla realizzazione di un sistema
indossabile. D’altro canto è necessario aver a disposizione algoritmi di
sensor fusion che riescano a calcolare con precisione e affidabilità l’orientamento della IMU. La coniugazione di questi due aspetti si attua
pienamente nel modulo inerziale
iNEMO™ sviluppato da STMicroelectronics.
Figura 1 – Sistema di flusso di dati: ogni IMU calcola l’orientamento del segmento relativo
e invia queste informazioni al CU per la ricostruzione del movimento
Nel modello considerato, per garantire la ricostruzione dell’interno corpo
umano, con tutte le sue articolazioni,
sono necessarie almeno 10 IMUs (Fig.
1), 14 includendo la mobilità di piedi
e mani oppure 15 se si considera
anche la testa. Nell’architettura presentata il numero di nodi è facilmente
configurabile ed espandibile.
Le problematiche progettuali si concentrano attorno alla piattaforma inerziale e all’algoritmo di calcolo dell’orientamento dei singoli nodi.
iNEMO™
la piattaforma inerziale
La progettazione della piattaforma
inerziale deve tenere in conto in pari
misura sia le caratteristiche hardware che software. Da una parte è necessario l’utilizzo di una soluzione
che integri i migliori sensori, un processore con sufficiente potenza di
calcolo, e dimensioni e peso adatti
La piattaforma iNEMO™ è dotata di
un sistema di sensori a 9 gradi di libertà costituito da un accelerometro
triassiale, un giroscopio triassiale, e
un magnetometro triassiale in soli 0,6
grammi di peso.
ll sistema nel suo complesso può essere facilmente visto come un dispositivo
a montaggio superficiale (SMD), che
dispone di 28 pin nelle ridotte dimensioni di soli 13 x 13 x 2 mm3. Tutti i
componenti sono montati sul lato superiore e ai suoi margini aree metallizzate realizzano il pin out del modulo. In questo modo il modulo può
essere montato direttamente nel sistema dell’utente come unico componente, senza particolari esigenze di
saldatura.
La piattaforma iNEMO è costituita
da un microcontrollore (MCU) a 32-bit,
un modulo geomagnetico digitale
(che integra accelerometro e magnetometro triassiale) e un girosco-
N. 02ƒ
;2012
Figura 2 – Modulo iNEMO e relativo schema a blocchi
pio triassiale digitale (Fig. 2). Mentre la comunicazione interna al modulo (ossia tra la MCU e i sensori)
viene gestita tramite i bus seriali I2C e SPI, la comunicazione con il mondo esterno (ossia la Central Unit, nel
caso particolare) può essere implementata attraverso
diverse interfacce (USART, SPI, I2C, CAN). Nel caso
specifico è stato scelto il bus seriale RS-485.
Il microcontrollore scelto è un STM32F103 della STMicroelectronics ed è dotato di un core ARM Cortex M3. Il
giroscopio è il L3G4200D (anch’esso di ST), un sensore
a 16-bit digitale con fondo scala e banda selezionabile
dall’utente: il primo è tra ± 250°/s, ± 2000°/s, mentre
la seconda tra i 100 Hz e 800 Hz.
Il modulo geomagnetico è l’LSM303DLH (da ST) che integra in un unico package sia accelerometro che magnetometro: il primo con fondo scala variabile da ±2g a
±16g, il secondo tra ±1,3 e ±8,1 gauss.
Sensor Fusion:
il Filtro di Kalman Esteso
Ciascuno dei sensori integrati nell’iNEMO di per sé
può fornire informazioni riguardanti l’orientamento: il
giroscopio fornisce le variazioni di orientamento attraverso l’integrazione delle velocità angolari misurate,
l’accelerometro e magnetometro forniscono informazioni sull’orientamento attraverso le proiezioni delle
componenti del vettore accelerazione di gravità e
campo magnetico terreste nel sistema di riferimento
considerato. Tuttavia queste informazioni, prese singolarmente, non garantiscono precisione e affidabilità;
numerosi errori dovuti tra l’atro ai problemi d’integrazione numerica e alla rumorosità dei dati ne inficiano
i risultati.
È necessario che ogni singolo nodo elabori e combini le
misurazioni delle diverse tipologie di sensori per fornire
dati di orientamento assoluto del singolo nodo alla CU.
Questa elaborazione è ottenuta attraverso un filtro di
Kalman Esteso (EKF), implementato nella MCU integrata
(Fig. 3).
La procedura algoritmica itera per cicli, ciascuno di
essi può essere facilmente diviso in due parti principali: la fase di predizione e la fase di correzione. Come
mostrato in Fig. 3, dopo la fase di predizione nella
quale lo stato viene aggiornato utilizzando il modello
del processo, l’uscita viene corretta attraverso le misure e il calcolo del guadagno di Kalman. Le misure del
43. verticale
Azienda leader di strumenti
e sistemi di misura...
se cercate
la soluzione giusta
per risolvere
qualsiasi problema
di misura e controllo,
voltate pagina!
T_M ƒ 99
N. 02ƒ
; 2012
▲
GLI
ALTRI TEMI
tempo necessario per una completo
ciclo predizione-correzione), per una
frequenza di aggiornamento teorico
massimo del filtro di 250 Hz. I dati
raccolti hanno mostrato che questa
soluzione si presta bene agli scopi
precedentemente descritti: essa infatti,
oltre che a precisione e affidabilità, è
flessibile e facilmente indossabile, e
soprattutto non vincola i movimenti.
CONCLUSIONI
Il sistema presentato è basato sull’integrazione di più moduli iNEMO per il
tracciamento del movimento di corpi
rigidi o approssimabili a tali. L’errore
compiuto in questa stima è contenuto
ed
è in valore assoluto tale da permetFigura 3 – Struttura del filtro di Kalman
terne l’utilizzo in molte applicazioni. La
presenza di una potente
giroscopio vengono utilizzate per
unità di calcolo programmal’integrazione (strap-down) in fase di
bile (MCU a 32bit) unita alle
predizione, mentre accelerometro e
dimensioni ridotte di questo
magnetometro sono utilizzati per
modulo saldabile lo rendocompensare la deriva d’integrazione
no, infatti, adatto a probledella velocità angolare nella fase di
matiche molto diverse, modicorrezione.
ficando elettronica e meccaIl filtro implementato utilizza i quaternionica di contorno.
ni q = [q0, q1, q2, q3] come rappresenIl crescente numero di nodi,
tazione dell’orientamento per garantire,
normalmente presente in una
allo stesso tempo, la mancanza di sincatena cinematica complesgolarità cinematica tipica degli angoli
sa, non si ripercuote su una
di Eulero Roll, Pitch e Yaw (RPY), e un
Figura 4 – Serie temporali degli angoli di Eulero
crescente complessità comcalcolati dal modulo iNEMO™:
efficace strumento matematico per ottiputazionale grazie alla distriRoll (rosso), Pitch (blu) and Yaw (verde)
mizzare la complessità computazionale.
buzione delle capacità di
Senza un adeguato algoritmo di sensor
calcolo. Nel presente lavoro
fusion, ossia considerando solo misure
è, ad esempio, evidente la
separatamente e indipendentemente
semplicità realizzativa di un
l’una dall’altra, come normalmente
sistema di monitoraggio dei
avviene nelle applicazioni commerciali,
movimenti del corpo umano
la stima di orientamento è spesso noterealizzando un bus di comuvolmente errata.
nicazione ed utilizzando da
Il sistema iNEMO fornisce i dati di orien10 a 15 moduli inerziali.
tamento in forma di quaternioni, matrice
Infine, l’utilizzo di sensori e
di rotazione o RPY. Alcuni esempi di
microcontrollori tipici del
stima angoli RPY ottenuti in un test di
mercato dell’elettronica di
moto preliminari sono riportati in Fig. 4.
consumo mantiene i costi
Gli errori del sistema sono stati stimati a
ridotti, allargando ulteriorFigura 5 – Confronto tra l’orientamento calcolato
circa ± 0,5° per gli angoli di Pitch e Roll
mente il campo applicativo
da un sistema MOCAP di tipo ottico (linea tratteggiata)
e ± 2º su Yaw in quasi-statica condizio- e il sistema inerziale basato su iNEMO™ (linea continua) della soluzione proposta e
ne, mentre ± 1,5° in Pitch e angoli di
pone le basi necessarie ad
Roll e ± 4º in Yaw in movimento libero
un miglioramento continuo e
(per movimenti rientranti nei full scale) calcolo e della complessità dell’algo- veloce: sensori più accurati e precisi,
(esempio in Fig. 5).
ritmo implementato portano a un microcontrollori più potenti e consumi
Un’analisi preliminare dei tempi di tempo d’iterazione di 4⋅10-3s (cioè il in rapida discesa.
T_M ƒ 100
N. 02ƒ
;2012
RIFERIMENTI BIBLIOGRAFICI
N. Abbate, A. Basile, A. Brigante, C. Faulisi, S. Sessa
“Towards miniaturization of a MEMS based wearable
motion capture system” IEEE Trans. on Industrial Electronics. vol. 58, n. 8, Agosto 2011.
N. Abbate, I. Aleo, A. Basile, A. Brigante, C. Faulisi
“Design of an Inertial Motion Module”, IEEE ICRA Communication, Maggio 2011.
iNEMO data brief. Available: www.st.com/inemo
G. Bishop, G. Welch, “An Introduction to the Kalman Filter” presentato al SIGGRAPH course notes, 2001.
A. M. Sabatini, “Quaternion-based extended Kalman filter for determining orientation by inertial and magnetic
sensing” IEEE Trans. Biomed. Eng., vol. 53, pp. 134656, Luglio 2006.
Ignazio Aleo è dottorando presso la Facoltà di Ingegneria dell’Università di Catania. Si
occupa di sistemi inerziali, robotica e interazione uomo-macchina. È attualmente coinvolto in progetti di ricerca congiunti con STMicroelectronics.
Carmen Brigante si è laureata in Ingegneria Informatica nel 2007 presso l’Università degli Studi di Catania. Da cinque anni
lavora per STMicroelectronics nel gruppo di
Automation, Robotics and Trasportation. Le
sue attività di ricerca sono focalizzate allo
sviluppo di applicazioni healthcare, interazione uomo-macchina e robotiche.
... la soluzione giusta è
Abbonarsi ORA per 2 anni a
TUTTO_MISURE
LA RIVISTA DELLE MISURE E DEL CONTROLLO QUALITÀ - PERIODICO FONDATO DA SERGIO SARTORI
ORGANO UFFICIALE DELL’ASSOCIAZIONE “GMEE” E DI “METROLOGIA & QUALITÀ”
CONVIENE!!!
66 euro (anziché 72)
L’abbonamento biennale Vi offre
8 numeri cartacei + 8 telematici
(Tutto_Misure News)
Per richiedere le modalità di abbonamento,
telefonare al n° 011/0266700
o inviare una e-mail a:
[email protected]
Dal micrometro alle Macchine di Misura
Ottiche e Multisensore 3D.
Da oltre 50 anni la soluzione giusta.
www.rupac.com
Via Alamanni, 14 - 20141 Milano - tel 02.53.92.212 r.a. - fax 02.56.95.321
[email protected]
N. 02ƒ
; 2012
LA TECNOLOGIA MADE IN ITALY
VINCE NEGLI STATES
La Corte d’Appello Federale
di Washington riconosce
a Coop Bilanciai la validità
della propria tecnologia inerente
i dispositivi di pesatura digitali
(celle di carico)
Coop Bilanciai ottiene negli Usa un’importante vittoria legale in
una causa brevettuale intentata dalla multinazionale Mettler Toledo Inc., colosso mondiale nel settore degli strumenti per la pesatura, che accusando Coop Bilanciai di aver violato con questa tecnologia i propri brevetti Mettler Toledo aveva chiesto un risarcimento di 20 milioni di dollari.
L’oggetto del contenzioso era rappresentato dalle celle
digitali, componenti fondamentali degli strumenti di pesatura che Cooperativa Bilanciai progetta e produce all’interno dello stabilimento di Campogalliano e distribuisce su
larga scala a livello internazionale.
La battaglia legale ha inizio nel 2006, quando la multinazionale Mettler Toledo chiama in causa Coop Bilanciai
attraverso la propria filiale USA B-Tek con l’accusa di violazione di brevetti, inerenti appunto la tecnologia per la
pesatura digitale.
Dopo aver ottenuto la vittoria in primo grado, nel gennaio
2009, con la sentenza emessa dalla giuria del Tribunale
di Beaumont in Texas, l’8 febbraio 2012, con la sentenza
definitiva della Corte d’Appello Federale di Washington,
viene riconosciuta a Coop Bilanciai in modo incontrovertibile e indiscutibile la validità delle proprie tecnologie.
Coop Bilanciai ha così vista premiata la propria scelta di non
accettare eventuali patteggiamenti e di affrontare la causa
contro un gruppo così importante, forte dell’alta professionalità profusa per la ricerca e lo sviluppo di questo progetto.
Questo riconoscimento ottenuto negli USA, che in assoluto
è il paese più autorevole e il più forte difensore della proprietà brevettuale, dimostra che un’azienda italiana non
deve temere il sistema giuridico americano.
Quando l’azienda si presenta seria e preparata, ha fiducia in se stessa e ha la forza per non cedere e per difendere la propria reputazione, una giuria statunitense non
ha pregiudizi.
Si tratta di un risultato estremamente importante per la credibilità e l’impatto del made in Italy sui mercati, in un momento in cui Coop Bilanciai sta promuovendo e proponendo la sua innovativa tecnologia su scala mondiale.
Coop Bilanciai è stata assistita dall’avvocato Charles Bernardini dello studio Ungaretti & Harris di Chicago.
GLI
ALTRI TEMI
▲
MISURE PER LA DIAGNOSI ENERGETICA
A cura di Paolo Vigo 1, Marco Dell’Isola 2, Mario Mosca 1
Incrementare il valore
degli edifici civili e industriali
Il valore dell’affidabilità delle misure e prove nella Diagnosi Energetica
THE VALUE OF MEASUREMENT AND TESTING FOR THE
ENERGETIC DIAGNOSIS OF CIVIL AND INDUSTRIAL BUIDINGS
ACCREDIA, the national accreditation body in Italy, has launched a project to
analyze, from a technical, operational and legal viewpoint, the issue of the energetic diagnosis of buildings. This is crucial in the context of Energy Certification
and wishes to actively involve all stakeholders, and direct them toward the fulfilment of norms using reliable methods. To this aim, measurement and testing
tools and services play a primary role. This article contains a sinthesis of the
Meeting held in Turin on April 18th, within Affidabilità & Tecnologie 2012.
RIASSUNTO
ACCREDIA, ente unico di accreditamento in Italia, ha avviato un progetto volto
ad analizzare, in chiave tecnica, operativa e legale, il tema della diagnosi
energetica degli edifici, d’importanza fondamentale in ottica di Certificazione
Energetica, allo scopo di coinvolgere fattivamente tutte le parti in causa e orientare l’adempimento della normativa verso metodi certi e affidabili, nei quali gli
strumenti e i servizi di misura e prova giocano un ruolo primario. Ecco una sintesi degli interventi presentati durante il Convegno svoltosi a Torino il 18 aprile scorso, nell’ambito della sesta edizione di Affidabilità & Tecnologie.
IL CONVEGNO
Nel workshop “Incrementare il valore degli edifici civili e industriali: Il
valore dell’affidabilità delle misure, prove e certificazioni nella
Diagnosi Energetica”, tenutosi a Torino il 18 aprile 2012 su iniziativa di
ACCREDIA (l’Ente Unico di Accreditamento in Italia) nell’ambito dell’evento
“Affidabilità & Tecnologie“, sono state
discusse e affrontate le problematiche
connesse alla misura e certificazione
delle prestazioni energetiche degli edifici e ai risvolti economici collegati.
I numerosi relatori intervenuti, mode-
rati dal prof. Paolo Vigo (vicepresidente di ACCREDIA), hanno analizzato i diversi aspetti connessi alla
misura delle prestazioni energetiche
degli edifici, quali l’analisi delle metodiche di misura disponibili, la relativa
riferibilità metrologica, l’accreditamento e certificazione dei sistemi di
gestione dell’energia, delle misure e
prove e infine, non ultimo per importanza, la qualificazione del personale. Particolare enfasi è stata dedicata
alle ricadute delle diagnosi e certificazioni nella pratica edilizia e all’impatto di tutto questo nel mondo delle
professioni, con il punto di vista dell’ANCE e dell’Ordine degli Ingegneri.
si e certificazioni energetiche. Ciò è
dovuto alla forte accelerazione che
tali argomenti hanno avuto in Italia
negli ultimi tempi, diventando tematiche protagoniste negli scenari dell’edilizia residenziale e industriale, ma
senza che questo sia stato preceduto
da una concertazione efficace, né da
una chiara standardizzazione operativa. Questo scenario, da un lato svilisce le tante professionalità coinvolte,
dall’altro rischia di indurre un danno
valoriale al patrimonio edilizio esistente non percepito dai non addetti.
GLI INTERVENTI
Il prof. Marco Dell’Isola (Università
di Cassino e del Lazio Meridionale)
ha illustrato le ”Tecniche di misura dell’energia e dei flussi energetici in
campo”. Nell’intervento è stata evidenziata l’importanza della consapevolezza delle performance energetiche ai fini della riduzione dei consumi
e delle tecniche di misura in campo,
necessarie a una sua affidabile quantizzazione. Sono state quindi descritte
(i) le tecniche di misura necessarie a
un “asset rating” del sistema edificioimpianto (ovvero una valutazione
nelle condizioni standard), come ad
esempio le misure dimensionali del-
L’INTRODUZIONE
Nell’intervento introduttivo il prof.
Paolo Vigo, nel sottolineare l’interesse di ACCREDIA a proporsi quale
luogo di confronto e di sintesi in tema- (1) Accredia
tiche di largo spettro quale quella in [email protected]
esame, ha sinteticamente evidenziato (2) Università di Cassino e del Lazio
le criticità che gli addetti ai lavori Meridionale
percepiscono nel settore delle diagno- [email protected]
T_M
N.
2/12 ƒ 103
l’involucro, della trasmittanza termica,
della permeabilità all’aria, della termografia e dell’analisi dei fumi; (ii) le
tecniche di misura necessarie a un
“tailored rating” (ovvero una valutazione adattata all’utenza), come ad
esempio le misure delle condizioni climatiche esterne e delle modalità di
utilizzo del sistema; (iii) le tecniche di
misura necessarie a un “operational
rating” (ovvero una valutazione nelle
condizioni di esercizio) in cui la diffusione degli smart meter rende oggi
potenzialmente possibile una diagnosi energetica in tempo reale.
I problemi evidenziati, connessi a una
ridotta propensione alla diagnosi e
alle misure in campo, sono:
• una limitata riferibilità metrologica
T_M ƒ 104
delle misure;
• tempi e metodi mediamente lunghi e
complessi;
• elevati costi della strumentazione e
delle prove;
• una scadente preparazione specifica dei tecnici in merito ai metodi sperimentali.
Le soluzioni percorribili possono essere così identificate:
• il ricorso diffuso alla taratura della
strumentazione e al potenziamento
dell’accreditamento dei centri di taratura e prova;
• l’automazione delle misure (Smart
meter);
• la messa a punto di metodi di misura semplificati;
• la promozione di campagne di misura su tipologie standard/intero edificio;
• la formazione e la certificazione del
personale.
L’ing. Luigi Iacomini (I.N.Ri.M.) ha
analizzato le “Problematiche di misu-
ra in campo e di riferibilità delle misure”. Come esempio, è stata svolta una
sintetica analisi delle problematiche
di misura dei termoflussimetri, per sottolineare la necessità di garantire la
riferibilità metrologica delle misure
che vengono eseguite in campo ai fini
della diagnosi energetica. Proprio
riguardo a quest’ultima, le principali
criticità evidenziate sono state: a) il
fatto che le analisi effettuate con i
sistemi di certificazione non trovino
un’adeguata validazione di tipo sperimentale; b) la difficoltà di ottenere
misure affidabili in campo per le grandezze ritenute critiche nella valutazione delle prestazioni energetiche; c) la
difficoltà di effettuare misure efficaci e
tra loro confrontabili.
N. 02ƒ
;2012
Particolare enfasi è stata data alla realizzazione del campione nazionale per
la taratura di termoflussimetri, prossimo
alla conclusione, che garantirà la riferibilità delle misure di flusso termico e
renderà possibile il confronto di misure
di trasmittanza termica eseguite in
campo. A seguire sono state illustrate le
catene di riferibilità della temperatura
dell’aria e dell’umidità relativa, della
trasmittanza termica e dell’energia primaria, grandezze indispensabili da
misurare nella diagnosi energetica.
In conclusione è stata fatta una panoramica dei principali progetti I.N.Ri.M.
connessi alle problematiche energetiche: a) Energy C-Box (misura riferibile
delle prestazioni energetico-ambientali
degli edifici con strumentazione certificata); b) Reteattiva H2Q (rete d’impresa per la competitività del sistema
nazionale di gestione e la contabilizzazione certificata di portata idrica ed
energia termica); c) Ecothermo (progettazione, realizzazione e caratterizzazione metrologica di un sistema di
Wireless Building Automation per il
risparmio energetico); d) Eco-innovation
(uso di tecnologie innovative per il
risparmio energetico su edifici esistenti
con sistema centralizzato).
L’ing. Mario Mosca (ACCREDIA) ha
poi approfondito il tema del “Ruolo dei
servizi di certificazione, prova e taratura nella diagnosi energetica degli edifici”. Le conoscenze degli Organismi di
valutazione della conformità (CAB)
sono a disposizione del mercato per
produrre misure, prove e certificazioni
utili nella Diagnosi Energetica degli edifici. ACCREDIA accredita CAB che rilasciano certificazioni di SISTEMI DI
GESTIONE DELL’ENERGIA in conformità a UNI CEI EN ISO 50001:2011
“Sistemi di gestione dell’energia –
Requisiti e linee guida per l’uso“. Ad
oggi ACCREDIA ha rilasciato accreditamenti di Organismi di certificazione di
prodotto e Organismi di ispezione per
attività inerenti la filiera delle costruzioni, nonché un accreditamento specifico
che riguarda la certificazione del personale (ISO 17024) del “Tecnico Certificatore Energetico”, quindi rivolta ai tecnici che effettuano la valutazione energetica degli edifici. Non sono invece
pervenute domande di accreditamento
per Organismi di certificazione di prodotto e/o ispezione che operino a fronte di specifici “requisiti energetici”.
Un’ulteriore attività connessa è il protocollo ITACA-ACCREDIA, che nasce allo
scopo di promuovere la certificazione
della sostenibilità energetica e ambientale degli edifici, al fine di sperimentare
forme e modalità di definizione e gestione di un sistema di certificazione unitario e coordinato. Molto importante è,
infine, l’ambito relativo ai prodotti che
vengono impiegati nell’edilizia, ad
esempio quello per la coibentazione
(pannelli, serramenti, ecc.) e quello relativo all’impiantistica (sistemi di riscaldamento e condizionamento).
Il prof. Vincenzo Corrado (Politecnico
di Torino) ha illustrato i “Fattori d’incertezza nella certificazione energetica”.
Nell’intervento si è analizzata l’influenza
della qualità dei dati di input nella certificazione energetica attraverso un
approccio probabilistico. Facendo riferimento alla normativa europea UNI EN
15603 si è sottolineato che il risultato di
una valutazione energetica non può mai
rappresentare i consumi di energia dell’edificio in modo esatto, bensì una stima
che presenta un errore dipendente dall’incertezza dei dati di input (i.e. le caratteristiche del sistema fabbricato - impianti, le condizioni climatiche e le modalità
di utilizzo dell’edificio).
In altre parole, intorno al valore di
consumo calcolato è possibile definire
un intervallo di confidenza, che rappresenta l’intervallo entro il quale e
con una data probabilità (es. 95% o
99%) si trova il valore reale di consumo. Particolare enfasi è stata data a
una ricerca, effettuata presso il Politecnico di Torino, che valuta attraverso il
metodo Montecarlo la stima delle performance energetiche in un appartamento-tipo di Torino, nelle condizioni
standard e di esercizio, al variare dei
diversi fattori di influenza (temperatura
interna, orientamento delle superfici,
portata d’aria per infiltrazioni e per
ventilazione artificiale, tempo di utilizzo, consumi elettrici, numero di occupanti, area, volume, perimetro, lunghezze, spessori, trasmittanza termica, trasmittanza termica lineare, coefficiente di assorbimento, remissività,
fattore telaio, fattore di ombreggia-
mento, capacità termica della struttura, rendimenti impiantistici).
Il dott. Nicola Massaro (ANCE) ha
approfondito le “Esigenze delle imprese edili in ottica di garanzia delle performance energetiche degli edifici e
miglioramento dei protocolli operativi”.
La memoria ha presentato il punto di
vista dei costruttori in merito alle ricadute tecniche ed economiche della certificazione energetica sul mercato delle
nuove costruzioni e delle ristrutturazioni
residenziali. In particolare è stata sottolineata una marcata differenza tra
costruzioni nuove ed esistenti: nelle
prime, infatti, i nuovi vincoli energetici
legislativi hanno prodotto un risultato
sicuramente efficace dal punto di vista
tecnico (in cui si segnala addirittura un
fenomeno di saturazione verso edifici in
classe A o B), ma meno dal punto di
vista economico (in cui la performance
energetica viene quasi pretesa dall’utenza); nell’esistente, invece, la contingenza di operare quasi sempre su edifici di proprietà multipla, unitamente ai
numerosi vincoli architettonici e impiantistici, rende poco praticabile il retrofit
energetico non solo per le difficoltà tecniche, ma anche e soprattutto per ragioni economiche.
Nell’intervento inoltre viene rappresentata l’esigenza di condividere i
protocolli operativi evitando l’introduzione di strumenti “balzello” che
deprimono il mercato invece di contribuire al suo miglioramento e sviluppo.
La Dott.ssa Anna Moreno (ENEA
UTT-LEARN) ha illustrato il tema “Fonti
rinnovabili di energia, efficienza energetica e certificazione delle professionalità: un trinomio imprescindibile”.
Nell’intervento sono state presentate le
direttive europee, di nuova stesura, che
prevedono la certificazione delle figure
professionali che intervengono nell’installazione o nei miglioramenti energetici degli edifici. Da queste direttive si è
passati alla presentazione dei progetti
europei che prevedono la messa a
punto di un sistema di qualifica che sia
T_M ƒ 105
N. 02ƒ
; 2012
▲
GLI
ALTRI TEMI
accettato in tutta Europa, elevando il livello di conoscenza
attuale e gettando le basi per la libera circolazione dei professionisti in Europa.
L’obiettivo è quello di:
• analizzare l’attuale situazione riguardante l’accertamento delle performance energetiche del patrimonio
edile esistente (in gran parte costruito parecchi decenni
fa): questo accertamento ricorre ancora in modo insufficiente a sistemi di misura e di diagnosi affidabili e riferibili e, pertanto, non sempre garantisce il rispetto dei
parametri definiti dalle apposite normative;
• promuovere e diffondere la cultura della misura, della
diagnosi e dell’efficientamento energetico presso il
mondo degli “addetti ai lavori”, delle imprese edili e
degli impiantisti, ma anche presso quello delle aziende e
degli utenti;
• analizzare i problemi connessi alla riferibilità metrologica in campo energetico edilizio e promuovere efficaci
servizi metrologici e di certificazione e prova;
• stimolare indagini di settore per la riduzione dei costi
della diagnosi energetica, certificazione e gestione dei
sistemi energetici;
• promuovere un confronto tra i costruttori di strumenti, ricercatori e certificatori per stimolare la soluzione e il superamento delle criticità del mercato, ovvero cercare di definire
protocolli operativi che partendo da dati certi garantiscano
uno sviluppo al settore consono alle ricadute che certificazione e diagnosi possono avere sul valore del patrimonio
edilizio.
L’ing. Michele Fazzini (Ordine degli Ingegneri di Torino)
ha portato “Il parere degli “addetti ai lavori”, esprimendo
una posizione fortemente critica in merito alla divisione del
compito del “certificatore energetico”, quando concepito
separato da quello di “esperto in energetica”. La complessità della problematica energetica non consente di acquisire le competenze necessarie a una certificazione tramite
corsi di 40-80 ore. Non è inoltre corretto certificare e proporre soluzioni correttive quando non si possiedono competenze caratteristiche di progettazione di elevate professionalità. Una posizione altrettanto critica è stata manifestata in merito sia alla complessità della normativa energetica, sia alla presenza di vincoli legislativi prescrittivi. Un
approccio più corretto dovrebbe infatti essere rivolto alla
definizione di vincoli prestazionali e non prescrittivi.
Il dibattito finale ha visto l’intervento degli addetti ai
lavori, i quali hanno sottolineato l’utilità di questi momenti
di incontro, sia per “tarare” la normativa e la legislazione
sulle reali esigenze del mondo produttivo, sia per prevenire
fenomeni di devianza che depauperano il valore del certificato energetico riducendolo a un mero strumento burocratico fine a se stesso. In particolare, si è ribadita la necessità che la certificazione energetica sia valorizzata dalle
strutture di accreditamento che possono garantire la qualità
del servizio in termini di: terzietà e qualificazione del personale; riferibilità della strumentazione di prova e misura
impiegata; validazione delle metodologie di certificazione
e diagnosi energetica.
GLI
ALTRI TEMI
▲
MISURE MECCANICHE
Michele Norgia, Cesare Svelto
Misuratore di prossimità
per la sicurezza attiva di motoseghe e attrezzi da taglio
A PROXIMITY METER FOR ACTIVE SAFETY OF CHAIN SAWS
AND CUTTING TOOLS
We developed a proximity measurement system that stops the chain of a
chain saw in case of danger. The sensor measures the electrical capacitance between the handle and the blade. If the blade of the saw gets too
close to the operator, the capacitance increases and when it exceeds a predefined threshold value (self-regulating depending on the usage conditions)
it sets the intervention of a mechanical brake acting on the chain saw.
RIASSUNTO
È stato sviluppato un sistema di misura di prossimità che blocca la catena
di una motosega in caso di pericolo. Il sensore misura la capacità elettrica
tra l’impugnatura e la lama. Se la lama della motosega si avvicina eccessivamente all’operatore, la capacità elettrica aumenta e, quando supera un
valore di soglia predefinito (autoregolante a seconda delle condizioni di
lavoro), il sistema determina l’intervento di un freno meccanico sulla catena
della motosega.
L’ESIGENZA DI SICUREZZA
In svariati ambiti lavorativi vengono
impiegati attrezzi taglienti imbracciati
da operatori al fine di effettuare le
operazioni richieste (come ad esempio motoseghe, lame rotanti, flessibili,
ecc.). L’impiego di questa tipologia di
strumenti comporta spesso un notevole rischio per l’operatore stesso. Infatti chi si trova a lavorare con tali attrezzi o macchinari dovrebbe indossare
indumenti protettivi corredati di zone
anti-taglio o imbottiture nei punti maggiormente esposti al rischio di subire
traumi o ferite. Va però osservato che
queste protezioni operano in modo
completamente passivo, cioè possono
solo limitare i danni fisici dell’eventuale contatto, ma non sono in grado
di offrire un adeguato controllo della
situazione di rischio. In altre parole,
gli indumenti e le protezioni sui macchinari non sono in grado di annullare o rendere innocua la reale fonte di
rischio degli infortuni, ma si limitano
ad attenuare i danni derivanti dal contatto della lama con l’operatore. Inoltre gli indumenti di protezione spesso
non vengono indossati a causa del
fastidio che possono creare, o anche
solo per noncuranza. Il problema è
molto sentito anche in ambito lavorativo: infatti, solo nel triennio 20052007 sono stati oltre 83.000 gli infortuni indennizzati da INAIL in Italia per
incidenti nell’uso di motoseghe e altre
attrezzature da taglio.
Allo scopo di corredare di una sicurezza attiva i sistemi di taglio, presso
il Dipartimento di Elettronica e Informazione del Politecnico di Milano è
stato sviluppato un sistema di misura
in grado di attivare un freno meccanico in caso di pericolo. L’indicazione
di pericolo si ha in caso di eccessiva
prossimità della lama al corpo dell’operatore, misurata attraverso un sensore capacitivo [1]. Il sistema di messa in sicurezza è stato applicato a diversi modelli di motoseghe ed elettroseghe, ottenendo in maniera sistematica il blocco della catena quando la
lama arriva a pochi centimetri di distanza dal corpo dell’operatore. Il
buon funzionamento dei primi prototipi ha portato alla nascita di Redcap
Technology, una start-up ospitata pres-
T_M
so l’Acceleratore d’Impresa del Politecnico di Milano, che si occupa dell’evoluzione del sistema e della sua
commercializzazione (il dispositivo
realizzato, chiamato Angel Inside, è
stato brevettato con brevetto internazionale [2]). L’interesse sul sistema di
sicurezza ha coinvolto anche INAIL e
Fondazione Politecnico di Milano
(uniti da un programma comune per
promuovere iniziative di prevenzione
degli infortuni sul lavoro, nonché da
percorsi di ricerca per lo sviluppo e
l’impiego di nuove tecnologie), che
hanno deciso di sostenere il progetto
Redcap finalizzato alla validazione
sul campo del sistema Angel Inside.
SISTEMA ELETTRONICO
DI MISURA DI PROSSIMITÀ
La tecnica elettromagnetica utilizzata
per rivelare la prossimità della lama
alla persona che impugna l’attrezzo
consiste nel misurare una variazione
di capacità elettrica. Il sistema di misura di capacità è interamente montato all’interno dell’attrezzo, con due
contatti: uno sulla lama e uno sull’impugnatura. La capacità misurata è
quindi tra questi due contatti, come
descritto in Fig. 1.
Per realizzare la protezione attiva, il
corpo del lavoratore deve essere posto in connessione elettrica con il contatto presente sull’impugnatura, come
normalmente avviene tenendo l’attrezzo in mano. In questo modo la capacità C misurata dal sistema coincide
con la capacità tra il corpo dell’operatore e la lama (Fig. 2).
Politecnico di Milano,
Dip. Elettronica e Informazione
[email protected]
N.
2/12 ƒ 107
N. 02ƒ
; 2012
▲
GLI
ALTRI TEMI
Figura 1 – Capacità equivalente misurata
dal sistema
Figura 2 – Schema del principio
di funzionamento
La connessione elettrica tra operatore
e contatto sull’impugnatura si può ottenere in vari modi. Si è scelto di realizzare una connessione diretta attra-
verso una piastra metallica posta sull’impugnatura della motosega, che
tocca direttamente la mano dell’operatore. La connessione elettrica tra l’o-
T_M ƒ 108
peratore e il contatto del sistema elettronico di misura può anche essere di
tipo capacitivo: in questo modo il funzionamento del sistema non è compromesso dall’impiego di un guanto.
Per mantenere le corrette distanze
d’intervento è però importante che
l’impedenza (capacitiva o resistiva
che sia) tra l’operatore e il contatto
sull’impugnatura sia inferiore all’impedenza capacitiva tra operatore e
lama, calcolata alla distanza di scatto
desiderata (altrimenti il sistema perde
di sensibilità e quindi di affidabilità).
Dopo alcune prove di laboratorio [2],
per il funzionamento del sistema si è
scelto di non misurare valori assoluti
di capacità, che dipendono notevolmente dall’ambiente d’impiego, dalle
dimensioni dell’operatore e anche
dalla modalità d’impugnatura dell’attrezzo. Si è preferito fornire un segnale di allarme in caso di aumento improvviso di capacità rispetto ad un
N. 02ƒ
;2012
Figura 3 – Esempio di variazione della capacità
misurata con la distanza lama-corpo dell’operatore
Il circuito elettronico che misura la
capacità può essere realizzato con
diversi metodi. Il sistema che si è rivelato più adatto alla particolare applicazione impiega un circuito integrato
per sistemi touch-sensors. Tale circuito
misura la capacità iniziale alla sua
accensione e attiva un segnale di uscita digitale nel momento in cui tale
capacità aumenta di una quantità prefissata, chiamata “sensibilità” in Fig. 3.
In un contesto reale di operatore che
impugna una motosega, la capacità
iniziale misurata è dell’ordine di alcuni pF, mentre la sensibilità vale frazioni di pF.
Nella specifica applicazione, all’accensione dell’utensile o del sistema di
protezione si utilizza la capacità iniziale, e questa è a sua volta utilizzata
come riferimento per calcolare la
soglia di scatto. Nel caso di motoseghe a scoppio, l’accensione del sistema è comandata da un interruttore
posto sotto la leva di sicurezza (quella posta sulla parte superiore dell’impugnatura, che abilita l’acceleratore).
Il segnale di allarme è generato
quando la capacità aumenta di un
valore prefissato rispetto all’accensione. La Fig. 3 mostra come la caratteristica iperbolica della capacità renda
intrinsecamente sicuro il sistema,
anche quando questo viene acceso
con la lama già in prossimità dell’operatore: con valori ragionevoli si
mostra come un’accensione del sistema a 30 cm di distanza comporti lo
scatto a 15 cm, mentre un’accensione
a 7 cm porta lo scatto a 5 cm. In ogni
caso, all’approssimarsi della lama al
corpo dell’operatore il valore di
capacità diverge, portando allo scatto immediato il sistema di allarme.
Il segnale di allarme generato viene
infine utilizzato per comandare lo
stop dell’utensile, attraverso l’attivazione di un freno meccanico. Il tempo
di risposta del sistema elettronico è di
pochi millisecondi, praticamente istantaneo per l’operatore. L’integrato che
gestisce il sistema di messa in sicurezza è montato su una scheda elettronica d’ingombro minimo, facilmente
inseribile all’interno della motosega
stessa. L’alimentazione del circuito è
presa direttamente dalla motosega,
tramite circuiti che prelevano la potenza necessaria dalla bobina; nel caso
di elettrosega, invece, l’alimentazione
è fornita dalla rete elettrica.
▲
valore iniziale misurato all’accensione: l’intervento si ha quando la variazione della capacità supera un valore
di soglia prefissato. Infatti, in caso di
avvicinamento della lama al corpo, la
capacità cresce con un andamento
all’incirca iperbolico con la distanza.
Un tipico andamento teorico della
capacità in funzione della distanza
della lama dal corpo è riportato in
Fig. 3.
GLI
ALTRI TEMI
che per il freno meccanico è stato
depositato un brevetto ancora in fase
di verifica). Nella motosega elettrica il
freno meccanico agisce anche su un
interruttore che toglie l’alimentazione
al motore. L’intero sistema meccanico
ha dimostrato un tempo di scatto
molto breve: il tempo d’intervento
meccanico, misurato tra l’impulso di
abilitazione e lo scatto dell’interruttore
di spegnimento (posto a fine corsa del
freno), è di circa 25 ms. In Fig. 4 è
mostrata la foto di un prototipo di
motosega con circuito frenante realizzato in collaborazione con la ditta
ACTIVE srl.
Figura 4 – Motosega prototipale della ACTIVE srl
con freno meccanico. Il contatto elettrico verrà
sostituito dalla leva di sicurezza superiore realizzata
direttamente in metallo
PROTOTIPI REALIZZATI
CONCLUSIONI E PROSSIME
PROVE SUL CAMPO
Il sistema di messa in sicurezza è stato
inizialmente montato su una elettrosega, comandando con un relé la sua
alimentazione elettrica. All’approssimarsi della lama all’operatore, si otteneva lo spegnimento del motore elettrico, ma la catena continuava ad
avere una sua inerzia. Numerose prove hanno confermato l’affidabilità del
sistema e spinto a progettare un sistema di freno meccanico comandato
elettricamente, che si appoggia al
freno già esistente sulle motoseghe
(freno anti-kick back). Attraverso un
magnete permanente viene mantenuto
un fermo su una molla di attivazione
che trattiene la cinghia di frenata.
Inviando un impulso a 24 V al magnete, si sblocca il fermo e viene tirata la
cinghia sulla campana solidale all’ingranaggio che muove la catena (an-
Il dispositivo di messa in sicurezza
proposto si basa sulla misura di una
variazione di capacità elettrica tra la
lama della motosega e il corpo dell’operatore, attraverso un touch-sensor
montato all’interno della motosega e
due contatti elettrici verso l’esterno,
quello sulla lama e quello sull’impugnatura. Il sistema (chiamato Angel
Inside) si attiva quando l’operatore è
in connessione elettrica con il contatto
posizionato sull’impugnatura della
motosega: in questo caso la capacità
elettrica tra i due contatti coincide con
la capacità tra il corpo dell’operatore
e la lama (l’impedenza del corpo è
trascurabile). Se la lama della motosega si avvicina eccessivamente all’operatore la capacità elettrica aumenta, e quando la sua variazione rispetto a un valore iniziale che dipende
T_M ƒ 109
▼
NUOVO REGISTRATORE
MULTIFUNZIONALE COMPATTO
RM1100 è il
nuovissimo acquisitore / registratore dati portatile di NECAvio, distribuito
in Italia da Instrumentation
Devices Srl. Robusto, compatto, leggero, versatile; secondo
la versione scelta supporta 4 o
8 ingressi per segnali discreti, impulsivi e in frequenza e 4 o 8 ingressi isolati per tensioni, correnti, temperature. Mediante appositi adattatori è possibile collegare diversi tipi di trasduttori, quali ad esempio
accelerometri, estensimetri e in generale sensori a
ponte di misura. È particolarmente adatto per impieghi portatili e mobili (ad esempio, per test in ambito
automobilistico) ma trova efficace applicazione in
svariati settori dell’industria: sperimentazione elettrica
e meccanica, collaudo, manutenzione, ecc.
Include un display ad alta risoluzione per la visualizzazione grafica in tempo reale dei segnali di misura,
offre campionamento programmabile fino a 1 MS/s
per canale e può essere alimentato tra 8,5 e 24 VDC
oppure provvisto di batterie ricaricabili incorporate.
Piccolo (28 x 15 x 9 cm3) e leggero (≈1,5 kg), resiste
a urti, cadute e vibrazioni continue secondo le specifiche MIL-STD-810G 514.5C-1, può operare nel
range di temperatura -20 ÷ +60 °C e in ambienti
umidi e polverosi.
È possibile scegliere tra diverse modalità di acquisizione:
–“Memory mode”, per la registrazione di segnali ad
alta frequenza;
– “Filing mode”, per la memorizzazione dei dati su
memoria SD, anche per lunghi periodi di tempo;
– “Real-time mode” per la stampa grafica diretta su
carta continua, sia in forma “Yt”, secondo vari modi
di rappresentazione, sia in “XY”.
Il software Unifizer e il collegamento a PC tramite
Ethernet consentono il setup della configurazione,
la registrazione dati su PC e la post analisi (operazioni aritmetiche, calcolo e funzioni trigonometriche, FFT ...).
Per ulteriori informazioni:
www.instrumentation.it
T_M ƒ 110
N. 02ƒ
; 2012
NEWS
▲
GLI
ALTRI TEMI
dalle condizioni di lavoro supera un valore di soglia predefinito, il circuito elettronico determina l’intervento di un freno
meccanico che blocca la catena della motosega. L’arresto è
sostanzialmente istantaneo: il tempo complessivo di risposta
meccanica del sistema è infatti inferiore a 30 ms. Numerose
prove hanno dimostrato la buona affidabilità del sistema,
che consente all’operatore di lavorare senza ingombri aggiuntivi e garantendo comunque il normale funzionamento
dell’attrezzo da taglio.
A fine luglio 2011 vi è stato il lancio dell’iniziativa di promozione di questa tecnologia, con la presentazione organizzata da INAIL presso la sua sede lombarda dei primi prototipi di motoseghe portatili equipaggiate con il dispositivo. Le
motoseghe prototipali sono state realizzate in collaborazione con due costruttori italiani del settore (EMAK SpA e ACTIVE srl). Attualmente è in fase di sviluppo una pre-serie di
attrezzi da taglio che, una volta superati i test di laboratorio, verranno provati sul campo. In primavera 2012 è infatti prevista la sperimentazione a cura del Corpo dei Vigili del
Fuoco, per testare il buon funzionamento del sistema anche
nelle condizioni operative più difficili.
Numerosi sono i potenziali impieghi di questa nuova tecnologia, sviluppata più in generale per aumentare il livello
di sicurezza di attrezzature di lavoro anche in altri settori
produttivi, quali l’edilizia, l’agroforestale e il metalmeccanico. Ciò avrà notevole impatto su diversi settori del mercato e ricadute pratiche (ingegneristiche, commerciali, di
sicurezza e miglioramento della qualità della vita) piuttosto
rilevanti.
RIFERIMENTI BIBLIOGRAFICI
[1] J. Fraden, “Handbook of Modern Sensors” Sec. Ed.,
Springer-Verlag, New York, 2001.
[2] M. Norgia, C. Svelto, G.A. Rossi, P. Cappellari, “Device for
protection from accidents”, brevetto n. WO2007060698,
international Application n. PCT/IT2005/000694.
[3] M. Norgia, C. Svelto, “Capacitive proximity sensor for
chainsaw safety”, pp. 433-436 in Sensor and Microsystems,
Series: Lecture Notes in Electrical Engineering (LNEE), Springer, 2009 Vol. 54.
Michele Norgia è Ricercatore in Misure Elettriche ed Elettroniche presso il Dipartimento di Elettronica e Informazione del Politecnico di Milano.
I suoi principali filoni di ricerca riguardano le
misure ottiche, la sensoristica e la strumentazione
elettronica di misura.
Cesare Svelto è Professore Ordinario di Misure Elettriche ed Elettroniche presso il Dipartimento di Elettronica e Informazione del Politecnico di
Milano. I suoi principali filoni di ricerca riguardano le misure ottiche e optoelettroniche, nuovi
sensori e strumenti di misura.
GLI
ALTRI TEMI
▲
MISURE PER L’ILLUMINAZIONE
Pietro Fiorentin, Alessandro Scroccaro
Misure d’illuminamento
con Multiluminanzometro
Un errore? Una complicazione? ... O una possibile soluzione?
poter quantificare in modo preciso i
contributi delle diverse sorgenti.
Ogni misura d’illuminamento, effettuata con diverso orientamento del luxmetro, è influenzata dalla luce che
proviene da ogni direzione. Per selezionare i raggi luminosi associati a
direzioni prossime a quella ortogonale alla superficie sensibile, è possibile
porre a un’opportuna distanza davanRIASSUNTO
ti al luxmetro uno schermo con un’aLa misura dell’illuminamento definisce la quantità totale di luce che ragpertura come rappresentato in Fig. 1:
giunge una superficie, ma non permette di distinguere le direzioni dalle
questo blocca la maggior parte dei
quali la luce proviene. D’altra parte, questa informazione è importante per
raggi luminosi diretti verso il luxmetro,
qualificare un sistema d’illuminazione o progettare sue modifiche e migliolasciando passare solo quelli prossimi
ramenti. L’uso di un multi-luminanzometro permette di risolvere il problema
alla direzione selezionata. Con quemettendo in evidenza i contributi all’illuminamento prodotti da ogni sorsta apertura (diaframma), per ogni
gente, primaria o secondaria, presenti nella scena.
punto delle sorgenti luminose (primarie o secondarie, di dimensioni trascurabili o estese) si identifica un anMISURE D’ILLUMINAMENTO E
mente presenti nell’ambiente analiz- golo solido e i raggi luminosi presi in
DIREZIONALITÀ DELLA LUCE
zato. Ad esempio, può essere impor- considerazione sono solo quelli che si
tante separare gli effetti dovuti da una trovano al suo interno.
Lo strumento dedicato alla misurazione sorgente di luce primadell’illuminamento, il luxmetro, quando ria rispetto a quelli proriceve la luce non permette di discrimi- dotti da riflessioni semnarne la direzione: esso deve quantifi- plici o multiple su supercare la luce ricevuta per unità di area fici presenti nell’ambienche giunge complessivamente su un te, come il pavimento, le
punto di una superficie. Quando la sua pareti, ecc. Un caso inrisposta spaziale è corretta (anche per teressante si ha quando
mezzo di un’ottica posta di fronte all’e- è richiesta la qualificalemento sensibile) esso tiene in conto la zione dell’illuminazione,
direzione dei raggi pesando i diversi sia negli ambienti interni
contributi con il coseno dell’angolo che esterni, con la valud’incidenza rispetto alla normale, in tazione dell’abbagliaaccordo con la definizione d’illumina- mento.
mento. Quindi, raggi più radenti alla Ruotare la superficie
superficie distribuiscono la potenza su ricevente del luxmetro
un’area maggiore di quella interessata può permettere di avere
da raggi ortogonali nello stesso punto. indicazioni di massima
Un luxmetro fornisce un valore d’illumi- sui contributi delle diverFigura 1 – Misura dell’illuminamento
namento che è prodotto da tutta la luce se sorgenti. Raggi più
con selezione della direzione
che giunge nel punto considerato, som- radenti, provenienti da
mando tutti i contributi provenienti sorgenti laterali, sono
dalle diverse direzioni.
meno importanti nel definire il valore
È frequente la necessità di distinguere dell’illuminamento, ma è evidente che Università di Padova,
i contributi dovuti a diverse sorgenti il lobo di sensibilità di un luxmetro Dip. Ingegneria Industriale
che possono essere contemporanea- non è sufficientemente marcato da [email protected]
ILLUMINANCE MEASUREMENTS FROM A MULTI-LUMINANCE
METER
Illuminance measurement provides information about the total amount of
light reaching a surface, but it provides no detail on the position of the light
sources. On the other hand, identifying the contribution of each source to
the scene allows to qualify and to improve a lighting system. These data can
be obtained by using a multi-luminance meter, which can deal with small
framed portions separately.
T_M
N.
2/12 ƒ 111
L’ampiezza dell’angolo solido ∆ΩS è
definita dall’area del diaframma e
dalla sua distanza dalla sorgente, ovvero, se si vuole che il flusso luminoso
coinvolga tutta l’area del sensore, da
quest’ultima ∆AD e dalla distanza r
che separa la sorgente “puntata” e il
luxmetro. L’operazione che così si esegue riproduce quella utilizzata per la
valutazione dell’intensità luminosa (I)
secondo l’espressione:
I=
dΦ
∆Φ
∆Φ 2
≈
=
⋅r = E ⋅r2
dΩS
∆ΩS
∆AD
dove ∆Φ è il flusso luminoso associato
ai raggi luminosi nell’angolo solido
∆ΩS ed E è l’illuminamento misurato,
anche se ora non è nota la distanza r.
Per conoscere poi l’illuminamento prodotto dalla singola sorgente considerata nelle effettive condizioni si deve
T_M ƒ 112
N. 02ƒ
; 2012
▲
GLI
ALTRI TEMI
moltiplicare la misura d’illuminamento
ottenuta per il coseno dell’angolo di
rotazione della superficie ricevente
del luxmetro.
ILLUMINAMENTO E LUMINANZA:
DUE GRANDEZZE
TRA LORO LEGATE
Quando si presenta nella scena un numero elevato di sorgenti luminose, valutare tutti i contributi all’illuminamento può
diventare troppo dispendioso in termini
di tempo se si usa il metodo sopra descritto (peraltro di non facile applicazione al di fuori di un laboratorio). Può
quindi diventare interessante pensare
all’utilizzo di un altro tipo di strumentazione. In particolare, lo strumento denominato “luminanzometro” seleziona i
raggi luminosi emessi da una sorgente e
racchiusi all’interno di un ben definito
angolo solido. Esso è quindi un ottimo
mezzo per analizzare la direzionalità
della luce, anche se considera la luce
emessa dalla sorgente e non quella ricevuta dalla superficie di nostro interesse,
come invece ci servirebbe.
Facendo riferimento alla Fig. 2, vale
la pena ricordare la definizione di
luminanza, come rapporto tra l’intensità luminosa emessa da una porzione
elementare di superficie in una direzione di osservazione e l’area apparente della porzione di superficie emittente, dalla stessa direzione di osservazione. Ricordando il legame tra
intensità luminosa e illuminamento già
visto, e considerando quantità piccole
ma non infinitesime, si può scrivere
che il contributo elementare ∆ED all’illuminamento, ortogonale alla direzione d’illuminazione, nel punto in cui è
posto il rivelatore, legato a tale intensità luminosa è:
N. 02ƒ
;2012
∆I
∆I ∆AS
=
= LS ⋅ ∆ΩD
r2
∆AS r 2
dove ∆ΩD è l’angolo solido sotteso
dall’areola sulla sorgente, con vertice
sul rivelatore posto a una distanza r.
È dunque possibile ottenere il contributo all’illuminamento di una porzione di sorgente conoscendo la sua
luminanza e l’angolo solido sotteso
da quella superficie, con vertice sull’osservatore.
Figura 2 – Schizzo della geometria
nelle definizioni di luminanza
e illuminamento
Sempre prendendo in considerazione
il caso più semplice, quando l’osservatore considera il raggio luminoso
uscente ortogonalmente dalla superficie emittente, come illustrato in Fig. 2,
e mettendo in evidenza il flusso luminoso in gioco, si può scrivere la
seguente relazione:
LS =
∆2Φ
∆2Φr 2
∆2Φ
=
=
∆ΩS ∆AS
∆AD ∆AS
∆ΩD ∆AD
considerando un angolo solido ∆ΩS
piccolo ma non infinitesimo, sotteso
dalla superficie del misuratore di area
∆AD, posto a una distanza r, e una
porzione di superficie emittente di
area ∆AS. ∆2Φ è il flusso luminoso
emesso dalla porzione della superficie emittente analizzata, ma è anche
il flusso luminoso ricevuto dal rivelatore di area ∆AD; pertanto, il rapporto
tra tale flusso e quest’area è pari al
contributo elementare ∆ED all’illuminamento nel punto in cui è posto il rivelatore, fornito dal flusso emesso dalla
porzione di superficie della sorgente:
∆E D =
∆2Φ
= LS ∆ΩD
∆AD
ritrovando così quanto già visto.
Se non si considera l’illuminamento
orientando la superficie del rivelatore in modo ortogonale al raggio
luminoso, il flusso luminoso sarà distribuito su una superficie maggiore
seguendo la legge del coseno dell’angolo di rotazione.
Identificando il valore di luminanza di
ogni sorgente emittente, e conoscendo l’estensione di ogni sorgente, è
possibile identificare il contributo
all’illuminamento che essa fornisce nel
punto in cui è posto l’osservatore. Si
fa notare che non è necessario conoscere le dimensioni fisiche della sorgente, ma solamente la sua estensione come angolo solido, o, in termini
più intuitivi, come angolo di vista.
L’angolo di vista esprime inoltre anche
il fatto che conta l’estensione apparente della sorgente: se la superficie è
vista secondo una direzione radente
la sua estensione sarà ridotta.
L’angolo di vista, o di campo, coperto da un oggetto nell’inquadratura di
una scena può essere facilmente
ricavato dalle proprietà del sistema
ottico utilizzato nell’osservazione (il
nostro occhio o l’obiettivo di una
macchina fotografica o telecamera).
Inoltre sia la retina del nostro occhio,
sia il sensore (pellicola, sensore
CCD, ecc.) di una telecamera o fotocamera sono sensibili
alla luminanza degli
oggetti inquadrati. Se
poi l’uscita del sensore è
tarata direttamente in
termini di luminanza, il
rivelatore diventa un
multi-luminanzometro:
ogni pixel del sensore è
associato a una estensione angolare e a una
luminanza di una piccola porzione della scena
inquadrata. Da queste
▲
∆E D =
GLI
ALTRI TEMI
due informazioni è possibile ricavare, tenendo conto anche della direzione dei raggi luminosi, quanto sia
il contributo dell’illuminamento prodotto da ogni oggetto davanti all’osservatore, eventualmente selezionando i termini di nostro interesse e eliminando quelli forniti da sorgenti di
disturbo.
UN POSSIBILE ESEMPIO
DI APPLICAZIONE
La Fig. 3 mostra un’immagine acquisita da un multi-luminanzometro in una
galleria stradale. Da essa è possibile
conoscere i valori di luminanza sul
manto stradale per una qualificazione
illuminotecnica dell’efficacia dell’impianto d’illuminazione sia come valore medio che come loro variabilità
longitudinale e trasversale.
La stessa immagine inquadra anche
gli apparecchi utilizzati per l’illuminazione; i loro valori di luminanza
possono essere selezionati e utilizzati per valutare il parametro “incremento di soglia” (TI) che fornisce
un’indicazione quantitativa sull’abbagliamento introdotto dallo stesso
impianto d’illuminazione. Tale parametro è determinabile dalla luminanza media della superficie stradale
(Lave), luminanza di sfondo per l’osservatore-guidatore, e dalla luminanza di velo equivalente (Lv), secondo
la seguente equazione:
TI =
65
⋅ Lv
Lave
%
La luminanza di velo equivalente de-
Figura 3 – Immagine di luminanza (cd m-2)
in uscita a un multi-luminanzometro
N. 02ƒ
; 2012
▲
scrive quantitativamente l’effetto di
velatura dell’immagine percepita
che, in modo più o meno importante, riduce la visibilità degli oggetti
quando nel campo dell’osservatore
sono presenti oggetti particolarmente brillanti (con luminanza elevata),
quali potrebbero essere, ad esempio, le lampade o gli apparecchi
dell’illuminazione stradale, così come un’insegna pubblicitaria luminosa, o un faro di un’illuminazione privata posta a lato della strada. L’abbagliamento dipende dalla quantità
di luce che tali sorgenti inviano
verso l’occhio, quantificabile con l’illuminamento in tale posizione, e
dalla direzione dalla quale la luce
proviene. Infatti sorgenti luminose
poste frontalmente all’osservatore
producono maggiore disturbo di sorgenti poste lateralmente. Si comprende quindi come la luminanza di
velo equivalente possa avere la
seguente espressione:
CONCLUSIONI
Valutare l’illuminamento attraverso
misure di luminanza realizzate con un
multi-luminanzometro permette di evidenziare i contributi delle diverse sorgenti luminose, primarie o secondarie, presenti nella scena, identificando
la loro reciproca importanza e azione, sia nel fornire l’illuminazione
necessaria ed efficace per la corretta
visione, sia nel generare eventuali disturbi nello svolgimento del compito
visivo.
Ove necessario, cioè se si dovessero
presentare disturbi che compromettessero lo svolgimento del compito visivo
o ne rendessero difficile lo svolgimento, il corretto riconoscimento dei ruoli
delle varie sorgenti di luce, e quindi di
quelle eventualmente dannose, è il
necessario punto di partenza per un
efficace intervento.
RIFERIMENTI BIBLIOGRAFICI
n
Lv = 10 ∑
Ek
k=1 θ k
dove Ek è il contributo all’illuminamento su un piano ortogonale alla
linea di vista nella posizione dell’occhio del guidatore prodotto dalla
k-esima sorgente luminosa, θk l’angolo (in gradi) tra la linea di vista e
la linea congiungente l’occhio dell’osservatore e il centro della sorgente luminosa.
Nell’esempio presentato in Fig. 3 la
luminanza equivalente di velo può
essere ottenuta da un’elaborazione
dei valori di luminanza degli apparecchi, e tenendo in debito conto le
loro posizioni relative rispetto a quella dell’osservatore. I contributi all’illuminamento sull’occhio del guidatore
dovuti ad altre superfici emittenti luce
in modo diretto o indiretto possono in
questo modo essere eliminati nella
valutazione. In alternativa è possibile
determinare quale contributo all’incremento di soglia produca un’ulteriore
sorgente luminosa che dovesse apparire all’interno del campo visivo, non
facendo parte dell’impianto d’illuminazione.
T_M ƒ 114
C. De Cusatis, “Handbook of applied
photometry”, AIP Press, Woodbury,
NY, 1997.
European Standard, EN 13201-4,
Road lighting – Part 3: Calculation of
performance, 2003
CIE 117-1995 Discomfort glare in
interior lighting.
G. Smith, Measurement of luminance
and illuminance using photographic
(luminance) light meters, 1982, The
Australian Journal of Optometry, Volume 65, Issue 4, pagg. 144-146,
Luglio 1982.
Alessandro Scroccaro
è progettista e docente di
elettronica. Collabora
inoltre, in qualità di libero
professionista, con il Laboratorio di Fotometria e
Illuminotecnica del Dipartimento di Ingegneria Industriale dell’Università di Padova occupandosi di
misure elettriche ed elettroniche, misure
fotometriche, spettrometriche, radiometriche e colorimetriche su apparecchi e
sorgenti luminose.
Pietro Fiorentin è Professore Associato di Misure Elettriche ed Elettroniche presso l’Università di
Padova. Si occupa di misure elettroniche, misure
fotometriche, spettrometriche, radiometriche e colorimetriche su
sorgenti e superfici. È responsabile del
Laboratorio di Fotometria e Illuminotecnica dell’Università di Padova.
NEWS
▼
GLI
ALTRI TEMI
NUOVO BRACCIO
DI MISURA:
PRECISIONE +23%!
Hexagon Metrology ha
recentemente presentato
alla fiera Control di Stoccarda (8-11 maggio
2012) l’ultima versione
del suo noto braccio di
misura portatile ROMER
Absolute Arm, che offre
una precisione ancora più
elevata (fino al 23% in più
rispetto alla precedente
versione).
Con valori di ripetibilità a partire da
0,016 mm, si tratta del braccio di misura
portatile più preciso che Hexagon Metrology abbia mai prodotto. È disponibile in
sette lunghezze diverse, da 1,5 m a 4,5 m.
“Grazie ai miglioramenti progettuali, la
nuova rielaborazione consente soprattutto ai bracci più lunghi precisioni notevolmente maggiori rispetto al passato” afferma Pirmin Bitzi, Product Manager dei
Bracci di Misura Portatili.
Un’assoluta novità presente all’interno di
ROMER Absolute Arm è rappresentata da
SmartLock, meccanismo di bloccaggio
che ferma il braccio in posizione di riposo per una maggiore sicurezza e consente all’utente di bloccare il braccio stesso
in qualunque posizione intermedia per la
misura in spazi ristretti.
Hexagon Metrology sta anche per rilasciare una nuova variante specifica del
ROMER Absolute Arm per le applicazioni
di verifica di tubi piegati. Questi bracci
hanno un volume di misura da 2,5 o 3,0 m,
uno speciale ammortizzatore a gas e un
supporto per la misura dedicato per rendere più semplice possibile la misura dei
tubi.
Per ulteriori informazioni:
www.hexagonmetrology.com
GLI
ALTRI TEMI
▲
MISURE PER LA SALUTE DELL’UOMO
Luigi Rovati 1, Gian Franco Dalla Betta 2, Andrea Bosi 3, Francesco Cardellini 4
Un nuovo sensore attivo
per il monitoraggio del gas Radon
Rivelare la presenza di un nemico invisibile
A NEW ACTIVE SENSOR FOR RADON GAS MONITORING
This article describes a new electronic sensor capable of monitoring Radon
gas. This device is the result of a University technology transfer based on
the activation of a new spin-off company (RSens srl). Thanks to modern electronic technologies and a custom semiconductor detector, this measuring
instrument represents an important novelty in the world of environmental
monitoring.
RIASSUNTO
L’articolo descrive un nuovo un sensore elettronico per il monitoraggio del
gas Radon. Questo dispositivo commerciale è frutto di un’operazione di trasferimento tecnologico universitario basata sull’attivazione di uno spin-off
universitario (RSens srl). Grazie alla moderna tecnologia elettronica e a un
rivelatore a semiconduttore custom, questo strumento di misura rappresenta
un’importante novità nel mondo del monitoraggio ambientale.
Figura 1 – Il sensore RStone ha dimensioni
contenute (160x160x100 mm3), è facilmente
trasportabile e non richiede particolari
accorgimenti per l’installazione
LA MISURAZIONE DEL GAS RADON ne wireless (SimpliciTI™, Texas Instru- della camera di misura (sfruttando le
E LO STRUMENTO RSTONE
ments). Risulta quindi possibile, attraver- correnti convettive) e quindi favorire la
Il Radon (222Rn) è un gas particolarmente insidioso per la salute umana. Questo
gas è considerato il secondo fattore di
rischio per l’insorgenza del tumore al
polmone [1]. La pericolosità di questo
elemento risiede nel lungo tempo di
dimezzamento (3,82 giorni): infatti in
questo tempo, prima di decadere, il
Radon può percorrere lunghe distanze,
partendo dal sottosuolo fino ad arrivare
a contatto diretto con i tessuti dell’apparato respiratorio, dove le cellule dell’epitelio bronchiale rappresentano il bersaglio più critico per eventuali modificazioni cancerose. La prevenzione per questo
rischio ambientale può solo basarsi su un
attento e continuo monitoraggio della
concentrazione di Radon negli ambienti
domestici, lavorativi e di svago.
Recentemente RSens srl (www.rsens.it)
ha sviluppato un sensore elettronico
innovativo, basato su un rivelatore di
particelle alfa, in grado di monitorare in
modo continuo la concentrazione del
gas Radon. Tale dispositivo, visibile in
Fig. 1, può essere utilizzato sia in modalità stand-alone che in modalità remota,
sfruttando un protocollo di comunicazio-
so l’utilizzo di un personal computer e di
una chiavetta wireless appositamente
sviluppata, programmare in remoto il
sensore e scaricare le informazioni di
misura. I dati relativi alla concentrazione di gas Radon sono corredati da informazioni relative alla pressione, temperatura ed umidità registrate all’interno
della camera di misura. Il dispositivo di
misura, denominato commercialmente
RStone, è in grado di funzionare sia alimentato tramite una presa di corrente
che mediante le batterie ricaricabili
installate all’interno del dispositivo stesso. Le batterie sono in grado di consentire un funzionamento ininterrotto per
15-20 giorni.
diffusione del Radon. Grazie a questo
accorgimento strutturale, la concentrazione di Radon nella camera di misura
eguaglia quella dell’ambiente in tempi
rapidi senza dover ricorrere a dispositivi attivi di campionamento dell’aria
(pompe, ventole, ecc.) che graverebbero sui consumi e sugli ingombri.
Come mostrato in Fig. 2, la camera di
misura, contenente al suo interno il
rivelatore di particelle alfa, si sviluppa
lungo l’asse verticale del dispositivo
ed è dotata di un’apertura inferiore e
di una superiore. La raccolta elettrostatica dei prodotti di decadimento
del Radon è ottenuta applicando tra
le pareti della camera e il rivelatore
un’elevata differenza di potenziale.
IL SISTEMA DI MISURA
Il sistema di misura del Radon RStone è
costituito da un unico dispositivo di dimensioni contenute (160x160x100 mm3),
facilmente trasportabile, che non
richiede particolari accorgimenti per
l’installazione. La struttura interna del
sistema è stata progettata per massimizzare il ricircolo dell’aria all’interno
T_M
(1)
Università di Modena e Reggio Emilia, Dip. Ingegneria dell’Informazione
(2) Università di Trento, Dip. Ingegneria
e Scienze dell’Informazione
(3) Rsens srl, Modena
(4) Istituto Nazionale di Metrologia delle
Radiazioni Ionizzanti-ENEA
[email protected]
N.
2/12 ƒ 115
N. 02ƒ
; 2012
▲
NEWS
ERGONOMIA CON LO STEREO MICROSCOPIO LYNX
Chi lavora al microscopio, spesso
assume una postura forzata: questo
può provocare una serie di disturbi,
tra cui mal di schiena, mal di collo,
disturbi visivi, a volte dolori ai polsi. I
maggiori problemi si hanno con microscopi scarsamente o per nulla adattabili alle esigenze individuali, poveri
di ergonomia, che portano ad affaticare gli occhi e tutto il corpo, soprattutto quando l’operatore svolge un lavoro ripetitivo e su turni. Con un maggiore affaticamento, l’operatore lavora con meno attenzione e con minore
precisione.
I progettisti e i designer dello stereo microscopio Lynx di Vision
Engineering hanno fissato nuovi standard nella semplicità di utilizzo e nella produttività, attraverso il design ergonomico di altissimo
livello, basato su quattro punti principali:
– Ottica senza oculari. Permette di avere un’immagine stereo
chiara e ridurre lo sforzo degli occhi dell’operatore attraverso
una corretta visione;
T_M ƒ 116
– Tecnologia multi-lenticolare. Massimizza la libertà di movimento della testa, grazie al sistema brevettato di pupilla a uscita allargata del microscopio;
– Comandi a portata di mano, posizionati in modo che l’operatore possa comandare il microscopio con operazioni intuitive,
senza perdite di tempo e di attenzione;
– Le dimensioni e le proporzioni di Lynx sono state ideate in
modo che l’operatore possa stare in una posizione che riduce
l’affaticamento.
La tecnologia di visione senza oculari (Dynascope), brevettata
da Vision Engineering per offrire agli operatori una maggiore
ergonomia, elimina le restrizioni date dai tradizionali microscopi binoculari: gli operatori che necessitano di correzioni visive possono indossare liberamente gli occhiali da vista o le lenti
a contatto mentre stanno utilizzando il microscopio. Per migliorare l’ambiente di lavoro, inoltre, Lynx è equipaggiato da un’illuminazione a LED regolabile di intensità, che permette di bilanciare in modo chiaro e semplice la differenza tra l’intensità dell’immagine e le condizioni ambientali, riducendo gli sforzi e
garantendo un maggiore rendimento e accuratezza.
Per ulteriori informazioni: www.visioneng.it
N. 02ƒ
;2012
▲
Il sistema dispone di un microcontrollore principale che opera acquisendo il
segnale all’uscita dell’elettronica di lettura [3] e comparando i dati di carica
ricevuti con una soglia prefissata. Un
valore di carica superiore a tale soglia
determina la classificazione di un evento ionizzante. Quando ciò avviene, il
microcontrollore memorizza la carica
rilasciata e il relativo istante temporale
(grazie all’ausilio di un real-time clock)
provvedendo ad aggiornare, secondo
un apposito algoritmo, il dato relativo
alla concentrazione di Radon. Il sistema è dotato di una memoria interna, di
tipo non volatile, particolarmente
capiente; è infatti possibile la memorizzazione di 100 misure della durata
massima di un anno ciascuna.
L’interfaccia wireless a 2,4 GHz implementata sulla scheda elettronica garantisce allo strumento numerose funzionalità aggiuntive. Grazie a un apposito
dongle-USB e al software esso abbinato è possibile connettere lo strumento
a qualsiasi personal computer per la
programmazione remota di una misura, la visualizzazione delle misure
acquisite mediante grafici e tabelle e la
loro esportazione per post-elaborazioni, analisi e salvataggio. Oltre alle funzioni d’interfacciamento al singolo strumento, il dongle-USB consente l’interconnessione di più sensori in rete, rendendo possibili operazioni quali il
monitoraggio contemporaneo di ambienti diversi o di aree critiche. La capacità di controllo remoto dello strumento
viene ulteriormente estesa da un approccio “cloud-sensor” sfruttando le potenzialità di internet e di un dispositivo
sensor-web appositamente sviluppato
da Rsens, in grado d’interconnettersi
con più sensori in modalità remota e
trasferire il controllo e le informazioni di
misura alla rete internet. I dati forniti dai
vari sensori sono quindi disponibili su
un portale web dedicato e facilmente
consultabile da tutti gli utenti autorizzati. Le misure acquisite possono essere
visualizzate sia attraverso un browser
internet sia attraverso applicativi appositamente sviluppati per dispositivi
mobili (iOS o Android). Inoltre è possibile impostare il sistema per inviare
messaggi (sms) agli utenti nel caso di
superamento di soglie impostabili.
GLI
ALTRI TEMI
zionale). La misurazione
accurata di questo parametro è estremamente critica e prevede l’uso di uno
stimolo ripetitivo, variabile e affetto da basso
rumore. A questo scopo è
stato allestito un banco di
misura che sfrutta una sorgente LED per stimolare il
rivelatore. Per generare i
diversi pacchetti di carica
di valore noto e ripetibile,
tra LED e rivelatore sono
stati interposti filtri ottici
neutri ad attenuazione
nota e certificata. Per ciaFigura 2 – La camera di misura
scun valore della carica è
(rappresentata dal cilindro color rosso) è stata progettata
stata acquisita una popoper massimizzare il ricircolo dell’aria
(sfruttando le correnti convettive) favorendo, in questo modo, lazione di mille campioni.
La media campionaria in
la rapida diffusione del Radon all’interno dello strumento
corrispondenza dei differenti valori di attenuazione ottica
PRESTAZIONI E TARATURA
rappresenta il valore atteso della
carica generata nel rivelatore, menLa capacità del sistema di discrimi- tre la deviazione standard di ciascunare un evento ionizzante dal ru- na popolazione è correlata alla
more di fondo è strettamente legata ENC. Per definizione, la ENC può
alla carica equivalente di rumore essere stimata come il limite della
(Equivalent Noise Charge: ENC. deviazione standard campionaria
NdR: Nell’ambito della Fisica Nu- per un valore atteso di carica genecleare la ENC è espressa convenzio- rata nullo. Tale stima è stata eseguita
nalmente in cariche elementari: per quattro differenti tempi d’integra1 e= 1,60217653 10-19 C. La cari- zione T. La Fig. 3 mostra l’andamenca elementare come l’unità di ener- to di ENC in funzione di T. È stato
gia elettronvolt, simbolo eV nel testo, osservato un valore minimo di ENC
è un’unità atomica accettata per inferiore a 500 e, nell’intervallo di
essere usata con il Sistema Interna- tempi d’integrazione 5-10 ms.
Figura 3 – Carica equivalente di rumore (ENC) espressa in numero di elettroni efficaci
in funzione del tempo di formatura (T)
T_M ƒ 117
▼
CALIBRATORE MULTIFUNZIONE
E COMUNICATORE DA CAMPO
DI NUOVA GENERAZIONE
Danetech srl, azienda
milanese specializzata
nella fornitura di strumenti e sistemi dedicati alle tarature di strumentazione di misura
industriale, presenta
un’importante novità
della propria rappresentata Beamex: MC6,
il calibratore multifunzione e comunicatore
da campo di nuova
generazione, che stabilisce un nuovo punto
di riferimento per il settore.
In seguito alla richiesta
di misurazioni sempre
più stabili e precise e a
trasmettitori sempre più
sofisticati, strumentisti
e tecnici di taratura sono costretti a utilizzare un numero
maggiore di dispositivi di misurazione e di conseguenza
è aumentata la domanda di dispositivi di misurazione
automatizzati e intuitivi. Inoltre, le aziende sono alla ricerca di nuove soluzioni per ridurre il costo di gestione dei
dispositivi di misurazione e sostituire diversi singoli dispositivi con un dispositivo multifunzione.
Il nuovo Beamex MC6 rappresenta la soluzione ideale per
i requisiti dell’industria di processo moderna: calibratore
in campo e comunicatore evoluto ad alta precisione, offre
la possibilità di tarare segnali di pressione, temperatura e
vari segnali elettrici. Inoltre, MC6 comprende un comunicatore fieldbus completo per strumenti HART, FOUNDATION Fieldbus e Profibus PA. Le sue caratteristiche principali sono la praticità e facilità d’uso, grazie al grande
touch-screen a colori da 5.7” e all’interfaccia multilingua.
Il robusto involucro con classe di protezione IP65 (a prova
di acqua e polvere), il design ergonomico e il peso ridotto lo rendono un dispositivo di misurazione ideale per
l’uso in campo in vari settori (farmaceutico, energetico,
gas e petrolio, alimenti e bevande, assistenza, nonché chimico e petrolchimico).
MC6 ha cinque modalità operative: misurazione, taratura,
documentazione, registrazione dati e comunicazione fieldbus. Inoltre, in combinazione con il nuovo software di taratura Beamex CMX, lo strumento consente taratura e documentazione completamente automatiche e senza documentazione cartacea.
Per ulteriori informazioni: www.danetech.it
T_M ƒ 118
N. 02ƒ
; 2012
NEWS
▲
GLI
ALTRI TEMI
Per valutare la qualità del processo di discriminazione,
questo valore dev’essere confrontato con la carica rilasciata da un evento ionizzante. Essendo l’energia delle
particelle alfa emesse durante il processo di decadimento
del Radon compresa nell’intervallo 5-7 MeV, per simulare
gli eventi ionizzanti è stata utilizzata una sorgente
radioattiva composta da Americio (241Am). Questo elemento è in grado di emettere particelle alfa con energia
pari a circa 5,5 MeV. La Fig. 4 mostra un tipico spettro di
carica rivelata esponendo il sensore alla sorgente radioattiva. Questa misurazione è stata eseguita impostando un
tempo d’integrazione pari a 7 ms. Da questo spettro si
evince come la carica rilasciata (al netto del guadagno
del rivelatore) da particelle alfa con energia pari a
5,5 MeV vale circa 105 e. Confrontando questo valore
con la ENC, si osserva l’ampio intervallo di sogliatura
possibile per la discriminazione; questo aspetto rende il
sistema particolarmente robusto nei confronti di falsi conteggi.
Si noti inoltre che il basso valore di ENC consentirebbe di
sfruttare lo strumento per eseguire analisi spettroscopiche
della radiazione rivelata. Questa funzione, in fase d’implementazione, apre nuove e affascinanti possibilità di utilizzo
di RStone.
Figura 4 – Istogramma di carica registrato esponendo il rivelatore
a una sorgente radioattiva composta da Americio (241Am).
La distanza sorgente-rivelatore è 16 mm
Un dispositivo RStone è stato sottoposto a taratura presso l’Istituto Nazionale di Metrologia delle Radiazioni Ionizzanti.
Il dispositivo RStone da tarare è stato alloggiato con il monitore di riferimento (AlphaGuard® mod. PQ200) in una
camera Radon del volume di 1.000 l. Le misure del monitore AlphaGuard sono riferibili al campione nazionale di attività di 222Rn operante presso l’INMRI-ENEA [4]. Visto l’ampio intervallo di misura di RStone, in accordo con la procedura standard prevista per la taratura degli strumenti attivi
(monitori) [3], sono state effettuate due misurazioni di taratura della durata di 24 ore ciascuna, a due diverse concentrazioni di attività di Radon: (i) 1,5 kBq/m3 (vicina ai valori
riscontrabili in campo) e (ii) 28 kBq/m3 (tipica per monitori
da usare nelle camere Radon per esposizione dei dosimetri).
N. 02ƒ
;2012
Luigi Rovati è professore Associato di Misure
presso la Facoltà di Ingegneria “Enzo Ferrari” dell’Università di Modena e
Reggio Emilia. La sua attività scientifica verte sullo
studio, la progettazione e la realizzazione di strumentazione ottica ed elettronica a elevate prestazioni. Svolge
inoltre attività di trasferimento tecnologico e valorizzazione dei risultati della
ricerca anche mediante società di Startup. Dal Novembre 2010 è vicedirettore
del Dipartimento di Ingegneria dell’Informazione.
Figura 5 – Tracciati registrati dal monitore di riferimento (●
●) e da RStone (■
■)
durante la taratura. La concentrazione nominale di Radon
nella camera di misura è 28 kBq/m3
Nei due casi i due strumenti hanno fornito le seguenti letture medie: (i) Lettura
monitore di riferimento: 1,55 kBq/m3,
lettura RStone: 18,3 mHz e (ii) Lettura
monitore di riferimento: 28,39 kBq/m3,
lettura RStone: 340,9 mHz. A titolo di
esempio, si riportano in Fig. 5 i tracciati registrati dai due strumenti durante la seconda prova.
Il fattore di taratura desunto da queste
misure è 1,2·10-2 mHz·Bq-1·m3. L’incertezza relativa associata a questo
valore è stata stimata in circa 3%.
Oltre al contributo derivante dall’incertezza sul fattore di taratura, l’incertezza associata alla misura fornita da
RStone è funzione dell’incertezza sul
conteggio. Questa può essere stimata
in prima analisi ipotizzando una statistica poissoniana di eventi. Applicando il modello di Poisson, lo scarto tipo
coincide con la radice quadrata del
valore medio del conteggio. Quindi,
assumendo una concentrazione pari
alla soglia di allarme (200 Bq/m3),
per ottenere uno scarto tipo del 10%
sarà necessario aprire una finestra di
conteggio di durata pari a circa 12 h
(circa 100 conteggi).
son e C.F. Lynch, “Residential Radon
Gas Exposure and Lung Cancer”, Am.
J. Epidemiol., vol. 151, pp. 10921102, 2000.
[2] L. Rovati, S. Bettarini, M. Bonaiuti,
L. Bosisio, G.-F. Dalla Betta, V.
Tyzhnevyi, G. Verzellesi e N. Zorzi,
“Alpha-particle detection based on
the BJT detector and simple, IC-based
readout electronics”, Journal of Instrumentation, vol. 4(11), p. P11010,
2009.
[3] F. Cardellini, “Il sistema di taratura
dell’INMRI-ENEA”, Tutto Misure N. 3,
pp. 229-233, 2011.
[4] P. De Felice e Xh. Myteberi, “The
222Rn Reference Measurement System
Developed at ENEA”, Nucl. Instr. and
Meth. in Phys. Res. A, vol. 369, pp.
445-451, 1996.
Andrea Bosi si è laureato in Ingegneria Elettronica
nel 2008 presso la Facoltà
di Ingegneria “Enzo Ferrari” dell’Università di Modena e Reggio Emilia (Laurea) e in Ingegneria Elettronica nel 2010 presso il medesimo ateneo (Laurea Magistrale). Dal 2011 è
RIFERIMENTI BIBLIOGRAFICI
socio fondatore di RSens srl dove dirige le
attività di ricerca e sviluppo. Collabora
attivamente con il laboratorio Optolab
[1] R.W. Field, D.J. Steck, B.J. Smith, dell’Università di Modena e Reggio EmiC.P. Brus, E.L. Fisher, J.S. Neuberger, lia per lo studio di reti di sensori wireless
C.E. Platz, R.A. Robinson, R.F. Wool- per applicazioni industriali.
Gian Franco Dalla
Betta è professore
Associato di Elettronica
presso la Facoltà di
Ingegneria dell’Università di Trento. La sua attività di ricerca riguarda
lo sviluppo di sensori ottici e di rivelatori di radiazioni integrati in silicio e
della relativa elettronica di lettura per
applicazioni scientifiche, mediche e
ambientali. Dal maggio 2008 è Associate Editor della rivista IEEE Transactions on Nuclear Science.
Francesco Cardellini
è laureato in fisica, ricercatore presso l’ENEA,
ha lavorato nel campo
della scienza dei materiali specializzandosi
sulle reazioni a stato
solido e sulle tecniche di analisi
mediante diffrazione di raggi X e
calorimetria. Dal 2003 lavora presso
l’INMRI, nel settore della metrologia
del Radon. In questo ambito è responsabile dello sviluppo e mantenimento
del campione primario e del servizio
di taratura della strumentazione utilizzata per il monitoraggio del radon.
T_M ƒ 119
N. 02ƒ
; 2012
▲
NEWS
PMX: IL NUOVO STANDARD INDUSTRIALE PER LA TECNOLOGIA DI MISURA
Un sistema di amplificatori sviluppato apposita- Progettata per ambienti critici di produmente per l’impiego nell’industria: potente, pre- zione
ciso, affidabile e altamente efficiente, dotato di Particolare valore è stato dato alla struttura e
tutte le moderne caratteristiche che gli amplifi- alla configurazione elettrica per l’immunità dai
catori moderni devono possedere.
disturbi. Ciò significa che la PMX fornisce semQueste sono le doti principali di PMX, la tecno- pre valori di misura stabili e sicuri, anche in eserlogia di misura all’avanguardia che HBM ha cizio vicino a potenti generatori o in ambienti
progettato per conseguire risultati ottimali nella con forti vibrazioni prodotte da macchinari.
produzione.
Dove utilizzare la PMX
Con la PMX, gli utenti dispongono di diverse
soluzioni, applicabili in produzione, nei banchi
prova industriali, nei banchi prova qualità.
In ambito produzione, la piattaforma è ideale
nel monitoraggio dei processi di stampaggio e
giunzione (laminazione, punzonatura e taglio
dei metalli, piantaggio di cuscinetti e bronzine)
e mostra la propria potenza anche nel controllo
qualità di presse veloci per pastiglie, conio di
monete o grandi presse multicanale con funzioni matematiche di controllo integrate e calcolo in
tempo reale del segnale. La funzione “Monitoraggio Condizione” della PMX è importante nel
controllo e miglioramento dell’efficienza di grandi e complessi impianti e macchinari, rilevando
in tempo reale gli stati critici e comunicandoli
all’unità di controllo.
Nei banchi prova industriali, inclusi i
banchi prova con installazione fissa ma
PMX s’inserisce perfettamente nei processi di modulare, con compiti di verifica chiaramenproduzione e consente di rilevare le più comu- te definiti, la PMX è in grado di misurare ed
ni grandezze di misura: Forze, Coppie, Vibra- elaborare grandezze di misura meccaniche
zioni, Pressioni, Deformazioni, Temperature, quali forze, pressioni, temperature, portate,
Impulsi o segnali di Encoder. Mediante una po- coppie e tempi. L’automazione viene effettuatente gestione, i segnali di misura possono es- ta dai segnali di uscita analogici e dei comsere ulteriormente elaborati. Le uscite e segna- paratori di allarme oppure di EtherCAT, con
lazioni possono poi essere trasmesse mediante velocità fino a 10 kHz. Grazie alla capacità
ingressi e uscite digitali oppure tramite moder- multiclient della PMX, il salvataggio dei dati
ne interfaccia Fieldbus o Ethernet in tempo può avvenire in parallelo mediante Ethernet.
reale.
La piattaforma è altrettanto utile nei banchi
prova qualità, per il controllo qualità profesFlessibile ed espandibile
Il concetto modulare delle schede di misura con- sionale e il miglioramento della qualità durante
sente di sviluppare nuovi inserti per le future e dopo il processo di produzione, adatta per
grandezze di misura. Ciò risulta importante diverse tipologie di sensori e segnali e per diffeallorché gli impianti di produzione esistenti renti compiti di misura. Queste prove funzionali
devono essere aggiornati o ampliati; anche in riferite al prodotto necessitano sovente di numecaso di manutenzione o riparazione le schede- rosi sensori e canali di misura. Si possono sininserto possono essere semplicemente sostituite, cronizzare i valori di misura di più unità PMX,
dato che ogni scheda dispone della propria ta- aumentando così il numero di canali disponibili.
ratura.
Come integrare la PMX nel sistema di
automazione
Precisa, accurata e affidabile
La PMX è progettata per la misurazione dei Dotata di interfaccia Ethernet industriali, la PMX
segnali normalizzati dei sensori. La rilevazione
dei valori di misura avviene con elevata risoluzione (24 Bit) e precisione (0,1% o superiore),
anche per i campi parziali di carico che sono
comunemente presenti nella produzione, rappresentando dati di misura ancora significativi.
Nucleo più potente
Notevole attenzione è stata posta all’elevata
potenza interna dei processori di segnale, al
fine di garantire anche la post-elaborazione dei
segnali di misura alla massima velocità. Da sottolineare la possibilità di rilevare i valori di picco e calcolare i segnali fino al circuito di regolazione. Con tale intelligenza distribuita vengono alleggeriti i controlli dell’impianto, aumentandone così la fruibilità.
T_M ƒ 120
supporta i più diffusi sistemi e protocolli di comunicazione utilizzati nell’automazione industriale. Oltre ai noti Fieldbus, qui vengono impiegati anche i moderni sistemi Ethernet in tempo reale come Ethercat o Profinet. Con essi, i
valori di misura e i segnali di diagnosi vengono
trasferiti in tempo reale con velocità fino a 10
kHz. Pertanto la PMX è inseribile universalmente e l’utente si avvantaggia della massima cadenza di trasferimento dei dati e della minima
complessità del circuito di regolazione.
Innovazioni
Un obiettivo prioritario degli ingegneri HBM,
in fase di sviluppo della PMX, era quello di
consentire alla piattaforma di servire, con la
massima rapidità ed efficienza, un grande
sistema. Per raggiungere tale obiettivo è stata
utilizzata una nuova tecnologia Web Server,
mai prima d’ora impiegata in questo campo:
la GWT Google-Web-Technology, nota finora
solo nel campo degli Smartphone e dei PC
Tablet, dove ha ottenuto un riconoscimento
mondiale per la sua facilità d’impiego. L’utilizzo di questa tecnologia nella PMX apre possibilità del tutto nuove: per il controllo è ora sufficiente un software Panel o un dispositivo che
possegga un Web Browser. Il resto è fornito
dalla PMX, che esegue le istruzioni sempre
nello stesso modo eliminando la necessità di installare un gravoso software operativo per PC.
Inoltre, si possono gestire numerosi dispositivi
fino allo Smartphone.
Mediante l’implementazione di altre interfaccia, quali Ethernet, USB e CAN, si aprono numerose ulteriori possibilità applicative. Tramite
interfaccia USB si possono collegare strumenti
periferici, come il lettore di codice a barre o la
memoria di massa per salvare i dati, con grandi vantaggi in ambito di controllo qualità e
documentazione. La possibilità di visualizzare e
registrare i dati di misura è altrettanto essenziale anche per la messa in funzione e per l’assistenza (service).
Tutto sulla PMX nel sito
www.hbm.com/en/pmx
GLI
ALTRI TEMI
▲
MISURE A MICROONDE
Andrea Cataldo 1, Giuseppe Cannazza1, Egidio De Benedetto 1, Nicola Giaquinto 2
Riflettometria a microonde
per l’individuazione di perdite in condotte idriche interrate
MICROWAVE REFLECTOMETRY TO MONITOR BURIED WATER
PIPE LOSSES
This paper describes an innovative system for accurate, non-invasive detection of water leaks in underground pipes. The proposed system, based on
microwave reflectometry, allows to effectively detect leaks with a dramatic
reduction of inspection times. For the method and the related measurement
apparatus, an international patent application has been filed.
RIASSUNTO
In questo articolo viene descritto un sistema innovativo per l’individuazione
accurata di perdite in condotte idriche interrate, operante in modalità non
invasiva. Questo sistema, che si basa sulla riflettometria a microonde, consente una più efficace rivelazione delle perdite, oltre che una notevole riduzione dei tempi d’ispezione rispetto a quelli richiesti dalle tecniche tradizionali. Il metodo e l’apparato di rivelazione, per la cui validazione si è
eseguita una vasta sperimentazione sul campo, sono oggetto di un brevetto internazionale.
IL PROBLEMA DELLA RICERCA
PERDITE NELLE CONDOTTE
La rivelazione delle perdite idriche è
un tema di rilevante interesse pratico
nel settore della distribuzione idrica.
Un recente studio dell’ISTAT ha evidenziato che la percentuale di acqua
mediamente dispersa in rete è pari a
circa il 47% dell’acqua immessa in
rete [1]. Le maggiori dispersioni si
osservano in Puglia, Sardegna, Molise e Abruzzo (regioni in cui, per ogni
100 litri di acqua erogata, ne sono
immessi in rete circa 80 litri in più).
Questi dati dimostrano chiaramente
quanto sia importante, ai fini dell’ottimizzazione dello sfruttamento delle
risorse idriche, l’individuazione e la
riparazione delle perdite lungo le condotte.
I mezzi d’indagine che vengono tradizionalmente adoperati per la ricerca delle perdite lungo condotte interrate si basano, prevalentemente, su
metodi elettroacustici (es. geofoni o
aste d’ascolto amplificate). Oltre a
tali apparati, viene spesso impiegata
strumentazione più sofisticata (e più
costosa), il cui funzionamento si
basa sul metodo correlativo. Tuttavia,
le tecniche elettroacustiche, per il
principio stesso su cui si basano, presentano caratteristiche che ne limitano l’efficacia. Innanzitutto esse richiedono una notevole esperienza
da parte degli operatori. Inoltre l’esecuzione di una campagna di ricognizione, ad esempio in un tratto di
rete urbana, richiede tempi piuttosto
lunghi (orientativamente, per ispezionare 1 km di rete occorre almeno
una giornata di lavoro per due unitàuomo). Infine, nonostante le tecniche
elettroacustiche siano da tempo largamente adottate, sussistono ancora
problematiche per la corretta interpretazione dei dati di misura, l’incertezza sulla localizzazione e sull’entità
del guasto, la scarsa applicabilità in
impianti realizzati in materiale plastico e, soprattutto, la scarsa sensibilità
in condizioni di pressione idrica non
elevata.
Proprio questi limiti applicativi hanno
motivato l’interesse scientifico verso la
ricerca e lo sviluppo di tecniche d’indagine alternative, in grado di rende-
T_M
re più efficienti le campagne di ricerca-perdite. A tal fine, è stato sviluppato un nuovo sistema ricerca-perdite,
basato sulla riflettometria nel dominio
del tempo (time domain reflectometry,
TDR), in grado di localizzare velocemente ed efficacemente le perdite su
tratti di condotta interrata, lunghi
anche diverse centinaia di metri [2].
Con riferimento particolare al contesto di possibile utilizzo, il sistema prevede due principali categorie applicative:
1) condotte idriche in materiale metallico già esistenti;
2) condotte idriche e fognarie di futura posa in opera e realizzate in qualsiasi materiale.
Nel seguito viene fornita una sintetica descrizione delle caratteristiche
tecnico-funzionali del sistema e dei
benefici previsti. Attualmente, grazie
ad una collaborazione tra l’Università del Salento e l’Acquedotto Pugliese SpA, si sta procedendo alla
messa a punto finale del sistema
descritto.
DESCRIZIONE DEL SISTEMA
Il sistema di rivelazione perdite realizzato è basato sull’utilizzo della TDR,
una tecnica basata su principi intrinsecamente diversi rispetto a quelli dei
tradizionali metodi ricerca-perdite. Il
metodo diagnostico prevede l’invio
(1)
Università del Salento,
Dip. Ingegneria dell’Innovazione, Lecce
e MoniTech srl, spin-off Università
del Salento
(2) Politecnico di Bari,
Dip. Elettrotecnica ed Elettronica
[email protected]
N.
2/12 ƒ 121
▲
NEWS
RISOLVERE IN MODO RAPIDO
E SEMPLICE I PROBLEMI ACUSTICI IN 3D
La risoluzione dei problemi acustici è un processo impegnativo, ma
essenziale, in molti campi dell’industria. Con la soluzione brevettata LMS SoundBrush, LMS lancia uno strumento rivoluzionario e
completo che aiuta a visualizzare ciò che si sente. Si tratta della
prima tecnologia in grado di visualizzare il campo sonoro in 3D
durante la campagna di acquisizione. Il principio fondamentale
della soluzione SoundBrush è la tecnologia brevettata a tracciamento ottico, combinata con un microfono di pressione sonora o un
sensore di intensità 3D. Lo strumento rende il suono visibile: quando si sposta la sonda liberamente intorno all’oggetto di prova, con
qualsiasi orientamento e posizione, il campo sonoro viene imme-
diatamente visualizzato sullo schermo in 3D. Il rilevamento automatico della posizione facilita l’interpretazione del campo sonoro 3D
che viene visualizzato insieme al
modello 3D dell’oggetto di prova.
Visto che questo accade in tempo
reale, non è necessario alcun postprocessamento.
Iniziare a utilizzare LMS SoundBrush è un gioco da ragazzi: basta
abilitare l’antenna con il sensore acustico sulla sonda, connettere
la sonda USB e la fotocamera al PC e avviare il software. Il sistema riconosce automaticamente il tipo di antenna. Non è richiesta
alcuna operazione di calibrazione. Inoltre, il software segue un
flusso di lavoro intuitivo, che guida l’operatore attraverso passaggi logici dall’installazione al report finale.
Gli utenti sono immediatamente operativi,
senza formazione, in quanto la rappresentazione in 3D dei dati consente un’interpretazione rapida e precisa dei dati misurati.
Nessuna perdita di tempo nella configurazione o nella manipolazione del sistema: ci
si può concentrare esclusivamente sulla
prova e dunque sulla soluzione del problema acustico.
Per ulteriori informazioni: visitare il sito web
www.lmsitaly.com o contattare
[email protected]
WIKA ITALIA È IL NUOVO
DISTRIBUTORE
ESCLUSIVO PER L’ITALIA
DEI PRODOTTI ASL
Dallo scorso 25 Novembre 2011, WIKA
Italia è ufficialmente responsabile delle promozione e distribuzione dei prodotti ASL per
il territorio italiano.
Da oltre 40 anni, ASL (Automatic Systems
Laboratory) fornisce apparecchiature di
qualità superiore per la calibrazione di temperatura in ambito metrologico e industriale.
La gamma dei prodotti include ponti di
misura primari e secondari, termometri di
elevata precisione, calibratori di temperatura, sonde campione e resistori.
Dopo l’acquisizione della DH-Budenberg di
alcuni mesi fa, l’accordo con ASL rafforza
ulteriormente la posizione di leadership
WIKA nella calibrazione di pressione e temperatura.
Le informazioni tecniche sui prodotti ASL sono
disponibili sul sito www.aslltd.co.uk
Per ulteriori informazioni: www.wika.it
T_M ƒ 122
N. 02ƒ
;2012
sono alla base di entrambi i casi
applicativi.
Nello specifico, per il caso applicativo 1) (condotte metalliche già esistenti), il segnale di test viene fatto propagare attraverso il terreno che si trova
tra la condotta e un cavo metallico
disteso sul manto stradale, parallelamente alla condotta stessa (v. Fig. 1).
Il contatto elettrico con la condotta è
garantito attraverso un comune punto
di accessibilità (tipicamente attraverso l’asta di manovra delle saracinesche).
L’analisi del segnale riflesso permette
di ricavare il profilo del coefficiente di
riflessione (ρ) in funzione della distanza apparente (L), potendo analizzare
anche diverse centinaia di metri con
una singola misura.
Come si evince dalla figura, lo schema generale dell’apparato di rivelazione per il caso 1)
si compone di una
parte relativa alla
strumentazione elettronica, comprendente acquisizione,
elaborazione dati e
software di gestione
(con possibilità di
effettuare
misure
automatiche
in
remoto e di teletrasmissione dei dati),
e di una parte relativa alle componenti
fisiche di sensing e
agli accessori per le
connessioni.
Per quanto riguarda il caso applicativo 2) (impianti di
nuova installazione), sfruttando lo
stesso principio di
rivelazione, è possibile implementare
un sistema per la
localizzazione di
perdite in condotte
sia idriche sia
fognanti, da porre
in opera sottoterra
e realizzate con
Figura 1 – Schematizzazione dell’apparato
qualsiasi tipo di
per la ricerca perdite e del corrispondente riflettogramma
materiale (anche
▲
lungo la condotta di un segnale a
microonde e l’analisi del corrispondente segnale riflesso (eco). Tale
segnale si assesterà a un valore pressoché costante qualora tutto il tratto di
rete sotto analisi sia in condizioni fisiche “normali”, ovvero senza guasti o
perdite. Al contrario, in corrispondenza di una perdita (con conseguente
fuoriuscita di acqua), il segnale subirà
una variazione significativa.
Ciò che si ottiene in pratica è un riflettogramma come quello schematizzato
in Fig. 1, ovvero una curva del coefficiente di riflessione (sull’asse verticale) in funzione della distanza (tempo)
dal punto in cui si sta effettuando l’ispezione (asse orizzontale). Infine,
attraverso un algoritmo appositamente sviluppato, è possibile ricavare
automaticamente la posizione della
perdita. I principi appena descritti
GLI
ALTRI TEMI
plastico), potendo effettuare, in pratica, un monitoraggio periodico e su
vasta scala degli impianti. Rispetto
al caso precedentemente descritto, la
metodologia e la strumentazione
diagnostica restano invariate; differiscono soltanto le componenti fisiche di sensing e gli accessori per le
connessioni, alloggiati durante la
fase di posa in opera dell’impianto.
Di conseguenza, tramite questo
“accorgimento” semplice ed economico, è possibile eseguire il controllo dello “stato di salute delle condotte” con una qualsiasi periodicità ed
un’elevata affidabilità.
PERDITE SU CONDOTTE
GIÀ ESISTENTI
Il sistema ricerca-perdite descritto è
stato impiegato per l’ispezione sistematica di diversi tratti di condotte idriche su cui erano state segnalate possibili perdite, individuate tramite le
tecniche tradizionali. Il 70% delle
ispezioni ha riguardato perdite in corrispondenza di aste di manovra, mentre il restante 30% è stato fatto su tronchi principali di condotta. Ai fini di
validazione funzionale del metodo,
l’effettiva presenza (o assenza) e l’entità delle perdite sono state appurate
successivamente all’attività di misurazione, tramite sopralluogo in fase di
scavo e ripristino.
La Fig. 2 mostra una fotografia dell’apparato sperimentale così come utilizzato sul campo. In particolare, possono notarsi le modalità di connessione alla condotta (che devono essere
fatte in modo da minimizzare i salti
d’impedenza tra l’uscita dello strumento TDR e la linea di trasmissione
che si viene a formare tra condotta
interrata e cavo).
Lo strumento TDR portatile (alimentato
attraverso una batteria da 12 V)
garantisce un’estrema versatilità per
effettuare misure sul campo. A titolo
esemplificativo, in Fig. 3 sono riportati i risultati relativi ad un caso di perdita su un tronco di diametro di
100 mm. La curva in nero riporta la
misura effettuata in presenza della
perdita, mentre la curva in blu è rela-
T_M ƒ 123
N. 02ƒ
; 2012
▲
GLI
ALTRI TEMI
Figura 3 – Paragone fra misura effettuata sullo stesso tratto di condotta idrica
interrata in presenza di perdita (curva nera) e, dopo la riparazione,
in assenza di perdita (curva blu)
siderevole variazione del
coefficiente di riflessione (ρ)
misurato, mentre l’andamento
del segnale in funzione della
distanza appare pressoché costante
dopo la riparazione.
La posizione della perdita viene calcolata attraverso un algoritmo
(implementato in Matlab) che, sfruttando anche la derivata prima del
riflettogramma, dà in output proprio
la distanza della
perdita dal punto in
cui si sta effettuando
la misura (v. Fig. 4).
Figura 2 – Apparato di misura con dettagli
sulla configurazione adottata
e sulle modalità di connessione
tiva alla stesso tratto analizzato, in via
comparativa, dopo la riparazione.
Sono inoltre evidenziati i punti di riferimento (B) e (D), rispettivamente d’inizio e fine cavo. Si nota come in corrispondenza del punto in cui si trova
la perdita (punto E), ci sia una con-
PERDITE
SU CONDOTTE
DI NUOVA
INSTALLAZIONE
Figura 4 – Elaborazione numerica del riflettogramma
in presenza di perdita. I punti B, E, D, corrispondono
a quelli indicati in Fig. 1. La posizione E della perdita rispetto
ai punti noti B e D viene individuata automaticamente
e con elevata accuratezza
T_M ƒ 124
Come già detto, questo caso applicativo
differisce dal precedente solo per le parti
relative alle componenti fisiche di sensing e per gli accessori per le connessioni.
Infatti, in fase di posa
in
opera
degli
impianti, è sufficiente
provvedere all’allog-
giamento, lungo i tratti di condotta, di
due semplici elementi conduttori con
guaina d’isolamento elettrico. Questi
elementi, interrati assieme alle condotte, sono collegabili allo strumento di
misura portatile, tramite un apposito
cavo alloggiabile, ad es. all’interno di
chiusini o pozzetti. La verifica dello
stato di una conduttura avviene molto
semplicemente collegando lo strumento al “connettore da chiusino” così realizzato. Si avrebbe, tipicamente, un
connettore per distanze pari o inferiori a 100-150 m e, inoltre, i “punti di
misura” sarebbero geo-referenziabili.
Tale modalità di realizzazione,
estremamente semplice ed economica, consente una gestione delle perdite e/o anomalie funzionali notevolmente semplificata, un considerevole abbattimento dei tempi di rilevazione e un ingente risparmio
economico offrendo, al contempo,
una soluzione univoca e definitiva
alla problematica di ricerca perdite
sia nelle reti idriche che fognarie
realizzate in qualsiasi tipo di materiale.
La verifica sperimentale di quest’applicazione è stata eseguita attraverso
prove su un impianto pilota, in cui
sono state intenzionalmente generate
e rivelate perdite in alcuni punti di
riferimento.
N. 02ƒ
;2012
RIFERIMENTI BIBLIOGRAFICI
Il sistema descritto rappresenta una
soluzione innovativa per rendere più
efficienti le campagne di ricerca perdite e il controllo periodico delle infrastrutture idriche. L’impiego dello stesso,
sia per applicazioni su condotte idriche
in materiale metallico già esistenti, sia
su condotte idriche e fognarie di qualsiasi materiale e di nuova realizzazione, comporta notevoli miglioramenti in
termini di rapporto costi/benefici. Infatti, una rivelazione su un tratto rettilineo
lungo fino a 200-300 m richiede, orientativamente, circa 20 minuti.
1. Istat – Istituto nazionale di statistica, “Giornata mondiale dell’acqua.
Le statistiche dell’ISTAT”, diffuso il
21/03/2011,
www3.istat.it/
salastampa/comunicati/non_c
alendario/20110321_00/testoi
ntegrale20110321.pdf
2. A. Cataldo, G. Cannazza, E.
De Benedetto, N. Giaquinto “A
New Method for Detecting Leaks
in Underground Water Pipelines”, IEEE Sensors Journal, in stampa, DOI: 10.1109/JSEN.2011.
21764840
NEWS
▼
CONCLUSIONI
ANELLI DI MISURA
DELLA FORZA
PIEZOELETTRICI
FINO A 700 KN
Lo specialista in tecnica di misura
HBM ha ampliato ulteriormente la
gamma di trasduttori di forza piezoelettrici e ora offre gli anelli di misura
della forza CFW con campi nominali
fino a 700 kN. I diversi modelli coprono i campi di misura nominali
compresi fra 20 kN e 700 kN, consentendo così diverse applicazioni
nel controllo produzione o nella misurazione della forza all’interno delle
macchine.
Date le elevate dimensioni geometriche dell’anello di misura della forza
con campo nominale maggiore, esso
risulta adatto anche all’impiego in
strutture massicce. I sensori di forza
piezoelettrici hanno uno spostamento
molto ridotto e presentano perciò una
rigidità particolarmente elevata. Poiché il segnale non dipende dal campo di misura, gli anelli di misura della
forza piezoelettrici con forze nominali elevate possono rilevare anche le
più piccole forze con un’elevata risoluzione. Nell’applicazione si ottiene
così un’elevatissima sovraccaricabilità senza che questo comporti una
perdita di precisione o di risoluzione.
Nonostante precarichi o forze di tara
elevati, è possibile effettuare misurazioni ad alta risoluzione.
HBM offre amplificatori di carica,
sistemi di acquisizione dati e software di misura adatti ai trasduttori di
forza piezoelettrici, consentendo all’utente di acquisire una catena di misura completa presso un unico fornitore.
Per ulteriori informazioni:
www.hbm.com
HBM Test and Measurement
Fin dalla sua fondazione in Germania, nel 1950, Hottinger Baldwin
Messtechnik (HBM Test and Measurement) si è costruita una solida reputazione come leader mondiale di tecnologia e del mercato nell'industria
delle misurazioni e prove. HBM offre
prodotti per la catena di misurazione
completa, dalle prove virtuali a quelle fisiche. Le sue sedi produttive sono
situate in Germania, USA e Cina;
HBM è presente in più di 80 Paesi in
ogni parte del mondo.
▲
GLI
ALTRI TEMI
Andrea Cataldo, docente e ricercatore nel
settore delle Misure Elettriche ed Elettroniche
presso il Dipartimento di
Ingegneria dell’Innovazione dell’Università del Salento. Le
sue principali attività di ricerca riguardano le misure riflettometriche a microonde, la caratterizzazione dielettrica di materiali, la diagnostica e il
monitoraggio qualitativo e la caratterizzazione di sensori e dispositivi.
Giuseppe Cannazza, laureato in Fisica
presso l’Università del
Salento. Collabora con
il laboratorio di Misure
e Strumentazione del
Dipartimento di Ingegneria dell’Innovazione dell’Università del Salento ed
è amministratore delegato della società spin-off MoniTech srl.
Egidio De Benedetto, laureato in Ingegneria dei Materiali, è Dottore di ricerca in Ingegneria dell’Informazione. Collabora con i laboratori di Misure e Strumentazione e
di Campi Elettromagnetici del Dipartimento di Ingegneria dell’Innovazione
dell’Università del Salento.
Nicola Giaquinto,
professore associato di
Misure Elettriche ed Elettroniche presso il Dipartimento di Elettrotecnica
ed Elettronica del Politecnico di Bari. I suoi principali interessi di ricerca riguardano l’elaborazione numerica dei segnali per le
misure e la sensoristica, la metrologia
della conversione A/D e D/A e le
problematiche teoriche relative alla
definizione e alla valutazione dell’incertezza di misura.
T_M ƒ 125
N. 02ƒ
; 2012
MODULO ADATTATORE PER NI FLEXRIO®
PER LA MISURA DI TEMPO A QUATTRO CANALI
Il modulo QT-FLX01 (realizzato dalla QTech srl di Rezzato – BS) è un’unità di di misura di tempo a quattro canali per misure di intervalli di tempo veloci e accurate. Il modulo può essere considerato come un contatore free running a elevata risoluzione: ogni
canale di misura è in grado di registrare il tempo di arrivo di fronti di segnali rispetto
a un impulso di sincronismo comune.
Il modulo presenta una risoluzione di misura di tempo di 13 ps, un’accuratezza single-shot di 8 ps e una frequenza massima di eventi in
ngresso di 200 MHz.
È possibile combinare questo modulo con un modulo NI FlexRIO
FPGA, per creare uno strumento PXI per la misura di tempo, completamente personalizzabile, per un’ampia varietà di applicazioni.
Caratteristiche
Quattro canali eventi + Canale Sync – Accuratezza Single-Shot: 8 ps,
Una Sigma – Risoluzione di misura: 13 ps (LSB) – Intervallo di misura:
0 s to 7 s – Frequenza eventi: 200 MHz, max – Canali d’ingresso single-end e differenziali – Uscita Sync per la sincronizzazione multimodulo.
Applicazioni
Strumentazione automatica di Test – Strumentazione
da banco per la misura di tempo – Radar e Sonar –
Spettroscopia di massa, Fisica Nucleare e delle particelle – Misura di distanza con Laser – Misura di flusso a ultrasuoni.
Per ulteriori informazioni: www-q-tech.it
NUOVE TERMOCAMERE VELOCI AD ALTA RISOLUZIONE
Le nuove PI400 e PI450 ben completano la famiglia OPTRIS di telecamere a infrarossi. Le due
nuove versioni sono state introdotte sul mercato in aggiunta alle consolidate PI160 e PI200.
Con le dimensioni di soli 56 x 46 x 90 mm3,
PI400 è la più piccola termocamera della sua
classe, con un peso di soli 320 g, obiettivo incluso! Inoltre, le nuove arrivate offrono un’eccellente sensibilità termica: 80 mK per la PI400 e ben
40 mK per la PI450. Le immagini termografiche
a infrarossi e i video possono essere visualizzati e registrati alla massima risoluzione di 382
per 288 pixel a una velocità di misura di ben 80 fotogrammi al secondo. Rispetto alle
precedenti termocamere IR, ciò significa che i pixel disponibili sono quattro volte di più
per la stessa superficie di analisi. In combinazione con l’obiettivo appropriato (con apertura 30° o 13°), la termocamera permette quindi misurazioni più dettagliate e aumenta
il campo delle applicazioni. Questa termocamera robusta (IP67/NEMA4) è ideale per
l’uso in applicazioni R&D, nei laboratori o in processi industriali automatizzati. Con la
disponibilità di accessori di qualità industriale, come la custodia di raffreddamento con
flangia di montaggio per alta temperatura e il cavo USB, la termocamera può essere
impiegata anche in condizioni estremamente gravose. Un supporto di montaggio, la
custodia protettiva e il connettore angolato sono disponibili come elementi opzionali. Il
pacchetto comprende il software Connect che offre funzionalità per l’analisi completa
delle immagini termiche, la registrazione dei dati e l’integrazione con processi automatizzati. Il cavo USB può essere esteso fino a 10 km con cavi in fibra ottica. L’interfaccia
di processo analogico/digitale (PIF) e il driver open source per l’integrazione di software tramite DLL, ComPort e LabVIEW agevolano l’integrazione nelle reti e processi automatizzati da parte degli integratori di sistema.
Per ulteriori informazioni: www.luchsinger.it
GLI
ALTRI TEMI
▲
PSICOLOGIA E MISURE
Stefano Noventa, Giulio Vidotto
Da Fechner a Luce,
la misura in psicologia
Parte 1
FROM FECHNER TO LUCE, MEASUREMENT IN PSYCHOLOGY –
PART 1
In this first short review, the problem of measurement in psychological and
social sciences is presented. Its history is chronicled in broad lines, moving
from the beginning of psychophysics, through the criticisms of the Ferguson
Committee, to the development of the modern theory of measurement. In a
following second review, some aspects of the representational theory of
measurement and of the theory of conjoint measurement will be detailed.
Some consequences and open problems will also be discussed.
RIASSUNTO
In questa prima breve rassegna sarà presentato il problema della misura
nelle scienze psicologiche e sociali e ne sarà ripercorsa a grandi linee la
storia, dalla nascita della psicofisica, attraverso le critiche mosse dal Ferguson Committee, fino alla moderna teoria della misura. In una successiva
rassegna saranno approfonditi alcuni aspetti della moderna teoria rappresentazionale della misura, della teoria della misurazione congiunta, e
saranno esposte alcune conseguenze e problemi aperti.
IL PROBLEMA DELLA MISURA
La difficoltà nel definire un concetto di
misurazione nell’ambito delle Scienze
Psicologiche e Sociali può essere ricondotta alla natura stessa dei fenomeni in
esame. La maggior parte dei costrutti
(i.e. delle variabili di natura psicologica) sono grandezze intensive, non direttamente misurabili e, se graduabili, non
necessariamente sommabili. Simpatia e
bellezza, anche se misurate su una
scala opportuna, non sono concatenabili come la massa o la lunghezza,
esempi classici di grandezze estensive.
È difficile pensare a un’opera d’arte o
a una persona due volte e mezzo più
bella o simpatica di un’altra.
Si pensa spesso che il problema origini dalla natura qualitativa delle variabili osservate, senza la possibilità quindi di una misura quantitativa del fenomeno. In realtà si tratta di una visione
impropria: la natura qualitativa di un
attributo non esclude a priori la possibilità di misurarlo e un’eventuale impossibilità di misurarlo non esclude
comunque l’esistenza di una trattazione matematica (Michell, 1999). Il con-
Tuttavia, basta considerare una grandezza fondamentale come la temperatura, per osservare come questa non
rispecchi i criteri per definire una misura
numerabilmente additiva. Concatenando un litro d’acqua a venti gradi e un
litro d’acqua a trenta gradi otterremo
due litri (la massa è una quantità estensiva) ma a una temperatura che non è
cinquanta gradi (la temperatura è una
quantità intensiva). Un simile discorso
vale per le grandezze derivate: concatenando masse e volumi non si ottiene la
somma delle densità di partenza.
Eppure, le grandezze intensive e le
grandezze derivate possono essere
misurate, pur violando l’idea di concatenazione così intuitiva e immediata
nel caso delle grandezze estensive.
Bisogna perciò chiarire cosa s’intende
per misura. Nel caso della temperatura, per esempio, il concetto di misurazione non può essere ricondotto al rapporto intuitivo tra una quantità e un’unità di misura, dato che un’unica unità
di misura non esiste ma dipende dalla
scala considerata. Questo, inoltre, si
riflette sulle operazioni definibili su tali
scale: nel caso della scala Kelvin, dotata di uno zero assoluto che corrisponde all’assenza del fenomeno, ha senso
parlare di una temperatura doppia di
un’altra (i.e. di un sistema termodinamico che ha un’energia cinetica media
doppia rispetto a un altro), ma nel caso
della Celsius è improprio. In entrambi i
casi, poi, non ha senso un’operazione
di concatenazione, quantomeno non
nel senso dell’additività.
Eppure alcune regolarità possono essere individuate: ciò che è quantificabile
nella scala Celsius non è la temperatu-
cetto di misurazione, anche nelle scienze fisiche, è meno ovvio da formalizzare di quanto possa sembrare pensando al concetto intuitivo di misura.
Il caso intuitivo è infatti il caso più semplice: la misurazione di una grandezza estensiva, come la massa, per la
quale la concatenazione empirica
(aggiunta di diverse masse sul piatto
di una bilancia) ha un equivalente
matematico nell’operazione di addizione. L’insieme delle masse è, dunque, rappresentabile con l’insieme dei
numeri reali positivi e il processo di
misurazione corrisponde alla definizione di un rapporto adimensionale
tra quantità (la grandezza stessa e
un’unità di misura). Viene quindi spontaneo definire, all’interno di una teoria
assiomatica, una misura numerabilmente additiva come una funzione
definita su una σ-algebra, a valori nei
reali positivi, e tale per cui l’insieme
vuoto abbia immagine nulla e l’immagine di un’unione di sottoinsiemi sia la
somma delle immagini dei sottoinsiemi
stessi. In altri termini, esiste un legame Università di Padova,
tra la struttura empirica e la struttura Dip. Psicologia Generale
[email protected]
relazionale dei numeri reali.
T_M
N.
2/12 ƒ 127
ra in sé, ma le differenze di temperatura. La relazione diretta tra numeri reali
positivi e rapporti delle quantità che
caratterizza una grandezza estensiva o
una scala come la Kelvin, muta quindi
in una relazione tra numeri reali positivi e rapporti tra differenze di quantità,
cioè intervalli sull’asse reale. Inoltre, tali
rapporti non mutano se si effettua una
trasformazione affine dei suoi elementi,
come nel passaggio dalla scala Celsius
alla Farhenheit.
Più in generale, il problema può essere
ricondotto alla costruzione e identificazione di scale opportune o, detto in altri
termini, a comprendere e testare se le
proprietà fondamentali di un fenomeno
empirico, anche se di natura qualitativa, siano rappresentabili attraverso
strutture relazionali numeriche che consentano la quantificazione del fenomeno in oggetto. E non è detto che la concatenabilità di una grandezza si manifesti in una relazione additiva.
T_M ƒ 128
N. 02ƒ
; 2012
▲
GLI
ALTRI TEMI
Il problema di costruire una teoria formale della misura non è quindi affatto
banale e ha coinvolto, negli ultimi due
secoli, studiosi del calibro di Helmholtz, Holder, Wiener, Russell, Neumann e Campbell (per una rassegna
si veda Michell, 1999), attraversando
fasi alterne fino a culminare nella
costruzione di una teoria della misura
assiomatica (Suppes & Zinnes, 1963;
Pfanzagl, 1968) e nella conjoint
measurement (Luce & Tukey, 1964),
e ricevendo, paradossalmente, una
spinta fondamentale proprio dalle
scienze psicologiche.
LA MISURA IN PSICOLOGIA
Le variabili in psicologia sono, nella
maggior parte dei casi, astrazioni
concettuali la cui definizione può
variare da teoria a teoria e, infatti,
per quanto si cerchi di ricondurre la
misura di un costrutto a misure di comportamento che ricadano all’interno
di specifiche classi (latenza, frequenza, durata e intensità), non è raro il
verificarsi del risultato paradossale in
cui il disaccordo tra teorie rende problematica la misura stessa.
In generale, inoltre, le misure di variabili psicologiche sono affette da errori casuali come quelle fisiche, ma per
loro stessa natura non sono affette da
errori sistematici, in quanto lo zero
assoluto degli strumenti di misura è fissato in modo del tutto arbitrario. Da
questo punto di vista le misure in psicologia sono spesso simili alla misura
della temperatura in gradi Celsius:
data l’esistenza di una relazione di
ordine che conserva le distanze relative si può identificare un legame tra i
rapporti delle differenze e l’insieme
dei numeri reali positivi. Questa tipologia di scala, in teoria della misurazione, è definita scala a intervalli.
N. 02ƒ
;2012
costrutti psicologici dal concetto di
misura fisica e aprendo la strada alla
Signal Detection Theory.
Tuttavia c’era un errore di fondo nell’impostazione fechneriana, che assumeva senza evidenze sperimentali
una natura quantitativa delle variabili
psicologiche, e tale omissione venne
pagata a caro prezzo con le conclusioni del Ferguson Committee, un
comitato istituito nel 1932 dalla British Association for the Advancement
of Science, al fine di valutare la reale
possibilità di misure quantitative degli
eventi sensoriali. La commissione, presieduta dal fisico A. Ferguson, stabilì
in due report del 1938 e del 1940
come non ci fossero gli estremi per
connotare le variabili sensoriali come
misurabili fintanto che non si fosse
dato un significato al concetto di additività e di unità di misura per le sensazioni (Michell, 1999).
La teoria della misura infatti, sviluppatasi in quegli anni ben al di fuori dell’ambito delle scienze psicologiche,
pur essendosi discostata dall’iniziale
definizione di misura euclidea (ricalcato anche dai lavori di Hölder;
Michell and Ernst, 1996) e avendo
assunto, grazie a Russell, Nagel e
Campbell, una natura rappresentazionale, dove il concetto di misurazione
era legato all’esistenza di una rappresentazione numerica del fenomeno
empirico e delle sue relazioni, aveva
ben presente la necessità di verificare
con il metodo sperimentale la natura
quantitativa o meno di una specifica
grandezza. La psicofisica e i metodi
indiretti di Fechner non ricadevano
perciò all’interno della teoria della
misura, per com’era stata definita da
Campbell (per inciso, uno dei membri
più importanti e influenti del comitato), focalizzandosi sull’aspetto strumentale più che sull’aspetto scientifico
della quantificazione delle variabili
(Michell, 1999).
Eppure fu proprio tale conclusione a
scatenare una progressiva rivoluzione. La prima reazione ai report del
comitato fu di Stevens (1946, 1957)
che introdusse un radicale cambio di
paradigma nelle metodologie di misura in psicologia, introducendo i metodi diretti, cioè una serie di metodolo-
▲
Assumono quindi particolare importanza l’attendibilità, intesa come precisione della misura nel ridurre l’errore casuale, e la validità della misura,
intesa come il grado in cui uno strumento misura ciò che in effetti si prefigge di misurare; per esempio discriminando tra costrutti diversi e convergendo sullo stesso costrutto quando si
applicano metodi diversi. È evidente
come l’attendibilità di una misura sia
una condizione necessaria ma non
sufficiente alla sua validità.
Da un punto di vista storico, nonostante alcuni precedenti tentativi senza successo come quelli di Herbart (Michell,
1999), la nascita della misurazione in
psicologia si può collegare alla ricerca
empirica di Weber e alla nascita della
psicofisica (Fechner, 1860), oggi intesa come lo studio scientifico della relazione tra stimolo e sensazione. In particolare, la psicofisica classica, si occupava dello studio delle soglie assolute
e differenziali attraverso l’uso di metodi indiretti nei quali il valore attribuito
alla sensazione è “letto” sugli apparecchi che misurano gli stimoli fisici.
Tra questi metodi è interessante citare il
metodo degli stimoli costanti, precursore della ben nota Probit Analysis di
Chester Ittner Bliss (Finney, 1947). Il
culmine della psicofisica fechneriana
può essere considerato la formalizzazione in una legge logaritmica della
relazione esistente tra il continuum psicologico e quello fisico.
Anche se la derivazione seguita da
Fechner (1860) per ottenere la legge
psicofisica a partire dalla relazione
empirica di Weber, sarebbe stata in
seguito dimostrata da Luce e Edwards
(1958) come circoscritta al solo caso
logaritmico (corrispondente a una funzione di Weber lineare) l’idea di misurazione in psicologia era ormai stata
introdotta, tanto che negli anni successivi, seguendo le orme della Psicofisica, Spearman (1904) gettò le basi
per l’Analisi fattoriale e Binet (1905)
creò i primi test per l’intelligenza
aprendo la strada alla teoria classica
dei test (filone più recentemente sfociato nella Item Response Theory),
mentre Thurstone (1927) sviluppò il
metodo della comparazione a coppie, slegando la misurazione dei
GLI
ALTRI TEMI
gie dove i soggetti attribuiscono direttamente un valore numerico alla sensazione percepita. Tali metodi non
solo portarono a una diversa formulazione della legge psicofisica (Stevens,
1957), ma anche a una deriva operazionista della definizione di misura.
Stevens infatti definì, in modo del tutto
empirico, vari tipi di scale (nominale,
ordinale, intervalli, rapporti) nelle
quali le misurazioni ricadono: a ogni
scala corrispondono trasformazioni
ammissibili dei dati e specifiche statistiche ammesse dalla natura stessa
dei dati. Alla base vi era la visione
che la misurazione corrispondesse a
un “processo di assegnare numeri
secondo una regola” (Stevens, 1946).
Se da un lato a Stevens bisogna riconoscere il pregio di aver colto ciò che
anche a Campbell era sfuggito, e cioè
l’essenza di quel che poi sarebbe
diventato il nucleo della teoria assiomatica della misura, dall’altro bisogna
riconoscere che la sua definizione operazionista del processo di misurazione
contribuì solo ad aumentare la separazione tra scienze quantitative e psicologiche, allontanando dalla mente
degli psicologi la necessità scientifica
di verificare la natura quantitativa delle
loro variabili (Michell, 1999).
I semi per la rivoluzione erano però
ormai stati gettati e una maggiore formalizzazione delle idee di Stevens,
nel contesto di sistemi non empirici
ma formali, venne con l’ulteriore sviluppo del metodo di costruzione di
scale a intervalli basato sui modelli
logistici semplici (Rasch, 1960), la
costruzione di una teoria assiomatica
della misura (Suppes & Zinnes, 1963;
Pfanzagl, 1968; Luce et al., 1990;
Luce & Narens, 1994) basata sull’invarianza per trasformazioni ammissibili e sulla significanza delle statistiche, e con lo sviluppo della teoria
della
misurazione
congiunta
(Debreau, 1960; Luce & Tukey, 1964)
che rivelò l’erroneità dell’assunzione
di Campbell secondo la quale la misura nelle scienze psicologiche non era
possibile a causa dell’assenza di
un’operazione di concatenazione. La
misurazione congiunta mostra infatti
una via per verificare la presenza di
relazioni additive, entro gli attributi,
T_M ƒ 129
attraverso l’esistenza di relazioni
additive tra gli attributi stessi e ha una
delle sue applicazioni più rappresentative nella “Prospect Theory” (Kahneman & Tversky, 1979). Tali argomenti
saranno però affrontati nella seconda
parte di questa rassegna.
RIFERIMENTI BIBLIOGRAFICI
▼
A. Binet (1905). L’Etude éxperimental
de l’intelligence. Paris, Schleicher.
G. Debreu (1960). Topological
methods in cardinal utility theory. In K.
J. Arrow, S. Karlin, & P.
P. Suppes (1959, Eds.). Mathematical
methods in the social sciences (pp. 1626). Stanford: Stanford Univ. Press.
G. Th. Fechner (1860). Elemente der
Psychophysik. Breitkopf und Härtel,
Leipzig.
D.J. Finney (1947). Probit analysis; a
statistical treatment of the sigmoid
NEWS
MICROFONI IN PRONTA
CONSEGNA CON LA
SEMPLICITÀ DELLA
TECNOLOGIA ICP ®
PCB Piezotronics offre
una varietà
di prodotti
per le misure acustiche, tra cui
microfoni ICP® prepolarizzati serie 377
(moderna versione del tradizionale microfono a condensatore esternamente polarizzato), microfoni ad array, microfoni piatti e
microfoni per impieghi speciali. La linea dei
microfoni è integrata da un assortimento di
preamplificatori, condizionatori di segnale,
filtro di ponderazione A, calibratori portatili e accessori. Tutti i prodotti acustici PCB®
vengono utilizzati in una varietà d’industrie
tra cui: automotive, aerospaziale e difesa,
OEM, università, consulenti, elettrodomestici, ricerca e sviluppo, ecc.
PCB® è l’inventrice della tecnologia ICP®,
parte integrante del progetto dei moderni
microfoni prepolarizzati, ed è fra i pionieri nella microelettronica: questo dimostra i nostri continui investimenti in ricerca
avanzata per essere sempre all’avanguardia nei progetti acustici.
T_M ƒ 130
N. 02
01ƒ
; 2012
▲
GLI
ALTRI TEMI
response curve. Oxford, England:
Macmillan.
D. Kahneman, A. Tversky (1979). Prospect theory: an analysis of decision
under risk. Econometrica, 47,
263–291.
R.D. Luce, W. Edwards (1958). The
derivation of subjective scales from
just noticeable differences, The
psychological review, 65(4), 222238.
R.D. Luce, J.W. Tukey (1964). Simultaneous conjoint measurement: a new
scale type of fundamental measurement. Journal of Mathematical Psychology, 1, 1–27.
R.D. Luce, L. Narens (1994). Fifteen
problems concerning the representational theory of measurement, in P.
Humphries, (ed.), Patrick Suppes:
Scientific Philosopher, Vol. 2, Dordrecht: Kluwer, pp.219-49.
R.D. Luce, D.H. Krantz, S. Suppes, A.
Tversky (1990). Foundations of MeaI microfoni prepolarizzati hanno molti vantaggi rispetto ai modelli esternamente polarizzati, soprattutto nell’ambito delle applicazioni portatili o dell’uso in ambiente
esterno (“prove sul campo”) con elevati
tassi di umidità.
I microfoni di misura PCB sono conformi
allo standard di alta qualità IEC 61094-4,
quindi in classe 1, e hanno un campo di
temperatura esteso fino a 80 °C, con una
versione HT fino a 120 °C (Industry exclusive). Il risultato è che la performance è
migliorata, la gamma dinamica può rimanere precisa per un intervallo di temperatura maggiorato e il loro rumore di fondo è
molto basso.
Calibratori acustici di precisione portatili:
PCB® offre calibratori per microfoni, leggeri, portatili con funzionamento a batteria,
che soddisfano gli standard IEC e ANSI.
PCB® realizza anche un sistema di taratura
acustico allo stato dell’arte. Tutti i rapporti
di prova e i certificati di taratura mostrano
la risposta in frequenza del microfono alla
pressione (con l’utilizzo dell’attuatore) e al
campo libero, la sua correzione, le condizioni in cui è stata eseguita la taratura, i
relativi fattori di incertezza e le attrezzature utilizzate. La taratura dei microfoni di
riferimento è tracciabile attraverso documentazione PTB e la maggior parte delle
tarature sono A2LA, che per il mutuo riconoscimento interlaboratori (ILAC_MRA)
sono equivalenti ai certificati ACCREDIA.
Per ulteriori informazioni:
www.pcbpiezotronics.it
ILAC_MRA
è giusto il trattino basso
surement, Vol. 3: Representation,
Axiomatization and Invariance. San
Diego: Academic Press
J. Michell (1999). Measurement in
psychology: a critical history of a
methodological concept. New York:
Cambridge University Press.
J. Michell, C. Ernst (1996). The
axioms of quantity and the theory of
measurement, Part I, An English translations of Hölder (1901), Part I, Journal of Mathematical Psychology,
40,235-252.
J. Pfanzagl (1968). Theory of measurement. Wiley, Oxford.
G. Rasch (1960). Probabilistic models
for some intelligence and attainment
tests. Copenhagen: Danish Institute for
Educational Research.
C. Spearman, (1904). General intelligence, objectively determined and
measured. American journal of
psychology, 15, 201-293.
S.S. Stevens (1946). On the theory of
scales of Measurement. Science, 103
(2684): 677–680.
S.S. Stevens (1957). On the
psychophysical law. Psychological
Review, 64, 153-181.
P. Suppes, J. Zinnes (1963). Basic
measurement theory, in R.D. Luce,
R.R. Bush, E. Galanter, (eds.), Handbook of mathematical psychology,
Vol. I, New York: wiley, pp. 1-76.
L.L. Thurstone (1927). A law of comparative judgement. Psychological
Review, 34, 273-286.
Stefano Noventa è assegnista di ricerca presso
il Dipartimento di Psicologia Generale dell’Università degli Studi di Padova.
Si occupa di Psicometria,
Psicofisica e Psicologia
Matematica.
Giulio Vidotto è professore Ordinario di Psicometria presso il Dipartimento
di Psicologia Generale
dell’Università degli Studi
di Padova. Si occupa di
Psicometria, Percezione e
Psicofisica, Psicologia Matematica, Testing
e Psicologia della Salute.
CURRICULUM NOVENTA
è brutto, puoi aggiungere
qualcosa?
GLI
ALTRI TEMI
▲
I LABORATORI DI PROVA
Michele Lanna
La valutazione della competenza
nei laboratori di prova e taratura
Un metodo per valutare la competenza del personale
COMPETENCE EVALUATION IN TEST AND CALIBRATION
LABORATORIES
Test and calibration laboratories need the presence of personnel with suitable technical competences. To do so, they need to enroll new units with a
suitable evaluation program. In addition, training courses have the scope of
updating the competences of the enrolled personnel. The article deals with
evaluation procedures of competences, to help test and calibration laboratories to operate properly.
RIASSUNTO
I laboratori di prova e taratura devono essere in grado di approvvigionarsi di personale con competenze adeguate e valutare periodicamente queste competenze, arricchendole con opportuni programmi di formazione.
L’articolo riguarda le procedure di valutazione delle competenze per un
funzionamento ottimale dei laboratori di prova e taratura.
PREMESSA
La UNI CEI EN ISO/IEC 17025:2005
si basa sul concetto di “competenza”,
definita come: “Ciò che una persona
dimostra di saper fare (anche intellettualmente) in modo efficace, in relazione a un determinato obbiettivo, compito o attività assegnati. Il risultato dimostrabile ed osservabile di questo comportamento competente è la prestazione o la performance”. Basilare per
l’applicazione della norma all’interno
di un laboratorio è che questo sia dotato di un sistema per assicurarla, in relazione ai compiti e alle responsabilità
assegnate agli addetti.
Che cosa si intende per competenza
nella UNI CEI EN ISO/IEC 17025?
Ogni laboratorio di prova o di taratura deve declinare al proprio interno le
competenze che, a seconda delle specificità delle prove o tarature da effettuare, delle esigenze normative e
delle richieste del Cliente, sono ritenute più consone ad assicurarla.
La norma (che per brevità d’ora in poi
chiameremo ISO/IEC 17025) richiede
una pluralità di competenze, che hanno
il loro fulcro nelle risorse umane, chiamate a dover conoscere, applicare e
patrimonializzare sia requisiti tecnici
che gestionali, sia requisiti normativi
volontari che cogenti, nonché le specifiche dei Clienti. La competenza può essere definita e valutata nelle fasi descritte
in Fig. 1, che qui commentiamo.
Le azioni da mettere in atto per assicurare le competenze partono dalla
definizione dei criteri di reclutamento,
condizione indispensabile per disporre di risorse idonee agli obiettivi da
raggiungere. Le risorse da reclutare
(dall’esterno, attraverso assunzione, o
da altre aree dell’organizzazione)
devono essere individuate in relazione a un profilo indicato dal responsabile del laboratorio. La verifica della
rispondenza o meno delle competenze possedute dal personale da inserire nella posizione costituisce l’attività
qualificante per la decisione di scelta
della risorsa da acquisire.
La seconda fase da assicurare è quella dell’identificazione delle esigenze
di competenza, da considerare in funzione di (i) tipologia di prove da effettuare, (ii) caratteristiche del processo
di misura (apparecchiature, metodi,
condizioni ambientali, materiali, misurando), (iii) obiettivi del laboratorio,
(iv) esigenze derivanti dal rispetto di
T_M
Figura 1 – Definizione e valutazione
della competenza
normative cogenti e volontarie, (v) esigenze del Cliente, (vi) altre esigenze
del laboratorio.
Le competenze devono essere definite
a tutti i livelli della struttura del laboratorio e individuate con riferimento
alle specificità del laboratorio. L’efficace coniugazione dei ruoli assegnati a ognuno con le competenze da
assicurare rappresenta la premessa
per la messa a punto di un sistema
valido e funzionale alle esigenze del
laboratorio.
Studio Lanna & Associati, Roma,
[email protected]
N.
2/12 ƒ 131
▲
GLI
ALTRI TEMI
La mappa delle competenze rappresenta un primo momento di sintesi, riferimento efficace per ogni analisi e valutazione di fattibilità di prove o tarature
che fossero richieste. Essa rappresenta
altresì un momento per valutare e
riesaminare, quando necessario, le
abilità del laboratorio in relazione agli
obiettivi stabiliti; infine è la premessa
per l’attuazione del punto successivo
(requisiti minimi di competenza).
La definizione dei requisiti minimi di
competenza per il corretto svolgimento dei ruoli assegnati trae la sua
importanza dalla necessità di dover
conoscere esattamente quali debbano
essere questi punti di riferimento,
garanzia per la corretta gestione del
processo di misura.
Le competenze minime per svolgere i
ruoli assegnati dipendono innanzitutto dal tipo di ruolo da ricoprire nella
struttura organizzativa del laboratorio. Possono essere: di base, tecnico
professionali, trasversali. Si intendono
per competenze di base tutti gli elementi riconosciuti come prerequisiti
per svolgere i ruoli assegnati in
maniera conforme ai requisiti applicabili. Le competenze tecnico-professionali sono costituite dai saperi e dalle
abilità tecniche connesse all’esercizio
delle attività operative richieste dal
processo di prova (metodi, apparecchiature, materiali, ambiente richiesti
per la prova). Le competenze trasversali rappresentano quelle richieste per
svolgere un ruolo dal contenuto
ampio. Si evidenzia che figure quali il
responsabile tecnico o il responsabile
qualità richiedono, ad esempio, tra i
requisiti minimi, anche competenze
Figura 2 – Esempio di schema
della competenza
T_M ƒ 132
statistiche che permettano l’interpretazione dei dati prodotti dal laboratorio
(distribuzioni statistiche e loro interpretazioni, competenza nell’applicazione di specifici algoritmi di calcolo,
ad esempio per calcolare l’incertezza
di misura, piani di campionamento
per variabili e/o per attributi, ecc.).
Per focalizzare i requisiti minimi partiamo dalla mappa delle competenze
definite e prendiamo in esame quelle
necessarie per gestire il processo di
misura, considerato nelle peculiarità
necessarie alla gestione. La corretta
rispondenza tra i requisiti posseduti e
quelli necessari a gestire le attività
assegnate assicura l’ottimale operatività del laboratorio.
L’Abilitazione alla prova costituisce
l’evidenza della definizione delle esigenze di competenza. Il riconoscimento del corretto svolgimento delle
prove (ovvero entro i limiti di prestazione del metodo, ove applicabile) o
della validazione, nel caso di metodi
non normati (dati statistici entro i limiti prestabiliti dalla norma o dal laboratorio - confronto con esito positivo
tra i dati del personale ritenuto storicamente abilitato e quelli generati
dall’operatore), rappresentano per gli
addetti alle prove l’evidenza dell’abilitazione alla prova. Esempi di parametri sono: dati di precisione, confronti con gli scarti tipo del metodo,
accuratezza, esattezza.
In linea di massima le figure principali
nei confronti delle quali valutare la competenza sono: responsabile legale,
responsabile tecnico, responsabile qualità, addetti alle prove o tarature. In Fig. 2
è riportato un possibile schema di requisiti minimi di competenza per i diversi
livelli della struttura del laboratorio.
Nel caso in cui le competenze possedute dal personale non siano in grado
di soddisfare i requisiti minimi di competenza, il laboratorio dovrà attivare
un processo di addestramento in
grado di conferire al personale, a tutti
i livelli, queste competenze. L’adozione di un percorso di addestramento
efficace è un aspetto particolarmente
significativo per la direzione del laboratorio, che è chiamata a una progettazione attenta degli interventi più
consoni all’acquisizione delle compe-
Figura 3 – Schema di addestramento
del personale
tenze richieste. Le modalità di addestramento possono essere diverse e
sono da valutare in relazione alle specificità del laboratorio, della popolazione da coinvolgere, delle esigenze
specifiche. In tal senso, gli interventi
possono essere effettuati in aula, sul
campo o in altra maniera.
In Fig. 3 è riportato uno schema di
addestramento, nel quale è possibile
riconoscere le tipologie di azioni da
effettuare: quelle possedute per conoscenza scolare, quelle acquisite attraverso l’esperienza, infine quelle da
acquisire attraverso l’addestramento,
il tutto in relazione alle esigenze di
conoscenza (necessarie per acquisire
competenza) richieste dal laboratorio
a tutti gli operatori e ai responsabili.
LA VALUTAZIONE
DELLA COMPETENZA
I criteri di valutazione delle competenze devono essere la logica conseguenza di un processo che parte dalla
definizione dei ruoli, dei saperi minimi
richiesti e infine deve fornire un metodo semplice ed efficace per una misurazione puntuale e facile da applicare. Da quanto detto finora è impensabile applicare un metodo univoco per
misurare le competenze a tutti i livelli
della struttura di un laboratorio. Bisogna invece adottare metodi diversi di
misurazione, in funzione del ruolo
assegnato e della sua ampiezza:
quanto più questo è ristretto e circoscritto ad attività tecnico-operative,
tanto più la misura può essere effettuata attraverso indicatori legati al processo di misura. Viceversa, quanto più
il ruolo svolto ha una valenza gestionale, tanto più la competenza deve
essere valutata attraverso strumenti in
grado di verificare il profilo professionale di ognuno.
Definiamo i passi da compiere per la
valutazione delle competenze:
N. 02ƒ
;2012
a) Pianificare il processo di misura
delle competenze – Pianificare significa considerare la competenza come
un elemento valutabile. Deve essere
effettuata un’analisi puntuale di tutti gli
elementi che concorrono a formare la
competenza all’interno del processo di
misura. La pianificazione richiede una
definizione degli aspetti oggetto della
misura a tutti i livelli della struttura di un
laboratorio. Ad esempio: il responsabile tecnico di un laboratorio deve saper
definire un budget dell’incertezza di
misura per la prova o taratura effettuata; gli addetti alle prove devono produrre un errore di misura il più possibile coincidente con l’errore massimo
ammissibile dal laboratorio per quella
prova (il cosiddetto “the best” del laboratorio). Lo sviluppo di un sistema di
misura delle competenze è quindi un
obiettivo preliminare a ogni rilevazione
e successiva messa a punto di un sistema di valutazione delle competenze.
Deve inoltre essere pianificato il sistema di misura dell’efficacia, in relazione alle competenze minime richieste
per il ruolo e agli obiettivi di qualità del
laboratorio. Le misure predisposte per
valutare le competenze saranno riportate nella scheda personale.
b) Misurare ciò che è importante –
All’interno di ogni laboratorio esistono certamente specificità che concorrono alla creazione di un insieme
strutturato di competenze. Esistono
però aspetti comuni a tutti i laboratori
che concorrono a formare la competenza. Al fine di misurare le competenze, devono essere prese in considerazione le tematiche metrologiche
indicate in Fig. 4.
Approfondiamo il criterio di valutazione delle competenze.
1. Aspetti generali di metrologia – Le
competenze che devono essere possedute sono: sistema di misura e unità
base del sistema internazionale; unità
derivate, multipli, sottomultipli e fattori
di conversione.
2. Sistema di misura e processo di
misura: caratteristiche e componenti;
tipi di standard di misura; metodi di
misura; errori di misura e criteri di
individuazione e gestione: casuali e
sistematici; condizioni ambientali per
le prove.
3. Sistemi di taratura – procedure di
taratura e metodi di taratura; condizioni ambientali per le tarature.
4. Statistica per metrologi: distribuzioni statistiche e loro costruzione e interpretazione; statistica descrittiva e suoi
principi; strumenti di analisi delle
cause dei problemi nel processo di
misura; carte di controllo e indici di
capacità del processo di misura, campionamento per variabili e attributi.
5. Sistema qualità e standard: procedure di prova e di taratura in relazione
alle norme; contenuto dei rapporti di
prova e taratura; pianificazione della
qualità e fissazione obiettivi; audit del
sistema qualità; gestione delle non conformità; azioni correttive e preventive;
miglioramento della qualità; valutazione dei fornitori e i rating relativi.
6. Incertezza di misura: determinazione dell’incertezza e reporting;
budget dell’incertezza.
Non sono state considerate le competenze derivanti dalla conoscenza dei
requisiti di legge: per esempio, salute
e sicurezza sul lavoro, aspetti ambientali cogenti. Per l’acquisizione della
conoscenza e competenza specifiche
sono già previsti per legge percorsi
formativi e applicativi, nonché criteri
per la misurazione delle stesse. Le
Autorità competenti esercitano il loro
controllo sui singoli aspetti.
c) Strutturare un sistema di misura della
competenza, flessibile e adattabile a
mutati obiettivi e situazioni – Ciò implica pensare a criteri differenti di misura
in funzione del ruolo svolto all’interno
della struttura del laboratorio. Ad
esempio, chi emette giudizi o valutazioni sui risultati di prova deve dimostrare una competenza diversa rispetto
a chi esegue le prove/tarature richieste. Più il ruolo svolto è circoscritto a un
ambito di competenze ristretto, tanto
più sarà facile misurarle. Se, viceversa,
il ruolo svolto richiede competenze
ampie e diversificate bisognerà predisporre un sistema di misura che fornisca una valutazione su tutti gli aspetti
che caratterizzano la competenza. Le
valutazioni di tipo binario (“sì-no”) non
sempre rispondono a questa esigenza.
d) Mettere a punto un sistema di
rating delle competenze (es. percentuale di raggiungimento di obiettivi
Figura 4 – Schema delle tematiche
metrologiche comuni
stabiliti, valutazione periodica delle
competenze attraverso misura del
sapere posseduto). Quest’ultima
modalità può essere seguita con successo in presenza di cambiamenti
significativi del processo di misura
(nuove apparecchiature, nuovi metodi
di prova o taratura, nuove procedure,
ecc.) e può essere applicata con successo a livello di responsabili del
laboratorio.
e) Legare gli obiettivi del laboratorio
a una puntuale misura delle competenze, attraverso l’assegnazione di
target specifici. Le valutazioni specifiche della competenza possono essere
effettuate, in relazione alle tematiche
in precedenza elencate, accentuando
in maniera maggiore o minore alcuni
aspetti. Ad esempio: il responsabile
tecnico del laboratorio è chiamato a
una gestione operativa di tutto il processo di prova o taratura e, quindi, la
sua competenza dovrà essere valutata
su tutto il processo di misura e sulla
sua gestione, attraverso la definizione
di obiettivi specifici. La misura della
competenza sarà fornita dal grado in
cui il responsabile tecnico ne assicurerà il raggiungimento. La competenza del responsabile qualità sarà misurata attraverso il grado di conformità
del sistema qualità a quanto stabilito
(sia da un punto di vista documentale,
sia per quanto concerne il processo di
prova o di taratura, nonché la capacità di valutare la conformità durante
gli audit interni, in relazione a tutti gli
aspetti del processo di misura: un
esempio per tutti può essere la valutazione della corretta determinazione
dell’incertezza di misura).
Nella Tab. 1 si riporta un esempio di
possibile valutazione delle competenze.
Il mantenimento in qualifica assicura
che la competenza posseduta è sempre adeguata agli obiettivi stabiliti.
Essa deve essere misurata per mezzo
di idonei indicatori. In Fig. 5 è rap-
T_M ƒ 133
Tabella 1 – Esempio di valutazione delle competenze
▲
GLI
ALTRI TEMI
presentato un esempio non esaustivo,
ma solo indicativo, di possibili indicatori. La verifica puntuale del grado di
raggiungimento degli obiettivi è effettuata attraverso gli audit interni del
sistema di gestione per la qualità del
laboratorio.
CONCLUSIONI
Da quanto detto emergono i seguenti
punti qualificanti:
1. La competenza del personale che
opera all’interno di un laboratorio si
può misurare e valutare;
2. Ogni laboratorio deve identificare
il proprio metodo per valutare le competenze del proprio personale. Prendere a prestito schemi predefiniti può
essere fuorviante e non rispondere
agli obiettivi;
3. La valutazione deve essere continua. A tale scopo deve essere istituzionalizzato un metodo che permetta
di valutare, a cadenze prestabilite,
tutte le competenze del laboratorio.
Lo Studio Lanna & Associati organizza il seminario:
“LA VALUTAZIONE DELLA COMPETENZA
NEI LABORATORI DI PROVA E TARATURA”
Come trarre valore aggiunto da un accurato sistema di gestione delle competenze per migliorare la competitività aziendale
Volete sapere quanto valgono le risorse umane del vostro laboratorio e come trasformarle in uno strumento competitivo?
Partecipate al Seminario che si terrà a Torino e Roma nel prossimo autunno
(date in fase di definizione)
Figura 5 – Esempio di Indicatori
di misura della competenza
Michele Lanna, Consulente senior, opera in
molti laboratori di primarie aziende italiane.
Ha sviluppato diversi
sistemi qualità in accordo alla norma UNI CEI EN ISO/IEC
17025 e ha svolto attività di formazione in campo metrologico. È titolare
dello Studio Lanna & Associati di
Roma.
T_M ƒ 134
Obiettivi: il seminario offrirà ai partecipanti un metodo di valutazione delle
competenze nei laboratori di prova e taratura.
Destinatari: Decisori aziendali e Responsabili Tecnici operanti in laboratori
privati e pubblici o interni ad aziende manifatturiere.
Temi trattati: I criteri di valutazione delle competenze del personale – I metodi adottabili all’interno dei laboratori di prova e taratura – Saranno presentate
testimonianze di Laboratori che hanno già adottato un efficace sistema di valutazione delle competenze.
Per ricevere senza impegno il programma, scrivete a: [email protected]
La partecipazione al seminario comprende: il materiale didattico presentato, 2
coffe break, colazione di lavoro.
Via A. Nibby 3 - 00161 Roma
Tel e Fax: 06/44233590
www.studiolanna.it
GLI
ALTRI TEMI
▲
ENERGIA E MISURE
Attilio Di Nisio, Mario Savino, Maurizio Spadavecchia
Politiche energetiche
e sistemi di monitoraggio
Seconda parte
ENERGY POLICIES AND MONITORING SYSTEMS
The large scale use of monitoring systems allows both an accurate check on
the kilowatt hour cost along the day and a more effective reward policy in
favour of the users who produce energy in higher demand time slots.
Through the widespread adoption of these technologies by consumers and
industries, suppliers can provide more efficient and tailor-made services.
RIASSUNTO
L’utilizzo su larga scala dei sistemi di monitoraggio permette da un lato una politica di controllo più attento del costo del kilowattora durante la giornata, dall’altro una più efficace politica d’incentivazione per gli utenti attivi, favorendo
chi produce in fasce orarie di maggior richiesta. Attraverso la capillare penetrazione di queste tecnologie sia nel settore domestico che industriale i gestori
possono fornire un serie di servizi moderni e su misura per ogni cliente.
SORGENTI IMPREVEDIBILI
Il problema fondamentale dell’energia
ottenuta da fonti rinnovabili (solare,
eolico, ecc.) è che queste non sono sorgenti prevedibili (sono anche dette
“intermittenti”), per cui il gestore della
rete riesce con molta difficoltà ad
accumulare o smaltire grandi quantità
di energia in eccesso, così come non
può affidarsi a queste fonti per pianificare i flussi di potenza nelle ore più critiche della giornata.
Oggi si punta pertanto a sviluppare tecnologie che consentano di valutare in
tempo praticamente reale le fonti energetiche attive in una data area e in certe
condizioni ambientali (per esempio, in
una giornata assolata) e di determinarne il costo. In questo modo si consentirebbe, ad esempio, a grandi complessi
industriali di organizzare in modo ottimale ed economico i propri processi
gestendo l’accensione o lo spegnimento
di attrezzature a elevato consumo. Inoltre l’accesso a una quantità di dati di
esercizio ben maggiore rispetto al passato permette di attuare realmente tecniche di manutenzione preventiva, nonché di gestire meglio i flussi di potenza
in modo da ridurre il rischio di collasso
della rete ed il conseguente blackout.
I sistemi di supervisione e controllo
possono quindi essere considerati uno
dei “mattoni fondamentali” delle grandi stazioni di generazione elettrica,
sia tradizionali sia rinnovabili, perché
sono uno strumento a supporto del
processo decisionale nella gestione
delle risorse energetiche.
SUPERVISIONE DI IMPIANTI SOLARI
Poiché un impianto fotovoltaico rappresenta un investimento (spesso ingente)
con un ritorno nel medio-lungo periodo,
è indispensabile tenere sempre sotto controllo le sue prestazioni. Tuttavia, l’alto
costo globale degli impianti spinge spesso gli investitori a risparmiare proprio sul
sistema di monitoraggio, che è ritenuto
nella maggior parte dei casi “opzionale”. La norma CEI 82-25, nell’ottica di
rendere il “proprietario” dell’impianto
fotovoltaico informato e cosciente, al
par. 8.3 raccomanda: “È opportuno che
un impianto fotovoltaico o ciascuna sua
sezione sia dotato di un sistema di misura dell’energia prodotta (cumulata). A tal
fine, potrebbero essere utilizzate le misure effettuate direttamente dagli inverter.
Tuttavia poiché tali misure sono effettuate
dagli inverter con il solo scopo di gestire
il proprio funzionamento, esse potrebbero essere affette da un’incer-
T_M
tezza anche superiore al 5%. Pertanto, il progettista dovrà valutare l’opportunità di utilizzare tali misure”.
Ovviamente, quando si progetta un sistema di monitoraggio occorre valutarne
attentamente le finalità, poiché la complessità e il costo dipendono dal numero
di grandezze da tenere sotto controllo e dall’accuratezza di misura. Per l’investitore può essere di notevole interesse
valutare lo scostamento tra l’uscita teorica attesa e la produzione reale, in modo
da identificare possibili condizioni di
malfunzionamento e porre in atto le corrispondenti misure di manutenzione. Nei
casi più complessi, quando si caratterizzano nuove tecnologie o si sperimentano impianti “pilota”, oltre alla misura
delle grandezze elettriche in uscita (tensioni, correnti) occorre determinare
anche temperatura, irraggiamento, umidità, velocità del vento, ecc. La comunità tecnico-scientifica ha sviluppato diverse esperienze relative allo sviluppo di
piattaforme interattive e di cloud computing in grado di gestire campi fotovoltaici e/o wind farm decentralizzati monitorando non solo quantità e qualità dell’energia prodotta, ma anche lo stato di
funzionamento dei singoli componenti,
con la possibilità di analizzare ed elaborare dati sia real-time sia storici o
ancora post-evento (nel caso di guasti o
eventi metereologici severi).
ARCHITETTURE CHIUSE O APERTE
L’architettura base dei sistemi di monitoraggio commerciali prevede l’uso di
datalogger le cui prestazioni, in termini
di velocità di comunicazione con i sistemi di elaborazione, dipendono dalla
particolare interfaccia utilizzata (RSPolitecnico di Bari, Prima Facoltà
di Ingegneria
[email protected]
N.
2/12 ƒ 135
▼
485, USB, Ethernet, Wi-Fi, GSM ecc.).
Generalmente la strategia commerciale
dei grandi produttori di sistemi fotovoltaici consiste nel vendere soluzioni chiavi in mano comprensive del monitoraggio remoto, della gestione degli allarmi
e dell’archiviazione/pubblicazione dei
dati; i vari componenti però sono “chiusi” ovvero un utente non può accedere
ai dati grezzi o utilizzare componenti
di altri produttori. Questo condiziona i
progettisti a fornirsi da un unico interlocutore per tutti i componenti necessari.
Inoltre software e firmware di gestione
sono di tipo proprietario: non è quindi
possibile modificare né l’interfaccia
utente né gli algoritmi utilizzati per le
varie stime. In tal modo diventa difficile
seguire rapidamente e senza costi di
upgrade l’evoluzione normativa e tecnica del settore o correggere eventuali
bug. Il fattore chiave con il quale i piccoli produttori invece cercano di ritagliarsi fette di mercato è l’interoperabilità, commercializzando sistemi “aperti” che danno la possibilità agli utenti di
NEWS
KISTLER VA OLTRE
I LIMITI: SENSORI
AD ALTA TECNOLOGIA
PER APPLICAZIONI
HEAVY-DUTY
I sensori e i sistemi della Kistler
sono in grado di offrire impressionanti prestazioni negli ambiti applicativi in cui le soluzioni proposte
da altri fornitori mostrano chiari
limiti. Con il suo motto “Kistler va
oltre i limiti” la multinazionale svizzera enfatizza una propria caratteristica peculiare: quella di poter
offrire nel suo catalogo sensori di
pressione, forza, coppia e accelerazione.
Elevate sensibilità, estremi intervalli di misura, eccezionali temperature di funzionamento e particolare
flessibilità a livello applicativo rappresentano gli esclusivi vantaggi
offerti dai sensori Kistler nelle ap-
T_M ƒ 136
N. 02ƒ
; 2012
▲
GLI
ALTRI TEMI
abbassare i costi cercando componenti
con il miglior rapporto qualità/prezzo.
Senza ombra di dubbio l’approccio più
generale e flessibile, nonché più diffuso
in ambito scientifico, si basa sull’utilizzo
di schede di acquisizione (DAQ) che
implementano il paradigma degli “strumenti sintetici”, ovvero sistemi hardware
modulari e riconfigurabili. L’utilizzo combinato con ambienti di sviluppo open
source consente di creare interfacce
utente ad hoc e implementare gli algoritmi di elaborazione dati, tra cui quelli per
il calcolo degli indici di power quality.
Nel caso di più impianti fotovoltaici distribuiti sul territorio, i dati acquisiti nei
punti di sensing sono inviati a un Data
Base (DB) centralizzato. Questo tipo di
architettura permette di valutare in ogni
momento l’efficienza e l’affidabilità degli
impianti raccogliendo dati sia ambientali sia relativi alla produzione.
Con riferimento a sistemi di monitoraggio su Internet, è utile distinguere tre funzionalità principali implementate, a titolo
di esempio, da altrettanti software open
source: immagazzinamento dei
dati in un data base MySQL; elaborazione, utilizzando il linguaggio PHP,
che consente di sviluppare applicazioni
lato server e di creare pagine web dinamiche; presentazione dei dati attraverso un web server http, come Apache,
agli utenti autorizzati, che possono visualizzarli utilizzando un comune browser.
Questa architettura consente quindi a un
utente di consultare una grande quantità
di dati storici utilizzando un DB in modo
trasparente senza conoscerne effettivamente la struttura. Affinché la gestione
dei dati non sia oggetto di pratiche commerciali scorrette è opportuno che le procedure di monitoraggio on-line siano
protette da opportuni sistemi di sicurezza
informatici, tra cui la crittografia e la definizione di livelli d’accesso distinti tra
utenti ed amministratori.
plicazioni industriali e di laboratorio.
I sensori e gli elementi di misurazione Kistler spesso superano i sensori
tradizionali, in vari ambiti: i sensori
di pressione, ad esempio, possono
operare in presenza di temperature
di esercizio estreme, di eccezionali
frequenze naturali e sensibilità particolarmente elevate; i sensori di forza coprono una gamma straordinariamente ampia di campi di misura,
dai sensori di forza in miniatura
con 0 ... 200 N
fino ai sensori di
calibrazione
pressione e forza
0 ... 20 MN.
Dinamometri
compatti di svariate dimensioni
misurano le diverse
componenti
delle forze. I sensori di coppia
modulari KiTorq,
con unità separate di misura e di
valutazione della coppia, offrono
la massima precisione di misura
fino a 3.000 N⋅m. I sensori di
accelerazione piezoelettrici o
capacitivi della Kistler, estremamente leggeri ma robusti, operano
in una gamma di alte frequenze,
con elevata sensibilità e massima
dinamica.
CONOSCENZA = RISPARMIO
La filosofia della eco-sostenibilità tipica
Per ulteriori informazioni:
www.kistler.com
N. 02ƒ
;2012
implementati su larga scala e a livello
di singola utenza servizi quali la memorizzazione storica dell’assorbimento di ogni apparato e l’ottimizzazione
dinamica dei consumi. In un periodo
di crisi economica la corsa al fotovoltaico si sta arrestando anche in funzione della forte riduzione in Italia
degli incentivi alla produzione che si
attua con i recenti (e il prossimo) Conto Energia. Il mercato dei nuovi impianti è praticamente fermo e il nuovo
business, in cui progettisti e installatori
hanno possibilità di inserirsi, è proprio quello della manutenzione e del
monitoraggio, dando lustro a un settore fino a oggi trascurato.
L’aggiornamento delle infrastrutture di
supporto e di monitoraggio rappresentano quindi due tasselli fondamentali
verso una rete elettrica intelligente dove
consumatori e produttori di energia
potranno usufruire di servizi innovativi
finalizzati a migliorare l’efficienza energetica e a salvaguardare l’ambiente. La
Rete sta evolvendo verso la creazione
di isole energetiche omogenee che permetteranno di bilanciare dinamicamente il rapporto tra domanda e offerta,
facendo eventualmente ricorso anche a
tecniche di accumulo locale in batterie
ad alta capacità (tra cui quelle delle
autovetture elettriche).
Lo sviluppo di tecnologie nuove e più
performanti richiede sforzi di ricerca in
diverse discipline, tra cui il monitoraggio e la misura delle grandezze di interesse, indispensabile affinché il settore
della produzione di energia da fonti rinnovabili resti competitivo. Tutto ciò
richiede grandi investimenti nel medio e
lungo periodo, ma può diventare una
importante possibilità di lavoro per i
giovani laureati in ingegneria.
Nuove prospettive si aprono estendendo la filosofia dell’open source
dal software all’hardware. Strumentazione di misura basata su hardware
open source (OSHW) può essere vantaggiosa in termini di costi, di documentazione e, soprattutto, di una community che sviluppa il prodotto contiUNO SGUARDO
nuamente. Ad esempio, l’uso della
famosa piattaforma Arduino per la
AL FUTURO SOSTENIBILE
realizzazione di un contatore di enerPossiamo quindi ipotizzare un futuro, gia OSHW costituisce un modello
abbastanza prossimo, in cui saranno interessante che coinvolge in questo
■
delle fonti rinnovabili sta portando all’affermazione di un principio fondamentale, ovvero quello della condivisione delle
informazioni energetiche; si diffonde
sempre più l’uso di sistemi basati su display domestici, pagine web o applicazioni per smartphone, che consentono
agli utenti o alla comunità di conoscere i
propri dati energetici. Questa politica di
condivisione dell’informazione porta l’utente comune alla consapevolezza del
proprio fabbisogno energetico, e fornisce slancio al mondo scientifico per lo
sviluppo di nuovi algoritmi e procedure
per la gestione delle reti di distribuzione.
Nel febbraio 2009 Google lanciò un
progetto chiamato Google Power Meter
con lo slogan Track your energyUse
lessSave energy and money. Esso consisteva in un tool gratuito che permetteva
ai singoli utenti di registrare il loro consumo energetico giornaliero e di stimare
il consumo energetico medio annuo utilizzando un particolare contatore fornito
dalla Società elettrica americana. L’obiettivo era di rendere disponibile un
mezzo che consentisse di diventare consapevoli dei propri consumi e di ridurli
cambiando il proprio stile di vita, in
modo da contribuire attivamente a un
futuro più sostenibile. Inoltre gli utenti
entravano a far parte di una community
in cui ciascuno poteva condividere le
proprie esperienze in materia di risparmio energetico. Uno studio del Center
Point Energy Inc. del Department of
Energy ha rilevato che il 71% degli utilizzatori del servizio ha cambiato il proprio profilo di consumo a seguito dell’accesso chiaro ai dati energetici attraverso display domestici mentre i primi
risultati di un programma pilota tra IBM
e la municipalità di Dubuque (Iowa) ha
indicato un risparmio energetico fino
all’11% tra i propri residenti. Pur essendo conclusa l’esperienza di Google nel
settembre del 2011, questa ha di certo
segnato una strada che in qualche modo
può essere ancora battuta e sviluppata
anche nel settore della produzione.
GLI
ALTRI TEMI
campo di ricerca scienziati e, soprattutto, giovani ricercatori. Tuttavia l’aspetto principale da considerare è
che lo sviluppo di un’architettura aperta e facilmente accessibile da diverse
piattaforme permetterà a tutti di essere consci dei propri consumi o della
propria produzione, portando a un
maggior rispetto per l’ambiente.
Le uniche speranze per un futuro ecosostenibile sono il ricorso alle fonti di
energia rinnovabile e il libero accesso
alle informazioni. Occorre sviluppare
una coscienza e una cultura collettiva
con l’obiettivo e la convinzione che la
Natura continuerà a nutrire i suoi figli
come ha sempre fatto sin dagli albori
della specie umana.
Attilio Di Nisio è titolare di una borsa di studio
post-dottorato presso il
Politecnico di Bari. I suoi
interessi di ricerca includono: caratterizzazione
di convertitori A/D e
D/A; elaborazione e riconoscimento di
immagini; teoria della stima; sistemi per
le misure di power quality basati su
DSP; test e modellizzazione di pannelli
fotovoltaici.
Mario Savino è professore Ordinario di Misure
Elettriche ed Elettroniche
presso la Prima Facoltà di
Ingegneria del Politecnico di Bari. Si occupa di
misure elettriche, strumentazione elettronica biomedicale, sensori
e trasduttori. È Honorary Chairman del
Comitato Tecnico TC-4 “Measurement of
Electrical Quantities” della Confederazione Internazionale delle Misure
(IMEKO).
Maurizio Spadavecchia è Dottore di Ricerca
presso il Dip. di Elettrotecnica ed Elettronica del
Politecnico di Bari. Si
occupa di: test modellizzazione di pannelli fotovoltaici, sistemi di misura per power
quality, Smart metering, caratterizzazione di sensori per monitoraggio ambientale.
T_M ƒ 137
CAMPI E COMPATIBILITÀ
ELETTROMAGNETICA
▲
LA COMPATIBILITÀ ELETTROMAGNETICA
Carlo Carobbi1, Marco Cati2,3, Carlo Panconi3
Strumentazione di base nelle misure
di Compatibilità Elettromagnetica
Il Ricevitore EMI di radiodisturbi - prima parte
THE EMI RECEIVER
The standard electromagnetic radio frequency interference receiver (EMI receiver) is a fundamental tool for the measurement of all the quantities of interest in
electromagnetic compatibility (EMC). In this paper we start to analyze the elements of the EMI receiver, focusing on the main differences from the well-known
spectrum analyzer; then we describe the detection circuit with particular attention to the value presented on the display when a continuous sinusoidal signal
or an impulsive signal (wide band, repetitive or non-repetitive, coherent or non
coherent) is applied to the input of the EMI receiver.
RIASSUNTO
Il ricevitore standard di radio disturbi (EMI receiver) è uno strumento fondamentale nella misurazione di tutte le grandezze d’interesse della compatibilità elettromagnetica (CEM). In questo articolo analizzeremo inizialmente gli elementi costitutivi del ricevitore EMI soffermandoci sulle principali differenze rispetto al più noto analizzatore di spettro, per poi passare alla
descrizione del circuito di rivelazione con particolare attenzione al valore
presentato a video nel caso in cui venga applicato all’ingresso del ricevitore un disturbo sinusoidale permanente oppure un disturbo impulsivo (a
banda larga, ripetitivo o non ripetitivo, coerente o incoerente).
INTRODUZIONE
Come ricordato nel numero 4/2011
di Tutto_Misure, qualsiasi dispositivo
elettrico ed elettronico per essere
immesso sul mercato deve essere sottoposto a specifiche prove che, nell’ambito della compatibilità elettromagnetica, ne garantiscono la presunzione di conformità ai requisiti della direttiva europea 2004/108/CE [1]. In
particolare, per quanto riguarda le
prove di emissione condotta e quelle
di emissione radiata, lo spettro elettromagnetico emesso dal dispositivo sotto test (DUT) deve risultare contenuto
entro precisi limiti stabiliti dalla normativa. A differenza di quanto avviene in ambito militare [2] dove i limiti
sono espressi come limiti di picco e
dove viene quindi usato l’analizzatore
di spettro per confrontarsi con la normativa, in ambito civile, essendo i limiti espressi come limiti di quasi picco e
di valor medio per frequenze fino a 30
MHz e come limiti di quasi picco per
frequenze da 30 MHz fino a 1 GHz
T_M
N.
(Fig. 1), si rende necessario l’impiego
di uno strumento indicatore capace di
confrontare il livello di emissione generato dal DUT con i limiti stessi: questo
strumento è il ricevitore EMI di radiodisturbi. È opportuno osservare che in
ambito civile i limiti dipendono oltre
che dalla tipologia di
prodotto anche dall’ambiente nel quale
ne è previsto l’impiego (Classe A oppure
Classe B) [3, 4].
impiegato l’analizzatore di spettro. La
più importante differenza tra i due misuratori è caratterizzata dalla sezione
d’ingresso (vedi seguito) e dal rivelatore: “di quasi picco” per il ricevitore
EMI e “di picco” per l’analizzatore di
spettro.
Gli elementi costitutivi del ricevitore
EMI [5] sono quelli rappresentati in
Fig. 2 dove sono stati evidenziati i
blocchi non presenti in un analizzatore di spettro, ovvero il filtro preselettore, il preamplificatore a basso rumore
d’ingresso e il rivelatore di quasi picco. Si tratta essenzialmente di un ricevitore supereterodina che realizza
una traslazione dello spettro del
segnale d’ingresso nell’intorno della
frequenza intermedia (IF) attraverso
l’impiego di un oscillatore locale (LO)
e di un dispositivo non lineare (mixer),
una successiva amplificazione e filtraggio alla frequenza intermedia (IF)
e, infine, la rivelazione di quasi picco
con la successiva presentazione del
risultato a video oppure in cuffia.
Per evitare la saturazione degli stadi
più sensibili del ricevitore (i.e. preamplificatore a basso rumore e mixer), il
IL RICEVITORE EMI
Figura 1 – Limiti di emissione condotta e radiata stabiliti
Le prove di emissione
dal CISPR e dallo FCC per la Classe A e per la Classe B
sono misure indirette.
La quantità rivelata è
la tensione che viene misurata utiliz- 1
Dip. Elettronica e Telecomunicazioni
zando un misuratore (voltmetro) scalaUniversità
di Firenze
re selettivo in frequenza. Nella 2
Ricerca e Sviluppo, Esaote SpA,
gamma di frequenze da 9 kHz a
1.000 MHz il misuratore standard è il Firenze
3 Elettroingegneria, Pistoia
ricevitore EMI, mentre nell’intervallo
sopra a 1 GHz, come detto, viene [email protected]
2/12 ƒ 138
N. 02ƒ
;2012
Figura 2 – Schema a blocchi di un ricevitore EMI
segnale in ingresso può essere vantaggiosamente attenuato da un attenuatore di tipo resistivo, a scatti e a
larga banda. Per contro, dovendo misurare segnali di debole intensità in
presenza di segnali più intensi1, l’impiego dell’attenuatore d’ingresso riduce la sensibilità del ricevitore in quanto i segnali deboli vengono attenuati a
un livello inferiore al livello di rumore
del ricevitore rendendoli, di fatto, non
rivelabili. Per ovviare a questa situazione è previsto l’impiego di un filtro
preselettore composto da un insieme
di filtri passa-banda manualmente selezionabili ciascuno di essi con una
differente frequenza centrale che, assieme all’uso combinato dell’attenuatore d’ingresso e al preamplificatore a
basso rumore, permette facilmente di
ottenere una gamma dinamica istantanea2 libera da spurie di oltre 60 dB e
di ottenere comunque misure affidabili
anche quando la differenza di ampiezza tra il segnale più intenso e
quello meno intenso in ingresso al ricevitore è dell’ordine di 100 dB. Nei
moderni ricevitori EMI il filtro preselettore può anche essere automaticamente agganciato alla frequenza di sintonia del ricevitore evitando quindi complesse operazioni di sintonia manuale.
Nel seguito, dopo aver elencato le
principali caratteristiche metrologiche
dei ricevitori EMI, ci soffermeremo sul
quello che può essere considerato l’elemento fondamentale di qualsiasi
ricevitore: il circuito di rivelazione di
quasi picco.
LE PRINCIPALI CARATTERISTICHE
METROLOGICHE
Le caratteristiche metrologiche in termini di accuratezza e valori attesi
dei ricevitori EMI sono riportate in
[6] al quale si rimanda per un maggiore dettaglio. Di seguito si forniscono le principali. Il circuito d’ingresso, del tipo sbilanciato, presenta un’impedenza nominale di 50 Ω.
Il rapporto d’onda stazionaria (ROS)
non deve essere più grande di 2,0 a
1 quando l’attenuatore d’ingresso è
impostato a 0 dB e non deve eccedere 1,2 a 1 quando l’attenuazione
è impostata a 10 dB o superiore.
L’accuratezza a uno stimolo sinusoidale deve essere compresa in ±2 dB
e, analogamente, quella a uno impulsivo deve essere compresa tra
±1 dB e ±2 dB a seconda della frequenza di ripetizione dell’impulso
(più bassa è la frequenza di ripetizione più alta è la tolleranza ammessa). Altre caratteristiche metrologiche sono la curva di selettività3, il
rapporto di reiezione alla frequenza
intermedia4, il rapporto di reiezione
dalla frequenza immagine5, la risposta alle spurie, ecc.
IL CIRCUITO DI RIVELAZIONE
DI QUASI PICCO
▲
CAMPI E COMPATIBILITÀ
ELETTROMAGNETICA
re in generale cos’è un circuito di
rivelazione e, successivamente,
elencare le tipologie principali di
circuiti disponibili. Il circuito di rivelazione è di fatto un circuito di pesatura. Sono standardizzate quattro
differenti tipologie di rivelatori che
possono anche essere ospitati tutti in
uno stesso ricevitore EMI: picco
(peak), valor medio (average), valore efficace-valor medio (RMS-average) e quasi picco (quasi-peak). Il
rivelatore di picco e di valor medio
sono progettati per indicare rispettivamente il picco e il valor medio dell’inviluppo della tensione presente al
proprio ingresso. Il rivelatore di
valore efficace-valor medio si comporta in due modi differenti: nel
caso di frequenze di ripetizione inferiori a una specifica frequenza d’angolo fornisce un’indicazione di valore medio della tensione presente al
proprio ingresso mentre, nel caso di
frequenze di ripetizione superiori
alla frequenza d’angolo, fornisce
una indicazione di valore efficace6.
Il rivelatore di quasi picco, infine, si
propone lo scopo di quantificare
l’effetto medio del fastidio percepito
da un ipotetico utente dovuto alla
ricezione di un disturbo radio. In
particolare, come sarà chiarito nel
seguito, l’indicazione del rivelatore
di quasi picco aumenta secondo
una specifica legge, quando sia la
frequenza di ripetizione del disturbo
sia la sua intensità aumentano.
Nel seguito verrà posta attenzione
essenzialmente sul rivelatore di
quasi picco soffermandosi sul valore presentato a video nel caso in cui
venga applicato all’ingresso del
ricevitore un disturbo sinusoidale
permanente oppure un disturbo
impulsivo a banda larga, ripetitivo
o non ripetitivo, coerente o non
coerente.
RISPOSTA DEL RIVELATORE
AI SEGNALI SINUSOIDALI
Lo schema elettrico del circuito di rivePer capire cosa s’intende per circui- lazione è riportato in Fig. 3. RC rapto di rivelazione di quasi picco è presenta la somma della resistenza di
opportuno innanzi tutto comprende- uscita dell’amplificatore a frequenza
T_M ƒ 139
N. 02ƒ
; 2012
▲
CAMPI E COMPATIBILITÀ
ELETTROMAGNETICA
Figura 3 – Il circuito di rivelazione
intermedia IF, rs, e della resistenza di
conduzione del diodo D, RD è la resistenza attraverso la quale il condensatore C si scarica, V è la tensione
all’ingresso del rivelatore, Vd è la tensione all’uscita.
Il funzionamento del circuiti di Fig. 3
dipende essenzialmente dalle costanti di tempo di carica e di scarica
della capacità C. La costante di
tempo di carica, TC, è definita come
il tempo necessario, dopo l’applicazione di un segnale sinusoidale di
ampiezza costante V all’ingresso del
rivelatore, per ottenere una tensione
in uscita V d pari al 63% del suo
valore finale V qp . La costante di
tempo di scarica, T D , è definita
come il tempo necessario, dopo
aver rimosso istantaneamente la tensione d’ingresso, affinché la tensio-
ne di uscita decada al 37% del suo
valore iniziale. Una rappresentazione schematica delle costanti di
tempo è riportata in Fig. 4.
Dalla teoria delle reti elettriche
risulta T D=R D⋅C e, nel caso di tensione d’ingresso a gradino, si ha
TC=RC⋅C mentre, nel caso di tensione d’ingresso sinusoidale, risulta
TC=h⋅RC⋅C con h>1. Il valore dello
stato stazionario Vqp in Fig. 4 rappresenta la risposta di quasi picco a
un disturbo sinusoidale. È opportuno osservare che Vqp è sempre inferiore all’ampiezza V della tensione
sinusoidale, cioè risulta: V qp =k s ⋅ V
con ks<1. È possibile dimostrare [5] che
il valore dei coefficienti h e k s dipendono dal rapporto
Figura 4 – Costanti di tempo di carica e di scarica per il circuito
di Fig. 3 per un segnale d’ingresso sinusoidale
T_M ƒ 140
Figura 5 – Coefficiente h per il calcolo della costante di carica TC
del rivelatore con segnale sinusoidale
tra delle costanti di tempo TD e TC
secondo quanto riportato in Fig. 5 e
Fig. 6.
Le costanti di tempo del ricevitore EMI
con rivelazione di quasi picco sono
standardizzate [6] e riportate in Tab. 1
dove è stata riportata anche la banda
di risoluzione a -6 dB del filtro a frequenza intermedia.
Come si può osservare dalla Tab. 1,
il valore del parametro k s risulta
praticamente uno (da cui il nome
quasi picco) eccetto nella banda di
frequenza compresa tra 9 kHz e
150 kHz dove assume il valore di
0,81.
Figura 6 – Coefficiente ks per il calcolo dell’uscita del rivelatore
con segnale sinusoidale
N. 02ƒ
;2012
ferenti valori della frequenza di angolo: 25 Hz per frequenze comprese tra
9 kHz e 150 kHz e 1 kHz per frequenze superiori.
Tabella 1 – Parametri elettrici fondamentali del rivelatore di quasi picco
CONTINUA…
Measuring apparatus, Ed.
2010.
Nel prossimo numero il rivelatore
verrà analizzato in risposta agli
impulsi.
NOTE
1
RIFERIMENTI BIBLIOGRAFICI
1. Direttiva 2004/108/CE del Parlamento Europeo e del Consiglio, 15
dicembre 2004, concernente il ravvicinamento delle legislazioni degli
Stati membri relative alla compatibilità elettromagnetica e che abroga
la direttiva 89/336/CEE.
2. MIL-STD-461E, “Requirements for
the Control of Electromagnetic Interference Characteristics of Subsistems
and Equipment”, Department of
Defense Interface Standard.
3. EN 55011 “Limiti e metodi di
misura dellecaratteristiche di radiodisturbo degli apparecchi industriali, scientifici e medicali (ISM)”.
4. EN 55022 “Limiti e metodi di
misura delle caratteristiche di radiodisturbo prodotto dagli apparecchi
per la tecnologia dell’informazione”.
5. Ermanno Nano, “Compatibilità
elettromagnetica (radiodisturbi)”
(Lezioni e seminari), Bollati Boringhieri, 1979.
6.CISPR 16-1-1, Specification for
radio disturbance and immunity
measuring apparatus and methods Part 11: Radio disturbance and
immunity measuring apparatus -
■
CAMPI E COMPATIBILITÀ
ELETTROMAGNETICA
Carlo Carobbi si è laureato con lode in Ingegneria Elettronica nel
1994 presso l’Università
di Firenze. Dal 2000 è
Dottore di Ricerca in
“Telematica”. Dal 2001
è ricercatore presso il Dipartimento di
Elettronica e Telecomunicazioni dell’Università di Firenze dove è docente di
Misure Elettroniche e di Compatibilità
3.0, Elettromagnetica. Collabora come
ispettore tecnico con l’ente unico di accreditamento Accredia. È presidente
del SC 210/77B (Compatibilità Elettromagnetica, Fenomeni in alta frequenza) del CEI.
Si tratta per esempio del caso in cui
si voglia misurare il disturbo generato
da un trasmettitore intenzionale. In
questo caso il segnale a bassa intensità (disturbo) e quello intenso (portante) sono simultaneamente presenti
all’ingresso del ricevitore.
2 Per gamma dinamica istantanea si
intende il rapporto, espresso in decibel, tra il valore più intenso (che non
genera distorsione) e quello più debole simultaneamente presenti all’ingresso del ricevitore.
3 Per curva di selettività si intende la
variazione con la frequenza dell’ampiezza di un segnale sinusoidale
applicato all’ingresso che produce
una indicazione costante della misura
del ricevitore.
4 Rapporto, espresso in decibel, tra
l’ampiezza di un segnale sinusoidale
alla frequenza intermedia applicato
all’ingresso e l’ampiezza del segnale
alla frequenza di sintonia che produce la stessa indicazione.
5 Rapporto, espresso in decibel, tra
l’ampiezza di un segnale sinusoidale
alla frequenza immagine applicato
all’ingresso e l’ampiezza del segnale
alla frequenza di sintonia che produce la stessa indicazione.
6 A seconda della frequenza di sintonia del ricevitore, sono specificati dif-
Marco Cati si è laureato
con lode ed encomio solenne in Ingegneria Elettronica all’Università di
Firenze nel 2001. Dal
2005 è Dottore di Ricerca in Ingegneria dell’Affidabilità, Manutenzione e Logistica. Dal
2005 fa parte del reparto R&S di Esaote dove è responsabile delle verifiche di
Compatibilità Elettromagnetica su dispositivi ecografici. Collabora come
ispettore tecnico con l’ente unico di accreditamento Accredia. Svolge attività
di consulente nel campo della compatibilità elettromagnetica e della sicurezza
elettrica.
Carlo Panconi si è laureato nel 2003 in Ingegneria Elettronica all’Università di Firenze È Dottore di Ricerca in “Controlli
non distruttivi”. Dal 1988
è insegnante di Laboratorio di Elettrotecnica e di Elettronica nel
triennio degli Istituti Tecnici e Professionali. Come libero professionista svolge
attività di consulenza nel campo della
compatibilità elettromagnetica e della
sicurezza elettrica.
T_M ƒ 141
I SERIALI
MISURE E FIDATEZZA
▲
MISURE E FIDATEZZA
Marcantonio Catelani 1, Loredana Cristaldi 2, Massimo Lazzaroni 3
Misurare l’affidabilità
L’importanza di conoscere il processo di degradazione
MEASURING DEPENDABILITY
The knowledge of the degradation process for components or materials
allows to obtain information on the time-to-failure or the failure rate. Based
on such information a review of the production process can be made.
RIASSUNTO
La conoscenza del processo di degradazione di un componente o di un
materiale consente di avere informazioni sul tempo al guasto o sul valore
del tasso di guasto. L’informazione è utile per apportare eventuali correttivi
al processo di produzione di un componente o per modificare le caratteristiche di un materiale.
INTRODUZIONE
In un precedente lavoro [1] si è
mostrato come sia importante conoscere il legame esistente tra la sollecitazione applicata esternamente a un
componente e il comportamento
intrinseco del materiale con il quale il
componente è realizzato. L’applicazione di una sollecitazione, sia essa
temperatura, umidità, salinità, vibrazione o grandezza elettrica, attiva un
processo chimico-fisico (a volte anche
di altra natura) che porta al degrado
delle prestazioni e quindi alla condizione di guasto. Tale processo è noto
come meccanismo di guasto.
I modelli matematici che regolano tali
meccanismi sono molteplici e complessi e possono variare da componente a componente e da materiale a
materiale. Tra questi il modello di
Arrhenius riveste particolare interesse
applicativo in diversi contesti tecnologici tra cui l’ambito elettrico, elettromeccanico ed elettronico. Nella sua
formulazione più semplice, come
vedremo, è possibile stabilire una
relazione tra la velocità della reazione chimica che può avvenire all’interno di un dispositivo e la temperatura.
Modelli più complessi, quali Eyring,
Peck e altri [2], considerano anche la
concomitanza di più sollecitazioni,
ma non saranno oggetto della trattazione.
T_M
N.
La conoscenza del modello di Arrhenius è di fondamentale importanza
per determinare, dal punto di vista
sperimentale, il tempo al guasto e il
tasso di guasto. Tale modello costituisce, come vedremo in un lavoro di
prossima pubblicazione, una delle
ipotesi assunte nelle banche dati per
predire il comportamento affidabilistico in ambito elettronico.
L’APPROCCIO PREVISIONALE
scere il fenomeno di degrado e di
estrapolare il comportamento del
componente nelle normali condizioni d’impiego, noto il comportamento
in condizioni di stress a cui è stato
sottoposto con la prova di laboratorio.
Uno dei fattori d’influenza i cui
effetti riguardano materiali, dispositivi e processi è la temperatura. Dal
momento che molti processi (reazioni chimiche, diffusione di gas, ecc.)
subiscono accelerazioni all’aumentare della temperatura, è possibile
definire, per questo tipo di sollecitazione, una sorta di modello di
validità generale.
Tale modello è noto come modello
di Arrhenius [6, 7]:
R = H ⋅ eEa
KT
(1)
dove si è indicato con R la velocità di
attivazione, H la costante tipica del
processo, k la costante di Boltzmann
pari a 8,623 × 10-5 eV/K, Ea l’energia di attivazione del processo di
degradazione espressa in eV e con T
la temperatura in kelvin.
Questo modello è spesso utilizzato
per predire la vita di un componente
in funzione della temperature di lavoro. Il modello, in un’altra sua forma,
stabilisce che:
La conoscenza del processo di
degrado e la classificazione dei
guasti portano alla definizione di
modelli affidabilistici per il dispositivo e alla valutazione del tasso di
guasto in funzione sia dei fattori
d’influenza (le sollecitazioni) che
delle caratteristiche tecnologiche [35]. Tuttavia, in determinati contesti
tecnologici come quello elettronico,
Tempo al guasto = costante ⋅ e E a KT (2)
l’applicazione di sollecitazioni con
livelli simili a quelli che caratterizzano le normali condizioni d’impiego,
portano al degrado del componente dove il Tempo al guasto è la misura
in tempi estremamente lunghi, spes- della vita del componente in esame e
so superiori alla naturale obsolescenza tecnologica del dispositivo.
Le prove di laboratorio effettuate per
innescare i processi di degrado ven- 1 Università degli Studi di Firenze
gono pertanto condotte consideran- 1 Politecnico di Milano
do livelli di sollecitazione superiori. 2 Università degli Studi di Milano
Nasce quindi il problema di cono- [email protected]
2/12 ƒ 142
N. 02ƒ
;2012
la costante rappresenta un parametro
valutato per mezzo di una opportuna
attività sperimentale sul componente
stesso. Il valore dell’energia di attivazione, Ea, dipende dal tipo di modo
di guasto considerato. In Tab. 1 sono
riportati i valori più significati di Ea.
Tabella 1 – Valori approssimati
della energia di attivazione Ea
Failure mechanism
Corrosion
Assembly defects
Electromigration
– Al line
– Contact/Via
Mask defects
Photoresist defects
Contamination
Charge injection
Dielectric breakdown
Au-Al Intermetallic growth
Ea (eV)
0,3 – 1,1
0,5 – 0,7
0,6
0,9
0,7
0,7
1,0
1,3
0,2 – 1,0
1,0 – 1,05
Nel caso dei componenti elettronici la
formulazione di un modello analitico
in grado di descrivere le variazioni
del tasso di guasto è facilitata dal
fatto che, se da un lato è possibile
identificare nella temperatura una
forma di sollecitazione che interessa
diverse famiglie di componenti, vi è,
dall’altro, il vantaggio di disporre di
una quantità di dati consistente e
coerente in quanto i componenti elettronici sono generalmente prodotti in
quantità elevate e con un elevato
grado di unificazione.
L’espressione del modello di Arrhenius
relativo al tasso di guasto λ (in Fig. 1
se ne riporta l’andamento su carta
logaritmica) è data da:
λ 2 = λ1 ⋅ e E a K (1/ T1−1/ T2 )
Figura 1 – Modello di Arrhenius
(3)
▲
I SERIALI
MISURE E FIDATEZZA
dove λ1è il tasso di guasto, espresso
in h-1 alla temperatura T1 (in K).
La relazione precedente consente di
definire il fattore di accelerazione
(AF) come:
AF = e E a K (1/ T1−1/ T2 ) (4)
La conoscenza del fattore di accelerazione è utile per valutare come un
determinato livello di sollecitazione,
in questo caso la temperatura imposta
al valore T2 accelera il meccanismo di
degrado rispetto a un valore, T1, che
può essere assunto come riferimento.
In alcuni casi può essere utile e interessante tracciare l’andamento del
fattore di accelerazione in funzione
dell’inverso della temperatura assoluta.
Figura 3 – Legame temperatura - tasso di guasto
per componenti elettronici
λ = λ 0 ⋅ π E ⋅ π S ⋅ π T .... ⋅ π K (5)
dove λ0 è il tasso di guasto in condizioni di riferimento, πE è il fattore
ambientale, πS è il fattore legato allo
stress elettrico, πT è il fattore legato
alla temperatura e, infine, πK è il fattore peculiare del componente [8].
I MODI DI GUASTO
Figura 2 – AF vs Inverso della Temperatura
assoluta, 1/T2, con T1=308,15 K
Come detto in precedenza, il modello di Arrhenius può essere considerato come un modello semplificato in
quanto considera il solo effetto della
temperatura. Per componenti tecnologicamente più avanzati può talvolta
rivelarsi inadeguato. A titolo di esempio si riporta in Fig. 3 la differenza
fra quanto predetto in un database
tipicamente utilizzato nella valutazione dei tassi di guasto (e.g. MIL-HDBK
217, [8]) e la situazione reale.
In ambito elettronico, in funzione
della legge di Arrhenius, sono stati
definiti modelli predittivi diversificati
del tasso di guasto di componente che
tengono conto di molteplici aspetti
(fattori d’influenza). La formula base è
la seguente:
È bene prima di tutto ricordare che
l’intervallo di tempo durante il quale
un dispositivo funziona correttamente
si conclude quando un qualsiasi fenomeno di degradazione determina una
variazione (inaccettabile) delle prestazioni nominali di corretto impiego.
Cessa in quell’istante l’attitudine, da
parte dell’elemento e/o componente
in esame, ad eseguire la funzione
richiesta, e quindi si manifesta l’evento denominato guasto (failure). Il
guasto risulta pertanto il passaggio
da uno stato di corretto funzionamento a uno stato di non funzionamento che può essere, a seconda del caso, totale o parziale.
Giova qui ricordare che il manifestarsi di un guasto porta il dispositivo in
uno stato di avaria (fault), caratterizzato dall’inabilità ad eseguire una
funzione richiesta. È pertanto opportuno non confondere il concetto di
guasto, inteso come evento (failure),
con il concetto di avaria, associato a
un particolare stato di sistema (fault).
Il tempo al primo guasto (time
to first failure) è il tempo complessivo di funzionamento dell’ele-
T_M ƒ 143
mento dall’istante in cui esso si trova
in uno stato di funzionamento fino al
momento in cui insorge il guasto. Il
tempo al primo guasto, o semplicemente tempo al guasto, è la variabile aleatoria che caratterizza il manifestarsi dell’evento “guasto”. L’evidenza oggettiva del guasto prende il
nome di modo di guasto [1]. Per
modo di guasto si intende quindi
l’effetto – misurabile in un qualche
modo o che si evidenzia in modo
quantitativo o qualitativo – dovuto al
guasto di un componente o di una
parte di un sistema.
Esempi di modi di guasto sono: il
manifestarsi di un circuito aperto,
l’assenza di un segnale in ingresso,
la presenza di una valvola che rimane chiusa [1, 4].
In corrispondenza di ogni modo di
guasto vi è la causa che l’ha generato. Tanto maggiore è l’effetto del
modo di guasto tanto più accuratamente deve esserne descritta la
causa che l’ha generato. Va inoltre
sottolineato il fatto che ogni modo di
guasto comporta, generalmente,
effetti in termini di ridotta o mancata
funzionalità di un sistema o, nei casi
più gravi, l’instaurarsi di situazioni
pericolose per l’operatore e/o per
l’ambiente.
I modi di guasto descrivono, da un
punto di vista funzionale o sub-funzionale, il modo in cui un componente
può guastarsi; distinguere il modo di
guasto diventa quindi necessario
quando è importante conoscere le
eventuali conseguenze del guasto sul
sistema.
Si è già avuto modo d’illustrare [1]
come i meccanismi di guasto che
innescano processi quali corrosione,
usura, vibrazioni, fratture, ossidazione, ecc. giocano un ruolo importante nella fisica del guasto. È bene
a tal proposito ricordare però che le
cause di guasto spesso vanno ricercate al di fuori del componente stesso. Un componente può infatti guastarsi a causa di uno stress eccessivo
causato da guasti su un dispositivo
che risultino funzionalmente a
“monte”.
Si distinguono, generalmente, tre
diverse condizioni operative: attività
T_M ƒ 144
N. 02ƒ
; 2012
■
I SERIALI
MISURE E FIDATEZZA
continua, standby e attività intermittente.
Partendo dalle condizioni operative
è possibile definire due categorie
per le cause di guasto: la prima classificazione riguarda i guasti che
avvengono quando il componente è
chiamato in servizio dalle condizioni di standby (demand-related), la
seconda è relativa ai guasti che interessano i componenti durante le condizioni di attività continua (time-related); per i componenti chiamati ad
operare in entrambi i modi, si possono avere, ovviamente, entrambi i
tipi di guasto.
Alla categoria già esistente di guasto totale (noto in letteratura come
catastrophic failure), categoria contraddistinta dalla perdita completa
della funzionalità, ne vanno aggiunte altre due, legate al fatto che un
guasto può presentarsi mediante un
graduale allontanamento del prodotto dalle prestazioni nominali: degraded failure e incipient failure; la
prima descrive casi in cui si ha una
perdita di capacità funzionale ma il
dispositivo è ancora capace di fornire una prestazione superiore al
livello minimo richiesto, mentre la
seconda si riferisce a casi in cui
senza un intervento di manutenzione
o riparazione avverrà una perdita di
funzionalità.
Infine, i modi di guasto sono distinti in
relazione alla sotto funzione quando
si realizza l’indisponibilità: per chiarire basti pensare che per determinati
dispositivi (per esempio un motore) il
guasto può presentarsi in fase di
avviamento o di spegnimento, ma è
ovvio che le conseguenze di questi
due tipi di guasto possono evolvere in
modo diverso.
CONCLUSIONI
Il lavoro ha cercato di mettere in evidenza l’importanza di conoscere i
meccanismi di degrado per valutare il
tempo al guasto o il tasso di guasto. È
stato volutamente considerato un
modello semplificato ma di largo
impiego nella Failure Analysis, essendo la temperatura una forma di solle-
citazione che interessa, potremmo
dire, la quasi totalità dei componenti
e dei materiali. Come vedremo in una
prossima pubblicazione, il modello di
Arrhenius costituisce una delle assunzioni alla base della predizione di
affidabilità.
RIFERIMENTI BIBLIOGRAFICI
1. L. Cristaldi, M. Lazzaroni, Misurare l’affidabilità: Sollecitazioni e
degrado, Tutto misure. - ISSN 20386974. – Anno 14, N° 1, Marzo
2012, pagg. 55-58 - ISSN 20386974.
2. W.Nelson, Accelerated Testing,
Wiley, 1990.
3. M. Catelani, L. Cristaldi, M. Lazzaroni, L. Peretto, P. Rinaldi, Le parole
della fidatezza, Tutto misure. - ISSN
2038-6974. – Anno 13, N° 1, Marzo
2011, pagg. 49-53 - ISSN 20386974.
4. M. Catelani, L. Cristaldi, M. Lazzaroni, Le funzioni di affidabilità,
Tutto misure. - ISSN 2038-6974. –
Anno 13, N° 2, Giugno 2011, pagg.
131-134.
5. M. Catelani, L. Cristaldi, M. Lazzaroni, L. Peretto, P. Rinaldi, L’affidabilità nella moderna progettazione:
un elemento competitivo che collega
sicurezza e certificazione, Collana I
quaderni del GMEE, Vol. 1 Editore:
A&T, Torino, 2008, ISBN 8890314907,
ISBN-13:
9788890314902.
6. M. Lazzaroni, L. Cristaldi, L.
Peretto, P. Rinaldi, M. Catelani,
Reliability Engineering: Basic Concepts and Applications in ICT, Springer, ISBN 978-3-642-20982-6, eISBN 978-3-642-20983-3, DOI
10.1007/978-3-642-20983-3,
2011 Springer-Verlag, Berlin Heidelberg.
7. A. Birolini, Reliability Engineering –
Theory and Practice. Springer, Heidelberg, 6 Ed., 2010, ISBN: 978-3-64214951-1.
8. MIL-HDBK-217F, Reliability Prediction of Electronic Equipment (December, 1991), con Notice 1 -10 July
1992 e NOTICE 2 - 28 February
1995.
METROLOGIA
LEGALE
▲
A cura dell’Avv. Veronica Scotti
([email protected])
www.avvocatoscotti.com
AUTOVELOX & Co.:
strumenti di misura?
Autovelox & Co.: measuring instruments?
LEGAL AND FORENSIC METROLOGY
This section intends to discuss the great changes on Legal
Metrology after the application of the Dlgs 22/2007, the
so-called MID directive. In particular, it provides information, tips and warnings to all “metric users” in need of
organizations that can certify their metric instruments
according to the Directive. This section is also devoted to
enlighting aspects of ethical codes during forensic activities where measurements are involved. Please send all
your inquiries to Ms. Scotti or to the Director!
RIASSUNTO
Questa rubrica intende discutere i significativi cambiamenti in tema di Metrologia Legale a seguito dell’entrata in vigore del Dlgs 22/2007, altrimenti detto
Direttiva MID. In particolare, vuole fornire utili informazioni, consigli e ammonimenti a tutti gli “utenti Metrici” che si rivolgono per reperire informazioni su
Enti e organizzazioni notificate per la certificazione del loro prodotto/strumento secondo la Direttiva. La rubrica tratta anche di aspetti etici correlati allo
svolgimento di misurazioni legate ad attività in ambito forense (CTU, CTP). Scrivete all’Avv. Scotti o al Direttore, e verrete accontentati!
Il quesito posto a titolo del presente
contributo potrebbe apparire al lettore come una ironica provocazione se
non sussistesse, invece, un fondato
dubbio, come derivante dall’interpretazione dei documenti ministeriali
volti a fornire chiarezza (sic!) e dalla
giurisprudenza in materia, circa l’inquadramento degli apparecchi destinati ad accertare violazioni delle
norme del codice della strada che
disciplinano la velocità dei veicoli.
Il Codice della strada, come noto,
prevede la possibilità di accertare la
violazione di eccesso di velocità attraverso l’utilizzo di apparecchi di rilevazione, sia a funzionamento automatico che alla presenza di operatori
di polizia. Originariamente per tali
apparecchi di rilevamento (a qualunque delle due categorie sopra citate
appartenenti) era stabilita, come requisito esclusivo per l’utilizzazione e
la messa in funzione, l’omologazione da parte del Ministero dei Trasporti o del Ministero dei Lavori Pubblici senza ulteriori e successivi con-
trolli mirati a verificare il corretto funzionamento dello strumento. Quest’ultimo veniva garantito, in via autoreferenziale, dall’autorità pubblica: al riguardo è appena il caso di ricordare
che nei verbali è prassi che sia menzionata l’attestazione della verifica
del corretto funzionamento dell’apparecchio, effettuata dal personale che
conduce la rilevazione1. Di questa verifica, tuttavia, non vengono fornite
indicazioni specifiche circa le operazioni esattamente effettuate.
Successivamente, alla luce dei discordanti orientamenti giurisprudenziali che
non trovavano un punto di equilibrio
utile a consentire un’interpretazione univoca relativa alla necessità (o meno)
di controlli successivi2 da effettuarsi su
detti apparecchi, il Ministero dell’Interno ha inteso chiarire la materia
mediante l’emanazione di una circolare esplicativa (Circolare n. 10.307 del
14/08/2010) che dovrebbe rappresentare il riferimento, normativo e tecnico,
per la gestione di detta strumentazione.
In primis si sottolinea che tale docu-
mento ministeriale, interpretativo delle
norme del codice della strada, stabilisce l’esclusione degli apparecchi
di misurazione della velocità dal
campo applicativo della Legge
273/91 – legge 11 agosto 1991
n 273 “Istituzione del sistema
nazionale di taratura” – in ragione
del fatto che le uniche misurazioni ivi
contemplate riguardano esclusivamente
tempo, distanza e massa, e pertanto gli
strumenti di rilevazione della velocità,
non rientrando in detto ambito, non
sono assoggettabili a tarature come stabilite ex lege. L’argomentazione tecnica
addotta nella circolare risulta certamente poco convincente, da un punto di vista tecnico, data la natura della velocità quale grandezza derivata dalla distanza e dal tempo, e pertanto, già in
prima istanza, poco ragionevole (se
non assurda).
Ulteriormente, la stessa circolare ministeriale esclude l’applicabilità di
altre norme tecniche del settore
(peraltro laconicamente individuate, in
quanto non è dato sapere di quali norme si tratti), attesa la loro natura non
vincolante in assenza di espresso recepimento nell’ordinamento nazionale.
Nonostante i presupposti da cui muove la circolare potrebbero essere discutibili sul piano tecnico (dato che vi
sono norme tecniche di settore per il
controllo/taratura di strumenti di misura della velocità, e considerato che la
velocità è un’unità di misura derivata
dalla distanza e dal tempo), essa parrebbe non porre problemi di natura
giuridica, in quanto volta a stabilire
chiaramente l’esclusione di qualsivoglia controllo metrologico sugli strumenti, poiché non riconducibili nel novero di apparecchi assoggettati alla
legge istitutiva del SIT.
Tuttavia il quadro normativo fino a qui
rappresentato assume contorni nebulosi poiché la stessa circolare sconfessa quanto precedentemente indicato
T_M
N.
2/12 ƒ 145
prevedendo l’obbligo, per gli utilizzatori degli strumenti di rilevazione della
velocità, di una verifica periodica
almeno annuale per gli apparecchi
impiegati sotto il controllo costante di
un operatore di polizia stradale, e di
una verifica metrologica periodica almeno annuale per gli strumenti utilizzati in modalità automatica,
entrambe tendenti ad accertare il corretto funzionamento degli apparecchi.
Ora, indipendentemente dalla incomprensibile distinzione di trattamento
per le due categorie di strumenti, è opportuno evidenziare la contraddizione
in cui è incorso il Ministero. Questo,
inizialmente, esclude controlli metrologici sulle apparecchiature mentre, in un
secondo momento, non solo legittima
ma impone dette verifiche, che peraltro
devono essere condotte alternativamente dal costruttore (se in possesso di
certificazione ISO 9001) o da centri
accreditati SIT (!!!) e, conseguentemente, in conformità alle disposizioni dettate dalla legge 273/91.
In osservanza di quanto stabilito dal
Ministero, i soggetti utilizzatori (in specie i Comuni) hanno iniziato, sebbene
a rilento, a sottoporre a taratura (che
viene quindi intesa – impropriamente –
da detti operatori come verifica metrologica dello strumento, secondo la
nozione fornita dal Ministero stesso) gli
apparecchi di misurazione della velocità, menzionando nel verbale
notificato gli estremi del certificato di taratura emesso dal centro SIT. Pertanto, a prescindere dall’uso corretto o meno che i soggetti utilizzatori di detti strumenti fanno del certificato di taratura (è infatti difficile
immaginare che, come invece dovrebbe essere, venga applicata per ciascuna rilevazione l’incertezza associata
allo strumento), non si può trascurare
questo nuovo modus operandi della
Pubblica Amministrazione che si adegua a quanto stabilito dalle norme tecniche (volontarie) per il corretto utilizzo
di uno strumento di misura.
Il panorama normativo sembra finalmente definire le modalità di gestione
e controllo di detti strumenti, precedentemente esclusi dal novero di apparecchi da assoggettare a verifiche,
riconducendoli all’interno della nor-
T_M ƒ 146
N. 02ƒ
; 2012
■
METROLOGIA
LEGALE
mativa metrologica, sebbene interpretata impropriamente e in maniera confusa.
Contrariamente a quanto sarebbe legittimo attendersi, però, l’orientamento giurisprudenziale che si va consolidando non ritiene viziato l’accertamento in carenza di certificato di taratura o, comunque, di
qualunque altro controllo effettuato
sull’apparecchio utilizzato per l’accertamento, ritenendo sufficiente la dichiarazione dell’organo amministrativo procedente, inserita nel verbale,
circa il corretto funzionamento dello
strumento.
Nonostante le pronunce della Cassazione non costituiscano un precedente,esse determinano spesso un
orientamento uniforme dal quale
raramente il giudice di primo grado si
discosta. Pertanto, considerato detto
orientamento giurisprudenziale dominante, unitamente al vincolo del giudice verso la legge, come espresso
dall’art 101 della Costituzione3 e attesa la natura meramente interpretativa
del provvedimento (circolare ministeriale) qui esaminato (che non può
quindi essere considerato come legge), la materia risulta disciplinata
esclusivamente dal codice della strada e dal suo regolamento di esecuzione: posto che tali norme non prevedono alcun tipo di controllo
sugli strumenti di misura (fatta
eccezione per l’omologazione), risulta evidente che l’unico riferimento di
legge, che il giudice potrebbe utilizzare per la corretta disciplina cui assoggettare gli strumenti di misura
della velocità, è costituito dalla legge
273/91, purchè sussistano le condizioni per la sua applicazione (ad
esempio la presenza di un campione
di riferimento per la misura)4.
Conclusivamente, emerge, sotto il profilo normativo, un quadro ancora
ambiguo circa la qualificazione da attribuire agli apparecchi di rilevazione
della velocità utilizzati per l’accertamento di violazioni al Codice della
strada. Infatti, mentre il legislatore (latu
sensu inteso, dato che, come detto, la
circolare ministeriale non può essere
considerata un atto normativo in senso
proprio) inizia a definire, sebbene
confusamente, i controlli conformemente al sistema di misure generalmente riconosciuto, riconducendo le
verifiche nell’alveo della metrologia,
gli attuali orientamenti giurisprudenziali invece non mostrano aperture in tal senso, in quanto non attribuiscono alcuna valenza
alla taratura e non richiedono controlli sugli strumenti, fatta eccezione per la
preventiva omologazione. Alla luce di
tale scenario è quindi auspicabile un
intervento del legislatore volto a chiarire la questione mediante una disciplina dettagliata tesa a colmare le lacune normative che consentono “pericolose” interpretazioni.
NOTE
1 I verbali testualmente utilizzano la
seguente dizione: strumento utilizzato, la cui perfetta funzionalità è stata
verificata prima dell’uso.
2 La giurisprudenza sia di merito che
di legittimità ha spesso oscillato tra la
necessità di assoggettamento a controlli per tali strumenti e, in senso totalmente opposto, l’assoluta incontrovertibilità dei dati rilevati dagli apparecchi per la misurazione della velocità
tale da escludere qualsiasi controllo
successivo alla omologazione ed alla
messa in funzione.
3 Art 101: La giustizia è amministrata in nome del popolo. I giudici sono
soggetti soltanto alla legge.
4 Seduta n. 644 del 23/6/2005:
On. Lunardi che, nell’ambito di una
interrogazione a risposta immediata,
precisava che i requisiti dei misuratori
di velocità si potevano ricavare esclusivamente dalla normativa vigente
(Codice della Strada e regolamento di
esecuzione oltre al DM sugli strumenti
in generale) ed evidenziava che, allo
stato, venivano sottoposti a verifica
periodica presso il costruttore gli
apparecchi a funzionamento automatico mentre per gli altri era sufficiente il
rispetto di quanto stabilito dal manuale d’uso. Ribadiva, inoltre, che la
mancanza di un campione
nazionale di riferimento per la
velocità, non consentiva l’applicazione
della legge 273/91 indi la taratura.
A cura di Franco Docchio ([email protected])
■
LETTERE
AL DIRETTORE
Sul sistema SI
Risposta all’articolo di Sergio Sartori sul Sistema Internazionale
LETTERS TO THE DIRECTOR
This section contains letters, comments and opinions of the readers. Please write
to Tutto_Misure!
RIASSUNTO
In questa rubrica vengono pubblicate lettere dei lettori della Rivista. Continuate a scrivere e a dire la vostra sui principali temi della ricerca, della didattica
delle misure, e dello sviluppo industriale!
RISPOSTA DI WALTER BICH
(I.N.Ri.M.) A UN PENSIONATO
CHE SI RIBELLA
Caro Sergio,
ho letto della tua ribellione1 alla proposta di riassetto del Sistema internazionale di unità, o SI. Ciò di cui voglio discutere non è tanto il riassetto così come
è stato proposto e recepito, almeno in
linea di massima, dalla Conferenza
generale sui pesi e sulle misure dell’ottobre 2011 (la ventiquattresima dalla
firma della Convenzione del metro), sul
quale ci sarebbe e ci sarà ancora molto
da dire, quanto la necessità o il vantaggio di un riassetto del Sistema di
unità, necessità che tu sembri mettere in
dubbio e vantaggio che sembri confinare a una ristretta lobby di persone e
istituzioni.
Tu parli delle “cifre enormi dei contribuenti spese per trasferire l’incertezza
da alcune costanti ad altre”. In realtà le
cose non stanno proprio così: i soldi investiti sono stati usati, non solo da Istituti di Metrologia ma anche da Università e altre Istituzioni scientifiche, per misurare sempre più accuratamente alcune costanti fondamentali, quindi per
ridurre le incertezze, non per trasferirle.
La sempre migliore conoscenza delle
costanti fondamentali è un processo
d’interesse scientifico generale, non
limitato alla metrologia o addirittura al
solo SI. Il trasferimento delle incertezze
è, per così dire, un sottoprodotto a costo zero, o quasi. E, secondo me, è una
operazione non solo legittima ma utile
e logicamente ineccepibile.
Non so quanto tu sia disposto a scommettere sulla stabilità nel tempo della
massa del kilogrammo prototipo internazionale o sull’invarianza della temperatura del punto triplo dell’acqua; io non
ci scommetterei un centesimo, mentre
sulla costanza, almeno nell’arco di sva-
Convenzione del Metro o, in tempi più
recenti, allo sviluppo delle giunzioni Josephson per la realizzazione pratica del
volt, oltre al mantenimento delle relative
attrezzature criogeniche. Ma gli esempi
sono innumerevoli.
Poca roba, comunque, rispetto ai costi
sostenuti per mandare l’uomo sulla Luna
o per cercare il bosone di Higgs (ma
anche molte altre particelle prima di
quello) o per misurare (male!) la velocità dei neutrini, per non parlare dei costi
di una qualsiasi campagna bellica o,
come si dice adesso, di peace keeping
o peace enforcing.
Infine, a proposito della (cito) “… mole
di lavoro da effettuare: norme da riscrivere, manuali di qualità da aggiornare,
leggi da revisionare, libri di testo da
emendare”, il mio commento è duplice.
Intanto l’impatto del riassetto nella vita di
tutti i giorni, grazie al benedetto principio della continuità (una nuova definizione non cambia, se non in misura trascurabile, il valore dell’unità interessata),
sarà appunto minimo, per cui non prevedo grossi cambiamenti a livello industriale, come norme da riscrivere o manuali di qualità da aggiornare. Poi, è del
tutto normale che ogni volta che c’è una
novità nel mondo (il che accade con continuità), qualche documento debba essere emendato e aggiornato. Ciò vale in riferimento non solo alla scienza, ma anche alla storia, alla politica, alla geografia (pensa alle turbolenze costanti nell’assetto dei Paesi del mondo), al costume, alle vite e morti degli uomini illustri.
Se gli eventi dovessero essere frenati da
considerazioni di questo tipo, i libri parlerebbero ancora di Terra piatta con il
Sole che le gira intorno, non credi?
Cordialmente.
Walter Bich - I.N.Ri.M., Torino
riati secoli, della costante di Planck o di
quella di Boltzmann sono disposto a
scommettere il mio stipendio annuale, e
credo che nemmeno tu avresti problemi
a scommetterci la tua pensione. D’altra
parte, se le chiamiamo costanti, una ragione ci sarà. Invece, nell’assetto attuale, quelle costanti hanno valori incerti che per giunta cambiano (poco, per
fortuna) ogni quattro anni, mentre il kilogrammo prototipo o la temperatura del
punto triplo dell’acqua sono invarianti
per definizione. Ammetterai che una risistematina delle incertezze nella direzione proposta allineerebbe meglio la nostra descrizione formale del mondo con
le nostre convinzioni profonde.
E ancora: forse hai ragione tu e il riassetto ha un’utilità limitata e non proporzionata agli investimenti necessari che,
come ho chiarito sopra, non sono comunque quelli dedicati alle misurazioni
delle costanti. Tuttavia, a parziale consolazione tua e dei lettori, ricorderò che
non è la prima volta che le unità di misura muovono soldi in misura (relativamente) cospicua. Immagina quanto sarà
costato nel 1792 spedire da Parigi Delambre e Méchain, uno verso nord e l’altro verso sud, con il compito di rideterminare la lunghezza del quarto di meridiano terrestre passante per Parigi!
Ricordo che quello partito verso sud (Méchain) tornò a casa solo dopo sette anni,
a fronte dei sette mesi ottimisticamente NOTE
pronosticati2. Tutto per realizzare la nuo- 1 Sergio Sartori, La rivoluzione nel Sistema Interva definizione del metro. E quale è stato nazionale di unità, Tutto_Misure n° 1/2012,
(e continua a essere3) il costo della Con- p. 35-37.
venzione del Metro del 1875, che ha 2 Traggo queste notizie da un bel libro che raccomportato l’istituzione di un laboratorio comando a chiunque nutra curiosità verso la stointernazionale, il BIPM, dedicato esclusi- ria delle unità di misura e della scienza in genevamente alle unità di misura? Scenden- rale. Ken Alder, La misura di tutte le cose. L’avstoria dell’invenzione del sistema metrido nei particolari, sto pensando alla co- venturosa
co decimale, Rizzoli 2002, 638 pp.
struzione e alla taratura della trentina di 3 Ogni anno l’Italia, come tutti gli Stati e le orgakilogrammi di platino-iridio e degli altret- nizzazioni membri della Convenzione, versa,
tanti regoli da 1 m, sempre di platino-iri- anche se tipicamente in ritardo, un bella quota
dio, distribuiti agli Stati firmatari della per sostenere le attività del BIPM.
T_M
N.
2/12
T_M ƒ 147
SPAZO ASSOCIAZIONI
UNIVERSITARIE MISURISTI
▲
Rubrica a cura di Franco Docchio, Alfredo Cigada, Anna Spalla e Stefano Agosteo
Dalle Associazioni Universitarie
di Misuristi
THE ITALIAN UNIVERSITY ASSOCIATIONS FOR MEASUREMENT
This section groups all the relevant information from the main University associations in Measurement Science and Technology: GMEE (Electrical and Electronic Measurement), GMMT (Mechanical and Thermal Measurements),
AUTEC (Cartography and Topography), and Nuclear Measurements.
RIASSUNTO
Questa rubrica riassume i contributi e le notizie che provengono dalle maggiori
Associazioni Universitarie che si occupano di scienza e tecnologia delle misure: il GMEE (Associazione Gruppo Misure Elettriche ed Elettroniche), il GMMT
(Gruppo Misure meccaniche e Termiche), l’AUTEC (Associazione Universitari
di Topografia e Cartografia) e il Gruppo di Misure Nucleari.
PROGETTI PRIN PRESENTATI
DA RICERCATORI GMEE
Measurements on New
Generation Systems
and Networks
Unità partecipanti: Bari
(coordinatore Amerigo
Trotta); Brescia (coord.
Emiliano Sisinni); Napoli Federico II
(coord. Leopoldo Angrisani); Napoli
Parthenope (coord. Michele Vadursi);
Politecnico di Milano (coord. Cesare
Svelto); Politecnico di Torino (coord.
Andrea Ferrero); Reggio Calabria
(coord. Claudio De Capua); Università
del Sannio (coord. Pasquale Daponte).
Smart measurements for the future
energy grid
Unità partecipanti: Bologna (coord.
Lorenzo Peretto); Brescia (coord. Alessandra Flammini); Cagliari (coord.
Carlo Muscas); Politecnico di Milano
(coord. Alessandro Ferrero); Padova
(coord. Matteo Bertocco); Perugia
(coord. Paolo Carbone); Seconda
Università di Napoli (coord. Alfredo
Testa); Trento (coord. Dario Petri).
Sistemi meccatronici per la riabilitazione motoria
Unità partecipanti: Brescia (coord. Emilio Sardini); Catania (coord. Bruno
Andò); CNR Milano (coord. Lorenzo
Molinari Tosatti); Roma (coord. Valentina Camomilla); Pisa (coord. Francesca
Dipuccio); Politecnico di Torino (coord.
Giuseppe Quaglia).
PROGETTI FIRB PRESENTATI
DA RICERCATORI GMEE
Linea d’intervento 1
Sistema Integrato di Early warning
per la mitigazione dei rischi in infrastrutture critiche
Coordinatore del Progetto: Gianfranco Miele, Università degli Studi di
Cassino e del Lazio Meridionale.
1. Università degli Studi di Cassino e
del Lazio Meridionale – DIEI, coordinatore Gianfranco Miele.
2. Università degli Studi di Cassino e
del Lazio Meridionale – DICEM, coordinatore Cristiana Di Cristo.
3. Università degli Studi del Sannio –
DI, coordinatore Gustavo Marini.
4. Università degli Studi di Napoli
“Federico II” – DIS, coordinatore Rosario Schiano Lo Moriello.
reti di sensori wireless per l’uomo,
l’ambiente e l’energia.
Coordinatore del Progetto: Francesco
Lamonaca, Università della Calabria
1. Università della Calabria, coordinatore Francesco Lamonaca.
2. Università degli Studi di Napoli
Federico II, coordinatore Annalisa Liccardo.
3. Università degli Studi del Sannio,
coordinatore Luca De Vito.
Linea d’intervento 2
Sviluppo di metodi e strumenti di misura innovativi di energia e power quality per la gestione ottima di Smart
Grid con produzione integrata da FER
e loro riferibilità metrologica a campioni primari.
Coordinatore del Progetto: Mario
Luiso, Seconda Università degli Studi
di Napoli.
1. Seconda Università degli Studi di
NAPOLI, coordinatore Mario LUISO.
2. Università degli Studi di CASSINO,
coordinatore Luigi FERRIGNO.
3. I.N.Ri.M., coordinatore Domenico
GIORDANO.
4. Università degli Studi de L’AQUILA,
coordinatore Edoardo FIORUCCI.
5. Università degli Studi di PALERMO,
coordinatore Dario DI CARA.
Linea d’intervento 3
Advanced Techniques for Smart Grid
Oriented Real Time Power Quality
Monitoring.
Coordinatore del Progetto: Antonio
Moschitta, Università di Perugia.
1. Università di Perugia, coordinatore
Antonio Moschitta.
2. Università di Cagliari, coordinatore Sara Sulis.
3. Università di Genova, coordinatore
Micaela Caserza Magro.
Ambient Assisted Living
Unità partecipanti: Ancona (coord.
Sauro Longhi); Parma (coord. Piero Metodi e modelli innovativi per la
caratterizzazione metrologica delle [email protected]
Malcovati); e altri.
T_M
N.
2/12 ƒ 148
N. 02ƒ
;2012
GRANDE SUCCESSO PER IL
CONVEGNO SENSORI 2012
CO-ORGANIZZATO DAL GMEE
Si è svolto nel mese di Febbraio 2012
il primo Convegno Sensori 2012, coorganizzato dal GMEE. L’idea trainante del Convegno è stata quella di creare un evento a cui partecipassero tutte
le società/associazioni attive nel settore
della sensoristica, con lo scopo di creare un momento di aggregazione a livello nazionale in grado di favorire la collaborazione tra tutti. La comunicazione
tra le diverse discipline operanti nel settore della sensoristica (fisica, chimica,
ingegneria, biofisica, medicina, biochimica, ecc.) è infatti uno degli aspetti
essenziali in questo settore per poter
rimanere al passo rispetto al panorama
internazionale.
Il Convegno ha visto la presentazione
di 156 lavori accettati tra keynotes,
presentazioni orali e presentazioni
poster. Hanno partecipato 147 congressisti (100 senior e 47 junior). La
Società Editrice Springer Verlag curerà la stampa degli Atti del Convegno.
È da notare, per questa prima edizione, una virtuosa “contaminazione” fra
estrazioni diverse: ingegneri, fisici,
chimici, biologi da un lato, e dall’altro
tra Universitari, centri di ricerca,
aziende.
È molto probabile una riproposizione
del Convegno nel 2014, mentre nel
2013 si terrà con tutta probabilità un
evento di mezza giornata che mantenga viva l’interazione tra le associazioni organizzatrici: La Società Chimica Italiana (SCI), l’Associazione Ita-
liana Sensori e Microsistemi (AISEM),
la Società Italiana di Ottica e Fotonica (SIOF), l’Associazione italiana
Ambient Assisted Living (AitAAL), l’Associazione Italiana Misure Elettriche
ed Elettroniche (GMEE), l’Associazione per la Tecnologia dell’Informazione e delle Comunicazioni (AICT), la
Società Italiana di Fotobiologia e la
Società Italiana di Biofisica Pura e
Applicata (SIBPA).
PREMIO DI LAUREA
CMM CLUB 2012
L’Associazione CMM
Club Italia, partner
GMEE, bandisce un
premio di laurea
avente lo scopo di
premiare laureati in
Ingegneria che abbiano svolto la tesi
di laurea magistrale su tematiche
d’interesse dell’Associazione, nonché
d’incoraggiare gli studenti delle
Facoltà di Ingegneria italiane a dedicare i loro studi alle tematiche della
metrologia dimensionale e a coordinate applicata alla produzione industriale meccanica. Il premio di laurea
ammonta a € 1.500 e verrà assegnato entro la fine dell’anno 2012. Il
■
Sviluppo e caratterizzazione metrologica di una piattaforma per l’identificazione automatica di volti, espressioni
facciali ed emozioni, finalizzata allo
studio di patologie neuropsichiatriche.
Coordinatore del Progetto: Arianna
Mencattini, Università di Roma Tor
Vergata.
1. Università di Roma Tor Vergata,
coordinatore Arianna Mencattini.
2. Politecnico di Milano, coordinatore
Emanuele Zappa.
3. Università di Perugia, coordinatore
Emilia Nunzi.
SPAZO ASSOCIAZIONI
UNIVERSITARIE MISURISTI
vincitore sarà premiato in occasione
dell’Assemblea dei Soci che si terrà
presumibilmente nel mese di aprile
2013, e avrà la possibilità di presentare il proprio lavoro ai soci presenti;
è previsto un rimborso delle spese
sostenute per tale partecipazione, fino
a un massimo di € 300, per distanze
percorse superiori a 100 km.
Possono partecipare al concorso tutti i
laureati che abbiano conseguito la
laurea magistrale nel periodo compreso tra l’1 novembre 2011 e il 30
ottobre 2012, con tesi riguardante
una delle tematiche seguenti: Nuovi
sensori a contatto e non a contatto –
Strutture e materiali innovativi per
CMM – Tecnologie di misura alternative alle CMM – Verifica delle prestazioni – Valutazione dell’incertezza di
misura – Programmazione off-line e
interscambio dati – Specifica e verifica di tolleranze complesse – Aspetti
economici e di gestione della strumentazione – Applicazioni speciali.
Per informazioni:
CMM Club Italia, Strada delle Cacce
73, 10135 Torino.
Tel. 011/3919970, fax 011/3919959,
e-mail: [email protected],
sito web: www.cmmclub.it.
NUOVI ACCREDITAMENTI A BRESCIA
PER NI LABVIEW ACADEMY
DI NATIONAL INSTRUMENTS
La Prof. Giovanna Sansoni e l’Ing. Matteo
Lancini, delle Unità di Brescia GMEE e
GMMT rispettivamente, hanno sostenuto,
in data 29 Febbraio 2012, l’esame di
accreditamento NI LabVIEW Academy e
hanno ricevuto il Certificato di Accreditamento in data 15 Marzo 2012. In tale veConsegna della Targa di NI Labste, la Prof. Sansoni, all’interno del suo In- VIEW Academy alla prof. Sansoni
segnamento di “Strumentazione per la ViMarzo 2012
sione Industriale” nel Corso di Laurea Magistrale di Ingegneria Elettronica, ha tenuto il corso LabVIEW finalizzato alla certificazione CLAD degli studenti. Questi, a loro volta, hanno
sostenuto l’esame in data 28 Aprile 2012: il 75% di essi ha ricevuto la
certificazione di primo livello. Anche l’Ing. Lancini ha svolto attività di
docenza nel Corso CLAD presso il Dipartimento di Ingegneria Meccanica e Industriale di Brescia. L’esame di certificazione è stato effettuato in
data 18 Maggio 2012.
T_M ƒ 149
▲
LO SPAZIO
DEGLI IMP
Gian Bartolo Picotto1, Francesco Moro1, Vittorio Giaccone2
Un algoritmo
per la misura ottica
dello spessore di film spessi
AN ALGORITHM FOR THE OPTICAL
MEASUREMENT OF THE THICKNESS OF THICK FILMS
A new methodology suitable for thickness measurements of coatings and
paints of industrial products is presented. The measurement is based on the
analysis of the non-cumulative distribution of the gray-scale virtual depths of
the indentation image, as obtained by the wedge cut method. The adopted
algorithm is described together with the results achieved so far. The overall
budget of the uncertainty is given and discussed.
RIASSUNTO
Il lavoro descrive un algoritmo per la misura ottica dello spessore di film
spessi per alcuni manufatti industriali. La metodologia di misura si basa sull’analisi della distribuzione non cumulata delle profondità virtuali (scala di
grigi) dell’immagine dell’incisione eseguita con una punta cuneiforme di
angolo al vertice noto. Sono riportati i risultati ottenuti e viene discusso il
bilancio d’incertezza della misura.
INTRODUZIONE
La misurazione e il controllo dello
spessore nella deposizione di film
spessi è parte essenziale di test e verifiche di funzionalità in numerosi processi industriali [1,2]. Le tecniche tradizionalmente in uso per caratterizzare film di spessore oltre il micrometro si differenziano in base alla natura del film e del substrato, allo stato
(bagnato o secco) e allo spessore
nominale dello strato/coating in esame [3]. Una prima suddivisione delle
tecniche utilizzate con i film secchi
individua metodi distruttivi e non, dei
quali i primi sono costituiti da una misura ottica con oculari ad ingrandimento o microscopi ottici, e richiedono l’incisione [4] o la sezionatura [5]
del campione. Il metodo a incisione,
che verrà trattato più diffusamente nel
seguito, prevede l’uso di una lama da
intaglio cuneiforme. A questi si affiancano metodi di misura con micrometri o profilometri a stilo, per i quali
si utilizza un’opportuna mascheratura locale in fase di deposizione del
film in modo da poter osservare lo
spessore attraverso il gradino tra substrato e film [3,6]. Altri metodi non
T_M
N.
distruttivi si basano su misurazioni di
spessore attraverso ultrasuoni, induzione magnetica, correnti parassite,
e altri ancora. Un’interessante tabella
riassuntiva con le varie metodologie
di misura, relativa incertezza e normativa di riferimento è riportata nel
riferimento [3].
Un progetto denominato PROMAME
(Process for mechatronic opening/closing device) ha visto impegnati VALEO e altri partner tra cui l’Istituto Nazionale di Ricerca Metrologica
(I.N.Ri.M.), che si è occupato dello
studio di metodologie di misura dello
spessore e della resistività di film spessi semiconduttivi (primer), utilizzati
per migliorare le funzionalità e l’uso
delle maniglie nel settore automobilistico. In questo contributo viene discusso un algoritmo per la misura ottica dello spessore, basata sul metodo
a incisione.
spessi (primer) sono eseguite in gran
parte attraverso una prova distruttiva basata sull’incisione del film e del
substrato con una punta cuneiforme
in carburo di tungsteno e la successiva osservazione dell’intaglio con
un oculare ottico. Lo strumento denominato “Paint Inspection Gauge”
(PIG) permette di misurare lo spessore del film depositato su placchette
di prova (talvolta direttamente sul
manufatto) in un campo di misura
molto esteso (da 2 µm a 2 mm). L’apparecchio è dotato di punte da intaglio intercambiabili, tutte cuneiformi
ma con un diverso angolo al vertice.
La scelta della punta da intaglio è
legata allo spessore del primer in
esame; con film di minor spessore si
utilizzano punte di angolo maggiore. L’intaglio risulta infatti più largo e
il tratto relativo al primer in esame
risulta più esteso o visibile nell’oculare ottico.
Lo stesso strumento è dotato infatti di
un oculare (50x) con scala micrometrica, attraverso il quale si determina
la larghezza della parte dell’incisione
corrispondente allo strato/primer in
esame. Da questo si risale allo spessore in quanto è nota la geometria
cuneiforme della punta (per ogni punta da intaglio sono le tabelle larghezza/spessore). La determinazione visuale dei bordi del tratto del primer inciso rappresenta una delle principali
sorgenti di errore nella lettura effettuata dall’operatore.
1
LA TECNICA IN USO
IN AMBITO INDUSTRIALE
Istituto Nazionale di Ricerca Metrologica
Divisione Meccanica, Torino (I.N.Ri.M.)
[email protected]
Nei laboratori industriali, le misure 2 Valeo SpA – Divisione Sicurezza
di spessore di rivestimenti o film Abitacolo, Pianezza (TO)
2/12 ƒ 150
N. 02ƒ
;2012
L’ALGORITMO DI MISURA
Per ovviare a queste limitazioni si è
messo a punto un tool software che
determina lo spessore del primer attraverso uno specifico algoritmo di analisi dell’immagine dell’indentazione.
La metodologia è basata sulla distribuzione non cumulata delle profondità virtuali, corrispondenti alla scala di
grigi (8 bit) dell’immagine in formato
bitmap. Il metodo utilizza esperienze
maturate nell’analisi d’immagini 3D
d’impronte realizzate per prove di
durezza [7].
Lo sviluppo e la validazione dell’algoritmo è stata effettuata con immagini
d’indentazioni di film/primer depositati su placchette piane. Le immagini a
1440 x 1080 pixel sono state riprese
con un ingrandimento 10X per una
dimensione dell’immagine di circa
3 mm x 2 mm, come in Fig. 1. Per la
taratura della dimensione del pixel
(~2,14 µm) si utilizza un micrometro
oggetto.
Figura 1 – Immagine bitmap di un intaglio
realizzato con PIG. Il profilo ideale di una
sezione dell’intaglio è disegnato in basso
La distribuzione, il cui grafico è riportato in Fig. 2, è stata ottenuta dall’analisi dell’immagine di Fig. 1 e riporta la densità non cumulata di pixel
(numero di pixel per ogni livello di grigio o profondità virtuale Z) in relazione a una scala di valori Z compresi
tra 0 e 1. L’area sottesa tra la curva e
l’asse x del grafico (∑ρi(Zi+1–Zi)=1) è
normalizzata a 1. Occorre rilevare
che la scala z non individua in realtà
altezze/profondità effettive della
superficie in esame, ma contiene le
256 diverse tonalità di grigio legate
▲
LO SPAZIO
DEGLI IMP
curva decrescente e crescente in corrispondenza dei minimi relativi della
curva.
IL TOOL DI MISURA
Figura 2 – Densità non cumulata
delle profondità virtuali dell’immagine
del tratto inciso
alla luminosità relativa di ogni singolo
pixel dell’immagine a 8 bit.
Nel grafico si evidenziano massimi e
minimi relativi, i quali delimitano alcuni tratti caratteristici costituiti dai tre
“picchi” della curva, ai quali tratti
sono associate le gradazioni di grigio
predominanti nell’immagine. Tra queste vi sono la parte più scura corrispondente all’incisione del substrato,
la parte più chiara associata all’incisione del primer e la tonalità intermedia di grigio associata alla superficie
esterna all’incisione. Individuato quindi nel picco più a destra della distribuzione di Fig. 2 il tratto corrispondente all’area più chiara dell’immagine dell’incisione (parte incisa del primer in Fig. 1), si determina l’ascissa zi
corrispondente al minimo a sinistra
del picco. Quest’ascissa è calcolata
dall’intersezione delle regressioni
lineari dei tratti di curva decrescente e
crescente nell’intorno del minimo relativo. Così ottenuto il valore zi e sommato le ρi per z>zi si ha il numero totale di pixel della parte più chiara dell’immagine. Definito il numero totale
di pixel e nota la dimensione (lato) del
pixel dalla taratura del sistema ottico,
si risale alla larghezza media della
parte incisa del primer (tratto più chiaro), da cui si ottiene lo spessore del
film in quanto è noto l’angolo della
punta utilizzata per l’incisione.
L’algoritmo consente altresì di determinare le aree sottese (o il numero di
pixel totali) corrispondenti agli altri
picchi della densità non cumulata. Il
limite o bordo di queste aree è determinato in modo analogo a quanto
descritto sopra, ovvero è calcolato
come l’intersezione delle rette ottenute
dalle regressioni lineari dei tratti di
Il tool “OPTHK” è costituito da un programma in Visual Basic che implementa l’algoritmo di misura in un foglio di
calcolo tipo excel o equivalente. Questo rende il sistema aperto a eventuali modifiche e/o perfezionamenti. L’interfaccia del tool è intuitiva e semplice,
e al suo avvio richiede all’operatore
l’inserimento di alcuni dati e/o parametri della misura come ad esempio
l’angolo della lama da intaglio e la
dimensione del pixel dell’immagine
ottenuta dalla taratura del sistema ottico. Una volta caricata l’immagine da
analizzare, il tool visualizza una finestra di dialogo con la stessa immagine
e la richiesta all’operatore d’indicare
la zona (o meglio la tonalità di grigio)
d’interesse e sulla quale effettuare la
misura per il tratto in esame.
Infine, il tool restituisce un foglio di calcolo con il valore dello spessore del primer, oltre ai principali parametri della
misura e al grafico della distribuzione.
In Fig. 3 è mostrata la sequenza delle
interfacce di lavoro del tool.
Figura 3 – Interfacce del tool per la specifica
della lama, dell’ingrandimento (dimensione
pixel) e della zona da elaborare
T_M ƒ 151
N. 02ƒ
; 2012
▲
LO SPAZIO
DEGLI IMP
Tabella 1 – Ripetibilità misura spessore da immagini riprese con diverso contrasto e luminosità
sulla stessa area d’incisione di un provino di spessore nominale 20 µm
Figura 4 – Foglio di lavoro
con i risultati della misura
VALUTAZIONE SUL CAMPO
La stazione di misura del laboratorio
VALEO si avvale di un microscopio
ottico composto da una base Optika
Microscope, corredata di tavola xy
manuale e viti micrometriche, e una
camera CMOS da 1,5 Megapixel
con connessione USB 2.0. Il sistema
utilizza un software commerciale per
l’acquisizione delle immagini in formato bitmap.
I campioni prototipali utilizzati nei test
sono costituiti da placche piane di
lunghezza 180 mm, larghezza
80 mm e spessore 4 mm, sulle quali è
stato applicato il primer resistivo,
attraverso un processo di verniciatura
a spruzzo. Campioni di spessore
nominale da circa 5 µm e fino a circa
30 µm sono stati misurati con il tool
OPTHK sopra descritto. Per migliorare
il contrasto tra la superficie piana del
provino e il tratto inciso, in particolare per la zona corrispondente allo
stesso primer, si sono effettuate colorazioni a mezzo pennarelli della
superficie del provino, prima dell’incisione. Nelle prime verifiche sperimentali del tool sono state memorizzate
tre immagini della stessa incisione, in
particolare della medesima sezione o
area di campionamento, immagini
riprese in sequenza con differenti parametri di contrasto e luminosità del sistema ottico. Con un provino di spessore
nominale pari a 20 µm, si è potuto
osservare una ripetibilità migliore
dell’1% dello spessore (Tab. 1).
In seguito si sono eseguite misure
dello spessore su vari campioni/placchette di primer. La Tab. 2 riporta i
T_M ƒ 152
risultati ottenuti con provini da circa
10 µm a 25 µm di spessore, e immagini riprese in cinque sezioni o aree
distinte dell’incisione. I risultati dimostrano una buona riproducibilità del
metodo di misura. Con film di spessore inferiore a 10 µm è necessario
adottare una lama con angolo dell’intaglio <3°.
lo di profondità virtuali Z>Zi, calcolato dalla distribuzione non cumulata
(Fig. 2) per la zona e/o tonalità di
grigi
selezionata
(area
primer/coating in esame).
∆ρz =
∑ ρi ⋅ ( Z i +1 − Z i )
z ≥ zi
px è la dimensione del pixel; npx è il
numero di pixel (1.440) del lato X delL’INCERTEZZA DI MISURA
l’immagine, e α è l’angolo al vertice
della punta impiegata per l’indentaSe l’immagine è ripresa come in zione del film spesso.
Fig. 1, ossia con l’incisione orientata Nella stima dell’incertezza sono
lungo il lato y della stessa immagine, considerati i contributi d’errore assoil modello della misura di spessore ciati all’analisi della distribuzione
(thk) di un film depositato su una non cumulata della densità di pixel,
placchetta piana, è descritto dalla alla taratura della dimensione del
relazione:
pixel dell’immagine e infine all’errore di forma (angolo al vertice) della
thk = ∆ρz ⋅ p x ⋅ np x ⋅ tgα
punta da intaglio utilizzata per l’incisione del film. A questo va aggiundove ∆ρz rappresenta il valore cumu- to un contributo dovuto alla non perlato della densità di pixel nell’interval- fetta ortogonalità tra la punta da
intaglio e la superficie
della placchetta in
Tabella 2 – Spessore del primer determinato dall’analisi eseguita esame. Gli attrezzi
su sezioni di campionamento distinte e campioni di diverso
impiegati per l’intaglio
spessore nominale. Indentazioni con lama da 3°.
sono dotati di apposite
A titolo di confronto è riportato anche lo spessore
determinato dall’analisi dell’incisione
rotaie d’appoggio che
con oculare micrometrico
consentono di ridurre
sensibilmente l’errore
di ortogonalità. Nel
modello della misura
si assume che l’intaglio
sia
orientato
lungo l’asse y dell’immagine; nella pratica
sperimentale
si
è
osservato che l’errore
di orientazione dell’intaglio è solitamente
contenuto entro pochi
Tabella 3 – bilancio d’incertezza della misura di un film di spessore nominale 22 µm
nalisi dell’incisione viene effettuata
dall’operatore attraverso un oculare
micrometrico. Il tool descritto in queste
pagine consente l’analisi automatica
dell’immagine dell’incisione e determina il valore dello spessore del film.
Nei test condotti su una serie di campioni si è ottenuta una buona ripetibilità e riproducibilità della misura. L’analisi richiede un’immagine che presenti un buon contrasto tra le tonalità
di grigio relative alle parti incise del
primer e del substrato e alla superficie
della placchetta o del manufatto. Ove
necessario il contrasto può essere
migliorato anche attraverso la colorazione della placchetta prima dell’incisione. Criticità della metodologia si
evidenziano per valori di spessore
minori di 10 µm. In questo caso è
necessario utilizzare una lama con
angolo d’intaglio minore di 3°.
CONCLUSIONI
RIFERIMENTI BIBLIOGRAFICI
La misura dello spessore di film spessi
basata sulla tecnica dell’indentazione
trova tuttora largo impiego in ambito
industriale. Nel campo di misura intorno alle decine di micrometri di spessore il metodo a incisione garantisce
un’incertezza di misura minore o
uguale al 10%. Nell’uso corrente l’a-
[1] Paint and Coating Testing Manual:
15th Edition of the Gardner-Sward
Handbook,Editor: Joseph V. Koleske,
ASTM, 2012.
[2] European coatings handbook, T.
Brock, M. Groteklaes, P. Mischke, Editor Vincentz Network GmbH & Co
KG, 2000.
RINGRAZIAMENTI
La ricerca è stata finanziata con il supporto del progetto PROMAME di cui
ai Poli di Innovazione della Regione
Piemonte. Luca Gagliardelli ha contribuito al progetto durante il suo progetto formativo/stage.
■
gradi con un contributo trascurabile
all’incertezza della misura.
Applicando al modello della misura la
propagazione dell’incertezza associata ai diversi contributi si ottiene la
stima dell’incertezza tipo composta e
dei gradi di libertà effettivi.
Nel bilancio dell’incertezza (Tab. 3) si
evidenzia che il maggior contributo è
dovuto all’incertezza con cui è noto
l’angolo della lama da intaglio. La
stima riportata in tabella tiene conto
anche dell’errore di ortogonalità tra
la punta da intaglio e la superficie del
primer. Minore è il contributo associato alla valutazione della distribuzione
delle profondità virtuali; per ∆ρz si è
stimata un’incertezza relativa dell’1%, ottenuta dall’analisi delle immagini di un intaglio riprese con diverso
contrasto e luminosità. La stima dell’incertezza associata alla dimensione
del pixel è ottenuta dalla taratura dell’ingrandimento del sistema ottico con
un micrometro oggetto.
La ripetibilità è calcolata dall’analisi
delle immagini riprese su cinque
sezioni distinte dell’intaglio. Eventuali
difetti o disomogeneità del film devono essere considerati a parte con un
termine aggiuntivo, valutato singolarmente per ogni campione.
LO SPAZIO
DEGLI IMP
[3] UNI EN ISO 2808: 2007 “Pitture
e vernici – Determinazione dello spessore del film”.
[4] DIN 50986:1979-03 Measurement of coating thickness – Wedge
cut method for measuring the thickness of paints and related coatings.
[5] UNI EN ISO 1463: 2006 – Rivestimenti metallici e strati di ossido –
Misurazione dello spessore del rivestimento – Metodo microscopico.
[6] UNI EN ISO4518: 1998 – Rivestimenti metallici – Misurazione dello
spessore del rivestimento – Metodo
profilometrico.
[7] G. Barbato et al., A survey of STMbased methods to measure Microindentations, Proc. XII IMEKO World
Congress, Torino, Sept. 5-9, 1994,
volume 1, pp. 785-790.
Francesco Moro è assegnista di ricerca presso
la Divisione Meccanica
dell’I.N.Ri.M. Si è laureato in Ingegneria Meccanica presso l’Università degli Studi di Cassino e ha
conseguito il titolo di Dottore di Ricerca
in Metrologia presso il Politecnico di
Torino. Si occupa di misure di spessori
attraverso analisi dell’immagine, di misure termiche e di pressione. È inoltre
collaboratore presso il laboratorio di
termometria industriale dell‘I.N.Ri.M.
Gian Bartolo Picotto
è ricercatore dell’Istituto
Nazionale di Ricerca Metrologica (I.N.Ri.M.). Si
occupa di misure dimensionali, interferometria e
metrologia delle superfici. Coordina il gruppo Superfici della
commissione tecnica GPS dell’UNI.
Vittorio Giaccone è
R&D Project Manager
presso la Valeo Spa Divisione Sicurezza Abitacolo di Pianezza. Si occupa
del coordinamento di
progetti d’innovazione di
prodotto/processo in campo Automotive. Esperto di prodotti/processi di resinatura.
T_M ƒ 153
MANIFESTAZIONI
EVENTI E FORMAZIONE
■
2012-2013
eventi in breve
2012
20-22 GIUGNO
Sorrento, Italy
IEEE International Symposium on Power Electronics, Electrical Drives, Automation and
Motion (SPEEDAM 2012)
26-29 GIUGNO
Ancona, Italy
10th Intl Conference on Vibration Measurements by Laser and Noncontact Techniques
www.aivela.org
28 GIUGNO-1 LUGLIO
Wroclaw, Poland
7th International Conference on Evaluation of Novel Approaches to Software Engineering - ENASE 2012
www.enase.org
28 GIUGNO-1 LUGLIO
Wroclaw, Poland
14th
www.iceis.org
2-4 LUGLIO
Nantes, France
ASME 2012 - 11th Biennial Conference On Engineering Systems Design And Analysis (ESDA2012)
www.asmeconferences.org/ESDA2012/index.cfm
2-5 LUGLIO
Hieres, France
6th
www.myeos.org/events/ait2012
17-20 LUGLIO
Orlando, USA
The 5th International Multi-Conference on Engineering and Technological Innovation: IMETI 2012
www.2012iiisconferences.org/imeti
21-22 LUGLIO
Dubai
2nd
www.sme-conf.com
24-27 LUGLIO
Istanbul,Turkey
ICVES ‘12: IEEE International Conference on Vehicular Electronics and Safety
http://icves2012.gsu.edu.tr
24-27 LUGLIO
Rome, Italy
7th
www.icsoft.org
28-31 LUGLIO
Rome, Italy
9th International Conference on Informatics in Control, Automation and Robotics (ICINCO 2012)
International Conference on Enterprise Information Systems - ICEIS 2012
EOS Topical Meeting on Advanced Imaging Techniques (AIT 2012)
International Conference on Smart Materials and Nanotechnology in Engineering (SMNE2012)
International Conference on Software and Data Technologies (ICSOFT 2011)
6th
http://webuser.unicas.it/speedam/
CallForPaper_Speedam2012.pdf
http://www.icinco.org
10-12 AGOSTO
Shanghai, China
The
18-20 AGOSTO
Wuhan, China
3rd International Conference on Internet Technology and Applications (iTAP 2012)
www.itapconf.org/2012
19-23 AGOSTO
Moscow, Russia
32th Progress
http://piers.org/piers/submit/survey.php
19-24 AGOSTO
Rome, Italy
CENICS 2012: The Fifth International Conference on Advances in Circuits,
Electronics and Micro-electronics
www.iaria.org/conferences2012/CENICS12.html
19-24 AGOSTO
Rome, Italy
The Third International Conference on Sensor Device Technologies and Applications
(SENSORDEVICES 2012)
www.iaria.org/conferences2012/SENSORDEVICES12.html
28-30 AGOSTO
Dalian, China
1st Annual World Congress of Emerging InfoTech-2012 (WCEIT-2012)
www.bitconferences.com/wceit2012
3-5 SETTEMBRE
Monopoli, Italy
Congresso GMEE 2012
www.gmee.org
3-5 SETTEMBRE
Monopoli, Italy
Congresso GMMT 2012
http://imeko2012.kriss.re.kr
9-14 SETTEMBRE
Busan, Korea
XX IMEKO World Congress
www.itsc2012.org
16-19 SETTEMBRE
Anchorage, USA
2012 International IEEE Conference on Intelligent Transportation Systems (ITSC 2012)
www.ipc-ieee.org/call-for-papers
23-27 SETTEMBRE
San Francisco, USA
IEEE Photonics Conference 2012 (IPC-2012)
http://therminic.eu/therminic2012
25-27 SETTEMBRE
Budapest, Hungary
18th
www.esars.org
16-18 OTTOBRE
Bologna, Italy
2nd International Conference on Electrical Systems for Aircraft, Railway and Ship Propulsion
International Conference on Management and Service Science (MASS 2012)
in Electromagnetics Research Symposium (PIERS)
International Workshop on Thermal Investigations of ICs and Systems
27th
www.massconf.org/2012
http://aspe.net/technical-meetings/2012-annual-meeting
21-26 OTTOBRE
San Diego, USA
ASPE
26-28 OTTOBRE
Wuhan, China
CEEE2012 - 2012 International Conference on Electronics and Electrical Engineering
www.ieee-sensors.org
28-31 OTTOBRE
Taipei, Taiwan
IEEE Sensors 2012
www.2012iiisconferences.org/iceti
2-6 NOVEMBRE
Kaohsiung, Taiwan
The 2nd International Conference on Engineering and Technology Innovation 2012 (ICETI2012)
www.ieee-smartgridcomm.org
5-8 NOVEMBRE
Tainan City, China
3rd
www.iccect.org
7-9 DICEMBRE
Shenyang, China
The International Conference on Control Engineering and Communication Technology ICCECT 2012
www.engii.org/cet2012/CEEE2012.aspx
Annual Meeting
IEEE International Conference on Smart Grid Communications (SmartGridComm 2012)
2013
15 FEBBRAIO
Barcelona, Spain
2nd International Conference on Pattern Recognition Applications and methods - ICPRAM 2013
www.icpram.org
17-18 APRILE
Torino, Italy
Affidabilità & Tecnologie - 6a edizione
www.affidabilita.eu
T_M
N.
2/12 ƒ 154
COMMENTI
ALLE NORME
▲
COMMENTI ALLE NORME: LA 17025
A cura di Nicola Dell’Arena ([email protected])
Non conformità, azioni correttive, azioni preventive,
reclami e miglioramento - Parte terza
Non conformità
La norma prescrive che il cliente deve
essere informato. Se nei documenti
contrattuali ciò è previsto bisogna
applicarlo. Il cliente può richiedere (i)
di essere semplicemente informato, o
(ii) di poter prendere decisioni sulla
soluzione da adottare (caso rarissimo
per le prove e tarature). Su questa prescrizione non c’è nulla da precisare,
vista la semplicità della sua attuazione: è necessario soltanto registrare le
azioni compiute.
abbiano non conformità sui lavori
effettuati. Una volta accertato ciò che
è successo sui lavori precedenti, bisogna adottare azioni tra le quali l’ultima è il richiamo del lavoro e la ripetizione delle prove/tarature. Quest’azione, rarissima per un laboratorio di
prova/taratura, deriva dalla ISO
9001 sulle non conformità di prodotto
e di servizio, dove trova facile applicazione. Essa è anche complicata per
molte tipologie di prove (ad esempio,
l’analisi del pesce e degli alimenti),
mentre per altre occorre avere una
ridondanza degli oggetti da provare
(prove sul calcestruzzo), oppure bisogna tener presente che la prova/taratura può essere stata effettuata anche
sei mesi prima. Anche per questo
requisito bisogna registrare tutte le
azioni applicate.
Due tipologie di non conformità sono
pericolose sotto questo aspetto: (i) utilizzo di apparecchiatura fuori taratura
e (ii) materiale di riferimento scaduto.
Per la prima tipologia la soluzione di
tenere sotto controllo il processo di
taratura di tutta la strumentazione
evita che si possa operare con strumenti fuori dai limiti di taratura. Per la
seconda, il laboratorio deve prestare
attenzione e operare con un programma che ricorda agli operatori la data
di scadenza di tutti i materiali di riferimento e quindi agire in tempo, affinché non si utilizzino materiali di riferimento scaduti. Questi accorgimenti
evitano non conformità pericolose e
allontanano il requisito sul richiamo
dal laboratorio.
RICHIAMO DEL LAVORO
CONTINUAZIONE DELLE ATTIVITÁ
La norma prescrive che “il lavoro sia
richiamato”. Prima di effettuare questa
azione bisogna valutare l’impatto che
la non conformità ha avuto sui lavori
precedenti, nel senso di valutare se si
La norma prescrive che “sia definita la
responsabilità per autorizzare la continuazione delle attività”. Non c’è nulla
da commentare: basta riportarla nel
manuale e nella procedura gestionale
COMMENTS ON STANDARDS: UNI CEI EN ISO/IEC 17025
A great success has been attributed to this interesting series of comments by
Nicola Dell’Arena to the Standard UNI CEI EN ISO/IEC 17025.
RIASSUNTO
Prosegue con successo l’ampia e interessante serie di commenti di Nicola
Dell’Arena alla norma UNI CEI EN ISO/IEC 17025. I temi trattati sono: La
struttura della documentazione (n. 4/2000); Controllo dei documenti e delle
registrazioni (n. 1/2001 e n. 2/2001); Rapporto tra cliente e laboratorio
(n. 3/2001 e n. /2001); Approvvigionamento e subappalto (n.3/2002 e
n.1/2003); Metodi di prova e taratura (n. 4/2003, n. 2/2004 e n.
3/2004); Il Controllo dei dati (n. 1/2005); Gestione delle Apparecchiature
(n. 3/2005, n. 4/2005, n. 3/2006, n. 3/2006, n. 4/2006, n. 1/2007 e
n. 3/2007); Luogo di lavoro e condizioni ambientali (n. 3/2007, n.
2/2008 e n. 3/2008); il Campionamento (n. 4/2008 e n. 1/2009); Manipolazione degli oggetti (n. 4/2009 e n. 2/2010), Assicurazione della qualità parte 1.a (n. 4/2010); Assicurazione della qualità parte 2.a (n.
1/2011); Assicurazione della qualità parte 3.a (n. 2/2011). Non conformità, azioni correttive, ecc. parte 1.a (n. 4/2011), parte 2.a (n. 1/2012).
ADOZIONE DI AZIONI CORRETTIVE dimensioni del laboratorio e dall’impor-
La norma prescrive l’adozione di azioni correttive, assieme
a ogni decisione circa l’accettabilità dell’attività non conforme. In questo paragrafo ritorna la concezione di non conformità a cui far
seguire azioni correttive. Per questo
capoverso il laboratorio deve definire
adeguate azioni e farle attuare. Le
azioni da fare sono di due tipi: (i) per
eliminare la non conformità e (ii) per
prevenire che si possa ripetere nel futuro. Le due azioni possono coincidere o
essere diverse e ciò dipende dalla non
conformità rilevata, oppure la seconda
potrebbe anche non essere effettuata.
Inoltre il laboratorio deve verificare se
la soluzione adottata ha dato una risposta positiva per decidere la sua accettabilità e la ripresa dell’attività di lavoro. Le responsabilità e le autorità da
definire per queste dipendono dalle
tanza della non conformità. Tutte queste
attività devono essere registrate.
INFORMAZIONE VERSO IL CLIENTE
T_M
N.
2/12 ƒ 155
N. 02ƒ
; 2012
▲
COMMENTI
ALLE NORME
e, in seguito, documentare l’azione
svolta. Si può dire, nella procedura,
che la firma di fine attuazione delle
azioni correttive è anche firma di autorizzazione della ripresa delle attività,
ricordandosi sempre di duplicare le
registrazioni.
IDENTIFICAZIONE DELLE ATTIVITÀ
NON CONFORMI
ratorio deve immediatamente fermare
le attività di prova appena rileva una
non conformità, per riprenderle una
volta risolta. La sospensione prevista
da ACCREDIA riguarda non conformità gravi tali da far sì che il laboratorio,
per un lungo periodo di tempo, non
possa effettuare le attività. La posizione di ACCREDIA è giusta e doverosa,
anche se questa eventualità è evento
rarissimo per un laboratorio.
Per i laboratori di taratura, oltre al
laconico “si applica il requisito di
norma”, ACCREDIA prescrive che “il
laboratorio deve prevedere azioni
adeguate (ad es. sospensione delle
tarature, revoca dei certificati, riemissione dei certificati, avviso ai clienti)
qualora vengano riscontrati problemi
sui risultati nelle tarature o nella
gestione della strumentazione e dei
campioni di prima e seconda linea”. Il
passo è giusto, anche se le azioni da
effettuare sono già tutte previste dalla
norma. Questo requisito aggiuntivo
precisa quando bisogna agire, e precisamente su non conformità sulla strumentazione e sui campioni di prima e
seconda linea, senza precisare la gravità della non conformità rilevata.
Per questi laboratori ACCREDIA prescrive altri due requisiti che, secondo
me, dovevano trovare collocazione in
un altro documento che regola i rapporti tra laboratorio e organismo e
aggiungono poco a quanto già previsto dalla norma.
La norma, al paragrafo 4.9.1,
aggiunge una nota completamente
inutile e in alcuni punti confusa. Essa
afferma “l’identificazione di attività
non conformi o di problemi connessi al
sistema di gestione o alle attività di
prova e/o di taratura, può avvenire in
punti differenti del sistema di gestione
e delle attività tecniche. Esempi sono i
reclami del cliente, la tenuta sotto controllo della qualità, la taratura della
strumentazione, il controllo dei materiali di consumo, le osservazioni o la
supervisione del personale, la verifica
dei rapporti di prova e dei certificati di
taratura, i riesami da parte della direzione e gli audit interni ed esterni”.
Praticamente la nota elenca una serie
di situazioni in cui si possono rilevare
le non conformità. Ho detto “confusa”
poiché certamente durante i riesami
della direzione e gli audit interni non
si riscontrano non conformità su attività di prova/taratura; inoltre, in un
capitolo riguardante esclusivamente
attività di prova e taratura rispuntano,
come funghi velenosi, problemi connessi al sistema di gestione, cioè a NON CONFORMITÁ
tutte le attività del laboratorio.
RICORRENTE E DUBBI
POSIZIONE DI ACCREDIA
SUL PUNTO 4.9.1
Per i laboratori di prova, oltre al laconico “si applica il requisito di norma”,
ACCREDIA richiede al laboratorio di
dare comunicazione “in caso di attività di prova e/o taratura non conformi
tali da sospendere l’attività di prova”.
In questa frase le attività di taratura si
riferiscono alle tarature effettuate sulla
strumentazione necessaria per effettuare la prova. Bisogna precisare il
significato della sospensione. Il labo-
T_M ƒ 156
Al punto 4.9.2 la norma prescrive che
“quando la valutazione indica che l’attività non conforme potrebbe essere
ricorrente o che sussistono dubbi circa
la conformità alle proprie politiche e
procedure, le procedure per le azioni
correttive previste al punto 4.11 devono essere prontamente seguite”. Questo paragrafo della norma è tanto corposo quanto inutile, se riferito a non
conformità relative ad attività di prova
e taratura.
A seguito della non conformità, il laboratorio deve adottare azioni correttive
e valutare la soluzione prima d’inizia-
re di nuovo le attività. Ciò significa
che la non conformità, una volta risolta, non può ripetersi, altrimenti il laboratorio ha sbagliato la soluzione.
Secondo me, la non conformità si ripete a fronte di un grave errore del laboratorio e, se addirittura si ripete per la
terza volta, è la prova che questo non
ha effettuato alcuna azione correttiva,
altrimenti è meglio che il laboratorio
“cambi mestiere”…
Il requisito della norma può presentarsi per le non conformità gestionali, ma
con molta rarità; anche per questa
tipologia di non conformità, se questa
si ripete, il laboratorio ha sbagliato la
prima soluzione.
Il passo seguente (“quando sussistono
dubbi circa la conformità alle proprie
politiche e procedure”) è duro e
pesante. La non conformità, per sua
definizione, si è verificata o non si è
verificata, esiste o non esiste: non è
possibile che con un dubbio si metta in
moto un processo come quello prescritto nel punto 4.11. Su questo requisito non dico nulla: se prescritto, bisogna applicarlo, anche se trovo estremamente difficoltoso capire tutta la
filosofia del paragrafo.
Tra i due punti della norma c’è un
aspetto da far notare. Al punto
4.9.1.c) prescrive che “siano adottate
azioni correttive”, mentre al punto
4.9.2 che “le procedure per le azioni
correttive previste al punto 4.11 devono essere prontamente seguite”. Per
una non conformità che si presenta
bisogna applicare il punto 4.9, mentre
per quelle che non si presentano o per
quelle che ricorrono bisogna applicare il punto 4.11. Io sinceramente non
avrei inserito il requisito 4.9.2 e sono
propenso a eliminarlo. Cosa dovrà
fare il laboratorio per rispettare questo
requisito? Applicare la propria procedura gestionale che contenga i requisiti dei punti 4.9 e 4.11, l’uno la continuazione dell’altro (come si vedrà in
seguito).
La norma per questo punto risulta leggermente confusa e tale confusione
dipende dalla non chiarezza che esiste tra non conformità sul prodotto e
sul sistema e dal fatto che durante la
stesura della medesima il normatore
ha voluto “strafare”.
COMMENTI
ALLE NORME
▲
Carlo Carobbi
Guida alla valutazione
dell’incertezza delle misure EMC
IEC/TR 61000-1-6
GUIDE TO THE EVALUATION OF EMC MEASUREMENT
UNCERTAINTY (IEC/TR 61000-1-6)
A new guide has just been published by the International Electrotechnical
Committee, devoted to the evaluation of electromagnetic compatibility
(EMC) measurement uncertainty: the IEC/TR 61000-1-6. The scope of the
Technical Report is “to give advice to Technical Committees, Product Committees and Conformity Assessment Bodies on the development of measurement uncertainty budgets; to allow the comparison of these budgets
between laboratories that have similar influence quantities; and to align the
treatment of measurement uncertainty across the EMC committees of the
IEC”. In this article a brief description of the content of the Guide is provided with particular emphasis on the aspects peculiar to EMC measurements.
ECCONE UN’ALTRA ...
Ci voleva proprio un’altra guida alla valutazione dell’incertezza di misura? Non ci bastava la GUM, con la sua introduzione e i suoi supplementi, la EA 4/02, la EA 4/16, la UKAS M3003, la NIST Technical Note
1297, la serie ISO 5725 e chi più ne ha più ne metta? No, purtroppo no,
non bastano. Perché la valutazione dell’incertezza di misura non è materia dei matematici ma di coloro che fanno le misure, aiutati, se occorre,
da chi è in grado di masticare e digerire una certa dose di matematica.
Ma non solo. Potrei forse io, che mi occupo di misure di compatibilità elettromagnetica (EMC), spiegare a te, amico chimico, come fare la valutazione d’incertezza delle analisi chimiche quantitative? Qualora me ne
intendessi più di te d’incertezza potrei raccontarti, e supportare con argomentazioni più o meno convincenti, i principi generali descritti nella GUM
e la valutazione d’incertezza che da tali principi discende. Poi però, caro
amico chimico, la valutazione d’incertezza delle misure chimiche te la fai
da te! Non a caso esiste la EURACHEM/CITAC Guide CG 4, scritta dai
chimici per i chimici. Lo stesso vale per la EMC e vi racconto qui di cosa
tratta la Guida IEC/TR 61000-1-6 scritta da chi fa misure EMC per chi fa
misure EMC.
UNA NUOVA GUIDA
SULLA VALUTAZIONE
DELL’INCERTEZZA DI MISURA
È stata recentemente pubblicata una
nuova Guida alla valutazione dell’incertezza di misura. Il contesto è quello delle misure di compatibilità elettromagnetica (EMC) e si tratta del Technical Report (TR) 61000-1-6 della
Commissione Elettrotecnica Internazionale (IEC). La Guida è stata redatta da un gruppo di lavoro congiunto
(JTF MU) formato da rappresentanti
dei due comitati della IEC che si occupano dello sviluppo e della manutenzione delle norme EMC: il TC 77 e il
CISPR (Comitato Internazionale Speciale per la Protezione dai Radiodisturbi). Il TC 77 si occupa prevalentemente della normalizzazione delle
prove d’immunità, il CISPR fa altrettanto per le prove di emissione. La
Guida ha quindi il compito di fornire
supporto per le valutazioni d’incertezza di entrambi i tipi di prove.
I destinatari della Guida sono i comitati tecnici e i comitati di prodotto
T_M
della IEC, e gli organismi di valutazione della conformità (CAB), che
includono anche i laboratori di prova.
Il risultato che la IEC intende ottenere
dall’introduzione della Guida è quello
di rendere omogenei, e quindi confrontabili fra loro, i bilanci d’incertezza sviluppati sia dai comitati della IEC
sia dai laboratori di prova.
La Guida fornisce informazioni di
base. I bilanci d’incertezza delle singole prove devono essere sviluppati
dai comitati tecnici e di prodotto della
IEC in base alle indicazioni fornite
dalla Guida. La Guida è stata sviluppata nell’arco di tre anni e attraverso
quattro incontri fra i membri della JTF
MU - nominati dai comitati nazionali
- che sono avvenuti a Tokyo (Giappone, Aprile 2009), Osthofen (Germania, Settembre 2009), Bochum (Germania, Settembre 2010) e Pistoia (Italia, Maggio 2011). Lo scrivente ha
partecipato ai quattro incontri in rappresentanza del sottocomitato tecnico
77B Italiano.
Preliminarmente alla pubblicazione
del testo definitivo sono state pubblicate e sottoposte al commento dei
comitati nazionali le due bozze [1] e
[2]. Il testo sottoposto al voto [3] ha
ricevuto il parere favorevole del
100% dei comitati nazionali.
I CONTENUTI
DELLA NUOVA GUIDA
Si discutono qui brevemente i contenuti della Guida evidenziandone gli
aspetti di novità rispetto alle numerose guide “generaliste” sulla valutazione dell’incertezza di misura.
Università di Firenze, Dip. Elettronica
e Telecomunicazioni
[email protected]
N.
2/12 ƒ 157
Le definizioni adottate dalla
guida
La quasi totalità delle definizioni proviene dal Vocabolario Elettrotecnico
Internazionale (IEV), dal Vocabolario
Internazionale di Metrologia (VIM) e
dalla Guida all’espressione dell’Incertezza di Misura (GUM). Alcune definizioni sono proprie della EMC
(“emission”, “emission level”, “emission limit”, “immunity”, “immunity
limit”, “immunity test level”) e provengono dall’IEV. Due definizioni provengono dalla norma IEC 60359:2001,
“Electrical and electronic measurement equipment - expression of performance” e sono la definizione di
“instrumentation uncertainty” (poi
modificata nella Guida) e di “intrinsic
uncertainty of the measurand”. Da
notare che la Guida assume, come
nella GUM, che il misurando sia
caratterizzato da un valore essenzialmente unico. Inoltre la GUM raccomanda di non usare l’aggettivo
“vero” perché ritenuto ridondante.
Quindi le definizioni adottate nella
Guida che provengono da VIM e
fanno riferimento a una molteplicità
di valori veri (es. “coverage interval:
interval containing the set of true
quantity values of a measurand with a
stated probability, based on the information available”, definizione 2.36)
sono state modificate (nell’esempio
rimuovendo semplicemente il termine
“true”).
A questo riguardo mi preme di ricordare che il termine “valore vero” fu
messo al bando dopo l’uscita della
GUM, nell’ormai lontano 1995. Gli
acerrimi nemici del valore vero dicevano che “il valore vero non esiste” e
non volevano che si parlasse, quindi,
nemmeno di “errore”. Chissà come la
penseranno oggi, visto che l’ed. 3 del
VIM (del 2007) ammette addirittura
un’infinità di valori veri e riabilita l’errore, l’errore casuale e l’errore sistematico.
Spero davvero che si riesca a trovare
presto un punto di compromesso convincente fra la “asciuttezza” del linguaggio della GUM e l’“abbondanza” di valori veri del VIM, magari a
scapito del rigore formale ma a vantaggio dell’operatività d’impiego
T_M ƒ 158
N. 02ƒ
; 2012
▲
COMMENTI
ALLE NORME
della terminologia fondamentale delle
misure.
Una classificazione dei contributi d’incertezza orientata alla
EMC
È stata introdotta una classificazione
secondo cui l’incertezza di misura
(MU) è il risultato della combinazione
dell’incertezza della strumentazione
di misura (MIU) e dell’incertezza
intrinseca del misurando (IUM). Quindi:
MU = MIU + IUM
La distinzione è funzionale al fatto che
nelle valutazioni d’incertezza delle
prove EMC non si tiene generalmente
conto dell’incertezza associata all’apparecchio in prova, ma solo dell’incertezza associata alla strumentazione di misura. È quindi bene tenere
chiaramente distinti i due contributi.
MIU include l’incertezza associata al
sito di misura (SU), ossia l’incertezza
associata all’imperfezione di una
camera anecoica, di una cella TEM,
GTEM, di Helmholtz, ecc. Inoltre SU è
stata suddivisa in incertezza associata alle imperfezioni del sito (SIU), e
incertezza intrinseca del campo elettrico, magnetico od elettromagnetico
(IFU), quindi:
SU = SIU + IFU
SU generalmente coincide con SIU in
quanto il campo generato nel sito ha
un’incertezza non intrinseca bensì
associata, fra l’altro e di solito prevalentemente, alle imperfezioni del sito
stesso. IFU è un contributo caratteristico di un particolare sito di prova (la
camera riverberante), dove, al contrario, la variabilità spaziale casuale del
campo è una caratteristica intrinseca
e desiderata.
I limiti di applicazione
Nella Guida è stato precisato che il
quadro teorico adottato è quello definito dalla GUM, basato sulla possibilità di applicare la legge di propagazione delle incertezze e il teorema del
limite centrale. Quindi, in sostanza, il
modello che lega le grandezze d’ingresso a quelle di uscita deve essere
lineare, oppure linearizzabile con
errore trascurabile nell’intervallo definito da migliori stime e incertezze
delle grandezze d’ingresso. Inoltre
non devono essere presenti contributi
d’incertezza che siano al tempo stesso non-normali e dominanti.
La Guida rimanda esplicitamente al
Supplemento I della GUM per la soluzione dei casi in cui le ipotesi necessarie al soddisfacimento della legge
di propagazione delle incertezze e/o
del teorema del limite centrale non
sono verificate.
I passi fondamentali da seguire
per il calcolo delle incertezze
Viene descritta concisamente in una
tabella una sequenza di otto passi da
seguire per il calcolo delle incertezze,
che sono: 1. Definizione del misurando; 2. Definizione delle grandezze
d’ingresso; 3. Definizione della funzione che lega il misurando alle grandezze d’ingresso; 4. Valutazione
delle migliori stime e dell’incertezza
delle grandezze d’ingresso; 5. Calcolo dei coefficienti di sensibilità; 6. Calcolo dei contributi all’incertezza tipo
composta; 7. calcolo della migliore
stima del misurando e dell’incertezza
tipo composta; 8. calcolo dell’incertezza estesa. I passi da seguire sono
illustrati con commenti ed esempi.
Densità di Probabilità
Vengono introdotte e commentate,
anche con esempi, le densità di probabilità (PDF) da associare a priori alle
grandezze d’ingresso. Esse sono: la
PDF rettangolare, la triangolare, la
gaussiana (o normale) e quella con
forma a U. Nel caso della gaussiana ne
viene chiarita la relazione col teorema
del limite centrale (NdR: Visto che è la
seconda volta che citiamo il teorema
del limite centrale forse è il caso di
enunciarlo: “La somma di grandezze
indipendenti, qualunque siano le loro
PDF, ha una PDF approssimativamente
gaussiana purché le grandezze che si
sommano siano sufficientemente numerose e d’incertezza quantitativamente
confrontabile”…). Inoltre viene fatto
cenno alle PDF associate a somma, differenza, prodotto, rapporto, quadrato
e radice quadrata di grandezze gaussiane. In un esempio viene introdotta la
relazione fra la gaussiana e le PDF di
Rayleigh e Rice. Queste due PDF hanno
particolare importanza nella EMC.
Infatti le PDF di Rayleigh e Rice descrivono, rispettivamente, la variabilità del
rumore e del segnale rivelati da un rice-
N. 02ƒ
;2012
η è ottenuto dalla PDF t di Student,
decresce al crescere del numero delle
misure N e tende a 1 per N che tende
all’infinito.
Le Statistiche Campionarie
Nella Guida viene dato ampio spazio
al problema della stima della media e
dello scarto tipo quando, come accade frequentemente nella EMC, si dispone di un piccolo insieme di dati
misurati. Si assume la PDF gaussiana
per la grandezza misurata.
Conversione fra Grandezze
Lineari e Logaritmiche e viceversa
Nell’EMC si fa continuamente uso di
grandezze logaritmiche. Viene illustrata la conversione delle PDF relative a intensità e potenza di un campo
vettoriale da unità lineari a logaritmiche e viceversa. Si assume una PDF
gaussiana per le componenti in fase e
in quadratura del campo vettoriale.
Inoltre viene discussa la conversione
nel caso di una grandezza scalare
con PDF rettangolare.
Applicazione delle incertezze
Viene mostrata l’applicazione del
concetto d’incertezza al problema del
confronto fra il risultato di una taratura e la tolleranza ammessa per la
grandezza oggetto della taratura. Il
problema esaminato è particolarmente rilevante per la EMC in quanto con-
sidera: a) il caso in cui l’incertezza di
taratura della grandezza è paragonabile con la tolleranza e la tolleranza è
stata definita non tenendo conto dell’incertezza di misura, b) i casi in cui
si applica oppure non si applica una
correzione.
Allegati con esempi
Vengono esaminate in dettaglio le
valutazioni d’incertezza di una prova
di emissione radiata e di una prova
d’immunità radiata.
■
Carlo Carobbi è ricercatore presso il Dipartimento
di Elettronica e Telecomunicazioni dell’Università di Firenze. Si occupa di misure di compatibilità elettromagnetica e,
più in generale, di misure a radiofrequenza. È attualmente presidente del SC 77B
del CEI (compatibilità elettromagnetica fenomeni impulsivi), rappresenta l’Italia nel
TC 77 della IEC (MT 12), collabora con
Accredia in qualità d’ispettore tecnico.
BUONA GUIDA A TUTTI
Alla fine di ogni lavoro è d’obbligo un
consuntivo. Sono convinto che la
Guida sia un buon documento e sarà
utile alla comunità EMC, anche se la
voglia di apportarvi modifiche, anche
sostanziali, è tanta, sia da parte mia
che (ne sono sicuro) dei colleghi con
cui ho collaborato per la sua stesura.
Penso infatti che esistano ampi margini di miglioramento sulla coerenza
interna e il rigore formale della
Guida. Inoltre la valutazione d’incertezza nell’ambito della EMC è in rapida evoluzione: negli anni in cui la
Guida veniva scritta sono stati affrontati nuovi problemi di valutazione
d’incertezza (in particolare per quanto riguarda le prove d’immunità) e sviluppate le relative soluzioni. Tuttavia,
adesso, calma e gesso, vediamo la
Guida all’opera e incoraggiamone un
uso critico e costruttivo.
RIFERIMENTI BIBLIOGRAFICI
[1] IEC 77/381/CD, “IEC 61000-1-6
Ed. 1: ELECTROMAGNETIC COMPATIBILITY (EMC) – Part 1-6: General –
Guide to the assessment of measurement uncertainty”, 2009-11-20.
[2] IEC 77/388/CD, “IEC 61000-1-6
Ed. 1: ELECTROMAGNETIC COMPATIBILITY (EMC) – Part 1-6: General –
Guide to the assessment of measurement uncertainty”, 2010-11-19.
[3] IEC 77/397/DTR, “IEC 61000-16 Ed. 1: ELECTROMAGNETIC COMPATIBILITY (EMC) – Part 1-6: General
– Guide to the assessment of measurement uncertainty”, 2011-06-03.
NEWS
▼
vitore radio. Nel caso della PDF di
forma a U ne viene spiegata l’origine
che, in ambito EMC, è legata alla correzione per disadattamento.
Valutazioni di categoria A e B
Sono ampiamente discusse le due
valutazioni d’incertezza introdotte
dalla GUM e dette di categoria A e di
categoria B. Nel caso della valutazione di categoria A è introdotta una
modifica rispetto alla GUM per eliminare il ricorso alla formula di WelchSatterthwaite, che complica inutilmente i bilanci d’incertezza e che dà
luogo, in casi importanti, a risultati
che vanno contro il buon senso. Nella
Guida viene impiegata, per la valutazione di categoria A, un’incertezza
tipo u aumentata del fattore η > 1
rispetto allo scarto tipo sperimentale
s, ossia:
u = η⋅s
COMMENTI
ALLE NORME
STRISCE DI MISURA
PER LE VARIAZIONI
RAPIDE DI PRESSIONE
I tradizionali sensori di pressione spesso
non sono in grado di eseguire la misurazione di variazioni di pressione grandi e
rapide. Per questi compiti si rivelano invece particolarmente adatte le strisce di
misura della pressione PMS40 recentemente presentate da HBM, specialista in
tecnica di misurazione.
Le strisce di misura della pressione consistono in una griglia di misura in manganina, la cui resistenza varia a seconda
della pressione. In virtù della loro massa
estremamente ridotta rispetto ai sensori di
pressione tradizionali, consentono di
misurare anche i segnali di pressione transitori con tempi di salita di 50 ms e picchi di
pressione molto elevati fino a 10 kBar. Le
strisce sono ideali anche per le misurazioni ad alta dinamicità delle onde di
pressione nei fluidi.
Trovano tipica applicazione nell’analisi
delle onde d’urto generate in seguito a
un’esplosione o nelle applicazioni a ultrasuoni. Insieme al sistema di registrazione
dati Genesis HighSpeed e al software
Perception, HBM offre una catena di
misura completa indispensabile per queste operazioni di misura.
Per ulteriori informazioni:
www.hbm.com
T_M ƒ 159
T U T T O _ M I S U R E
Anno XIV - n. 2 - Giugno 2012
ISSN: 2038-6974
Sped. in A.P. - 45% - art. 2 comma 20/b
legge 662/96 - Filiale di Torino
Direttore responsabile: Franco Docchio
Vice Direttore: Alfredo Cigada
Comitato di Redazione: Salvatore Baglio,
Antonio Boscolo, Marcantonio Catelani,
Marco Cati, Pasquale Daponte, Gianbartolo Picotto,
Luciano Malgaroli, Massimo Mortarino
Redazioni per:
Storia: Emilio Borchi, Riccardo Nicoletti,
Mario F. Tschinke
Le pagine delle Associazioni Universitarie di Misuristi:
Stefano Agosteo, Paolo Carbone, Carlo Carobbi,
Alfredo Cigada, Domenico Grimaldi,
Claudio Narduzzi, Marco Parvis, Anna Spalla
Lo spazio delle altre Associazioni: Franco Docchio,
Giuseppe Nardoni
Le pagine degli IMP: Maria Pimpinella
Lo spazio delle CMM: Alberto Zaffagnini
Comitato Scientifico: ACISM-ANIMA (Roberto
Cattaneo); AEI-GMTS (Claudio Narduzzi);
AIPnD (Giuseppe Nardoni);
AIS-ISA (Piergiuseppe Zani); ALPI (Lorenzo Thione);
ANIE (Marco Vecchi); ANIPLA (Marco Banti,
Alessandro Ferrero); AUTEC (Anna Spalla),
CNR (Ruggero Jappelli); GISI (Abramo Monari);
GMEE (Giovanni Betta); GMMT (Paolo Cappa,
Michele Gasparetto); GRUPPO MISURISTI
NUCLEARI (Stefano Agosteo)
INMRI – ENEA (Pierino De Felice, Maria Pimpinella);
INRIM (Elio Bava, Flavio Galliana, Franco Pavese);
ISPRA (Maria Belli);
OMECO (Clemente Marelli); SINAL (Paolo Bianco);
SINCERT-ACCREDIA (Alberto Musa);
SIT (Paolo Soardo);
UNIONCAMERE (Enrico De Micheli)
Videoimpaginazione: la fotocomposizione - Torino
Stampa: La Grafica Nuova - Torino
Autorizzazione del Tribunale di Casale Monferrato
n. 204 del 3/5/1999.
I testi firmati impegnano gli autori.
A&T - sas
Direzione, Redazione,
Pubblicità e Pianificazione
Via Palmieri, 63 - 10138 Torino
Tel. 011 0266700 - Fax 011 5363244
E-mail: [email protected]
Web: www.affidabilita.eu
Direzione Editoriale: Luciano Malgaroli
Massimo Mortarino
È vietata e perseguibile per legge la riproduzione
totale o parziale di testi, articoli, pubblicità e immagini pubblicate su questa rivista sia in forma scritta
sia su supporti magnetici, digitali, ecc.
ABBONAMENTO ANNUALE: 36 EURO
(4 numeri cartacei + 4 numeri telematici)
ABBONAMENTO BIENNALE: 66 EURO
(8 numeri cartacei + 8 numeri telematici)
Abbonamenti on-line su: www.tuttomisure.it
L’IMPORTO DELL’ABBONAMENTO ALLA PRESENTE PUBBLICAZIONE È INTERAMENTE DEDUCIBILE. Per la deducibilità del costo ai fini fiscali fa fede la ricevuta del versamento
effettuato (a norma DPR 22/12/86 n. 917 Art. 50 e Art. 75). Il
presente abbonamento rappresenta uno strumento riconosciuto di aggiornamento per il miglioramento documentato
della formazione alla Qualità aziendale.
NEL PROSSIMO NUMERO
•
•
•
E
Il tema: TRV Prove e Tarature
Misure su componenti ottici
Visione Industriale
molto altro ancora
T_M
N.
ABBIAMO
LETTO PER VOI
■
La Redazione di Tutto_Misure
([email protected])
MEASURE WHAT MATTERS – ONLINE TOOLS
FOR UNDERSTANDING CUSTOMERS,
SOCIAL MEDIA, ENGAGEMENT,
AND KEY RELATIONSHIPS
di Katie Delahaye Paine
J. Wiley & Sons
254 pagine
ISBN 9780470920107: € 18,45 (amazon.com), 2011
Se gli unici numeri a cui siete davvero interessati sono i ricavi e i profitti,
non riuscirete mai a capire veramente che cosa li fa aumentare o diminuire. Volete sapere che cosa gli altri pensano di voi? Volete sapere come
queste opinioni influenzano le vostre vendite? Questo è il libro per voi.
Oggi, anche le realtà più piccole possono seguire e misurare i rapporti
con i clienti, con i media, e perfino con i dipendenti e i commerciali. Il
libro fornisce il know-how necessario per trovare questi strumenti e per utilizzarli al meglio per incrementare i vostri profitti.
L’autrice è l’editore del “KDPaine Measurement Blog” e della “The Measurement Standard”, rispettivamente il primo blog e newsletter per professionisti del marketing dedicato interamente a misura e responsabilità.
Negli ultimi due decenni è stata consulente apprezzata di misure delle più
importanti società quali SAS, Raytheon e Cisco.
LE AZIENDE INSERZIONISTE DI QUESTO NUMERO
AEP Transducers
p. 82
Aviatronik
4a di cop.
Bocchi
p. 90
CAM 2
p. 96
CCIAA di Prato
p. 116
Cibe
p. 112
Coop. Bilanciai Campogalliano p. 102
Danetech
p. 118
Delta Ohm
p. 92
DGTS
p. 108
HBM
p. 106-120-125-159
Hexagon Metrology
p. 114
IC&M
p. 128
Instrumentation Devices
p. 96-110
2/12 ƒ 160
Kistler Italia
p. 104-136
Labcert
p. 86
LMS Italiana
2a di cop.-122
LTTS
p. 84
Luchsinger
p. 96-102-126
Mitutoyo Italiana
p. 81
PCB Piezotronics
p. 130
Physik Instrumente
p. 126
QTech
p. 126
Renishaw
3a di cop.
Rupac
p. 99-101
Studio Lanna & Associati
p. 134
Vision Engineering
p. 116
Wika Italia
p. 122