Scarica qui il numero della Rivista in PDF!

Transcript

Scarica qui il numero della Rivista in PDF!
TUTTO_MISURE
LA RIVISTA DELLE MISURE E DEL CONTROLLO QUALITÀ - PERIODICO FONDATO DA SERGIO SARTORI
ORGANO UFFICIALE DELL’ASSOCIAZIONE “GMEE” E DI “METROLOGIA & QUALITÀ”
ANNO XIII
N. 02 ƒ
2 011
EDITORIALE
L’Università a nuvola?
IL TEMA: MISURE ACUSTICHE E DI VIBRAZIONI
GRUPPO MISURE ELETTRICHE
ED ELETTRONICHE
AFFIDABILITÀ
& TECNOLOGIA
Misure acustiche e di vibrazioni su cockpit
Valutazione di lavoratori esposti a vibrazioni
ALTRI TEMI
ISSN 2038-6974 - Poste Italiane s.p.a. - Sped. in Abb. Post. - D.L. 353/2003 (conv. in L. 27/02/2004 n° 46) art. 1, comma 1, DCB Torino - nr 2 - Anno 13 - Maggio 2011
In caso di mancato recapito, inviare al CMP di Torino R. Romoli per restituzione al mittente, previo pagamento tariffa resi
TUTTO_MISURE - ANNO 13, N. 02 - 2011
Università e brevetti
Reti di sensori
La fidatezza – Parte 3
Crescere con l’ICT
ARGOMENTI
Metrologia legale e forense:
l’etica metrologica
Visione industriale:
Andare alle fiere fa bene!
Commenti alla 17025
Metrologia per capillarità
GLI
ALTRI TEMI
▲
MISURE OTTICHE
A. Pesatori1, M. Norgia1, C. Svelto1, E. Pignone2
Sensore laser
per la misura in linea
della lavorazione di turbine
LASER SENSOR FOR ONLINE MONITORING OF TURBINE
GRINDING
An optical instrument for the measurement of a gas turbine palette radial
dimension was designed, developed, and tested. This system is a very useful tool for on-line monitoring, during turbine fabrication, of the external
palette radial length. The measurement accuracy is 3 µm over a measurement range of 0.3 mm.
RIASSUNTO
Per il controllo dimensionale di una turbina in fase di lavorazione è stato
progettato, sviluppato e caratterizzato uno strumento ottico a forcella laser,
che consente la misura radiale durante la fase di molatura, con un’accuratezza migliore di 3 µm su una dinamica di misura superiore a 0,3 mm.
INTRODUZIONE
Le turbomacchine sono strutture che
trasducono l’energia cinetica di un
fluido mettendo in movimento un organo meccanico [1]. La turbina è una
macchina motrice rotante in cui l’elemento essenziale è la girante, o rotore, che può essere costituita da un’elica oppure da una ruota con alette o
pale variamente profilate (Fig. 1). L’energia meccanica acquisita dalla
girante si trasmette a un albero motore che viene utilizzato per azionare
una macchina, un compressore, un
generatore elettrico o un’elica. L’efficienza con cui avviene questo scambio di energia è un parametro fondamentale per una turbomacchina, per
questo nella loro costruzione si cerca
di realizzare sistemi in cui lo scambio
energetico sia il più efficiente possibile. Il controllo della dimensione radiale delle palette esterne di una turbina
è uno dei parametri più importanti per
determinare l’efficienza del sistema
[2]. Per tali ragioni la realizzazione
di una turbina richiede un processo
finale di molatura che ne definisca le
dimensioni radiali con grande accuratezza.
In questo lavoro è presentato un siste-
ma di controllo in tempo reale delle
dimensioni radiali della turbina, sviluppato per conto di Ansaldo Energia
S.p.A., che comanda direttamente il
processo di molatura attraverso uno
strumento di misura a barriera ottica
[3], il tutto in continuità con la metodologia precedentemente utilizzata
da Ansaldo Energia S.p.A. [6,7], ma
aggiornando allo stato dell’arte le tecnologie elettro-ottiche applicate.
Figura 1 – Fotografia di un rotore turbogas
Ansaldo (modello AE94.3.A2 potenza 280 MW)
LA SCELTA DEL METODO
DI MISURA
normalmente sono impiegate tecniche
a contatto, che utilizzano come misuratore un tastatore meccanico. Il suo
funzionamento è buono su tutti i tipi di
superfici, fornendo misure con accuratezza dell’ordine della decina di
micrometri, però implica procedure di
misura lente (a rotore fermo) rendendo pertanto i tempi di lavorazione
molto lunghi. Sono stati quindi analizzati metodi di misura senza contatto,
a partire dalla tecnica ottica a triangolazione [4], che ricava la distanza
tra bersaglio ed emettitore di luce tramite semplici funzioni trigonometriche. Questa metodologia è però
incompatibile con la superficie delle
palette in lavorazione (la molatura la
rende molto riflettente, mentre la misura richiede un target diffusivo).
Altri metodi classici sono quelli capacitivi o induttivi, che derivano la distanza
tra due superfici rilevando la variazione
di capacità o induttanza tra le due [5].
Queste tecniche generano però errori
in prossimità del bordo della paletta e
sono inoltre di difficile adattabilità a
questa misura specifica, in quanto la
forma e la tipologia di materiale (metallico o ceramico) variano nei diversi
stadi della turbina.
I metodi di misura a tempo di volo,
ottica o a ultrasuoni, sono stati scartati in quanto i primi non offrono risoluzione e accuratezza adeguate. Altre
tecniche ottiche più complesse [4]
sono di difficile applicazione, in
quanto le palette presentano un bordo
inclinato ed altamente riflettente che
varia durante la lavorazione. Si è
quindi deciso di utilizzare un sistema
a barriera ottica, descritto nel seguito.
Differenti tecniche per la misura radiale di palette sono state investigate 1 Politecnico di Milano
prima di procedere a progettare e 2 Ansaldo Energia
realizzare il sistema a barriera ottica: [email protected]
T_M
N.
2/11 ƒ 113
N. 02ƒ
;2011
Il sistema ottico di misura di spessori
consiste in una barriera ottica realizzata tramite un laser a semiconduttore
nel rosso, collimato su di un fotodiodo
a quattro quadranti. La procedura di
misura in tempo reale avviene secondo lo schema descritto in Fig. 2: la turbina è posta in rotazione su di un tornio, che da un lato provvede alla
molatura, mentre dall’altro misura lo
spessore raggiunto in tempo reale,
con una accuratezza complessiva di
circa 10 µm. Il fotodiodo a quattro
quadranti è utilizzato sia per una preliminare procedura di allineamento
del fascio laser, sia per la misura stessa. Infatti, quando una paletta arriva
a intercettare il fascio laser è possibile ricavare la dimensione della zona
di fascio oscurato, attraverso la misura delle potenze ricevute dai singoli
quadranti del rivelatore. La misura
assoluta di dimensione radiale della
paletta è infine ottenuta dopo un’accurata taratura del sistema meccanico
di movimentazione della barriera ottica (che garantisce una ripetibilità sul
posizionamento di circa 5 µm).
La dimensione del supporto meccanico è stata studiata in modo tale da
garantire la corretta misura delle turbine di raggio massimo R = 2 m, mantenendo comunque le dimensioni del
sensore più contenute possibili. Il
sistema è infatti sottoposto a intense
sollecitazioni meccaniche dovute al
vento generato dal movimento delle
palette, unitamente a brusche variazioni di temperatura dettate dalla
lavorazione stessa. L’effetto di tali sol-
lecitazioni sull’incertezza della misura
cresce notevolmente con le dimensioni
del sensore. Inoltre la massa dell’intero sistema di misura deve rimanere
contenuto al di sotto di 2 kg, per non
compromettere le prestazioni di ripetibilità del braccio meccanico che posiziona il misuratore.
Da semplici relazioni geometriche è
possibile calcolare la dimensione
minima h dello strumento (distanza
laser-rivelatore), tale per cui le palette
intercettino il fascio laser – nella zona
centrale della forcella – ma mantengano una distanza di sicurezza d dal
bordo del laser e del rivelatore
(entrambi di raggio r) – nella zona
superiore o inferiore della forcella:
h ≅ 2 2(r + d )R
(1)
▲
IL PROGETTO
DELLO STRUMENTO OTTICO
GLI
ALTRI TEMI
2 % su 20 °C di escursione (da 20 °C
a 40 °C). Dopo una fase di allineamento del fascio laser sul rivelatore, è
stato caratterizzato l’intero sistema di
misura, acquisendo le tensioni di uscita dai circuiti a transimpedenza connessi ai quattro quadranti del rivelatore, al variare della penetrazione di un
ostacolo movimentato da un motore
con risoluzione micrometrica (misure
riportate in Fig. 3). Il corretto allineamento (centratura del fascio laser sul
quattro quadranti) è dimostrato dall’uguaglianza dei 4 segnali in assenza
di oscuramento. A ogni posizione
sono state effettuate 100 acquisizioni
per ciascun canale, allo scopo di valutare l’incertezza di misura. La misura
della posizione dell’ostacolo è ricavata tramite una funzione di trasferimento F, calcolata a partire dai segnali si
dei singoli quadranti del rivelatore,
che non dipende dalla potenza del
laser ed è monotona crescente con la
posizione dell’ostacolo:
Avendo selezionato una sorgente
laser e un rivelatore a quattro quadranti di diametri inferiori a 1 cm, è
stato possibile realizzare una struttura
alta h = 70 cm, mantenendo una
(s + s ) − (s3 + s 4 )
F= 1 2
distanza di salvaguardia d = 2 cm,
(2)
(s1 + s2 ) + (s3 + s 4 )
che è sufficiente per mantenere il sistema in sicurezza, anche nel caso di
La stima sperimentale dell’incertezza
palette molto inclinate.
di misura, al variare della posizione,
è riportata in Fig. 4, unitamente all’errore massimo ottenuto sui 100 punti di
LA CARATTERIZZAZIONE
misura: nella regione di massima senDELLO STRUMENTO
sibilità si ottiene un’incertezza tipo
La sorgente laser utilizzata è stata minima di circa 2 µm, con un errore
caratterizzata misurando le dimensio- massimo, anch’esso al suo minimo
ni del fascio collimato (wx = 1,57 mm valore, inferiore a 7 µm. Questo risule wy = 2,36 mm) e la sua variabilità in tato è del tutto coerente con l’ipotesi
potenza con la temperatura. Le misu- di una distribuzione normale, con il
re in temperatura hanno dimostrato massimo calcolato su 100 punti.
una variabilità di potenza inferiore al Si può notare come il minimo d’incertezza non corrisponde al punto di
massima sensibilità della funzione di
trasferimento (F = 0,5), ma si ottiene
poco prima (F ≅ 0,4), in quanto la perdita di sensibilità in F ≅ 0,4 è compensata da un migliore rapporto
segnale-rumore quando il fascio è
ancora oscurato solo parzialmente. Al
contributo d’incertezza dovuto alla
ripetibilità del sistema di misura è
necessario aggiungere i contributi dettati dalla stabilità del sistema di misura (in fase di valutazione) e dalla ripeFigura 2 – Schema di misura in tempo reale della dimensione radiale della turbina
tibilità del sistema di posizionamento
T_M ƒ 115
N. 02ƒ
; 2011
▲
GLI
ALTRI TEMI
Figura 3 – Segnali si acquisiti dai 4 quadranti, al variare della posizione dell’ostacolo
rispetto al fascio laser (100 misure per ogni posizione)
in precedenza reggeva un tastatore
meccanico. La procedura di misura si
divide in tre fasi. La prima fase consiste nella taratura della posizione assoluta della barriera, effettuata su un
disco di diametro noto con estrema
accuratezza, posto all’inizio della turbina (Fig. 1). Quindi si sposta la barriera all’esterno della serie di palette
da molare e la si avvicina lentamente,
mantenendo la turbina in rotazione,
fino a che una paletta non superi la
soglia di scatto. In Fig. 5 è riportato il
segnale acquisito dai quattro quadranti durante l’avvicinamento e lo
spostamento relativo ricavato dall’elaborazione dei dati. Dal dettaglio si
possono notare i picchi corrispondenti all’attraversamento di una paletta,
che oscurano solo due fotodiodi.
A questo punto inizia la fase di molatura, cominciando dalle palette con
diametro nettamente eccessivo, per
concludersi con una fase di molatura
fine, che porta tutte le palette allo stesso diametro entro un errore di pochi
micrometri. In questa fase la barriera
ottica è utilizzata come riferimento di
misura e per contare il numero di palette ancora da molare (che eccedono
il diametro nominale impostato).
CONCLUSIONI
In questo lavoro è stato progettato,
sviluppato, e caratterizzato uno strumento per la misura ottica della dimensione radiale di palette di turbine
a gas.
In Fig. 6 è riportata una fotografia
dello strumento, montato sul braccio
meccanico di posizionamento. Il metodo scelto è in linea di continuità con
quello precedentemente adottato da
Figura 4 – Funzione di trasferimento F del fotodiodo a 4 quadranti (sopra)
e corrispondenti incertezza standard ed errore massimo (sotto), al variare della posizione
AEN [6] in quanto dall’analisi effetdell’ostacolo rispetto alla posizione del fascio laser
tuata sono risultati confermati i notevoli vantaggi rispetto ad altre tecniche
possibili, che derivano dalla sua relameccanico. In ultima analisi, si stima te con la molatura delle palette sul ro- tiva semplicità di realizzazione, dalla
buona accuratezza e ripetibilità modi riuscire a raggiungere un’accura- tore.
strata nelle prove sperimentali. Un ultezza complessiva di circa 10 µm,
teriore vantaggio riguarda la relativa
pienamente adeguata allo scopo. La
insensibilità dei risultati forniti al vadinamica di misura lineare del siste- IMPIEGO NELLA LAVORAZIONE
riare della forma, del grado di lucenma ottico è limitata a circa 0,3 mm
(v. Fig. 4 per std<10 µm), compatibile La barriera ottica realizzata è stata tezza e del tipo di materiale utilizzato
con le tolleranze dimensionali ottenu- montata su un braccio meccanico che per la realizzazione della paletta, che
T_M ƒ 116
N. 02ƒ
;2011
▲
GLI
ALTRI TEMI
con recupero del disallineamento
optomeccanico“, brevetto Italiano n°
TO 2004A000101.
Alessandro Pesatori
è Ricercatore di Misure
Elettriche ed Elettroniche
presso il Dipartimento di
Elettronica e Informazione del Politecnico di Milano. I suoi principali interessi di ricerca
riguardano le misure ottiche ed optoelettroniche, in particolare con applicazione biomedicale, la sensoristica e sistemi automatizzati di misura, taratura
e calibrazione.
Figura 5 – Segnali dal fotodiodo a 4 quadranti (sinistra) e posizione relativa della paletta
(destra), acquisiti durante l’avvicinamento del braccio meccanico alla turbina in rotazione
Michele Norgia è
Ricercatore confermato di
Misure Elettriche ed Elettroniche presso il Dipartimento di Elettronica e
Informazione del Politecnico di Milano. Le sue principali attività
di ricerca riguardano le misure ottiche
ed optoelettroniche, l’interferometria, i
sensori MEMS, le misure e la strumentazione biomedicale.
Cesare Svelto è Professore Ordinario di Misure
Elettriche ed Elettroniche
presso il Dipartimento di
Elettronica e Informazione del Politecnico di Milano. Le sue principali attività di ricerca
riguardano le misure ottiche ed optoeFigura 6 – Barriera ottica montata sul braccio meccanico in Ansaldo Energia
lettroniche, la caratterizzazione e stabilizzazione di laser per applicazioni
invece influenzerebbero notevolmente 4. S. Donati, “Electro-Optical Instru- metrologiche, le misure e la strumentasia un triangolatore ottico sia un misu- mentation – Sensing and Measuring zione biomedicale.
ratore capacitivo.
BIBLIOGRAFIA
1. C. Caputo, “Le turbomacchine”,
CEA, 1994.
2. Philip P. Walsh, Paul Fletcher, “Gas
Turbine Performance,” ASME Press,
2004.3. S Philip C. Hobbs, “Building
Electro-Optical Systems”, Series:
Wiley Series in Pure and Applied
Optics, 2002.
with Lasers”, 2004, Prentice Hall,
USA.
5. J. G. Webster, “The Measurement,
Instrumentation, and Sensor Handbook”, CRC Press, USA 1999.
6. E. Pignone, F.Perotti, “Metodo e
dispositivo ottico per misure dimensionali di un corpo, in particolare di un
rotore di turbina”, brevetto internazionale
WO
99/45339
del
10/09/1999.
7. E. Pignone, “Metodo per la misura
ottica delle dimensioni di un corpo
Enrico Pignone è in
forza ad Ansaldo dal
1991. Il suo background
è nel controllo di processo e nel monitoraggio/
diagnostica di sistemi
complessi. Attualmente coopera con
IEEE come revisore di pubblicazioni ed
è impiegato come Program Manager
dell’ingegneria di sviluppo prodotti di
Ansaldo Energia.
T_M ƒ 117
▲
NEWS
CHIUDE CON SUCCESSO LA VIIA MOSTRA CONGRESSO
“METROLOGIA & QUALITÀ “ (TORINO, 13-15 APRILE 2011)
La settima edizione di “Metrologia e Qualità”
ha chiuso i battenti alle ore 17.00 del 15 Aprile scorso, dopo tre giorni di intense discussioni,
presentazioni e dibattiti presso il Centro Congressi Lingotto e l’Istituto Nazionale di Ricerca
Metrologica (I.N.Ri.M.) di Torino.
Il Congresso scientifico, articolato su 9 sessioni,
ha visto la presentazione complessiva di 65
memorie, segno della vasta area tematica su cui
il Congresso ha contribuito al livello culturale e
informativo della metrologia e della qualità.
T_M ƒ 118
La sessione plenaria ha proposto lavori storicometrologici relativi ai 150 anni dell’unità d’Italia e i collegati 150 anni di unità delle misure,
che hanno illustrato l’Italia industriale nel 1861
e i primi passi effettuati per l’armonizzazione
dell’organizzazione metrologica nazionale.
I temi dibattuti nelle due tavole rotonde (Meteorologia e Metrologia; Gastronomia e Misure),
molto frequentate, hanno focalizzato le problematiche relative al progetto METEOMET (EMRP,
Environment), con la gradita presenza del Dr.
Luca Mercalli, e all’importanza delle misure per
salvaguardare la qualità e la sicurezza dei prodotti alimentari. Di sicuro interesse il convegno
sponsorizzato da ACCREDIA “Il valore delle
tarature e prove per l’innovazione e l’affidabilità”, svoltosi il 13 Aprile, che ha costituito un’ottima tematica di dibattito di grande interesse
per le imprese.
Il giorno 14 Aprile si è tenuto il workshop
I.N.Ri.M. “Imprese e problemi metrologici: una
sfida per l’innovazione. Presentazione e dibattito su alcune attività di ricerca di potenziale
interesse per le imprese” dove ricercatori dell’I.N.Ri.M. hanno presentato alcune delle aree
di ricerca nelle quali l’istituto è impegnato.
Anche quest’edizione si è svolta, nelle prime
due giornate, in concomitanza con “AFFIDABILITÀ & TECNOLOGIE”, sempre più consolidata
come la più completa manifestazione italiana
mirata a proporre alle imprese metodi, soluzioni e tecnologie per l’innovazione competitiva.
La parte espositiva, che ha visto presenti ben
188 Società espositrici, in rappresentanza di
oltre 600 marchi di primario rilievo internazionale (+26% di superficie espositiva rispetto
all’edizione 2010), ha offerto a un numero elevatissimo di visitatori (5324 partecipanti, pari a
+24% rispetto alla predente edizione, la maggior parte dei quali di provenienza aziendale)
il più attuale stato dell’arte sui metodi, strumenti, servizi e sistemi utili a supportare lo sviluppo
competitivo delle imprese, con un’ampia area
dedicata in modo specifico alle misure, prove e
controlli qualità. Gli oltre 130 eventi (Convegni
Tematici, Seminari Pratici e Casi Applicativi),
mirati all’approfondimento e aggiornamento di
specifiche tematiche, sono stati molto affollati, a
conferma che questa formula di presentazione
è di sicuro interesse per la sua forma di dialogo diretto utile ad approfondire le soluzioni
proposte.
GLI
ALTRI TEMI
▲
UNIVERSITÀ E IMPRESA
Luigino Benetazzo
Riprendere a crescere
con l’ICT
quale ruolo per l’Università, le istituzioni, le imprese
ICT-DRIVEN GROWTH: WHICH ROLE FOR UNIVERSITY,
INSTITUTIONS AND INDUSTRIES
Based on international studies, ICT’s (Information and Communication Technologies), due to their role of enabling technologies, produce remarkable
effects on the economic and social tissue. According to the EU, in fact, as
much as 40% of the EU’s economic growth can be attributed to ICT
infrastructures. Moreover, in countries with economy based on high valueadded activities such as Italy, education, which is a prerequisite for innovation, shows up as one of the investments with the highest economic return.
According to Ambrosetti, University education, between 2011 and 2020
will generate more than 11 points of GDP for the Country (i.e., more
than 1% per year).
The association “Il Quadrato della Radio” conducted a survey to
understand whether and how Italy acts to seize the opportunity offered by
ICT, and if it can apply correction factors to improve its effectiveness. In particular, the study focused on how ICT engineering students are formed by
Italian Universities, on critical issues that they encounter in the workplace,
on University-Industry relations, and on the role of institutions. The study proposes some corrective actions.
RIASSUNTO
Da studi internazionali è emerso che le ICT (Information and Communication
Technologies), per il loro ruolo di tecnologie abilitanti, generano ricadute
rimarchevoli su tutto il tessuto economico e sociale. Secondo la UE, infatti, il
40% della crescita economica dell’Unione può essere attribuito alle
infrastrutture ICT. Inoltre nei Paesi con economia basata su attività ad alto
valore aggiunto come l’Italia, la formazione, prerequisito all’innovazione,
si prospetta come uno degli investimenti paese a più alto ritorno economico.
Secondo uno studio di Ambrosetti la formazione universitaria nel decennio
2011 potrebbe complessivamente generare oltre 11 punti di PIL per il
Paese, (oltre un punto percentuale di PIL in media all’anno).
L’Associazione del Quadrato della Radio ha condotto un’indagine per
capire se e come il Paese si sta preparando a cogliere l’occasione offerta dall’ICT, e se esistono fattori correttivi applicabili per migliorare la sua efficacia.
In particolare lo studio si è concentrato su come le Università curino la formazione professionale dei nuovi ingegneri, sulle criticità nel loro inserimento
nell’attività lavorativa, sulle relazioni Università-imprese, e sul ruolo delle istituzioni. Sono proposte alcune auspicabili azioni correttive.
L’ICT COME VOLANO
DI CRESCITA DEL PAESE
Riprendere a crescere con l’ICT
(Information and Communication
Technology) è il tema dello studio
del Quadrato della Radio riassunto in queste brevi note. La rispo-
tecnologie dell’informazione e della
comunicazione permettono un’accelerazione della crescita economica
con riferimento sia alle imprese che
producono ICT, sia ai vantaggi che
derivano dall’incremento della produttività in tutti i settori pubblici e
privati che non producono, ma utilizzano l’ICT;
2. una risorsa per le organizzazioni,
poiché consente di gestire in maniera
rapida, efficace ed efficiente il volume
crescente di informazioni e, grazie
alle diffusione della tecnologia e dell’interconnettività, può aiutare le imprese a ridefinire i propri rapporti con
clienti, fornitori e altre organizzazioni
migliorando così la propria capacità
competitiva.
Questi sono certamente aspetti rilevanti considerando le dimensioni
della crisi economica che attraversiamo, per uscire dalla quale i diversi
Paesi più industrializzati hanno messo
in moto impegnative iniziative di
controllo dei costi e di stimolo
della crescita. In particolare l’UE ha
approvato un piano per il rilancio dell’economia finalizzato ad agire non
solo con interventi congiunturali di
breve periodo, ma anche confermando l’impianto strategico comunitario a
favore della crescita e competitività
europea in un’ottica di medio e lungo
periodo. La Germania ha messo in
moto investimenti per 50 G€ per i
prossimi due anni e garantire così un
milione di posti di lavoro. La Francia
ha attivato un piano di rilancio dell’economia da 26 G€ (1,3% del PIL nazionale), con investimenti in diversi
settori industriali e nella ricerca. La
Gran Bretagna ha varato un piano fiscale di 23 G€ per stimolare l’attività
economica.
sta alla domanda “Perché riprendere a crescere con l’ICT?” potrebbe
essere: “Per il ruolo che L’ICT
può e deve giocare per lo sviluppo dell’Italia”. L’ICT rappresenta:
1. una risorsa strategica per il siste- Il Quadrato della Radio
ma paese nel suo insieme, perché le [email protected]
T_M
N.
2/11 ƒ 119
N. 02ƒ
; 2011
▲
NEWS
NUOVO CALIBRATORE FLUKE 5522A CON INNOVATIVE FUNZIONI DI PROTEZIONE
Fluke Calibration presenta il nuovo Calibratore Multiprodotto modello 5522A. Basato
sulla tecnologia del ben noto modello
5520A, incorpora nuove funzioni di protezione che ne aumentano la robustezza e versatilità per l’uso sia in laboratorio sia, soprattutto, in campo.
È stata introdotta una speciale protezione
sulle uscite del calibratore per evitare che in
caso di applicazione accidentale di tensioni
esterne (fino a 300 V) si causino gravi danni
alla circuiteria interna di estrema precisione.
Il nuovo calibratore contiene funzioni progettate per prevenire danni costosi: “Check
Before Connect” (premendo il tasto “Operate” prima di abilitare l’uscita viene eseguito
un controllo sulla presenza di tensioni esterne applicate potenzialmente dannose); monitoraggio dell’uscita, durante il funzionamento, da parte della circuiteria di protezione
(se viene rilevata una tensione esterna, l’uscita viene immediatamente disconnessa e il
calibratore entra in modalità standby); nuovi
fusibili di protezione sui terminali di uscita,
T_M ƒ 120
per sovracorrenti (i fusibili sono sostituibili
senza rompere i sigilli di taratura).
È stata inoltre ridisegnata la meccanica, per
una maggiore robustezza e trasportabilità,
rendendo il 5522A ideale per attività di
taratura on-site. I pannelli (frontale e posteriore) rimovibili consentono l’utilizzo immediato senza dovere togliere il calibratore dal
box, garantendo allo stesso tempo un flusso
d’aria adeguato per il raffreddamento.
Il nuovo Fluke 5522A ha una precisione di
base in Tensione Continua di 9 ppm (nella
gamma 3,3 V), rendendolo adeguato per la
taratura di multimetri digitali fino a 6 1/2
digit, così come di multimetri grafici, tester
analogici, indicatori da pannello, wattmetri,
pinze amperometriche fino a 1000 A AC e
DC (tramite accessorio esterno current coil a
50 spire), strumenti per acquisizione dati,
registratori a carta, termometri a termocoppia e termoresistenza, calibratori di processo, ecc. Due opzioni interne consentono la
taratura di oscilloscopi con banda passante
fino a 600 MHz o 1,1 GHz. Per l’automatizzazione dei processi di taratura il nuovo
calibratore Fluke 5522A può essere utilizzato in abbinamento al popolare software per
metrologia e gestione strumenti Fluke MetCal
Plus. Una particolare configurazione bundle
di Calibratore 5522A + MetCal Lite consente un notevole risparmio economico.
I prodotti Fluke Calibration sono distribuiti in
esclusiva per l’Italia da CalPower srl.
Per ulteriori informazioni
www.calpower.it.
N. 02ƒ
;2011
▲
GLI
ALTRI TEMI
RISCRITTO
Il Quadrato della Radio
Un comitato promotore costituito
dai principali rappresentanti della
ricerca, industria ed esercizio delle
telecomunicazioni italiane, riunito
per iniziativa della Fondazione
Guglielmo Marconi, presso la Villa
Griffone, il 4 ottobre 1975, decise
all’unanimità di dar vita ad una
associazione denominata “Quadrato della Radio”.
L’associazione, la cui denominazione deriva dalla forma dell’antenna
usata da Guglielmo Marconi, è
aperta a tutti coloro che intendono
contribuire allo sviluppo delle telecomunicazioni, nella convinzione
che queste rappresentino un efficace strumento per conseguire una
sempre più civile convivenza fra gli
uomini, migliorando la qualità
della loro vita.
Scopo principale dell’associazione, che non ha fini di lucro, è quello di promuovere e sostenere attività atte a favorire lo sviluppo e il
progresso delle telecomunicazioni.
In pratica l’attività del Quadrato
della Radio si realizza attraverso
iniziative molto diverse tra loro,
anche se unite da uno scopo comune, promuovendo convegni, esperimenti, scambi culturali, programmazioni di ricerche in équipe tra i
rappresentanti di diversi enti.
La novità dell’associazione è di
vedere riuniti i massimi esponenti
del mondo scientifico e di quello
industriale, premessa per quella
collaborazione tanto spesso auspicata tra scienza Università e industria. Attualmente il Quadrato della
Radio conta 112 soci, tutti illustri
rappresentanti del mondo delle
telecomunicazioni.
Il Presidente in carica è l’Ing. Stefano Ciccotti, AD di RAIWAY, mentre
il Presidente onorario è il Prof. Ing.
Giancarlo Corazza, socio fondatore e promotore.
L’indirizzo del Sito Internet è:
www.quadratodellaradio.it
L’Italia, rispetto
agli altri paesi
industrializzati, è
più inseguitrice
che lepre. Nell’ultima classifica del
“Global Information
Technology Report”
prodotto dal World
Economy Forum, che
valuta l’impatto dell’ICT sui processi di sviluppo dei vari stati, l’Italia scende dal 45° al 48° posto
(su 133 Paesi), preceduta da tutte le
maggiori potenze economiche, dagli
Usa al Giappone alla Cina, ma anche
da Paesi quali Malesia, Tunisia e
Montenegro. Inoltre l’Italia, alle prese
con il suo debito pubblico (131°
Paese nella classifica del World Economic Forum) e con le proprie debolezze in termini di competitività e di
produttività, ha puntato a mantenere
sotto controllo i propri conti pubblici
non prevedendo, contestualmente,
una strategia di investimento e sviluppo.
Per uscire da questa crisi, anche dinanzi a un problema rilevante di mancanza di risorse, non è sufficiente
tagliare, ma occorre una vision di lungo periodo, e la messa in atto di scelte strategiche conseguenti investendo
sui fattori che, migliorando la produttività e la competitività, consentano di
garantire una crescita economica sostenibile.
Tra i fattori che possono incidere sulla ripresa economica, un peso crescente assumono quelli legati in particolare alla conoscenza, al sapere ed all’esperienza delle
persone. È stato stimato che intervenendo su alcuni fattori (liberalizzazioni, semplificazione del sistema
burocratico, infrastrutture, costi dell’energia) nei prossimi vent’anni il
nostro PIL potrebbe aumentare del
28%; la riforma della Scuola e del
Sistema della Formazione, da sola,
potrebbe consentire un incremento
del 13%. Lo scenario sotto questo
profilo non è incoraggiante: l’Italia si
colloca agli ultimi posti nella
spesa per la scuola tra i Paesi
europei (4,5% del PIL nell’istruzione
scolastica, contro una media OCSE
Figura 1
del 5,7%), e presenta un mix sbilanciato: 80% in retribuzioni (contro il
70% della media OCSE) con professori il cui salario è inferiore di 497$
rispetto alla media UE.
Lo sviluppo del capitale umano non è,
però, solo un problema delle istituzioni statali: anche il mondo industriale deve giocare il suo ruolo; a
fronte delle dichiarazioni che i Manager aziendali fanno sull’importanza
delle risorse umane, le Aziende stanno drasticamente riducendo i budget
dedicati ad attività di sviluppo del
personale. Stanno scomparendo i
Centri di Formazione aziendale, la
risorsa umana sembra considerata
più un territorio in cui realizzare “saving” che fare investimenti per lo sviluppo.
Pubblico e privato devono investire nello sviluppo della conoscenza come fattore di successo ed
elemento di vantaggio competitivo
prioritario per le Imprese e il Paese,
con particolare riferimento ai settori
maggiormente capaci di dare impulso alla crescita e alla competitività
dell’Italia.
Lo studio, che ha visto coinvolti docenti universitari e manager di Aziende,
ha evidenziato una serie di criticità e
identificato alcune proposte di soluzioni con l’obiettivo di avviare un dibattito su questo tema strategico per il
nostro Paese.
LE CRITICITÀ
La prima criticità evidenziata è il drastico calo delle iscrizioni ai corsi di
Ingegneria informatica e di telecomunicazioni, pur a fronte di una sostanziale tenuta delle iscrizioni complessive alla Facoltà di Ingegneria.
Queste discipline sembrano non
T_M ƒ 121
Figura 2
Figura 3
suscitare più l’appeal di un tempo
sui giovani: le ragioni vanno ricercate soprattutto nel cambiamento
dello scenario economico e industriale del nostro Paese. I giovani s’iscrivevano alla Facoltà di Ingegneria delle Telecomunicazioni attratti
dalla possibilità di lavorare sulle tecnologie e sull’innovazione, e le
Aziende erano, in una certa misura,
in grado di fornire una risposta a
queste aspettative. L’apertura dei
mercati nel settore delle TLC ha portato a una competizione molto
agguerrita sul piano dei costi,
e a strategie d’impresa molto
focalizzate su interventi di
“cost cutting”; i driver dell’innovazione sono diventati l’ottimizzazione dei processi industriali, finalizzata alla riduzione dei costi di
produzione, e il marketing, finalizzato all’ampliamento della gamma
dei servizi. L’attività di ricerca e sviluppo delle tecnologie ha subito,
viceversa, drastici ridimensionamenti.
T_M ƒ 122
N. 02ƒ
; 2011
▲
GLI
ALTRI TEMI
Le TLC hanno assunto più un
ruolo di “commodity”
che di settore trainante dello
sviluppo economico. Contestualmente nel nostro Paese
si è verificato un drastico
ridimensionamento delle attività manifatturiere. Tutto
ciò ha comportato una forte
riduzione delle opportunità
d’inserimento dei giovani
ingegneri in ruoli in grado
di fornire risposte alle loro
aspettative professionali.
Accanto all’attenuarsi della
motivazione professionale,
l’altro problema che è emerso è quello dell’allineamento delle competenze degli Ingegneri “ICT” che
oggi si laureano alle esigenze del mercato del lavoro.
Sotto questo profilo è emerso che le aziende oggi
hanno prevalentemente bisogno di due tipologie di professionalità:
• Tecnici con competenze
molto specialistiche in
grado di operare direttamente e immediatamente sugli impianti.
• Ingegneri professionisti con competenze di base ad ampio spettro e di tipo interdisciplinare,
capaci e preparati per gestire la complessità considerando tutti gli aspetti
che compongono un problema: tecnici, economici, finanziari, di risorse
umane.
Entrambe queste figure professionali
oggi sono molto carenti, poiché la
laurea attuale, come è strutturata, ai
primi fornisce competenze più
teoriche che pratiche e quindi
scarsamente utilizzabili operativamente, ai secondi fornisce una competenza elevata, ma con un taglio
prevalentemente specialistico e
scarsamente interdisciplinare. Il
risultato è che s’impiega troppo
tempo per formare competenze
che non servono allo scopo,
mentre si tralascia di formare le
competenze che occorrono alle
imprese.
È l’Università in grado di reagire a
questo quadro in forte cambiamento, e di formare professionalità
con le caratteristiche sulle quali
maggiormente si concentra la richiesta del mondo del lavoro in questi
ultimi anni? La capacità di reagire dell’Università è venuta a
mancare. Ancorata a una visione
tradizionale, essa è sicuramente in
grado di fornire un’offerta formativa
adeguata al fabbisogno di
professionalità più consolidate, ma non altrettanto in grado di
leggere i profondi cambiamenti nel settore delle TLC,
recepire nuove conoscenze e
adeguarsi ai nuovi mestieri
che richiedono l’integrazione fra
competenze differenti e la capacità
di guardare alle TLC in maniera
diversa.
Alla complessità crescente degli scenari, l’Università ha prevalentemente
risposto con il moltiplicarsi del
numero dei corsi specialistici,
scendendo in profondità su alcune
tematiche, ma perdendo in capacità di creare competenze integrate, così determinando maggiori
difficoltà di interfacciamento
Figura 4
N. 02ƒ
;2011
tra le diverse discipline. Nello
stesso tempo l’Università non è stata
in grado di formare una generazione
di tecnici con una preparazione
focalizzata più sulla gestione
degli impianti che sulla progettazione delle tecnologie, pur
avendo la Riforma del 1999 introdotto una “scorciatoia” che consentiva di
acquisire una laurea in un numero
inferiore di anni.
Sotto questo profilo sarebbe stato
necessario cogliere l’opportunità della Riforma universitaria che ha introdotto la laurea triennale (3+2) per impostare due
corsi di laurea assolutamente
differenziati finalizzati a formare
due diverse figure professionali.
Punto fondamentale della
Riforma è la nuova organizzazione degli studi universitari
che prevede corsi di studio
articolati in due livelli. Oggi il
corso triennale, o laurea breve, non
rappresenta una risposta alle esigenze del mondo delle imprese, in
quanto costruito come percorso
di preparazione al biennio
successivo e non come un percorso formativo finalizzato a fornire
una “professionalità compiuta”. La
conseguenza è la creazione di professionalità ibride, in cui gli
aspetti tecnici-operativi si mischiano
con quelli progettuali, con competenze che sono comunque rimaste più teoriche che prati-
che, senza peraltro riuscire a dare
un senso compiuto né alle prime, né
alle seconde. È quindi inevitabile
che la stragrande maggioranza degli iscritti a Ingegneria (in taluni Atenei si arriva sino al 100%) non si fermi al terzo anno, ma prosegua nel
biennio successivo. Il corso dei 5 anni, a sua volta, con la sua enfasi sulla specializzazione tecnologica e la
scarsa interdisciplinarietà appare
anch’esso poco rispondente
alle esigenze del mondo del
lavoro.
IL MODELLO PROPOSTO
Il cambiamento da introdurre è
rappresentato da un’impostazione didattica articolata su due corsi di
laurea distinti per contenuto e
per piani di studio.
L’attuale 3+2 deve trasformarsi in
due corsi di studio assolutamente separati, in “parallelo” e
non in “sequenza”. I corsi devono
avere finalità completamente diverse:
fornire competenze tecniche specialistiche e operative con il corso
dei tre anni, fornire competenze di
carattere interdisciplinare e
generali con il corso dei cinque anni. I piani di studio devono essere
molto diversi tra loro, salvo una
piattaforma di competenze di base
comuni, e profondamente diverse rispetto a quelli attuali, con la possibilità di differenziare anche il titolo di
Figura 5
▲
GLI
ALTRI TEMI
riconoscimento alla fine del corso e
con una scelta fatta a monte al momento dell’iscrizione e non nel corso
degli studi.
IL RUOLO DELL’IMPRESA
L’Impresa, dal suo canto, non ha contribuito a migliorare “il prodotto”, praticamente assumendo solo Ingegneri con laurea magistrale e,
spesso, impostando iter formativi al
proprio interno dei giovani neoassunti. Se si vuole che l’approccio proposto funzioni, anche l’Impresa deve fare la sua parte applicando politiche
di selezione, d’inserimento, retributive, d’inquadramento e
di sviluppo differenziate per le
due tipologie di professionalità.
Questo favorirebbe una maggiore
chiarezza e una maggiore riconoscibilità delle due diverse tipologie
di professionalità.
La relazione tra Università e Imprese
rappresenta un altro dei punti centrali
per la formazione delle nuove figure
professionali. Nella pubblicazione
Going for Growth, l’Ocse ha evidenziato, Paese per Paese le priorità d’intervento per uscire dalla congiuntura
sfavorevole.
Per l’Italia, che mostra come già detto
una evidente perdita di produttività e
competitività, l’OCSE ha individuato
cinque priorità: tra queste, ai primi
posti troviamo la necessità di aumentare il livello di istruzione
terziaria e quella di promuovere
le collaborazioni tra imprese e
Università.
Siamo anche noi fermamente convinti
che in questa nuova era, per recuperare competitività internazionale, è
necessario che in Italia il mondo dell’Università, il mondo della politica e
quello delle imprese non procedano
più come universi paralleli, bensì segmenti intrecciati di un unico percorso,
di un unico obiettivo: la qualità del
futuro dei nostri giovani. Da
parte di questi soggetti non c’è stata,
fino a oggi, una risposta adeguata; la
relazione Industria-Università c’è, ma
resta episodica e nel complesso non
così organica, quasi del tutto circo-
T_M ƒ 123
scritta all’effettuazione di stage presso
le Imprese. Si tratta di risposte comunque parziali e inadeguate a risolvere
il problema.
Il contributo delle Imprese alla formazione della conoscenza deve essere
condotto all’interno del percorso universitario per dare alla preparazione
professionale una connotazione
maggiormente finalizzata a formare professionalità più integrate e più rispondenti alle esigenze e alle opportunità del
mondo del lavoro, ruolo attualmente svolto unicamente dai Master post
universitari. Bisogna entrare in una logica di “Università Aperta” e di
“Azienda estesa”, dove i confini
vengono trasformati in aree di contiguità e di lavoro congiunto con vantaggi
per entrambi i soggetti e, soprattutto,
per i giovani laureati.
Le Associazioni Industriali, nella loro
T_M ƒ 124
N. 02ƒ
; 2011
▲
GLI
ALTRI TEMI
articolazione centrale (Confindustria)
e territoriale, possono giocare un
ruolo particolarmente significativo, ricercando soluzioni che possano costituire un punto di equilibrio tra
capacità di risposte alle esigenze
delle imprese presenti sui territori, da
un lato, e l’esigenza di formare culture professionali con un respiro e una
capacità di confronto sul piano internazionale, dall’altro. Radicamento
sul territorio e internazionalizzazione sono due aspetti che devono coesistere e trovare reciproca capacità di alimentazione. La ricerca di
questo equilibrio rappresenta uno dei
punti centrali di un processo e di un
percorso di cambiamento nella formazione universitaria, in particolare nel
campo scientifico e dell’ICT, che costituisce una delle professionalità portanti per lo sviluppo delle Imprese e
della Competitività del Paese. Per en-
trambe le situazioni, la relazione da
sviluppare, per essere efficace, non
può essere né spontanea, né
episodica, ma sistematica ed
organica.
Le Istituzioni rappresentano il terzo
attore di questo “Triangolo della
Conoscenza” e sicuramente fino a
oggi non hanno brillato per la
loro presenza. Le riforme non
possono riguardare solo le strutture
universitarie o i contenuti dei piani
di studio o i regolamenti e le normative, ma devono essere accompagnate da politiche e interventi
incentivanti, come politiche fiscali
adeguate, criteri e piani di allocazione risorse, ecc., a sostegno degli
obiettivi complessivi e funzionali
agli interessi del Paese. Occorre
avere una “vision” di sistema
ed esprimere una “governance” del processo.
CAMPI E COMPATIBILITÀ
ELETTROMAGNETICA
▲
LA COMPATIBILITÀ ELETTROMAGNETICA
Carlo Carobbi1, Marco Cati2,3, Carlo Panconi3
Il comportamento a radiofrequenza
dei componenti circuitali passivi
L’induttore - Parte prima
THE RADIOFREQUENCY BEHAVIOR OF PASSIVE CIRCUIT
COMPONENTS: THE INDUCTOR – PART 1
The RF behaviour of the inductor is complex. This is essentially due to two reasons. First, the inductor is rarely realized through an empty coil. Indeed practical realizations usually employ ferromagnetic materials, such as ferrites, whose
electrical properties: a) are frequency dependent, b) may exhibit a non-linear
behaviour and c) have non-negligible (frequency dependent) losses. Second,
the impedance of the inductor increases when frequency increases, thus it tends
to unintentionally couple to the surrounding metallic structures, the maximum
coupling being at resonance where the inductor impedance is maximum. In
this, and in the companion paper to be published in the next issue, The basic
(intentional) behaviour of the inductor is here first introduced. Then the nonideal (unintentional) behaviour at RF is described (namely spurious electric field
coupling, losses, relaxation, temperature dependence and saturation). Examples of practical inductor realizations are offered.
RIASSUNTO
Il comportamento a radiofrequenza degli induttori è complesso. Questo è
essenzialmente dovuto a due ragioni. In primo luogo, l’induttore è raramente
realizzato su una bobina vuota. Infatti le realizzazioni pratiche di solito impiegano materiali ferromagnetici, come le ferriti, le cui proprietà elettriche sono:
a) dipendenza dalla frequenza, b) comportamento talvolta non lineare e c) presenza di perdite (dipendenti dalla frequenza) non trascurabili. In secondo
luogo, l’impedenza degli induttori cresce al crescere della frequenza, facilitando l’accoppiamento non intenzionale con le strutture metalliche circostanti;
il massimo accoppiamento si verifica alla risonanza dove l’impedenza è massima. In questo articolo, così come nel successivo, viene introdotto il comportamento ideale (intenzionale) dell’induttore, e successivamente descritto il suo
comportamento non ideale (non intenzionale) a radio frequenza (vale a dire
l’accoppiamento spurio del campo elettrico, le perdite, il rilassamento, la
dipendenza della temperatura e la saturazione). Sono offerti esempi di realizzazioni pratiche degli induttori.
INTRODUZIONE
Con questo numero di Tutto_Misure
continueremo la rassegna sul comportamento a radio frequenza (RF) dei
componenti circuitali passivi. Concentreremo l’attenzione sugli induttori soffermandoci inizialmente sui principi fisici che ne regolano il funzionamento per
poi passare alla presentazione del circuito equivalente a costanti concentrare
che ne modella il comportamento a RF
in termini di impedenza elettrica vista ai
terminali e infine alla descrizione del-
l’attuale tecnologia costruttiva degli induttori utilizzati nelle moderne schede
elettroniche. Nell’ultima parte dell’articolo saranno inoltre presentate le proprietà magnetiche tipiche dei materiali
ferromagnetici in termini di permeabilità magnetica.
scorre in un circuito produce inevitabilmente un campo magnetico H nello
spazio circostante. Se la corrente i
varia nel tempo, il flusso del campo
magnetico Φ concatenato al circuito
risulta variabile, determinando nel circuito una forza elettromotrice (f.e.m.)
indotta che si oppone alla variazione
del flusso (legge di Faraday). L’induttanza L del circuito, chiamata anche
coefficiente di autoinduzione o autoinduttanza1, è il rapporto tra il flusso del
campo magnetico Φ concatenato e la
corrente i:
L=
Φ
i
(1)
L’unità di misura dell’induttanza è
Henry, simbolo H. È possibile dimostrare che il valore della induttanza
dipende solo dalla geometria del circuito e dalle caratteristiche magnetiche dello spazio circostante investito
dal flusso magnetico.
Dal punto di vista circuitale un induttore è quindi individuato da un volume di spazio dove, a fronte di una circolazione di corrente i, si può pensare concentrata la totalità del flusso di
campo magnetico Φ concatenato al
circuito stesso. Un esempio di confinamento del flusso magnetico Φ all’interno di un volume definito è rappresentato da una struttura toroidale realizzata con materiale ferromagnetico
come mostrato in Fig. 1 attorno al
quale vengono avvolte un numero N
di spire.
Oltre a quanto sopra descritto, l’utilizzo
del materiale ferromagnetico permette
di ottenere, a parità di volume occupa1
Università di Firenze
Ricerca e Sviluppo, Esaote S.p.A.,
Firenze
3 Elettroingegneria, Pistoia
L’autoinduttanza
La presenza di una corrente i che [email protected]
IL COMPORTAMENTO RF
DELL’INDUTTORE
2
T_M
N.
2/11 ƒ 125
N. 02ƒ
; 2011
▲
CAMPI E COMPATIBILITÀ
ELETTROMAGNETICA
v (t ) =
Figura 1 – Confinamento del flusso magnetico Φ:
struttura toroidale
to dall’avvolgimento, valori d’induttanza superiori e fortemente dipendenti
dalle caratteristiche magnetiche del
materiale utilizzato (vedi seguito).
A partire dalla sopra citata legge di
Faraday, tenendo conto della (1), e
assumendo che l’induttanza L non
dipenda dal tempo2, si ottiene:
T_M ƒ 126
dΦ
di (t )
=L
dt
dt
(2)
dove con v(t) è stata indicata la tensione che occorre applicare ai terminali dell’induttore per far
scorrere nell’avvolgimento
la corrente i(t).
Passando nel dominio
della frequenza la relazione che lega il fasore
della tensione V a quello della corrente I è data
da:
V = jωL ⋅ I
(3)
con ω=2πf pulsazione angolare e f
frequenza. ZL=jωL è l’impedenza vista
ai terminali dell’induttore. ZL ha modulo crescente al crescere di f e fase
+π/2 per qualsiasi valore di f. Nel
seguito vedremo che per un induttore
reale le caratteristiche a RF si discosteranno da quelle sopra citate.
Parametri parassiti
In analogia a quanto discusso nel
caso del condensatore reale, gli ingredienti principali per modellare il
comportamento a RF di un induttore
sono l’induttanza L, la resistenza parassita R e la capacità parassita C. È
opportuno fare qualche considerazione: 1) la resistenza parassita R rende
conto della dissipazione di energia
sia per via delle perdite associate alla
struttura metallica dell’induttore (avvolgimento) sia per via delle perdite
per isteresi nel materiale magnetico.
Di fatto, il contributo della dissipazione di energia nel metallo è di solito
trascurabile a RF (conta solo alle frequenze molto basse dove la resistenza dell’avvolgimento prevale sulla
N. 02ƒ
;2011
reattanza ωL). Più importante invece è
la dissipazione di energia nel materiale ferromagnetico, che però risulta
non facilmente modellabile per la
forte dipendenza dalla tipologia del
materiale impiegato e, per un dato
materiale, dalla frequenza (vedi seguito), 2) la capacità parassita C
rende conto della presenza del
campo elettrico che si instaura sia tra
spira e spira dell’avvolgimento che tra
l’avvolgimento e il mondo esterno.
Come per il condensatore reale, il valore dei parametri parassiti è determinato essenzialmente da due fattori: a) il
package del componente (forma,
dimensioni, ecc) e b) il montaggio sul
circuito elettronico a foro passante (TH)
oppure a montaggio superficiale
(SMD). Nei paragrafi seguenti sarà fornito un circuito equivalente capace di
descrivere il comportamento a RF e ne
saranno evidenziati i limiti di impiego.
Il circuito equivalente
A seconda delle necessità gli
induttori sono disponibili in
molte forme costruttive. La
forma di induttore più diffusamente utilizzata è rappresentata da quella a montaggio
superficiale a filo avvolto
oppure multi-layer (Fig. 2).
Un’altra forma diffusa soprattutto per le applicazioni di
potenza che prevedono l’impiego degli induttori sulla
sezione di rete (filtri di rete,
trasformatori per convertitori
AC/DC, ecc.) è quella stampata (Fig. 3).
Per tutte le tipologie esistenti di
induttori il modello circuitale
che rende conto del comportamento a RF è del tipo RLC
parallelo come quello rappresentato in Fig. 4.
Figura 2 – Induttori a montaggio superficiale.
A filo avvolto (Fig. 2a), multi-layer (Fig. 2b)
Figura 3 – Induttori stampati
Figura 4 – Circuito equivalente dell’induttore
T_M ƒ 127
N. 02ƒ
; 2011
▲
CAMPI E COMPATIBILITÀ
ELETTROMAGNETICA
L’impedenza equivalente vista ai ter- del 2011, pag. 45). In
minali del condensatore sarà quindi realtà le cose non stanespressa dalla relazione:
no proprio così. Nell’intorno della frequenza di
risonanza infatti l’indutR + jωL
tore presenta, come
ZL =
(4)
2
detto, una situazione di
1− ω LC + jωRC
alta impedenza rendendo di fatto possibile la
In generale, l’andamento in frequenza circolazione di corrente
della (4) risulta piuttosto complesso. Nel- di modo comune I
Figura 6 – Induttore reale: possibile presenza di corrente
l’ipotesi di considerare il valore della nella massa (Fig. 6).CM
di modo comune
In
resistenza parassita R piccolo rispetto a questa situazione non è
ωL (come avviene nei casi reali) è possi- più verificata la condizione di porta
Carlo Carobbi si è laubile dimostrare che:
reato con lode in Ingecioè la corrente in entrata da un termi1) per f<fr≅1/(2π√LC) il modulo dell’im- nale del componente non è uguale a
gneria Elettronica nel
pedenza vista ai capi del componente è quella in uscita (I ≠I ): la differenza tra
1994 presso l'Università
1
2
del tipo induttivo, cioè cresce al crescere le due correnti è tanto maggiore quandi Firenze. Dal 2000 è
della frequenza, 2) per f>fr il comporta- to più l’impedenza Z +Z è paragonaDottore di Ricerca in
1
2
mento è di tipo capacitivo cioè il modu- bile all’impedenza alla
“Telematica”. Dal 2001 è
risonanza dello dell’impedenza decresce al crescere l’induttore Z .
ricercatore presso il Dipartimento di
L
della frequenza ed infine, 3) per f=fr l’imElettronica e Telecomunicazioni dell'Unipedenza vista ai terminali dell’induttore
versità di Firenze dove è docente di
assume un valore elevato: si tratta di una RIFERIMENTI BIBLIOGRAFICI
Misure Elettroniche e di Compatibilità
situazione di alta impedenza. La Fig. 5,
Elettromagnetica. Collabora come ispetche mostra l’andamento del modulo del- 1. “How to choose ferrite components tore tecnico con l’ente unico di accredil’impedenza misurata ai capi di una for EMI suppression”, Technical Infor- tamento Accredia. È presidente del SC
210/77B (Compatibilità Elettromagnetifamiglia di induttori SMD multi-layer di mation Report, Fair-rite Corp.
dimensioni 2220 (Fig. 5.b, 22x20 mille- 2. “Inductors: General technical infor- ca, Fenomeni in alta frequenza) del CEI.
simi di pollice) e a filo avvolto di dimen- mation”, Vishay, October 2008.
sioni 0805 (Figura 5.a, 8x5 millesimi di 3. The Feynman Lectures on Physics
pollice), conferma quanto qui descritto. by R.P. Feynman, R.B. Leighton and
Da notare che fissata la tipologia co- M. Sands, Addison-Wesley Publishing
Marco Cati si è laureato
struttiva degli induttori la capacità Company (1970).
con lode ed encomio soparassita è la stessa per tutti i valori di 4. Clayton Paul, “Introduction to eleclenne in Ingegneria Eletinduttanza.
tromagnetic compatibility”, Wileytronica all’Università di
La trattazione fin qui presentata può Interscience,
1992,
ISBN
Firenze nel 2001. Dal
portare il lettore alla conclusione che il 9780471549277.
2005 è Dottore di Ricercomportamento dell’induttore reale sia
ca in Ingegneria dell’Affiduale rispetto a quello del condensatodabilità, Manutenzione e Logistica. Dal
re reale: si confronti la Fig. 5 con la cor- NOTE
2005 fa parte del reparto R&S di Esaorispondente figura relativa al caso del
te dove è responsabile delle verifiche di
condensatore reale (Fig. 4 in T_M no. 1 1 L’autoinduttanza L va distinta dalla Compatibilità Elettromagnetica su dimutua induttanza M definita come il
rapporto tra il flusso del
campo magnetico Φ12
concatenato con un circuito 2 a seguito della
presenza della corrente
i1 che scorre in un circuito 1 e la corrente i1
stessa.
2 Perché si esclude che
il circuito magnetico
si deformi nel tempo
e anche che intervengano
apprezzabili
fenomeni di non-linearità.
Figura 5 – Impedenza misurata per vari induttori
a montaggio superficiale.
A filo avvolto (Fig.5a), multi-layer (Fig. 5b)
spositivi ecografici.
Carlo Panconi si è laureato nel 2003 in Ingegneria Elettronica all’Università di Firenze. È Dottore di Ricerca in “Controlli non distruttivi”. Dal
1988 è insegnante di
Laboratorio di Elettrotecnica e di Elettronica nel triennio degli Istituti Tecnici e
Professionali.
VISIONE
ARTIFICIALE
▲
A cura di Giovanna Sansoni ([email protected])
Andare alle fiere fa bene
A spasso per gli stand di visione ad Afidabilità & Tecnologie 2011
EXHIBITIONS ARE USEFUL – WALKING THROUGH THE
BOOTHS AT AFFIDABLITÀ & TECNOLOGIE 2011
The section on Artificial Vision is intended to be a
“forum” for Tutto_Misure readers who wish to explore
the world of components, systems, solutions for industrial vision and their applications (automation, robotics,
food&beverage, quality control, biomedical). Write to
Giovanna Sansoni and stimulate discussion on your
favorite topics.
RIASSUNTO
La rubrica sulla visione artificiale vuole essere un “forum” per tutti i lettori
della rivista Tutto_Misure interessata a componenti, sistemi, soluzioni per la
visione artificiale in tutti i settori applicativi (automazione, robotica, agroalimentare, controllo di qualità, biomedicale). Scrivete alla Prof. Sansoni e
sottoponetele argomenti e stimoli.
Andare alle fiere fa bene, specialmente quando, a distanza di un anno, si
vede un incremento di presenze di
pubblico e di espositori come quello
che ha caratterizzato l’evento Affidabilità & Tecnologie tenutosi lo scorso
Aprile. Molte le aziende che progettano e sviluppano sistemi di visione
chiavi in mano, molte le aziende che
li distribuiscono, molti i visitatori interessati alle presentazioni fatte dalle
aziende, relativamente a casi applicativi interessanti. In questa rubrica
non citerò i singoli attori, perché la lista è facilmente reperibile all’indirizzo
www.affidabilita.eu/aet2011;
come vedrete, erano presenti i più
importanti produttori di hardware e
software e, lasciatemelo dire, un notevole numero di PMI, che sono veri
gioielli in materia di qualità, inventiva
e competenza.
La lista della spesa di un sistema di
visione è tutto sommato piuttosto
corta: una o più telecamere, ottiche
opportune, un sistema d’illuminazione, del software di elaborazione delle
immagini, una stazione di salvataggio, elaborazione e organizzazione
dei dati, un sistema attuatore. Per fare
un’analogia semplice, sono un pò
come il pane: farina, acqua, lievito e
sale. Eppure se andiamo in una
panetteria abbiamo a disposizione
pane di diversa qualità, e con gusti
invariabilmente diversi. È la lunga
lista dei dettagli della lavorazione che
fa la differenza: il tipo di farina, la
sua regione di provenienza, la durezza dell’acqua, il tipo di lievito, la
durata della lievitazione, temperatura
e umidità del forno… e così via.
Tornando al sistema di visione, è
immediato perdersi nella varietà che il
mercato attualmente offre in materia
di telecamere (analogiche,
digitali,
CCD,
CMOS, nel visibile, nell’infrarosso, ecc.), in materia di ottiche (diverse per
qualità, lunghezze focali,
dimensioni, attacchi), in
materia di dispositivi di
illuminazione (diversi per
la sorgente, per la direzionalità della luce, per la
geometria di illuminazione), in materia di piattaforme di elaborazione
(non-real-time, real-time,
con logica riconfigurabile, con logica
programmabile…), su piattaforma
PC, smart camera o dispositivi embedded, con protocolli di comunicazione
sincroni, asincroni, bus seriali, protocolli ethernet e così via. Il sistema
attuatore, infine, è strettamente legato
al tipo di operazione che il sistema di
visione è chiamato a realizzare: misurare caratteristiche dimensionali e
geometriche dei pezzi, contare i
pezzi, verificarne la conformità, l’integrità, la finitura superficiale, l’orientamento.
Nel corso degli anni la tendenza che
si è andata via via sempre più accentuando è stata nella direzione di
aumentare le prestazioni delle telecamere (frequenza di acquisizione, risoluzione, dinamica, qualità dell’immagine), specializzare le ottiche (non
telecentriche, telecentriche, pericentriche), produrre software di elaborazione flessibili, realizzare piattaforme
hardware in grado di risolvere problemi anche molto stringenti in termini
di tempo di elaborazione.
Questa enorme varietà di prodotti, e
la numerosità delle aziende del settore, sono la risposta a una richiesta
comune: quella di risolvere problemi
che hanno quasi sempre una loro unicità, caratterizzati come sono da
requisiti d’ingresso molto specifici.
T_M
N.
2/11 ƒ 129
■
VISIONE
ARTIFICIALE
Stranamente, invece, la percezione
che più comunemente si ha del sistema di visione è che sia un “apparato
che ci vede” e, come avviene fisiologicamente per il nostro apparto di
visione, sia in grado di comprendere,
identificare, metabolizzare e agire.
Tuttavia, queste ultime, sono attività
peculiari del sistema cerebrale, ed è
indispensabile tenere presente che,
per quanto intelligente un sistema di
visione possa essere, esso rimane un
sistema artificiale, che pochissimo ha
a che vedere con la flessibilità, la
velocità di elaborazione, la capacità
percettiva del sistema di visione/elaborazione umano.
Un sistema di visione è di per sé un
sistema che, se ben attrezzato per
eseguire una certa attività, la esegue
bene, con alta ripetibilità, in modo
affidabile e senza stancarsi: esso
mostra quindi una certa complementarietà rispetto al nostro sistema percettivo, che, accanto alla enorme
capacità di elaborazione presenta
una ridotta affidabilità, specialmente
in attività di controllo ripetitive.
Di questo aspetto, a mio avviso fondamentale, si è parlato nel convegno “Visione Artificiale: per
l’affidabilità dei prodotti, l’ottimizzazione dei processi, la
tracciabilità degli elementi”,
anch’esso organizzato nell’ambito di
A&T a cura del collega Remo Sala del
Politecnico di Milano: i relatori, sia
dal mondo della ricerca sia da quello
dell’industria, hanno evidenziato anche come il problema sia più di natura culturale che tecnologica: la fase di
contatto fra il committente e il progettista che è necessaria all’attività di
progettazione e realizzazione del
sistema di visione non può limitarsi ai
primi contatti e alla stesura del contratto: al contrario, è necessario “spalmarla” lungo tutta l’attività, per ottenere da parte di entrambi gli attori la
condivisione più ampia e puntuale
possibile delle finalità del sistema, dei
suoi limiti e delle sue potenzialità. Questo è il requisito che fa di un sistema che
“funziona quasi”, un “sistema che funziona”1, tanto più in un mercato produttivo che ha come primo obbiettivo la
riduzione dei tempi e dei costi, e che
T_M ƒ 130
pertanto non può permettersi arresti macchina, mancata accettazione del prodotto,
ed estenuanti sessioni
di “ma io credevo
che” e “forse non ci
siamo capiti”.
Nelle aziende di integratori (quelle
col fiore all’occhiello di cui parlavo
all’inizio), va emergendo la tecnologia che combina la manipolazione di
robot con telecamere bidimensionali
e/o tridimensionali, per applicazioni
di pick & place, di controllo dimensionale e di difettosità di oggetti complessi e di bin-picking.
La realizzazione di sistemi pick&place
sfrutta principalmente robot di piccolo-medio taglio e ricette di elaborazione 2D (ad esempio, pattern matching ed edge detection) per effettuare il riconoscimento, la presa e il trasporto di oggetti con geometria prevalentemente bidimensionale, spesso
messi in vibrazione su un nastro trasportatore.
Le applicazioni di controllo dimensionale e di finitura superficiale riguardano l’ispezione in tempi brevi di
forme complesse. Esse sfruttano sistemi di visione 2D per l’acquisizione e
l’elaborazione delle parti da controllare, e il riposizionamento del pezzo
in corrispondenza a ciascuna immagine: si intuisce che tale stadio può
essere vantaggiosamente effettuato
mediante robot.
La realizzazione di applicazioni di
bin-picking si riferisce invece alla
presa di oggetti di forma libera o
complessa disposti in modo disordinato o semi-disordinato in cassoni.
Questa è un’applicazione strategica
per la semplificazione delle linee di
produzione, poiché consente la riduzione del tempo necessario alla movimentazione dei pezzi da un’isola di
lavorazione alla successiva, e la riduzione dei costi attualmente sostenuti
per la realizzaione degli impianti che
effettuano la movimentazione. Essa
pone problemi notevoli, poiché l’obbiettivo del processo è l’identificazione degli oggetti nello spazio, e richiede lo sviluppo dei sistemi di visione
ad aumentata intelligenza di cui si
sente la necessità da almeno due
decine di anni.
Quanto visto ad A&T mi ha convinto
che i tempi stanno maturando molto
velocemente. Infatti l’integrazione
robot-visione introduce l’elemento
“flessibilità operativa”: il robot, una
volta dotato di opportuni occhi, se
abilmente istruito, ha in sé la capacità
di presa e movimentazione. Il mercato offre attualmente strumenti di elaborazione specificamente progettati
per ampliare, all’interno della gamma
delle operazioni di elaborazione,
quelle dotate di intelligenza: mi riferisco in modo particolare alle librerie di
visione 3D, che consentono lo sviluppo di applicazioni di misura 3D e di
riconoscimento 3D che era impensabile inserire in un sistema chiavi in
mano fino a un paio di anni fa (mi riferisco ovviamente ai prodotti di
MVTEC e di AQSENSE). Questi strumenti consentono di acquisire la forma tridimensionale della scena e di
correlarla al modello CAD (Templato)
degli oggetti, per stimare posizione e
orientamento di ciascun pezzo e determinare la direzione di presa.
Come ricercatore che ha operato nel
campo dei sistemi di visione 3D prima
che in quelli 2D non posso che essere
entusiasta che il know-how sviluppato
nei centri di ricerca diventi fruibile commercialmente. Va da sé che niente di
tutto questo potrà evvenire se non sarà
accompagnato da un adeguato aggiornamento dell’utenza, che renda gli
operatori del settore adeguatamente
abili nel suo utilizzo, e gli utenti finali
consapevoli delle possibilità e dei suoi
limiti.
NOTE
Espressione sentita durante un’interessantissima chiaccherata con l’Ing.
Fabio Greco e subito adottata.
1
I SERIALI
MISURE E FIDATEZZA
▲
MISURE E FIDATEZZA
Marcantonio Catelani1, Loredana Cristaldi2, Massimo Lazzaroni3
Le funzioni di affidabilità
Alcuni modelli
RELIABILITY FUNCTIONS: SOME MODELS
The reliability of an item of a system can be defined as the probability that
the device or the system will adequately perform the specified function for
a well-defined time interval in specified environmental conditions. Starting
from this first definition it is well clear the importance of the probability and
statistic sciences in both reliability definition and evaluation. This paper is
devoted to introducing some important probability and statistic concepts
necessary for reliability evaluation. In particular, the statistical point of view
is developed and discussed as a first approach to dependability feature of
a system or a device.
RIASSUNTO
In un lavoro precedentemente scritto su questa rubrica si è cercato, come punto
di partenza, di fare chiarezza, per quanto possibile, sulla terminologia in
ambito affidabilistico. Questo articolo, invece, focalizza l’attenzione su alcune
funzioni, e relativi modelli matematici, che in termini generali prendono il nome
di “funzioni di affidabilità”. La trattazione teorica di questo argomento è molto
complessa poiché, a partire da approcci sperimentali sulla base di prove di
laboratorio (prove di affidabilità), si perviene ai modelli matematici con l’ausilio della teoria della probabilità e della statistica. Nei limiti del possibile cercheremo, pertanto, di fornirne una versione semplificata che crediamo comunque utile per comprendere l’importanza dell’argomento e, punto essenziale,
per rendere consapevoli gli interessati che gli aspetti affidabilistici non possono assolutamente essere presi in considerazione e trattati, come purtroppo
sovente accade, a prodotto realizzato. Le prestazioni di affidabilità devono
assolutamente essere considerate come “specifiche di progetto” per la definizione della configurazione di sistema e della scelta dei componenti e del loro
utilizzo, e rappresentano quindi un elemento essenziale per una corretta progettazione. Approfondimenti teorici potranno essere fatti ricorrendo ai riferimento bibliografici citati.
INTRODUZIONE
Ricercando in un dizionario il significato del termine “affidabilità” non è inusuale trovare la seguente definizione:
Affidabilità – da affidabile (persona o
cosa in cui si ha ragione di riporre fiducia) e quindi da affidare (per influsso
semantico dall’inglese reliable) grado
di fiducia che si può riporre in qualche
cosa o qualcuno [1]. L’idea di base è,
quindi, quella di proiettare su oggetti e
sistemi l’attesa non di un risultato ma di
una continuità prestazionale ovvero di
una “disponibilità”.
In termini molto semplici, il concetto di
disponibilità implica che un dispositivo possa essere utilizzato, fissate
certe condizioni, entro il ciclo di vita
atteso rispondendo a proprietà stabilite a priori. Le implicazioni che ne
conseguono possono variare in funzione dell’interlocutore, ovvero del
fornitore, dell’acquirente e/o del committente piuttosto che, se previsto,
delle autorità.
In generale sarebbe auspicabile che
per qualunque dispositivo oggi
immesso sul mercato venissero fornite
informazioni anche sul relativo ciclo
di vita; alla luce di ciò occorre quindi
definire, sulla base di sufficienti, per-
tinenti e attendibili dati sperimentali,
l’affidabilità statistica di tale dispositivo. Lo studio statistico dell’affidabilità, dovendo comunque contare sull’esperienza derivante dalla raccolta
dei dati sperimentali, presuppone
pertanto la conoscenza del concetto
di “fenomeno aleatorio” e del significato delle leggi di distribuzione; è da
ciò che nasce la definizione riportata
nella CEI 56-50 al punto 191-12-01
dove l’affidabilità viene trattata in termini probabilistici e tale probabilità
caratterizza quindi l’attitudine espressa dalla “affidabilità” [2].
LE CARATTERISTICHE
DELL’AFFIDABILITÀ
La definizione di affidabilità, come attitudine dell’elemento a svolgere la funzione richiesta in condizioni date per
un dato intervallo di tempo, discussa
nel precedente articolo di questa rubrica rappresenta una “specifica” della
“fidatezza” (in inglese dependability)
per la quale è necessario definire una
metrica che ne consenta una valutazione quantitativa e comparativa.
L’attitudine a “svolgere la funzione
richiesta” non può che essere intesa
come complementare ad una situazione di guasto [CEI 56-50, 191-04-01].
Quindi, così come al guasto si associa un tempo di vita – noto come
“tempo al guasto”, nel caso più semplice di un componente – la valutazione quantitativa dell’affidabilità
1
Dip. di Elettronica e Telecomunicazioni,
Università di Firenze
[email protected]
2 Dip. di Elettronica,
Politecnico di Milano
3 Dip. di Tecnologie dell’Informazione,
Università di Milano
T_M
N.
2/11 ƒ 131
Tabella 1 – Guasti nei vari intervalli
▲
I SERIALI
MISURE E FIDATEZZA
passa attraverso la valutazione della
affidabilità come “prestazione”, ovvero attraverso la valutazione del tempo
medio fino al guasto MTTF (Mean
Time To Failure), del tasso di guasto λ
e, per i sistemi riparabili, del tempo
medio tra guasti MTBF (Mean Time
Between Failures).
MTTF =
t 1 + t 2 + ... + t n
(3)
n
Fissato un intervallo di osservazione
di durata nota siamo in grado di valutare la relazione (1) per ogni intervallo di ampiezza ∆t=tn-tn-1
Questa procedura, che da un punto di
vista prettamente sperimentale elimina
il problema dell’osservazione continua del processo di guasto, suggeriLA RELAZIONE TRA FUNZIONI
sce, inoltre, la definizione di un istoDI AFFIDABILITÀ
gramma sperimentale delle frequenze
E DATI SPERIMENTALI
relative, dove ∆t (intervallo tra un riCercheremo di definire l’affidabilità lievo e il successivo) rappresenta la
partendo dalla definizione “empirica” larghezza delle classi la cui altezza è
ricavata dall’analisi dei dati di gua- data da:
sto. Consideriamo n elementi uguali
n t + ∆t − ng t
per semplicità di trattazione e messi in f t = g
(4)
E
esercizio al tempo t=0 nelle stesse
n ⋅ ∆t
condizioni. Supponiamo sia essi statiCombinando le (2) e (4) risulta:
sticamente indipendenti.
Sia ns(t) il sottoinsieme di n funzionanti al
F t + ∆t i − FE t i
generico tempo t (elementi sani al tempo f t = E i
E
t). È ragionevole definire il rapporto:
∆t i
(5)
ns (t )
RE (t ) =
(1) con t i ≤ t ≤ t i + ∆t
(
()
()
(
)
()
)
( )
n
Intervallo
di tempo)
(ore
Unità guaste
alla fine dell’intervallo
di tempo
0-1000
1000-2000
2000-3000
3000-4000
4000-5000
5000-6000
Totale guasti
072
024
032
034
023
015
200
La valutazione empirica dell’Affidabilità viene effettuata al termine degli
intervalli temporali indicati nella tabella 1. Dalla tabella si osserva che in
ogni intervallo di 1 000 ore si sono
guastate un certo numero di unità ma
non è possibile dire quando ogni singolo guasto si è manifestato. La valutazione dell’affidabilità può esser
quindi condotta solo per intervalli di
tempo discreti. Occorre inoltre fare
due considerazioni: all’inizio della
prova tutte le unità sono funzionanti e
pertanto l’affidabilità assume valore
unitario; la prova termina quando tutte le unità risultano guaste e pertanto
l’affidabilità al termine della prova è
sicuramente nulla.
È possibile pertanto calcolare la funzione empirica di affidabilità costruendo la tabella 2 con il relativo
grafico (Figura 1). Per quanto riguarda il numero dei sani si deve tener
conto che questi sono quanto rimasto
funzionante al termine di ogni intervallo di tempo. Se ne deduce che,
per esempio, dopo 1 000 ore di funzionamento sono ancora in funzione
128 elementi:
Definendo come “Tasso di guasto
istantaneo” la funzione data dal rapporto tra la probabilità dell’evento e
la durata dell’intervallo di osservazione, avremo che, in termini empirici, è
possibile esprimere il tasso di guasto
attraverso il rapporto tra gli elementi n ( t = 1000 ) = n − n = 200 − 72 = 128
s
s
che si sono guastati nell’intervallo (t,
A
1
000
ore
di
funzionamento
l’affit+∆t] e il numero ns(t) di elementi fundabilità empirica, in base alla (1), è
zionanti al tempo t, ovvero:
data dal rapporto fra il numero di
unità ancora funzionanti (128) e il
n
t
t
n
t
∆
−
+
1
g
g
λE t =
⋅
= numero iniziale di unità coinvolte
nella prova (200): il risultato vale
ns t
∆t
0,64.
(6) In maniera analoga si determinano
fE t
n
= fE t ⋅
=
le altre funzioni empiriche secondo
ns t
RE t
le relazioni (2), (4), (6) ottenendo
ns (t ) ng (t )
quanto in Tabella 3. In Figura 2 si
FE (t ) = 1 − RE (t ) = 1 −
=
(2) Appare evidente che il tasso di guasto riporta l’andamento del solo tasso di
n
n
è il reciproco di un tempo e per tale guasto.
espresso in ore
dove ng(t) è il numero di elementi gua- motivo usualmente
-1).
alla
meno
uno
(h
sti al tempo t, considerando che ns(t) +
ng(t) = n. Indicando con t1, t2, . . tn i
LE GRANDEZZE DI PREVISIONE
tempi al guasto osservati per gli n ele- Esempio applicativo 1
menti presi in considerazione, è pos- I dati di prova, in termini di guasto, Quanto detto, proprio perché basato
sibile definire il valore medio dei relativi a n = 200 componenti sono su osservazione di dati sperimentali, è
tempi al guasto MTTF come:
comunemente noto come approccio
riportati in Tabella 1.
dove il pedice “E”, presente anche
nelle formule a seguire, denota una
funzione empirica.
Dal momento che la definizione di
probabilità basata sul concetto di
frequenza relativa determina la probabilità di un evento proprio come
rapporto tra il numero delle volte in
cui si presenta e il numero complessivo, la funzione R E(t) esprime di
fatto una probabilità che possiamo
chiamare affidabilità empirica
(Reliability è il termine anglosassone). Dalla funzione affidabilità si
ricava la funzione complementare
“Inaffidabilità” F E(t), che in termini
empirici vale:
T_M ƒ 132
(
()
()
()
()
()
)
()
()
N. 02ƒ
;2011
Tabella 2 – Funzione empirica di affidabilità
t (ore)
1
2
3
4
5
6
0
000
000
000
000
000
000
ns
ng
RE (t)
200
128
104
072
038
015
000
000
072
096
128
162
185
200
1
0,640
0,520
0,360
0,190
0,075
0
empirico; per tale ragione, le grandezze affidabilità, inaffidabilità, etc.
possono essere considerate come una
stima empirica delle corrispondenti
grandezze definite attraverso la teoria della probabilità [3].
Per il passaggio alle grandezze di
previsione (appartenenti al dominio
del continuo) occorre definire il
“tempo al guasto” (in realtà, corrisponde a una variabile aleatoria indicata con T); ovviamente tale variabile
assume valori maggiori o
uguali a 0. Partendo da questa
doverosa, anche se non esaustiva precisazione, la funzione
affidabilità, R(t), esprime la
probabilità che il sistema non
si guasti nell’intervallo (t,t+dt);
viceversa, F(t) esprime la probabilità che il sistema si guasti
nello stesso intervallo. Per la
funzione densità di probabilità
di guasto:
λ( t ) =
f(t )
R( t )
▲
I SERIALI
MISURE E FIDATEZZA
(9)
Tralasciando volutamente tutti i calcoli, si arriva a dimostrare la Legge fondamentale dell’affidabilità:
t
− ∫ λ ( τ ) dτ
(10)
R( t ) = e 0
La (10) rappresenta una relazione
molto complessa [5], [6] ma, indipendentemente da ciò, consente di fare
una importante considerazione: l’affidabilità è legata al tasso di guasto.
IL TASSO DI GUASTO
Richiamando l’espressione (10), nell’ipotesi semplificativa di tasso di guasto costante, si ottiene:
R( t ) = e − λt
(11)
L’ipotesi fatta equivale a valutare il
(7) funzionamento del dispositivo nella
Figura 1 – Funzione empirica RE(t)
zona pressoché piatta della curva a
relativa ai dati di tabella 2
vasca [7], condizione spesso applicada cui si determina la proba- bile ai dispositivi elettronici. Sostituenbilità che il sistema do la (11) nella (8) si ha:
si guasti nell’intervallo
1
Tabella 3 – Funzioni empiriche
(t, t+dt).
MTTF =
(12)
λ
Analogamente, è possibi-3
-1
-3
-1
t (ore)
RE(t)
FE(t) FE(t+∆t)-FE(t) fE (t)[10 h ] λE(t)[10 h ] le determinare il valore
Quindi, ricapitolando, è possibile dire
teorico dell’MTTF utiliz00 0-1 000 0,640 0,360
0,360
0,360
0,360
che, noto il tasso di guasto determizando l’approccio previ1 001-2 000 0,520 0,480
0,120
0,120
0,188
nabile ad esempio attraverso banche
sionale. Richiamando la
2 001-3 000 0,360 0,640
0,160
0,160
0,308
dati [6], è possibile tracciare la curva
definizione di valore
3 001-4 000 0,190 0,810
0,170
0,170
0,472
di affidabilità (Figura 3) la quale, parmedio teorico data in sta4 001-5 000 0,075 0,925
0,115
0,115
0,605
tendo da 1 per t=0, ha una pendenza
tistica, è facile dimostrare
5 001-6 000 0,000 1,000
0,075
0,075
1,000
dipendente dal valore di λ e la cui
che, nota la funzione di
area sottesa corrisponde all’MTTF.
affidabilità R(t) del dispoOccorre a questo punto fare una presitivo, si ha:
cisazione relativa al tasso di guasto.
Preme ricordare che l’ipotesi di tasso
∞
(8) di guasto costante è una semplificaMTTF = ∫ R( t )dt
0
zione che rispecchia bene il comportamento di gran parte dei componenda cui si evince che l’MTTF rap- ti elettronici; per altri componenti,
presenta l’area sottesa dall’affi- invece, tale ipotesi può non essere del
dabilità. Nel caso più complesso tutto sostenibile, come spesso accade
di un sistema la cui affidabilità in ambito meccanico. Ciò porta a
vale RS(t), l’MTTFS è ancora dato definire modelli di tasso di guasto
dalla (8) sostituendo RS(t) al posto anche molto complessi, che dipendodi R(t). In ogni caso MTTF ed no dalle caratteristiche chimico-fisiche
MTTFS sono espressi in ore.
dei materiali e dal relativo processo
Figura 2 – Andamento tasso di guasto
Il Tasso di guasto istantaneo di degrado che porta alla condizione
vale:
di guasto. In ambito elettronico,
dF ( t )
dR( t )
f(t ) =
=−
dt
dt
T_M ƒ 133
N. 02ƒ
; 2011
Figura 3 – Andamento qualitativo dell’Affidabilità
plice e intuitivo il significato fisi- tezza, T_M 1/11, ISSN: 2038-6974.
co delle funzioni fondanti la teo- 8. L. M. Leems, Reliability: probability
Models and Statistical Methods, Second
ria dell’affidabilità.
comunque, gran parte delle banche
dati di affidabilità ipotizzano il tasso BIBLIOGRAFIA
di guasto costante.
CONCLUSIONI
Si è cercato di inquadrare l’affidabilità
come un requisito quantitativo di un dispositivo o sistema. Individuando nel
tempo al guasto il punto di partenza
per la definizione di una “metrica”, sono state richiamate le principali funzioni che contribuiscono a definire l’affidabilità. Il passaggio dalle grandezze
empiriche, proprio perché legate alla
definizione di probabilità come frequenza di ripetizione di un evento, ha
consentito di evidenziare in modo sem-
T_M ƒ 134
1. Nuovo Zingarelli, Zanichelli.
2. CEI 56-50: Terminologia sulla fidatezza
e sulla qualità del servizio.– prima ed.
maggio 1997.
3. G. Iuculano: Introduzione a probabilità, statistica e processi stocastici, Pitagora
editrice, Bologna 1996
4. R. C. Michelini, R. P. Razzoli “Affidabilità e sicurezza del manufatto industriale:
la progettazione integrate per lo sviluppo
sostenibile” Tecniche nuove (ed. 2000).
5. F. Galetto, Affidabilità, Vol. 1, CLEUP
(Padova).
6. A. Birolini, Reliability Engineering:
Theory and Practice, Sixth Edition, 2010,
Springer.
7. M. Catelani, L. Cristaldi, M. Lazzaroni,
L. Peretto, P. Rinaldi, Le parole della fida-
Edition, 2009, Lightning Source, ISBN:
978-0-692-00027-4.
Marcantonio Catelani
si è laureato in Ingegneria elettronica presso l’Università degli Studi di
Firenze. È attualmente
docente di Affidabilità e
controllo qualità presso la Facoltà di
Ingegneria di Firenze ed afferisce al
Dipartimento di elettronica e telecomunicazioni. L’attività di ricerca riguarda
misure e metodi per l’affidabilità in
ambito elettronico, tecniche di diagnosi
di guasto, attività sperimentali e prove
di affidabilità di componenti e sistemi,
sistemi automatici di misura per la
gestione delle attrezzature di prova.
▲
I SISTEMI RFID
I SERIALI
I SISTEMI RFID
Alessandro Clerici, Cristina Quetti (Lab#ID)
Sistemi RFID: alcuni ambiti
di applicazione
RFID SYSTEMS: SOME APPLICATION FIELDS
The paper describes some of the main applications of RFId systems in industry, also with the presentation of examples related to projects developed by
Lab#ID, the laboratory on RFId systems active in the Carlo Cattaneo – LIUC
University.
RIASSUNTO
L’articolo descrive alcuni tra i principali campi di applicazione dei sistemi
RFId in ambito industriale, anche attraverso la presentazione di esempi relativi a progetti sviluppati da Lab#ID, il laboratorio sui sistemi RFId dell’Università Carlo Cattaneo – LIUC.
RFID AL SERVIZIO DELLE IMPRESE
E DELLE ORGANIZZAZIONI
I sistemi di identificazione in radiofrequenza (RFId) sono particolarmente
indicati per migliorare l’efficienza e
l’efficacia dei processi di raccolta
automatica di dati su oggetti, animali
o persone. Le situazioni in cui risulta
utile identificare in modo rapido e affidabile entità in ambito industriale
sono molteplici: la tracciabilità di singoli prodotti o asset, la visibilità in
tempo reale delle giacenze di magazzino, l’utilizzo per il controllo degli
interventi di manutenzione sono solo
alcune delle più interessanti. Questo
grazie alle notevoli potenzialità dei
sistemi RFId, come la possibilità di
identificare contestualmente centinaia
di tag, la capacità di memorizzare un
buon quantitativo di dati nella memoria dei tag, l’opportunità di poter riutilizzare questi supporti un numero tendenzialmente infinito di volte, l’alta
velocità di lettura, che può avvenire
anche a distanza e in assenza di visibilità ottica, la resistenza a condizioni
ambientali critiche e la possibilità di
proteggere i dati memorizzati attraverso password e algoritmi crittografici.
Con una prospettiva di carattere funzionale, illustriamo qui alcuni ambiti
applicativi trasversali dei sistemi RFId,
con riferimenti a progetti svolti da
Lab#ID, il laboratorio sui sistemi RFId
Quest’articolo è il secondo di una
mini-serie, a cura dei ricercatori del
Lab#ID, che mira a proporre un’introduzione ai sistemi RFId e alle loro
applicazioni, ma anche a testimoniare
il modo con cui il laboratorio attua
processi di trasferimento tecnologico,
mettendo in evidenza i fattori critici
per conseguire gli obiettivi di progetto
e portando l’esperienza di alcuni casi
concreti. Lab#ID (Luca Mari)
dell’Università Carlo Cattaneo – LIUC, tutta la filiera produttiva e distributiva,
per rendere più concreto il discorso. è stata affrontata con l’obiettivo di
acquisire visibilità e tracciabilità dei
componenti critici, dal produttore alLA TRACCIABILITÀ DI FILIERA
l’utilizzatore finale. La collaborazione
a livello di supply chain è stata resa
La possibilità di mantenere l’identifi- possibile dal servizio di intelligence
cazione degli item, dalla materia fornito da un fornitore esterno, in graprima ai prodotti finiti, lungo una filie- do di gestire un database centralizzara di produzione e distribuzione è di to nel quale sono memorizzati i dati
grande interesse: con opportune scel- relativi ai componenti su cui tutte le
te strategiche e organizzative, i diver- aziende coinvolte nel progetto esesi soggetti che arrivano a condividere guono le lavorazioni. Il ricorso a un
dati e quindi parti del loro sistema provider esterno permette, in progetti
informativo condividono in effetti i che coinvolgono più realtà aziendali,
benefici di tale interoperabilità, nello di garantire il corretto rapporto di trastesso tempo suddividendone i costi. sparenza fra le parti e l’accesso proCon l’eccezione di alcuni, pochi in tetto via web ai dati condivisi. Il proeffetti, esempi in particolare riferiti cesso prevede l’applicazione di tag
all’ambito della Grande Distribuzione RFId, da parte del fornitore dei comOrganizzata, si tratta per altro di un ponenti, sui singoli item che potranno
ambito in cui le applicazioni RFId non così essere identificati univocamente.
sono ancora numerose, forse anche Durante le fasi di assemblaggio e laper la scarsità di modelli e di espe- vorazione i codici identificativi dei
rienze di collaborazione inter-orga- componenti possono essere letti con
nizzativa.
un reader RFId palmare e associati alCiononostante, Lab#ID ha già seguito la lavorazione eseguita o alle matrialcuni progetti significativi finalizzati cole degli assiemi su cui vengono
all’introduzione di un sistema RFId per installati, permettendo così la creaziola tracciabilità di prodotti lungo un’in- ne di una distinta base elettronica che
tera filiera produttiva. Tra questi, uno andrà a sostituire le schede di lavorain particolare ha interessato una filie- zione compilate manualmente dagli
ra termoelettromeccanica. In questo addetti alla produzione. I principali
progetto l’adozione della tecnologia vantaggi dell’adozione della radiofreRFId da parte di più imprese, lungo quenza in questo contesto sono dun-
T_M
N.
2/11 ƒ 135
Figura 1 – Collaborazione di filiera mediante RFId
que principalmente ascrivibili a:
– eliminazione della fase di stesura manuale delle schede di lavorazione, che possono gestite in maniera automatizzata;
– riduzione degli errori di compilazione e trascrizione
dei dati, tipicamente presenti con l’utilizzo del tradizionale supporto cartaceo.
L’impiego di sistemi RFId permette inoltre, rispetto alle
applicazioni che sfruttano i codici a barre, di associare a
ogni singolo componente sia uno specifico codice identificativo sia dati aggiuntivi come, per esempio, il nome del
fornitore e la data di produzione o lavorazione del
pezzo; la lettura dei tag può avvenire anche in condizioni sfavorevoli caratterizzate da polvere depositata sulle
etichette o qualora il componente sia già assemblato e
nascosto da cavi o pannelli di copertura.
Oltre a queste migliorie di processo, una serie di servizi aggiuntivi consentono un incremento di prestazioni
globali nella supply chain e nel livello di servizio percepito dal cliente finale:
• le fasi di manutenzione e sostituzione in garanzia dei
componenti guasti e le azioni di recall dei prodotti
difettosi diventano gestibili in modo preciso e mirato
grazie alla elevata tracciabilità raggiunta grazie a
questa soluzione;
• un incremento di visibilità nella movimentazione delle
parti all’interno degli stabilimenti produttivi e nella gestione inventariale dei magazzini permette di ridurre
fenomeni di stock-out, obsolescenza, tempi di attesa e
localizzazione dei componenti;
• la tracciabilità a livello di singolo componente e la
puntuale registrazione delle fasi di lavorazione consente lo sviluppo di un sistema di controllo trasparente
sullo stato di avanzamento delle commesse.
LA GESTIONE DELLA SICUREZZA
In settori in cui è presente un elevato livello di rischio,
per esempio quello chimico / petrolchimico e quello
ospedaliero, la sicurezza dei lavoratori e dei cittadini
è un requisito imprescindibile. L’RFId è uno strumento
T_M ƒ 136
N. 02ƒ
;2011
efficace per la prevenzione da eventi
avversi e per il risk management,
soprattutto se la semplice identificazione in radio frequenza è associata
all’utilizzo di sensori. Tag con sensori
di temperatura, per esempio, possono
operare come data logger, in grado
di monitorare i parametri ambientali
durante lo stoccaggio e il trasporto di
particolari prodotti. Si pensi per esempio alle applicazioni per il controllo
della temperatura delle sacche ematiche: gli emocomponenti sono infatti
molto sensibili alla temperatura degli
ambienti in cui sono mantenuti durante le fasi di trasporto o conservazione.
Alcuni progetti svolti da Lab#ID hanno
studiato la possibilità di tracciare le
sacche di sangue con questi sistemi.
La possibilità di individuare univocamente ogni singola sacca, associandola all’anagrafica del donatore, e
l’opportunità di conoscere la temperatura degli ambienti in cui questa si è
trovata consente di verificare, prima
di qualsiasi trasfusione, che il prodotto sia idoneo per il ricevente.
Vi è poi un’altra notevole potenzialità
dell’RFId, oltre a quella della semplice
identificazione di cui sinora si è parlato, che nel campo della sicurezza
risulta essere estremamente interessante: la localizzazione. Particolari
sistemi chiamati RTLS (Real Time Locating Systems) consentono, infatti, di
localizzare nello spazio la posizione
di un tag. In questo modo, per esempio, è possibile sapere, in caso di
emergenza, dove si trovano gli operai
di un’azienda, un’informazione critica, sempre per esempio, nei siti dove
avviene la raffinazione di idrocarburi.
Lab#ID ha svolto alcuni test in questo
ambito: per la pericolosità dei materiali trattati e la dimensione degli impianti produttivi, un sistema che consenta di localizzare la posizione dei
lavoratori risulta essere estremamente
importante per le squadre di soccorso
che devono monitorare l’evacuazione
di un sito. Poter contare, in modo automatico, il personale che ha raggiunto i punti di raccolta ed essere in
grado di visualizzare, in tempo reale,
la posizione e i percorsi degli operai
che non sono riusciti a raggiungere le
vie di fuga, consente di poter prestare
soccorso in modo rapido ed efficace.
Il fatto che la localizzazione possa
essere attivata solo in situazioni di
emergenza e venga presidiata unicamente dai responsabili delle squadre
di soccorso, garantisce la privacy dei
lavoratori durante le normali condizioni di lavoro. Lo stesso sistema,
ovviamente, può essere utilizzato
anche per tracciare, in tempo reale,
lo spostamento di beni o veicoli all’interno di un sito.
GESTIONE DOCUMENTALE
I sistemi RFId mostrano notevoli potenzialità anche a supporto della gestione documentale, abilitando una più
efficiente ed efficace organizzazione
degli archivi. Applicati a singoli fogli,
documenti, o cartelle, i tag RFId assicurano un sistema di archiviazione
funzionale alla tracciabilità, rintracciabilità e monitoraggio dei documenti, rendendo disponibili all’occorrenza tempestivamente le informazioni necessarie, rispondendo alle esigenze delle organizzazioni di supportare il personale nella gestione e
nel rintracciamento di documenti. La
procedura di gestione documentale
risulta, per imprese e Pubblica Amministrazione, un processo senza dubbio complesso e oneroso, che richiede sensibili costi di realizzazione e
stoccaggio. Si pensi alle imprese commerciali più semplici, che sono comunque tenute alla conservazione
delle fatture emesse per dieci anni.
L’RFId costituisce una grande opportunità per gli Enti Pubblici, soprattutto le
Pubbliche Amministrazioni, per migliorare l’attuale gestione dell’archivio cartaceo e per affiancare una
futura archiviazione digitale.
Un progetto pilota molto interessante
è stato svolto da Regione Lombardia,
per la reperibilità della documentazione relativa ai programmi comunitari presente negli archivi. È stata prevista l’identificazione univoca di ogni
pratica e di tutti i fascicoli in essa contenuti; là dove si è palesata una particolare necessità di garantire la massima efficienza nella ricerca dei documenti e di controllarne gli accessi, si è
Figura 2 – Gestione documentale
giunti all’etichettatura di ogni singolo
foglio contenuto nelle pratiche. Gli
ottimi risultati ottenuti hanno dimostrato che la gestione documentale tramite sistemi RFId ottimizza la reperibilità
dei documenti, assicurando notevoli
benefici in termini di riduzione dei
tempi ricerca, riduzione dei costi associati al recupero dei documenti e
minori tempi di ricerca delle informazioni. Inoltre, è possibile controllare
l’accesso in archivio, conoscere in
tempo reale l’esatta posizione di un
documento (archivio, ufficio e scrivania) ed effettuare l’inventario dei documenti in tempo reale.
EFFICIENZA DI PROCESSO
L’efficienza di processo è un fattore
critico di successo in molteplici settori.
I sistemi RFId consentono di automatizzare il processo di acquisizione di
dati rendendo le operazioni di identificazione di materie prime, semilavorati e prodotti finiti molto più rapide.
Questo consente una significativa riduzione dei tempi di attraversamento
di componenti e prodotti all’interno
delle linee produttive, andando a ridurre l’impatto di tali attività sulle risorse umane e dando la possibilità in
alcuni casi di rimuovere interamente
delle attività “collo di bottiglia” per
l’intero processo produttivo di un’azienda. A tale proposito citiamo due
casi studiati da Lab#ID.
Il primo riguarda un’azienda nella
costruzione di quadri elettrici di manovra per ascensori, scale e tappeti
mobili. L’azienda ha scelto di utilizzare un sistema RFId per supportare la
tracciabilità dei componenti prodotti
lungo le linee di produzione presenti
nel proprio sito produttivo, in modo
da controllare in tempo reale e in
modo automatizzato la fase di consolidamento ordini, garantendo che le
T_M ƒ 137
■
I SERIALI
MISURE E FIDATEZZA
casse di imballaggio degli impianti in
spedizione fossero effettivamente
complete di tutti i componenti necessari. Tale processo veniva precedentemente svolto manualmente, con sistema di lettura mediante codici a barre,
e risultava essere un rilevante collo di
bottiglia per il comparto produttivo.
L’utilizzo dell’RFId ha consentito di
ridurre notevolmente i tempi necessari
al controllo a fine linea. Questo è
stato possibile grazie all’inserimento
di un “tunnel RFId” a fine linea, in pratica un’area di transito opportunamente attrezzata con antenne, che è
in grado di controllare la presenza di
tutti gli item necessari, all’interno di un
imballaggio in pochi secondi. Questa
innovazione ha consentito di ridurre
dell’80% i tempi necessari per questa
attività, andando di fatto a eliminare
il collo di bottiglia e contemporaneamente a ridurre i costi di manodopera
connessi.
Un progetto simile ha interessato l’aeroporto di Malpensa, dove è stato
installato un sistema RFId per rendere
efficiente lo smistamento dei bagagli,
consentendo la tracciabilità del singolo bagaglio per tutta la durata del suo
viaggio, dal check-in alla riconsegna.
Grazie all’infrastruttura RFId, in qualsiasi momento ciascun bagaglio potrà
essere infatti rintracciato e identificato
all’interno dell’impianto, stabilendone
inoltre contestualmente la destinazione. Il nuovo sistema d’identificazione,
affiancato al vecchio sistema barcode, consente di aumentare l’affidabilità dell’identificazione dei bagagli:
una volta etichettati, i bagagli sono
convogliati nell’impianto di smistamento, dove sono stati posizionati in
serie i sistemi di lettura per codici a
barre e per tag RFId. Il sistema RFId
viene dunque impiegato in affiancamento all’attuale sistema di codifica
dei bagagli, basato su codici a barre,
con il doppio obiettivo di aumentare
da subito le prestazioni del sistema di
identificazione automatica e, nello
stesso tempo, di sperimentare la
nuova tecnologia senza ridurre l’affidabilità, e quindi la qualità del servizio, del sistema. Grazie a questo sistema si elimina, infatti, il problema
delle mancate letture, che costituisce
T_M ƒ 138
la principale fonte di problemi del
codice a barre. Nel chip di un tag
possono inoltre essere scritti dati aggiuntivi riguardanti il bagaglio, comFigura 3 - Asset tracking in tempo reale
presa la sua destinazione, che permettono un suo instradamento automatico sino al carosello di imbarco.
scorte, il management documentale e il
monitoraggio della sicurezza. In virtù
delle loro caratteristiche peculiari, i
GESTIONE DEGLI ASSET
sistemi RFId possono anche essere
applicati in un contesto collaborativo,
L’adozione dei sistemi RFId a suppor- permettendo di migliorare la competitito della gestione degli asset rappre- vità delle supply chain attraverso l’apsenta una tematica trasversale sia alle plicazione di metodologie che preveimprese che alle società di servizi, dono la condivisione di informazioni
ove la corretta individuazione e trac- sui processi di più aziende.
ciabilità di beni strumentali sono fondamentali per l’ottenimento di processi più efficienti.
QUALCHE RIFERIMENTO,
Per esempio, per grandi macchinari e PER APPROFONDIRE
impianti è spesso utile registrare e tracciare tutti gli assiemi e i sottoassiemi che 1. Lab#ID: http://labid.liuc.it
li compongono, attivando un sistema di 2. RFId Journal:
manutenzione preventiva e predittiva www.rfidjournal.com
che memorizzi i dati direttamente nella 3. Portale RFId Italia:
memoria del tag posizionato sull’asset. http://rfid.thebizloft.com
Grazie alla riscrivibilità dei tag RFId, i
dati di manutenzione possono essere
aggiornati a seguito di ogni intervento. È inoltre possibile partizionare la
Alessandro Clerici ha
memoria di un tag, consentendo di
conseguito la Laurea Spepoter riscrivere solo alcuni dati e imcialistica in Ingegneria
pedendo la cancellazione di altri,
Gestionale presso l’Unieventualmente consentendo la lettura
versità Carlo Cattaneo –
LIUC di Castellanza, doo la modifica di dati solo mediante l’uve attualmente sta frequentando il corso
tilizzo di una password.
Nel comparto aerocargo, Lab#ID ha di Dottorato in Gestione Integrata d’Acollaborato con alcune fra le princi- zienda. Collabora con il laboratorio
pali compagnie aeree per l’adozione Lab#ID per la realizzazione di progetti
di sistemi RFId per la localizzazione legati al trasferimento tecnologico alle
in tempo reale di pallet e container, imprese su sistemi RFId.
allo scopo di migliorare l’efficienza
del servizio di spedizione e ottimizzare i costi di movimentazione.
Cristina Quetti ha con-
CONCLUSIONE
I sistemi RFId sono strumenti particolarmente indicati per migliorare l’efficienza e l’efficacia dei processi di raccolta
automatica di dati in contesti anche
molto differenti tra loro. Tra questi si
possono citare la tracciabilità di singoli prodotti e asset, la visibilità dei materiali, la gestione in tempo reale delle
seguito la Laurea Specialistica in Ingegneria Gestionale presso l’Università Carlo Cattaneo – LIUC
di Castellanza, dove collabora con il Lab#Id e insegna nel corso
“e-business: Methodology and Technology”. I suoi interessi di ricerca riguardano le ICT a supporto dell’aggregazione e della collaborazione fra imprese. Come collaboratrice di Lab#ID ha
coordinato e condotto alcuni progetti di
adozione di sistemi RFId e NFC.
METROLOGIA
LEGALE
▲
A cura dell’Avv. Veronica Scotti ([email protected])
Etica metrologica
e codici di comportamento
nelle attività processuali
LEGAL AND FORENSIC METROLOGY
This section intends to discuss the great changes on Legal
Metrology after the application of the Dlgs 22/2007, the
so-called MID directive. In particular, it provides information, tips and warnings to all “metric users” in need of
organizations that can certify their metric instruments
according to the Directive. This section is also devoted to
enlighting aspects of ethical codes during forensic activities where measurements are involved. Please send all
your inquiries to Ms. Scotti or to the Director!
RIASSUNTO
Questa rubrica intende discutere i significativi cambiamenti in tema di Metrologia Legale a seguito dell’entrata in vigore del Dlgs 22/2007, altrimenti detto
Direttiva MID. In particolare, vuole fornire utili informazioni, consigli e ammonimenti a tutti gli “utenti Metrici” che si rivolgono per reperire informazioni su
Enti e organizzazioni notificate per la certificazione del loro prodotto/strumento secondo la Direttiva. La rubrica tratta anche di aspetti etici correlati allo
svolgimento di misurazioni legate ad attività in abmito forense (CTU, CTP). Scrivete all’Avv. Scotti o al Direttore, e verrete accontentati!
ETICA E DEONTOLOGIA
Il tema delle norme deontologiche e dei
codici etici è di notevole attualità, considerati i numerosi organismi che hanno
inteso dotarsene per dichiarare la propria adesione a principi di ampia portata morale. La stessa etimologia della
parola etica riporta infatti al concetto di
morale ovvero quell’insieme di valori
universalmente (o ampiamente) riconosciuti da una comunità, con i quali la
stessa si identifica senza che tali precetti necessitino di sanzioni ai fini della
loro osservanza, poiché si tratta di
“regole dell’animo umano” che rifugge
naturalmente condotte contrastanti con
tali principi. La deontologia si pone
quale corollario dell’etica, in quanto
rappresenta lo strumento applicativo
delle norme etiche, ponendosi come un
vero e proprio elenco di doveri a cui i
soggetti di una data comunità devono
sottostare affinché i principi etici possano trovare espressione effettiva.
Tuttavia, mentre l’etica non necessita di
una manifestazione formale e formalizzata dei propri principi, proprio in
quanto si presumono insiti all’interno
della comunità di cui un soggetto fa
parte, la deontologia richiede, in conseguenza della propria natura di “strumento attuativo dell’etica”, espressioni
esterne date principalmente dai cosiddetti Codici di comportamento o Codici
deontologici. La loro finalità è quella di
determinare le regole da applicare ed i
comportamenti da adottare, individuando le condotte riprovevoli che possono
costituire oggetto di biasimo, per violazioni di minore entità o, addirittura,
causa di espulsione del soggetto dalla
comunità quando si tratti di condotte
particolarmente gravi.
È ben noto ai lettori di questa rivista che
anche il GMEE ha ritenuto opportuno
dotarsi di un codice etico e deontologico finalizzato a costituire un punto di
riferimento per le condotte di ciascun
Socio che, a vario titolo, possa essere
chiamato ad effettuare misure: in tal
modo vengono identificati i comportamenti “virtuosi” e sono definite, al contempo, le sanzioni, differenziate in funzione della gravità della violazione
commessa.
Le norme deontologiche, che danno
forma e sostanza ai principi etici e ne
sono l’espressione pratica, divengono,
attraverso la previsione di condotte
positive e la individuazione di pene
associate alla loro trasgressione, norme
giuridiche (quasi) perfette. Infatti, la
norma giuridica non è altro che l’indicazione di un corretto comportamento
unitamente alla previsione di una sanzione che attribuisce forza ed efficacia
a tale regola. La differente efficacia di
una norma, ovvero se debba essere
considerata imperativa a tutti gli effetti o
meno, proviene esclusivamente dalla
forza gerarchica ed istituzionale dell’ente che l’ha disposta.
In ogni caso i giuristi considerano una
norma perfetta (intesa appunto come
comprensiva della previsione di una
condotta legittima e di una sanzione in
caso di violazione di detta condotta) se
trova applicazione e riconoscimento
all’interno di una collettività di soggetti
che si riconoscono nei principi fondanti
della comunità a cui partecipano: pertanto le norme deontologiche adottate
da organismi plurisoggettivi (quali enti,
associazioni di varia natura e scopo,
gruppi di lavoro ecc.) sono un corpus di
regole munite dell’efficacia tipica della
norma giuridica, sebbene trovino applicazione esclusivamente all’interno della
specifica comunità.
L’ETICA
NELLE ATTIVITÀ PROCESSUALI
Vediamo ora più in dettaglio quale
impatto le norme etiche e le regole
deontologiche hanno sull’attività professionale e, in particolare, nelle attività
tecniche in ambito processuale. È ben
noto, da un punto di vista affatto generale, che la norma etica richiede che le
attività del tecnico vengano svolte
secondo coscienza e scienza: concetti questi che sono, peraltro, posti a
T_M
N.
2/11 ƒ 139
l’effettuazione di misure, il tecnico deve
applicare la fondamentale e ben
nota norma UNI CEI ENV
13005:2000 (GUM). Tale condotta si
pone come necessaria per adempiere
correttamente all’incarico, in modo da
escludere una responsabilità giuridica,
ma anche al fine di evitare una “responsabilità etica “e una “responsabilità
morale”.
In ordine alla responsabilità etica, infatti, qualora si ravvisasse l’inosservanza
(grave) di tale normativa tecnica l’operatore potrebbe subire sanzioni
NEWS
▼
base delle stesse norme tecniche di riferimento. Proprio per questo motivo è
naturale supporre che esista un legame
tra la norma tecnica e i principi etici
posti a guida dell’operatore che si trovi
ad adempiere a un incarico di natura
privatistica (un contratto) oppure a un
compito di natura pubblicistica (p. es.:
attività di CTU in sede giudiziale).
In particolare è proprio quest’ultima
tipologia di attività a porre problematiche di natura etica, prima ancora che
giuridiche, che possono assumere valore rilevante e possono determinare effetti tangibili nel caso in cui il soggetto
appartenga a una comunità che, attraverso l’adozione di un codice deontologico, abbia definito un quadro organico di obblighi e responsabilità.
Infatti la mancata applicazione delle
normative tecniche di riferimento per
una data attività integra da un lato,
sotto il profilo contrattuale, l’inosservanza della regola d’arte con conseguenze
di natura privatistica (risarcimento del
danno, risoluzione del contratto ecc.) e
implica, dall’altro, la violazione delle
norme etiche e, se del caso, di norme
deontologiche riconosciute che potrebbero determinare conseguenze in
danno al tecnico che abbia omesso di
adempiere a quanto previsto dalle
norme tecniche. Tale affermazione assume poi maggiore pregnanza e valore
quando l’attività che il tecnico è chiamato a svolgere sia inserita nell’ambito
di un processo di natura penale che
può concludersi con la privazione della
libertà personale di un soggetto.
Appare evidente la stretta connessione
tra i principi etici specifici, cui deve
essere informato il lavoro del tecnico, e
l’etica comunemente intesa come morale: l’insieme dei principi che la collettività generale riconosce come imprescindibili per una società civile. Proprio
in base a tale imprescindibilità le norme
etiche di determinate comunità posano
le loro fondamenta sulle norme morali
generali e le superano prevedendo ulteriori approfondimenti e corollari destinati a qualificare e distinguere l’entità
da cui promanano.
Nello svolgimento di attività peritali in
qualità di consulente tecnico di un giudice nell’ambito di un procedimento
penale, se il compito affidato richiede
T_M ƒ 140
N. 02ƒ
; 2011
▲
METROLOGIA
LEGALE
RENDIMENTO INVERTER
FOTOVOLTAICI:
CON ASITA SI PUÒ!
L’inverter è l’apparato che converte la corrente continua generata dalle celle solari in corrente alternata, collegandosi in sincronismo
alla rete elettrica nazionale. Nei momenti in
cui il consumo istantaneo è inferiore alla
potenza elettrica generata, l’eccesso di produzione viene immesso in rete consentendone
l’utilizzo da parte di altri utenti.
La tecnologia costruttiva di questi dispositivi è
piuttosto complessa e sul mercato oggi sono
presenti molti prodotti con differenti caratteristiche tecniche, soprattutto dal punto di vista
del rendimento elettrico valutato nelle più disparate potenziali condizioni di lavoro.
Per i produttori e gli importatori di tali dispositivi è quindi fondamentale saper progettare e
fabbricare prodotti che garantiscano un’elevata
efficienza energetica e perciò idonei a minimizzare il loro costo energetico durante l’intero
ciclo di vita di funzionamento e a ottimizzare la
capacità di conversione continua/alternata.
In quest’ottica risulta evidente l’enorme importanza che rivestono la misura dei parametri elettrici di funzionamento di questi dispositivi e il
loro rendimento elettrico, nonché la complessità
nell’ottenere misure adeguate, precise e
attendibili.
ASITA anche in questo settore assiste
la propria clientela con una gamma
di wattmetri specificamente progettati
e realizzati per soddisfare ogni specifica esigenza di misura, a partire dal
nuovissimo e rivoluzionario analizzatore
di potenza 3390 che rappresenta la
miglior soluzione strumentale oggi disponibile sul mercato in termini potenzialità
di misura e facilità di utilizzo.
3390 offre capacità di misura che coprono
un’elevata ampiezza di banda in frequenza
disposte dal codice deontologico
della realtà collettiva di appartenenza
(ordine professionale, associazione
ecc.) e, per quanto concerne la responsabilità morale potrebbe porsi un problema di natura interiore legato
alle conseguenze derivanti dall’accertamento “viziato” (ovvero non conforme),
in quanto incompleto del dato
dell’incertezza di misura.
Nei procedimenti penali i rilievi sperimentali demandati al perito ed esperiti
per mezzo di appropriate misure,
hanno generalmente lo scopo, attraver-
ed una notevole precisione di misura adattandosi alla maggior parte degli inverter oggi in
commercio, sia di tipo Fotovoltaico sia di tipo
industriale per abbinamento a motori elettrici.
Le principali caratteristiche di analisi sono: l’elevata accuratezza (0,05% rdg a 50-60Hz) e
stabilità di misura in RMS simultanea sui 4
canali di ingresso, con portata in tensione
fino a 1500V e in corrente fino a 500A, l’ampia frequenza di campionamento a 500kS/s
e la capacità di eseguire l’analisi del contenuto armonico di tensione corrente e potenza
fino al 100° ordine armonico.
3390 consente inoltre di registrare le analisi
svolte direttamente su penna USB, su Compact Flash Card o di trasferirle all’esterno tramite interfacce LAN USB (2.0) e RS232, il
tutto in un contenitore compatto e leggero
adatto anche alle misure in campo.
La stazione di potenza 3390 è la soluzione
ideale per l’analisi del rendimento elettrico e
la valutazione dell’efficienza complessiva
della maggior parte dei motori elettrici e
inverter sia di potenza che Fotovoltaici,
soprattutto per i reparti Ricerca & Sviluppo, i
laboratori di prova e verifica, nonché gli istituti di ricerca ed università.
La gamma di strumenti per misure di potenza
di Asita comprende inoltre analizzatori delle
qualità di rete PQA, analizzatori di rete portatili, sistemi di acquisizione e gestione dei
consumi elettrici e numerose altre opportunità.
Per ulteriori informazioni: www.asita.com
N. 02ƒ
;2011
mente certo, non avrebbe elementi
per nutrire dubbi circa la colpevolezza
dell’imputato e quindi, se tale valore
deponesse a favore della tesi dell’accusa, il giudicante deciderebbe inesorabilmente per una condanna.
Alla luce di quanto anzidetto risulta chiara la responsabilità morale ed etica,
prima ancora che giuridica, che il tecnico assume, quale ausiliario del giudice,
soprattutto in un procedimento penale.
In conclusione, la violazione delle
norme tecniche di riferimento, ivi inclusa la GUM per quanto concerne la
■
so il confronto tra il valore misurato ed
un valore di riferimento, di stabilire se è
stato commesso un reato, di valutarne
l’entità e, assai spesso, di fornire indicazioni utili ad individuare il reo. È ben
noto il ruolo giocato dall’incertezza di
misura in questo confronto, ruolo che
spesso consente soltanto di esprimere
una probabilità che il valore misurato
sia superiore o inferiore al valore di riferimento considerato. Probabilità che, se
non si tenesse conto dell’incertezza,
potrebbe essere erroneamente presa
per certezza.
In queste situazioni la corretta valutazione dell’incertezza di misura e il suo corretto impiego nell’effettuazione dei confronti con i valori di riferimento potrebbero costituire elemento rilevante per
instillare nel giudice ragionevoli dubbi
sulla validità delle misure effettuate a
fornire una rappresentazione della realtà sufficientemente completa per consentirgli di deliberare sulla sussistenza o
meno della fattispecie di reato “al di là
di ogni ragionevole dubbio”. A ben
vedere, tutto ciò è assolutamente coerente con il significato che la 13005
(GUM) attribuisce al concetto di incertezza, come ben espresso nella introduzione, al punto 0.2, che testualmente
così recita: “si accetta generalmente
che, allorquando tutte le componenti di
errore note o ipotizzate siano state valutate e le relative correzioni apportate,
rimanga tuttavia un’incertezza sulla correttezza del risultato, vale a dire un
dubbio su quanto bene questo rappresenti il valore della quantità misurata”.
Infatti, se l’accertamento condotto dal
tecnico costituisce (o in prospettiva: presumibilmente costituirà) il fondamento
della decisione giudiziale, e il valore
d’incertezza è tale da indurre dubbi
circa l’effettiva responsabilità dell’imputato, in osservanza del fondamentale
principio processual-penalistico del in
dubio pro reo, il giudice dovrebbe
assolvere poiché assenti prove sufficienti a giustificare una condanna.
Diversamente, appare evidente quale
potrebbe essere la conseguenza processuale derivante dalla mancata valutazione e dichiarazione dell’incertezza
da parte del consulente tecnico: il giudice, disponendo di un singolo valore interpretabile come assoluta-
METROLOGIA
LEGALE
valutazione dell’incertezza di misura,
coinvolge, in determinati contesti, una
responsabilità di natura etica. Tale
responsabilità può limitarsi a una
pura dimensione morale, di pertinenza della coscienza del singolo che,
per distrazione, ha indotto un soggetto
giudicante a condannare un potenziale
non colpevole; oppure può divenire
oggetto di sanzioni qualora esistano norme deontologiche volte a censurare comportamenti contrari ai valori
etici riconosciuti da una data realtà di
consociati.
Commento dei lettori
A seguito della pubblicazione del primo intervento relativo alla metrologia
legale sul n. 4/2010 della rivista, l’Ing. Blandino, attento lettore, ha inviato un opportuno e gradito commento con il quale evidenziava alcune inesattezze relativamente ai compiti delle CCIAA, in particolare per ciò che
concerne verifiche sugli organismi notificati, che sarebbero precluse alle
Camere di Commercio, argomentando sulla base dell’art. 14 del Dlgs
22/2007 e del DM 29/08/2007 e sul riconoscimento di ACCREDIA quale
organismo unico di accreditamento ai sensi del regolamento CE 765/2008
che prevede la designazione, da parte di ciascuno Stato membro UE, di un
unico ente per l’accreditamento in materia di direttive c.d. Nuovo Approccio, ferme restando, comunque, eventuali normative settoriali che, data la
loro specialità, seguono regole differenti e specificatamente all’uopo emanate.
In realtà, lo scopo dell’articolo pubblicato era quello di delineare IL
RUOLO IN DIVENIRE DELLE CCIAA che, in qualità di organismi operativi per l’attuazione delle direttive del MiSe, il quale non dispone di propri organismi capillarmente distribuiti sul territorio per lo svolgimento di verifiche e controlli, oltre a svolgere le loro funzioni proprie di verificatori di
strumenti di misura, assumono anche il compito di accertare eventuali mancanze o inesattezze compiute dagli organismi privati accreditati, sebbene
in via indiretta, attraverso la verifica del rispetto delle normative, inclusa nel
campo di indagine come stabilito dalla Market surveillance guide.
Peraltro, tale quadro è avallato dallo stesso Dlgs 22/2007 che, espressamente, all’art. 11, annovera, tra le modalità consentite al Ministero per la
verifica dei requisiti degli organismi notificati, la possibilità di avvalersi di
organismi pubblici specificatamente autorizzati.
Pertanto, il commento del lettore pervenuto alla redazione è del tutto pertinente e, ad avviso di chi scrive, mette in luce uno dei compiti fondamentali e primari assegnati alle CCIAA, già trattati in un precedente articolo della
rivista, secondo una prospettiva statica che va necessariamente aggiornata
nell’ottica di un’evoluzione delle attività camerali, in applicazione dei principi fondamentali dell’ordinamento che consentono alla Pubblica Amministrazione, in ogni caso, e soprattutto nella ipotesi di delega di funzioni pubbliche ad organismi privati (come avviene nel sistema di accreditamento
disegnato dal legislatore comunitario), di riappropriarsi di poteri dismessi
al fine di garantire il buon andamento, la trasparenza e la tutela dei beni
fondamentali.
T_M ƒ 141
▲
NEWS
MONITORAGGIO DI PROCESSO E TESTING
DI PRODOTTO: IL NUOVO CONTROLLORE
AL MIGLIOR RAPPORTO QUALITÀ-PREZZO
Si chiama maXYmo BL 5867A il nuovo monitor XY della Kistler per il monitoraggio di
processo e il testing di prodotto, sviluppato
sull’idea di base di realizzare un controllore
XY caratterizzato dal miglior rapporto qualità-prezzo. Il nuovo monitor, estremamente
compatto, è rivolto alla visualizzazione dei
processi, al controllo qualità e alla verifica
del trend di produzione.
punti rilevanti per il controllo qualità delle
curve di misura, rilevate in base alle funzioni Y=f(X), Y=f(t), Y=f(X,t) o X=f(t). In tal modo,
maXYmo BL controlla se la curva misurata,
composta fino a un massimo di 8000 punti,
attraversa gli elementi di valutazione come
impostato. In caso affermativo produce un
risultato “conforme” (OK), in caso contrario
“non conforme” (NOK). Per ciascun programma o curva di misura è possibile impostare al massimo 4 elementi di valutazione di
tipo UNI-BOX, CURVA D’INVILUPPO, LINE o
NO-PASS.
Versione di maXYmo BL 5867A dotata
di adattatore per parete o banco
Lo strumento si distingue per le sue diverse
funzionalità pratiche, grazie a un menu di
concetto evoluto, a un luminoso display touch
screen da 3,5” e a numerose interfacce.
Principali aree di applicazione del maXYmo
BL 5867A sono il monitoraggio dei processi
di assemblaggio e montaggio, il controllo
del prodotto e le prove dei materiali. Nei
processi d’inserimento a pressione, ad esempio, controlla la forza in funzione dello spostamento o del tempo, mentre nei processi di
avvitatura o rotazione verifica la coppia
rispetto all’angolo di rotazione o al tempo.
maXYmo BL controlla la qualità di un prodotto o di una fase di produzione in base
all’andamento della curva misurata. Il canale Y può essere collegato a sensori piezoelettrici, piezoresistivi oppure a torsiometri,
mentre il canale X può essere collegato a
potenziometri lineari o a sensori angolari.
Utilizzando e posizionando a piacere gli elementi di valutazione maXYmo analizza i
Sensori piezoelettrici
Forza di compressione:
da 0 ... 0,1 N a 0 ... 800 kN
Forza di trazione e compressione:
da 0 ... ±0,5 N a 0 ... ±300 kN
Deformazione (misurazione indiretta
della forza): fino a 800 µ*
Momento di reazione:
da 0 ... ±0,25 N·m a 0 ... ±200 N·m
Sensori con Tecnologia Estensimetrica
Forza di compressione:
da 0 ... 20 N a 0 ... 200 kN
Forza di trazione e compressione:
da 0 ... ±20 N a 0 ... ±500 kN
Coppia in rotazione:
da 0 ... ±2 N·m a 0 ... ±1 000 N·m
Potenziometri, transmitter ±10 V*
Corsa: da 0 ... 10 mm a 0 ... 750 mm
Angolo di rotazione: 0 ... 360°
(* in preparazione)
Visualizzazione chiara di tutte le curve
di misura non conformi (NOK). Dalla forma
delle curve, l’utente può risalire alla causa
della non conformità (NOK) e al problema
valutazione possono essere impostati o
modificati inserendo valori numerici o tracciando o spostando gli elementi sui grafici;
– ogni oggetto di valutazione può essere riferito a punti di misura assoluti o dinamici;
– sono disponibili due uscite in tempo reale
attribuibili a scelta al canale X o Y e utilizzabili per semplici funzioni di controllo;
– autorizzazioni d’accesso per utenti diversi
proteggono da modifiche non autorizzate;
– possibilità di scambiare dati di misura,
valori di processo e segnali di comando tramite Ethernet TCP/IP, Profibus DP e interfacce digitali di I/O; consente anche la manutenzione remota;
– 16 programmi di misura per altrettante tipologie di pezzi;
– i dati di misura e i risultati di valutazione per
i diversi componenti possono essere esportati
tramite Ethernet o USB;
– a ogni misura effettuata può essere associato un numero di serie o da un barcode.
La versione base di maXYmo BL prevede l’integrazione su un pannello frontale. Una scatola aggiuntiva opzionale ne consente l’applicazione alla parete di una macchina o su
un banco, con orientamento regolabile in
continuo.
In modalità “semaforo” il display visualizza
a schermo intero il risultato del processo
appena analizzato – un notevole vantaggio
per le postazioni di lavoro manuali
101216Kistler offre
con il monitor una
vasta selezione di
sensori di forza, coppia, spostamento e
angolo, basati rispettivamente sui principi
di misura piezoelettrico, ponte estensimetrico e potenziometro.
maXYmo BL offre
numerose funzioni
per i compiti di
monitoraggio XY:
Per maggiori informazioni:
– tutti gli oggetti di www.maxymo.com
Grazie alla chiara struttura del menu e ai pratici tasti d’accesso alle principali
schermate informative, l’operatore ha sempre una panoramica completa
del processo e del controllo qualità
SPAZO ASSOCIAZIONI
UNIVERSITARIE MISURISTI
▲
Rubrica a cura di Franco Docchio, Alfredo Cigada, Anna Spalla e Stefano Agosteo
Dalle Associazioni Universitarie
di Misuristi
FROM THE ITALIAN UNIVERSITY ASSOCIATIONS
FOR MEASUREMENT
This section groups all the relevant information from the main University associations in Measurement Science and Technology: GMEE (Electrical and Electronic Measurements), GMMT (Mechanical and Thermal Measurements),
AUTEC (Cartography and Topography), and Nuclear Measurements.
RIASSUNTO
Questa rubrica riassume i contributi e le notizie che provengono dalle maggiori
Associazioni Universitarie che si occupano di scienza e tecnologia delle misure: il GMEE (Associazione Gruppo Misure Elettriche ed Elettroniche), il GMMT
(Gruppo Misure meccaniche e Termiche), l’AUTEC (Associazione Universitari
di Topografia e Cartografia) e il Gruppo di Misure Nucleari.
GMEE – ASSOCIAZIONE
GRUPPO MISURE ELETTRICHE
ED ELETTRONICHE
Comunicazione
dell’Ing. Roberto
Buccianti ai Soci
Ordinari del GMEE
in relazione al Consiglio Direttivo dell’Associazione
Il 14 Aprile 2011 si è svolto il Consiglio
Direttivo dell’Associazione GMEE e ho
partecipato alla riunione come rappresentante dei Soci Ordinari. La Presidenza provvederà all’invio del resoconto
della riunione. Tuttavia, fra gli argomenti esaminati, ritengo possa essere di
particolare interesse per le aziende per
cui operiamo la disponibilità offerta
dalla rivista Tutto_Misure, disposta a
ospitare non solo articoli sulle attività di
ricerca ma anche notizie (più o meno
sintetiche) riguardanti attività di natura
aziendale e di mercato (ad esempio,
nuovi prodotti, nuove installazioni produttive o di taratura, nuove reti di distribuzione, nomine dei vertici aziendali,
ecc.). Credo che queste azioni siano
particolarmente utili per contribuire ad
assicurare un buon collegamento tra il
mondo accademico e quello aziendale.
Mi permetto inoltre di ricordare tre
eventi particolarmente significativi:
• Convegno Annuale GMEE: Genova,
12-14 Settembre 2011
(www.gmee2011.it);
• Giornata della Misurazione 2011:
Roma, 13 - 14 Giugno 2011
(http://gmee.dti.unimi.it/GdM2011);
• Scuola di dottorato “Italo Gorini” Metodologie e dispositivi di misura nei
diversi ambiti industriali, dei servizi e
della qualità: Siena, 5-9 Settembre
2011
(http://gorini2011.dii.unisi.it).
Restando a vostra disposizione per
ogni eventuale necessità, vi saluto cordialmente.
Roberto Buccianti
GMMT – GUPPO MISURE
MECCANICHE E TERMICHE
tenutosi presso l’Università degli Studi
di Perugia su “Dynamic Mechanical
Analysis”, una famiglia di tecniche che
mira alla caratterizzazione dei materiali cercando di superare nel contempo
sia la classica prova di trazione, sia la
tipica prova di fatica, unendo informazioni statiche a diverse temperature con
quelle dinamiche.
Volume sulla Storia della Meccanica – Contributi delle misure
Riceviamo poi dal Presidente del gruppo
e ritrasmettiamo a tutti la seguente comunicazione: “La Conferenza dei Presidi
delle Facoltà di Ingegneria Italiane sta
curando la scrittura e la pubblicazione di
una serie di volumi sulla storia delle tecnologie e ogni volume è dedicato alle
tecnologie che hanno poi trovato collocazione didattico-scientifica in un corso
di laurea in Ingegneria. Il terzo volume
sarà dedicato alla Storia della Meccanica e, in tale volume troverà posto il contributo che le misure hanno dato allo sviluppo della industrializzazione, a partire
dalla unificazione delle unità di misura
per arrivare alla standardizzazione dei
processi di produzione, al controllo per
la qualità e la sicurezza. Sono stati incaricati di scrivere questa parte Michele
Gasparetto e Sergio Sartori”. Ovviamente qualunque contributo o segnalazione sarà bene accetto.
AUTEC – ASSOCIAZIONE
UNIVERSITARI DI TOPOGRAFIA
E CARTOGRAFIA
Convegno GMMT a Genova
Per questo trimestre le notizie dal Grup- Ricerche in Geomatica
po di Misure Meccaniche e Termiche e Premio AUTeC
sono poche, ma importanti. Innanzitutto
È appena uscito il quinsi rinnova l’appuntamento per il prossito numero di Ricerche
mo convegno di Misure Meccaniche e
di Geomatica che racTermiche, dal 12 al 14 settembre a
coglie i lavori relativi
Genova.
alle tesi di dottorato
Seminario a Perugia
Abbiamo ricevuto dal collega Gianluca
Rossi la segnalazione di un seminario, [email protected]
T_M
N.
2/11 ƒ 143
Nuovo Spin-off
dell’Unità di Genova
Martedì 19 aprile 2011 è stata presentata presso Villa Cambiaso a
Genova la Gter s.r.l. – Innovazione in Geomatica, GNSS e GIS,
Spin-off sorto nell’ambito del Progetto
UNI.T.I., promosso dall’Università degli Studi di Genova. I referenti scientifici sono il prof. Domenico Sguerso e
l’ing. Bianca Federici, entrambi docenti del SSD ICAR/06.
Nuovo Laboratorio
di Geomatica all’Aquila
Mercoledì 4 Maggio 2011è stato
inaugurato il nuovo Laboratorio di
Geomatica dell’Università di L’Aquila.
L’inaugurazione è avvenuta all’interno
del Convegno “La Realtà Virtuale a
Supporto dell’Osservazione della
Terra”, che si svolgerà presso l’Aula
Magna della Facoltà di Ingegneria
dell’Università di L’Aquila, Via Campo
di Pile - ex Optimes - Zona industriale
di Pile. Il Comitato organizzatore del
Convegno, che si occuperà di tematiche relative alla protezione e al monitoraggio del territorio e dell’ambiente
e alla prevenzione e gestione dei disastri naturali, è costituito dalla
Prof.ssa Donatella Dominici dell’Università di L’Aquila, dal Gen. Isp. (aus)
NEWS
▼
prodotte nel corso del 2010 sui temi
di pertinenza del SSD ICAR/06
(Topografia e Cartografia). La rivista,
edita dall’AUTeC, è stata pubblicata
con il significativo contributo della
SIFET (Società Italiana di Fotogrammetria e Topografia) e sarà in distribuzione in occasione del prossimo
Convegno SIFET di Portonovo (AN)
dal 22 al 24 giugno 2011.
I lavori raccolti nella rivista hanno partecipato inoltre all’ultima edizione del
Premio AUTeC, istituito nel 2005 e conferito ogni anno alla tesi di dottorato
giudicata più significativa da una Commissione costituita dai membri della
Giunta AUTeC.
Il premio del 2010 è stato attribuito al
Dott. Stefano Caldera, afferente al
Dottorato di Ricerca in “Geomatica e
Infrastrutture” presso il Politecnico di
Milano, sede di Como, per la tesi dal
titolo “GNSS permanent networks
monitoring: problems and solutions”.
La consegna del premio è avvenuta
nel corso della 14a Conferenza
Nazionale ASITA (Federazione italiana delle Associazioni Scientifiche per
le Informazioni Territoriali e Ambientali), svoltasi a Brescia dal 9 al 12
novembre 2010.
T_M ƒ 144
N. 02ƒ
; 2011
■
SPAZO ASSOCIAZIONI
UNIVERSITARIE MISURISTI
DEA GLOBAL SILVER:
CMM CON LE MASSIME
PRESTAZIONI
Hexagon Metrology perfeziona ulteriormente le macchine di misura a coordinate
(CMM) DEA GLOBAL: i nuovi modelli DEA
GLOBAL Silver misurano in modo ancora
più rapido e preciso e la loro gestione è
ancora più semplice. La produttività della
scansione è stata incrementata fino al 35%
rispetto ai modelli precedenti.
I modelli DEA GLOBAL Silver presentano
diverse novità: una maggiore produttività,
ottenuta grazie ad algoritmi di movimentazione ottimizzati, software migliorato e un
nuovo controllo numerico. Questo si traduce in cicli di movimentazione uniformi nella
misura e in una scansione più rapida. Il
nuovo controllo numerico con hardware e
firmware avanzati consente calcoli e trasmissione dati più rapidi.
La nuova funzione software PC-DMIS Adaptive Scanning semplifica la misura con DEA
GLOBAL Silver. Nella scansione degli elementi del pezzo, gli utenti possono inserire le
diverse tolleranze in una maschera. È poi il
software stesso a calcolare i parametri di
scansione ottimali anche nei cicli di misura
complessi. Questi parametri non devono più
essere definiti dagli utenti.
Oltre alle serie DEA GLOBAL Silver Classic,
Silver Performance e Silver Advantage, che
si distinguono soprattutto per la loro precisione e gamma di sensori, Hexagon Metrology lancia sul mercato la serie DEA GLOBAL Silver SF (Shop Floor). Questa serie è
adatta per la misura dimensionale ad alta
precisione in condizioni ambientali difficili,
ad esempio quando polvere, vibrazioni e
oscillazioni di temperatura potrebbero incidere sulle prestazioni della CMM. Soffietti
e ripari proteggono la CMM da questi fattori ambientali. Le righe ottiche certificate
CTE, una rete integrata di sensori di temperatura e algoritmi efficienti per la compensazione termica strutturale garantiscono risultati di misura precisi in una gamma
di temperatura da 15 a 30 °C.
DEA: dal 1963 è uno dei marchi leader
Pietro Finocchio, Presidente AFCEA, e
dall’Ing. Paolo Proietti, Vice Presidente MIMOS.
Per ulteriori informazioni consultare il
sito:
www.mimos.it/nuovo/
contenuto_view.asp?check=130
nel mondo nella tecnologia della misura a
coordinate. La sede principale si trova nell’area di Torino dove équipe di tecnici altamente specializzati nel campo della meccanica, elettronica e del software sono
impegnati nello sviluppo continuo di soluzioni avanzate per il controllo dimensionale. I prodotti DEA sono utilizzati in tutti i settori industriali e distribuiti su tutti i mercati
mondiali.
Hexagon Metrology: fa parte del
Gruppo Hexagon AB e comprende marchi
leader nel settore metrologia quali Brown &
Sharpe, Cognitens, DEA, Leica Geosystems
(Divisione Metrologia), Leitz, m&h Inprocess Messtechnik, Optiv, PC-DMIS, QUINDOS, ROMER e TESA. I marchi Hexagon
Metrology vantano una base installata globale senza uguali costituita da milioni di
CMM, sistemi di misura portatili e strumentazione di misura manuale, nonché decine
di migliaia di licenze software di metrologia.
Per ulteriori informazioni: Levio Valetti Marketing & Communications Manager
Commercial Operations Italia E-mail:
[email protected]
TUTTO_MISURE
ANNO XIII
N. 02 ƒ
2011
IN QUESTO NUMERO
Misure acustiche e di vibrazioni
su cockpit
Acoustic and vibrational characterization for noise
reduction of a Piaggio p180 cockpit blower
A. Lucifredi, P. Silvestri,
G. Ortenzio, D. Noceti,
A. Ferraro, G. Camauli
93
Sensore laser per la misura in linea
della lavorazione di turbine
Laser sensor for online monitoring of turbine grinding
A. Pesatori, M. Norgia,
C. Svelto, E. Pignone
113
La scala di Resistenze dell’I.N.Ri.M.:
tecniche di misura e campioni utilizzati
The electrical Resistance scale at I.N.Ri.M.:
measurement techniques and standards used
P.P. Capra, F. Galliana
147
La collezione degli antichi strumenti
di Ottica dell’Osservatorio
Valerio di Pesaro - Parte II
The collection of ancient measurement instruments
of the “Valerio” Observatory in Pesaro
E. Borchi
R. Macii
R. Nicoletti
A. Nobili
156
Editoriale: L’Università a nuvola? (F. Docchio)
85
Comunicazioni, Ricerca e Sviluppo,
dagli Enti e dalle Imprese
Notizie nel campo delle misure e della strumentazione
87
Il tema: Misure acustiche e vibrazionali
per applicazioni industriali
Indagine acustica e vibrazionale su un ventilatore
installato in velivolo Piaggio(A. Lucifredi et al.)
93
Misure per la valutazione dell’esposizione dei lavoratori
a rischi indotti da vibrazioni meccaniche
97
(C. De Capua, R. Morello)
Gli altri temi: Trasferimento tecnologico
Le Università e i brevetti secondo il Codice
della proprietà industriale (M. De Paolis)
103
Gli altri temi: Sincronizzazione di sistemi di misura
È scoccata l’ora! La sincronizzazione temporale
in sistemi distribuiti (C.M. De Dominicis, P. Ferrari,
A. Flammini, E. Sisinni)
109
Gli altri temi: Misure ottiche
Sensore laser per la misura in linea della lavorazione
di turbine (A. Pesatori, M. Norgia, C. Svelto, E. Pignone) 113
Gli altri temi: Università e Impresa
Riprendere a crescere con l’ICT: quale ruolo
per l’Università, le istituzioni, le imprese (L. Benetazzo)
125
Gli altri temi: Campi e compatibilità elettromagnetica
Il comportamento a radiofrequenza dei componenti
circuitali passivi. L’induttore - parte prima
(C. Carobbi, M. Cati, C. Panconi)
125
Le Rubriche di T_M: Visione Artificiale
Andare alle fiere fa bene: a spasso per gli stand
di visione ad Affidabilità & Tecnologie 2011 (G. Sansoni) 129
I Seriali di T_M: Misure e Fidatezza
Le funzioni di affidabilità: alcuni modelli (M. Catelani,
131
L. Cristaldi, M. Lazzaroni)
I Seriali di T_M: i sistemi RFId
Sistemi RFiD: alcuni ambiti di applicazione
(E. Clerici, C. Quetti)
135
Le Rubriche di T_M: Metrologia legale
Etica metrologica e codici di comportamento
139
nelle attività processuali (V. Scotti)
Spazio Associazioni Universitarie di Misuristi
Dalle Associazioni Universitarie di Misuristi
(F. Docchio, A. Cigada, A. Spalla, S. Agosteo)
143
Le Rubriche di T_M: Metrologia per Capillarità
Sulla verifica della conformità metrologica degli strumenti:
versione 2, riveduta e corretta (G. Miglio)
145
Lo spazio degli IMP
La scala di resistenza elettrica all’I.N.Ri.M.: tecniche
di misura e campioni utilizzati (P.P. Capra, F. Galliana)
147
Manifestazioni, eventi e formazione
2011: eventi in breve
151
Le Rubriche di T_M: Commenti alle norme
17025 – Assicurazione della Qualità: parte 3a (N. Dell’Arena)
153
Le Rubriche di T_M: Storia e curiosità
La collezione degli antichi strumenti di Ottica dell’Osservatorio
Valerio di Pesaro – Parte 2a
(E. Borchi, R. Macii, R. Nicoletti, A. Nobili)
156
Abbiamo letto per voi
160
News
118-120-140-142-144-146-148-152-154-159
T_M
N.
2/11 ƒ 83
Franco Docchio
EDITORIALE
■
L’Università a nuvola?
Cloud University?
Cari lettori!
nei giorni scorsi un amico
imprenditore mi ha illustrato
con la proverbiale franchezza bresciana la sua visione
del rapporto Università-Impresa. “L’Università – mi ha detto
– serve alle imprese solo per
acquisire più punteggio nei
progetti nazionali ed europei, e per aumentare la relativa quota di fondo perduto.
Per il resto serve a poco,
parla un linguaggio diverso,
ha tempi diversi dai nostri e non riusciamo a focalizzarla sui nostri problemi”. Il suo sogno è la realizzazione di una nuova sede aziendale, che comprenda
laboratori in cui invitare ricercatori universitari per
lavorare con la sua strumentazione, sviluppare i suoi
progetti, risolvere problemi applicativi con i tempi
tecnici tipici dell’impresa. Per l’amico imprenditore
anche i cosiddetti Centri per la Ricerca Applicata e il
Trasferimento Tecnologico non aiutano ad avvicinare
le imprese all’Università. Il punto di vista del mio
interlocutore condensa quello di molti altri imprenditori che incontro.
Ad Affidabilità & Tecnologie 2011 (a proposito: complimenti agli organizzatori per il successo dell’iniziativa!) ho visitato molti stand degli espositori. In uno di
questi il responsabile tecnico è stato ancora più “tranchant” dell’amico di prima. Mi ha detto: “Al mio
stand vengono studenti di dottorato e ricercatori che
fanno ricerca sulla visione industriale, sviluppano
algoritmi e procedure e si meravigliano che le stesse
procedure e gli stessi algoritmi siano già implementati con molto maggior efficacia e velocità nelle macchine che esponiamo. Questa non è ricerca, è sterile
inseguimento!”
Entrambe queste esternazioni sono vagamente estreme, ma mettono bene in evidenza le difficoltà che esistono nel dialogo tra Università e Impresa. Difficoltà a
mio parere crescenti da quando è prevalsa la politica
di privilegiare la ricerca applicata delle imprese come
leva per favorire lo sviluppo economico (a scapito
della ricerca diretta alle Università) e di incentivare il
coinvolgimento di queste ultime mediante quote
aggiuntive di fondo perduto. Questo, all’atto pratico,
ha avuto due conseguenze: (i) svuotare le Università di
contributi diretti alla ricerca di base e, (ii) con la prospettiva di contratti, convincere i ricercatori a focalizzarsi su progetti spesso di scarso contenuto scientifico
e prevalentemente di retroguardia, a volte persino di
scarsa utilità anche per la stessa impresa committente
(sono stato coinvolto in uno di questi ultimi).
Dunque né le istituzioni né le imprese hanno interesse o mezzi per finanziare ricerca veramente innovativa: quella, per intenderci, che porta a dotare i laboratori di strumentazione d’avanguardia e di ricerca-
tori e studenti di dottorato motivati. Quando ero più
giovane un Laboratorio si espandeva con fondi di progetti ad ampio respiro. Oggi? Un collega del Politecnico di Milano mi raccontava ieri che il cespite principale per la sua ricerca scientifica deriva dai proventi
di attività di organizzatore di Master (di primo o
secondo livello, non importa). Fare didattica per potersi finanziare la ricerca. Questo può valere per chi si
occupa di settori d’interesse per le Imprese (tipicamente il settore gestionale, vedi il successo del MIP di Milano), ma gli altri? E poi, ha senso tutto ciò?
Il quadro che emerge da quanto sopra è a mio parere
di una sconcertante semplicità. L’Università sta cambiando. Il rapporto tra Università e Impresa tende ad
aver luogo sempre meno nelle Università e sempre più
nelle imprese. L’Università come “centro” e “fulcro”
della ricerca sta evolvendo verso un’Università in rete
con le imprese, delocalizzata. Un modello verosimile,
preso in prestito dall’informatica1, è quello della Università, o Ricerca, “a nuvola” (“cloud University” o
“cloud research”), dove il ricercatore si delocalizza
per poter attingere a risorse che in sede gli sono precluse. In Università si fa sempre più formazione permanente (cioè al di fuori dei Corsi di Laurea istituzionali) orientata a preparare quadri per le imprese. Con
quest’attività il ricercatore, ove possibile, finanzia quel
poco di ricerca di base che gli rimane e la strumentazione di laboratorio. Infine, il ricercatore cerca di promuovere start-up che costituiscano un tramite tra la
ricerca e il mercato.
È un quadro degno di considerazione, tutto sommato:
ha i suoi lati positivi, ma manca del contributo più importante. Nel “cloud computing” la delocalizzazione fa
sinergia, aumenta le risorse. Nel caso dell’Università
questo incremento di risorse manca, poiché l’impresa
stenta a voler investire in ricerca “a sbalzo”, che motivi
e solleciti la voglia di innovare tipica del ricercatore, e
le Istituzioni latitano nel loro ruolo di stimolo e supporto
alla ricerca di base, senza la quale non c’è vera innovazione che non sia puramente incrementale.
Questo numero contiene un interessante contributo
sullo stato dell’Università e dei suoi Corsi di Studio,
con particolare attenzione alle ICT, con suggerimenti
su come dovrebbero evolvere i curricula universitari
per evitare al Paese la perdita di competitività a livello
globale. Contiene anche un contributo “didattico” per
i giovani ricercatori e studenti di dottorato che riguarda la tutela e la promozione della proprietà intellettuale.
Buona lettura!
Franco Docchio
1
Da wikipedia: “In informatica, con il termine cloud computing si intende un insieme di tecnologie informatiche che
permettono l’utilizzo di risorse hardware (storage, CPU) o
software distribuite in remoto”.
T_M
N.
2/11 ƒ 85
COMUNICAZIONI, RICERCA E SVILUPPO
DA ENTI E IMPRESE
▲
La Redazione di Tutto_Misure ([email protected])
Notizie nel campo delle misure
e della strumentazione
NEWS IN MEASUREMENT AND INSTRUMENTATION
This section contains an overview of relevant news of Italian R&D groups,
associations and industries, in the field of measurement science and instrumentation, at both theoretical and applied levels.
RIASSUNTO
L’articolo contiene una panoramica delle principali notizie riguardanti risultati scientifici, collaborazioni, eventi, start-up, dei Gruppi di R&S Italiani nel
campo della scienza delle misure e della strumentazione, a livello sia teorico che applicato. Le industrie sono i primi destinatari di queste notizie,
poiché i risultati di ricerca riportati possono costituire stimolo per attività di
Trasferimento Tecnologico.
DALL’UNIVERSITÀ DI TRENTO:
INTERNATIONAL
MEASUREMENT UNIVERSITY
TRENTO, 18-23 LUGLIO 2011
Nella settimana dal 18 al
23 luglio si
terrà presso il
Dipartimento
di Ingegneria
e Scienza dell’Informazione dell’Università di Trento la quarta edizione della Scuola estiva della “International Measurement
University” (IMU), rivolta a studenti di
dottorato e a giovani studiosi nel settore delle misure e della strumentazione in ambito scientifico e tecnico-ingegneristico. La scuola è organizzata
dai Proff. Alessandro Ferrero e Dario
Petri, sotto l’egida dell’IEEE Instrumentation and Measurement Society.
L’IEEE è l’associazione internazionale più prestigiosa nell’ambito delle
tecnologie elettriche, elettroniche e
dell’informazione e raccoglie oltre
400 000 ingegneri e scienziati di
tutto il mondo, di cui circa 6 000 in
Italia. Alle precedenti edizioni della
Scuola estiva hanno partecipato circa
trenta studenti provenienti dagli Stati
Uniti e da diverse nazioni Europee,
tra cui Austria, Germania, Italia,
Romania, Spagna, Svezia e Ungheria
centi presenti al congresso M&Q
2011, nell’ordine che è stato assegnato, sono:
1. POS4 – Misura di campi elettromagnetici generati da dispositivi MRI
e valutazione dell’esposizione umana
(M. Borsero, G. Crotti, D. Giordano,
M. Zucca: INRIM)
2. POS5 – Misura della concentrazione individuale del radon e del
toron con la tecnica dei rivelatori integratori passivi a tracce (G. Sciocchetti, A. Sciocchetti: Tecnoradon; P. De
Felice, G. Cotellessa, F. Cardellini, M.
Pagliari: ENEA)
3. MFORM6 – Scuola secondaria
superiore: un futuro di incertezze per
il laboratorio di fisica (V. Fabbro, insegnante Scuola secondaria di secondo
grado)
(si vedano alcune foto dell’ultima edizione).
Le lezioni saranno tenute
da ricercatori
e studiosi di
fama internazionale pro- DALL’UNIVERSITÀ DI TRENTO:
venienti sia ICT DAYS 2011
dall’Europa sia dagli Stati Uniti. Saranno trattati e discussi i fondamenti
teorico-pratici della misurazione, l’organizzazione metrologica internazionale, l’acquisizione e l’estrazione dell’informazione dai dati di misura. È
previsto anche lo svolgimento di esercitazioni di laboratorio.
Maggiori informazioni sulla Scuola
sono disponibili nel sito
http://imu.ieee-ims.org
Si è svolta presso il Dipartimento di
Ingegneria e Scienza dell’InformazioDAL CONVEGNO
ne dell’Università degli Studi di Trento
“METROLOGIA
la terza edizione degli ICT days,
& QUALITÀ 2011”:
evento pensato con la finalità di illuI MIGLIORI POSTER
strare le potenzialità e le novità del
PREMIATI
settore ICT, rafforzare il rapporto con
le imprese e creare nuove sinergie sul
Nell’ambito del Con- territorio. La manifestazione si è apervegno Nazionale “Metrologia e ta martedì 15 marzo con la conferenQualità” (M&Q 2011), svoltosi a za “Strategie per la ricerca, l’innovaTorino (Lingotto) nei giorni 13-15 zione e l’alta formazione in ICT” che
Aprile, sono stati selezionati e pre- ha visto la partecipazione di illustri
miati i tre migliori poster. I poster vin- relatori tra cui Alberto Sangiovanni
T_M
N.
2/11 ƒ 87
N. 02ƒ
;2011
Gli ICT Days, che hanno riscosso
grande successo, intendono promuovere il Dipartimento di Ingegneria
e Scienza dell’Informazione quale elemento di coesione tra il mondo accademico e quello imprenditoriale e
quale soggetto deputato alla formazione e all’educazione delle nuove
generazioni, dando visibilità alle
diverse opportunità sia educative che
di ricerca offerte agli studenti e alle
aziende.
▲
Vincentelli dell’Università di Berkeley,
e il presidente della Provincia autonoma di Trento, Lorenzo Dellai.
La seconda giornata è stata dedicata
agli studenti dei corsi di laurea in ICT
e in particolare ai numerosi dottorandi della ICT International Doctoral
School, che hanno avuto la possibilità
di incontrare aziende locali, nazionali e internazionali per colloqui conoscitivi al fine di inserimenti lavorativi. I
giovani hanno inoltre avuto l’opportunità di porre domande sulle attività di
ricerca svolte in ambito aziendale e
assistere alle presentazioni in cui ciascuna impresa ha illustrato i propri
goal in ambito ICT.
Una terza giornata è stata interamente dedicata agli studenti delle scuole
medie superiori. Un’occasione per diffondere la cultura dell’ICT nelle scuole
e tra i più giovani e per mostrare da
vicino ai ragazzi il mondo delle
nuove tecnologie e dell’informatica, e
magari suscitare in loro una passione
che potrà portarli alla scelta di un percorso in questo campo. Durante questa giornata sono stati infatti presentati i corsi di laurea in Informatica, Elettronica e telecomunicazioni, e Informazione e organizzazione d’impresa
con particolare attenzione agli sbocchi occupazionali e al mondo del
lavoro.
COMUNICAZIONI, RICERCA E SVILUPPO
DA ENTI E IMPRESE
nel senso più ampio possibile, come
la generazione, la distribuzione dell’energia, ma anche la riduzione dei
consumi nei processi. Il corso, organizzato come una scuola estiva, si
terrà a Trento, nella settimana
25-29 Luglio 2011, e sarà organizzato con lezioni teoriche e attività di analisi e sviluppo in laboratoDALL’UNIVERSITÀ DI TRENTO:
rio. Le lezioni saranno tenute da
esperti di chiara fama internazionaADVANCED SCHOOL ON ICT
le (IEEE Fellows e direttori di imporFOR FUTURE ENERGY SYSTEMS
tanti centri leader nello studio dei
Dipartimento di Ingegneria e Scienza sistemi energetici), che con i loro
dell’Informazione, Via Sommarive, 14 contributi si sono distinti come pioI-38123 Povo, Trento, Italy, 25-29 nieri nell’introduzione dell’ICT nei
Luglio, 2011
processi di controllo dell’energia.
Per questa terza edizione gli organizzatori hanno registrato il tutto esaurito
nelle domande di partecipazione
delle aziende, tanto da dover valutare, per i prossimi anni, di ampliare gli
spazi dell’evento per accogliere tutte
le richieste.
RSENS S.R.L. NUOVO SPIN-OFF
CONGIUNTO TRA LE UNIVERSITÀ
DI MODENA – REGGIO EMILIA
E TRENTO
Negli ultimi anni, la ricerca e l’impegno nel ridurre i consumi energetici si sono moltiplicati in ogni attività e processo che coinvolge l’attività
umana. Dalle nuove tecnologie per
la riduzione dei consumi energetici
in abitazioni, edifici ed aziende,
all’ottimizzazione dei processi di
produzione e distribuzione dell’energia con tecnologie “green”, l’Information e Communication Technology (ICT) riveste un ruolo primario
come tecnologia abilitante per le
attività di monitoraggio, misura, e
distribuzione delle informazioni che
sono fondamentali in ogni processo
di ottimizzazione energetica.
L’Università di Trento promuove un
corso avanzato di tecnologie
ICT per lo sviluppo e l’ottimizzazione dei sistemi energetici,
RSens Srl (nella
foto il Prof. Luigi
Rovati dell’Università di Modena e Reggio) si
è costituita il
26/01/2011 ed
è il primo Spinoff congiunto
tra gli atenei
di Modena e Reggio Emilia e
di Trento. RSens sviluppa, produce
e commercializza sensori innovativi, e a basso costo, per la
rivelazione di gas Radon. Il
Radon è un gas inodore, incolore e
insapore, di origine naturale, riconosciuto dall’O.M.S. come seconda
causa per l’insorgenza del tumore al
polmone.
RSens Srl ha vinto il primo premio
nelle business plan competition Intraprendere a Modena nel 2009 e
Start Cup dell’Emilia-Romagna
nel 2010. RSens ha vinto, inoltre, i
bandi di incubazione Spinner
2013, Aster We Tech Off e
Impat Impresa. Nel 2010 ha ottenuto la menzione speciale, da
parte di Unicredit e Confindustria, per progetti dell’alta valenza
sociale e ambientale nel concorso Il
Talento delle Idee. RSens è stata,
T_M ƒ 89
N. 02ƒ
;2011
e di diagnostica sui propri trasformatori, nello sviluppo delle quali si
sono impegnati laureandi in ingegneria elettronica ed elettrica in possesso della certificazione NI CLAD
conseguita presso la NI LabVIEW
Academy della stessa Facoltà.
premi di laurea magistrale di
1000 euro ciascuno.
Per accedere alla selezione, i candidati dovranno essere in regola con
l’iscrizione alla SIOF, essersi laureati nel periodo 1/1/2010 31/7/2011 e inviare entro il
31/8/2011, insieme alla domanda di partecipazione, il voto e una
copia della tesi di laurea alla Segreteria della SIOF.
La Giunta della SIOF giudicherà i
candidati più meritevoli dell’assegnazione del premio. I vincitori saranno
informati per posta elettronica o con
altra modalità se da loro richiesto
nella domanda di partecipazione, e il
risultato sarà pubblicato sul sito web
(http://www.siof-ottica.it) della
Società.
Sotto la supervisione del Prof. Edoardo Fiorucci e dell’Ing. Antonio
Di Pasquale (Analista Progetto Lean
Manufacturing) di BTicino, è stato
sviluppato dall’Ing. Moreno D’Andrea un sistema automatico di misura in ambiente NI LabVIEW per l’implementazione della caratterizzazione in frequenza degli avvolgimenti
dei trasformatori, secondo la tecnica
denominata
Sweep
Frequency
Response Analysis (SFRA). A partire
da Giugno 2012, la normativa IEC
60076-18 imporrà ai costruttori di
trasformatori di aggiungere al bollettino di collaudo anche i risultati di
detta caratterizzazione.
ACCREDIA: PUBBLICATO
IL DOCUMENTO
IAF/ILAC-A5: 03/2011
IN MATERIA DI APPLICAZIONE
DELLA ISO/IEC 17011:2004
CERTIFICAZIONE ISO 9001
PER LA Q-TECH SRL DI REZZATO
La Società Q-Tech
s.r.l. di Rezzato
(BS), start-up del
Laboratorio di
Optoelettronica
di Brescia e
socio sostenitore
dell’Associazione GMEE, è
stata recentemente certificata
ISO 9001. Ciò
permetterà, tra
l’altro, la sua eleggibilità come partner di importanti Società nazionali
per progetti nel settore del monitoraggio ferroviario.
Q-Tech, inserita nel polo tecnologico bresciano dell’optoelettronica, progetta e produce sistemi optoelettronici per applicazioni industriali,
sistemi di monitoraggio di materiali
rotabili su ferrovia, ottiche speciali
per illuminazione.
Q-Tech s.r.l. è partner National Instruments.
COLLABORAZIONE
TRA IL GRUPPO GMEE
DELL’UNIVERSITÀ DELL’AQUILA
E BTICINO PER LA
CARATTERIZZAZIONE IN
FREQUENZA DI TRASFORMATORI
ISOLATI IN RESINA
■
inoltre, selezionata per partecipare
alla StartUp Initiative di Intesa San
Paolo, al Technoscouting della
regione Lombardia e alla fiera
SMAU 2010 nell’ambito dei Percorsi dell’Innovazione.
(Info: [email protected] )
COMUNICAZIONI, RICERCA E SVILUPPO
DA ENTI E IMPRESE
SIOF – SOCIETÀ ITALIANA
DI OTTICA E FOTONICA:
PREMI DI LAUREA
“GIULIANO TORALDO
DI FRANCIA”
La Società Italiana di Ottica
Il gruppo BTicino Legrand, presso lo
e
Fotonica
stabilimento Castellalto (TE) (ex Elet(SIOF), presietromeccanica di Marnate) per produta da Ivo
duzione di trasformatori MT-BT isolaRendina, nelti in resina, ha avviato una collabol’intento
di
razione con i ricercatori dell’Unità
GMEE della Facoltà di Ingegneria promuovere lo studio e lo svidell’Università dell’Aquila per quan- luppo dell’Ottica e della Fotonito concerne le tematiche di collaudo ca, bandisce per l’anno 2011 2
È stato pubblicato il documento
IAF/ILAC-A5:03/2011 – IAF/
ILAC Multi-Lateral Mutual Recognition Arrangements: Application of ISO/IEC 17011:2004,
con l’obiettivo di favorire l’omogeneità dei comportamenti degli Enti di
accreditamento, per quanto riguarda
l’applicazione degli standard in conformità ai quali effettuano la valutazione delle competenze degli Organismi.
La novità più rilevante rispetto alla
precedente edizione IAF/ILACA5:04/2009, è l’introduzione del
requisito che chiarisce cosa si intenda per critical location per i sistemi
di gestione, al punto M.7.5.7.3. Il
documento può essere scaricato dal
sito:
www.accredia.it/UploadDocs/
1545_IAFILAC_A5032011.pdf.
T_M ƒ 91
▲
MISURE ACUSTICHE E VIBRAZIONALI
PER APPLICAZIONI INDUSTRIALI
IL
TEMA
A. Lucifredi1, P. Silvestri1, G. Ortenzio1, D. Noceti2, A. Ferraro2, G. Camauli3
Indagine acustica e vibrazionale
su un ventilatore installato in velivolo Piaggio p180 per la riduzione
dell’emissione sonora
ACOUSTIC AND VIBRATIONAL CHARACTERIZATION FOR NOISE
REDUCTION OF A PIAGGIO P180 COCKPIT BLOWER
Several measurement techniques can be used together to get a diagnosis in
case of acoustic and vibrational analysis. The activity developed in this article deals with an acoustic and vibrational analysis of the Piaggio P180
cockpit blower, in order to find the noise causes and to reduce them.
The analysis has been performed in two steps, the first by performing an
experimental modal and operational analysis of the structure around the
fan, the second by performing a complete sound intensity analysis in the
cockpit, to check if there is a coupling between the two aspects, i.e. if the
vibrations of the structure surrounding the installation of the fan should be
considered as a factor that significantly contributes to the overall noise emission measured in the cockpit. The results, obtained by using the advanced
data processing software LMS TestLab 10, show that there is a correlation
between vibrational and acoustic aspects, and sound intensity maps show
the main sources of noise on a virtual geometry of the structure.
RIASSUNTO
Alcune differenti tecniche di misura possono essere utilizzate congiuntamente per
ottenere un’approfondita diagnosi in vari casi di analisi acustica - vibrazionale.
Questo articolo si riferisce a uno studio delle fonti di emissione sonora presenti
all’avviamento di un piccolo ventilatore installato sui velivoli P180 realizzati da
Piaggio Aero, con lo scopo di definire i principali parametri da tenere in considerazione per eventuali interventi di riduzione del rumore in abitacolo.
È stata condotta un’analisi la più completa possibile di tipo sia acustico sia
vibrazionale all’interno di un esemplare di velivolo, effettuando sia misure
di analisi modale sperimentale e di analisi di risposta forzata del sistema,
sia un’indagine approfondita di intensità acustica all’interno dell’ambiente,
in modo da verificare se sussiste un accoppiamento fra i due aspetti, ovvero se la vibrazione della struttura che circonda l’installazione dell’estrattore
debba essere considerata o meno un elemento che concorre significativamente all’emissione acustica globale rilevata in cabina.
I risultati, ottenuti attraverso l’avanguardia dei software di elaborazione
dati TestLab 10 di LMS, evidenziano una effettiva correlazione tra gli aspetti di tipo acustico e vibrazionale; inoltre le mappe cromatiche di intensità
acustica mostrano in maniera intuitiva e immediata le principali sorgenti di
emissione sonora in cabina.
ANALISI MODALE
SPERIMENTALE
Le analisi modali si sono articolate
nelle seguenti fasi: preliminare definizione di una serie di punti di misura e
conseguente creazione di una geometria della struttura ad essi correlata;
acquisizione delle funzioni di risposta
in frequenza (FRF) nei punti di misura
fissa la posizione di tre accelerometri di
riferimento ove veniva rilevata la risposta, eccitando con un martello strumentato tutti i punti della struttura precedentemente definiti (modalità di indagine
rowing hammer). L’analisi deve permettere di individuare in modo corretto i
primi modi di vibrare, per cui è stata
adottata una geometria di oltre cento
punti di misura, in modo da creare una
rete di misura sufficientemente fitta da
poter riprodurre con precisione le deformate modali d’interesse.
Per ogni punto sono state effettuate tre
differenti misurazioni ed è stato salvato l’andamento della FRF media sul
software di acquisizione di Test Lab
attraverso l’acquisitore portatile di
SCADAS III di LMS.
Risultati elaborazione dati
Sulla base delle funzioni di trasferi-
tramite la tecnica “impact”; estrazione dei parametri modali in termini di
frequenze proprie e forme modali.
Modalità di acquisizione dati
L’attività è stata svolta secondo la tecnica a impatto (impact testing), il metodo
più utilizzato per trovare i modi caratteristici di un sistema meccanico. Le misure sono state effettuate mantenendo
Figura 1 e Figura 2 – Analisi modale
1
Università di Genova
Piaggio
3 LMS
2
T_M
N.
2/1
T_M
1 ƒ
ƒ 93
93
▲
IL
TEMA
mento acquisite è stata calcolata la
SUM FRF (somma delle FRF rappresentativa del comportamento globale
del sistema) che viene utilizzata dagli
algoritmi LMS polyMAX e Time MDOF
in fase di estrazione.
A partire da tale funzione sono stati
estratti i modi di vibrare propri più significativi, effettuando un’analisi in intervalli di frequenza, ai fini di una maggiore precisione, utilizzando i due algoritmi citati in precedenza. Sono state
trovate oltre 10 forme modali nel range
di frequenza di analisi (0-1024 Hz),
per ciascuna delle quali il software permette di visualizzare la deformata operativa sulla geometria virtuale creata.
stema, è importante
conoscere il suo comportamento sotto l’azione di carichi dinaFigura 3 – Risultati dell’analisi modale
mici, ovvero quale frequenza naturale sia
predominante nella sua risposta. Per acquisizione LMS SCADAS MOBILE a
l’analisi dei modi operativi (opera- 8 canali; per condurre le acquisizioni
tional deflection shapes), a estratto- si è utilizzato il modulo Spectral
re acceso in cabina, si sono utiliz- Acquisition di LMS Test Lab. I punti di
zati due accelerometri triassiali che misura sulla struttura ove sono stati
sono stati spostati in determinati condotti rilievi triassiali di vibrazione
punti della struttura, più un terzo definiscono una geometria uguale a
accelerometro, utilizzato in qualità quella utilizzata per l’analisi modale.
di riferimento e posizionato in un Si è adottata una frequenza di banda
punto fisso (in tal modo il software è pari a 2 048 Hz e un numero di linee
in grado di fasare le misure avvenu- spettrali pari a 4 096. Attraverso
l’opzione “Time recording during
te in instanti differenti).
spectral acquisition” sono state inoltre
salvate le “time histories” di tutti i
LA RISPOSTA FORZATA
Allestimento
segnali campionati (Throughput
per l’acquisizione dati
DEL SISTEMA
Il sistema di misura utilizzato in tale Data). La durata di ciascuna acquisiEstratti i parametri modali di un si- attività è costituito dal Front-End di zione è stata di 20 s.
T_M ƒ 94
creazione
del
rumore, e (ii) evidenziare o meno
una correlazione
fra i fenomeni di
tipo acustico e
quelli vibrazionali
analizzati in precedenza. Al termine
Figura 4 – Modi operativi
dell’analisi, sarà
Post-processamento dati
svolta un’indagine finale a spettri
Da ciascuna time history è stato possi- incrociati per valutare se sussiste corribile calcolare gli spettri di ciascun spondenza o meno fra le frequenze crisegnale attraverso l’algoritmo FFT tiche trovate nei due casi.
(Fast Fourier Transform). Di seguito si
riporta la funzione inviluppo di tutti i Condizioni di utilizzo
cross spettri, che evidenzia la fre- della sonda intensimetrica
quenza fondamentale di eccitazione La sonda d’intensità acustica in utilizzo
dovuta all’accensione della forzante è un modello realizzato da LMS che
ventilatore. È così possibile visualiz- sfrutta il principio dell’approssimaziozare le deformate operative di inte- ne per differenza finita: utilizzando
resse sulla geometria virtuale, per ren- due microfoni ravvicinati, si può ottedere possibile un confronto con le nere un’approssimazione lineare valuforme modali ricavate in precedenza tando la differenza di pressione tra i
e per trovare quale modo di vibrare due microfoni e dividendo per la loro
proprio della struttura è eccitato dalla distanza di separazione.
sorgente.
La sonda è poi collegata a un analizzatore bicanale in quanto, affinché la
misura abbia senso, i valori della presL’INTENSITÀ ACUSTICA
sione devono essere rilevati dai due
COME STRUMENTO D’INDAGINE
microfoni contemporaneamente nel
caso in esame è stata collegata all’acPer una panoramica più delineata sulle quisitore SCADAS che mette a disposisorgenti più evidenti di rumore, sono zione 8 canali. Normalmente i due
state effettuate diverse misurazioni con microfoni sono separati da un distanuna sonda d’intensità acustica a estrat- ziatore tanto più lungo quanto più bassa
tore attivato. L’elaborazione dati è è la frequenza sonora. La peculiarità di
questo strumento
consiste però nella
“direzionalità”: il
valore d’intensità
acustica misurato è
funzione dell’angolo fra l’asse della
sonda e la direzione del vettore intensità, in modo tale
da percepire solo
la
componente
proiettata sull’asse
Figura 5 – Modi operativi
della sonda. La
sonda è dunque in
stata svolta con l’ausilio di un apposito grado di localizzare le sorgenti.
modulo del programma Test Lab 10 di
LMS. Lo scopo dell’attività è stato dupli- Applicazione dell’intensità
ce: (i) verificare quanto influisce il per- acustica in cabina
corso fluidodinamico dell’aria sulla Per ottenere i valori d’intensità acustica
Figura 6 e Figura 7 – Intensità acustica
prodotti da una generica sorgente esistono due metodi di misura: a punti discreti e a scansione. Nel caso in
esame, sono state eseguite misure d’intensità acustica su parte del pavimento
della cabina piloti e sulle superfici laterali che, essendo di dimensioni contenute, hanno consentito di scegliere il
metodo di misurazione a punti discreti
realizzando una superficie di misura
conforme alla normativa ISO 9614-1.
Per quanto riguarda i criteri di scelta
della superficie di misura è necessario
scegliere la superficie in modo tale da
essere la più regolare possibile e capace d’individuare nello spazio un numero preciso di punti, sui quali poi andare a determinare le componenti del vettore intensità acustica. Sulla base di
quanto detto, e per ovvie ragioni di
accessibilità della sorgente in esame, si
è scelta una mesh acustica di forma rettangolare, analoga al reticolo in precedenza creato per l’analisi strutturale.
Nel momento in cui ogni punto acquisito mediante la sonda ha una corrispondenza con i punti del reticolo memorizzato nel software, è possibile elaborare
i dati in un apposito modulo di Test Lab.
Tale software permette di visualizzare
gli spettri di tre diverse grandezze acustiche, ovvero pressione sonora (in termini di autopower o di SPL), intensità
acustica e velocità delle particelle, e le
rispettive mappe cromatiche, di più
immediata interpretazione.
A titolo esemplificativo si riporta lo
spettro relativo al parametro intensità acustica (Li) corredato di mappa
di intensità, nel range di frequenza
T_M ƒ 95
N. 02ƒ
; 2011
tura. È quindi d’interesse
la precedente analisi di
forme modali e modi
operativi, poiché un’eventuale soluzione costruttiva che impedisca
all’accensione del cockpit blower di eccitare le
frequenze proprie dei
pannelli della struttura
ridurrebbe ulteriormente
l’emissione sonora (già
comunque di bassa entità) nell’ambiente.
CONCLUSIONI
La presente attività ha
evidenziato le potenzialità dell’utilizzo congiunto di diverse tecniche di
Figura 8 e Figura 9 – Intensità acustica
misura per affrontare un
problema di carattere
globale 0 – 2 048 Hz.
acustico-vibrazionale in termini di diaAi fini di un migliore approfondimento gnostica e monitoraggio. La tecnica deldel fenomeno, è possibile selezionare, l’intensità acustica permette sia di stia partire dagli spettri, bande di fre- mare la potenza sonora emessa in ogni
quenza di interesse, e ricalcolarne condizione operativa di interesse, sia di
parametri acustici e mappe. Ciò è utile localizzare tramite mappe cromatiche
poiché consente di stimare i singoli con- su modelli geometrici virtuali le princitributi delle sorgenti all’interno di bande pali fonti di emissione in un determinacentrate sui picchi più significativi. Ne to ambiente, mentre l’analisi di tipo
risulta una localizzazione della sorgen- strutturale (analisi modale e modi opete nella zona circostante allo scomparto rativi) risulta un elemento complementain cui è installato l’estrattore e una fonte re nella ricerca delle cause, in quanto
di rumore anche in corrispondenza del permette di stimare il grado di influenza
percorso delle condotte che convoglia- che ha l’aspetto vibrazionale sul fenono il fluido al di fuori della cabina.
meno acustico globale.
Infine si è scelto di effettuare un confronto fra gli spettri ricavati nell’analisi
dei modi operativi e in quella acustica,
Aleramo Lucifredi è
in modo tale da evidenziare il grado di
laureato in Ingegneria
correlazione fra le frequenze di picco
meccanica. Ha svolto ritrovate nelle due indagini. Si è scelto di
cerca all’Università di
incrociare gli spettri di intensità e della
Stanford. È Direttore del
risposta forzata attraverso una semplice
Dipartimento di Meccaniimplemetazione in Matlab: lo spettro
ca e Costruzione delle
incrociato dà la conferma che, come Macchine dell’Università di Genova.
presumibile, i fenomeni vibratori e quel- Responsabile del Laboratorio di Meccali acustici sono fortemente correlati, per nica generale e meccanica delle vibracui nell’emissione acustica globale i pic- zioni, e Professore ordinario di Meccachi rilevati hanno una forte componente nica applicata alle macchine. Presidendi rumore dovuto al funzionamento te del Gruppo nazionale di meccanica
intrinseco della forzante, ma anche una applicata, è autore di testi universitari,
componente vibratoria importante, diret- contributi a libri e enciclopedie, numetamente rilevabile sui pannelli della strut- rose pubblicazioni scientifiche.
T_M ƒ 96
Addio, Sigfrido
Giovedì 12 Maggio
2011 ci è mancato il
Prof. Sigfrido Leschiutta, insigne metrologo e
grande umanista.
Fra le tante importanti
cariche
del
Prof.
Leschiutta citiamo il
ruolo di Professore
Ordinario di Misure Elettriche e Metrologia al Politecnico di Torino, l’afferenza
all’Accademia delle Scienze Torinese, la
passata Presidenza dell’Istituto Elettrotecnico Nazionale Galileo Ferraris (ora
I.N.Ri.M.), il ruolo di membro del CIPM di
Presidente del CCE. Il Prof. Leschiutta è
stato, fin dalla sua nascita, membro del
Comitato Scientifico del Congresso “Metrologia e Qualità”. Tra i suoi interessi di
ricerca, gli orologi atomici, i sistemi di
navigazione satellitari, la storia degli
apparecchi elettrici, la musica. È stato
autore di cinque libri e di centinaia di articoli scientifici.
La Rivista Tutto_Misure deve al Prof.
Leschiutta dieci anni di fervente e appassionata collaborazione, con articoli profondi e sagaci, che rivelano la sua conoscenza, la sua curiosità e l’amore per la
scienza e l’umanesimo. È autore dell’apprezzatissimo Quaderno del GMEE “Il
tempo nell’età delle Cortigiane”.
Chi l’ha conosciuto e frequentato riconosce al Prof. Leschiutta doti superiori di
scienziato e di grande uomo di alta cultura, il tutto unito ad una grande affabilità e
senso dell’amicizia, sempre pronto ad scolare e consigliare per il bene comune della
crescita culturale della metrologia e della
scienza delle misure.
Dice Mario Savino, già Presidente del
GMEE: “Con Sigfrido muore un pezzo
significativo della nostra storia, uno scienziato che deve rimanere nei nostri ricordi
come esempio di impegno, rettitudine e
grande umanità. Egli sapeva conciliare la
speculazione scientifica con l’amore, l’arte,
la musica, il misticismo. Mi legavano a lui
una sincera amicizia e un’immensa stima e
fui particolarmente contento quando mi
volle nel Consiglio Scientifico dell’IEN-GF
nel momento in cui ne divenne Presidente.
Sotto la Sua guida l’Istituto ebbe un significativo impulso e per me fu un’esperienza
molto formativa”.
A nome della Redazione e di tutta la comunità scientifica dei lettori di Tutto_Misure
vadano alla famiglia i sensi della nostra vicinanza e della nostra gratitudine a Sigfrido
per quanto ha saputo darci.
Il Direttore
▲
MISURE ACUSTICHE E VIBRAZIONALI PER APPLICAZIONI INDUSTRIALI
IL
TEMA
Claudio De Capua, Rosario Morello
Misure per la valutazione dell’esposizione dei lavoratori
a rischi indotti da vibrazioni meccaniche
Vibrazioni mano-braccio e vibrazioni al corpo intero
MEASUREMENTS FOR RISK ASSESSMENT ABOUT WORKER
EXPOSURE TO MECHANICAL VIBRATIONS - HAND-ARM
AND WHOLE-BODY VIBRATION
Repeated exposure to high vibration levels, with the passing of time, may
be cause of the onset of specific pathologies affecting neurological and
skeletal systems, or cause of muscle-skeletal pains at limbs and/or spine. In
this sight, Standards and international regulations fix exposure limits in
order to minimize possible risks for human health. In the present paper, the
authors focus attention on the worker safety issue with reference to the
human exposure to vibrations due to mechanical tools. To this aim, two
measurement systems are proposed for the assessment of safety requirements during the use of vibrating tools for the hand-arm and whole-body
vibration exposure respectively. Each measurement system is able to acquire
and estimate the daily exposure to vibration according to the guidelines of
Standards ISO 5349 and ISO 2631-1.
RIASSUNTO
L’esposizione continuata ad elevati livelli di vibrazione, col passare del
tempo, può facilitare l’insorgere di patologie che interessano i sistemi neurologico e vascolare, o causare problemi al sistema muscolo-scheletrico
degli arti e della colonna vertebrale. A tal proposito Standard e regolamenti impongono limiti di esposizione allo scopo di ridurre possibili rischi
per la salute. Nel presente lavoro gli autori rivolgono l’attenzione alla sicurezza nei luoghi di lavoro con riferimento ai rischi derivanti dall’esposizione a vibrazioni meccaniche. Allo scopo sono proposti due sistemi di misura per la verifica dei requisiti di sicurezza riguardanti l’esposizione a vibrazioni rispettivamente del sistema mano-braccio e del corpo intero degli operai durante l’utilizzo di sistemi e macchine vibranti. I sistemi di misura progettati sono in grado di acquisire e stimare l’esposizione giornaliera alle
vibrazioni in accordo alle linee guida degli Standard ISO 5349 e ISO
2631-1.
VIBRAZIONI MANO-BRACCIO E
VIBRAZIONI AL CORPO INTERO
La prevenzione degli incidenti e la
sicurezza sui luoghi di lavoro obbligano i datori a prendere precauzioni attraverso dispositivi atti a salvaguardare la salute del lavoratore.
Oggi nuove metodologie e macchinari sempre più sofisticati permettono di migliorare la qualità del lavoro, mentre leggi, regole, direttive e
standard provvedono a garantire la
sicurezza tutelando sempre più il
lavoratore. Spesso gli operai di fab-
In maniera analoga l’uso di trattori,
escavatori, autocarri, camion, bus, gru
e mezzi cingolati in generale espone
la colonna vertebrale del guidatore a
stress e ripetuti traumi. L’uso di tali veicoli spesso rientra nelle specifiche
mansioni giornaliere di operai e lavoratori, rappresentando la principale
causa dell’esposizione a vibrazioni
meccaniche del corpo intero (WBV)
[5-6]. Con tale termine si suole indicare la vibrazione trasmessa all’intero
corpo dovuta ad agenti fisici. Si tratta
sostanzialmente di due diversi meccanismi di interazione che interessano il
corpo umano e l’esposizione a vibrazioni, in entrambi i casi tuttavia tale
esposizione è ritenuta essere la causa
di specifiche patologie.
Nel dettaglio studi e ricerche condotte
in campo medico su operai che nel
corso della loro attività lavorativa
hanno utilizzato abitualmente questo
tipo di macchinari, hanno rilevato una
chiara correlazione tra l’esposizione
continua alle vibrazioni indotte e l’insorgere di specifiche patologie riguardanti il sistema mano-braccio e/o la
colonna vertebrale [7-8]. Da tali studi
è risultata una elevata predisposizione da parte di tali lavoratori a soffrire
di dolori scheletrico/muscolari agli
arti superiori, debolezza muscolare o
di specifiche patologie quali ‘dita
bianche’, Sindrome del Tunnel Carpale, Sindrome da vibrazione al sistema
mano-braccio, e ancora con riferimento alla colonna vertebrale ernie al
disco, dolori muscolari, lesioni al sistema muscolo-scheletrico, dolori a collo
e spalle. Altri effetti possono interessare il sistema circolatorio e l’apparato digestivo.
I rischi alla salute tipicamente aumen-
briche, fattorie, fonderie o cantieri
nell’esercizio del loro lavoro sono
tenuti a utilizzare macchinari vibranti a presa manuale, come martelli
pneumatici, motoseghe, smerigliatrici, motozappe. Il meccanismo di funzionamento di simili dispositivi è
causa inevitabilmente di vibrazioni
che si trasmettono dallo strumento a
dita, mani, braccia e spalle [1-3]. La
profondità della trasmissione delle
vibrazioni lungo il sistema manobraccio dipende sostanzialmente Dip. DIMET, Univ. “Mediterranea”
dall’intensità, dalla frequenza e di Reggio Calabria
[email protected]
dalla direzione del movimento [4].
T_M
N.
2/11 ƒ 97
N. 02ƒ
; 2011
tano con l’intensità delle vibrazioni trasmesse e la durata
dell’esposizione. La profondità di propagazione è invece
funzione della frequenza dell’accelerazione trasmessa,
della superficie del corpo interessata e della postura del
soggetto. In definitiva durata, intensità, frequenza, e direzione di vibrazione concorrono alla determinazione degli
effetti sul corpo umano. Tali patologie costituiscono semplicemente i principali sintomi indotti dall’uso di macchinari a vibrazione e a percussione, e i loro effetti possono
manifestarsi anche a distanza di anni dal termine dell’attività lavorativa. Diversamente, alcuni sintomi possono
invece scomparire nel tempo in seguito all’interruzione
dell’uso di tali macchine, tuttavia nei casi più gravi gli
effetti possono diventare cronici.
Negli ultimi anni in ambito nazionale e internazionale
sono state emanate diverse direttive e leggi allo scopo di
fissare dei limiti di riferimento per l’esposizione alle vibrazioni, onde prevenire o quantomeno ridurre i rischi di
lesioni inducendo così i datori di lavoro ad attuare idonee
misure atte a verificare l’intensità e il tempo di esposizione alle vibrazioni per gli operai. Tuttavia è bene precisare che, nonostante la chiara correlazione tra l’esposizione a vibrazioni e l’insorgenza delle patologie suindicate,
non esistono ad oggi relazioni quantitative circa la determinazione dei danni. L’Organizzazione Mondiale della
Sanità suggerisce il ricorso ad azioni preventive sui luoghi di lavoro al fine di prevenire rischi per la salute. Perciò a titolo precauzionale la Direttiva Europea
2002/44/EC determina i requisiti minimi di sicurezza
per la salute dei lavoratori esposti ai rischi derivanti da
agenti fisici, fissando specifici limiti di esposizione giornaliera [9]. Due i limiti previsti dalla Direttiva. Il primo
rappresenta un valore di attenzione, superato il quale
sono necessarie specifiche azioni correttive al fine di
ridurre i livelli di esposizione. Il secondo è invece un valore di allarme, il cui superamento richiede che il lavoratore arresti l’utilizzo di qualsiasi mezzo o veicolo che possa
esporlo a vibrazioni. L’esposizione giornaliera è stimata
attraverso la somma di diversi contributi durante l’attività
lavorativa.
La verifica del superamento dei limiti imposti richiede pertanto di munire chi utilizza simili strumenti vibranti di
opportuni dispositivi capaci di misurare ed analizzare l’esposizione giornaliera alle vibrazioni. Gli standard ISO
5349 e ISO 2631-1 definiscono le metodologie di misura per la stima della esposizione umana alle vibrazioni al
sistema mano-braccio e al corpo intero rispettivamente,
fornendo inoltre specifiche linee guida circa la stima degli
effetti. Di seguito sono descritti due distinti sistemi di misura per la misura e l’analisi dell’esposizione alle vibrazioni indotte al sistema mano-braccio e al corpo intero in
accordo alle linee guida degli Standard ISO [10-15]. I
sistemi sono in grado di acquisire informazioni e dati al
fine di identificare l’utente, e successivamente stimare l’esposizione alle vibrazioni nel corso dell’attività giornaliera. I dispositivi sono stati progettati al fine di garantire la
sicurezza sui luoghi di lavoro con riferimento all’esposi-
T_M ƒ 98
N. 02ƒ
;2011
▲
secondo dispositivo di memoria a
sola lettura, il cui scopo è quello di
memorizzare le informazioni metrologiche del sistema di misura. Un set di
led e un display consentono all’operaio di tenere costantemente sotto
controllo lo stato di assorbimento
SISTEMA DI MISURA
PER LA STIMA DELL’ESPOSIZIONE delle vibrazioni. Nel caso in cui i limiti di sicurezza previsti dalla Direttiva
MANO-BRACCIO
[9] dovessero essere superati, il sisteALLE VIBRAZIONI
ma avvisa l’utente con un messaggio
Il primo sistema di misura realizzato è sul display seguito da un segnale di
in grado di verificare l’esposizione allarme acustico che induce l’operaio
umana a vibrazioni indotte al sistema a sospendere l’uso della macchina.
mano-braccio. In Fig. 1 è possibile
osservare il relativo schema a blocchi.
Tre accelerometri MEMS capacitivi
(MS-7010 Calibrys) sono disposti
ortogonalmente lungo le direzioni di
un sistema di assi cartesiani x, y, z
mediante un supporto rigido che deve
essere indossato dall’operaio che utilizza l’utensile vibrante (Fig. 2). L’unità di acquisizione è stata separata
dalla scheda di elaborazione, mediante un sistema di cavi, allo scopo
di ridurre possibili contributi di rumore causati da vibrazioni trasmesse
agli elementi circuitali. Un circuito di
condizionamento ha il compito di
amplificare il segnale analogico di
Figura 1 – Schema a blocchi
tensione in uscita dai trasduttori. Successivamente, il segnale amplificato
viene filtrato per ridurre gli effetti del
rumore, dovuti allo stesso movimento
dei cavi, e quindi digitalizzato mediante un convertitore A/D a 16 bit.
Di seguito il segnale è inviato ad un’unità DSP che ha il compito di elaborare i dati acquisiti attraverso un l’algoritmo in grado di stimare l’esposizione giornaliera alle vibrazioni a cui
è sottoposto l’operaio, in accordo con
le linee guida dello Standard ISO
5349, [12-13].
Il sistema è stato inoltre dotato di due
dispositivi di memoria (Maxim i-ButFigura 2 – Sistema di misura
ton). Un primo dispositivo ha il compito di immagazzinare le informazioni e i dati relativi all’operaio. Ciascun SISTEMA DI MISURA
lavoratore è dotato di un proprio di- PER LA STIMA DELL’ESPOSIZIONE
spositivo di memoria in grado di A CORPO INTERO
memorizzare i propri dati e i contri- ALLE VIBRAZIONI
buti di esposizione alle vibrazioni
durante l’intera giornata lavorativa. Il secondo sistema di misura realizzaSeguendo le linee guida dello Stan- to è di ridotte dimensioni e può essedard IEEE 1451, è stato aggiunto un re indossato dal lavoratore durante lo
zione ad agenti fisici, attraverso la
verifica del rispetto dei limiti di esposizione previsti dalla Direttiva europea [16-17].
IL
TEMA
svolgimento della quotidiana attività
lavorativa, senza limitarne la libertà
di movimento. Il dispositivo è in grado
di stimare i livelli di vibrazione trasmessi alla schiena, valutandone il
rispetto delle prescrizioni di sicurezza. Il sistema è stato progettato in conformità allo Standard ISO 8041 [15].
Lo scopo è assistere il lavoratore
durante l’utilizzo di sistemi vibranti
determinando i possibili rischi alla
salute. Nel dettaglio il sistema in Fig. 3
si compone di un Pocket PC (HP iPAQ
h2210), una CompactFlash data
acquisition card (National Instruments
CF-6004 DAQ), e un sensore isotropico di accelerazione (n. 3 PCB PiezotronicsINC. 393B04). Una applicazione, sviluppata in ambiente LabVIEWTM
PDA Module, consente al palmare di
comunicare con la scheda di acquisizione e successivamente di elaborare
i dati acquisiti mediante gli algoritmi
implementati. Il sensore è stato realizzato attraverso tre accelerometri disposti lungo i tre assi ortogonali di un
sistema cartesiano. L’asse z è orientato lungo la direzione della colonna
vertebrale, rappresentando l’asse di
riferimento per la valutazione dei
rischi alla schiena. Il sensore è indossato dall’operatore attraverso una cintura addominale. I livelli di accelerazione, acquisiti a una frequenza di
campionamento di 100 kS/s mediante un convertitore A/D a 14-bit, sono
memorizzati nella memoria interna
del palmare e successivamente elaborati al fine di stimare il valore dell’esposizione giornaliera alle vibrazioni
in accordo con quanto previsto dalla
ISO 2631-1 [10]. Un pratico pannello di controllo sul display del Pocket
PC consente all’operatore di ottenere
utili informazioni circa il possibile
superamento dei massimi livelli tollerabili di esposizione. Un diagramma
mostra l’andamento dei livelli di accelerazione espressi in valore efficace,
mentre un insieme di spie luminose ne
caratterizza lo stato di rischio, vedi
Fig. 4.
In accordo con quanto previsto dalla
Direttiva europea, un primo led (di
colore verde) consente di verificare se
i livelli di esposizione sono conformi
con il valore di azione, garantendo
T_M ƒ 99
N. 02ƒ
; 2011
l’assenza di rischi per il lavoratore. Un secondo led (di
colore giallo) indica la zona di attenzione, ovvero il caso
in cui il livello di assorbimento delle vibrazioni supera il
valore di azione ma è inferiore al limite di esposizione. In
tale circostanza la normativa richiede di intraprendere
opportune azioni correttive onde ridurre i livelli di esposizione. In ultimo, un terzo led (di colore rosso) illuminandosi segnala la zona di allarme e quindi il superamento
del limite di esposizione. In tal caso l’operaio deve
sospendere per l’intero giorno qualsiasi attività lavorativa
che preveda l’esposizione a vibrazioni. Ulteriori indicatori consentono all’utente di visualizzare sia il valore di
esposizione giornaliera alle vibrazioni mediato nelle otto
ore lavorative A(8) che il valore di dose assorbita di vibrazione VDV. Tali valori sono ottenuti ricavando il massimo
tra i singoli contributi lungo ciascun asse i-esimo:
A i (8) = k i a wi Te / 8 [m/s 2 ]
VDVi = k i 4
T
∫o (awi ( t ) 4 dt 4 Te / Tm [m/s1.75 ]
ove ki è un fattore di correzione per il singolo asse i-esimo;
a wi rappresenta il valore efficace dell’accelerazione
pesata in frequenza in accordo con quanto previsto
dalla ISO 2631-1; Te il tempo effettivo di esposizione
alla vibrazione espresso in unità di ore; e Tm il tempo
di misurazione. I due valori consentono di fornire informazioni complementari sull’esposizione alle vibrazioni. In particolare il valore di dose assorbita consente,
in presenza di transitori e vibrazioni impulsive, di ottenere una migliore indicazione circa i rischi da esposizione. Un ulteriore indicatore mostra infine una stima
del tempo rimanente per l’utilizzo in sicurezza del veicolo senza che l’operaio possa incorrere in possibili
rischi alla salute. I valori così stimati in accordo all’incertezza di misura sono posti a confronto con i rispettivi limiti fissati dalla Direttiva 2002/44/EC attraverso
un algoritmo di decision making, garantendo così il
rispetto dei requisiti di sicurezza previsti dalla normativa.
Figura 3 – Sistema di misura
T_M ƒ 100
Figura 4 – Interfaccia utente
N. 02ƒ
;2011
1. E V Golysheva et al., “Vibration protection for an operator of a hand-held percussion machine”, Journal of Sound and
Vibration, n° 274, pp. 351-367, Elsevier
2004.
2. T J Armstrong et al., “Exposure to forceful exertions and vibration in a
foundry”, International Journal of Industrial Ergonomics, n° 30, pp. 163-179,
Elsevier 2002.
3. L Burstrom and A Sorensson, “The
influence of shock-type vibrations on the
absorption of mechanical energy in the
hand and arm”, Journal of Industrial Ergonomics, n° 23, pp. 555-594, Elsevier
1999.
4. Y Aldien et al., “Influence of hand forces and handle size on power absorption
of the human hand-arm exposed to z-axis
vibration”, Journal of Sound and Vibration, n° 290, pp. 1015-1039, Elsevier
2006.
5. Paddan, G.S. & Griffin, M.J. (2002)
“Effect of seating on exposures to wholebody vibration in vehicles”, Journal of
Sound and Vibration, 253(1), pp. 215241.
6. H. Seidel, R. Bluethner, B. Hinz (2004)
Effects of sinusoidal whole-body vibration
on the lumbar spine: the stress-strain relationship, International Archives of Occupational and Environmental Health Journal, Springer Journal, ISSN 0340-0131,
pp. 207-223.
7. M D Pottenger and P Benhaim, “Vibration absorbing brace for study of workrelated upper extremity musculoskeletal
disorders”, Engineering in Medicine and
Biology Society, 26th Annual International Conference of the IEEE, Vol. 1, pp.
2466 – 2469, 1-5 Sept. 2004.
8. L Gerhardsson et al., “Vascular and
nerve damage in workers exposed to
vibrating tools: The importance of objective measurements of exposure time”, Journal of Applied Ergonomics, n° 36, pp.
55-60, Elsevier 2005.
9. European Directive 2002/44/EC,
“On the minimum health and safety requirements regarding the exposure of workers to the risks arising from physical
agents (vibration)”, European Parliament
and the Council of the European Union,
Official Journal of the European Communities, OJ L177, p13, July 2002.
10. ISO 2631-1, “Mechanical vibration
and shock – Evaluation of human exposure to whole-body vibration”-Part 1: Gene-
ral requirements, 1997.
11. ISO 5348, “Mechanical vibration
and shock – Mechanical mounting of
accelerometers”, 1998.
12. ISO 5349-1, “Mechanical vibration –
Measurement and evaluation of human
exposure to hand-transmitted vibration –
Part 1: General requirements”, 2001.
13. ISO 5349-2, “Mechanical vibration –
Measurement and evaluation of human
exposure to hand-transmitted vibration –
Part 2: Practical guidance for measurement at the workplace”, 2001.
14. ISO 8662, “Hand-held portable
power tools – Measurement of vibrations
at the handle”, 1998.
15. ISO 8041, “Human response to
vibration – Measuring instrumentation”,
2005.
16. R. Morello, C. De Capua, A. Meduri,
“A Wireless Measurement System for Estimation of Human Exposure to Vibration
During the use of Hand-Held Percussion
Machines”, IEEE Transactions on Instrumentation and Measurement, Vol. 59; P.
2513-2521, ISSN: 0018-9456.
17. R. Morello, C. De Capua, “A Wearable Measurement System for the Risk
Assessment due to Physical Agents:
Whole Body Mechanical Vibration Injuries”, Springer Book “Wearable and
Autonomous Biomedical Devices and
Systems for Smart Environment”, BERLIN:
SPRINGER, ISBN/ISSN: 978-3-64215686-1.
Claudio De Capua si è
Laureato in Ingegneria
Elettrotecnica e ha conseguito il Dottorato di Ricerca in Ingegneria Elettrotecnica presso l’Università
Federico II di Napoli. Nel
2010 è risultato vincitore del concorso
per un posto di Professore Ordinario presso l’Università Mediterranea di Reggio
Calabria. Dal 2008 è Coordinatore del
Collegio dei Docenti del Dottorato di
Ricerca in Ingegneria dell’Informazione
dell’Università Mediterranea di Reggio
Calabria. I principali campi di interesse
comprendono la Progettazione, realizzazione e analisi metrologica delle prestazioni dei sistemi di misura automatici, le
Misure di potenza in condizioni non sinusoidali, le Misure per la qualificazione di
azionamenti elettrici a velocità variabile e
le Misure per l’uomo e per l’ambiente.
■
RIFERIMENTI BIBLIOGRAFICI
IL
TEMA
Rosario Morello ha
conseguito la Laurea in
Ingegneria Elettronica nel
2002 con il massimo dei
voti presso l’Università
Mediterranea di Reggio
Calabria. È Dottore di
Ricerca in Ingegneria Elettrica e dell’Automazione dal 2006. Dal 2005 è docente a contratto di Misure Elettriche ed Elettroniche, e svolge attività di ricerca presso l’Università Mediterranea di Reggio
Calabria. Si occupa di sistemi di misura,
reti distribuite di sensori, taratura e riferibilità metrologica, biomedica, algoritmi
di decision-making, incertezza di misura,
elaborazione di segnali, monitoraggio
ambientale, power quality.
Abbonarsi ORA
per 2 anni a
TUTTO_MISURE
LA RIVISTA DELLE MISURE E DEL CONTROLLO QUALITÀ - PERIODICO FONDATO DA SERGIO SARTORI
ORGANO UFFICIALE DELL’ASSOCIAZIONE “GMEE” E DI “METROLOGIA & QUALITÀ”
CONVIENE!!!
66 euro (anziché 72)
e 30 euro di sconto
sulla quota d’iscrizione
alla 8a edizione
del Congresso Nazionale
“METROLOGIA & QUALITÀ”
L’abbonamento biennale
Vi offre 8 numeri cartacei
+ 8 telematici
(Tutto_Misure News)
Per richiedere le modalità
di abbonamento,
telefonare al n° 011/0266700
o inviare una e-mail a:
[email protected]
T_M ƒ 101
GLI
ALTRI TEMI
▲
TRASFERIMENTO TECNOLOGICO
Marco De Paolis
Le Università e i brevetti
secondo il Codice della proprietà industriale 1
UNIVERSITIES AND PATENTS ACCORDING TO THE ITALIAN
INDUSTRIAL PROPERTY CODE
The article aims at providing information on the types of protection provided by Italian law for research works, indicating the general rules for
patents. The second part introduces a brief comment about the company
law solutions useful to make a research project in a company (spin-off).
RIASSUNTO
L’articolo ha lo scopo di fornire informazioni sulle forme di tutela previste
dall’ordinamento italiano per i risultati dell’attività di ricerca, indicando gli
aspetti generali della disciplina giuridica dei brevetti. Nella seconda parte
sono brevemente presentati gli strumenti che il diritto societario ha messo a
disposizione per trasformare un progetto di ricerca in impresa (spin-off).
LA PROPRIETÀ INTELLETTUALE
COME RISULTATO DELLA RICERCA
procedimento, nonché di usare, mettere in commercio, vendere o importare
a tali fini il prodotto ottenuto con il procedimento in questione.
È bene precisare, in considerazione dell’accenno sopra esposto, che le idee
inventive sono distinte in tre categorie:
• invenzioni di prodotto, che hanno
ad oggetto un nuovo prodotto materiale
(es. un macchinario);
• invenzioni di procedimento che,
secondo il testo dell’art. 2585 c.c.3 possono consistere in un nuovo metodo di
produzione di beni già noti, in un nuovo
processo di lavorazione industriale, in
un nuovo dispositivo meccanico;
• invenzioni derivate, che sono una
derivazione di una precedente invenzione. Queste si diversificano, a loro volta,
in invenzioni di combinazione
(combinazione di altre invenzioni così
da ricavarne un trovato tecnicamente
nuovo), in invenzioni di perfezionamento (miglioramento di un’invenzione
precedente attraverso la sua modifica) e
in invenzioni di traslazione (nuovo
utilizzo di una sostanza o di una composizione di sostanze già note).
getto di brevetto solo se abbiano specifici requisiti, quali la liceità, la novità, l’attività inventiva e l’industrialità. Dei suddetti presupposti sono
meritevoli di alcune note i seguenti.
Un’invenzione è considerata nuova
se non rientra nello “stato della
tecnica”, ovvero tutto ciò che sia
comunque accessibile4 al pubblico, in
Italia o all’estero, prima della data di
deposito della domanda di brevetto
(art. 46 c.p.i.). Per verificare con esattezza il carattere di novità dell’invenzione sono opportune accurate ricerche di anteriorità, mediante le
quali si ha la possibilità di (i) dettagliare i contenuti delle rivendicazioni, (ii) evitare conflitti con brevetti
di terzi, (iii) acquisire un significativo
patrimonio di conoscenze, (iv)
ottimizzare gli sforzi e i fondi
dedicati alla ricerca, (v) individuare
quanti già operano nell’ambito
della soluzione proposta che
possono rappresentare potenziali
licenziatari o concorrenti. Tali incombenze possono essere affidate, in considerazione della complessità e della
necessità del più ampio approfondimento, a un professionista esperto
nella materia, come un avvocato.
L’attività inventiva, invece, sussiste quando a una persona esperta del
ramo l’invenzione non risulta in
modo evidente dallo stato della
tecnica (art. 48 c.p.i.). L’invenzione
deve essere originale ed emergere
nell’ambito di un momento creativo,
senza che possa essere ovvia a una
persona esperta del ramo cui l’invenzione appartiene. La stima dell’attività
inventiva, spesso complessa, deve
considerare lo stato della tecnica più vicino, individuando il pro-
L’attività di ricerca consente frequentemente di pervenire a nuove soluzioni
di uno specifico problema tecnico,
suscettibili di avere un’applicazione
nel settore della produzione di beni
e/o servizi. Il brevetto è il titolo giuridico che conferisce al titolare il diritto esclusivo e temporaneo di produrre, utilizzare e vendere questa nuova
soluzione tecnica nello stato in cui il
brevetto è stato richiesto e successivamente concesso2. Nel brevetto sono
compresenti due diversi diritti: (i) lo
sfruttamento commerciale dell’invenzione e (ii) l’impedimento a
terzi di produrre o commercializzare la stessa senza il consenso del
titolare.
Nello specifico, il soggetto che abbia
ottenuto un brevetto potrà disporre in
via esclusiva:
• se l’oggetto del brevetto è un prodotto,
del diritto di vietare ai terzi, salvo
il proprio consenso, di produrre,
usare, mettere in commercio,
vendere o importare a tali fini il prodotto in questione;
• se l’oggetto del brevetto è un procedi- I REQUISITI DEL BREVETTO
Avvocato in Brescia
mento, del diritto di vietare ai terzi,
senza autorizzazione, di applicare il I trovati suddetti possono diventare og- [email protected]
T_M
N.
2/11 ƒ 103
N. 02ƒ
;2011
blema oggettivo cui l’invenzione intende dare soluzione,
e valutando l’originalità della soluzione proposta.
L’industrialità, infine, è insita in un’invenzione che
può essere fabbricata o utilizzata in qualsiasi genere
d’industria, compresa quella agricola (art. 49 c.p.i.).
Vanno pertanto esclusi dalla brevettabilità i trovati non suscettibili di sfruttamento industriale.
I VANTAGGI DEL BREVETTO
Il titolare di un brevetto ottiene una tutela giuridica che
ha un contenuto sia morale sia patrimoniale. Da
un lato, egli ha diritto a essere riconosciuto come autore
dell’invenzione (art. 62 c.p.i.) e, dall’altro, può sfruttare economicamente in via esclusiva il proprio
trovato. Quest’ultimo diritto è trasferibile a terzi (art. 63
c.p.i.).
Il brevetto ha una durata di vent’anni a decorrere dalla
data del deposito della domanda presso l’Ufficio Brevetti e
non può essere rinnovato alla scadenza. Ne consegue
che, allo scadere del termine ventennale, l’uso della soluzione inventiva è libero. È possibile perdere prima della
scadenza del termine suddetto il diritto di esclusiva qualora sia dichiarata la nullità del brevetto (art. 76
c.p.i.) o sia sopraggiunta una causa di decadenza
dello stesso (art. 70 c.p.i.).
In sintesi, la legge concede, su domanda e previo pagamento delle tasse di deposito e mantenimento, una posizione di esclusiva per l’attuazione e lo sfruttamento dell’invenzione, fatte salve alcune forme di libera utilizzazione dell’invenzione da parte di terzi per scopi
privati e non commerciali (art. 68, comma 1, c.p.i.). L’esclusiva comprende non solo la fabbricazione, ma anche
il commercio e l’importazione dei prodotti cui l’invenzione
si riferisce (art. 66, comma 2, c.p.i.). In ambito commerciale l’esclusiva si esaurisce con la prima immissione in circolazione del prodotto brevettato.
La concessione del brevetto presuppone il deposito di una
specifica domanda di brevetto. La redazione della
domanda è un passaggio molto delicato5, giacché è
di assoluta importanza che le rivendicazioni dell’inventore siano scritte in modo completo e chiaro
consentendo a una persona esperta del ramo di attuarla.
La domanda può contenere una sola invenzione o un gruppo d’invenzioni costituenti un unico concetto inventivo. Infine, la domanda di brevetto, in sede di estensione internazionale, non può essere modificata per estendere il suo
oggetto oltre il contenuto della prima domanda depositata.
Trascorsi diciotto mesi dalla data di deposito, la
domanda di brevetto è resa pubblica ed entra a far parte
dello stato della tecnica, ovvero viene inserita tra le conoscenze a disposizione della collettività. I tempi per la pubblicazione possono, eventualmente, essere ridotti per volontà espressa del titolare a novanta giorni dalla data
di deposito. Il periodo di segretezza di diciotto mesi, non
derogabile a meno di novanta giorni, è riservato all’autorità
43. verticale
Azienda leader di strumenti
e sistemi di misura...
se cercate
la soluzione giusta
per risolvere
qualsiasi problema
di misura e controllo,
voltate pagina!
T_M ƒ 105
militare per verificare il proprio interesse
sul trovato.
Questo arco temporale può rappresentare un utile intervallo temporale per
il titolare della domanda per mettere a
punto le strategie commerciali di sfruttamento dell’invenzione, oltre che quelle di
tutela della stessa.
I COMPENSI PREVISTI
PER IL BREVETTO
Allo scopo di garantire un compenso
per gli investimenti necessari al conseguimento dei nuovi risultati, l’ordinamento riconosce il diritto di uso
esclusivo dell’invenzione per
un certo intervallo temporale,
ma dall’altro chiede come contropartita la messa a disposizione
della collettività del contenuto
del brevetto, per favorire la diffusione della conoscenza, quale vettore
di sviluppo e di crescita economica e
sociale.
Indipendentemente dall’oggetto dell’invenzione, il diritto di utilizzo esclusivo
dato dal brevetto non si estende
agli atti compiuti in ambito privato, purché non a fini commerciali, e
all’impiego delle soluzioni brevettate a
fini di sperimentazione e di ricerca
scientifica. È altresì ammessa la preparazione estemporanea di farmaci su
ricetta medica.
Oltre ai casi appena richiamati di uso
lecito e consentito di brevetti altrui, non
compie alcuna violazione chi gode del
diritto di preuso, che consiste nella
possibilità per chiunque, che nel corso
dei dodici mesi anteriori alla data di
deposito di una domanda di brevetto o
anteriormente alla data di priorità,
abbia fatto uso nella propria azienda
dell’invenzione poi oggetto della domanda di un terzo, di continuare ad
usarla nei limiti del preuso dimostrato.
Tale facoltà è trasferibile soltanto
insieme all’azienda in cui l’invenzione
viene utilizzata. La prova del preuso e
della sua estensione è a carico del
preutente. L’ordinamento garantisce
così il soggetto che ha impiegato
nella propria azienda, mantenendola
segreta, una soluzione tecnica successivamente brevetta da altri.
T_M ƒ 106
N. 02ƒ
; 2011
▲
GLI
ALTRI TEMI
LE INVENZIONI
E CREAZIONI NON BREVETTABILI
versità che agisse verso i terzi
committenti e i licenziatari oppure
se dovesse limitarsi a stabilire la percentuale di sua spettanza. Dall’altro,
nella prassi, come indicato nella Relazione della Commissione di riforma del
Codice di proprietà industriale, si
riscontrava l’inerzia dei ricercatori
o dei dipendenti della struttura
pubblica ad attivarsi per conseguire la titolarità del brevetto e
per ottenere lo sfruttamento economico dell’invenzione. Nonostante i dubbi suddetti, l’attuale impianto
normativo contenuto nel Codice della
Proprietà Industriale non prevede, in
materia d’ invenzioni dei ricercatori universitari, alcuna innovazione rispetto all’ultima riforma del 2001, a eccezione della deroga inerente alle ricerche finanziate da soggetti privati.
Non soddisfano i requisiti richiesti, e
non sono perciò tutelabili con
brevetto le creazioni estetiche, le teorie scientifiche, le leggi fisiche, le scoperte, le formule e i metodi matematici,
le presentazioni di informazioni, i codici di scrittura, i metodi inerenti ad attività mentali (es. metodi di apprendimento), i programmi per elaboratori o regole di gioco, i metodi commerciali e pubblicitari, i metodi di chirurgia, diagnostici o terapeutici applicati al corpo
umano o agli animali.
Le fattispecie di esclusione sopra indicate non escludono la brevettabilità di
prodotti, dispositivi o soluzioni tecniche
che si avvalgano di dette teorie, formule, leggi, scoperte o programmi; infatti
anche se una scoperta scientifica non è
brevettabile in quanto tale, può trovare
tutela il suo utilizzo pratico o il procedi- APPROFONDIAMO L’ART. 65
mento individuato.
Le suddette premesse ci consentono di
poter approfondire il contenuto dell’art.
IL BREVETTO
65 c.p.i.7, norma che disciplina le
E I RICERCATORI UNIVERSITARI
invenzioni dei ricercatori dell’università
e degli enti pubblici di ricerca. Il preSul tema delle invenzioni dei ricercatori supposto della sua applicazione è indidell’Università e degli enti pubblici di viduato nel primo comma (“in deroga
ricerca6, il legislatore è intervento in diver- all’articolo 64”, che riguarda le invense occasioni a decorrere dal 2001.
zioni dei dipendenti): il rapporto di
L’art. 7 della Legge n. 383/2001, cosid- lavoro deve intercorrere con un’Unidetta Tremonti-bis, modificando la previ- versità o con una pubblica amsione normativa secondo cui l’invenzio- ministrazione avente tra i suoi
ne apparteneva di regola al datore di scopi istituzionali finalità di ricerlavoro, stabiliva, con conseguente inno- ca. Lo stesso primo comma precisa che
vazione del testo dell’art. 24 bis del il ricercatore è titolare esclusivo
regio decreto 29 giugno 1939, n. dei diritti derivanti dall’invenzione
1127, che il ricercatore era il titola- brevettabile di cui è autore. In caso di
re esclusivo del brevetto. A seguito più autori i diritti derivanti dall’invendi tale riconoscimento, il ricercatore zione appartengono a tutti in parti
aveva il dovere di depositare il uguali salvo diversa pattuizione. L’inbrevetto e di avvertirne l’ammini- ventore presenta la domanda di
strazione. Il comma 2 dell’art. 24 bis brevetto e ne dà comunicazione
aggiungeva poi che spettava alle all’amministrazione. Come si nota
Università determinare l’importo il legislatore ha mantenuto inalterato il
massimo del canone delle licenze dispositivo introdotto con la riforma del
concesse a terzi. Del canone delle 2001 nonostante le difficoltà
licenze al ricercatore era riconosciuto applicative riscontrate.
non meno del cinquanta per cento.
Il ruolo delle Università e delle pubbliche
Le suddette previsioni suscitarono però amministrazioni è definito dal secondo
diverse perplessità dal punto di comma dell’art. 65 c.p.i.. Esse hanno il
vista applicativo. Da un lato, non compito di stabilire l’importo massi comprendeva se fosse l’Uni- simo del canone inerente alle
N. 02ƒ
;2011
licenze a terzi per l’uso dell’invenzione, spettante alla
stessa università o alla pubblica amministrazione ovvero a
privati finanziatori della ricerca, nonché ogni ulteriore
aspetto dei rapporti reciproci. All’inventore è riconosciuto il
diritto a non meno del cinquanta per cento dei proventi o dei canoni di sfruttamento dell’invenzione (art. 65,
comma 3, c.p.i.). Nel caso in cui le Università o le amministrazioni pubbliche non provvedano alle determinazioni di
cui al comma 2, alle stesse compete il trenta per
cento dei proventi o canoni.
Il quarto comma dell’art. 65 c.p.i. contiene specifiche
prescrizioni in merito al cosiddetto onere di attuazione con riconoscimento del diritto allo sfruttamento
economico dell’invenzione a favore dell’ente. Infatti,
decorsi cinque anni dalla data di rilascio del brevetto,
qualora l’inventore o i suoi aventi causa non ne abbiano iniziato lo sfruttamento industriale (a meno che ciò
non derivi da cause indipendenti dalla loro volontà) la
pubblica amministrazione di cui l’inventore era dipendente al momento dell’invenzione acquisisce automaticamente un diritto gratuito, non esclusivo, di
sfruttare l’invenzione e i diritti patrimoniali a essa connessi, o di farli sfruttare da terzi, salvo il diritto spettante all’inventore di esserne riconosciuto autore.
L’ultimo comma dell’art. 65 c.p.i. prevede una deroga
all’applicazione delle sue disposizioni precedenti in caso di ricerche finanziate, in tutto o in parte,
da soggetti privati, ovvero realizzate nell’ambito di
specifici rapporti di ricerca finanziati da soggetti
pubblici diversi dall’Università, ente o amministrazione di appartenenza del ricercatore. Ciò significa che,
nell’ipotesi di cui al comma 5, la titolarità del brevetto spetta all’Università che potrà negoziarlo liberamente col committente.
Dalla lettura delle norme contenute nell’art. 65 c.p.i. si
può dedurre che il legislatore abbia voluto sia incentivare i ricercatori a conseguire risultati brevettabili in vista di un possibile beneficio economico
(comma 1) sia agevolare i finanziatori privati a
investire in ricerca, contrattando con l’Università gli
aspetti economici e la proprietà dei risultati (comma 5).
Questi due interessi vanno equilibrati nel caso di
ricerche finanziate, poiché il comma 5 non chiarisce se
in questo caso al ricercatore sia riconosciuto il diritto
all’equo premio (art. 64, comma 2, c.p.i) e quindi spetterà all’Università prevedere nel contratto con il
finanziatore un compenso per il ricercatore al
fine di non neutralizzare l’effetto incentivante di cui al
comma 1.
... la soluzione giusta è
BREVETTI IN UNIVERSITÀ: SÌ O NO?
In conclusione, vediamo quali sono le ragioni che devono spingere a depositare un brevetto in sede universitaria8. Si ritiene che, in tale ambito, il brevetto possa essere vantaggiosamente utilizzato al fine non solo di esclu-
Dal micrometro alle Macchine di Misura
Ottiche e Multisensore 3D.
Da oltre 50 anni la soluzione giusta.
www.rupac.com
Via Alamanni, 14 - 20141 Milano - tel 02.53.92.212 r.a. - fax 02.56.95.321
[email protected]
N. 02ƒ
; 2011
derne altri dalla titolarità, ma anche e
soprattutto per concederne lo
sfruttamento a terzi o per dar
vita a uno spin off.
La società esterna, in questo caso,
può acquisire dall’Università i
risultati brevettati raggiunti a conclusione di un progetto di ricerca per
applicarli concretamente in un
nuovo prodotto/servizio da immettere
sul mercato. Operativamente questa
finalità può essere perseguita mediante la stipula di accordi di cessione e/o licenza del brevetto o di
cessione del know how.
Molto interessante può essere l’opzione di costituire uno spin off
utilizzando il brevetto. Si tratta
di una nuova società che si fonda
esclusivamente sul contributo
di docenti e ricercatori attraverso
l’attività sviluppata dagli stessi fondatori. A questa nuova entità saranno conferiti, anche in via gratuita, i diritti sui risultati delle ricerche
e/o sui brevetti dell’Università. Quest’ultima riceverà in cambio gli
eventuali ritorni economici (partecipazione ai proventi derivanti da
sfruttamento dei brevetti, licenze). In
tale ipotesi la titolarità della proprietà intellettuale dei risultati della ricerca attivata dallo spin off apparterrà allo stesso.
NOTE
ficiente a dimostrare la diffusione del
trovato e, quindi, a far escludere il
requisito della novità dell’invenzione
necessario per la concessione di un
valido brevetto industriale. La divulgazione, che fa perdere all’invenzione il
requisito della novità così da impedire
la concessione di un valido brevetto,
deve consistere in una comunicazione
o diffusione che porti il ritrovato a
conoscenza di un numero indeterminato di persone, le quali siano poste in
grado di apprenderne gli elementi
essenziali e caratteristici, in modo da
poterlo riprodurre, attuando cosi l’invenzione”.
5 È quindi opportuno che la domanda
e le pratiche di deposito siano curate
da un avvocato nell’interesse dell’inventore.
6 M. Libertini, I centri di ricerca e le
invenzioni dei dipendenti nel Codice
della proprietà intellettuale, in Rivista
di Diritto Industriale, vol. I, 2006, p.
49 e ss..; G. Pellacani, La disciplina
delle invenzioni nel nuovo “Codice
della proprietà industriale”, in Dir.
relaz. ind., 3, 2005, p. 739 e ss..
7 A. Cicchetti, F.E. Leone, D. Mascia, a
cura di, Ricerca scientifica e trasferimento tecnologico, 2007, p. 128 e
ss.; A. Sirotti Gaudenzi, Proprietà intellettuale e diritto della concorrenza, vol.
5, 2010, p. 31 e ss..
8 M. Beraldo, Brevetti e innovazioni.
La difesa della proprietà industriale
dall’Europa alla Cina, p. 24; R. Palumbo, Dall’Università al mercato. Governance e performance degli spinoff universitari in Italia, 2010, p. 13.
1
Decreto legislativo 10 febbraio
2005, n. 30.
2 G.F. Campobasso, Manuale di diritto
commerciale, 2010, p. 90 e ss.; A. Sirotti Guadenzi, Manuale pratico dei marchi
e dei brevetti, 2009, p. 273e ss..
3 Art. 2585 c.c. “[I] Possono costituire
oggetto di brevetto le nuove invenzioni
atte ad avere una applicazione industriale, quali un metodo o un processo
di lavorazione industriale, una macchina, uno strumento, un utensile o un dispositivo meccanico, un prodotto o un
risultato industriale e l’applicazione tecnica di un principio scientifico, purché
essa dia immediati risultati industriali.
[II] In quest’ultimo caso il brevetto è limitato ai soli risultati indicati dall’inventore”.
4 Cass. Civ., 19 aprile 2010 n. 9291:
“La vendita dell’unico esemplare è suf-
Marco De Paolis ha
conseguito la laurea in
Giurisprudenza presso l’Università Bocconi nel
2004. Ha specifiche competenze che interessano
maggiormente l’attività
d’impresa (contrattualistica nazionale e
internazionale, diritto societario, diritto
dei brevetti, dei marchi e dei segreti industriali, diritto tributario). La sua attività inerente la proprietà industriale comprende
assistenza alle pratiche di protezione
delle invenzioni e dei progetti di ricerca,
e la cura delle operazioni di costituzione
e sviluppo di un’impresa che dia attuazione ai risultati di ricerca (cd. start up), in
cui sono richieste l’analisi di questioni
finanziarie e giuridiche.
GLI
ALTRI TEMI
▲
SINCRONIZZAZIONE
DI SISTEMI DI MISURA
C.M. De Dominicis, P. Ferrari, A. Flammini, E. Sisinni
È scoccata l’ora!
La sincronizzazione temporale in sistemi distribuiti
TIME HAS COME!
Today time synchronization, i.e. the capability to share the same sense of
time by several distributed systems, requires very high performance. Our
research group started researches in this topic many years ago. Both wired
and wireless solutions have been considered. In particular, the activity on
wireless sensor networking has been awarded with the “Best Paper Award”
during the last edition of the IEEE ISPCS symposium. The adoption of pulse
compression techniques, originally developed for ranging applications, has
allowed synchronization accuracy on the order of few nanoseconds, as
verified with an experimental platform based on a Software Defined Radio.
RIASSUNTO
La sincronizzazione temporale, ossia la capacità di condividere lo stesso senso
del tempo da parte di più sistemi distribuiti, richiede oggi prestazioni sempre
più spinte. Da anni il nosro gruppo di ricerca si occupa di tali problematiche,
prima per le applicazioni cablate e più recentemente per le soluzioni wireless.
L’attività di ricerca svolta in quest’ultimo settore che ha ricevuto l’importante
riconoscimento di “Best Paper Award” all’ultima edizione del convegno IEEE
ISPCS, riferimento mondiale per tali tematiche. L’uso delle tecniche di pulse
compression, originariamente sviluppate per le applicazioni di ranging, ha
permesso di ottenere accuratezze di sincronizzazione nell’ordine del nanosecondo con una piattaforma sperimentale basata su Software Defined Radio.
QUANDO E DOVE
I concetti di spazio e tempo sono strettamente connessi al nostro modo di
pensare. Pur non essendo innati ma
acquisiti gradualmente, già nell’infanzia siamo in grado di ordinare gli eventi che accadono intorno a noi secondo
un “vicino” e un “lontano” oppure un
“prima” e un “dopo”. In un sistema di
misura e/o di controllo distribuito, tali
concetti acquistano ancora maggior
importanza; la raccolta d’informazioni
inerenti le grandezze fisiche in ingresso
al sistema monitorato e le strategie di
attuazione delle uscite sono di scarsa
utilità se non accompagnate da un
opportuno riferimento spaziale e temporale. Tale riferimento richiederà,
ovviamente, una risoluzione fortemente
dipendente dall’applicazione. Se è
intuitivo che in una lavorazione di precisione è richiesta una localizzazione
ben inferiore al millimetro, può sfuggire
Prendendo spunto da questa semplice
considerazione, ci siamo chiesti se le
soluzioni adottate nei sistemi di localizzazione wireless potessero essere impiegate anche per migliorare l’accuratezza
nella sincronizzazione degli orologi dei
diversi nodi, senza comunque dimenticare i requisiti di basso consumo, complessità e costo. La risposta a questa
domanda è stata trovata nell’uso della
modulazione a spettro espanso di tipo
chirp, nota anche come CSS.
MECCANISMI
DI TIMESTAMPING E CSS
Scopo della sincronizzazione temporale di un nodo all’interno di una rete è
ricostruire il comportamento di un orologio di riferimento remoto rispetto a
quello locale in termini di offset e deriva. A prescindere dall’algoritmo di sincronizzazione effettivamente utilizzato
(sender/receiver o receiver/receiver), l’idea base è di utilizzare uno scambio di
messaggi tra i nodi stessi per ottenere
queste informazioni. Diventa quindi fondamentale la capacità di contrassegnare
temporalmente (all’interno del proprio
riferimento locale) l’istante di trasmissione e quello di ricezione dei messaggi
stessi, operazione convenzionalmente
indicata con la dicitura inglese timestamping. Anzi, è proprio l’accuratezza con
cui il timestamp è effettuato che determina le prestazioni della sincronizzazione.
Se è vero che la trasmissione è completamente sotto il controllo dell’hardware
che implementa il nodo e non pone,
almeno in linea teorica, grossi problemi,
la ricezione è soggetta alle distorsioni
introdotte dall’ambiente. In particolare, il
meccanismo di timestamping deve essere robusto rispetto al rumore e al fenomeno dei cammini multipli.
l’utilità pratica di una sincronizzazione
al nanosecondo. Questo è naturale se
si pensa che l’uomo percepisce la frazione di millimetro ma non il millisecondo, ma se si pensa al riferimento spazio-temporale di un impulso elettrico gli
ordini di grandezza sono ben differenti
(un impulso elettrico può percorrere fino
a 30 cm in un nanosecondo).
La geo-localizzazione, in particolare,
è un tema che suscita grande interesse, come è sottolineato dai numerosi
gruppi che lavorano alla stesura dei
diversi standard ad oggi esistenti (si
consideri ad esempio la famiglia
ISO/IEC24730 [1], che si occupa
proprio dei cosiddetti sistemi di localizzazione in tempo reale, o RTLS). Tuttavia, un’analisi più accurata delle tecniche usate in questi sistemi evidenzia
come requisiti e metodologie siano
sostanzialmente gli stessi che caratterizzano l’attività di ricerca inerente la Università di Brescia
[email protected]
sincronizzazione temporale [2].
T_M
N.
2/11 ƒ 109
Qualunque sistema radio implementa,
già al ricevitore, strategie di sincronizzazione volte al recupero della
portante e della cadenza con cui
sono trasmessi i bit e i frame che costituiscono il messaggio stesso. Tuttavia,
le tecniche di modulazione tradizionali hanno l’obiettivo di massimizzare
la probabilità di stima corretta del
segnale ricevuto, non di contrassegnare con precisione la sua collocazione temporale. Una prima strategia
potrebbe essere quella di utilizzare
impulsi a radiofrequenza di durata
molto breve, che a causa della loro
elevata occupazione spettrale sono
però molto difficili da gestire (radio
UWB). Un’altra soluzione si basa
sulla tecnica di pulse compression,
ovvero sull’utilizzo di un segnale di
banda comunque ridotta ma che,
opportunamente filtrato, mostri un supporto temporale molto compatto. Alla
base di tale tecnica c’è l’impiego di
T_M ƒ 110
N. 02ƒ
; 2011
▲
GLI
ALTRI TEMI
un segnale chirp, ovvero un segnale
di durata Tc, centrato temporalmente
all’istante Ti e frequenzialmente attorno alla pulsazione ωi, la cui frequenza varia con rate µ, la cui rappresentazione complessa è data dalla relazione seguente:
 t − Ti 
µ


s( t , ω i , Ti ) = exp jω i ( t − Ti ) + j d ( t − Ti ) 2  ⋅ rect 

2


 Tc 
Come noto, la risposta del filtro ottimo
per tale segnale ha un andamento di
tipo “sinc” espresso dalla relazione:
g( t , ω i , Ti ) =
µ

sin  ⋅ ( t − Ti )( Tc − t − Ti ) 
2
 ⋅ exp jω ( t − T ) , t − T < T
i
i
i
c
µ
⋅ ( t − Ti )
2
[
]
Una rappresentazione grafica di tale
tecnica è data dalla Fig. 1. Come evidenziato, il segnale g(t,ωiΤi) ha una
durata null-null proporzionale a (µTc)-1
e quindi esiste un compromesso tra il
supporto frequenziale e quello temporale, cosa particolarmente utile nel-
l’applicazione in esame.
Inoltre, così come l’ampiezza, la frequenza o la fase di una portante possono essere modulate per trasmettere
informazioni, anche il segnale chirp
può essere modulato e veicolare dati
utente. Si consideri ad esempio l’uso
che ne viene fatto dalle radio compatibili con lo standard IEEE802.15.4a [3],
che ne modificano appunto la
fase. Lo standard IEEE802.15.4a
è un’evoluzione dello standard
IEEE802.15.4, meglio noto nella sua
realizzazione più famosa ossia ZigBee, dedicato al supporto sia di
comunicazione che di localizzazione.
L’attività svolta ha aggiunto a tale sistema di comunicazione la capacità di
intercettare il campo del pacchetto
denominato “SFD” e contrassegnarlo
temporalmente. Va tuttavia sottolineato
che a oggi sono veramente pochi i dispositivi commerciali che lo implementa-
Figura 1 – Rappresentazione grafica della tecnica di pulse compression
no, e nessuno offre un accesso diretto al
segnale a radiofrequenza e/o in banda
base. Per ovviare a tale limitazione,
abbiamo pensato di implementare una
piattaforma di emulazione basata su
una Software Defined Radio (SDR) [4].
I RISULTATI OTTENUTI
Con il termine SDR s’intende un qualunque sistema di comunicazione a radiofrequenza in cui l’elaborazione del
segnale è affidata a un generico sistema di elaborazione piuttosto che a un
hardware dedicato; in altre parole, la
conversione del segnale in uno stream
numerico è effettuata il più vicino possibile all’antenna. Campionare e acquisire in numerico direttamente il segnale in
aria può non essere così banale come
sembra, dato che molto spesso si tratta
di segnali ben oltre il GHz. Per questo
si ricorre a stadi di (de)modulazione,
spesso riuniti in un generico “front-end
analogico”, in modo da rilassare le
specifiche sullo stadio di conversione.
Si ottiene così una struttura ibrida nella
quale il segnale a radio frequenza è
traslato in banda base da questo frontend analogico (che opera comunque in
maniera programmabile/configurabile), mentre tutte le successive operazioni sono svolte in software. Tale approccio permette quindi di implementare, in
linea di principio, qualunque sistema di
comunicazione wireless in maniera flessibile e scalabile, essendo il front-end
analogico l’unico fattore vincolante; ad
esempio, è possibile un’elaborazione
parallela di comunicazioni diverse e
contemporanee (come WiFi e ZigBee).
Abbiamo perciò scelto di utilizzare la
piattaforma open source GNU-Radio
per realizzare un transceiver compatibile con lo standard IEEE802.15.4a
nella variante a 1 Mbps. Seguendo le
specifiche, trasmettitore e ricevitore
operano con frequenza di campionamento pari a 32 MS/s generando
simboli della durata di 6 µs (192 campioni) costituiti dalla concatenazione
di quattro chirp differenti.
In una prima fase abbiamo verificato
la capacità di timestamping nello
scambio di un messaggio tra una sorgente e una destinazione utilizzando
un canale di comunicazione simulato.
Si faccia riferimento alla Fig. 2, che evidenzia la presenza di uno stream di
riferimento ottenuto grazie a un canale
ideale e due ricevitori A e B connessi
da un canale caratterizzato dalla presenza di rumore additivo gaussiano
(AWGN), di un offset sulla portante e di
un drift dell’orologio di sistema. In particolare, si è scelto di far assumere
all’SNR i valori [10, 20, 30, 40] dB,
all’offset al ricevitore A i valori [0,
10] kHz, all’offset al ricevitore B i valori [0, 11, 111] kHz e alla deriva degli
orologi i valori [0, 100, 500] ppm.
I risultati riportati nella Tab. 1 si riferiscono all’errore medio O nella valutazione della posizione del SFD all’interno del messaggio ricevuto e all’andamento di tale errore riassunto dalla sua
deviazione standard σ (la valutazione è
su 100 acquisizioni differenti e il pedice indica se relativi al ricevitore ideale
o meno). La risoluzione risulta quindi
essere nell’ordine delle decine di ps!
Successivamente si è provato a stimare la deriva dell’orologio locale a partire dal timestamp di più pacchetti
inviati periodicamente, come riassunto nella Tab. 2 (la valutazione è sempre su 100 acquisizioni differenti).
Si può notare che se la deriva rimane
inferiore ai 500 ppm, il ricevitore la
può stimare con un errore relativo inferiore al 2 %, nonostante la presenza di
AWGN e offset sulla portante.
Alle simulazioni hanno fatto seguito
▲
GLI
ALTRI TEMI
anche valutazioni sperimentali, realizzate con due schede USRP come sistema elettronico di interfaccia tra il
segnale in aria e il PC che ospita la
GNU Radio. Va ricordato che in questo
caso la massima frequenza di campionamento raggiungibile è di soli
4 MS/s, invece di 32 MS/s come per
le simulazioni. È stato quindi necessario
scalare temporalmente il chirp, ovvero
allungarne la durata Tc di un fattore
otto, il che ovviamente ha portato a un
degrado delle prestazioni Ciò nonostante, in un ambiente “office-like” e in
presenza di un interferente Wi-Fi, la
deviazione standard dell’errore valutata su 30 acquisizioni differenti è risultata di 16 ns. Ulteriori esperimenti sono in
corso al fine di valutare l’immunità ai
disturbi e la coesistenza/integrazione
con altre soluzioni wireless eventualmente già presenti nell’area interessata.
RIFERIMENTI
[1] ISO/IEC 24730, Information technology
– Real-time locating systems (RTLS).
[2] Römer K., Mattern F., “Towards a unified view on space and time in sensor networks”, Computer Communications archive, Volume 28, No. 13 (August 2005),
pp.: 1484-1497.
[3] IEEE 802.15.4: Wireless Medium
Access Control (MAC) and Physical Layer
(PHY) Specifications for Low-Rate Wireless
Personal Area Networks (WPANs) Amendment 1: Add Alternate PHYs.
[4] C.M. De Dominicis, P. Ferrari, A. Flammini, E. Sisinni, “Wireless sensors exploiting
IEEE802.15.4a for precise timestamping”,
Proceedings di ISPC2010, Portsmouth (NH),
Pp. 48-54.
Figura 2 – Diagramma a blocchi del sistema di test implementato grazie alla GNURadio
▲
GLI
ALTRI TEMI
Tabella 1 – Valutazione dell’errore sulla rilevazione del timestamp
Tabella 2 – Stima della deriva del clock locale
Chiara Maria De
Dominicis è nata a Brescia (BS) nel 1980. Nel
2008 si è laureata in
Ingegneria Elettronica
presso l’Università di
Brescia, dove ha iniziato
nello stesso anno il suo Dottorato di
Ricerca in Ingegneria Elettronica, Sensori e Strumentazione con il tema
“Architetture e strumentazione per sensori wireless ad elevata versatilità”. La
sua principale attività di ricerca si concentra su Software Defined Radio,
smart sensors, wireless sensor networks e Smart Grids.
Emiliano Sisinni è nato
a Lauria (PZ), nel 1975.
Nel 2000 si è laureato in
Ingegneria
Elettronica
presso l’Università di Brescia, dove ha conseguito,
nel 2004, il titolo di dottore in Strumentazione Elettronica. Attualmente fa parte del Dipartimento di Ingegneria dell’Informazione della facoltà di
Ingegneria della stessa università con il
ruolo di ricercatore. Tra le tematiche delle
sue ricerche, il progetto è la realizzazione di strumentazione numerica e le reti di
smart sensor, con particolare attenzione
alle applicazioni industriali.
T_M ƒ 112
Paolo Ferrari è nato a
Brescia (BS), nel 1974.
Nel 1999 si è laureato
(con lode) in Ingegneria
Elettronica presso l’Università di Brescia, dove
ha
conseguito,
nel
2003, il titolo di dottore in Strumentazione Elettronica. Attualmente fa parte
del Dipartimento di Ingegneria dell’Informazione della facoltà di Ingegneria
della stessa università con il ruolo di
ricercatore. Tra le tematiche delle sue
ricerche, il progetto è la realizzazione
di sistemi embedded, gli smart sensor,
le reti di sensori, e più in generale le
reti di comunicazione in ambito industriale (Real-Time Ethernet e bus di
campo). Partecipa attivamente ai
comitati dell’IEC inerenti le comunicazioni industriali, in particolare siede
nell’MT9 del comitato 65C.
Alessandra Flammini è nata a Brescia (BS),
nel 1960. Si è laureata
(con lode) in Fisica all’Università di Roma nel
1985. Dal 1985 al
1995 ha svolto attività
di ricerca industriale nel campo degli
azionamenti digitali. Dal 1995 al
2002 ha lavorato presso il Dipartimento di Ingegneria dell’Informazione
dell’Università di Brescia in qualità di
Ricercatore. Dal 2002 è Professore
Associato presso la stessa Università.
Le sue principali attività di ricerca
riguardano il progetto di algoritmi e
metodi per la strumentazione digitale,
l’elaborazione del segnale da sensori,
gli smart sensor, i bus di campo e le
reti di sensori wireless. È autrice di
oltre 150 lavori internazionali.
GLI
ALTRI TEMI
▲
MISURE OTTICHE
A. Pesatori1, M. Norgia1, C. Svelto1, E. Pignone2
Sensore laser
per la misura in linea
della lavorazione di turbine
LASER SENSOR FOR ONLINE MONITORING OF TURBINE
GRINDING
An optical instrument for the measurement of a gas turbine palette radial
dimension was designed, developed, and tested. This system is a very useful tool for on-line monitoring, during turbine fabrication, of the external
palette radial length. The measurement accuracy is 3 µm over a measurement range of 0.3 mm.
RIASSUNTO
Per il controllo dimensionale di una turbina in fase di lavorazione è stato
progettato, sviluppato e caratterizzato uno strumento ottico a forcella laser,
che consente la misura radiale durante la fase di molatura, con un’accuratezza migliore di 3 µm su una dinamica di misura superiore a 0,3 mm.
INTRODUZIONE
Le turbomacchine sono strutture che
trasducono l’energia cinetica di un
fluido mettendo in movimento un organo meccanico [1]. La turbina è una
macchina motrice rotante in cui l’elemento essenziale è la girante, o rotore, che può essere costituita da un’elica oppure da una ruota con alette o
pale variamente profilate (Fig. 1). L’energia meccanica acquisita dalla
girante si trasmette a un albero motore che viene utilizzato per azionare
una macchina, un compressore, un
generatore elettrico o un’elica. L’efficienza con cui avviene questo scambio di energia è un parametro fondamentale per una turbomacchina, per
questo nella loro costruzione si cerca
di realizzare sistemi in cui lo scambio
energetico sia il più efficiente possibile. Il controllo della dimensione radiale delle palette esterne di una turbina
è uno dei parametri più importanti per
determinare l’efficienza del sistema
[2]. Per tali ragioni la realizzazione
di una turbina richiede un processo
finale di molatura che ne definisca le
dimensioni radiali con grande accuratezza.
In questo lavoro è presentato un siste-
ma di controllo in tempo reale delle
dimensioni radiali della turbina, sviluppato per conto di Ansaldo Energia
S.p.A., che comanda direttamente il
processo di molatura attraverso uno
strumento di misura a barriera ottica
[3], il tutto in continuità con la metodologia precedentemente utilizzata
da Ansaldo Energia S.p.A. [6,7], ma
aggiornando allo stato dell’arte le tecnologie elettro-ottiche applicate.
Figura 1 – Fotografia di un rotore turbogas
Ansaldo (modello AE94.3.A2 potenza 280 MW)
LA SCELTA DEL METODO
DI MISURA
normalmente sono impiegate tecniche
a contatto, che utilizzano come misuratore un tastatore meccanico. Il suo
funzionamento è buono su tutti i tipi di
superfici, fornendo misure con accuratezza dell’ordine della decina di
micrometri, però implica procedure di
misura lente (a rotore fermo) rendendo pertanto i tempi di lavorazione
molto lunghi. Sono stati quindi analizzati metodi di misura senza contatto,
a partire dalla tecnica ottica a triangolazione [4], che ricava la distanza
tra bersaglio ed emettitore di luce tramite semplici funzioni trigonometriche. Questa metodologia è però
incompatibile con la superficie delle
palette in lavorazione (la molatura la
rende molto riflettente, mentre la misura richiede un target diffusivo).
Altri metodi classici sono quelli capacitivi o induttivi, che derivano la distanza
tra due superfici rilevando la variazione
di capacità o induttanza tra le due [5].
Queste tecniche generano però errori
in prossimità del bordo della paletta e
sono inoltre di difficile adattabilità a
questa misura specifica, in quanto la
forma e la tipologia di materiale (metallico o ceramico) variano nei diversi
stadi della turbina.
I metodi di misura a tempo di volo,
ottica o a ultrasuoni, sono stati scartati in quanto i primi non offrono risoluzione e accuratezza adeguate. Altre
tecniche ottiche più complesse [4]
sono di difficile applicazione, in
quanto le palette presentano un bordo
inclinato ed altamente riflettente che
varia durante la lavorazione. Si è
quindi deciso di utilizzare un sistema
a barriera ottica, descritto nel seguito.
Differenti tecniche per la misura radiale di palette sono state investigate 1 Politecnico di Milano
prima di procedere a progettare e 2 Ansaldo Energia
realizzare il sistema a barriera ottica: [email protected]
T_M
N.
2/11 ƒ 113
N. 02ƒ
;2011
Il sistema ottico di misura di spessori
consiste in una barriera ottica realizzata tramite un laser a semiconduttore
nel rosso, collimato su di un fotodiodo
a quattro quadranti. La procedura di
misura in tempo reale avviene secondo lo schema descritto in Fig. 2: la turbina è posta in rotazione su di un tornio, che da un lato provvede alla
molatura, mentre dall’altro misura lo
spessore raggiunto in tempo reale,
con una accuratezza complessiva di
circa 10 µm. Il fotodiodo a quattro
quadranti è utilizzato sia per una preliminare procedura di allineamento
del fascio laser, sia per la misura stessa. Infatti, quando una paletta arriva
a intercettare il fascio laser è possibile ricavare la dimensione della zona
di fascio oscurato, attraverso la misura delle potenze ricevute dai singoli
quadranti del rivelatore. La misura
assoluta di dimensione radiale della
paletta è infine ottenuta dopo un’accurata taratura del sistema meccanico
di movimentazione della barriera ottica (che garantisce una ripetibilità sul
posizionamento di circa 5 µm).
La dimensione del supporto meccanico è stata studiata in modo tale da
garantire la corretta misura delle turbine di raggio massimo R = 2 m, mantenendo comunque le dimensioni del
sensore più contenute possibili. Il
sistema è infatti sottoposto a intense
sollecitazioni meccaniche dovute al
vento generato dal movimento delle
palette, unitamente a brusche variazioni di temperatura dettate dalla
lavorazione stessa. L’effetto di tali sol-
lecitazioni sull’incertezza della misura
cresce notevolmente con le dimensioni
del sensore. Inoltre la massa dell’intero sistema di misura deve rimanere
contenuto al di sotto di 2 kg, per non
compromettere le prestazioni di ripetibilità del braccio meccanico che posiziona il misuratore.
Da semplici relazioni geometriche è
possibile calcolare la dimensione
minima h dello strumento (distanza
laser-rivelatore), tale per cui le palette
intercettino il fascio laser – nella zona
centrale della forcella – ma mantengano una distanza di sicurezza d dal
bordo del laser e del rivelatore
(entrambi di raggio r) – nella zona
superiore o inferiore della forcella:
h ≅ 2 2(r + d )R
(1)
▲
IL PROGETTO
DELLO STRUMENTO OTTICO
GLI
ALTRI TEMI
2 % su 20 °C di escursione (da 20 °C
a 40 °C). Dopo una fase di allineamento del fascio laser sul rivelatore, è
stato caratterizzato l’intero sistema di
misura, acquisendo le tensioni di uscita dai circuiti a transimpedenza connessi ai quattro quadranti del rivelatore, al variare della penetrazione di un
ostacolo movimentato da un motore
con risoluzione micrometrica (misure
riportate in Fig. 3). Il corretto allineamento (centratura del fascio laser sul
quattro quadranti) è dimostrato dall’uguaglianza dei 4 segnali in assenza
di oscuramento. A ogni posizione
sono state effettuate 100 acquisizioni
per ciascun canale, allo scopo di valutare l’incertezza di misura. La misura
della posizione dell’ostacolo è ricavata tramite una funzione di trasferimento F, calcolata a partire dai segnali si
dei singoli quadranti del rivelatore,
che non dipende dalla potenza del
laser ed è monotona crescente con la
posizione dell’ostacolo:
Avendo selezionato una sorgente
laser e un rivelatore a quattro quadranti di diametri inferiori a 1 cm, è
stato possibile realizzare una struttura
alta h = 70 cm, mantenendo una
(s + s ) − (s3 + s 4 )
F= 1 2
distanza di salvaguardia d = 2 cm,
(2)
(s1 + s2 ) + (s3 + s 4 )
che è sufficiente per mantenere il sistema in sicurezza, anche nel caso di
La stima sperimentale dell’incertezza
palette molto inclinate.
di misura, al variare della posizione,
è riportata in Fig. 4, unitamente all’errore massimo ottenuto sui 100 punti di
LA CARATTERIZZAZIONE
misura: nella regione di massima senDELLO STRUMENTO
sibilità si ottiene un’incertezza tipo
La sorgente laser utilizzata è stata minima di circa 2 µm, con un errore
caratterizzata misurando le dimensio- massimo, anch’esso al suo minimo
ni del fascio collimato (wx = 1,57 mm valore, inferiore a 7 µm. Questo risule wy = 2,36 mm) e la sua variabilità in tato è del tutto coerente con l’ipotesi
potenza con la temperatura. Le misu- di una distribuzione normale, con il
re in temperatura hanno dimostrato massimo calcolato su 100 punti.
una variabilità di potenza inferiore al Si può notare come il minimo d’incertezza non corrisponde al punto di
massima sensibilità della funzione di
trasferimento (F = 0,5), ma si ottiene
poco prima (F ≅ 0,4), in quanto la perdita di sensibilità in F ≅ 0,4 è compensata da un migliore rapporto
segnale-rumore quando il fascio è
ancora oscurato solo parzialmente. Al
contributo d’incertezza dovuto alla
ripetibilità del sistema di misura è
necessario aggiungere i contributi dettati dalla stabilità del sistema di misura (in fase di valutazione) e dalla ripeFigura 2 – Schema di misura in tempo reale della dimensione radiale della turbina
tibilità del sistema di posizionamento
T_M ƒ 115
N. 02ƒ
; 2011
▲
GLI
ALTRI TEMI
Figura 3 – Segnali si acquisiti dai 4 quadranti, al variare della posizione dell’ostacolo
rispetto al fascio laser (100 misure per ogni posizione)
in precedenza reggeva un tastatore
meccanico. La procedura di misura si
divide in tre fasi. La prima fase consiste nella taratura della posizione assoluta della barriera, effettuata su un
disco di diametro noto con estrema
accuratezza, posto all’inizio della turbina (Fig. 1). Quindi si sposta la barriera all’esterno della serie di palette
da molare e la si avvicina lentamente,
mantenendo la turbina in rotazione,
fino a che una paletta non superi la
soglia di scatto. In Fig. 5 è riportato il
segnale acquisito dai quattro quadranti durante l’avvicinamento e lo
spostamento relativo ricavato dall’elaborazione dei dati. Dal dettaglio si
possono notare i picchi corrispondenti all’attraversamento di una paletta,
che oscurano solo due fotodiodi.
A questo punto inizia la fase di molatura, cominciando dalle palette con
diametro nettamente eccessivo, per
concludersi con una fase di molatura
fine, che porta tutte le palette allo stesso diametro entro un errore di pochi
micrometri. In questa fase la barriera
ottica è utilizzata come riferimento di
misura e per contare il numero di palette ancora da molare (che eccedono
il diametro nominale impostato).
CONCLUSIONI
In questo lavoro è stato progettato,
sviluppato, e caratterizzato uno strumento per la misura ottica della dimensione radiale di palette di turbine
a gas.
In Fig. 6 è riportata una fotografia
dello strumento, montato sul braccio
meccanico di posizionamento. Il metodo scelto è in linea di continuità con
quello precedentemente adottato da
Figura 4 – Funzione di trasferimento F del fotodiodo a 4 quadranti (sopra)
e corrispondenti incertezza standard ed errore massimo (sotto), al variare della posizione
AEN [6] in quanto dall’analisi effetdell’ostacolo rispetto alla posizione del fascio laser
tuata sono risultati confermati i notevoli vantaggi rispetto ad altre tecniche
possibili, che derivano dalla sua relameccanico. In ultima analisi, si stima te con la molatura delle palette sul ro- tiva semplicità di realizzazione, dalla
buona accuratezza e ripetibilità modi riuscire a raggiungere un’accura- tore.
strata nelle prove sperimentali. Un ultezza complessiva di circa 10 µm,
teriore vantaggio riguarda la relativa
pienamente adeguata allo scopo. La
insensibilità dei risultati forniti al vadinamica di misura lineare del siste- IMPIEGO NELLA LAVORAZIONE
riare della forma, del grado di lucenma ottico è limitata a circa 0,3 mm
(v. Fig. 4 per std<10 µm), compatibile La barriera ottica realizzata è stata tezza e del tipo di materiale utilizzato
con le tolleranze dimensionali ottenu- montata su un braccio meccanico che per la realizzazione della paletta, che
T_M ƒ 116
N. 02ƒ
;2011
▲
GLI
ALTRI TEMI
con recupero del disallineamento
optomeccanico“, brevetto Italiano n°
TO 2004A000101.
Alessandro Pesatori
è Ricercatore di Misure
Elettriche ed Elettroniche
presso il Dipartimento di
Elettronica e Informazione del Politecnico di Milano. I suoi principali interessi di ricerca
riguardano le misure ottiche ed optoelettroniche, in particolare con applicazione biomedicale, la sensoristica e sistemi automatizzati di misura, taratura
e calibrazione.
Figura 5 – Segnali dal fotodiodo a 4 quadranti (sinistra) e posizione relativa della paletta
(destra), acquisiti durante l’avvicinamento del braccio meccanico alla turbina in rotazione
Michele Norgia è
Ricercatore confermato di
Misure Elettriche ed Elettroniche presso il Dipartimento di Elettronica e
Informazione del Politecnico di Milano. Le sue principali attività
di ricerca riguardano le misure ottiche
ed optoelettroniche, l’interferometria, i
sensori MEMS, le misure e la strumentazione biomedicale.
Cesare Svelto è Professore Ordinario di Misure
Elettriche ed Elettroniche
presso il Dipartimento di
Elettronica e Informazione del Politecnico di Milano. Le sue principali attività di ricerca
riguardano le misure ottiche ed optoeFigura 6 – Barriera ottica montata sul braccio meccanico in Ansaldo Energia
lettroniche, la caratterizzazione e stabilizzazione di laser per applicazioni
invece influenzerebbero notevolmente 4. S. Donati, “Electro-Optical Instru- metrologiche, le misure e la strumentasia un triangolatore ottico sia un misu- mentation – Sensing and Measuring zione biomedicale.
ratore capacitivo.
BIBLIOGRAFIA
1. C. Caputo, “Le turbomacchine”,
CEA, 1994.
2. Philip P. Walsh, Paul Fletcher, “Gas
Turbine Performance,” ASME Press,
2004.3. S Philip C. Hobbs, “Building
Electro-Optical Systems”, Series:
Wiley Series in Pure and Applied
Optics, 2002.
with Lasers”, 2004, Prentice Hall,
USA.
5. J. G. Webster, “The Measurement,
Instrumentation, and Sensor Handbook”, CRC Press, USA 1999.
6. E. Pignone, F.Perotti, “Metodo e
dispositivo ottico per misure dimensionali di un corpo, in particolare di un
rotore di turbina”, brevetto internazionale
WO
99/45339
del
10/09/1999.
7. E. Pignone, “Metodo per la misura
ottica delle dimensioni di un corpo
Enrico Pignone è in
forza ad Ansaldo dal
1991. Il suo background
è nel controllo di processo e nel monitoraggio/
diagnostica di sistemi
complessi. Attualmente coopera con
IEEE come revisore di pubblicazioni ed
è impiegato come Program Manager
dell’ingegneria di sviluppo prodotti di
Ansaldo Energia.
T_M ƒ 117
▲
NEWS
CHIUDE CON SUCCESSO LA VIIA MOSTRA CONGRESSO
“METROLOGIA & QUALITÀ “ (TORINO, 13-15 APRILE 2011)
La settima edizione di “Metrologia e Qualità”
ha chiuso i battenti alle ore 17.00 del 15 Aprile scorso, dopo tre giorni di intense discussioni,
presentazioni e dibattiti presso il Centro Congressi Lingotto e l’Istituto Nazionale di Ricerca
Metrologica (I.N.Ri.M.) di Torino.
Il Congresso scientifico, articolato su 9 sessioni,
ha visto la presentazione complessiva di 65
memorie, segno della vasta area tematica su cui
il Congresso ha contribuito al livello culturale e
informativo della metrologia e della qualità.
T_M ƒ 118
La sessione plenaria ha proposto lavori storicometrologici relativi ai 150 anni dell’unità d’Italia e i collegati 150 anni di unità delle misure,
che hanno illustrato l’Italia industriale nel 1861
e i primi passi effettuati per l’armonizzazione
dell’organizzazione metrologica nazionale.
I temi dibattuti nelle due tavole rotonde (Meteorologia e Metrologia; Gastronomia e Misure),
molto frequentate, hanno focalizzato le problematiche relative al progetto METEOMET (EMRP,
Environment), con la gradita presenza del Dr.
Luca Mercalli, e all’importanza delle misure per
salvaguardare la qualità e la sicurezza dei prodotti alimentari. Di sicuro interesse il convegno
sponsorizzato da ACCREDIA “Il valore delle
tarature e prove per l’innovazione e l’affidabilità”, svoltosi il 13 Aprile, che ha costituito un’ottima tematica di dibattito di grande interesse
per le imprese.
Il giorno 14 Aprile si è tenuto il workshop
I.N.Ri.M. “Imprese e problemi metrologici: una
sfida per l’innovazione. Presentazione e dibattito su alcune attività di ricerca di potenziale
interesse per le imprese” dove ricercatori dell’I.N.Ri.M. hanno presentato alcune delle aree
di ricerca nelle quali l’istituto è impegnato.
Anche quest’edizione si è svolta, nelle prime
due giornate, in concomitanza con “AFFIDABILITÀ & TECNOLOGIE”, sempre più consolidata
come la più completa manifestazione italiana
mirata a proporre alle imprese metodi, soluzioni e tecnologie per l’innovazione competitiva.
La parte espositiva, che ha visto presenti ben
188 Società espositrici, in rappresentanza di
oltre 600 marchi di primario rilievo internazionale (+26% di superficie espositiva rispetto
all’edizione 2010), ha offerto a un numero elevatissimo di visitatori (5324 partecipanti, pari a
+24% rispetto alla predente edizione, la maggior parte dei quali di provenienza aziendale)
il più attuale stato dell’arte sui metodi, strumenti, servizi e sistemi utili a supportare lo sviluppo
competitivo delle imprese, con un’ampia area
dedicata in modo specifico alle misure, prove e
controlli qualità. Gli oltre 130 eventi (Convegni
Tematici, Seminari Pratici e Casi Applicativi),
mirati all’approfondimento e aggiornamento di
specifiche tematiche, sono stati molto affollati, a
conferma che questa formula di presentazione
è di sicuro interesse per la sua forma di dialogo diretto utile ad approfondire le soluzioni
proposte.
GLI
ALTRI TEMI
▲
UNIVERSITÀ E IMPRESA
Luigino Benetazzo
Riprendere a crescere
con l’ICT
quale ruolo per l’Università, le istituzioni, le imprese
ICT-DRIVEN GROWTH: WHICH ROLE FOR UNIVERSITY,
INSTITUTIONS AND INDUSTRIES
Based on international studies, ICT’s (Information and Communication Technologies), due to their role of enabling technologies, produce remarkable
effects on the economic and social tissue. According to the EU, in fact, as
much as 40% of the EU’s economic growth can be attributed to ICT
infrastructures. Moreover, in countries with economy based on high valueadded activities such as Italy, education, which is a prerequisite for innovation, shows up as one of the investments with the highest economic return.
According to Ambrosetti, University education, between 2011 and 2020
will generate more than 11 points of GDP for the Country (i.e., more
than 1% per year).
The association “Il Quadrato della Radio” conducted a survey to
understand whether and how Italy acts to seize the opportunity offered by
ICT, and if it can apply correction factors to improve its effectiveness. In particular, the study focused on how ICT engineering students are formed by
Italian Universities, on critical issues that they encounter in the workplace,
on University-Industry relations, and on the role of institutions. The study proposes some corrective actions.
RIASSUNTO
Da studi internazionali è emerso che le ICT (Information and Communication
Technologies), per il loro ruolo di tecnologie abilitanti, generano ricadute
rimarchevoli su tutto il tessuto economico e sociale. Secondo la UE, infatti, il
40% della crescita economica dell’Unione può essere attribuito alle
infrastrutture ICT. Inoltre nei Paesi con economia basata su attività ad alto
valore aggiunto come l’Italia, la formazione, prerequisito all’innovazione,
si prospetta come uno degli investimenti paese a più alto ritorno economico.
Secondo uno studio di Ambrosetti la formazione universitaria nel decennio
2011 potrebbe complessivamente generare oltre 11 punti di PIL per il
Paese, (oltre un punto percentuale di PIL in media all’anno).
L’Associazione del Quadrato della Radio ha condotto un’indagine per
capire se e come il Paese si sta preparando a cogliere l’occasione offerta dall’ICT, e se esistono fattori correttivi applicabili per migliorare la sua efficacia.
In particolare lo studio si è concentrato su come le Università curino la formazione professionale dei nuovi ingegneri, sulle criticità nel loro inserimento
nell’attività lavorativa, sulle relazioni Università-imprese, e sul ruolo delle istituzioni. Sono proposte alcune auspicabili azioni correttive.
L’ICT COME VOLANO
DI CRESCITA DEL PAESE
Riprendere a crescere con l’ICT
(Information and Communication
Technology) è il tema dello studio
del Quadrato della Radio riassunto in queste brevi note. La rispo-
tecnologie dell’informazione e della
comunicazione permettono un’accelerazione della crescita economica
con riferimento sia alle imprese che
producono ICT, sia ai vantaggi che
derivano dall’incremento della produttività in tutti i settori pubblici e
privati che non producono, ma utilizzano l’ICT;
2. una risorsa per le organizzazioni,
poiché consente di gestire in maniera
rapida, efficace ed efficiente il volume
crescente di informazioni e, grazie
alle diffusione della tecnologia e dell’interconnettività, può aiutare le imprese a ridefinire i propri rapporti con
clienti, fornitori e altre organizzazioni
migliorando così la propria capacità
competitiva.
Questi sono certamente aspetti rilevanti considerando le dimensioni
della crisi economica che attraversiamo, per uscire dalla quale i diversi
Paesi più industrializzati hanno messo
in moto impegnative iniziative di
controllo dei costi e di stimolo
della crescita. In particolare l’UE ha
approvato un piano per il rilancio dell’economia finalizzato ad agire non
solo con interventi congiunturali di
breve periodo, ma anche confermando l’impianto strategico comunitario a
favore della crescita e competitività
europea in un’ottica di medio e lungo
periodo. La Germania ha messo in
moto investimenti per 50 G€ per i
prossimi due anni e garantire così un
milione di posti di lavoro. La Francia
ha attivato un piano di rilancio dell’economia da 26 G€ (1,3% del PIL nazionale), con investimenti in diversi
settori industriali e nella ricerca. La
Gran Bretagna ha varato un piano fiscale di 23 G€ per stimolare l’attività
economica.
sta alla domanda “Perché riprendere a crescere con l’ICT?” potrebbe
essere: “Per il ruolo che L’ICT
può e deve giocare per lo sviluppo dell’Italia”. L’ICT rappresenta:
1. una risorsa strategica per il siste- Il Quadrato della Radio
ma paese nel suo insieme, perché le [email protected]
T_M
N.
2/11 ƒ 119
N. 02ƒ
; 2011
▲
NEWS
NUOVO CALIBRATORE FLUKE 5522A CON INNOVATIVE FUNZIONI DI PROTEZIONE
Fluke Calibration presenta il nuovo Calibratore Multiprodotto modello 5522A. Basato
sulla tecnologia del ben noto modello
5520A, incorpora nuove funzioni di protezione che ne aumentano la robustezza e versatilità per l’uso sia in laboratorio sia, soprattutto, in campo.
È stata introdotta una speciale protezione
sulle uscite del calibratore per evitare che in
caso di applicazione accidentale di tensioni
esterne (fino a 300 V) si causino gravi danni
alla circuiteria interna di estrema precisione.
Il nuovo calibratore contiene funzioni progettate per prevenire danni costosi: “Check
Before Connect” (premendo il tasto “Operate” prima di abilitare l’uscita viene eseguito
un controllo sulla presenza di tensioni esterne applicate potenzialmente dannose); monitoraggio dell’uscita, durante il funzionamento, da parte della circuiteria di protezione
(se viene rilevata una tensione esterna, l’uscita viene immediatamente disconnessa e il
calibratore entra in modalità standby); nuovi
fusibili di protezione sui terminali di uscita,
T_M ƒ 120
per sovracorrenti (i fusibili sono sostituibili
senza rompere i sigilli di taratura).
È stata inoltre ridisegnata la meccanica, per
una maggiore robustezza e trasportabilità,
rendendo il 5522A ideale per attività di
taratura on-site. I pannelli (frontale e posteriore) rimovibili consentono l’utilizzo immediato senza dovere togliere il calibratore dal
box, garantendo allo stesso tempo un flusso
d’aria adeguato per il raffreddamento.
Il nuovo Fluke 5522A ha una precisione di
base in Tensione Continua di 9 ppm (nella
gamma 3,3 V), rendendolo adeguato per la
taratura di multimetri digitali fino a 6 1/2
digit, così come di multimetri grafici, tester
analogici, indicatori da pannello, wattmetri,
pinze amperometriche fino a 1000 A AC e
DC (tramite accessorio esterno current coil a
50 spire), strumenti per acquisizione dati,
registratori a carta, termometri a termocoppia e termoresistenza, calibratori di processo, ecc. Due opzioni interne consentono la
taratura di oscilloscopi con banda passante
fino a 600 MHz o 1,1 GHz. Per l’automatizzazione dei processi di taratura il nuovo
calibratore Fluke 5522A può essere utilizzato in abbinamento al popolare software per
metrologia e gestione strumenti Fluke MetCal
Plus. Una particolare configurazione bundle
di Calibratore 5522A + MetCal Lite consente un notevole risparmio economico.
I prodotti Fluke Calibration sono distribuiti in
esclusiva per l’Italia da CalPower srl.
Per ulteriori informazioni
www.calpower.it.
N. 02ƒ
;2011
▲
GLI
ALTRI TEMI
RISCRITTO
Il Quadrato della Radio
Un comitato promotore costituito
dai principali rappresentanti della
ricerca, industria ed esercizio delle
telecomunicazioni italiane, riunito
per iniziativa della Fondazione
Guglielmo Marconi, presso la Villa
Griffone, il 4 ottobre 1975, decise
all’unanimità di dar vita ad una
associazione denominata “Quadrato della Radio”.
L’associazione, la cui denominazione deriva dalla forma dell’antenna
usata da Guglielmo Marconi, è
aperta a tutti coloro che intendono
contribuire allo sviluppo delle telecomunicazioni, nella convinzione
che queste rappresentino un efficace strumento per conseguire una
sempre più civile convivenza fra gli
uomini, migliorando la qualità
della loro vita.
Scopo principale dell’associazione, che non ha fini di lucro, è quello di promuovere e sostenere attività atte a favorire lo sviluppo e il
progresso delle telecomunicazioni.
In pratica l’attività del Quadrato
della Radio si realizza attraverso
iniziative molto diverse tra loro,
anche se unite da uno scopo comune, promuovendo convegni, esperimenti, scambi culturali, programmazioni di ricerche in équipe tra i
rappresentanti di diversi enti.
La novità dell’associazione è di
vedere riuniti i massimi esponenti
del mondo scientifico e di quello
industriale, premessa per quella
collaborazione tanto spesso auspicata tra scienza Università e industria. Attualmente il Quadrato della
Radio conta 112 soci, tutti illustri
rappresentanti del mondo delle
telecomunicazioni.
Il Presidente in carica è l’Ing. Stefano Ciccotti, AD di RAIWAY, mentre
il Presidente onorario è il Prof. Ing.
Giancarlo Corazza, socio fondatore e promotore.
L’indirizzo del Sito Internet è:
www.quadratodellaradio.it
L’Italia, rispetto
agli altri paesi
industrializzati, è
più inseguitrice
che lepre. Nell’ultima classifica del
“Global Information
Technology Report”
prodotto dal World
Economy Forum, che
valuta l’impatto dell’ICT sui processi di sviluppo dei vari stati, l’Italia scende dal 45° al 48° posto
(su 133 Paesi), preceduta da tutte le
maggiori potenze economiche, dagli
Usa al Giappone alla Cina, ma anche
da Paesi quali Malesia, Tunisia e
Montenegro. Inoltre l’Italia, alle prese
con il suo debito pubblico (131°
Paese nella classifica del World Economic Forum) e con le proprie debolezze in termini di competitività e di
produttività, ha puntato a mantenere
sotto controllo i propri conti pubblici
non prevedendo, contestualmente,
una strategia di investimento e sviluppo.
Per uscire da questa crisi, anche dinanzi a un problema rilevante di mancanza di risorse, non è sufficiente
tagliare, ma occorre una vision di lungo periodo, e la messa in atto di scelte strategiche conseguenti investendo
sui fattori che, migliorando la produttività e la competitività, consentano di
garantire una crescita economica sostenibile.
Tra i fattori che possono incidere sulla ripresa economica, un peso crescente assumono quelli legati in particolare alla conoscenza, al sapere ed all’esperienza delle
persone. È stato stimato che intervenendo su alcuni fattori (liberalizzazioni, semplificazione del sistema
burocratico, infrastrutture, costi dell’energia) nei prossimi vent’anni il
nostro PIL potrebbe aumentare del
28%; la riforma della Scuola e del
Sistema della Formazione, da sola,
potrebbe consentire un incremento
del 13%. Lo scenario sotto questo
profilo non è incoraggiante: l’Italia si
colloca agli ultimi posti nella
spesa per la scuola tra i Paesi
europei (4,5% del PIL nell’istruzione
scolastica, contro una media OCSE
Figura 1
del 5,7%), e presenta un mix sbilanciato: 80% in retribuzioni (contro il
70% della media OCSE) con professori il cui salario è inferiore di 497$
rispetto alla media UE.
Lo sviluppo del capitale umano non è,
però, solo un problema delle istituzioni statali: anche il mondo industriale deve giocare il suo ruolo; a
fronte delle dichiarazioni che i Manager aziendali fanno sull’importanza
delle risorse umane, le Aziende stanno drasticamente riducendo i budget
dedicati ad attività di sviluppo del
personale. Stanno scomparendo i
Centri di Formazione aziendale, la
risorsa umana sembra considerata
più un territorio in cui realizzare “saving” che fare investimenti per lo sviluppo.
Pubblico e privato devono investire nello sviluppo della conoscenza come fattore di successo ed
elemento di vantaggio competitivo
prioritario per le Imprese e il Paese,
con particolare riferimento ai settori
maggiormente capaci di dare impulso alla crescita e alla competitività
dell’Italia.
Lo studio, che ha visto coinvolti docenti universitari e manager di Aziende,
ha evidenziato una serie di criticità e
identificato alcune proposte di soluzioni con l’obiettivo di avviare un dibattito su questo tema strategico per il
nostro Paese.
LE CRITICITÀ
La prima criticità evidenziata è il drastico calo delle iscrizioni ai corsi di
Ingegneria informatica e di telecomunicazioni, pur a fronte di una sostanziale tenuta delle iscrizioni complessive alla Facoltà di Ingegneria.
Queste discipline sembrano non
T_M ƒ 121
Figura 2
Figura 3
suscitare più l’appeal di un tempo
sui giovani: le ragioni vanno ricercate soprattutto nel cambiamento
dello scenario economico e industriale del nostro Paese. I giovani s’iscrivevano alla Facoltà di Ingegneria delle Telecomunicazioni attratti
dalla possibilità di lavorare sulle tecnologie e sull’innovazione, e le
Aziende erano, in una certa misura,
in grado di fornire una risposta a
queste aspettative. L’apertura dei
mercati nel settore delle TLC ha portato a una competizione molto
agguerrita sul piano dei costi,
e a strategie d’impresa molto
focalizzate su interventi di
“cost cutting”; i driver dell’innovazione sono diventati l’ottimizzazione dei processi industriali, finalizzata alla riduzione dei costi di
produzione, e il marketing, finalizzato all’ampliamento della gamma
dei servizi. L’attività di ricerca e sviluppo delle tecnologie ha subito,
viceversa, drastici ridimensionamenti.
T_M ƒ 122
N. 02ƒ
; 2011
▲
GLI
ALTRI TEMI
Le TLC hanno assunto più un
ruolo di “commodity”
che di settore trainante dello
sviluppo economico. Contestualmente nel nostro Paese
si è verificato un drastico
ridimensionamento delle attività manifatturiere. Tutto
ciò ha comportato una forte
riduzione delle opportunità
d’inserimento dei giovani
ingegneri in ruoli in grado
di fornire risposte alle loro
aspettative professionali.
Accanto all’attenuarsi della
motivazione professionale,
l’altro problema che è emerso è quello dell’allineamento delle competenze degli Ingegneri “ICT” che
oggi si laureano alle esigenze del mercato del lavoro.
Sotto questo profilo è emerso che le aziende oggi
hanno prevalentemente bisogno di due tipologie di professionalità:
• Tecnici con competenze
molto specialistiche in
grado di operare direttamente e immediatamente sugli impianti.
• Ingegneri professionisti con competenze di base ad ampio spettro e di tipo interdisciplinare,
capaci e preparati per gestire la complessità considerando tutti gli aspetti
che compongono un problema: tecnici, economici, finanziari, di risorse
umane.
Entrambe queste figure professionali
oggi sono molto carenti, poiché la
laurea attuale, come è strutturata, ai
primi fornisce competenze più
teoriche che pratiche e quindi
scarsamente utilizzabili operativamente, ai secondi fornisce una competenza elevata, ma con un taglio
prevalentemente specialistico e
scarsamente interdisciplinare. Il
risultato è che s’impiega troppo
tempo per formare competenze
che non servono allo scopo,
mentre si tralascia di formare le
competenze che occorrono alle
imprese.
È l’Università in grado di reagire a
questo quadro in forte cambiamento, e di formare professionalità
con le caratteristiche sulle quali
maggiormente si concentra la richiesta del mondo del lavoro in questi
ultimi anni? La capacità di reagire dell’Università è venuta a
mancare. Ancorata a una visione
tradizionale, essa è sicuramente in
grado di fornire un’offerta formativa
adeguata al fabbisogno di
professionalità più consolidate, ma non altrettanto in grado di
leggere i profondi cambiamenti nel settore delle TLC,
recepire nuove conoscenze e
adeguarsi ai nuovi mestieri
che richiedono l’integrazione fra
competenze differenti e la capacità
di guardare alle TLC in maniera
diversa.
Alla complessità crescente degli scenari, l’Università ha prevalentemente
risposto con il moltiplicarsi del
numero dei corsi specialistici,
scendendo in profondità su alcune
tematiche, ma perdendo in capacità di creare competenze integrate, così determinando maggiori
difficoltà di interfacciamento
Figura 4
N. 02ƒ
;2011
tra le diverse discipline. Nello
stesso tempo l’Università non è stata
in grado di formare una generazione
di tecnici con una preparazione
focalizzata più sulla gestione
degli impianti che sulla progettazione delle tecnologie, pur
avendo la Riforma del 1999 introdotto una “scorciatoia” che consentiva di
acquisire una laurea in un numero
inferiore di anni.
Sotto questo profilo sarebbe stato
necessario cogliere l’opportunità della Riforma universitaria che ha introdotto la laurea triennale (3+2) per impostare due
corsi di laurea assolutamente
differenziati finalizzati a formare
due diverse figure professionali.
Punto fondamentale della
Riforma è la nuova organizzazione degli studi universitari
che prevede corsi di studio
articolati in due livelli. Oggi il
corso triennale, o laurea breve, non
rappresenta una risposta alle esigenze del mondo delle imprese, in
quanto costruito come percorso
di preparazione al biennio
successivo e non come un percorso formativo finalizzato a fornire
una “professionalità compiuta”. La
conseguenza è la creazione di professionalità ibride, in cui gli
aspetti tecnici-operativi si mischiano
con quelli progettuali, con competenze che sono comunque rimaste più teoriche che prati-
che, senza peraltro riuscire a dare
un senso compiuto né alle prime, né
alle seconde. È quindi inevitabile
che la stragrande maggioranza degli iscritti a Ingegneria (in taluni Atenei si arriva sino al 100%) non si fermi al terzo anno, ma prosegua nel
biennio successivo. Il corso dei 5 anni, a sua volta, con la sua enfasi sulla specializzazione tecnologica e la
scarsa interdisciplinarietà appare
anch’esso poco rispondente
alle esigenze del mondo del
lavoro.
IL MODELLO PROPOSTO
Il cambiamento da introdurre è
rappresentato da un’impostazione didattica articolata su due corsi di
laurea distinti per contenuto e
per piani di studio.
L’attuale 3+2 deve trasformarsi in
due corsi di studio assolutamente separati, in “parallelo” e
non in “sequenza”. I corsi devono
avere finalità completamente diverse:
fornire competenze tecniche specialistiche e operative con il corso
dei tre anni, fornire competenze di
carattere interdisciplinare e
generali con il corso dei cinque anni. I piani di studio devono essere
molto diversi tra loro, salvo una
piattaforma di competenze di base
comuni, e profondamente diverse rispetto a quelli attuali, con la possibilità di differenziare anche il titolo di
Figura 5
▲
GLI
ALTRI TEMI
riconoscimento alla fine del corso e
con una scelta fatta a monte al momento dell’iscrizione e non nel corso
degli studi.
IL RUOLO DELL’IMPRESA
L’Impresa, dal suo canto, non ha contribuito a migliorare “il prodotto”, praticamente assumendo solo Ingegneri con laurea magistrale e,
spesso, impostando iter formativi al
proprio interno dei giovani neoassunti. Se si vuole che l’approccio proposto funzioni, anche l’Impresa deve fare la sua parte applicando politiche
di selezione, d’inserimento, retributive, d’inquadramento e
di sviluppo differenziate per le
due tipologie di professionalità.
Questo favorirebbe una maggiore
chiarezza e una maggiore riconoscibilità delle due diverse tipologie
di professionalità.
La relazione tra Università e Imprese
rappresenta un altro dei punti centrali
per la formazione delle nuove figure
professionali. Nella pubblicazione
Going for Growth, l’Ocse ha evidenziato, Paese per Paese le priorità d’intervento per uscire dalla congiuntura
sfavorevole.
Per l’Italia, che mostra come già detto
una evidente perdita di produttività e
competitività, l’OCSE ha individuato
cinque priorità: tra queste, ai primi
posti troviamo la necessità di aumentare il livello di istruzione
terziaria e quella di promuovere
le collaborazioni tra imprese e
Università.
Siamo anche noi fermamente convinti
che in questa nuova era, per recuperare competitività internazionale, è
necessario che in Italia il mondo dell’Università, il mondo della politica e
quello delle imprese non procedano
più come universi paralleli, bensì segmenti intrecciati di un unico percorso,
di un unico obiettivo: la qualità del
futuro dei nostri giovani. Da
parte di questi soggetti non c’è stata,
fino a oggi, una risposta adeguata; la
relazione Industria-Università c’è, ma
resta episodica e nel complesso non
così organica, quasi del tutto circo-
T_M ƒ 123
scritta all’effettuazione di stage presso
le Imprese. Si tratta di risposte comunque parziali e inadeguate a risolvere
il problema.
Il contributo delle Imprese alla formazione della conoscenza deve essere
condotto all’interno del percorso universitario per dare alla preparazione
professionale una connotazione
maggiormente finalizzata a formare professionalità più integrate e più rispondenti alle esigenze e alle opportunità del
mondo del lavoro, ruolo attualmente svolto unicamente dai Master post
universitari. Bisogna entrare in una logica di “Università Aperta” e di
“Azienda estesa”, dove i confini
vengono trasformati in aree di contiguità e di lavoro congiunto con vantaggi
per entrambi i soggetti e, soprattutto,
per i giovani laureati.
Le Associazioni Industriali, nella loro
T_M ƒ 124
N. 02ƒ
; 2011
▲
GLI
ALTRI TEMI
articolazione centrale (Confindustria)
e territoriale, possono giocare un
ruolo particolarmente significativo, ricercando soluzioni che possano costituire un punto di equilibrio tra
capacità di risposte alle esigenze
delle imprese presenti sui territori, da
un lato, e l’esigenza di formare culture professionali con un respiro e una
capacità di confronto sul piano internazionale, dall’altro. Radicamento
sul territorio e internazionalizzazione sono due aspetti che devono coesistere e trovare reciproca capacità di alimentazione. La ricerca di
questo equilibrio rappresenta uno dei
punti centrali di un processo e di un
percorso di cambiamento nella formazione universitaria, in particolare nel
campo scientifico e dell’ICT, che costituisce una delle professionalità portanti per lo sviluppo delle Imprese e
della Competitività del Paese. Per en-
trambe le situazioni, la relazione da
sviluppare, per essere efficace, non
può essere né spontanea, né
episodica, ma sistematica ed
organica.
Le Istituzioni rappresentano il terzo
attore di questo “Triangolo della
Conoscenza” e sicuramente fino a
oggi non hanno brillato per la
loro presenza. Le riforme non
possono riguardare solo le strutture
universitarie o i contenuti dei piani
di studio o i regolamenti e le normative, ma devono essere accompagnate da politiche e interventi
incentivanti, come politiche fiscali
adeguate, criteri e piani di allocazione risorse, ecc., a sostegno degli
obiettivi complessivi e funzionali
agli interessi del Paese. Occorre
avere una “vision” di sistema
ed esprimere una “governance” del processo.
CAMPI E COMPATIBILITÀ
ELETTROMAGNETICA
▲
LA COMPATIBILITÀ ELETTROMAGNETICA
Carlo Carobbi1, Marco Cati2,3, Carlo Panconi3
Il comportamento a radiofrequenza
dei componenti circuitali passivi
L’induttore - Parte prima
THE RADIOFREQUENCY BEHAVIOR OF PASSIVE CIRCUIT
COMPONENTS: THE INDUCTOR – PART 1
The RF behaviour of the inductor is complex. This is essentially due to two reasons. First, the inductor is rarely realized through an empty coil. Indeed practical realizations usually employ ferromagnetic materials, such as ferrites, whose
electrical properties: a) are frequency dependent, b) may exhibit a non-linear
behaviour and c) have non-negligible (frequency dependent) losses. Second,
the impedance of the inductor increases when frequency increases, thus it tends
to unintentionally couple to the surrounding metallic structures, the maximum
coupling being at resonance where the inductor impedance is maximum. In
this, and in the companion paper to be published in the next issue, The basic
(intentional) behaviour of the inductor is here first introduced. Then the nonideal (unintentional) behaviour at RF is described (namely spurious electric field
coupling, losses, relaxation, temperature dependence and saturation). Examples of practical inductor realizations are offered.
RIASSUNTO
Il comportamento a radiofrequenza degli induttori è complesso. Questo è
essenzialmente dovuto a due ragioni. In primo luogo, l’induttore è raramente
realizzato su una bobina vuota. Infatti le realizzazioni pratiche di solito impiegano materiali ferromagnetici, come le ferriti, le cui proprietà elettriche sono:
a) dipendenza dalla frequenza, b) comportamento talvolta non lineare e c) presenza di perdite (dipendenti dalla frequenza) non trascurabili. In secondo
luogo, l’impedenza degli induttori cresce al crescere della frequenza, facilitando l’accoppiamento non intenzionale con le strutture metalliche circostanti;
il massimo accoppiamento si verifica alla risonanza dove l’impedenza è massima. In questo articolo, così come nel successivo, viene introdotto il comportamento ideale (intenzionale) dell’induttore, e successivamente descritto il suo
comportamento non ideale (non intenzionale) a radio frequenza (vale a dire
l’accoppiamento spurio del campo elettrico, le perdite, il rilassamento, la
dipendenza della temperatura e la saturazione). Sono offerti esempi di realizzazioni pratiche degli induttori.
INTRODUZIONE
Con questo numero di Tutto_Misure
continueremo la rassegna sul comportamento a radio frequenza (RF) dei
componenti circuitali passivi. Concentreremo l’attenzione sugli induttori soffermandoci inizialmente sui principi fisici che ne regolano il funzionamento per
poi passare alla presentazione del circuito equivalente a costanti concentrare
che ne modella il comportamento a RF
in termini di impedenza elettrica vista ai
terminali e infine alla descrizione del-
l’attuale tecnologia costruttiva degli induttori utilizzati nelle moderne schede
elettroniche. Nell’ultima parte dell’articolo saranno inoltre presentate le proprietà magnetiche tipiche dei materiali
ferromagnetici in termini di permeabilità magnetica.
scorre in un circuito produce inevitabilmente un campo magnetico H nello
spazio circostante. Se la corrente i
varia nel tempo, il flusso del campo
magnetico Φ concatenato al circuito
risulta variabile, determinando nel circuito una forza elettromotrice (f.e.m.)
indotta che si oppone alla variazione
del flusso (legge di Faraday). L’induttanza L del circuito, chiamata anche
coefficiente di autoinduzione o autoinduttanza1, è il rapporto tra il flusso del
campo magnetico Φ concatenato e la
corrente i:
L=
Φ
i
(1)
L’unità di misura dell’induttanza è
Henry, simbolo H. È possibile dimostrare che il valore della induttanza
dipende solo dalla geometria del circuito e dalle caratteristiche magnetiche dello spazio circostante investito
dal flusso magnetico.
Dal punto di vista circuitale un induttore è quindi individuato da un volume di spazio dove, a fronte di una circolazione di corrente i, si può pensare concentrata la totalità del flusso di
campo magnetico Φ concatenato al
circuito stesso. Un esempio di confinamento del flusso magnetico Φ all’interno di un volume definito è rappresentato da una struttura toroidale realizzata con materiale ferromagnetico
come mostrato in Fig. 1 attorno al
quale vengono avvolte un numero N
di spire.
Oltre a quanto sopra descritto, l’utilizzo
del materiale ferromagnetico permette
di ottenere, a parità di volume occupa1
Università di Firenze
Ricerca e Sviluppo, Esaote S.p.A.,
Firenze
3 Elettroingegneria, Pistoia
L’autoinduttanza
La presenza di una corrente i che [email protected]
IL COMPORTAMENTO RF
DELL’INDUTTORE
2
T_M
N.
2/11 ƒ 125
N. 02ƒ
; 2011
▲
CAMPI E COMPATIBILITÀ
ELETTROMAGNETICA
v (t ) =
Figura 1 – Confinamento del flusso magnetico Φ:
struttura toroidale
to dall’avvolgimento, valori d’induttanza superiori e fortemente dipendenti
dalle caratteristiche magnetiche del
materiale utilizzato (vedi seguito).
A partire dalla sopra citata legge di
Faraday, tenendo conto della (1), e
assumendo che l’induttanza L non
dipenda dal tempo2, si ottiene:
T_M ƒ 126
dΦ
di (t )
=L
dt
dt
(2)
dove con v(t) è stata indicata la tensione che occorre applicare ai terminali dell’induttore per far
scorrere nell’avvolgimento
la corrente i(t).
Passando nel dominio
della frequenza la relazione che lega il fasore
della tensione V a quello della corrente I è data
da:
V = jωL ⋅ I
(3)
con ω=2πf pulsazione angolare e f
frequenza. ZL=jωL è l’impedenza vista
ai terminali dell’induttore. ZL ha modulo crescente al crescere di f e fase
+π/2 per qualsiasi valore di f. Nel
seguito vedremo che per un induttore
reale le caratteristiche a RF si discosteranno da quelle sopra citate.
Parametri parassiti
In analogia a quanto discusso nel
caso del condensatore reale, gli ingredienti principali per modellare il
comportamento a RF di un induttore
sono l’induttanza L, la resistenza parassita R e la capacità parassita C. È
opportuno fare qualche considerazione: 1) la resistenza parassita R rende
conto della dissipazione di energia
sia per via delle perdite associate alla
struttura metallica dell’induttore (avvolgimento) sia per via delle perdite
per isteresi nel materiale magnetico.
Di fatto, il contributo della dissipazione di energia nel metallo è di solito
trascurabile a RF (conta solo alle frequenze molto basse dove la resistenza dell’avvolgimento prevale sulla
N. 02ƒ
;2011
reattanza ωL). Più importante invece è
la dissipazione di energia nel materiale ferromagnetico, che però risulta
non facilmente modellabile per la
forte dipendenza dalla tipologia del
materiale impiegato e, per un dato
materiale, dalla frequenza (vedi seguito), 2) la capacità parassita C
rende conto della presenza del
campo elettrico che si instaura sia tra
spira e spira dell’avvolgimento che tra
l’avvolgimento e il mondo esterno.
Come per il condensatore reale, il valore dei parametri parassiti è determinato essenzialmente da due fattori: a) il
package del componente (forma,
dimensioni, ecc) e b) il montaggio sul
circuito elettronico a foro passante (TH)
oppure a montaggio superficiale
(SMD). Nei paragrafi seguenti sarà fornito un circuito equivalente capace di
descrivere il comportamento a RF e ne
saranno evidenziati i limiti di impiego.
Il circuito equivalente
A seconda delle necessità gli
induttori sono disponibili in
molte forme costruttive. La
forma di induttore più diffusamente utilizzata è rappresentata da quella a montaggio
superficiale a filo avvolto
oppure multi-layer (Fig. 2).
Un’altra forma diffusa soprattutto per le applicazioni di
potenza che prevedono l’impiego degli induttori sulla
sezione di rete (filtri di rete,
trasformatori per convertitori
AC/DC, ecc.) è quella stampata (Fig. 3).
Per tutte le tipologie esistenti di
induttori il modello circuitale
che rende conto del comportamento a RF è del tipo RLC
parallelo come quello rappresentato in Fig. 4.
Figura 2 – Induttori a montaggio superficiale.
A filo avvolto (Fig. 2a), multi-layer (Fig. 2b)
Figura 3 – Induttori stampati
Figura 4 – Circuito equivalente dell’induttore
T_M ƒ 127
N. 02ƒ
; 2011
▲
CAMPI E COMPATIBILITÀ
ELETTROMAGNETICA
L’impedenza equivalente vista ai ter- del 2011, pag. 45). In
minali del condensatore sarà quindi realtà le cose non stanespressa dalla relazione:
no proprio così. Nell’intorno della frequenza di
risonanza infatti l’indutR + jωL
tore presenta, come
ZL =
(4)
2
detto, una situazione di
1− ω LC + jωRC
alta impedenza rendendo di fatto possibile la
In generale, l’andamento in frequenza circolazione di corrente
della (4) risulta piuttosto complesso. Nel- di modo comune I
Figura 6 – Induttore reale: possibile presenza di corrente
l’ipotesi di considerare il valore della nella massa (Fig. 6).CM
di modo comune
In
resistenza parassita R piccolo rispetto a questa situazione non è
ωL (come avviene nei casi reali) è possi- più verificata la condizione di porta
Carlo Carobbi si è laubile dimostrare che:
reato con lode in Ingecioè la corrente in entrata da un termi1) per f<fr≅1/(2π√LC) il modulo dell’im- nale del componente non è uguale a
gneria Elettronica nel
pedenza vista ai capi del componente è quella in uscita (I ≠I ): la differenza tra
1994 presso l'Università
1
2
del tipo induttivo, cioè cresce al crescere le due correnti è tanto maggiore quandi Firenze. Dal 2000 è
della frequenza, 2) per f>fr il comporta- to più l’impedenza Z +Z è paragonaDottore di Ricerca in
1
2
mento è di tipo capacitivo cioè il modu- bile all’impedenza alla
“Telematica”. Dal 2001 è
risonanza dello dell’impedenza decresce al crescere l’induttore Z .
ricercatore presso il Dipartimento di
L
della frequenza ed infine, 3) per f=fr l’imElettronica e Telecomunicazioni dell'Unipedenza vista ai terminali dell’induttore
versità di Firenze dove è docente di
assume un valore elevato: si tratta di una RIFERIMENTI BIBLIOGRAFICI
Misure Elettroniche e di Compatibilità
situazione di alta impedenza. La Fig. 5,
Elettromagnetica. Collabora come ispetche mostra l’andamento del modulo del- 1. “How to choose ferrite components tore tecnico con l’ente unico di accredil’impedenza misurata ai capi di una for EMI suppression”, Technical Infor- tamento Accredia. È presidente del SC
210/77B (Compatibilità Elettromagnetifamiglia di induttori SMD multi-layer di mation Report, Fair-rite Corp.
dimensioni 2220 (Fig. 5.b, 22x20 mille- 2. “Inductors: General technical infor- ca, Fenomeni in alta frequenza) del CEI.
simi di pollice) e a filo avvolto di dimen- mation”, Vishay, October 2008.
sioni 0805 (Figura 5.a, 8x5 millesimi di 3. The Feynman Lectures on Physics
pollice), conferma quanto qui descritto. by R.P. Feynman, R.B. Leighton and
Da notare che fissata la tipologia co- M. Sands, Addison-Wesley Publishing
Marco Cati si è laureato
struttiva degli induttori la capacità Company (1970).
con lode ed encomio soparassita è la stessa per tutti i valori di 4. Clayton Paul, “Introduction to eleclenne in Ingegneria Eletinduttanza.
tromagnetic compatibility”, Wileytronica all’Università di
La trattazione fin qui presentata può Interscience,
1992,
ISBN
Firenze nel 2001. Dal
portare il lettore alla conclusione che il 9780471549277.
2005 è Dottore di Ricercomportamento dell’induttore reale sia
ca in Ingegneria dell’Affiduale rispetto a quello del condensatodabilità, Manutenzione e Logistica. Dal
re reale: si confronti la Fig. 5 con la cor- NOTE
2005 fa parte del reparto R&S di Esaorispondente figura relativa al caso del
te dove è responsabile delle verifiche di
condensatore reale (Fig. 4 in T_M no. 1 1 L’autoinduttanza L va distinta dalla Compatibilità Elettromagnetica su dimutua induttanza M definita come il
rapporto tra il flusso del
campo magnetico Φ12
concatenato con un circuito 2 a seguito della
presenza della corrente
i1 che scorre in un circuito 1 e la corrente i1
stessa.
2 Perché si esclude che
il circuito magnetico
si deformi nel tempo
e anche che intervengano
apprezzabili
fenomeni di non-linearità.
Figura 5 – Impedenza misurata per vari induttori
a montaggio superficiale.
A filo avvolto (Fig.5a), multi-layer (Fig. 5b)
spositivi ecografici.
Carlo Panconi si è laureato nel 2003 in Ingegneria Elettronica all’Università di Firenze. È Dottore di Ricerca in “Controlli non distruttivi”. Dal
1988 è insegnante di
Laboratorio di Elettrotecnica e di Elettronica nel triennio degli Istituti Tecnici e
Professionali.
VISIONE
ARTIFICIALE
▲
A cura di Giovanna Sansoni ([email protected])
Andare alle fiere fa bene
A spasso per gli stand di visione ad Afidabilità & Tecnologie 2011
EXHIBITIONS ARE USEFUL – WALKING THROUGH THE
BOOTHS AT AFFIDABLITÀ & TECNOLOGIE 2011
The section on Artificial Vision is intended to be a
“forum” for Tutto_Misure readers who wish to explore
the world of components, systems, solutions for industrial vision and their applications (automation, robotics,
food&beverage, quality control, biomedical). Write to
Giovanna Sansoni and stimulate discussion on your
favorite topics.
RIASSUNTO
La rubrica sulla visione artificiale vuole essere un “forum” per tutti i lettori
della rivista Tutto_Misure interessata a componenti, sistemi, soluzioni per la
visione artificiale in tutti i settori applicativi (automazione, robotica, agroalimentare, controllo di qualità, biomedicale). Scrivete alla Prof. Sansoni e
sottoponetele argomenti e stimoli.
Andare alle fiere fa bene, specialmente quando, a distanza di un anno, si
vede un incremento di presenze di
pubblico e di espositori come quello
che ha caratterizzato l’evento Affidabilità & Tecnologie tenutosi lo scorso
Aprile. Molte le aziende che progettano e sviluppano sistemi di visione
chiavi in mano, molte le aziende che
li distribuiscono, molti i visitatori interessati alle presentazioni fatte dalle
aziende, relativamente a casi applicativi interessanti. In questa rubrica
non citerò i singoli attori, perché la lista è facilmente reperibile all’indirizzo
www.affidabilita.eu/aet2011;
come vedrete, erano presenti i più
importanti produttori di hardware e
software e, lasciatemelo dire, un notevole numero di PMI, che sono veri
gioielli in materia di qualità, inventiva
e competenza.
La lista della spesa di un sistema di
visione è tutto sommato piuttosto
corta: una o più telecamere, ottiche
opportune, un sistema d’illuminazione, del software di elaborazione delle
immagini, una stazione di salvataggio, elaborazione e organizzazione
dei dati, un sistema attuatore. Per fare
un’analogia semplice, sono un pò
come il pane: farina, acqua, lievito e
sale. Eppure se andiamo in una
panetteria abbiamo a disposizione
pane di diversa qualità, e con gusti
invariabilmente diversi. È la lunga
lista dei dettagli della lavorazione che
fa la differenza: il tipo di farina, la
sua regione di provenienza, la durezza dell’acqua, il tipo di lievito, la
durata della lievitazione, temperatura
e umidità del forno… e così via.
Tornando al sistema di visione, è
immediato perdersi nella varietà che il
mercato attualmente offre in materia
di telecamere (analogiche,
digitali,
CCD,
CMOS, nel visibile, nell’infrarosso, ecc.), in materia di ottiche (diverse per
qualità, lunghezze focali,
dimensioni, attacchi), in
materia di dispositivi di
illuminazione (diversi per
la sorgente, per la direzionalità della luce, per la
geometria di illuminazione), in materia di piattaforme di elaborazione
(non-real-time, real-time,
con logica riconfigurabile, con logica
programmabile…), su piattaforma
PC, smart camera o dispositivi embedded, con protocolli di comunicazione
sincroni, asincroni, bus seriali, protocolli ethernet e così via. Il sistema
attuatore, infine, è strettamente legato
al tipo di operazione che il sistema di
visione è chiamato a realizzare: misurare caratteristiche dimensionali e
geometriche dei pezzi, contare i
pezzi, verificarne la conformità, l’integrità, la finitura superficiale, l’orientamento.
Nel corso degli anni la tendenza che
si è andata via via sempre più accentuando è stata nella direzione di
aumentare le prestazioni delle telecamere (frequenza di acquisizione, risoluzione, dinamica, qualità dell’immagine), specializzare le ottiche (non
telecentriche, telecentriche, pericentriche), produrre software di elaborazione flessibili, realizzare piattaforme
hardware in grado di risolvere problemi anche molto stringenti in termini
di tempo di elaborazione.
Questa enorme varietà di prodotti, e
la numerosità delle aziende del settore, sono la risposta a una richiesta
comune: quella di risolvere problemi
che hanno quasi sempre una loro unicità, caratterizzati come sono da
requisiti d’ingresso molto specifici.
T_M
N.
2/11 ƒ 129
■
VISIONE
ARTIFICIALE
Stranamente, invece, la percezione
che più comunemente si ha del sistema di visione è che sia un “apparato
che ci vede” e, come avviene fisiologicamente per il nostro apparto di
visione, sia in grado di comprendere,
identificare, metabolizzare e agire.
Tuttavia, queste ultime, sono attività
peculiari del sistema cerebrale, ed è
indispensabile tenere presente che,
per quanto intelligente un sistema di
visione possa essere, esso rimane un
sistema artificiale, che pochissimo ha
a che vedere con la flessibilità, la
velocità di elaborazione, la capacità
percettiva del sistema di visione/elaborazione umano.
Un sistema di visione è di per sé un
sistema che, se ben attrezzato per
eseguire una certa attività, la esegue
bene, con alta ripetibilità, in modo
affidabile e senza stancarsi: esso
mostra quindi una certa complementarietà rispetto al nostro sistema percettivo, che, accanto alla enorme
capacità di elaborazione presenta
una ridotta affidabilità, specialmente
in attività di controllo ripetitive.
Di questo aspetto, a mio avviso fondamentale, si è parlato nel convegno “Visione Artificiale: per
l’affidabilità dei prodotti, l’ottimizzazione dei processi, la
tracciabilità degli elementi”,
anch’esso organizzato nell’ambito di
A&T a cura del collega Remo Sala del
Politecnico di Milano: i relatori, sia
dal mondo della ricerca sia da quello
dell’industria, hanno evidenziato anche come il problema sia più di natura culturale che tecnologica: la fase di
contatto fra il committente e il progettista che è necessaria all’attività di
progettazione e realizzazione del
sistema di visione non può limitarsi ai
primi contatti e alla stesura del contratto: al contrario, è necessario “spalmarla” lungo tutta l’attività, per ottenere da parte di entrambi gli attori la
condivisione più ampia e puntuale
possibile delle finalità del sistema, dei
suoi limiti e delle sue potenzialità. Questo è il requisito che fa di un sistema che
“funziona quasi”, un “sistema che funziona”1, tanto più in un mercato produttivo che ha come primo obbiettivo la
riduzione dei tempi e dei costi, e che
T_M ƒ 130
pertanto non può permettersi arresti macchina, mancata accettazione del prodotto,
ed estenuanti sessioni
di “ma io credevo
che” e “forse non ci
siamo capiti”.
Nelle aziende di integratori (quelle
col fiore all’occhiello di cui parlavo
all’inizio), va emergendo la tecnologia che combina la manipolazione di
robot con telecamere bidimensionali
e/o tridimensionali, per applicazioni
di pick & place, di controllo dimensionale e di difettosità di oggetti complessi e di bin-picking.
La realizzazione di sistemi pick&place
sfrutta principalmente robot di piccolo-medio taglio e ricette di elaborazione 2D (ad esempio, pattern matching ed edge detection) per effettuare il riconoscimento, la presa e il trasporto di oggetti con geometria prevalentemente bidimensionale, spesso
messi in vibrazione su un nastro trasportatore.
Le applicazioni di controllo dimensionale e di finitura superficiale riguardano l’ispezione in tempi brevi di
forme complesse. Esse sfruttano sistemi di visione 2D per l’acquisizione e
l’elaborazione delle parti da controllare, e il riposizionamento del pezzo
in corrispondenza a ciascuna immagine: si intuisce che tale stadio può
essere vantaggiosamente effettuato
mediante robot.
La realizzazione di applicazioni di
bin-picking si riferisce invece alla
presa di oggetti di forma libera o
complessa disposti in modo disordinato o semi-disordinato in cassoni.
Questa è un’applicazione strategica
per la semplificazione delle linee di
produzione, poiché consente la riduzione del tempo necessario alla movimentazione dei pezzi da un’isola di
lavorazione alla successiva, e la riduzione dei costi attualmente sostenuti
per la realizzaione degli impianti che
effettuano la movimentazione. Essa
pone problemi notevoli, poiché l’obbiettivo del processo è l’identificazione degli oggetti nello spazio, e richiede lo sviluppo dei sistemi di visione
ad aumentata intelligenza di cui si
sente la necessità da almeno due
decine di anni.
Quanto visto ad A&T mi ha convinto
che i tempi stanno maturando molto
velocemente. Infatti l’integrazione
robot-visione introduce l’elemento
“flessibilità operativa”: il robot, una
volta dotato di opportuni occhi, se
abilmente istruito, ha in sé la capacità
di presa e movimentazione. Il mercato offre attualmente strumenti di elaborazione specificamente progettati
per ampliare, all’interno della gamma
delle operazioni di elaborazione,
quelle dotate di intelligenza: mi riferisco in modo particolare alle librerie di
visione 3D, che consentono lo sviluppo di applicazioni di misura 3D e di
riconoscimento 3D che era impensabile inserire in un sistema chiavi in
mano fino a un paio di anni fa (mi riferisco ovviamente ai prodotti di
MVTEC e di AQSENSE). Questi strumenti consentono di acquisire la forma tridimensionale della scena e di
correlarla al modello CAD (Templato)
degli oggetti, per stimare posizione e
orientamento di ciascun pezzo e determinare la direzione di presa.
Come ricercatore che ha operato nel
campo dei sistemi di visione 3D prima
che in quelli 2D non posso che essere
entusiasta che il know-how sviluppato
nei centri di ricerca diventi fruibile commercialmente. Va da sé che niente di
tutto questo potrà evvenire se non sarà
accompagnato da un adeguato aggiornamento dell’utenza, che renda gli
operatori del settore adeguatamente
abili nel suo utilizzo, e gli utenti finali
consapevoli delle possibilità e dei suoi
limiti.
NOTE
Espressione sentita durante un’interessantissima chiaccherata con l’Ing.
Fabio Greco e subito adottata.
1
I SERIALI
MISURE E FIDATEZZA
▲
MISURE E FIDATEZZA
Marcantonio Catelani1, Loredana Cristaldi2, Massimo Lazzaroni3
Le funzioni di affidabilità
Alcuni modelli
RELIABILITY FUNCTIONS: SOME MODELS
The reliability of an item of a system can be defined as the probability that
the device or the system will adequately perform the specified function for
a well-defined time interval in specified environmental conditions. Starting
from this first definition it is well clear the importance of the probability and
statistic sciences in both reliability definition and evaluation. This paper is
devoted to introducing some important probability and statistic concepts
necessary for reliability evaluation. In particular, the statistical point of view
is developed and discussed as a first approach to dependability feature of
a system or a device.
RIASSUNTO
In un lavoro precedentemente scritto su questa rubrica si è cercato, come punto
di partenza, di fare chiarezza, per quanto possibile, sulla terminologia in
ambito affidabilistico. Questo articolo, invece, focalizza l’attenzione su alcune
funzioni, e relativi modelli matematici, che in termini generali prendono il nome
di “funzioni di affidabilità”. La trattazione teorica di questo argomento è molto
complessa poiché, a partire da approcci sperimentali sulla base di prove di
laboratorio (prove di affidabilità), si perviene ai modelli matematici con l’ausilio della teoria della probabilità e della statistica. Nei limiti del possibile cercheremo, pertanto, di fornirne una versione semplificata che crediamo comunque utile per comprendere l’importanza dell’argomento e, punto essenziale,
per rendere consapevoli gli interessati che gli aspetti affidabilistici non possono assolutamente essere presi in considerazione e trattati, come purtroppo
sovente accade, a prodotto realizzato. Le prestazioni di affidabilità devono
assolutamente essere considerate come “specifiche di progetto” per la definizione della configurazione di sistema e della scelta dei componenti e del loro
utilizzo, e rappresentano quindi un elemento essenziale per una corretta progettazione. Approfondimenti teorici potranno essere fatti ricorrendo ai riferimento bibliografici citati.
INTRODUZIONE
Ricercando in un dizionario il significato del termine “affidabilità” non è inusuale trovare la seguente definizione:
Affidabilità – da affidabile (persona o
cosa in cui si ha ragione di riporre fiducia) e quindi da affidare (per influsso
semantico dall’inglese reliable) grado
di fiducia che si può riporre in qualche
cosa o qualcuno [1]. L’idea di base è,
quindi, quella di proiettare su oggetti e
sistemi l’attesa non di un risultato ma di
una continuità prestazionale ovvero di
una “disponibilità”.
In termini molto semplici, il concetto di
disponibilità implica che un dispositivo possa essere utilizzato, fissate
certe condizioni, entro il ciclo di vita
atteso rispondendo a proprietà stabilite a priori. Le implicazioni che ne
conseguono possono variare in funzione dell’interlocutore, ovvero del
fornitore, dell’acquirente e/o del committente piuttosto che, se previsto,
delle autorità.
In generale sarebbe auspicabile che
per qualunque dispositivo oggi
immesso sul mercato venissero fornite
informazioni anche sul relativo ciclo
di vita; alla luce di ciò occorre quindi
definire, sulla base di sufficienti, per-
tinenti e attendibili dati sperimentali,
l’affidabilità statistica di tale dispositivo. Lo studio statistico dell’affidabilità, dovendo comunque contare sull’esperienza derivante dalla raccolta
dei dati sperimentali, presuppone
pertanto la conoscenza del concetto
di “fenomeno aleatorio” e del significato delle leggi di distribuzione; è da
ciò che nasce la definizione riportata
nella CEI 56-50 al punto 191-12-01
dove l’affidabilità viene trattata in termini probabilistici e tale probabilità
caratterizza quindi l’attitudine espressa dalla “affidabilità” [2].
LE CARATTERISTICHE
DELL’AFFIDABILITÀ
La definizione di affidabilità, come attitudine dell’elemento a svolgere la funzione richiesta in condizioni date per
un dato intervallo di tempo, discussa
nel precedente articolo di questa rubrica rappresenta una “specifica” della
“fidatezza” (in inglese dependability)
per la quale è necessario definire una
metrica che ne consenta una valutazione quantitativa e comparativa.
L’attitudine a “svolgere la funzione
richiesta” non può che essere intesa
come complementare ad una situazione di guasto [CEI 56-50, 191-04-01].
Quindi, così come al guasto si associa un tempo di vita – noto come
“tempo al guasto”, nel caso più semplice di un componente – la valutazione quantitativa dell’affidabilità
1
Dip. di Elettronica e Telecomunicazioni,
Università di Firenze
[email protected]
2 Dip. di Elettronica,
Politecnico di Milano
3 Dip. di Tecnologie dell’Informazione,
Università di Milano
T_M
N.
2/11 ƒ 131
Tabella 1 – Guasti nei vari intervalli
▲
I SERIALI
MISURE E FIDATEZZA
passa attraverso la valutazione della
affidabilità come “prestazione”, ovvero attraverso la valutazione del tempo
medio fino al guasto MTTF (Mean
Time To Failure), del tasso di guasto λ
e, per i sistemi riparabili, del tempo
medio tra guasti MTBF (Mean Time
Between Failures).
MTTF =
t 1 + t 2 + ... + t n
(3)
n
Fissato un intervallo di osservazione
di durata nota siamo in grado di valutare la relazione (1) per ogni intervallo di ampiezza ∆t=tn-tn-1
Questa procedura, che da un punto di
vista prettamente sperimentale elimina
il problema dell’osservazione continua del processo di guasto, suggeriLA RELAZIONE TRA FUNZIONI
sce, inoltre, la definizione di un istoDI AFFIDABILITÀ
gramma sperimentale delle frequenze
E DATI SPERIMENTALI
relative, dove ∆t (intervallo tra un riCercheremo di definire l’affidabilità lievo e il successivo) rappresenta la
partendo dalla definizione “empirica” larghezza delle classi la cui altezza è
ricavata dall’analisi dei dati di gua- data da:
sto. Consideriamo n elementi uguali
n t + ∆t − ng t
per semplicità di trattazione e messi in f t = g
(4)
E
esercizio al tempo t=0 nelle stesse
n ⋅ ∆t
condizioni. Supponiamo sia essi statiCombinando le (2) e (4) risulta:
sticamente indipendenti.
Sia ns(t) il sottoinsieme di n funzionanti al
F t + ∆t i − FE t i
generico tempo t (elementi sani al tempo f t = E i
E
t). È ragionevole definire il rapporto:
∆t i
(5)
ns (t )
RE (t ) =
(1) con t i ≤ t ≤ t i + ∆t
(
()
()
(
)
()
)
( )
n
Intervallo
di tempo)
(ore
Unità guaste
alla fine dell’intervallo
di tempo
0-1000
1000-2000
2000-3000
3000-4000
4000-5000
5000-6000
Totale guasti
072
024
032
034
023
015
200
La valutazione empirica dell’Affidabilità viene effettuata al termine degli
intervalli temporali indicati nella tabella 1. Dalla tabella si osserva che in
ogni intervallo di 1 000 ore si sono
guastate un certo numero di unità ma
non è possibile dire quando ogni singolo guasto si è manifestato. La valutazione dell’affidabilità può esser
quindi condotta solo per intervalli di
tempo discreti. Occorre inoltre fare
due considerazioni: all’inizio della
prova tutte le unità sono funzionanti e
pertanto l’affidabilità assume valore
unitario; la prova termina quando tutte le unità risultano guaste e pertanto
l’affidabilità al termine della prova è
sicuramente nulla.
È possibile pertanto calcolare la funzione empirica di affidabilità costruendo la tabella 2 con il relativo
grafico (Figura 1). Per quanto riguarda il numero dei sani si deve tener
conto che questi sono quanto rimasto
funzionante al termine di ogni intervallo di tempo. Se ne deduce che,
per esempio, dopo 1 000 ore di funzionamento sono ancora in funzione
128 elementi:
Definendo come “Tasso di guasto
istantaneo” la funzione data dal rapporto tra la probabilità dell’evento e
la durata dell’intervallo di osservazione, avremo che, in termini empirici, è
possibile esprimere il tasso di guasto
attraverso il rapporto tra gli elementi n ( t = 1000 ) = n − n = 200 − 72 = 128
s
s
che si sono guastati nell’intervallo (t,
A
1
000
ore
di
funzionamento
l’affit+∆t] e il numero ns(t) di elementi fundabilità empirica, in base alla (1), è
zionanti al tempo t, ovvero:
data dal rapporto fra il numero di
unità ancora funzionanti (128) e il
n
t
t
n
t
∆
−
+
1
g
g
λE t =
⋅
= numero iniziale di unità coinvolte
nella prova (200): il risultato vale
ns t
∆t
0,64.
(6) In maniera analoga si determinano
fE t
n
= fE t ⋅
=
le altre funzioni empiriche secondo
ns t
RE t
le relazioni (2), (4), (6) ottenendo
ns (t ) ng (t )
quanto in Tabella 3. In Figura 2 si
FE (t ) = 1 − RE (t ) = 1 −
=
(2) Appare evidente che il tasso di guasto riporta l’andamento del solo tasso di
n
n
è il reciproco di un tempo e per tale guasto.
espresso in ore
dove ng(t) è il numero di elementi gua- motivo usualmente
-1).
alla
meno
uno
(h
sti al tempo t, considerando che ns(t) +
ng(t) = n. Indicando con t1, t2, . . tn i
LE GRANDEZZE DI PREVISIONE
tempi al guasto osservati per gli n ele- Esempio applicativo 1
menti presi in considerazione, è pos- I dati di prova, in termini di guasto, Quanto detto, proprio perché basato
sibile definire il valore medio dei relativi a n = 200 componenti sono su osservazione di dati sperimentali, è
tempi al guasto MTTF come:
comunemente noto come approccio
riportati in Tabella 1.
dove il pedice “E”, presente anche
nelle formule a seguire, denota una
funzione empirica.
Dal momento che la definizione di
probabilità basata sul concetto di
frequenza relativa determina la probabilità di un evento proprio come
rapporto tra il numero delle volte in
cui si presenta e il numero complessivo, la funzione R E(t) esprime di
fatto una probabilità che possiamo
chiamare affidabilità empirica
(Reliability è il termine anglosassone). Dalla funzione affidabilità si
ricava la funzione complementare
“Inaffidabilità” F E(t), che in termini
empirici vale:
T_M ƒ 132
(
()
()
()
()
()
)
()
()
N. 02ƒ
;2011
Tabella 2 – Funzione empirica di affidabilità
t (ore)
1
2
3
4
5
6
0
000
000
000
000
000
000
ns
ng
RE (t)
200
128
104
072
038
015
000
000
072
096
128
162
185
200
1
0,640
0,520
0,360
0,190
0,075
0
empirico; per tale ragione, le grandezze affidabilità, inaffidabilità, etc.
possono essere considerate come una
stima empirica delle corrispondenti
grandezze definite attraverso la teoria della probabilità [3].
Per il passaggio alle grandezze di
previsione (appartenenti al dominio
del continuo) occorre definire il
“tempo al guasto” (in realtà, corrisponde a una variabile aleatoria indicata con T); ovviamente tale variabile
assume valori maggiori o
uguali a 0. Partendo da questa
doverosa, anche se non esaustiva precisazione, la funzione
affidabilità, R(t), esprime la
probabilità che il sistema non
si guasti nell’intervallo (t,t+dt);
viceversa, F(t) esprime la probabilità che il sistema si guasti
nello stesso intervallo. Per la
funzione densità di probabilità
di guasto:
λ( t ) =
f(t )
R( t )
▲
I SERIALI
MISURE E FIDATEZZA
(9)
Tralasciando volutamente tutti i calcoli, si arriva a dimostrare la Legge fondamentale dell’affidabilità:
t
− ∫ λ ( τ ) dτ
(10)
R( t ) = e 0
La (10) rappresenta una relazione
molto complessa [5], [6] ma, indipendentemente da ciò, consente di fare
una importante considerazione: l’affidabilità è legata al tasso di guasto.
IL TASSO DI GUASTO
Richiamando l’espressione (10), nell’ipotesi semplificativa di tasso di guasto costante, si ottiene:
R( t ) = e − λt
(11)
L’ipotesi fatta equivale a valutare il
(7) funzionamento del dispositivo nella
Figura 1 – Funzione empirica RE(t)
zona pressoché piatta della curva a
relativa ai dati di tabella 2
vasca [7], condizione spesso applicada cui si determina la proba- bile ai dispositivi elettronici. Sostituenbilità che il sistema do la (11) nella (8) si ha:
si guasti nell’intervallo
1
Tabella 3 – Funzioni empiriche
(t, t+dt).
MTTF =
(12)
λ
Analogamente, è possibi-3
-1
-3
-1
t (ore)
RE(t)
FE(t) FE(t+∆t)-FE(t) fE (t)[10 h ] λE(t)[10 h ] le determinare il valore
Quindi, ricapitolando, è possibile dire
teorico dell’MTTF utiliz00 0-1 000 0,640 0,360
0,360
0,360
0,360
che, noto il tasso di guasto determizando l’approccio previ1 001-2 000 0,520 0,480
0,120
0,120
0,188
nabile ad esempio attraverso banche
sionale. Richiamando la
2 001-3 000 0,360 0,640
0,160
0,160
0,308
dati [6], è possibile tracciare la curva
definizione di valore
3 001-4 000 0,190 0,810
0,170
0,170
0,472
di affidabilità (Figura 3) la quale, parmedio teorico data in sta4 001-5 000 0,075 0,925
0,115
0,115
0,605
tendo da 1 per t=0, ha una pendenza
tistica, è facile dimostrare
5 001-6 000 0,000 1,000
0,075
0,075
1,000
dipendente dal valore di λ e la cui
che, nota la funzione di
area sottesa corrisponde all’MTTF.
affidabilità R(t) del dispoOccorre a questo punto fare una presitivo, si ha:
cisazione relativa al tasso di guasto.
Preme ricordare che l’ipotesi di tasso
∞
(8) di guasto costante è una semplificaMTTF = ∫ R( t )dt
0
zione che rispecchia bene il comportamento di gran parte dei componenda cui si evince che l’MTTF rap- ti elettronici; per altri componenti,
presenta l’area sottesa dall’affi- invece, tale ipotesi può non essere del
dabilità. Nel caso più complesso tutto sostenibile, come spesso accade
di un sistema la cui affidabilità in ambito meccanico. Ciò porta a
vale RS(t), l’MTTFS è ancora dato definire modelli di tasso di guasto
dalla (8) sostituendo RS(t) al posto anche molto complessi, che dipendodi R(t). In ogni caso MTTF ed no dalle caratteristiche chimico-fisiche
MTTFS sono espressi in ore.
dei materiali e dal relativo processo
Figura 2 – Andamento tasso di guasto
Il Tasso di guasto istantaneo di degrado che porta alla condizione
vale:
di guasto. In ambito elettronico,
dF ( t )
dR( t )
f(t ) =
=−
dt
dt
T_M ƒ 133
N. 02ƒ
; 2011
Figura 3 – Andamento qualitativo dell’Affidabilità
plice e intuitivo il significato fisi- tezza, T_M 1/11, ISSN: 2038-6974.
co delle funzioni fondanti la teo- 8. L. M. Leems, Reliability: probability
Models and Statistical Methods, Second
ria dell’affidabilità.
comunque, gran parte delle banche
dati di affidabilità ipotizzano il tasso BIBLIOGRAFIA
di guasto costante.
CONCLUSIONI
Si è cercato di inquadrare l’affidabilità
come un requisito quantitativo di un dispositivo o sistema. Individuando nel
tempo al guasto il punto di partenza
per la definizione di una “metrica”, sono state richiamate le principali funzioni che contribuiscono a definire l’affidabilità. Il passaggio dalle grandezze
empiriche, proprio perché legate alla
definizione di probabilità come frequenza di ripetizione di un evento, ha
consentito di evidenziare in modo sem-
T_M ƒ 134
1. Nuovo Zingarelli, Zanichelli.
2. CEI 56-50: Terminologia sulla fidatezza
e sulla qualità del servizio.– prima ed.
maggio 1997.
3. G. Iuculano: Introduzione a probabilità, statistica e processi stocastici, Pitagora
editrice, Bologna 1996
4. R. C. Michelini, R. P. Razzoli “Affidabilità e sicurezza del manufatto industriale:
la progettazione integrate per lo sviluppo
sostenibile” Tecniche nuove (ed. 2000).
5. F. Galetto, Affidabilità, Vol. 1, CLEUP
(Padova).
6. A. Birolini, Reliability Engineering:
Theory and Practice, Sixth Edition, 2010,
Springer.
7. M. Catelani, L. Cristaldi, M. Lazzaroni,
L. Peretto, P. Rinaldi, Le parole della fida-
Edition, 2009, Lightning Source, ISBN:
978-0-692-00027-4.
Marcantonio Catelani
si è laureato in Ingegneria elettronica presso l’Università degli Studi di
Firenze. È attualmente
docente di Affidabilità e
controllo qualità presso la Facoltà di
Ingegneria di Firenze ed afferisce al
Dipartimento di elettronica e telecomunicazioni. L’attività di ricerca riguarda
misure e metodi per l’affidabilità in
ambito elettronico, tecniche di diagnosi
di guasto, attività sperimentali e prove
di affidabilità di componenti e sistemi,
sistemi automatici di misura per la
gestione delle attrezzature di prova.
▲
I SISTEMI RFID
I SERIALI
I SISTEMI RFID
Alessandro Clerici, Cristina Quetti (Lab#ID)
Sistemi RFID: alcuni ambiti
di applicazione
RFID SYSTEMS: SOME APPLICATION FIELDS
The paper describes some of the main applications of RFId systems in industry, also with the presentation of examples related to projects developed by
Lab#ID, the laboratory on RFId systems active in the Carlo Cattaneo – LIUC
University.
RIASSUNTO
L’articolo descrive alcuni tra i principali campi di applicazione dei sistemi
RFId in ambito industriale, anche attraverso la presentazione di esempi relativi a progetti sviluppati da Lab#ID, il laboratorio sui sistemi RFId dell’Università Carlo Cattaneo – LIUC.
RFID AL SERVIZIO DELLE IMPRESE
E DELLE ORGANIZZAZIONI
I sistemi di identificazione in radiofrequenza (RFId) sono particolarmente
indicati per migliorare l’efficienza e
l’efficacia dei processi di raccolta
automatica di dati su oggetti, animali
o persone. Le situazioni in cui risulta
utile identificare in modo rapido e affidabile entità in ambito industriale
sono molteplici: la tracciabilità di singoli prodotti o asset, la visibilità in
tempo reale delle giacenze di magazzino, l’utilizzo per il controllo degli
interventi di manutenzione sono solo
alcune delle più interessanti. Questo
grazie alle notevoli potenzialità dei
sistemi RFId, come la possibilità di
identificare contestualmente centinaia
di tag, la capacità di memorizzare un
buon quantitativo di dati nella memoria dei tag, l’opportunità di poter riutilizzare questi supporti un numero tendenzialmente infinito di volte, l’alta
velocità di lettura, che può avvenire
anche a distanza e in assenza di visibilità ottica, la resistenza a condizioni
ambientali critiche e la possibilità di
proteggere i dati memorizzati attraverso password e algoritmi crittografici.
Con una prospettiva di carattere funzionale, illustriamo qui alcuni ambiti
applicativi trasversali dei sistemi RFId,
con riferimenti a progetti svolti da
Lab#ID, il laboratorio sui sistemi RFId
Quest’articolo è il secondo di una
mini-serie, a cura dei ricercatori del
Lab#ID, che mira a proporre un’introduzione ai sistemi RFId e alle loro
applicazioni, ma anche a testimoniare
il modo con cui il laboratorio attua
processi di trasferimento tecnologico,
mettendo in evidenza i fattori critici
per conseguire gli obiettivi di progetto
e portando l’esperienza di alcuni casi
concreti. Lab#ID (Luca Mari)
dell’Università Carlo Cattaneo – LIUC, tutta la filiera produttiva e distributiva,
per rendere più concreto il discorso. è stata affrontata con l’obiettivo di
acquisire visibilità e tracciabilità dei
componenti critici, dal produttore alLA TRACCIABILITÀ DI FILIERA
l’utilizzatore finale. La collaborazione
a livello di supply chain è stata resa
La possibilità di mantenere l’identifi- possibile dal servizio di intelligence
cazione degli item, dalla materia fornito da un fornitore esterno, in graprima ai prodotti finiti, lungo una filie- do di gestire un database centralizzara di produzione e distribuzione è di to nel quale sono memorizzati i dati
grande interesse: con opportune scel- relativi ai componenti su cui tutte le
te strategiche e organizzative, i diver- aziende coinvolte nel progetto esesi soggetti che arrivano a condividere guono le lavorazioni. Il ricorso a un
dati e quindi parti del loro sistema provider esterno permette, in progetti
informativo condividono in effetti i che coinvolgono più realtà aziendali,
benefici di tale interoperabilità, nello di garantire il corretto rapporto di trastesso tempo suddividendone i costi. sparenza fra le parti e l’accesso proCon l’eccezione di alcuni, pochi in tetto via web ai dati condivisi. Il proeffetti, esempi in particolare riferiti cesso prevede l’applicazione di tag
all’ambito della Grande Distribuzione RFId, da parte del fornitore dei comOrganizzata, si tratta per altro di un ponenti, sui singoli item che potranno
ambito in cui le applicazioni RFId non così essere identificati univocamente.
sono ancora numerose, forse anche Durante le fasi di assemblaggio e laper la scarsità di modelli e di espe- vorazione i codici identificativi dei
rienze di collaborazione inter-orga- componenti possono essere letti con
nizzativa.
un reader RFId palmare e associati alCiononostante, Lab#ID ha già seguito la lavorazione eseguita o alle matrialcuni progetti significativi finalizzati cole degli assiemi su cui vengono
all’introduzione di un sistema RFId per installati, permettendo così la creaziola tracciabilità di prodotti lungo un’in- ne di una distinta base elettronica che
tera filiera produttiva. Tra questi, uno andrà a sostituire le schede di lavorain particolare ha interessato una filie- zione compilate manualmente dagli
ra termoelettromeccanica. In questo addetti alla produzione. I principali
progetto l’adozione della tecnologia vantaggi dell’adozione della radiofreRFId da parte di più imprese, lungo quenza in questo contesto sono dun-
T_M
N.
2/11 ƒ 135
Figura 1 – Collaborazione di filiera mediante RFId
que principalmente ascrivibili a:
– eliminazione della fase di stesura manuale delle schede di lavorazione, che possono gestite in maniera automatizzata;
– riduzione degli errori di compilazione e trascrizione
dei dati, tipicamente presenti con l’utilizzo del tradizionale supporto cartaceo.
L’impiego di sistemi RFId permette inoltre, rispetto alle
applicazioni che sfruttano i codici a barre, di associare a
ogni singolo componente sia uno specifico codice identificativo sia dati aggiuntivi come, per esempio, il nome del
fornitore e la data di produzione o lavorazione del
pezzo; la lettura dei tag può avvenire anche in condizioni sfavorevoli caratterizzate da polvere depositata sulle
etichette o qualora il componente sia già assemblato e
nascosto da cavi o pannelli di copertura.
Oltre a queste migliorie di processo, una serie di servizi aggiuntivi consentono un incremento di prestazioni
globali nella supply chain e nel livello di servizio percepito dal cliente finale:
• le fasi di manutenzione e sostituzione in garanzia dei
componenti guasti e le azioni di recall dei prodotti
difettosi diventano gestibili in modo preciso e mirato
grazie alla elevata tracciabilità raggiunta grazie a
questa soluzione;
• un incremento di visibilità nella movimentazione delle
parti all’interno degli stabilimenti produttivi e nella gestione inventariale dei magazzini permette di ridurre
fenomeni di stock-out, obsolescenza, tempi di attesa e
localizzazione dei componenti;
• la tracciabilità a livello di singolo componente e la
puntuale registrazione delle fasi di lavorazione consente lo sviluppo di un sistema di controllo trasparente
sullo stato di avanzamento delle commesse.
LA GESTIONE DELLA SICUREZZA
In settori in cui è presente un elevato livello di rischio,
per esempio quello chimico / petrolchimico e quello
ospedaliero, la sicurezza dei lavoratori e dei cittadini
è un requisito imprescindibile. L’RFId è uno strumento
T_M ƒ 136
N. 02ƒ
;2011
efficace per la prevenzione da eventi
avversi e per il risk management,
soprattutto se la semplice identificazione in radio frequenza è associata
all’utilizzo di sensori. Tag con sensori
di temperatura, per esempio, possono
operare come data logger, in grado
di monitorare i parametri ambientali
durante lo stoccaggio e il trasporto di
particolari prodotti. Si pensi per esempio alle applicazioni per il controllo
della temperatura delle sacche ematiche: gli emocomponenti sono infatti
molto sensibili alla temperatura degli
ambienti in cui sono mantenuti durante le fasi di trasporto o conservazione.
Alcuni progetti svolti da Lab#ID hanno
studiato la possibilità di tracciare le
sacche di sangue con questi sistemi.
La possibilità di individuare univocamente ogni singola sacca, associandola all’anagrafica del donatore, e
l’opportunità di conoscere la temperatura degli ambienti in cui questa si è
trovata consente di verificare, prima
di qualsiasi trasfusione, che il prodotto sia idoneo per il ricevente.
Vi è poi un’altra notevole potenzialità
dell’RFId, oltre a quella della semplice
identificazione di cui sinora si è parlato, che nel campo della sicurezza
risulta essere estremamente interessante: la localizzazione. Particolari
sistemi chiamati RTLS (Real Time Locating Systems) consentono, infatti, di
localizzare nello spazio la posizione
di un tag. In questo modo, per esempio, è possibile sapere, in caso di
emergenza, dove si trovano gli operai
di un’azienda, un’informazione critica, sempre per esempio, nei siti dove
avviene la raffinazione di idrocarburi.
Lab#ID ha svolto alcuni test in questo
ambito: per la pericolosità dei materiali trattati e la dimensione degli impianti produttivi, un sistema che consenta di localizzare la posizione dei
lavoratori risulta essere estremamente
importante per le squadre di soccorso
che devono monitorare l’evacuazione
di un sito. Poter contare, in modo automatico, il personale che ha raggiunto i punti di raccolta ed essere in
grado di visualizzare, in tempo reale,
la posizione e i percorsi degli operai
che non sono riusciti a raggiungere le
vie di fuga, consente di poter prestare
soccorso in modo rapido ed efficace.
Il fatto che la localizzazione possa
essere attivata solo in situazioni di
emergenza e venga presidiata unicamente dai responsabili delle squadre
di soccorso, garantisce la privacy dei
lavoratori durante le normali condizioni di lavoro. Lo stesso sistema,
ovviamente, può essere utilizzato
anche per tracciare, in tempo reale,
lo spostamento di beni o veicoli all’interno di un sito.
GESTIONE DOCUMENTALE
I sistemi RFId mostrano notevoli potenzialità anche a supporto della gestione documentale, abilitando una più
efficiente ed efficace organizzazione
degli archivi. Applicati a singoli fogli,
documenti, o cartelle, i tag RFId assicurano un sistema di archiviazione
funzionale alla tracciabilità, rintracciabilità e monitoraggio dei documenti, rendendo disponibili all’occorrenza tempestivamente le informazioni necessarie, rispondendo alle esigenze delle organizzazioni di supportare il personale nella gestione e
nel rintracciamento di documenti. La
procedura di gestione documentale
risulta, per imprese e Pubblica Amministrazione, un processo senza dubbio complesso e oneroso, che richiede sensibili costi di realizzazione e
stoccaggio. Si pensi alle imprese commerciali più semplici, che sono comunque tenute alla conservazione
delle fatture emesse per dieci anni.
L’RFId costituisce una grande opportunità per gli Enti Pubblici, soprattutto le
Pubbliche Amministrazioni, per migliorare l’attuale gestione dell’archivio cartaceo e per affiancare una
futura archiviazione digitale.
Un progetto pilota molto interessante
è stato svolto da Regione Lombardia,
per la reperibilità della documentazione relativa ai programmi comunitari presente negli archivi. È stata prevista l’identificazione univoca di ogni
pratica e di tutti i fascicoli in essa contenuti; là dove si è palesata una particolare necessità di garantire la massima efficienza nella ricerca dei documenti e di controllarne gli accessi, si è
Figura 2 – Gestione documentale
giunti all’etichettatura di ogni singolo
foglio contenuto nelle pratiche. Gli
ottimi risultati ottenuti hanno dimostrato che la gestione documentale tramite sistemi RFId ottimizza la reperibilità
dei documenti, assicurando notevoli
benefici in termini di riduzione dei
tempi ricerca, riduzione dei costi associati al recupero dei documenti e
minori tempi di ricerca delle informazioni. Inoltre, è possibile controllare
l’accesso in archivio, conoscere in
tempo reale l’esatta posizione di un
documento (archivio, ufficio e scrivania) ed effettuare l’inventario dei documenti in tempo reale.
EFFICIENZA DI PROCESSO
L’efficienza di processo è un fattore
critico di successo in molteplici settori.
I sistemi RFId consentono di automatizzare il processo di acquisizione di
dati rendendo le operazioni di identificazione di materie prime, semilavorati e prodotti finiti molto più rapide.
Questo consente una significativa riduzione dei tempi di attraversamento
di componenti e prodotti all’interno
delle linee produttive, andando a ridurre l’impatto di tali attività sulle risorse umane e dando la possibilità in
alcuni casi di rimuovere interamente
delle attività “collo di bottiglia” per
l’intero processo produttivo di un’azienda. A tale proposito citiamo due
casi studiati da Lab#ID.
Il primo riguarda un’azienda nella
costruzione di quadri elettrici di manovra per ascensori, scale e tappeti
mobili. L’azienda ha scelto di utilizzare un sistema RFId per supportare la
tracciabilità dei componenti prodotti
lungo le linee di produzione presenti
nel proprio sito produttivo, in modo
da controllare in tempo reale e in
modo automatizzato la fase di consolidamento ordini, garantendo che le
T_M ƒ 137
■
I SERIALI
MISURE E FIDATEZZA
casse di imballaggio degli impianti in
spedizione fossero effettivamente
complete di tutti i componenti necessari. Tale processo veniva precedentemente svolto manualmente, con sistema di lettura mediante codici a barre,
e risultava essere un rilevante collo di
bottiglia per il comparto produttivo.
L’utilizzo dell’RFId ha consentito di
ridurre notevolmente i tempi necessari
al controllo a fine linea. Questo è
stato possibile grazie all’inserimento
di un “tunnel RFId” a fine linea, in pratica un’area di transito opportunamente attrezzata con antenne, che è
in grado di controllare la presenza di
tutti gli item necessari, all’interno di un
imballaggio in pochi secondi. Questa
innovazione ha consentito di ridurre
dell’80% i tempi necessari per questa
attività, andando di fatto a eliminare
il collo di bottiglia e contemporaneamente a ridurre i costi di manodopera
connessi.
Un progetto simile ha interessato l’aeroporto di Malpensa, dove è stato
installato un sistema RFId per rendere
efficiente lo smistamento dei bagagli,
consentendo la tracciabilità del singolo bagaglio per tutta la durata del suo
viaggio, dal check-in alla riconsegna.
Grazie all’infrastruttura RFId, in qualsiasi momento ciascun bagaglio potrà
essere infatti rintracciato e identificato
all’interno dell’impianto, stabilendone
inoltre contestualmente la destinazione. Il nuovo sistema d’identificazione,
affiancato al vecchio sistema barcode, consente di aumentare l’affidabilità dell’identificazione dei bagagli:
una volta etichettati, i bagagli sono
convogliati nell’impianto di smistamento, dove sono stati posizionati in
serie i sistemi di lettura per codici a
barre e per tag RFId. Il sistema RFId
viene dunque impiegato in affiancamento all’attuale sistema di codifica
dei bagagli, basato su codici a barre,
con il doppio obiettivo di aumentare
da subito le prestazioni del sistema di
identificazione automatica e, nello
stesso tempo, di sperimentare la
nuova tecnologia senza ridurre l’affidabilità, e quindi la qualità del servizio, del sistema. Grazie a questo sistema si elimina, infatti, il problema
delle mancate letture, che costituisce
T_M ƒ 138
la principale fonte di problemi del
codice a barre. Nel chip di un tag
possono inoltre essere scritti dati aggiuntivi riguardanti il bagaglio, comFigura 3 - Asset tracking in tempo reale
presa la sua destinazione, che permettono un suo instradamento automatico sino al carosello di imbarco.
scorte, il management documentale e il
monitoraggio della sicurezza. In virtù
delle loro caratteristiche peculiari, i
GESTIONE DEGLI ASSET
sistemi RFId possono anche essere
applicati in un contesto collaborativo,
L’adozione dei sistemi RFId a suppor- permettendo di migliorare la competitito della gestione degli asset rappre- vità delle supply chain attraverso l’apsenta una tematica trasversale sia alle plicazione di metodologie che preveimprese che alle società di servizi, dono la condivisione di informazioni
ove la corretta individuazione e trac- sui processi di più aziende.
ciabilità di beni strumentali sono fondamentali per l’ottenimento di processi più efficienti.
QUALCHE RIFERIMENTO,
Per esempio, per grandi macchinari e PER APPROFONDIRE
impianti è spesso utile registrare e tracciare tutti gli assiemi e i sottoassiemi che 1. Lab#ID: http://labid.liuc.it
li compongono, attivando un sistema di 2. RFId Journal:
manutenzione preventiva e predittiva www.rfidjournal.com
che memorizzi i dati direttamente nella 3. Portale RFId Italia:
memoria del tag posizionato sull’asset. http://rfid.thebizloft.com
Grazie alla riscrivibilità dei tag RFId, i
dati di manutenzione possono essere
aggiornati a seguito di ogni intervento. È inoltre possibile partizionare la
Alessandro Clerici ha
memoria di un tag, consentendo di
conseguito la Laurea Spepoter riscrivere solo alcuni dati e imcialistica in Ingegneria
pedendo la cancellazione di altri,
Gestionale presso l’Unieventualmente consentendo la lettura
versità Carlo Cattaneo –
LIUC di Castellanza, doo la modifica di dati solo mediante l’uve attualmente sta frequentando il corso
tilizzo di una password.
Nel comparto aerocargo, Lab#ID ha di Dottorato in Gestione Integrata d’Acollaborato con alcune fra le princi- zienda. Collabora con il laboratorio
pali compagnie aeree per l’adozione Lab#ID per la realizzazione di progetti
di sistemi RFId per la localizzazione legati al trasferimento tecnologico alle
in tempo reale di pallet e container, imprese su sistemi RFId.
allo scopo di migliorare l’efficienza
del servizio di spedizione e ottimizzare i costi di movimentazione.
Cristina Quetti ha con-
CONCLUSIONE
I sistemi RFId sono strumenti particolarmente indicati per migliorare l’efficienza e l’efficacia dei processi di raccolta
automatica di dati in contesti anche
molto differenti tra loro. Tra questi si
possono citare la tracciabilità di singoli prodotti e asset, la visibilità dei materiali, la gestione in tempo reale delle
seguito la Laurea Specialistica in Ingegneria Gestionale presso l’Università Carlo Cattaneo – LIUC
di Castellanza, dove collabora con il Lab#Id e insegna nel corso
“e-business: Methodology and Technology”. I suoi interessi di ricerca riguardano le ICT a supporto dell’aggregazione e della collaborazione fra imprese. Come collaboratrice di Lab#ID ha
coordinato e condotto alcuni progetti di
adozione di sistemi RFId e NFC.
METROLOGIA
LEGALE
▲
A cura dell’Avv. Veronica Scotti ([email protected])
Etica metrologica
e codici di comportamento
nelle attività processuali
LEGAL AND FORENSIC METROLOGY
This section intends to discuss the great changes on Legal
Metrology after the application of the Dlgs 22/2007, the
so-called MID directive. In particular, it provides information, tips and warnings to all “metric users” in need of
organizations that can certify their metric instruments
according to the Directive. This section is also devoted to
enlighting aspects of ethical codes during forensic activities where measurements are involved. Please send all
your inquiries to Ms. Scotti or to the Director!
RIASSUNTO
Questa rubrica intende discutere i significativi cambiamenti in tema di Metrologia Legale a seguito dell’entrata in vigore del Dlgs 22/2007, altrimenti detto
Direttiva MID. In particolare, vuole fornire utili informazioni, consigli e ammonimenti a tutti gli “utenti Metrici” che si rivolgono per reperire informazioni su
Enti e organizzazioni notificate per la certificazione del loro prodotto/strumento secondo la Direttiva. La rubrica tratta anche di aspetti etici correlati allo
svolgimento di misurazioni legate ad attività in abmito forense (CTU, CTP). Scrivete all’Avv. Scotti o al Direttore, e verrete accontentati!
ETICA E DEONTOLOGIA
Il tema delle norme deontologiche e dei
codici etici è di notevole attualità, considerati i numerosi organismi che hanno
inteso dotarsene per dichiarare la propria adesione a principi di ampia portata morale. La stessa etimologia della
parola etica riporta infatti al concetto di
morale ovvero quell’insieme di valori
universalmente (o ampiamente) riconosciuti da una comunità, con i quali la
stessa si identifica senza che tali precetti necessitino di sanzioni ai fini della
loro osservanza, poiché si tratta di
“regole dell’animo umano” che rifugge
naturalmente condotte contrastanti con
tali principi. La deontologia si pone
quale corollario dell’etica, in quanto
rappresenta lo strumento applicativo
delle norme etiche, ponendosi come un
vero e proprio elenco di doveri a cui i
soggetti di una data comunità devono
sottostare affinché i principi etici possano trovare espressione effettiva.
Tuttavia, mentre l’etica non necessita di
una manifestazione formale e formalizzata dei propri principi, proprio in
quanto si presumono insiti all’interno
della comunità di cui un soggetto fa
parte, la deontologia richiede, in conseguenza della propria natura di “strumento attuativo dell’etica”, espressioni
esterne date principalmente dai cosiddetti Codici di comportamento o Codici
deontologici. La loro finalità è quella di
determinare le regole da applicare ed i
comportamenti da adottare, individuando le condotte riprovevoli che possono
costituire oggetto di biasimo, per violazioni di minore entità o, addirittura,
causa di espulsione del soggetto dalla
comunità quando si tratti di condotte
particolarmente gravi.
È ben noto ai lettori di questa rivista che
anche il GMEE ha ritenuto opportuno
dotarsi di un codice etico e deontologico finalizzato a costituire un punto di
riferimento per le condotte di ciascun
Socio che, a vario titolo, possa essere
chiamato ad effettuare misure: in tal
modo vengono identificati i comportamenti “virtuosi” e sono definite, al contempo, le sanzioni, differenziate in funzione della gravità della violazione
commessa.
Le norme deontologiche, che danno
forma e sostanza ai principi etici e ne
sono l’espressione pratica, divengono,
attraverso la previsione di condotte
positive e la individuazione di pene
associate alla loro trasgressione, norme
giuridiche (quasi) perfette. Infatti, la
norma giuridica non è altro che l’indicazione di un corretto comportamento
unitamente alla previsione di una sanzione che attribuisce forza ed efficacia
a tale regola. La differente efficacia di
una norma, ovvero se debba essere
considerata imperativa a tutti gli effetti o
meno, proviene esclusivamente dalla
forza gerarchica ed istituzionale dell’ente che l’ha disposta.
In ogni caso i giuristi considerano una
norma perfetta (intesa appunto come
comprensiva della previsione di una
condotta legittima e di una sanzione in
caso di violazione di detta condotta) se
trova applicazione e riconoscimento
all’interno di una collettività di soggetti
che si riconoscono nei principi fondanti
della comunità a cui partecipano: pertanto le norme deontologiche adottate
da organismi plurisoggettivi (quali enti,
associazioni di varia natura e scopo,
gruppi di lavoro ecc.) sono un corpus di
regole munite dell’efficacia tipica della
norma giuridica, sebbene trovino applicazione esclusivamente all’interno della
specifica comunità.
L’ETICA
NELLE ATTIVITÀ PROCESSUALI
Vediamo ora più in dettaglio quale
impatto le norme etiche e le regole
deontologiche hanno sull’attività professionale e, in particolare, nelle attività
tecniche in ambito processuale. È ben
noto, da un punto di vista affatto generale, che la norma etica richiede che le
attività del tecnico vengano svolte
secondo coscienza e scienza: concetti questi che sono, peraltro, posti a
T_M
N.
2/11 ƒ 139
l’effettuazione di misure, il tecnico deve
applicare la fondamentale e ben
nota norma UNI CEI ENV
13005:2000 (GUM). Tale condotta si
pone come necessaria per adempiere
correttamente all’incarico, in modo da
escludere una responsabilità giuridica,
ma anche al fine di evitare una “responsabilità etica “e una “responsabilità
morale”.
In ordine alla responsabilità etica, infatti, qualora si ravvisasse l’inosservanza
(grave) di tale normativa tecnica l’operatore potrebbe subire sanzioni
NEWS
▼
base delle stesse norme tecniche di riferimento. Proprio per questo motivo è
naturale supporre che esista un legame
tra la norma tecnica e i principi etici
posti a guida dell’operatore che si trovi
ad adempiere a un incarico di natura
privatistica (un contratto) oppure a un
compito di natura pubblicistica (p. es.:
attività di CTU in sede giudiziale).
In particolare è proprio quest’ultima
tipologia di attività a porre problematiche di natura etica, prima ancora che
giuridiche, che possono assumere valore rilevante e possono determinare effetti tangibili nel caso in cui il soggetto
appartenga a una comunità che, attraverso l’adozione di un codice deontologico, abbia definito un quadro organico di obblighi e responsabilità.
Infatti la mancata applicazione delle
normative tecniche di riferimento per
una data attività integra da un lato,
sotto il profilo contrattuale, l’inosservanza della regola d’arte con conseguenze
di natura privatistica (risarcimento del
danno, risoluzione del contratto ecc.) e
implica, dall’altro, la violazione delle
norme etiche e, se del caso, di norme
deontologiche riconosciute che potrebbero determinare conseguenze in
danno al tecnico che abbia omesso di
adempiere a quanto previsto dalle
norme tecniche. Tale affermazione assume poi maggiore pregnanza e valore
quando l’attività che il tecnico è chiamato a svolgere sia inserita nell’ambito
di un processo di natura penale che
può concludersi con la privazione della
libertà personale di un soggetto.
Appare evidente la stretta connessione
tra i principi etici specifici, cui deve
essere informato il lavoro del tecnico, e
l’etica comunemente intesa come morale: l’insieme dei principi che la collettività generale riconosce come imprescindibili per una società civile. Proprio
in base a tale imprescindibilità le norme
etiche di determinate comunità posano
le loro fondamenta sulle norme morali
generali e le superano prevedendo ulteriori approfondimenti e corollari destinati a qualificare e distinguere l’entità
da cui promanano.
Nello svolgimento di attività peritali in
qualità di consulente tecnico di un giudice nell’ambito di un procedimento
penale, se il compito affidato richiede
T_M ƒ 140
N. 02ƒ
; 2011
▲
METROLOGIA
LEGALE
RENDIMENTO INVERTER
FOTOVOLTAICI:
CON ASITA SI PUÒ!
L’inverter è l’apparato che converte la corrente continua generata dalle celle solari in corrente alternata, collegandosi in sincronismo
alla rete elettrica nazionale. Nei momenti in
cui il consumo istantaneo è inferiore alla
potenza elettrica generata, l’eccesso di produzione viene immesso in rete consentendone
l’utilizzo da parte di altri utenti.
La tecnologia costruttiva di questi dispositivi è
piuttosto complessa e sul mercato oggi sono
presenti molti prodotti con differenti caratteristiche tecniche, soprattutto dal punto di vista
del rendimento elettrico valutato nelle più disparate potenziali condizioni di lavoro.
Per i produttori e gli importatori di tali dispositivi è quindi fondamentale saper progettare e
fabbricare prodotti che garantiscano un’elevata
efficienza energetica e perciò idonei a minimizzare il loro costo energetico durante l’intero
ciclo di vita di funzionamento e a ottimizzare la
capacità di conversione continua/alternata.
In quest’ottica risulta evidente l’enorme importanza che rivestono la misura dei parametri elettrici di funzionamento di questi dispositivi e il
loro rendimento elettrico, nonché la complessità
nell’ottenere misure adeguate, precise e
attendibili.
ASITA anche in questo settore assiste
la propria clientela con una gamma
di wattmetri specificamente progettati
e realizzati per soddisfare ogni specifica esigenza di misura, a partire dal
nuovissimo e rivoluzionario analizzatore
di potenza 3390 che rappresenta la
miglior soluzione strumentale oggi disponibile sul mercato in termini potenzialità
di misura e facilità di utilizzo.
3390 offre capacità di misura che coprono
un’elevata ampiezza di banda in frequenza
disposte dal codice deontologico
della realtà collettiva di appartenenza
(ordine professionale, associazione
ecc.) e, per quanto concerne la responsabilità morale potrebbe porsi un problema di natura interiore legato
alle conseguenze derivanti dall’accertamento “viziato” (ovvero non conforme),
in quanto incompleto del dato
dell’incertezza di misura.
Nei procedimenti penali i rilievi sperimentali demandati al perito ed esperiti
per mezzo di appropriate misure,
hanno generalmente lo scopo, attraver-
ed una notevole precisione di misura adattandosi alla maggior parte degli inverter oggi in
commercio, sia di tipo Fotovoltaico sia di tipo
industriale per abbinamento a motori elettrici.
Le principali caratteristiche di analisi sono: l’elevata accuratezza (0,05% rdg a 50-60Hz) e
stabilità di misura in RMS simultanea sui 4
canali di ingresso, con portata in tensione
fino a 1500V e in corrente fino a 500A, l’ampia frequenza di campionamento a 500kS/s
e la capacità di eseguire l’analisi del contenuto armonico di tensione corrente e potenza
fino al 100° ordine armonico.
3390 consente inoltre di registrare le analisi
svolte direttamente su penna USB, su Compact Flash Card o di trasferirle all’esterno tramite interfacce LAN USB (2.0) e RS232, il
tutto in un contenitore compatto e leggero
adatto anche alle misure in campo.
La stazione di potenza 3390 è la soluzione
ideale per l’analisi del rendimento elettrico e
la valutazione dell’efficienza complessiva
della maggior parte dei motori elettrici e
inverter sia di potenza che Fotovoltaici,
soprattutto per i reparti Ricerca & Sviluppo, i
laboratori di prova e verifica, nonché gli istituti di ricerca ed università.
La gamma di strumenti per misure di potenza
di Asita comprende inoltre analizzatori delle
qualità di rete PQA, analizzatori di rete portatili, sistemi di acquisizione e gestione dei
consumi elettrici e numerose altre opportunità.
Per ulteriori informazioni: www.asita.com
N. 02ƒ
;2011
mente certo, non avrebbe elementi
per nutrire dubbi circa la colpevolezza
dell’imputato e quindi, se tale valore
deponesse a favore della tesi dell’accusa, il giudicante deciderebbe inesorabilmente per una condanna.
Alla luce di quanto anzidetto risulta chiara la responsabilità morale ed etica,
prima ancora che giuridica, che il tecnico assume, quale ausiliario del giudice,
soprattutto in un procedimento penale.
In conclusione, la violazione delle
norme tecniche di riferimento, ivi inclusa la GUM per quanto concerne la
■
so il confronto tra il valore misurato ed
un valore di riferimento, di stabilire se è
stato commesso un reato, di valutarne
l’entità e, assai spesso, di fornire indicazioni utili ad individuare il reo. È ben
noto il ruolo giocato dall’incertezza di
misura in questo confronto, ruolo che
spesso consente soltanto di esprimere
una probabilità che il valore misurato
sia superiore o inferiore al valore di riferimento considerato. Probabilità che, se
non si tenesse conto dell’incertezza,
potrebbe essere erroneamente presa
per certezza.
In queste situazioni la corretta valutazione dell’incertezza di misura e il suo corretto impiego nell’effettuazione dei confronti con i valori di riferimento potrebbero costituire elemento rilevante per
instillare nel giudice ragionevoli dubbi
sulla validità delle misure effettuate a
fornire una rappresentazione della realtà sufficientemente completa per consentirgli di deliberare sulla sussistenza o
meno della fattispecie di reato “al di là
di ogni ragionevole dubbio”. A ben
vedere, tutto ciò è assolutamente coerente con il significato che la 13005
(GUM) attribuisce al concetto di incertezza, come ben espresso nella introduzione, al punto 0.2, che testualmente
così recita: “si accetta generalmente
che, allorquando tutte le componenti di
errore note o ipotizzate siano state valutate e le relative correzioni apportate,
rimanga tuttavia un’incertezza sulla correttezza del risultato, vale a dire un
dubbio su quanto bene questo rappresenti il valore della quantità misurata”.
Infatti, se l’accertamento condotto dal
tecnico costituisce (o in prospettiva: presumibilmente costituirà) il fondamento
della decisione giudiziale, e il valore
d’incertezza è tale da indurre dubbi
circa l’effettiva responsabilità dell’imputato, in osservanza del fondamentale
principio processual-penalistico del in
dubio pro reo, il giudice dovrebbe
assolvere poiché assenti prove sufficienti a giustificare una condanna.
Diversamente, appare evidente quale
potrebbe essere la conseguenza processuale derivante dalla mancata valutazione e dichiarazione dell’incertezza
da parte del consulente tecnico: il giudice, disponendo di un singolo valore interpretabile come assoluta-
METROLOGIA
LEGALE
valutazione dell’incertezza di misura,
coinvolge, in determinati contesti, una
responsabilità di natura etica. Tale
responsabilità può limitarsi a una
pura dimensione morale, di pertinenza della coscienza del singolo che,
per distrazione, ha indotto un soggetto
giudicante a condannare un potenziale
non colpevole; oppure può divenire
oggetto di sanzioni qualora esistano norme deontologiche volte a censurare comportamenti contrari ai valori
etici riconosciuti da una data realtà di
consociati.
Commento dei lettori
A seguito della pubblicazione del primo intervento relativo alla metrologia
legale sul n. 4/2010 della rivista, l’Ing. Blandino, attento lettore, ha inviato un opportuno e gradito commento con il quale evidenziava alcune inesattezze relativamente ai compiti delle CCIAA, in particolare per ciò che
concerne verifiche sugli organismi notificati, che sarebbero precluse alle
Camere di Commercio, argomentando sulla base dell’art. 14 del Dlgs
22/2007 e del DM 29/08/2007 e sul riconoscimento di ACCREDIA quale
organismo unico di accreditamento ai sensi del regolamento CE 765/2008
che prevede la designazione, da parte di ciascuno Stato membro UE, di un
unico ente per l’accreditamento in materia di direttive c.d. Nuovo Approccio, ferme restando, comunque, eventuali normative settoriali che, data la
loro specialità, seguono regole differenti e specificatamente all’uopo emanate.
In realtà, lo scopo dell’articolo pubblicato era quello di delineare IL
RUOLO IN DIVENIRE DELLE CCIAA che, in qualità di organismi operativi per l’attuazione delle direttive del MiSe, il quale non dispone di propri organismi capillarmente distribuiti sul territorio per lo svolgimento di verifiche e controlli, oltre a svolgere le loro funzioni proprie di verificatori di
strumenti di misura, assumono anche il compito di accertare eventuali mancanze o inesattezze compiute dagli organismi privati accreditati, sebbene
in via indiretta, attraverso la verifica del rispetto delle normative, inclusa nel
campo di indagine come stabilito dalla Market surveillance guide.
Peraltro, tale quadro è avallato dallo stesso Dlgs 22/2007 che, espressamente, all’art. 11, annovera, tra le modalità consentite al Ministero per la
verifica dei requisiti degli organismi notificati, la possibilità di avvalersi di
organismi pubblici specificatamente autorizzati.
Pertanto, il commento del lettore pervenuto alla redazione è del tutto pertinente e, ad avviso di chi scrive, mette in luce uno dei compiti fondamentali e primari assegnati alle CCIAA, già trattati in un precedente articolo della
rivista, secondo una prospettiva statica che va necessariamente aggiornata
nell’ottica di un’evoluzione delle attività camerali, in applicazione dei principi fondamentali dell’ordinamento che consentono alla Pubblica Amministrazione, in ogni caso, e soprattutto nella ipotesi di delega di funzioni pubbliche ad organismi privati (come avviene nel sistema di accreditamento
disegnato dal legislatore comunitario), di riappropriarsi di poteri dismessi
al fine di garantire il buon andamento, la trasparenza e la tutela dei beni
fondamentali.
T_M ƒ 141
▲
NEWS
MONITORAGGIO DI PROCESSO E TESTING
DI PRODOTTO: IL NUOVO CONTROLLORE
AL MIGLIOR RAPPORTO QUALITÀ-PREZZO
Si chiama maXYmo BL 5867A il nuovo monitor XY della Kistler per il monitoraggio di
processo e il testing di prodotto, sviluppato
sull’idea di base di realizzare un controllore
XY caratterizzato dal miglior rapporto qualità-prezzo. Il nuovo monitor, estremamente
compatto, è rivolto alla visualizzazione dei
processi, al controllo qualità e alla verifica
del trend di produzione.
punti rilevanti per il controllo qualità delle
curve di misura, rilevate in base alle funzioni Y=f(X), Y=f(t), Y=f(X,t) o X=f(t). In tal modo,
maXYmo BL controlla se la curva misurata,
composta fino a un massimo di 8000 punti,
attraversa gli elementi di valutazione come
impostato. In caso affermativo produce un
risultato “conforme” (OK), in caso contrario
“non conforme” (NOK). Per ciascun programma o curva di misura è possibile impostare al massimo 4 elementi di valutazione di
tipo UNI-BOX, CURVA D’INVILUPPO, LINE o
NO-PASS.
Versione di maXYmo BL 5867A dotata
di adattatore per parete o banco
Lo strumento si distingue per le sue diverse
funzionalità pratiche, grazie a un menu di
concetto evoluto, a un luminoso display touch
screen da 3,5” e a numerose interfacce.
Principali aree di applicazione del maXYmo
BL 5867A sono il monitoraggio dei processi
di assemblaggio e montaggio, il controllo
del prodotto e le prove dei materiali. Nei
processi d’inserimento a pressione, ad esempio, controlla la forza in funzione dello spostamento o del tempo, mentre nei processi di
avvitatura o rotazione verifica la coppia
rispetto all’angolo di rotazione o al tempo.
maXYmo BL controlla la qualità di un prodotto o di una fase di produzione in base
all’andamento della curva misurata. Il canale Y può essere collegato a sensori piezoelettrici, piezoresistivi oppure a torsiometri,
mentre il canale X può essere collegato a
potenziometri lineari o a sensori angolari.
Utilizzando e posizionando a piacere gli elementi di valutazione maXYmo analizza i
Sensori piezoelettrici
Forza di compressione:
da 0 ... 0,1 N a 0 ... 800 kN
Forza di trazione e compressione:
da 0 ... ±0,5 N a 0 ... ±300 kN
Deformazione (misurazione indiretta
della forza): fino a 800 µ*
Momento di reazione:
da 0 ... ±0,25 N·m a 0 ... ±200 N·m
Sensori con Tecnologia Estensimetrica
Forza di compressione:
da 0 ... 20 N a 0 ... 200 kN
Forza di trazione e compressione:
da 0 ... ±20 N a 0 ... ±500 kN
Coppia in rotazione:
da 0 ... ±2 N·m a 0 ... ±1 000 N·m
Potenziometri, transmitter ±10 V*
Corsa: da 0 ... 10 mm a 0 ... 750 mm
Angolo di rotazione: 0 ... 360°
(* in preparazione)
Visualizzazione chiara di tutte le curve
di misura non conformi (NOK). Dalla forma
delle curve, l’utente può risalire alla causa
della non conformità (NOK) e al problema
valutazione possono essere impostati o
modificati inserendo valori numerici o tracciando o spostando gli elementi sui grafici;
– ogni oggetto di valutazione può essere riferito a punti di misura assoluti o dinamici;
– sono disponibili due uscite in tempo reale
attribuibili a scelta al canale X o Y e utilizzabili per semplici funzioni di controllo;
– autorizzazioni d’accesso per utenti diversi
proteggono da modifiche non autorizzate;
– possibilità di scambiare dati di misura,
valori di processo e segnali di comando tramite Ethernet TCP/IP, Profibus DP e interfacce digitali di I/O; consente anche la manutenzione remota;
– 16 programmi di misura per altrettante tipologie di pezzi;
– i dati di misura e i risultati di valutazione per
i diversi componenti possono essere esportati
tramite Ethernet o USB;
– a ogni misura effettuata può essere associato un numero di serie o da un barcode.
La versione base di maXYmo BL prevede l’integrazione su un pannello frontale. Una scatola aggiuntiva opzionale ne consente l’applicazione alla parete di una macchina o su
un banco, con orientamento regolabile in
continuo.
In modalità “semaforo” il display visualizza
a schermo intero il risultato del processo
appena analizzato – un notevole vantaggio
per le postazioni di lavoro manuali
101216Kistler offre
con il monitor una
vasta selezione di
sensori di forza, coppia, spostamento e
angolo, basati rispettivamente sui principi
di misura piezoelettrico, ponte estensimetrico e potenziometro.
maXYmo BL offre
numerose funzioni
per i compiti di
monitoraggio XY:
Per maggiori informazioni:
– tutti gli oggetti di www.maxymo.com
Grazie alla chiara struttura del menu e ai pratici tasti d’accesso alle principali
schermate informative, l’operatore ha sempre una panoramica completa
del processo e del controllo qualità
SPAZO ASSOCIAZIONI
UNIVERSITARIE MISURISTI
▲
Rubrica a cura di Franco Docchio, Alfredo Cigada, Anna Spalla e Stefano Agosteo
Dalle Associazioni Universitarie
di Misuristi
FROM THE ITALIAN UNIVERSITY ASSOCIATIONS
FOR MEASUREMENT
This section groups all the relevant information from the main University associations in Measurement Science and Technology: GMEE (Electrical and Electronic Measurements), GMMT (Mechanical and Thermal Measurements),
AUTEC (Cartography and Topography), and Nuclear Measurements.
RIASSUNTO
Questa rubrica riassume i contributi e le notizie che provengono dalle maggiori
Associazioni Universitarie che si occupano di scienza e tecnologia delle misure: il GMEE (Associazione Gruppo Misure Elettriche ed Elettroniche), il GMMT
(Gruppo Misure meccaniche e Termiche), l’AUTEC (Associazione Universitari
di Topografia e Cartografia) e il Gruppo di Misure Nucleari.
GMEE – ASSOCIAZIONE
GRUPPO MISURE ELETTRICHE
ED ELETTRONICHE
Comunicazione
dell’Ing. Roberto
Buccianti ai Soci
Ordinari del GMEE
in relazione al Consiglio Direttivo dell’Associazione
Il 14 Aprile 2011 si è svolto il Consiglio
Direttivo dell’Associazione GMEE e ho
partecipato alla riunione come rappresentante dei Soci Ordinari. La Presidenza provvederà all’invio del resoconto
della riunione. Tuttavia, fra gli argomenti esaminati, ritengo possa essere di
particolare interesse per le aziende per
cui operiamo la disponibilità offerta
dalla rivista Tutto_Misure, disposta a
ospitare non solo articoli sulle attività di
ricerca ma anche notizie (più o meno
sintetiche) riguardanti attività di natura
aziendale e di mercato (ad esempio,
nuovi prodotti, nuove installazioni produttive o di taratura, nuove reti di distribuzione, nomine dei vertici aziendali,
ecc.). Credo che queste azioni siano
particolarmente utili per contribuire ad
assicurare un buon collegamento tra il
mondo accademico e quello aziendale.
Mi permetto inoltre di ricordare tre
eventi particolarmente significativi:
• Convegno Annuale GMEE: Genova,
12-14 Settembre 2011
(www.gmee2011.it);
• Giornata della Misurazione 2011:
Roma, 13 - 14 Giugno 2011
(http://gmee.dti.unimi.it/GdM2011);
• Scuola di dottorato “Italo Gorini” Metodologie e dispositivi di misura nei
diversi ambiti industriali, dei servizi e
della qualità: Siena, 5-9 Settembre
2011
(http://gorini2011.dii.unisi.it).
Restando a vostra disposizione per
ogni eventuale necessità, vi saluto cordialmente.
Roberto Buccianti
GMMT – GUPPO MISURE
MECCANICHE E TERMICHE
tenutosi presso l’Università degli Studi
di Perugia su “Dynamic Mechanical
Analysis”, una famiglia di tecniche che
mira alla caratterizzazione dei materiali cercando di superare nel contempo
sia la classica prova di trazione, sia la
tipica prova di fatica, unendo informazioni statiche a diverse temperature con
quelle dinamiche.
Volume sulla Storia della Meccanica – Contributi delle misure
Riceviamo poi dal Presidente del gruppo
e ritrasmettiamo a tutti la seguente comunicazione: “La Conferenza dei Presidi
delle Facoltà di Ingegneria Italiane sta
curando la scrittura e la pubblicazione di
una serie di volumi sulla storia delle tecnologie e ogni volume è dedicato alle
tecnologie che hanno poi trovato collocazione didattico-scientifica in un corso
di laurea in Ingegneria. Il terzo volume
sarà dedicato alla Storia della Meccanica e, in tale volume troverà posto il contributo che le misure hanno dato allo sviluppo della industrializzazione, a partire
dalla unificazione delle unità di misura
per arrivare alla standardizzazione dei
processi di produzione, al controllo per
la qualità e la sicurezza. Sono stati incaricati di scrivere questa parte Michele
Gasparetto e Sergio Sartori”. Ovviamente qualunque contributo o segnalazione sarà bene accetto.
AUTEC – ASSOCIAZIONE
UNIVERSITARI DI TOPOGRAFIA
E CARTOGRAFIA
Convegno GMMT a Genova
Per questo trimestre le notizie dal Grup- Ricerche in Geomatica
po di Misure Meccaniche e Termiche e Premio AUTeC
sono poche, ma importanti. Innanzitutto
È appena uscito il quinsi rinnova l’appuntamento per il prossito numero di Ricerche
mo convegno di Misure Meccaniche e
di Geomatica che racTermiche, dal 12 al 14 settembre a
coglie i lavori relativi
Genova.
alle tesi di dottorato
Seminario a Perugia
Abbiamo ricevuto dal collega Gianluca
Rossi la segnalazione di un seminario, [email protected]
T_M
N.
2/11 ƒ 143
Nuovo Spin-off
dell’Unità di Genova
Martedì 19 aprile 2011 è stata presentata presso Villa Cambiaso a
Genova la Gter s.r.l. – Innovazione in Geomatica, GNSS e GIS,
Spin-off sorto nell’ambito del Progetto
UNI.T.I., promosso dall’Università degli Studi di Genova. I referenti scientifici sono il prof. Domenico Sguerso e
l’ing. Bianca Federici, entrambi docenti del SSD ICAR/06.
Nuovo Laboratorio
di Geomatica all’Aquila
Mercoledì 4 Maggio 2011è stato
inaugurato il nuovo Laboratorio di
Geomatica dell’Università di L’Aquila.
L’inaugurazione è avvenuta all’interno
del Convegno “La Realtà Virtuale a
Supporto dell’Osservazione della
Terra”, che si svolgerà presso l’Aula
Magna della Facoltà di Ingegneria
dell’Università di L’Aquila, Via Campo
di Pile - ex Optimes - Zona industriale
di Pile. Il Comitato organizzatore del
Convegno, che si occuperà di tematiche relative alla protezione e al monitoraggio del territorio e dell’ambiente
e alla prevenzione e gestione dei disastri naturali, è costituito dalla
Prof.ssa Donatella Dominici dell’Università di L’Aquila, dal Gen. Isp. (aus)
NEWS
▼
prodotte nel corso del 2010 sui temi
di pertinenza del SSD ICAR/06
(Topografia e Cartografia). La rivista,
edita dall’AUTeC, è stata pubblicata
con il significativo contributo della
SIFET (Società Italiana di Fotogrammetria e Topografia) e sarà in distribuzione in occasione del prossimo
Convegno SIFET di Portonovo (AN)
dal 22 al 24 giugno 2011.
I lavori raccolti nella rivista hanno partecipato inoltre all’ultima edizione del
Premio AUTeC, istituito nel 2005 e conferito ogni anno alla tesi di dottorato
giudicata più significativa da una Commissione costituita dai membri della
Giunta AUTeC.
Il premio del 2010 è stato attribuito al
Dott. Stefano Caldera, afferente al
Dottorato di Ricerca in “Geomatica e
Infrastrutture” presso il Politecnico di
Milano, sede di Como, per la tesi dal
titolo “GNSS permanent networks
monitoring: problems and solutions”.
La consegna del premio è avvenuta
nel corso della 14a Conferenza
Nazionale ASITA (Federazione italiana delle Associazioni Scientifiche per
le Informazioni Territoriali e Ambientali), svoltasi a Brescia dal 9 al 12
novembre 2010.
T_M ƒ 144
N. 02ƒ
; 2011
■
SPAZO ASSOCIAZIONI
UNIVERSITARIE MISURISTI
DEA GLOBAL SILVER:
CMM CON LE MASSIME
PRESTAZIONI
Hexagon Metrology perfeziona ulteriormente le macchine di misura a coordinate
(CMM) DEA GLOBAL: i nuovi modelli DEA
GLOBAL Silver misurano in modo ancora
più rapido e preciso e la loro gestione è
ancora più semplice. La produttività della
scansione è stata incrementata fino al 35%
rispetto ai modelli precedenti.
I modelli DEA GLOBAL Silver presentano
diverse novità: una maggiore produttività,
ottenuta grazie ad algoritmi di movimentazione ottimizzati, software migliorato e un
nuovo controllo numerico. Questo si traduce in cicli di movimentazione uniformi nella
misura e in una scansione più rapida. Il
nuovo controllo numerico con hardware e
firmware avanzati consente calcoli e trasmissione dati più rapidi.
La nuova funzione software PC-DMIS Adaptive Scanning semplifica la misura con DEA
GLOBAL Silver. Nella scansione degli elementi del pezzo, gli utenti possono inserire le
diverse tolleranze in una maschera. È poi il
software stesso a calcolare i parametri di
scansione ottimali anche nei cicli di misura
complessi. Questi parametri non devono più
essere definiti dagli utenti.
Oltre alle serie DEA GLOBAL Silver Classic,
Silver Performance e Silver Advantage, che
si distinguono soprattutto per la loro precisione e gamma di sensori, Hexagon Metrology lancia sul mercato la serie DEA GLOBAL Silver SF (Shop Floor). Questa serie è
adatta per la misura dimensionale ad alta
precisione in condizioni ambientali difficili,
ad esempio quando polvere, vibrazioni e
oscillazioni di temperatura potrebbero incidere sulle prestazioni della CMM. Soffietti
e ripari proteggono la CMM da questi fattori ambientali. Le righe ottiche certificate
CTE, una rete integrata di sensori di temperatura e algoritmi efficienti per la compensazione termica strutturale garantiscono risultati di misura precisi in una gamma
di temperatura da 15 a 30 °C.
DEA: dal 1963 è uno dei marchi leader
Pietro Finocchio, Presidente AFCEA, e
dall’Ing. Paolo Proietti, Vice Presidente MIMOS.
Per ulteriori informazioni consultare il
sito:
www.mimos.it/nuovo/
contenuto_view.asp?check=130
nel mondo nella tecnologia della misura a
coordinate. La sede principale si trova nell’area di Torino dove équipe di tecnici altamente specializzati nel campo della meccanica, elettronica e del software sono
impegnati nello sviluppo continuo di soluzioni avanzate per il controllo dimensionale. I prodotti DEA sono utilizzati in tutti i settori industriali e distribuiti su tutti i mercati
mondiali.
Hexagon Metrology: fa parte del
Gruppo Hexagon AB e comprende marchi
leader nel settore metrologia quali Brown &
Sharpe, Cognitens, DEA, Leica Geosystems
(Divisione Metrologia), Leitz, m&h Inprocess Messtechnik, Optiv, PC-DMIS, QUINDOS, ROMER e TESA. I marchi Hexagon
Metrology vantano una base installata globale senza uguali costituita da milioni di
CMM, sistemi di misura portatili e strumentazione di misura manuale, nonché decine
di migliaia di licenze software di metrologia.
Per ulteriori informazioni: Levio Valetti Marketing & Communications Manager
Commercial Operations Italia E-mail:
[email protected]
METROLOGIA
PER CAPILLARITÀ
▲
A cura di Giorgio Miglio ([email protected])
Sulla verifica
della conformità metrologica
degli strumenti
Versione 2 riveduta e corretta
Ai lettori
METROLOGY FOR EVERYONE
This section is open to questions and curiosity by all the
measurement operators, both in industry and in calibration analysis and test laboratories, who do not have
the time to search for answers in the Standards. The
section gives answers and tips in a simple language,
yet complete and worth adequate reference to rigorous
metrological criteria.
Per un banale errore di composizione del testo, nel numero 1/2011 la
rubrica è uscita con titolo e domanda corretti, ma con la risposta del
numero precedente. Me ne assumo
la responsabilità e me ne scuso. Per
rimediare, su questo numero la
rubrica viene ripubblicata nella versione corretta. La rubrica originariamente destinata a questo numero verrà quanto prima pubblicata
sul n. 2/2011 di Tutto_Misure News
e sul n. 3/2011 di Tutto_Misure.
Il vostro Direttore
RIASSUNTO
Questa rubrica è aperta alle domande e ai dubbi formulati da chi si occupa di processi di misurazione o di affidabilità e qualità delle misure sia in
azienda sia nei laboratori di taratura, di prova o d’analisi e che non ha il
tempo o l’opportunità di cercare spiegazioni nella normativa. La rubrica
offre risposte e delucidazioni con un linguaggio che può peccare di eccessiva semplicità, ma non di disallineamento dai criteri metrologici ortodossi.
DOMANDA
È da tempo che, nell’azienda di lavorazioni meccaniche di cui sono dipendente, ho la responsabilità di gestire
la strumentazione di misura e di verificarne lo stato di manutenzione e
taratura. Sono meticoloso per carattere e, salvo qualche osservazione da
parte di auditor esterni succedutisi
negli anni, non ho mai avuto grossi
problemi. Ora però un cliente venuto
in azienda per seguire un controllo su
di una fornitura a lui destinata mi sta
contestando di non aver verificato la
“conformità metrologica” della strumentazione utilizzata per quello specifico ordine. In buona fede, gli ho
mostrato i rapporti di taratura dei 3
strumenti coinvolti in quel controllo e
dimostrato che gli scostamenti sui vari
punti di taratura rientravano nell’errore massimo specificato dal costruttore.
Per non mettermi in crisi il cliente non
ha insistito, ma ho capito che non è
rimasto persuaso. Il mio capo, cui ho
riferito l’incidente, non è stato in
grado di darmi spiegazioni in proposito: d’altronde per lui la taratura è
già una perdita di tempo. Le giro
quindi il quesito: “Uno strumento
di misura di cui si è in grado di
dare evidenza del corretto stato di manutenzione e di taratura può non superare la verifica della sua conformità metrologica?”.
RISPOSTA
Non se l’abbia a male, ma devo dirle
che il suo cliente ha perfettamente
ragione di pretendere l’evidenza che
le apparecchiature per misurazione
utilizzate in quel controllo fossero
“confermate metrologicamente”. Naturalmente non è sua responsabilità
non saperlo: per il ruolo che lei riveste
in azienda, la Direzione avrebbe
dovuto provvedere a fornirle sia le
norme o linee guida necessarie (vedi
sotto) sia un adeguato livello di formazione sull’argomento specifico.
In accordo con la terminologia della
norma che descrive il requisito della
“conferma”, le caratteristiche metrologiche di un’apparecchiatura per misurazione (CMA) devono rispondere pienamente ai requisiti metrologici estratti
dalle specifiche del prodotto destinato
al cliente (RMC). Tra le caratteristiche
più comuni e note vi sono il campo di
misura, la risoluzione, l’errore massimo
ammesso, ma per talune applicazioni
ve ne sono altre ugualmente significative anche se meno “frequentate” (l’isteresi, la soglia di sensibilità, la sensibilità ai campi elettromagnetici, ecc.): tutte
vanno rapportate allo specifico scopo.
Di solito non vi sono problemi per
valutare l’idoneità dei campi e della
risoluzione, ma non è così per quanto
riguarda la valutazione degli errori o
scostamenti dell’apparecchiatura. Infatti spesso viene ignorato, ed è anche il caso cui si riferisce la domanda
del lettore, che vi sono due modi di
valutare i risultati ottenuti in fase di taratura di un’apparecchiatura:
1) confrontare l’intera fascia d’errore
(compresa tra il massimo errore positivo e il massimo errore negativo) con
l’intera fascia d’errore ammessa dal
costruttore per quel tipo di apparecchiatura (spesso espressa come ±
l’MPE o massimo errore permesso);
2) confrontare la stessa fascia d’errore
con la fascia di tolleranza ammessa
dalla specifica di prodotto (RMC). Que-
T_M
N.
2/11 ƒ 145
RIFERIMENTI A NORME E GUIDE
Il requisito della conferma metrologica
era esplicitamente richiamato già nel
titolo di una norma europea pubblicata come UNI nel 1994, la 30012-1
“Sistemi di conferma metrologica di
apparecchi per misurazione”. I contenuti di questa norma, abrogata nel
2004, sono confluiti nella UNI CEI EN
ISO/IEC 10012: 2004 “Requisiti per
i processi e le apparecchiature di
misurazione” assieme a quelli della
UNI ISO 30012-2 “Linee guida per il
controllo dei processi di misurazione”,
anch’essa abrogata nello stesso anno.
Anche la UNI CEI EN ISO/IEC 17025
NEWS
▼
sta può essere più restrittiva di quella
data dal costruttore dello strumento.
Nel caso 2 è come se si andasse a
stabilire un margine di sicurezza, in
modo che gli errori introdotti dall’apparecchiatura nel processo di misurazione siano molto all’interno dei limiti
di tolleranza (ovviamente ridotti dell’incertezza di taratura) ammessi sul
prodotto: questo margine lo si può
esprimere come rapporto tra le suddette fasce.
Ecco un caso semplice in cui l’azienda, per lo specifico settore in cui
opera e per tipo di clientela, ha scelto un rapporto pari a 1/10 tra le due
fasce di cui sopra.
Controllo di un particolare meccanico
di lunghezza nominale 100 mm
(quota a disegno riferita a 20 °C) e
tolleranza ± 0,1 mm: l’addetto alla
strumentazione ha scelto un calibro
centesimale con campo di misura (0 ÷
200) mm e risoluzione 0,01 mm. Dal
Rapporto di taratura si rileva che la
fascia d’errore è pari a 0,03 mm su
tutto il campo di misura e che l’incertezza estesa U è pari a 0,02 mm.
La scelta dell’operatore non risulta corretta perchè la fascia d’errore è > 1/10
della fascia di tolleranza ridotta dell’incertezza estesa: il calibro non è confermato metrologicamente per l’uso anche
se risulta conforme alla propria specifica (il costruttore ha infatti indicato un
MPE pari a ± 0,02 mm, quindi una
fascia d’errore di 0,04 mm). Il calibro
potrebbe risultare idoneo all’uso solo
se, riesaminando i dati riportati nel Rapporto di taratura nell’intorno del suo
punto di lavoro 90 mm ÷ 110 mm) si
accertasse che la fascia d’errore è
< 0,02 mm.
Rimane un’ultima osservazione: quando ci si riferisce ai dati di taratura
occorre, come minimo, valutare il
tempo trascorso tra data di taratura e
quella cui si riferisce la conferma
metrologica dello strumento per tener
conto della deriva maturata in quell’arco di tempo.
T_M ƒ 146
N. 02ƒ
; 2011
■
METROLOGIA
PER CAPILLARITÀ
NUOVA VERSIONE
DEL SOFTWARE
DI ELABORAZIONE
DELLE SCANSIONI “SCENE”
CAM2 (Gruppo FARO Technologies, Inc. NASDAQ: FARO), fornitore leader a livello
mondiale di soluzioni portatili di misura e di
imaging, annuncia il rilascio di SCENE 4.8.1,
l’ultima versione del software di elaborazione
delle scansioni per il CAM2 Laser Scanner.
Il miglioramento più significativo della nuova
release è rappresentato dall’enorme accelerazione nella sovrapposizione dei colori. Per
applicare il colore a una scansione laser del
Focus3D, operazione che finora richiedeva
circa 20 minuti per una scansione di risoluzione media, serve ora meno di un
minuto. Per ottenere una sovrapposizione
di colori fino a 40 volte più rapida per
scansioni con Focus3D (a seconda anche
della potenza del computer in dotazione), CAM2 ha applicato tecnologie di
multi-threading all’avanguardia.
Il nuovo SCENE 4.8.1 è inoltre disponibile nelle seguenti lingue: italiano, inglese,
francese, olandese, portoghese, spagnolo, tedesco, cinese e giapponese. In queste lingue sono state realizzate l’interfaccia utente, la guida in linea e la documentazione tecnica.
“Il CAM2 Laser Scanner Focus3D offre a tutti
gli utenti una scansione laser a colori efficiente, senza costi aggiuntivi. Ora, grazie
alla sovrapposizione accelerata dei colori
garantita dal software SCENE, i nostri
clienti potranno facilmente usare le loro
scansioni a colori nella fase di post-elaborazione, accelerando il flusso di lavoro dei
loro progetti di scansione e aumentando
così la produttività”, ha affermato Oliver
Bürkler, Senior Technical Product Manager,
Laser Scanner di CAM2. Il nuovo Scene
4.8.1 è già disponibile e sarà fornito insieme a ogni CAM2 Laser Scanner.
ai punti 5.5.2 e 5.5.5 richiede di
effettuare verifiche (registrandone i
risultati) di conformità delle apparecchiature alle specifiche relative alle
prove o alle tarature. Il concetto di sottrarre da un limite di accettazione l’incertezza estesa è riscontrabile nella
norma UNI EN ISO 14253-1 “Verifica
mediante misurazione dei pezzi e
delle apparecchiature per misurazioni. Regole decisionali per provare la
conformità o non conformità rispetto
alle specifiche”.
Il software SCENE, studiato specificatamente
per il CAM2 Laser Scanner, elabora e gestisce i dati di scansione in modo efficiente e
semplice utilizzando il riconoscimento degli
oggetti, la registrazione delle scansioni e il
posizionamento automatici. SCENE può
anche colorare le scansioni. Il software è
estremamente intuitivo e genera dati di alta
qualità in un istante. A questo punto agli utenti non resta che controllare i risultati finali.
Una volta che SCENE ha preparato i dati di
scansione, gli utenti possono iniziare la valutazione e procedere immediatamente con l’elaborazione. Si hanno così a disposizione
tutta una serie di funzionalità facili da utilizzare: dalla semplice misurazione alla visualizzazione 3D, fino all’esportazione in diverse nuvole di punti e formati CAD.
Gli utenti attuali possono scaricare l’ultima
versione di SCENE dal sito web dedicato al
CAM2 Focus3D:
www.faro.com/focus/it/downloads
▲
LO SPAZIO
DEGLI IMP
P.P. Capra, F. Galliana
La scala di resistenza
elettrica all’I.N.Ri.M.
Tecniche di misura e campioni utilizzati
THE ELECTRICAL RESISTANCE SCALE AT I.N.RI.M.:
MEASUREMENT TECHNIQUES AND STANDARDS USED
The management of the dc electrical Resistance at I.N.RI.M. starts from the
reproduction of the unit by means of the quantized Hall experiment and
covers, by means of suitable standards and measurement methods the
range from 1µΩ to 100 TΩ. In the paper some hints on unit reproduction
method, on utilized methods and standards, on traceability chains to extend
the traceability to the National Standard of Resistance to the whole Resistance scale are given.
RIASSUNTO
La gestione della scala della Resistenza elettrica in regime continuo
all’I.N.RI.M., parte dalla riproduzione dell’unità mediante l’esperimento
dell’effetto Hall quantistico e si estende, mediante l’utilizzo di opportuni
campioni e metodi di misura da 1 µΩ a 100 TΩ. Nell’articolo si forniscono cenni sul metodo di riproduzione dell’unità, sui metodi di misura e campioni utilizzati sulle catene metrologiche interne per estendere la riferibilità
al Campione Nazionale di Resistenza all’intera scala di Resistenza.
INTRODUZIONE
La resistenza elettrica è la grandezza
che esprime l’attitudine della materia
ad opporsi al passaggio della corrente elettrica. La resistenza elettrica in
regime continuo è la costante che si
ottiene dal rapporto tra la tensione
elettrica che si misura ai capi una
struttura materiale geometricamente
definita e la corrente elettrica che la
attraversa. L’unità SI della resistenza
elettrica è l’ohm (Ω) ed è una grandezza di tipo scalare. La misura della
resistenza è una pratica diffusa in
numerosi campi, tra i quali l’elettronica, la sensoristica, le telecomunicazioni, la distribuzione di energia elettrica, l’elettrochimica e lo studio di
nuovi materiali. Tale grandezza viene
riprodotta o realizzata negli istituti
metrologici primari (IMP) presenti in
tutti i paesi industrializzati e disseminata capillarmente verso tutte le realtà
che hanno la necessità di effettuare
misurazioni accurate e riferibili.
LA RIPRODUZIONE DELL’UNITÀ
DI RESISTENZA ELETTRICA
Figura 1 – Resistenza quantizzata di Hall (RH)
e resistenza longitudinale (RX) in funzione
dell’induzione magnetica
Internazionale di Pesi e Misure (CIPM)
per la riproduzione dell’ohm. I laboratori metrologici in grado di sperimentare il QHE, adottando lo stesso
valore della costante RK, sono in
grado di effettuare misure fra loro
compatibili, entro un’incertezza di
poche parti su 109.
Proprio per poter usufruire dell’elevato livello di riproducibilità il CIPM, nel
1990 ha adottato un valore convenzionale della costante di von Klitzing
[2]. Il valore convenzionale adottato
dal CIPM è RK-90 = 25 812,807 Ω.
Tutte le misure di tensione e di resistenza effettuate con sistemi collegati
all’effetto fisico descritto, sono limitate
dall’incertezza di circa 2×10–7, con
cui è nota, in unità SI, la costante di
von Klitzing.
Nel 1980, Von Klitzing osservò il
fenomeno della quantizzazione della
resistenza di Hall [1] Egli scoprì che
in un gas bidimensionale, realizzato
con particolari eterostrutture o dispositivi MOSFET, a temperature dell’ordine di pochi Kelvin e a campi
magnetici intensi, la resistenza di Hall
RH è quantizzata in unità di h/e2 (dove e è la carica dell’elettrone e h è la
costante di Planck - Fig. 1). Il rapporto di queste costanti è indicato come
costante di Von Klitzing RK. La scoperta dell’effetto Hall quantistico (QHE)
valse a Von Klitzing, nel 1985, il premio Nobel. Poiché la resistenza quantizzata di Hall mostra una dipendenza da costanti fisiche fondamentali, il
QHE ha subito interessato i laboratori
metrologici per la riproduzione dell’unità di resistenza. Dopo alcuni anni di I.N.Ri.M. Torino
ricerche, a partire dal 1/1/1990, il [email protected]
QHE è stato adottato dal Comitato [email protected]
T_M
N.
T_M
ƒ 147
147
2/1
1 ƒ
01ƒ
N. 02
; 2011
▲
LO SPAZIO
DEGLI IMP
LA SCALA
DI RESISTENZA ELETTRICA
NEWS
RESISTORI CAMPIONE
Quando si effettua la riproduzione
della resistenza mediante il QHE occorre trasferire la riferibilità a campioni materiali che hanno il compito
di mantenerla e renderla disponibile
per tutto il periodo di tempo tra due
esperimenti successivi. Nel corso del
secolo scorso numerosi sono stati gli
sforzi indirizzati nel tentativo di costruire campioni materiali in grado
di conservare l’unità di resistenza (o
valori decadici) in modo costante e
con minime influenze da parte di parametri ambientali. Il campione
materiale che, per un tempo lunghissimo, ha costituito la migliore
approssimazione a tutti i requisiti è
▼
Figura 2 – Schema della catena metrologica
della resistenza. Le connessioni indicano
il percorso della riferibilità. Alcuni resistori
sono connessi più volte. I passaggi ridondanti
fungono da conferma metrologica.
Nel campo tra 1 Ω e 10 kΩ
si hanno le incertezze migliori
L’effetto Hall non è sempre disponibile. Il valore di resistenza elettrica viene mantenuto, nel periodo di tempo
fra due esperimenti, per mezzo di
resistori campione ad elevata stabilità. Tali campioni vengono confrontati
con il QHE. In fig. 2 è riportato lo
schema di misura che consente, partendo dal QHE di definire il valore del
campione nazionale da 1 Ω e i valori di resistenza decadici fino a 10 kΩ
[3, 4]. Il trasferimento della riferibilità
alla scala di resistenza inizia effettuando un confronto in rapporto 1:1
tra il QHE e un campione materiale
avente il valore resistivo nominale
prossimo al valore del QHE. A questo
punto, utilizzando ponti a comparatore di corrente e reti Hamon [5], è possibile effettuare il trasferimento della
riferibilità verso i valori decadici più
alti e più bassi.
EQUATOR™:
IL NUOVO CALIBRO
FLESSIBILE VERSATILE
Equator™, il nuovo sistema di calibratura brevettato della Renishaw, consente di
ridurre gli investimenti e contenere i
costi in manutenzione e in attrezzature.
Può essere programmato per lavorare
più pezzi e riprogrammato in pochi
minuti in caso di modifiche al progetto
dei componenti. Equator riempie un
vuoto del mercato proponendosi come
alternativa assolutamente innovativa ai
tradizionali sistemi di calibratura. Non si
tratta di un semplice calibro, ma del
primo nato di un’intera linea di rivoluzionari prodotti Renishaw per la calibratura.
Equator, sviluppato e provato sul campo
in collaborazione con produttori di riferimento in diversi settori (automobilistica,
aerospaziale, medicale), è dotato di
caratteristiche esclusive di economicità,
costruzione e funzionalità, che gli permettono di effettuare calibrature comparative ad alta velocità anche su pezzi di
grande serie. Un calibro estremamente
leggero, rapido e ripetibile che può esse-
T_M ƒ 148
re utilizzato semplicemente premendo un
pulsante: Equator può passare in pochi
secondi da un pezzo a un altro ed è perfetto per processi di lavorazione flessibili e per ispezionare pezzi provenienti da
macchine diverse.
Lo strumento sfrutta una struttura cinematica parallela, facilmente scalabile e adattabile: questo sistema, esclusivo e brevettato, consente di raggiungere alte velocità
di scansione e di eseguire spostamenti
rapidi fra gli elementi, senza rinunciare a
un livello di rigidezza tale da assicurare
un’incredibile ripetibilità punto-punto,
per calibrature sempre accurate.
I sistemi Equator sono disponibili con due
diversi livelli di software: una versione
destina a chi scrive i programmi DMIS e
un’altra, più economica, da officina che
consente l’esecuzione dei programmi
senwa poterli modificare.
Per ulteriori informazioni:
www.renishaw.com/gauging
N. 02ƒ
;2011
RESISTORI CAMPIONE
DI ELEVATO VALORE
Un resistore di alto valore RH è normalmente posto in un contenitore in
materiale isolante e collegato a una
coppia di morsetti. Il contenitore dell’elemento resistivo si comporta anch’esso come un resistore di alto
valore, che risulta connesso in parallelo a RH. L’effetto di questo resistore
parassita è tanto più evidente quanto più è elevato RH. Si potrebbero
definire altri resistori parassiti per
rappresentare i fenomeni di dispersione di cui può essere affetto un
resistore di elevato valore. L’intensità
di tali effetti varia in funzione di
molti fattori.
Allo scopo di ovviare a tale limite, i
resistori di valore superiore a 10 MΩ
presentano una definizione a tre terminali, ossia hanno un terminale di
guardia. In questa realizzazione l’elemento resistivo è ulteriormente
incapsulato in un tubo, normalmente
di vetro e a tenuta stagna, con un
anello metallico avvolto in corrispondenza della mezzeria connesso al terminale di guardia o terzo terminale.
In questo modo l’effetto delle componenti parassite diventa controllabile
mediante opportuna polarizzazione.
RESISTORI DI ELEVATO VALORE
IN DOTAZIONE ALL’I.N.Ri.M.
Figura 3 – Gruppo di resistori campione
di alto valore; A) Measurement International;
B-C) GUILDLINE; D) ABAG; E) cassetta
WELWYN con valori da 1 MΩ a 1 TΩ.
I connettori dei resistori sono del tipo BNC
o N isolati in Teflon
Tipicamente i resistori di valore fino a
100 MΩ sono realizzati con elementi
resistivi a filo avvolto (resistori Guildline
B) mentre quelli di valore superiore
sono realizzati con elementi resistivi a
film spesso (Measurement International
A, Guildline C, ABAG D e Welwyn E).
Il loro contenitore esterno è chiuso
ermeticamente. Il terzo terminale dei
resistori è normalmente collegato al
contenitore esterno, agli schermi dei
connettori e a un singolo morsetto elettrico che viene utilizzato per il collegamento al circuito di guardia.
METODI DI MISURA
SVILUPPATI ALL’I.N.Ri.M.
▲
stato un dispositivo costruito dalla
Leeds & Northrup, su progetto di
Thomas [6].
La caratteristica principale di questo
tipo di resistore è legato alla lega con
la quale è realizzato il conduttore al
quale si deve il valore di resistenza. Si
tratta di una lega di rame (84 %),
Manganese (12 %) e Nickel (4 %)
(manganina), Le specifiche richieste ai
materiali utilizzati per la costruzione
di resistori elettrici sono:
1. elevata stabilità nel tempo;
2. elevata resistività, che riduce le
dimensioni e i parametri reattivi;
3. ridotte forze termo elettromotrici
(eth) verso il rame, ossia verso il metallo con il quale sono realizzati i conduttori elettrici;
4. ridotta dipendenza rispetto ai parametri d’influenza, in particolare
quelli ambientali.
LO SPAZIO
DEGLI IMP
o a ponte di Wheatstone per i passaggi decadici superiori.
Metodo basato su multimetro
e calibratore
Il metodo di misura basato su un multimetro e un calibratore di tensione
continua è utilizzato per la taratura di
resistori di alto valore nel campo
10 MΩ÷1 TΩ. Schema e foto di questo sistema di misura sono mostrati in
Fig. 4. Rx è il resistore in taratura, e Rs
è il resistore campione. Un divisore
ausiliario di tensione fornisce la tensione di guardia. Altri dettagli sono
riportati in [7]. Il calibratore fornisce
una tensione Vout positiva alla serie di
Rx e Rs mentre il multimetro misura la tensione Vs ai capi di Rs. Dopo un certo
numero di misurazioni, la polarità di
Vout è invertita e Rx è il valore medio tra
Rx+ e Rx-. Vx è la tensione su Rx e Ix la
corrente in Rx e Rs, il valore di Rx è dato
dalla equazione seguente:
R x = V x / I x = R s = V x / I s = ( Vout − Vs )R s / Vs
(1)
Con questo metodo l’I.N.Ri.M. ha partecipato ad un confronto internazionale
a livello 10 MΩ e 1 GΩ [8].
Metodo basato su un ponte
di Wheatstone modificato
Il metodo di misura [9÷11] è utilizzato
per la taratura di resistori nel campo
100 GΩ÷100 TΩ. Schema e foto del
sistema sono riportati in Fig. 5. A differenza del ponte di Wheatstone due
rami sono costituiti da due sorgenti di
tensione continua e l’equilibrio si determina con un picoamperometro. La riferibilità di questo metodo all’I.N.Ri.M.
parte da un resistore da 10 GΩ tarato
con il metodo multimetro e calibratore e
prosegue in rapporto 1 a 10 o 1 a 100
per i valori decadici superiori. La procedura consiste nel programmare le
due sorgenti di tensione in modo da
ottenere il bilanciamento del ponte
secondo la relazione:
Metodo delle cassette
di trasferimento Hamon
Questo metodo, usato presso
l’I.N.Ri.M. per la taratura di campioni
di resistenza nel campo 100 kΩ
÷100 GΩ, è basato sull’utilizzo di
cassette di resistenza del tipo Hamon
[5]. Ogni cassetta contiene dieci resistori di pari valore nominale, e rispettivamente uguale a 10 Ω, 100 kΩ, 1
MΩ, 10 MΩ, 100 MΩ e 10 GΩ. I
resistori di ciascuna cassetta possono
V
essere misurati individualmente, in
R x = R c HI
(2)
parallelo, in serie. Le misure sono eseVLO
guite con metodo di sostituzione in
rapporto 1:1 con un multimetro nella Maggiori dettagli e schemi di questi
funzione resistenza fino a 100 MΩ e due ultimi metodi di misura sono riporcon il metodo multimetro e calibratore tati in [11].
T_M ƒ 149
N. 02ƒ
; 2011
■
LO SPAZIO
DEGLI IMP
Figura 4 – Schema e foto del metodo multimetro e calibratore
Figura 5 – Schema e foto del metodo a ponte di Wheatstone modificato
CONCLUSIONI
L’articolo descrive l’unità di resistenza
elettrica e come viene riprodotta,
mantenuta e disseminata verso laboratori secondari dall’I.N.Ri.M.. Al
momento la scala di resistenza ha una
copertura da 1 µΩ a 100 TΩ. Obbiettivi futuri sono la realizzazione di
nuovi campioni e di sistemi di misura
mediante i quali estendere ulteriormente i campi di misura e migliorarne
i livelli di riferibilità ai Campioni Nazionali.
BIBLIOGRAFIA
1. K. von Klitzing, The quantized Hall
effect, Reviews of Modern Physics 58,
No 3, (1986);
2. T.J. Quinn, News from the BIPM,
Metrologia, 26, 69, (1989).
3. G. Boella, P.P. Capra, C. Cassia-
T_M ƒ 150
go, R. Cerri, G. Marullo Reedtz, A.
Sosso “Traceability of the 10-kΩ Standard at IEN” IEEE Trans. Instrum.
Meas., vol 50, pp. 245-248, (2001).
4. G. Boella, I Mihai, G MarulloReedtz, P. P. Capra, E. Gasparotto
“The IEN CCC Bridge to Scale the
Quantized Hall Resistance to 1-Ω
Standards” IEEE Trans. Instrum.
Meas., vol 54, n. 2, pp. 588-591,
(2005).
5. B.V. Hamon, “A 1-100Ω build-up
resistor for the calibration of standard
resistors,” J. Sci. Instrum., vol. 31, pp.
450-453, Dec. 1954.
6. Jame L. Thomas, “A New Design of
Precision Resistance Standard”,
Bureau of Standard Journal of
Research, vol. 5, RP201, 1930.
7. F. Galliana, P.P. Capra, E. Gasparotto, “Metrological management of
the high dc resistance scale at
I.N.Ri.M.,” Measurement 42, pp.
314-321, 2009.
8. F. Dziuba and D. G. Jarrett, “Final
report on key comparison CCEM-K2
of resistance standards at 10 MΩ and
1 GΩ,” 002 Metrologia 39 01001
doi:10.1088/0026–1394/39/1A/
1.
9. L. C.A. Henderson, “A new technique for the automatic measurement of
high value resistors, ” J. Phys. E. Sci.
Instrum., Vol. 20, pp. 492-495,
1987.
10. D. G. Jarrett, “Automated guarded bridge for calibration of multimegohm standard resistors from 1 MΩ to
1 TΩ,” IEEE Trans. Instr. Meas., Vol.
46, no. 2, pp. 325-328, 1997.
11. F. Galliana, P.P. Capra, E. Gasparotto: Evaluation of two different
methods to calibrate ultra-high value
resistors at I.N.Ri.M.”, IEEE Trans.
Meas., Vol. 60 no. 3, pp. 965-970,
2011.
Pier Paolo Capra è
nato a Torino, nel 1965.
Si è diplomato in Chimica Industriale e nel 1987
è stato assunto dall’IEN in
qualità di esperto di misure elettriche. Si è laureato in Fisica presso l’Università degli Studi di Torino nel
1996 e dal 2001 è Tecnologo. È
responsabile del Campione Nazionale
di Resistenza elettrica, si occupa del
mantenimento e delle disseminazione
dell’unità di resistenza e dello sviluppo
di nuovi sistemi di misura di resistenza
elettrica in regime continuo.
Flavio Galliana è nato
a Pinerolo (TO) nel 1966.
Si è laureato in Fisica
presso l’Università di Torino nel 1991. Dal 1993 è
tecnologo presso l’IEN
dove si è occupato della scala di resistenza, realizzando sistemi di misura
per la taratura di resistori di alto valore.
Si è occupato di Accreditamento di
laboratori Presso la Struttura di Accreditamento dell’IEN divenendone Responsabile dal 1999 al 2005.
MANIFESTAZIONI
EVENTI E FORMAZIONE
■
2011
eventi in breve
2011
28 - 29
GIUGNO
Savelletri di Fasano
(BA), Italia
IEEE IWASI 2011
http://iwasi2011.poliba.it
29 GIUGNO 1 LUGLIO
Vienna, Austria
IEEE Forum on Sustainable Transport Systems (FISTS)
http://ieee-fists.org
30 GIUGNO 1 LUGLIO
Orvieto, Italia
IEEE-IMEKO International Workshop on
ADC Modelling and Testing
www.iwadc2010.diei.unipg.it
15 - 18 LUGLIO
Chongqing, China
International Conference on Green Communications and Networks (GCN) 2011
www.easychair.org/conferences/?conf=gcn2011
18 - 21 LUGLIO
Seville, Spain
ACT4SOC 2011 (5th International Workshop on Architectures, Concepts and Technologies
for Service Oriented Computing) and IWCCTA 2011 (International Workshop on Cloud
Computing, Technology and Applications)
www.icsoft.org/workshops.asp
19 - 22 LUGLIO
Orlando, Fl, USA
15th World Multi-Conference on Systemics, Cybernetics and Informatics: WMSCI 2011
www.2011iiisconferences.org/wmsci
28 31 LUGLIO
Noordwijkerhout, Olanda
8th International Conference on Informatics in Control,
Automation and Robotics - ICINCO 2011
www.icinco.org
8 - 11 AGOSTO
Istanbul, Turkey
International Conference on Optical MEMS and Nanophotonics - OMN-2011
www.omn2011.org
12 - 14 AGOSTO
Wuhan, China
The 2011 International Conference on Information System and Management ISM2011
www.massconf.org/ism2011
21 - 27 AGOSTO
French Riviera Nice, France
CENICS 2011: The Fourth International Conference on Advances in Circuits,
Electronics and Micro-electronics
www.iaria.org/conferences2011/CENICS11.html
22 - 25 AGOSTO
Miedzyzdroje, Poland
Methods and Models in Automation and Robotics
www.mmar.edu.pl
29 - 31 AGOSTO
Linkoeping, Sweden
European Conference on Circuits Theory and Design (ECCTD) 2011
http://ecctd2011.org
5-8
SETTEMBRE
Roma, Italia
NUSOD 2011 - Numerical Simulation
of Optoelectronic Devices
www.nusod.org/2011
5-8
SETTEMBRE
Bologna, Italia
8th IEEE Int’l Symposium on Diagnostics for Electrical Machines,
Power Electronics and Drivers (SDEMPED 2011)
www.sdemped11.ing.unibo.it
12 - 14
SETTEMBRE
Braunschweig, Germany
10th Symposium LMPMI 2011 (Laser Metrology for Precision Measurement
and Inspection in Industry)
www.lasermetrology2011.com
12 - 14
SETTEMBRE
Genova, Italy
XXVIII Congresso Nazionale GMEE
www.gruppomisuremt.it/ConvegniCongressi.htm
12 - 14
SETTEMBRE
Genova, Italy
XI Congresso Nazionale GMMT
www.gmee2011.it
12 - 16
SETTEMBRE
Suzhou, China
Progress in Electromagnetics Research Symposium (PIERS)
http://piers.org
13 - 15
SETTEMBRE
Bologna, Italia
CIGRE’ Int’l Symp. The electric power system
of the future
www.cigre.it
15 - 16
SETTEMBRE
Roma, Italy
VII Conferenza Nazionale del Colore
www.gruppodelcolore.it
23 - 25
SETTEMBRE
Wuhan, China
The 7th Int’l Conf. on Wireless Communications, Networking
and Mobile Computing (WiCOM 2011)
www.wicom-meeting.org/2011
26 - 28
SETTEMBRE
Capri, Italy
4th EOS Topical Meeting on Optical Microsystems
(OMS 11)
www.myeos.org/events/capri2011
26 - 29
SETTEMBRE
Online
IEEE Online Conference on Green Communications
(IEEE GreenCom’11)
www.ieee-greencom.org/submit.html
28 - 30
SETTEMBRE
Aachen, Germany
IEEE AMPS 2011 (Applied Measurements for Power Systems)
http://amps2011.ieee-ims.org
12 - 14 OTTOBRE
Olhao, Portugal
VIPIMAGE: III Eccomas Thematic Conference on Computational Vision
and Medical Image Processing
http://paginas.fe.up.pt/~vipimage/index.html
17 - 20 OTTOBRE
Brussels, Belgium
2nd IEEE International Conference on Smart Grid Communications (SmartGridComm)
www.ieee-smartgridcomm.org
24 - 26 OTTOBRE
Paris, France
3rd Int’l Joint Conf. on Computational Intelligence
www.ijcci.org
28 - 30 OTTOBRE
Shangai, China
2011 International Conference on Computer Science and Engineering - CSE 2011
www.engii.org/cet2011/CSE2011.aspx
28 - 30 OTTOBRE
Shanghai, China
2011 Int’l Conf. on Signal and Information Processing(CSIP 2011)
www.engii.org/cet2011/csip2011.aspx
28 - 31 OTTOBRE
Limerick, Ireland
IEEE SENSORS 2011
http://ieee-sensors2011.org
7 - 10
NOVEMBRE
Melbourne, Australia
ECON 2011 - 7th Annual Conference of the IEEE Industrial
Electronics Society
www.iecon2011.org
T_M
N.
2/11 ƒ 151
N. 02ƒ
; 2011
▲
NEWS
NUOVO ESTENSIMETRO DINAMICO RIUSABILE
Ing. Carmine Salzano
(International Aerospace Defense
Manager, PCB Piezotronics)
L’estensimetro piezoelettrico della PCB è disponibile in versione uni assiale (non rosetta) e con
una sola lunghezza di griglia (15 mm) per cui
ogni misura di deformazione dovrà essere intesa come media su tale lunghezza di griglia. L’elemento sensibile è una lamina di quarzo inserita in una custodia di titanio; il cavo è integrale (teflon), con lunghezza di 3 metri, ma sono
disponibili prolunghe di varia lunghezza,
senza alcuna limitazione e, soprattutto, senza
riduzione di sensibilità della catena di misura.
All’interno della custodia in titanio è alloggiato
l’amplificatore ICP® (IEPE), un vero e proprio
amplificatore di carica che converte il segnale
originale (carica elettrica) del quarzo in tensione proporzionale alla deformazione misurata.
La sensibilità nominale del modello standard
(740B02) è di ben 50 mV / micro deformazione: sono comunque disponibili altri modelli con
diverse sensibilità.
Ogni sensore è fornito con il relativo certificato di
taratura che, in modo dinamico su una trave a
flessione in acciaio, viene comparato su più punti.
La custodia in titanio è ermetica (sigillata laser)
e consente l’utilizzo di tale sensore da -54 °C
fino a + 121 °C. La rigidezza della custodia in
CELLE DI CARICO
CERTIFICATE
PER GLI ESPORTATORI
DI BILANCE
NEL MERCATO USA
I requisiti tecnici relativi alla tecnica di pesatura
negli USA vengono definiti nel manuale 44 del
NIST – Istituto Nazionale per gli Standard e le
Tecnologie, organismo paragonabile al nostro
Istituto Nazionale di Ricerca Metrologica
(I.N.Ri.M.).
Per poter commercializzare i componenti della
tecnica di pesatura negli USA è necessario
soddisfare una serie di requisiti e viene richiesto un cosiddetto certificato NTEP (National
Type Evaluation Program – Programma nazionale di valutazione del tipo), che attesti la conformità con il manuale 44 NIST. Per ottenere
questo certificato, oltre alla verifica tecnica
della tecnica di pesatura in sé e al collaudo
delle bilance nel luogo di impiego, sono necessarie anche la verifica e la certificazione degli
impianti di produzione del costruttore, che vengono dimostrate da un certificato di conformità
secondo il VCAP (Verified Conformity Assessment Program – Programma di valutazione
della conformità verificata). Questo certificato è
il risultato dell’audit eseguito da un ente esterno, durante il quale vengono valutati soprattutto i sistemi di assicurazione della qualità interni
all’azienda.
T_M ƒ 152
titanio non consente l’utilizzo su superfici curve,
ma solo su superfici piane.
L’applicazione è immediata e avviene mediante
un cianoacrilato convenzionale (è possibile
anche con colle bi-componente, per misure di fatica), ma la grossa novità e che tale estensimetro è
riutilizzabile! Tempo stimato per l’installazione:
intorno a 5 minuti al massimo. La sua rimozione
dalla struttura (attraverso utensile appositamente
progettato e fornito) è semplice e anche in questo
Il produttore di tecnica di pesatura HBM ha
superato positivamente l’audit ed è quindi autorizzato a offrire l’intera gamma della propria
caso viene trattato come fosse un accelerometro!
Simile a un accelerometro, l’intervallo di frequenza di utilizzo dell’estensimetro piezoelettrico è da 0,5 Hz fino a 100 KHz. Lo strumento
non è quindi utilizzabile su strutture che prevedono carichi statici.
L’estensimetro piezoelettrico utilizza un circuito di
condizionamento ICP® molto semplice e oggi estremamente diffuso. In molti casi nei quali è necessario fare un’analisi dinamica della struttura (anche in
condizioni ambientali ostili) il nuovo estensimetro
offre vantaggi indiscussi rispetto agli estensimetri
convenzionali, sia per la facilità di montaggio sia,
soprattutto, per l’elevato segnale elettrico (decine di
mV per micro deformazione). Non solo, la sua
installazione è addirittura possibile senza “fermare“ la struttura o il processo.
In caso di escursione termica della prova, la
natura piezoelettrica del quarzo e l’assenza
della parte continua del segnale compensano
in modo naturale il fenomeno.
Infine per molte applicazioni odierne che prevedono sempre più studi di vibrazione (raw
time history) e indagini a fatica, esso rappresenta un significativo vantaggio per l’utilizzatore, ricordando che è rimovibile e facilmente
reinstallabile in pochissimo tempo.
Per ulteriori informazioni:
www.pcbpiezotronics.it
tecnica di pesatura anche per applicazioni
negli USA.
Per ulteriori informazioni: www.hbm.com.
Grazie all’esito positivo dell’audit VCAP, le celle di carico HBM
rappresentano la prima scelta per i produttori di bilance che esportano negli USA
COMMENTI
ALLE NORME
▲
COMMENTI ALLE NORME: LA 17025
A cura di Nicola Dell’Arena ([email protected])
Assicurazione della Qualità
Parte 3a
COMMENTS ON STANDARDS: UNI CEI EN ISO/IEC 17025
A great success has been attributed to this interesting series of comments by
Nicola Dell’Arena to the Standard UNI CEI EN ISO/IEC 17025.
RIASSUNTO
Prosegue con successo l’ampia e interessante serie di commenti di Nicola
Dell’Arena alla norma UNI CEI EN ISO/IEC 17025. I temi trattati sono: La
struttura della documentazione (n. 4/2000); Controllo dei documenti e
delle registrazioni (n. 1/2001 e n. 2/2001); Rapporto tra cliente e laboratorio (n. 3/2001 e n. 4/2001); Approvvigionamento e subappalto
(n. 3/2002 e n. 1/2003); Metodi di prova e taratura (n. 4/2003, n. 2/2004
e n. 3/2004); Il Controllo dei dati (n. 1/2005); Gestione delle Apparecchiature (n. 3/2005, n. 4/2005, n. 3/2006, n. 3/2006, n. 4/2006, n. 1/2007
e n. 3/2007); Luogo di lavoro e condizioni ambientali (n. 3/2007, n. 2/2008
e n. 3/2008); il Campionamento (n. 4/2008 e n. 1/2009); Manipolazione degli oggetti (n. 4/2009 e n. 2/2010), Assicurazione della qualità
parte 1.a (n. 4/2010), Assicurazione della qualità parte 2.a (n. 1/2011).
PROCEDURE
POSIZIONE DI ACCREDIA
La norma non
parla di procedura gestionale, ma
ritengo necessario che il laboratorio emetta e
applichi una procedura gestionale, dove riportare
tutto quello che
intende fare per
rispettare
la
17025: controlli, metodi, modalità, frequenza, documenti di pianificazione,
registrazione della qualità da utilizzare,
responsabilità del personale.
Insieme alla procedura gestionale il
laboratorio dovrà emettere una serie
di procedure tecniche sui controlli
della qualità da effettuare e sui metodi che intende utilizzare. Nelle procedure tecniche il laboratorio deve definire e riportare il limite oltre il quale il
processo di prova non è conforme, le
modalità di esecuzione dei controllo e
del metodo, la valutazione dei risultati e quanto altro necessario.
Da questo articolo si parla di ACCREDIA, poiché dal 1 gennaio del 2010
essa è l’unico organismo di accreditamento italiano riconosciuto dal governo
e comunicato a livello mondiale, e che
dal 1° luglio è diventato operativo
anche il settore delle tarature.
Nel corso del 2010 ACCREDIA ha
emesso due documenti: il primo (RT-08),
dal titolo “Prescrizioni per l’accreditamento dei laboratori di prova”, che si
applica ai laboratori del SINAL, e il
secondo (RT-25), dal titolo “Requisiti
specifici per l’accreditamento dei Laboratori di Taratura” che si applica ai Centri SIT. I due documenti (nel caso del
capitolo 5.9) confermano quasi tutti i
requisiti precedenti, e sono diversi per i
due settori interessati.
LABORATORI DI PROVA
Sul punto 5.9.1, si presenta la solita
laconica e generica frase “si applica il
requisito di norma” e la seguente
aggiunta: “l’attività del laboratorio
relativa a questo requisito deve essere
descritta nel manuale qualità o altro
documento del laboratorio, in particolare relativamente a pianificazione,
effettuazione delle prove, valutazione
dei risultati, azioni correttive, documentazione e conservazione delle registrazioni”. Non c’era a mio parere
alcun bisogno di precisare che doveva
essere riportato nel manuale della qualità (tengo a precisare l’aggiunta di
“della” che in italiano è un errore di
grammatica) poiché è normalissimo
che nel manuale si riportino le modalità e le responsabilità in applicazione
ai requisiti della norma.
Il documento si prolunga moltissimo
solamente ed esclusivamente sui confronti interlaboratori come si vede nel
seguito. “Il laboratorio deve, ove possibile, rivolgersi a organizzazioni di
confronti interlaboratorio che operino
in conformità alla norma UNI CEI EN
ISO/IEC 17043 (per esempio rivolgendosi ad organizzazioni accreditate per tali attività oppure che dichiarino di operare in conformità alla suddetta norma)”. In questo requisito c’è
una profonda novità rispetto a quanto
fatto finora. Gli organismi internazionali hanno previsto che gli organizzatori dei confronti devono essere accreditati (a mio parere sarebbe stato
meglio che fossero certificati) in accordo alla ISO 17043. Con questa novità il laboratorio deve partecipare solamente a confronti organizzati da
organismi accreditati.
Rivolgersi a organizzazioni non
accreditate ma che dichiarino di operare in conformità alla ISO 17043 va
bene in un primo periodo, quando
non esistono organismi accreditati,
ma una volta a regime ciò non
dovrebbe essere più permesso. Inoltre l’utilizzo di organizzazioni non
accreditate graverà inevitabilmente il
laboratorio di un compito improprio:
valutare e verificare la conformità
T_M
N.
2/11 ƒ 153
▼
dell’organizzazione all’ISO 17043.
“I laboratori devono comunicare ad
ACCREDIA la loro partecipazione a
confronti interlaboratorio, tenendo a
disposizione degli ispettori, ed inviando su richiesta di ACCREDIA una sintesi dei risultati forniti, i valori di riferimento e i criteri di valutazione dell’organismo organizzatore del circuitovedi RT 24”. È a mio parere una precisazione giusta, tuttavia si poteva
limitarla solamente alla valutazione
degli ispettori durante la visita di sorveglianza, senza che il laboratorio
invii quantità eccessive di documenti,
oppure si può richiedere solamente il
giudizio finale (positivo e negativo con
azioni correttive) emesso dall’organismo organizzatore.
“La partecipazione a circuiti interlaboratorio può essere richiesta da ACCREDIA a laboratori in corso di accreditamento o già accreditati come elemento
di valutazione per la concessione o il
NEWS
TERMOCAMERA
A INFRAROSSI
CON INTERFACCIA USB
Optris (distribuito da Luchsinger srl) presenta la nuova termocamera per applicazioni fisse in linea, ideale per le ispezioni dei processi, anche ad alte temperature. Facile da installare grazie alle sue
dimensioni ultra compatte di soli 45 x 45
x 62 mm per un peso complessivo di soli
250 g e al suo grado di protezione IP67.
La termocamera Optris® PI fornisce in
continuo con una velocità di 120 immagini al secondo (120
Hz) informazioni precise sulla temperatura da
-20 °C a 900 °C. Possiede una eccellente
sensibilità termica di
0,08 °K, è disponibile
con lenti intercambiabili di 6° FOV e 23° FOV
e 48° FOV, con rispettive focali di 1,6 - 0,7 e
1 mm e risoluzione ottica delle immagini di
160 x 120 pixel. La ter-
T_M ƒ 154
N. 02ƒ
; 2011
▲
COMMENTI
ALLE NORME
mantenimento dello stesso”. È una precisazione non necessaria, in quanto la
partecipazione é un requisito obbligatorio contenuto nella 17025 e inoltre il
dubbio “può essere richiesta” è errato
per i laboratori già accreditati, ma può
essere valido per quelli in corso di
accreditamento, i quali non essendo
ancora accreditati non hanno l’obbligo
del rispetto di tutta la norma.
“Le risultanze dei circuiti interlaboratorio si affiancano alle risultanze delle
visite di valutazione di ACCREDIA e
contribuiscono alla verifica della competenza tecnica dei laboratori accreditati e della loro conformità ai requisiti
della UNI CEI EN ISO/IEC 17025, in
quanto forniscono indicazioni aggiuntive sulla competenza del laboratorio
nella effettuazione di specifici tipi di
prove”. Tutto ciò non è un requisito e
non è necessario riportarlo, ma è solamente lo scopo finale del confronto, e
cioè la possibilità di valutare e parago-
mocamera è dotata di interfaccia e alimentazione USB 2.0 con cavo di lunghezza fino a 20 m, di uscite analogiche
0-10 V e di ingresso trigger. Il software
incluso e costantemente aggiornato consente di impostare i parametri quali emissività, modalità di misura e gamma di
colori, di controllare in remoto la termocamera, acquisire video e snapshot e di
analizzare le immagini. Sono disponibili
numerose modalità di misura tra cui l’inseguimento di un hot-spot o cold-spot
oppure la misura di aree predefinite con
visualizzazione automatica di temperatura massima, minima e media.
Per ulteriori informazioni, visitare il sito
internet www.luchsinger.it.
nare la competenza tecnica di un laboratorio ed è il motivo stesso per cui è
stato messo nella norma.
“Nel caso di risultati ottenuti da un
laboratorio accreditato non rientranti
nei criteri di accettabilità previsti dal
programma del circuito, il laboratorio
deve fornire evidenza di avere indagato sulle cause e attuato idonee
azioni correttive”. Lo scopo del confronto è proprio quello di confrontare
e valutare la competenza tecnica di un
laboratorio con un altro laboratorio. È
chiaro che se i risultati sono molto
diversi il laboratorio deve attuare tutte
le azioni necessarie per mettersi al
livello degli altri. È bene che ACCREDIA specifichi tra i requisiti l’adozione
di azioni correttive, anche se non
necessario poiché la 17025 (al punto
5.9.2) prevede l’adozione di azioni
per superare la non conformità.
“Nel caso di gravi non conformità
ACCREDIA può decidere se: a) far partecipare il laboratorio ad un nuovo
ciclo di prove di confronto; b) far effettuare una visita di valutazione suppletiva; c) notificare al laboratorio provvedimenti di sospensione dell’accreditamento per le prove in oggetto. Nell’ultimo caso, il ripristino dello status di laboratorio accreditato per le prove in
oggetto è subordinato agli esiti positivi
di una nuova visita di valutazione e/o
alla partecipazione ad un idoneo circuito interlaboratorio”. Come si vede
ACCREDIA prevede azioni via via crescenti a seconda della gravità della non
conformità. Naturalmente il provvedimento di sospensione è un caso limite
che però può verificarsi. Durante le fasi
di accreditamento e di sorveglianza è
valutata l’incertezza della prova, e l’accreditamento viene dato se l’incertezza
rientra nella normalità. Quindi devono
accadere fatti eclatanti per far sì che il
laboratorio non sia più conforme e riceva la sospensione.
Nè la norma né ACCREDIA prevedono
un limite all’incertezza oltre il quale al
laboratorio viene notificata la sospensione. Tale limite oggi è quantificato
dall’organizzatore del confronto in
base alle esperienze tecniche di ogni
singola prova oppure ina base a delle
norme tecniche ove esistono e lo fa
rispettare. Qual è il consiglio da dare a
N. 02ƒ
;2011
LABORATORI DI TARATURA
ACCREDIA, per i laboratori di taratura,
al paragrafo 5.9.1 aggiunge i seguenti requisiti:
1) il Laboratorio/Centro deve predisporre un adeguato sistema di conferma
metrologica per i campioni, gli strumenti e le apparecchiature in dotazione;
2) per la conferma metrologica il Laboratorio/Centro può rifarsi alla UNI EN
ISO 10012;
3) ACCREDIA raccomanda l’analisi sta-
tistica dei dati storici delle tarature di
campioni e strumenti un uso;
4) oltre ai confronti di misura organizzati da ACCREDIA, il Laboratorio/Centro deve dimostrare la partecipazione a
periodici confronti sperimentali effettuati in ambito nazionale o internazionale
(tramite ad es. fornitori accreditati);
5) quando un Laboratorio/Centro partecipa a confronti interlaboratorio non
organizzati da ACRREDIA, con l’intenzione di utilizzarne i risultati per dimostrare le proprie competenze nel processo di accreditamento, deve informare preventivamente ACCREDIA.
Il primo e secondo requisito potrebbero
rientrare un questo capitolo: tuttavia la
loro collocazione migliore sarebbe
stata nel capitolo delle apparecchiature
o in quello della riferibilità. Il terzo requisito sarebbe stato più appropriatamente inserito nei capitoli riguardanti la
taratura e non in questo, anche se il
suggerimento dell’analisi statistica è
appropriato.
Il SIT, fino ad oggi, ha sempre organizzato confronti di misura durante le visite e interconfronti a livello nazionale e
internazionale per tutte le grandezze
accreditate. Oggi, come settore di
ACCREDIA, non può più organizzare
interconfronti: era dunque opportuno e
necessario inserire il quarto e il quinto
requisito. Sul quinto requisito si poteva
però aggiungere qualcosa sulla valutazione dei risultati ottenuti dal laboratorio nell’interconfronto.
Sul punto 5.9.2 ACCREDIA (ex SIT)
aggiunge due nuovi requisiti: 1) “il
Laboratorio/Centro deve predisporre
procedure per l’analisi statistica dei dati
raccolti dalla conferma metrologica,
per esempio carte di controllo o più
semplicemente diagrammi dei valori di
taratura e verifica rispetto ai limiti prestabiliti”; 2) “i dati derivanti dalle attività descritte nel presente paragrafo
devono essere riesaminati dal Laboratorio/Centro e le azioni conseguenti
devono essere trattate secondo le procedure dei proprio sistema di gestione
per la Qualità (Non Conformità, Azioni
Correttive/Preventive, Riesami della
Direzione e Piani di Miglioramento)”.
Sul primo requisito la differenza tra ex
SINAL ed ex SIT è grande. Infatti l’ex
SINAL chiede l’utilizzo delle carte di
■
un laboratorio? “State attenti e agite
prima che sia troppo tardi per non andare fuori con l’incertezza e ricevere la
sospensione”.
Sul punto 5.9.2 ACCREDIA (ex SINAL)
aggiunge il seguente requisito: “i risultati dei confronti interlaboratori periodici o delle prove su materiali di riferimento devono essere gestiti con carte di
controllo per verificare eventuali tendenze e l’efficacia delle azioni correttive/preventive eventualmente attuate”.
L’utilizzo delle carte di controllo per
valutare la situazione e l’evoluzione di
un processo è utile e valido. Nel caso
di confronti interlaboratorio eseguiti
con periodo di due o più anni, esso
risulta essere uno strumento poco significativo anche se valido. Nel caso del
controllo della qualità sui materiali di
riferimento secondari, può essere uno
strumento utile, anche se al primo avviso di deriva dalla conformità al laboratorio conviene adottare immediate azioni correttive. Nel caso di applicazione
alla valutazione dell’efficacia delle
azioni correttive/preventive mi sembra
eccesivo utilizzare le carte di controllo.
“Si rammenta inoltre che le altre attività
elencate al punto 5.9 della norma, che
devono essere effettuate con opportuna
frequenza possono essere gestite con
carte di controllo”. In questa revisione
del documento ACCREDIA si ricorda
che esistono altri metodi da utilizzare.
Naturalmente, ove possibile, l’utilizzo
delle carte di controllo è appropriato.
Lo è meno la generica “opportuna frequenza” che rispecchia la situazione
attuale: sarebbe auspicabile che, prova
per prova, si stabilisca una frequenza
uguale per tutti i laboratori.
COMMENTI
ALLE NORME
controllo per l’interconfronto e per i
materiali di riferimento; l’ex SIT lo chiede per la conferma metrologica, argomento poco attinente con questo punto
della norma. La conferma metrologica
è uno strumento, interno al laboratorio,
valido ad assicurare la qualità dei risultati di prova e taratura ottenuti da un
laboratorio, ma è già tutto descritto in
un altro capitolo della norma. Anche
per questo motivo ho scritto che il capitolo 5.9 doveva riguardare solamente
l’interconfronto. La richiesta della predisposizione delle procedure non deve
spaventare, basta inserire la valutazione dei risultati nella procedura sulla
conferma metrologica.
Il secondo requisito è stato totalmente
tolto dalla Guida alla predisposizione
del manuale della qualità del SIT: tuttavia l’applicazione di tutte le procedure
elencate nulla ha a che vedere con il
contenuto del punto 5.9, poiché lo stesso punto dice cosa fare, e cioè “adottare azioni pianificate”.
Prima di chiudere mi piace far notare
una novità, anche se non attinente
all’assicurazione della qualità. Tra la
documentazione di ACCREDIA non esiste più la “Guida alla predisposizione
del manuale della qualità”. Personalmente lo ritengo estremamente positivo,
e in sede SIT ho sempre sostenuto che
un organismo di accreditamento (e di
certificazione) non dovesse emettere un
documento che indicasse che cosa si
deve riportare nel manuale della qualità. Lo ritenevo pericoloso poiché un
laboratorio inesperto sui sistemi qualità
è portato a copiare interamente la
guida senza capire cosa stia facendo
(purtroppo ho esperienza in proposito).
CONCLUSIONE
In conclusione porto all’attenzione tre
aspetti per una migliore comprensione
della norma: 1) bisogna effettuare azioni di controllo della qualità e applicare
i metodi; 2) bisogna selezionare i metodi e i controlli che meglio si adattano
alla propria prova/taratura, tenendo
conto del volume delle attività svolte
durante l’anno; 3) è opportuno e utile
partecipare a interconfronti, meglio se
a quelli internazionali.
T_M ƒ 155
STORIA E
CURIOSITÀ
▲
Emilio Borchi1, Renzo Macii2, Riccardo Nicoletti3, Alberto Nobili4
La collezione degli antichi
strumenti di Ottica dell’Osservatorio
Valerio di Pesaro
Parte II – Gli strumenti
THE COLLECTION OF ANCIENT MEASUREMENT INSTRUMENTS
OF THE “VALERIO” OBSERVATORY IN PESARO
In the second article of this series the authors continue the description of the
rich collection of ancient instruments conserved in the Valerio Observatory
of Pesaro, including instruments for the meteorology, astronomy, geodesy
and geomagnetism.
RIASSUNTO
Continua con questo numero la descrizione della ricca collezione di strumenti di misura conservata presso l’Osservatorio meteorologico e sismologico Valerio del Comune di Pesaro, che annovera strumenti di meteorologia, di astronomia, di geodesia, di geomagnetismo e di sismologia.
GLI STRUMENTI DI OTTICA
DELL’OSSERVATORIO VALERIO
Una parte ragguardevole degli strumenti storici della collezione rientrano
nel settore dell’ottica, in particolare
dell’ottica astronomica e di quella
meteorologica. Essi furono acquistati
tutti durante la direzione del Guidi.
Complessivamente rappresentano una
frazione rilevante dell’intera collezione degli strumenti storici dell’Osservatorio. In questa parte ci occuperemo
principalmente di loro, distribuiti nei
vari settori di astronomia, geomagnetismo, meteorologia e sismologia.
Successivamente verranno descritti,
settore per settore, gli altri strumenti
della collezione.
a. Strumenti astronomici e geodetici: essi
sono, insieme ai magnetometri, i più antichi della collezione Uno degli ultimi strumenti astronomici, acquistato dal Guidi
verso il 1870, fu il cannocchiale dei passaggi di Negretti e Zambra.
b. Strumenti di geomagnetismo: alcuni
degli strumenti magnetici facevano
parte della primitiva strumentazione del
Guidi degli anni 1856-58. Il declinometro, l’inclinometro e il bifilare erano
stati acquistati nel 1864. Il teodolite
magnetico tipo Brunner del Tecnomasio
Italiano fu acquistato verso il 1880.
c. Strumenti di meteorologia: dei moltis-
T_M
N.
GLI STRUMENTI DI ASTRONOMIA,
GEODESIA E TOPOGRAFIA
Tra gli strumenti di astronomia ricordiamo Il telescopio rifrattore di Merz
(Fig. 4), le cui ottiche furono costruite
nel 1864 da Sigmund Merz (18241908) di Münich mentre il tubo di
legno del telescopio e la montatura
dell’oculare erano stati forniti in tempi
successivi da Ertel & Sohns (17931867) di Münich nel 1866. L’apertura utile del cannocchiale è di 11 cm e
la distanza focale è di 160 cm. Lo
strumento possiede tre oculari di vario
ingrandimento. In seguito fu dotato di
due elioscopi, uno di Merz e l’altro di
Cavalleri, e di uno spettroscopio a
visione diretta di Hoffmann ceduto nel
1937 all’Istituto Magistrale di Pesaro.
simi strumenti di meteorologia quelli di
esse ottico riguardano l’ottica meteorologica. Il Guidi accenna ad alcuni apparecchi nell’avvertenza del “Bullettino
Mensile” del luglio 1875: “…il colore
dell’atmosfera è determinato col polarimetro di Arago, il quale serve anche per
lo studio della polarizzazione atmosferica, la temperatura solare è misurata coll’eliometro del Secchi. L’intensità chimica
della luce si determina col metodo di
Roscoe”. Rientrano in questo settore anche i nefoscopi di cui l’osservatorio Valerio conserva un pregevole esemplare.
Gli strumenti di sismologia: riguardo
agli strumenti sismologici, il Calvori
commenta: “Quando l’osservatorio
venne fondato non possedeva che un
semplice pendolo Cavalleri. Nel 1876
(gennaio) fu impiantato il tromometro
normale col quale si fecero osservazioni abbastanza regolari fin dal momento della sistemazione. Nel gennaio
1877 si impiantò il sismografo a carte
affumicate del Cecchi, completo. Nel
Figura 4 – Telescopio di Merz
1879 venne acquistato il microsismografo De Rossi che però non fu mai
posto in completo stato d’azione”. Altri
strumenti vennero acquistati dai diretto- 1 Università di Firenze e
Osservatorio Ximeniano di Firenze
ri successivi dell’Osservatorio.
Attualmente, a parte il cannocchiale 2 Osservatorio Ximeniano di Firenze
di osservazione del tromometro, non 3 CSO Srl, Badia a Settimo, Firenze
ci sono altri strumenti di ottica nel set- [email protected]
4 Osservatorio Valerio, Comune di Pesaro
tore della sismologia.
2/11 ƒ 156
N. 02ƒ
;2011
Parte di questi accessori, contenuti in
una cassetta di legno, ci sono pervenuti in buone condizioni. Tra gli accessori menzioniamo l’elioscopio di
Sigmund Merz, del 1866 e quello di
Cavalleri, costruito dal Tecnomasio
Italiano del 1870.
Lo strumento dei passaggi dei costruttori Negretti e Zambra (Fig. 6), che
operavano a Londra dalla metà dell’Otttecento, venne acquistato da Luigi
Guidi verso il 1870. Esso è costituito
da un cannocchiale situato nel piano
meridiano ed ha un movimento attorno a un asse orizzontale in modo che
il suo asse ottico descrive il piano meridiano. Non è quindi necessario collocarlo sotto una cupola girevole, ma
basta praticare nell’edificio un’apertura lunga e stretta nella direzione del
meridiano locale.
Figura 6 – Strumento dei passaggi
Figura 5 – Disegno di Pio Calvori con la parte
dell’Osservatorio relativa alla cupola
Il telescopio rifrattore è sopravvissuto
quasi intatto con i suoi accessori. Il
recente restauro ha ripristinato la verniciatura originaria delle parti metalliche (che erano state cromate) e la stabilità del tubo di legno (che si era crepato longitudinalmente). Lo strumento
è dotato di un piccolo cercatore e di
diversi oculari con filtro solare e con
prisma, di oculare per spettroscopio e
di obbiettivi astronomici e terrestri.
La stanza prende il nome di stanza
della meridiana. L’asse orizzontale di
rotazione ha i punti di appoggio
sopra due robuste colonne, generalmente in muratura.
Nello strumento di Pesaro due semiassi, sagomati in forma tronco-conica
e avvitati a un corpo sferico centrale
costituiscono l’asse di rotazione. L’asse poggia su due supporti metallici ai
quali sono permessi piccoli movimenti
tanto in altezza quanto sul piano orizzontale. Due livelle, una grande l’altra più piccola, permettono di verificare l’orizzontalità dell’asse. Quella
grande, che può collocarsi sui perni
dell’asse di rotazione, ne dà direttamente l’inclinazione in secondi di
tempo siderale. Da un lato dello strumento un circolo zenitale di 21 cm di
▲
Nei primi anni lo strumento di Ertel
era montato su un robusto cavalletto
di legno, in seguito gli fu realizzata
una montatura equatoriale di ferro.
Durante la direzione del Guidi vennero eseguite alcune osservazioni di
macchie solari. Dopo la ristrutturazione dell’Osservatorio da parte di Calvori, l’equatoriale ebbe stabile dimora sotto la cupola mobile. Nella Fig. 5
è riportato il disegno di Calvori della
parte dell’Osservatorio relativa alla
cupola. La camera dell’equatoriale
era a base circolare di 2,27 m di diametro, con una camera cilindrica laterale in muratura, alta 2,10 m sulla
base. Su questa parte cilindrica in
muratura si appoggiava la struttura
perfettamente emisferica della cupola.
STORIA E
CURIOSITÀ
raggio con scala circolare con due
noni e i microscopi di lettura serve a
leggere l’altezza dell’astro in osservazione al passaggio dal piano del
meridiano. La scala è divisa di 30’ in
30’, i noni permettono di apprezzare
il primo. Dall’altro lato una lanterna
serve a illuminare di notte il reticolo
del cannocchiale. Quest’ultimo ha il
micrometro con sette fili fissi.
Anche il cannocchiale è costituito da
due tubi avvitati al corpo centrale. Il
bellissimo strumento, recentemente
restaurato, è corredato di cinque oculari di vario ingrandimento e di altri
accessori: una livella piccola, una
livella grande, un paralume, un riduttore di apertura e un’asta per comandare i movimenti.
Un piccolo strumento che veniva utilizzato per il calcolo del mezzogiorno vero è il prisma dei passaggi dei
costruttori francesi Lerebours et
Secretan di Parigi (Fig. 7). Acquistato nel 1860 esso è composto da un
massiccio prisma di vetro la cui
sezione è quella di un triangolo isoscele rettangolo. Il prisma appoggia
la base sopra una piattaforma che
può eseguire un piccolo movimento
orizzontale e un leggero movimento
di basculla. La piattaforma è sostenuta da una robusta colonna che si
eleva sopra una larga base rettangolare. Vicino al prisma si trova un
piccolo cannocchiale il cui asse ottico è posto sul prolungamento della
faccia ipotenusa del prisma. Questa
faccia è rivolta verso l’esterno dello
strumento ed è parallela al lato maggiore della base. Se con il cannocchiale si osserva un oggetto lontano
situato quasi sulla superficie piana
che contiene la faccia ipotenusa, si
vedono due immagini vicine l’una
all’altra. Ruotando leggermente lo
strumento sul piano orizzontale si
vedono le due immagini spostarsi in
senso contrario. Ad esempio, se con
la rotazione le immagini si avvicinano, continuando a ruotare nello stesso verso esse si sovrappongono e
successivamente si allontanano l’una
dall’altra. Al momento della sovrapposizione l’oggetto si troverà esattamente sul piano che contiene la faccia ipotenusa.
T_M ƒ 157
Figura 7– Il prisma dei passaggi
dell’osservatorio Valerio
Per calcolare il mezzogiorno vero lo
strumento veniva posizionato in modo
che la faccia ipotenusa del prisma si
trovasse sul piano meridiano. Quando il sole si trovava a passare su quel
piano le sue due immagini si sovrapponevano in una sola. Lo strumento
veniva orientato sul piano meridiano
per mezzo di un cronometro o, preferibilmente, per mezzo delle stelle. A
questo scopo si sospendeva davanti
al prisma, a una distanza di 4 o 5 m
un filo a piombo la cui massa era
immersa in un recipiente d’acqua per
evitare al massimo movimenti oscillatori. Quando la stella polare si trovava dietro al filo a piombo insieme alla
ε dell’Orsa Maggiore o alla γ di Cassiopea, essa giaceva con buona
approssimazione sul piano meridiano. Bastava perciò, dopo aver verificato la verticalità del prisma, orientarlo lungo la direzione così individuata. Il suo stato di conservazione
era molto precario. Durante l’ultimo
T_M ƒ 158
N. 02ƒ
; 2011
▲
STORIA E
CURIOSITÀ
restauro è stata riverniciata la base e
la colonna dello strumento. È stato
progettato e costruito il cannocchiale
di osservazione in ottone (lunghezza
circa 15 cm, diametro 20 mm) con
lenti in vetro per l’obbiettivo e l’oculare, messa a fuoco telescopica e filtro
solare. È stato costruito un prisma a
riflessione totale in plexiglass. Le
dimensioni delle parti ricostruite sono
uguali a quelle originali.
Un altro strumento al quale vogliamo
accennare è il pregevole sestante del
costruttore londinese William Paton. Il
sestante fu acquistato dal Guidi presso il rivenditore Amadori di Bologna
nel 1870. L’uso del sestante in un
osservatorio meteorologico è piuttosto
improprio e per questo motivo il Calvori subito dopo la morte del Guidi
pensò di metterlo in vendita, insieme
a un orizzonte artificiale, per finanziare la ristrutturazione dell’Osservatorio.
L’Osservatorio Valerio ha in dotazione anche numerosi cannocchiali di lettura e di osservazione con livella e
treppiede di celebri costruttori francesi dell’Ottocento e molti oculari con
cerchio graduato.
Tra gli strumenti geodetici ricordiamo
un bellissimo esemplare, il piccolo
teodolite di Ertel a cannocchiale spezzato, del costruttore tedesco Ertel &
Sohns, di Münich, che fu acquistato
dal Guidi nel 1861 (Fig. 8). Lo strumento avrebbe dovuto essere utilizzato dallo scienziato per le misure assolute di declinazione magnetica secondo il metodo di Gauss e infatti in un
vecchio inventario era individuato
come “cannocchiale di osservazione
del magnetometro declinometro”. In
realtà il Guidi eseguì pochissime
misure assolute, limitandosi solo a
quelle relative. Il Calvori nel 1884
mise in vendita lo strumento insieme al
teodolite di Ertel modello grande,
anch’esso acquistato dal Guidi nel
1861. Mentre quest’ultimo strumento
fu acquistato dal Tacchini per l’Istituto
Centrale di Meteorologia, il piccolo
teodolite di Ertel rimase all’Osservatorio Valerio e fu utilizzato solo sporadicamente per misure geodetiche. Lo
strumento, completamente restaurato,
è corredato da due oculari.
Figura 8 – Piccolo teodolite di Ertel
L’altezza della colonnetta sulle tre viti
di livello è di circa 15 cm. Alla sua
sommità si trovano, concentrici e a
raggi, il cerchio orizzontale e quello
dell’alidada, il secondo interno al
primo ed entrambi sullo stesso piano
orizzontale. Al centro dell’alidada e
imperniata nel suo asse è posta la forcella, con piattaforma circolare, che
ferma le braccia di sostegno del cannocchiale. La lettura si esegue lateralmente per mezzo di un prisma a 45°
che rinvia ad angolo retto i raggi provenienti dall’obbiettivo, e quindi nel
tubo dell’oculare prolungato al di là
del cerchio zenitale. Dalla parte
opposta dell’oculare l’asse del cerchio termina con un contrappeso
cilindrico e con un foro per l’illuminazione del reticolo. Il cerchio verticale
è ripetitore. Il cannocchiale spezzato
e quello di spia, che è fissato alla
colonna centrale e ha la propria vite
di richiamo, hanno l’obbiettivo rispettivamente di circa 30 mm e di 23 mm
con distanza focale di 38 cm e
ingrandimento di 20 volte. Sulla montatura dell’obbiettivo del cannocchiale
spezzato è incisa la scritta “Merz,
Utzschneider und Fraunhofer in München”.
Uno notevole strumento di topografia
è la bussola teodolite con cavalletto di
legno a treppiede dei costruttori parigini Lerebours et Secretan, Lo strumento fu acquistato dal Guidi verso il
1865 (Fig. 9). La parte principale
N. 02ƒ
;2011
che dà il primo. Il movimento è regolato da una vite micrometrica d’arresto e di richiamo.
Il cannocchiale si muove parallelamente ad un cerchio zenitale completo di
ottone, diviso in terzi di grado, del diametro di 14 cm e il nonio che dà i 30’’.
Il cannocchiale ha apertura di 15 mm
e la distanza focale di 16 cm. Il circolo zenitale e il cannocchiale sono equilibrati da un contrappeso cilindrico di
ottone. La bussola teodolite è uno strumento da utilizzare nelle osservazioni
speditive. Sembra però che sia stato
usato molto raramente dal personale
dell’Osservatorio Valerio.
▼
casi possibilità ottimali: l’isolamento tra unità trasmittente e unità ricevente, infatti,
avviene tramite fibre ottiche,
MISURAZIONE
che trasmettono i dati di
SICURA
misurazione in modo sicuro
IN PRESENZA
e veloce.
DI ALTA TENSIONE Alla famiglia di prodotti
ISOBE5600 si aggiunge ora l’unità ricevente ISOBE5600m,
dotata di quattro canali, che dispone di un
registratore transitori
integrato con una memoria di 64 MB per misurazioni con un PC
collegato. Per la valutazione dei dati, successiva alla misurazione,
HBM offre il software
Perception.
Il sistema trova impiego soprattutto per le
misurazioni in presenza di alta tensione.
Esempi tipici si trovano
nei convertitori di frequenza, ad esempio
Registratore transitori composto dalla
per gli impianti di enernuova unità ricevente ISOBE5600m,
gia eolica, trasmissioni
il PC esterno collegato
con modulazione a lare il software Perception
ghezza di impulsi per
Le operazioni di misurazione grandi motori o fonti CC ad
in presenza di alta tensione alta tensione per applicazioimpongono requisiti particola- ni dell’elettrolisi.
ri alla tecnica di misura impiegata. Il sistema ISOBE5600 di Per ulteriori informazioni sul
HBM Test and Measurement, sistema di misura ISOBE5600
specialista in tecnica di misu- e la nuova unità ricevente:
razione, offre per questi www.hbm.com/isobe5600.
NEWS
NEWS
Fig. 9 – Bussola teodolite
■
della bussola è l’ago calamitato situato in fondo a una scatola circolare di
ottone e poggiato mediante un cappelletto di agata su un perno d’acciaio. La scatola appoggia su una
corta colonna, con treppiede di ottone a viti di livello, che termina con
una giuntura a nocella per poter essere fissata a un cavalletto di legno. Gli
estremi dell’ago percorrono un cerchio diviso in mezzi gradi e si dispongono invariabilmente nel piano
del meridiano magnetico locale. La
bussola scorre sopra un piano azimutale di ottone diviso in mezzi gradi,
del diametro di 14 cm, con il nonio
■
STORIA E
CURIOSITÀ
CONTROLLER DI
PROCESSO HBM
COMPRENSIVI
DI MACRO
PER EPLAN
ELECTRIC P8
I controlli di qualità sono sempre più importanti nell’odierno contesto produttivo.
I controller di processo della
serie MP85A di HBM, ad
esempio, vengono impiegati
negli impianti di produzione
industriali per il monitoraggio
della qualità, per controllare i
processi di piantaggio e di
assemblaggio, le prove di
commutazione, ecc. Il controller segnala e documenta se il
pezzo finito è “OK” o “non
OK” e, grazie alla rapida
valutazione degli errori, la
qualità della produzione
aumenta, rendendo possibile
reagire con anticipo ai problemi, prima ancora che vengano
prodotti pezzi difettosi.
Per i controller di processo
HBM fornisce ora idonee
macro EPLAN, che facilitano
al cliente la perfetta integrazione dei controller nella progettazione del proprio sistema
di automazione. EPLAN Electric P8 è uno strumento ingegneristico supportato da banche dati ampiamente diffuso,
soprattutto nei settori di costru-
zione macchine e impianti. Il
moderno software CAE offre
all’utente una facile progettazione, documentazione e
gestione dei sistemi di automazione. Tramite le macro l’utente può ora acquisire con estrema facilità i controller di processo MP85A nella propria
progettazione.
Dopo l’importazione delle
macro, i dati relativi agli articoli, disegni e assegnazioni
dei connettori sono disponibili
direttamente in EPLAN Electric
P8. Il noto software CAE è
mirato, oltre che all’universalità dell’engineering, alle migliori tempistiche della progettazione, ponendo particolare
attenzione alla grafica e agli
oggetti, sulla tecnica delle
varianti e sul trasferimento
automatico delle norme.
Le macro vengono fornite, gratuitamente, insieme ai controller di processo, nel CD di
documentazione. In alternativa
è possibile scaricarle dal sito:
www.hbm.com/it/menu/
supporto/scaricamentodel-software-e-firmware/
amplificatori-industriali.
T_M ƒ 159
T U T T O _ M I S U R E
Anno XIII - n. 2 - Maggio 2011
ISSN: 2038-6974
Sped. in A.P. - 45% - art. 2 comma 20/b
legge 662/96 - Filiale di Torino
Direttore responsabile: Franco Docchio
Vice Direttore: Alfredo Cigada
Comitato di Redazione: Salvatore Baglio,
Antonio Boscolo, Marcantonio Catelani,
Marco Cati, Pasquale Daponte, Gianbartolo Picotto,
Luciano Malgaroli, Gianfranco Molinar,
Massimo Mortarino
Redazioni per:
Storia: Emilio Borchi, Riccardo Nicoletti,
Mario F. Tschinke
Le pagine delle Associazioni Universitarie di Misuristi:
Stefano Agosteo, Paolo Carbone, Carlo Carobbi,
Alfredo Cigala, Domenico Grimaldi,
Claudio Narduzzi, Marco Parvis, Anna Spalla
Lo spazio delle altre Associazioni: Franco Docchio,
Giuseppe Nardoni
Le pagine degli IMP: Domenico Andreone,
Gianfranco Molinar, Maria Pimpinella
Lo spazio delle CMM: Alberto Zaffagnini
Comitato Scientifico: ACISM-ANIMA (Roberto
Cattaneo); AICQ (Giorgio Miglio); AEI-GMTS
(Claudio Narduzzi); AIPnD (Giuseppe Nardoni);
AIS-ISA (Piergiuseppe Zani); ALPI (Lorenzo Thione);
ANIE (Marco Vecchi); ANIPLA (Marco Banti,
Alessandro Ferrero); AUTEC (Anna Spalla),
CNR (Ruggero Jappelli); GISI (Abramo Monari);
GMEE (Giovanni Betta); GMMT (Paolo Cappa,
Michele Gasparetto); GRUPPO MISURISTI
NUCLEARI (Stefano Agosteo)
INMRI – ENEA (Pierino De Felice, Maria Pimpinella);
INRIM (Elio Bava, Flavio Galliana, Franco Pavese);
ISPRA (Maria Belli); OMECO (Clemente Marelli);
SINAL (Paolo Bianco); SINCERT-ACCREDIA
(Alberto Musa); SIT (Paolo Soardo);
UNIONCAMERE (Enrico De Micheli)
Videoimpaginazione: la fotocomposizione - Torino
Stampa: La Grafica Nuova - Torino
Autorizzazione del Tribunale di Casale Monferrato
n. 204 del 3/5/1999.
I testi firmati impegnano gli autori.
A&T - sas
Direzione, Redazione,
Pubblicità e Pianificazione
Via Palmieri, 63 - 10138 Torino
Tel. 011 0266700 - Fax 011 5363244
E-mail: [email protected]
Web: www.affidabilita.eu
Direzione Editoriale: Luciano Malgaroli
Massimo Mortarino
È vietata e perseguibile per legge la riproduzione
totale o parziale di testi, articoli, pubblicità e immagini pubblicate su questa rivista sia in forma scritta
sia su supporti magnetici, digitali, ecc.
L’IMPORTO DELL’ABBONAMENTO ALLA PRESENTE PUBBLICAZIONE È INTERAMENTE DEDUCIBILE. Per la deducibilità del costo ai fini fiscali fa fede la ricevuta del versamento
effettuato (a norma DPR 22/12/86 n. 917 Art. 50 e Art. 75). Il
presente abbonamento rappresenta uno strumento riconosciuto di aggiornamento per il miglioramento documentato
della formazione alla Qualità aziendale.
NEL PROSSIMO NUMERO
• Visione Artificiale per l’Industria
• Confronti remoti di frequenze campione
E molto altro ancora
T_M
N.
ABBIAMO
LETTO PER VOI
■
La Redazione di Tutto_Misure
([email protected])
S.E.O. OTTIMIZZAZIONE WEB
PER MOTORI DI RICERCA
di Davide Vasta
Apogeo Editore
288 pagine
ISBN 9788850328147: € 21,75, 2009
Per SEO, acronimo di Search Engine Optimization, si intendono le tecniche e le nozioni utili
per migliorare il posizionamento di un sito web negli indici dei motori di ricerca in modo da
garantirgli la maggiore visibilità possibile. I professionisti SEO cercano quindi di guardare i
siti con gli “occhi dei motori di ricerca”, migliorandone il codice e studiandone le relazioni
sia con il Web, sia con le varie reti sociali. Questo libro, dedicato agli sviluppatori web professionisti, porta il lettore alla conoscenza delle tecniche e degli strumenti SEO seguendo la
convinzione che essere ben posizionati su Google (e sugli altri motori) è ormai una necessità fondamentale perchi vivee lavora con la Rete. Un libro SEO per webmaster, webdesigner
e sviluppatori web che desiderano migliorare la posizione dei siti web nei motori di ricerca.
L’AUTORE
Davide Vasta ha lavorato nel campo della grafica pubblicitaria per più di 20 anni. Insegna nei corsi complementari di Computergrafica e Tecniche ed Applicazioni Digitali presso l’Accademia di Belle Arti Pietro Vannucci di Perugia. Dal 2004 insegna nei medesimi
corsi presso la Facoltà di Lettere e Filosofia dell’Università degli Studi di Perugia. A febbraio 2003 è entrato a far parte di un ristretto gruppo di specialisti, selezionati tra oltre
600 professionisti della grafica e del web in tutta italia, dalla allora società americana
Macromedia. Nel 2006, per effetto dell’acquisizione di Macromedia da parte di Adobe,
sono entrato a far parte del ristretto gruppo di Adobe Guru italiani, come esperto dei prodotti dedicati al web.
LE AZIENDE INSERZIONISTE DI QUESTO NUMERO
AEP Transducers
p. 82
ASITA
p. 140
Bocchi
p. 081
Cal Power
p. 90, 120
CAM 2
p. 146
CCIAA di Prato
p. 118
Cibe
p. 120
Delta Ohm
p. 84
DGTS
p. 94
Expolaser
p. 114
F.lli Galli
p. 112
Fluke
p. 90, 120
HBM Italia
p. 136, 152,159
Hexagon Metrology
2a di cop., 144
2/11 ƒ 160
Kistler Italia
p. 134, 142
IC&M
p. 124
ITALECO
p. 92
Labcert
3a di cop.
Leane
p. 127
Leane.net
p. 126
LMS Italiana
4a di cop.
LTTS
p. 86
Luchsinger p. 98, 100, 154
PCB Piezotronics
p. 152
Physik Instrumente
p. 108
Renishaw
p. 88, 148
Rupac
p. 105, 107
Scandura
p. 102
Soc. Bilanciai Porro
p. 104
Studio Legale De Paolis p. 110