Scarica la rivista completa - ISCOM

Transcript

Scarica la rivista completa - ISCOM
2015
Ministero dello
Sviluppo Economico
Volume LIX Numero Unico
LA COMUNICAZIONE
Note Recensioni & Notizie
Pubblicazione dell’ISCOM - Istituto Superiore delle
Comunicazioni e delle Tecnologie dell’Informazione
SICUREZZA INFORMATICAuQUALITÀ DEL SERVIZIOuMARCATURA CEuINTEROPERABILITÀuNUMERAZIONEuINTERNET GOVERNANCEuRETI OTTICHE NGNuMICROONDEuPROGETTI DI RICERCA
uPROGETTI EUROPEIuSCUOLA SUPERIORE DI SPECIALIZZAZIONEuPATENTE EUROPEA DEL COMPUTERuCERTIFICAZIONI EUCIPuSEMINARI FORMATIVIuEVENTI DI COMUNICAZIONE ESTERNAuRIVISTA LA COMUNICAZIONEuINTERCONNESSIONEuSTANDARDIZZAZIONEuSPECIFICHE TECNICHEu
La Comunicazione N.R.&N. 2015
Ministero dello Sviluppo Economico
Istituto Superiore delle Comunicazioni e delle Tecnologie
dell’Informazione
___________________________________________________
LA COMUNICAZIONE
Note Recensioni & Notizie
Pubblicazione dell’Istituto Superiore delle Comunicazioni
e delleTecnologie dell’Informazione
Numero Unico Anno 2015
Vol. LXI
Direttore: Rita Forsi
Redazione ISCOM:
Coordinamento: Roberto Piraino
Redattori:
Corrado Pisano, Fabrizio Cardinali, Eva Alfieri,
Marcella Graziosi, Andrea Ferraris
Ministero dello Sviluppo economico
ISCOM
Viale America, 201- 00144 Roma
www.mise.gov.it , www.isticom.it
SOMMARIO
Rita Forsi
(Direttore dell’Istituto Superiore
delle Comunicazioni e delle
Tecnologie dell’Informazione)
Claudio Marciano
Dottore di Ricerca in Scienze della
Comunicazione, Dipartimento di
Comunicazione e Ricerca Sociale,
Università degli Studi di Roma "La
Sapienza".
5
Introduzione
7
Smart City.Infrastrutture fisiche e sociali
dell'urbanizzazione intelligente.
Smart City. Social and material infrastructures of
intelligent urbanisation.
1
SOMMARIO
Frank Silvio Marzano,
Augusto Maria Marziani
37
“Sapienza” Università di Roma Dipartimento di Ingegneria
dell’Informazione, Elettronica e
Telecomunicazioni
Realizzazione di una stazione terrena ricevente
satellitare per studi di propagazione
elettromagnetica in atmosfera
Realization of a satellite ground station for studies of
electromagnetic propagation in the atmosphere
Elio Restuccia
Istituto Superiore delle
Comunicazioni e delle Tecnologie
dell'Informazione (ISCOM)
Fernando Consalvi
Fondazione Ugo Bordoni
Stefano Penna, Silvia Di Bartolo,
Vincenzo Attanasio, Donato
Del Buono, Emanuele Nastri,
Anna Stefania Michelangeli
53
Debora Proietti Modi
63
Metriche e Standard per la valutazione
dell'efficienza energetica nei Data Center
Metrics and standards for the evaluation of the Data
Center Energy Efficiency
Istituto Superiore delle
Comunicazioni e delle Tecnologie
dell'Informazione (ISCOM)
Ricercatore Università Tor Vergata
presso Istituto Superiore delle
Comunicazioni (ISCOM)
ISITEP: Sistemi di Interoperabilità tra le reti TETRA e
Tetrapol
ISITEP: Inter System Interoperability for TETRA and
TetraPol Networks
Giuseppe Pierri, Franco Pangallo
Istituto Superiore delle
Comunicazioni (ISCOM)
Ministero dello Sviluppo Economico
Fabio Di Resta
Avvocato Membro del Consiglio
direttivo Master di II livello
Università Roma Tre/Dip.
Giurisprudenza LL.M. - ISO 27001
Security Lead Auditor - Data
Protection and I.P. Law Specialist Studio legale Di Resta
Agostino Giorgio
Dipartimento di Ingegneria
Elettrica e dell’Informazione
Politecnico di Bari, Via E. Orabona,
4 70125 Bari (Italy)
2
69
Il diritto all'oblio: dalla tutela nei confronti
dell'editore alla deindicizzazione delle parole chiave
nei risultati dei motori di ricerca
The right to be forgotten (RTBF): the legal protection
towards to publishers of the original content and the
delising in the results of the original content and the
delisting in the results of search engines.
87
Elettronica del fumo digitale
Digital Smoke Electronics
La Comunicazione N.R.& N.
SOMMARIO
Stefano Penna a) b)
Silvia Di Bartolo a)
Vincenzo Attanasio a)
Akira Otomo b)
Leonardo Mattiello c)
101
Tecnologie di fotonica integrata
Integrated photonic technologies: devices and
applications
a)
Istituto Superiore delle
Comunicazioni e delle Tecnologie
dell'Informazione (ISCOM)
b)
Advanced ICT Research Institute National Institute of Information
and Communications Technology
(NICT)
c)
Dipartimento di Scienze di Base e
Applicate per l`Ingegneria Sapienza Università di Roma
Silvia Di Bartolo,
Vincenzo Attanasio,
Stefano Penna,
Donato Del Buono
117
Silvio Abrate,
Riccardo Scopigno
133
Applicazione dell’ibrido fibra-FSO per collegamenti
bidirezionali passivi su reti d’accesso ad alta velocità
Application of the hybrid fiber-FSO systems for passive
duplex links in high speed access networks
Istituto Superiore delle
Comunicazioni e delle Tecnologie
dell'Informazione (ISCOM)
Istituto Superiore Mario Boella
Torino
Lo stato della banda larga in Italia: opportunità,
ostacoli, tendenze
Status of broad-band in Italy: opportunities, threats,
trends
Roberto Gaudino
Politecnico di Torino
Roberto Marani,
Anna Gina Perri
147
Una introduzione alla tecnologia RFID
An introduction to rfid technology
Dipartimento di Ingegneria
Elettrica e dell’Informazione,
Laboratorio di Dispositivi
Elettronici, Politecnico di Bari
Via E. Orabona 4, 70125, Bari
3
SOMMARIO
Francesco Matera
Fondazione Ugo Bordoni
via del Policlinico 147
00161, Roma
Agostino Giorgio
Dipartimento di Ingegneria
Elettrica e dell’Informazione,
Laboratorio di Dispositivi
Elettronici, Politecnico di Bari
Via E. Orabona 4, 70125, Bari
163
Energy consumption reduction in core networks
optimizing WDM optical system performance
175
181
Giancarlo Butti
201
ISACA
4
Principali applicazioni sensoristiche dei nanotubi di
carbonio
Main sensor applications of carbon nanotubes
Dipartimento di Ingegneria
Elettrica e dell’Informazione,
Laboratorio di Dispositivi
Elettronici, Politecnico di Bari
Via E. Orabona 4, 70125, Bari, Italy
Alberto Piamonte
Dispositivo Medico per la Diagnosi Oggettiva di
Patologie Psicosomatiche
A Medical Device For The Instrumental Diagnosis Of
Psychosomatic Disorders
Roberto Marani,
Anna Gina Perri
Banco Popolare - Audit Conformità
e presidi 231/2001
Riduzione dei consumi energetici nelle reti core
ottimizzando le prestazioni dei sistemi ottici WDM
Un modello per la valutazione dei rischi
relativamente al trattamento dei dati personali nelle
comunicazioni elettroniche"
A risk assessment model regarding the personal data
processing in electronic communications
La Comunicazione N.R.& N.
INTRODUZIONE
Introduzione del Direttore Generale dell’Istituto Superiore CTI
É sempre con emozione che mi accingo a scrivere l'introduzione alla Rivista dell'Istituto
Superiore.
Le ragioni risiedono essenzialmente in due sentimenti che regolarmente riesco a combinare
quando vedo l'insieme degli articoli proposti.
Innanzi tutto provo un senso di meraviglia e di grande interesse per le tematiche che sono
toccate e che riescono sempre a dare un quadro degli argomenti più attuali in discussione
spaziando in un ambito tecnologico e scientifico davvero molto ampio.
La seconda motivazione é la grande responsabilità che deriva dalla consapevolezza di
costituire, con la pubblicazione della rivista,uno strumento di divulgazione di interessanti aspetti
delle materie piú innovative, frutto di veri approfondimenti molti dei quali realizzati
direttamente in laboratorio.
E molti laboratori dai quali escono i risultati citati, sono attivi presso l'istituto Superiore delle
Comunicazioni e delle Tecnologie dell'Informazione.
Quest'ultima caratteristica rappresenta , a mio avviso, il maggior pregio, di molti articoli e
della Rivista stessa.
Esiste un'ulteriore motivo di interesse che potrà portare a nuovi sviluppi dell'attività di
studio e ricerca presso questo Istituto Superiore: la predisposizione, attualmente in corso, di
ulteriori laboratori che, nella tradizione esistente, saranno frequentati da giovani ricercatori di
varie Università e Centri di ricerca.
Anche questi nuovi laboratori saranno il luogo di approfondimento di tematiche innovative
e dove possibilmente si valuteranno le ricadute applicative e gli impatti reali su vari aspetti della
vita delle persone e della moderna società, sempre piú informatizzata e tecnologica.
Il rapporto tra Istituto Superiore e Accademia é sempre stato molto vivo e proficuo, ed é
mio vero piacere coltivarlo con grande attenzione.
Su questa linea si rende conto con orgoglio di aver intensificato questa collaborazione con
l'accordo tra l'Istituto Superiore e il Consorzio CINI Consorzio Interuniversitario Nazionale per
l’Informatica per l'attivazione di iniziative congiunte di ricerca e formazione nel settore della
cyber.
É ragionevole pensare che l'esperienza che sta maturando presso l'Istituto Superiore in
materia di cyber Security con l'avvio nel 2014 del Cert nazionale, e che vede un incremento
delle attività specialistiche di studio di vulnerabilità di reti e sistemi di telecomunicazioni, di
infosharing, di allacciamento di rapporti internazionali a livello internazionale, sia un volano
speciale per il migliore utilizzo delle strutture tecnologiche esistenti e per un loro sensibile
sviluppo a sostegno della comunità scientifica italiana e ipoteticamente anche a livello
sovranazionale.
Rita Forsi
5
Immagine di copertina:
Laboratori di Ricerca del Settore Infrastrutture e
Dispositivi di Nuova Generazione
6
La Comunicazione N.R.&N.
Claudio Marciano
Dottore di Ricerca in
Scienze della
Comunicazione,
Dipartimento di
Comunicazione e Ricerca
Sociale, Università degli
Studi di Roma "La
Sapienza".
Smart City.
Infrastrutture fisiche e sociali
dell'urbanizzazione intelligente
Smart City. Social and material infrastructures of intelligent
urbanisation.
Sommario: La Smart City è una visione culturale e un modello di
urbanizzazione. Le aspettative sociali sulla sostenibilità ambientale e i
valori promulgati dall'innovazione digitale prendono corpo in una serie
di infrastrutture peculiari che consentono di usare l'informazione per
rendere più efficienti i sistemi complessi, come la gestione dei rifiuti o la
mobilità.
Allo stesso modo, le strutture dell'azione urbana, ovvero le istituzioni
pubbliche, il mercato e la società civile, vengono interessate da tensioni
e mutamenti posti dall'urbanizzazione intelligente. In entrambi i casi la
tensione egemone sembra quella della convergenza, che si traduce
nell'incremento dell'interdipendenza e dell'interoperabilità tra i sistemi
urbani, in risposta ai lasciti autopoietici della città industriale.
L'articolo esplora entrambi i piani del modello Smart City: quello fisico e
quello sociale, quello delle fibre ottiche e dei sensori, come quello delle
governance partecipate e delle start up. Lo scopo è quello di consentire
un'introduzione al “mondo” della Smart City, alle sue tecnologie
principali, ai mutamenti organizzativi più evidenti, al fine di avviare una
sua definizione utile per la costruzione di politiche urbane adeguata alla
sua realizzazione.
Abstract: The recent success of Silicon Photonics and more
generally of the integrated photonic technologies led to a new device
concept for a wide range of applications, from sensors to ICT and
datacom.
Through the funding of the Framework Programmes (FP), the
European Union supported the constitution of more technology
platforms aimed at the fabrication of integrated photonic devices,
easing the introduction of a new business model based on shared
manufacturing facilities among more partners to enable the economical
and financial sustainability of the technological development. The
following contribution reports the main achievements of the different
integrated photonic technologies, focusing on the recent results of the
Silicon Organic Hybrid (SOH) technology, and provides an overlook of
the main partnerships. Smart City is a cultural vision and a model of
urbanisation.
7
C. Marciano
The social expectations about environmental sustainability and the
values disseminated by digital innovation are embodied in a series of
infrastructures that enable the use of information to improve the
efficiency of complex systems, such as waste management and mobility.
Similarly, the structures of urban actions, that is, public institutions,
markets and communities, are interested by tensions and changes
urged by ‘smart urbanisation’. In both cases the hegemonic tension
points to a kind of “convergence”, that is the increasing
interdependence and interoperability between systems, in response to
the legacy of the industrial city.
The article explores both the plans of the Smart City's model: the
physical one and the social, the first with its sensors and optical fibre,
the second with its multi-stakeholders governance and start up. The aim
of the article is to highlight the Smart City's world, its technologies and,
organizational changes in order to elaborate a useful definition of
“smartness” for better urban policies.
Introduzione
In questo articolo osserveremo la traduzione della Smart City in
pratica spaziale, focalizzando l'attenzione sulla descrizione delle
infrastrutture fisiche e sociali che la caratterizzano come un modello
urbano peculiare.
Si tratta di un tema che chi scrive ha esplorato come
Dottorando di Ricerca presso l'Istituto Superiore delle Comunicazioni e
Tecnologie dell'Informazione, coadiuvato dall'Ing.Giancarlo Gaudino e
dal Direttore Rita Forsi.
Gli obiettivi che ci poniamo sono essenzialmente due:
• Descrivere le principali infrastrutture che caratterizzano la
città intelligente: dalla fibra ottica alle Start Up, dalla sensoristica alla
social innovation, la Smart City ha un suo portato tecnologico e
organizzativo peculiare, che la rende un modello urbano storicamente a
se stante;
• Individuare le interdipendenze e la comune origine culturale
delle infrastrutture: siano fisiche oppure sociali, le infrastrutture della
Smart City dipendono una dall'altra, ed esprimono due tendenze allo
stesso tempo tecnologiche e culturali, la “trasduzione” e la
“convergenza”.
L'articolo è diviso in due sezioni: il sistema nerovoso della
Smart City, dove è illustrato il paradigma infrastrutturale che rende la
“smartness” un idealtipo di urbanizzazione alla pari di quella industriale
o rinascimentale; il cuore della Smart City, in cui le logiche che ispirano
le infrastrutture sono specchiate in mutamenti sul piano delle più
importanti istituzioni sociali urbane.
Nelle conclusioni è messo a fuoco il parallelismo tra
“traduzione” e “convergenza” che caratterizzerebbe lo spazio sociale
della Smart City e che aprirebbe notevoli interrogativi per future
ricerche empiriche e transdisciplinari.
8
La Comunicazione N.R.& N.
Smart City. Infrastrutture fisiche e sociali dell'urbanizzazione intelligente.
Smart City. Social and material infrastructures of intelligent urbanisation.
1. Il sistema nervoso della Smart City
Il sistema nervoso della Smart City sarebbe costituito da una
componente periferica e una centrale. La prima, deputata alla raccolta
degli stimoli dall'ambiente esterno e alla loro trasmissione, sarebbe
incorporata dalla sensoristica e dalle infrastrutture di rete. La seconda,
finalizzata all'elaborazione e alla memorizzazione, dalle applicazioni e
dalle infrastrutture di storage.
Dall'analisi delle loro funzionalità, emerge una costante: la
tendenza a ridurre la complessità ad un codice minimo universale.
Questa logica, che riprende l'essenza del paradigma informazionale
descritto nelle pagine precedenti, può essere definita “trasduzione”.
La trasduzione consiste nel movimento fondamentale della
“digitalizzazione”, il processo di trasformazione di un'immagine, un
suono o un testo in un formato interpretabile da un computer, grazie
all'adozione di un codice binario in cui tutta la semantica e la sintassi
dei vari linguaggi è ridotta a combinazioni variabili di zero ed uno,
quindi a stati di acceso/spento, alto/basso, attivo/passivo.
1.1. Sentire
Secondo un vecchio adagio empirista attribuito ad Aristotele
“Nihil est in intellectu quod prius non fuerit in sensu”: le elaborazioni
intellettuali più complesse dipendono dalle informazioni raccolte dai
sensi.
Se si prende il corpo di un essere umano, notiamo che il
sistema nervoso periferico è caratterizzato dalla presenza di recettori
sensoriali: si tratta di cellule capaci di registrare gli stimoli ambientali
esterni e di trasdurli, trasformandoli in segnali elettrici decodificabili dal
sistema nervoso centrale.
Nella Smart City questa funzione è svolta dai sensori, che sono i
recettori attraverso cui si articola la città senziente. Si tratta di
dispositivi che convertono le grandezze ambientali (fisiche, chimiche o
biologiche) in segnali digitalizzabili, attraverso cui un sistema
intelligente è in grado di misurare, comunicare, elaborare e conservare
le informazioni concernenti l'ambiente stesso.
La letteratura di settore ha diviso i segnali in sei classi,
indicando tutto ciò che può essere trasformato in unità di informazione.
Tra le principali, le grandezze meccaniche (la velocità, l'accelerazione, la
pressione), quelle termiche (la temperatura, il calore, l'entropia), quelle
elettriche (corrente, resistenza, potenziale), o quelle magnetiche
(intensità di campo, densità di flusso, permeabilità). Tutto questo può
essere registrato e convertito in unità discrete e convertibili in
informazione per sistemi intelligenti e per persone.
Chiunque cammini per una città occidentale mediamente
sviluppata ha un'esperienza quotidiana di rapporto con differenti tipi di
sensori senza che vi faccia caso: ne diventa cosciente quando il
prodotto acquistato al supermercato passa per la cassa per disattivarne
il codice RFID, quando sale su un ascensore con la chiusura automatica
o entra nel bagno di un locale che si illumina senza interruttori.
La differenza tra questa sensoristica e quella di cui la Smart City
9
C. Marciano
ha bisogno come infrastruttura senziente, è nell’architettura del
processo di trasmissione ed elaborazione delle informazioni: i dati
raccolti tendono a convergere, anziché verso una complessa rete di
cervelli elaboratori ognuno dotato di un codice a se stante, verso
un'unica grande banca dati che parla una sola lingua ed è accessibile a
tutti per lo sviluppo e la fruizione delle applicazioni. Ma a tutti chi?
In primis a persone e istituzioni sociali, le quali partecipano a
questo organismo informazionale non solo come consumatori ma
anche come attivi produttori, integrando la sensoristica con le loro
rappresentazioni, i loro testi, le loro immagini.
Il sentire della Smart City non è pertanto chiuso dentro un
processo di automazione e trasduzione più o meno evoluta: è dotato di
un'intelligenza vivace come quella di un commento su un bel paesaggio,
o di un'intelligenza interpretativa come un dataset che ponga in senso
diacronico i risultati sulla raccolta differenziata di un Comune.
Seguendo sempre una visione ideale di Smart City, i cittadini
dotati di propri supporti digitali, dovrebbero agire come recettori dei
fenomeni ambientali generando informazione in maniera diretta o
indiretta tramite il complesso di sensori che sempre più indosserebbero
nella vita quotidiana.
Anche le istituzioni, economiche, politiche, sociali, sarebbero
“sensori” della città intelligente producendo informazioni, soprattutto
in formato aperto, e integrando le loro banche dati al fine di una
maggiore e reciproca efficienza.
Il sentire della Smart City sembra confermare le intuizioni di
Levy (1999) e de Kerckhove (2001) sull'intelligenza collettiva e
connettiva. Per certi versi, la città intelligente incorpora la struttura di
Internet, ponendosi come una poderosa coscienza urbana collettiva che
si nutre della partecipazione di uomini, oggetti, macchine ed istituzioni,
i quali aggiungono, aggiustano, eliminano e ristrutturano
la banca dati cittadina. L'intelligenza che circola in questo
sistema è collettiva nella misura in cui ogni elemento ha la coscienza di
essere irrilevante se isolato, mentre è connettiva nella ricerca di sempre
nuove interrelazioni, nel capire come le cose possono stare insieme tra
loro senza per forza conoscerle in profondità, come il gentiluomo di
Moliere che sa tutto senza aver appreso nulla (de Kerckhove 2001).
Questa visione di perfetta integrazione tra macchina e uomo,
sebbene affascinante, si presta però a diverse critiche.
In primo luogo, a differenza di un sensore, l'uomo mente
consapevolmente: l'informazione prodotta dalle persone, se non
validata opportunamente, rischia di generare entropia e caos nel
cervello collettivo della Smart City.
In secondo luogo l'intelligenza è collettiva e connettiva nella
misura in cui il soggetto può partecipare alla cittadinanza digitale, cosa
che invece non avviene sia per disparità sociali, sia generazionali, sia
geografiche: la Smart City deve fare i conti per affermarsi come città
della comunicazione, con i problemi dell'integrazione, del digital divide,
delle competenze digitali scarse in molti settori della popolazione.
Infine, la narrazione collettiva della Smart City si regge sul
presupposto della sua utilità per i singoli: cosa che può non avvenire,
10
La Comunicazione N.R.& N.
Smart City. Infrastrutture fisiche e sociali dell'urbanizzazione intelligente.
Smart City. Social and material infrastructures of intelligent urbanisation.
specie se prevale un approccio deterministico per cui l'offerta
determina la domanda, la necessità di vendere dispositivi e soluzioni
prodotte supera i bisogni sociali da soddisfare.
Remore a parte, il mondo della sensoristica integrata
costituisce comunque un'infrastruttura abilitante del modello Smart
City, attraverso cui, con tutti i limiti dei vari contesti territoriali, si cerca
di costruire una comune sorgente di dati su cui generare nuovi servizi
su scala urbana.
Una concreta esperienza di come la Smart City possa
infrastrutturare la città e trasformarla in un organo senziente è
costituita dalle prime implementazioni del paradigma Internet of Things
ai processi complessi, come ad esempio l'organizzazione del lavoro.
a. Un caso concreto: Human Cloud a Londra
IoT è un paradigma troppo recente per avere una letteratura
sociologica di riferimento. Tuttavia, tra le ricerche condotte su alcune
sue applicazioni nel mondo del lavoro, risulta particolarmente
interessante quella denominata “Human Cloud: a study into the impact
of wearable technology n the workplace ” e condotta dalla Goldsmith
University of London (2014).
L'oggetto dello studio sono le wearable technologies: dispositivi
portabili, spesso con la forma di oggetti comuni come occhiali, anelli o
bracciali. La loro funzione è quella di raccogliere informazioni a partire
dal corpo umano a cui sono legati e di usarne le espressioni più diverse
per produrre servizi.
È bene premettere che lo studio è stato finanziato e pubblicato
a spese della Rackspace, player nel mercato inglese del Cloud
computing: rientra pertanto, a pieno titolo nella categoria degli studi
integrati.
Le wearable technologies impiegate sono state di tre tipi:
• Neurosky: un dispositivo che legge le onde celebrali e le usa
per velocizzare operazioni come lo scatto di una fotografia;
• Geneactive: un bracciale che calcola il battito cardiaco
piuttosto che i kilometri percorsi durante una prestazione sporitiva,;
• Lumbo: una cintura che analizza i dati sulla postura e informa
chi la indossa di quali posizioni siano le più salutari.
La ricerca è stata condotta a Marzo 2014, ha coinvolto
direttamente 40 impiegati presso l'agenda di global media Mindshare,
nelle sedi di Londra. I partecipanti sono stati tutti equipaggiati con uno
dei device descritti sopra, e hanno potuto controllare in prima persona i
punteggi relativi alle proprie performance at work (PAW) sul proprio
cellulare, sul PC di azienda o, in alcuni casi, su schermi a Led messi in
ufficio a disposizione di tutto il personale.
La ricerca ha alternato questionario diretto ai lavoratori con
interviste in profondità e la redazione da parte di ognuno di un diario. I
ricercatori hanno così potuto ricostruire alcuni “comportamenti” tipici
che i lavoratori sviluppano a contatto con le wearable technologies: i
miglioristi, cioè quelli che le usano per incrementare le loro
performance, i giocatori, che si divertono a fare competizione con i
11
C. Marciano
colleghi, i “calcolatori” che riescono a lavorare meglio se si sentono
osservati, a conferma di una vecchia intuizione di Howthorne e del suo
celebre “effetto”.
Il risultato chiave della ricerca mostra che i “wearing devices”,
producono un significativo incremento nella produttività e, allo stesso
tempo, nel livello di soddisfazione del lavoratore nei confronti
dell'ambiente aziendale. In particolare, secondo i ricercatori, questo
incremento sarebbe computabile con un accrescimento del 8,5% nel
caso della produttività e del 3,5% nel caso del job satisfaction dopo tre
settimane di utilizzo dei dispositivi.
Senza esplicitarlo, questo studio inoltre conferma che
l'espansione dell'IoT nella vita quotidiana ha anche delle profonde
implicazioni per la tutela della privacy e per la cyber security. Se infatti
si ampliano i nodi sulla Rete capaci di raccogliere informazioni di
qualsiasi tipo, si amplia anche lo spettro di dati sensibili che possono
essere usati per scopi criminali o comunque illeciti.
La quantità di informazioni sensibili prodotte da questi
dispositivi pone seri problemi sulla gestione dei server, su ciò che può
legittimamente circolare in Rete su una persona e su ciò che invece
richiede un formato “closed”. Infatti, oltre ai dati tradizionali anagrafici,
IoT consente di “tracciare” i corpi: di rendere evidente sempre la loro
collocazione e disponibili le loro performance. La possibilità di accedere
a dati così intimi potrebbe aiutare senz'altro il mercato a produrre
prodotti più aderenti ai bisogni, ma anche consentire l'attualizzazione di
un “biopotere” pervasivo, peraltro in mani private e con una normativa
ancora in via di definizione.
Tuttavia, le applicazioni IoT costituiscono un campo di ricerca
ancora in via di esplorazione, in cui le scienze sociali possono trovare
diversi sentieri da battere per comprendere come questa innovazione
tecnologica sarà realmente utilizzata nella Smart City.
Certamente, la sua implementazione galoppante rende
improrogabile la dotazione di un'infrastruttura per il trasferimento delle
informazioni, che IoT moltiplica in forma di Big Data. Passiamo pertanto
a comprendere come la Smart City si attrezzi per consentire ai suoi
“neurotrasmettitori” di procedere il più speditamente possibile,
sebbene i carichi diventino sempre più pesanti.
1.2 Trasmettere
Si pone ora la necessità di analizzare le strutture deputate alla
trasmissione dei dati verso gli apparati elaboratori. Proseguendo nella
metafora organicistica, si tratta di analizzare il processo sinaptico,
individuando le componenti e le condizioni che abilitano il passaggio di
stimoli nervosi tra cellule diverse.
Possiamo notare due famiglie di infrastrutture: una con e una
senza cavi.
a. Paradigma wired
Le reti di conduttori via cavo che garantiscono la connettività
tra i sistemi informativi della Smart City appartengono a due grandi
famiglie, che corrispondono a delle vere e proprie “età”: una del
12
La Comunicazione N.R.& N.
Smart City. Infrastrutture fisiche e sociali dell'urbanizzazione intelligente.
Smart City. Social and material infrastructures of intelligent urbanisation.
“rame”, l'altra in corso di affermazione, della “fibra”.
Le telecomunicazioni devono, ancora oggi, molto al rame. Le
infrastrutture telefoniche, e pertanto la maggior parte di quelle di cui si
serve Internet, sono costituite da questo prezioso materiale. Basta dare
uno sguardo alle sue caratteristiche fisiche per capirne la ragione.
Il rame è un ottimo conduttore di elettricità, il migliore in
natura dopo l'argento, di cui è tuttavia decisamente più economico.
Inoltre, il rame è duttile e resistente allo stesso tempo, ideale per la
realizzazione di cablaggi in contesti urbani, dove è necessario colmare
lunghe distanze tra dispositivi ma con spazi ridotti a disposizione.
Tuttavia questa infrastruttura, anche nella sua versione più
evoluta, è in grado di servire la Smart City solo dal punto di vista del
downstream, cioè della fruizione di servizi.
Tuttavia la Smart City è una città anche dell'upload, del
caricamento di dati, anzi di Big Data (si veda l'esempio dei sistemi
intelligenti di info-mobilità), che il rame e le sue tecnologie di
connessione non riescono a supportare adeguatamente, né dal punto
di vista dell'offerta di servizi, né tantomeno della compartecipazione
dei singoli utenti.
Non si tratta solo della velocità massima che gli stessi sono in
grado di raggiungere, soprattutto delle variabili che incidono sul suo
funzionamento, che possono essere tante e imprevedibili: ad esempio,
la distanza tra i dispositivi connessi a rame e la centralina di rete (più è
lunga più la velocità si riduce), la vulnerabilità delle guaine dei cavi ai
fattori atmosferici, le interferenze elettromagnetiche prodotte, ad
esempio, dalle linee ad alta tensione che corrono parallele spesso a
quelle telefoniche.
Per questo la Smart City richiede una tecnologia di trasmissione
ancora più evoluta di quelle in rame di ultima generazione, che non
ragiona più in termini di segnale elettrico, bensì luminoso. È il caso della
fibra ottica.
Il cavo in fibra ottica è costituito da filamenti sottilissimi, dal
diametro di un capello, composti da vetro o polimeri plastici, tenuti
insieme da una guaina in gomma.
Il filamento in fibra è costituito da una doppia sezione
concentrica, in cui la parte esterna è riflettente e opaca, mentre quella
interna è trasparente e chiara. È come se uno specchio fosse arrotolato
a forma di tubo: la parte interna catturerebbe la luce e continuerebbe a
rifletterla all'interno, mentre quella esterna respingerebbe “stimoli”
ambientali diversi.
Questo è il principio che consente alla fibra di avere prestazioni
migliori del rame: gli impulsi luminosi lanciati da Modem che
supportano la tecnologia in fibra sono “riflessi” continuamente
all'interno del cavo, raggiungendo con rapidità e senza interferenze la
destinazione del messaggio. In parole povere, se il rame è simile ad un
autostrada in cui gli impulsi elettrici a seconda delle condizioni della
strada, dell'atmosfera, degli automobilisti, raggiungono la destinazione
in un tempo variabile, la fibra è il teletrasporto dove gli impulsi luminosi
sono automaticamente condotti a destinazione secondo canali
preferenziali, andando alla velocità della luce, o quasi. Per questo la
13
C. Marciano
fibra è più leggera, flessibile e maneggiabile, più resistente alle
interferenze e agli agenti atmosferici, più veloce e capace di trasportare
maggiore quantità di informazione.
In termini di performance, la fibra arriva in upload e download
ad assicurare connettività pari a 100Mbps, fino a raggiungere nei casi
“industriali”, proprio quelli richiesti dalle applicazioni Smart City, la
velocità di 1Gbps.
In una visione “sistemica” della Smart City, in cui non ci si limita
ad introdurre qualche innovazione digitale, ma si converte il
funzionamento dei sistemi complessi urbani ad una nuova filosofia
organizzativa, l'estensione e il radicamento della fibra è indispensabile.
Tuttavia, il paradigma Wired è una condizione necessaria ma
non sufficiente ad infrastrutturare una città Smart. La portabilità della
connessione in qualsiasi spazio/tempo della città può essere infatti
garantita solo da un altro paradigma, quello Wireless.
b. Il paradigma wireless
Wireless significa letteralmente “senza fili”. Indica un sistema di
comunicazione tra dispositivi elettronici che non fanno uso di cavi,
bensì di onde elettromagnetiche a bassa potenza e in alcuni casi anche
di radiazione infrarossa o laser .
Lo standard più diffuso è il WI FI (wireless fidelity) che utilizza
per le telecomunicazioni le onde radio con frequenza di 2,4 Ghz. Queste
radiazioni possono creare delle aree di accesso senza fili ad Internet,
definite Land Area Networks (LAN), dell'ampiezza di circa 100 metri, o
anche superiore a seconda della potenza dell'antenna. Di recente, sono
state installate in alcuni paesi non raggiunti dalle tecnologie wired delle
antenne WI MAX che riescono ad estendere le LAN fino a 15 Km.
La struttura fisica di una rete Wireless è piuttosto semplice: da
un lato c'è un Access Point (AP, o più comunemente chiamati Hotspot),
ovvero un dispositivo collegato alla rete fissa e dotato di un'antenna
che propaga onde radio con standard particolari, da un'altra vi sono i
Wireless Terminal, ovvero i devices in grado di captare le onde e di
potersi connettere alla rete da cui vengono propagate. I più comuni AP
sono i Router, mentre i WT possono essere PC, smartphone, e, lo
abbiamo visto a proposito dell'IOT, anche oggetti senza CPU e senza
alcuna intelligenza artificiale.
Il Wi Fi non è altro che un ponte invisibile verso la rete: le sue
infrastrutture servono, pertanto, a diffondere Internet ovunque, senza
gli ostacoli fisici che pongono le tecnologie wired.
L'implementazione della tecnologia Wireless, in particolare nel
dotare le aree pubbliche strategiche di connessione WI FI, è considerata
nell'agenda digitale europea un fondamentale per la messa in pratica
della Smart City. I suoi vantaggi sono noti: la mancanza di collegamenti
fisici tra i vari terminali consente la diffusione di Internet a basso costo,
ne abbatte i problemi di mobilità rendendo la connessione portabile, ne
incrementa la scalabilità perché le reti WI FI possono crescere di
dimensioni e potenza con il crescere delle necessità degli utenti.
Il modello Smart City si fonda, interamente, sulla possibilità di
diffondere la banda ultralarga in tutti i territori urbani: senza, verrebbe
14
La Comunicazione N.R.& N.
Smart City. Infrastrutture fisiche e sociali dell'urbanizzazione intelligente.
Smart City. Social and material infrastructures of intelligent urbanisation.
meno il principio “senziente” per cui sensori, ma anche persone,
possono comunicare in diretta informazioni la cui elaborazione è alla
base delle app, cioè dei servizi, che qualificano l'urbanizzazione
cibernetica. Pertanto, l'infrastruttura wireless di una città assume un
carattere strategico per la sua evoluzione verso un modello Smart
“maturo”, cioè capace di sussumere i sistemi complessi.
Tuttavia, è necessario anche tenere conto di una sempre più
consolidata letteratura medica (Zahdin 1998) che critica fortemente
l'esposizione continua alle micronde, perché sarebbe foriera di traumi
fisici e, addirittura, alla base di processi degenerativi come i tumori.
Il tema delle ricadute sulla salute si è fatto strada fino ad
interessare il dibattito politico e scientifico con una certa urgenza. In
particolare, gruppi di scienziati indipendenti e alcuni Enti, come ICEMS
(International commission for security electro-magnetic field), si evince
che gli attuali standard internazionali non sono considerati sufficienti a
proteggere la salute pubblica e questo debba spingere la ricerca ad
investigare gli effetti biologici e i meccanismi d'azione anche per livelli
di esposizione molto bassi. Sono infatti stati stabiliti con un certo livello
di certezza alcuni “rischi”, cioè eventi probabili in alcune circostanze,
legati all'esposizione a radiazioni WI FI, come l'induzione di morte
cellulare e lo stress ossidativo, che oltre alle patologie neoplastiche
indurrebbe anche la sterilità.
Tuttavia, gli stessi scienziati sostengono che non vi siano
meccanismi molecolari in grado di rilevare il legame tra malattie
umane e l'esposizione ai campi elettromagnetici, mentre l'OMS ha
inserito le radiazioni elettromagnetiche nella classe dei rischi B2, quella
dei “possibili danni alla salute”.
La discussione è destinata ad essere sempre più rilevante per il
futuro, data la pervasività delle tecnologie wireless per la vita
quotidiana e la sensibilità, a volte tracimante con il panico, della
popolazione ai rischi ambientali delle nuove tecnologie. Un caso, tra i
tanti, in cui paradigma informazionale ed ecologico sono tutto fuorché
convergenti.
1.3 Elaborare
Siamo giunti al sistema nervoso centrale della Smart City.
L'analisi della sensoristica e delle infrastrutture di connettività ha
consentito di mettere a fuoco le tematiche più rilevanti nella fase di
raccolta e trasmissione delle informazioni. Ora si tratta di capire come
funziona il cervello e il midollo spinale della Smart City: quali dispositivi,
sono deputati all'elaborazione dei dati, alla loro diffusione e
memorizzazione.
a. Il mondo delle App
Il mondo delle App è un pianeta costituito da software di
scopo, spesso gratuiti, portabili e leggeri, che hanno come oggetto la
fornitura di servizi per ogni pilastro della vita in città.
Mobilità, rifiuti, energia, turismo, intrattenimento, e-gov,
partecipazione: grazie alle App possiamo sapere se il treno che
prenderemo è in ritardo, se un ristorante ha una dieta per celiaci, se il
15
C. Marciano
nostro impianto elettrico consuma troppo o ancora dove riporre un
certo tipo di rifiuto nella raccolta differenziata.
Le App sono dei dispositivi di informazione nel senso
cibernetico del termine: riducono l'incertezza, per questo in un
contesto in cui tradizionalmente non tutto è prevedibile, come la città,
sono molto utilizzate. Inoltre, la loro raffinatezza progressiva abilita
quella che Bolter e Grusin chiamano “ipermediazione” del media: la
concentrazione su un unico device di caratteristiche enunciative tipiche
di diversi media (Bolter e Grusin 2002). Le App, infatti, trasformano il
cellulare in un oggetto complesso, che diventa all'occorrenza radio,
walkman, televisione, macchina fotografica, torcia, videogioco, diario
“segreto” oppure agenda degli appuntamenti.
Malgrado la loro diffusione, pochi utenti conoscono i codici di
elaborazione delle APP. Anzi, se potessero accedere alle matrici con cui
sono scritte e rese operative da parte degli sviluppatori, si stupirebbero
del loro grado di complessità. Infatti, rimosso il “velo di Maja” dei
sistemi operativi che le rendono fruibili, le App sono espressioni dei
linguaggi di programmazione e marcatura, alla pari di altri software.
La vera novità introdotta dal modello Smart City nel mondo
delle App è la riproduzione di una logica semplificata, anticipata
dall'introduzione di sistemi operativi accessibili a tutti, dalla parte dello
sviluppatore. La convergenza dei dati in banche accessibili, spesso in
Rete e in formato aperto, così come l'estrema economicità di software
facilitatori, rendono lo sviluppo di App un'attività diffusa, che può
diventare da un lato l'occasione di redditività per una start up, dall'altro
anche una modalità di partecipazione attiva alla vita urbana da parte di
semplici utenti. L'arte del software diventa una specie di bricolage
diffuso e la città intelligente il suo campo di sperimentazione.
In base al sistema operativo di riferimento, è possibile scaricare
programmi che consentono di mettere su un App senza conoscere una
riga di codice, né avere idea di cosa sia un algoritmo. Il punto essenziale
diventa pertanto riuscire a creare un servizio che colga un bisogno non
ancora soddisfatto e comunicare la sua disponibilità attraverso una
strategia di marketing adeguata.
Diverse inchieste testimoniano di casi sempre più diffusi in cui
utenti non esperti riescano a sviluppare App destinate ad essere usate
da milioni di persone e di produrre profitti considerevoli: app per il car
pooling, per un migliore uso di Amazon, per raggruppare le news più
seguite, perfino per cercare amicizie e rapporti sessuali.
È questa la vita dell'utente nella Smart City: il traffico di rete sui
dispositivi mobili per l'80% è dedicato alle App, mentre al Web, tolta
email e messaggeria, è rimasta ben poca attenzione. Le App più
utilizzate sono globali: What's Up, Spotify, Blablacar, per inviare
messaggi, ascoltare musica e prenotare un passaggio. Tuttavia, la forte
duttilità delle App ne consente un utilizzo anche su base locale,
peculiare rispetto ai bisogni espressi da un territorio.
E' evidente che la condizione minima per un mondo di App è un
mondo di informazioni aperte e usabili.
16
La Comunicazione N.R.& N.
Smart City. Infrastrutture fisiche e sociali dell'urbanizzazione intelligente.
Smart City. Social and material infrastructures of intelligent urbanisation.
b. Il paradigma Open Data
Chiunque abbia un minimo di dimestichezza con i nuovi
linguaggi del mondo informativo, si è certamente imbattuto in
espressioni come: open data, open government, open source.
Siano dati, normative o software, le risorse caratterizzate dal
paradigma “open” sono liberamente accessibili, senza brevetti che ne
limitino la riproduzione e senza copyright, sebbene vi sia sempre
l'obbligo per l'utilizzatore di citare la fonte..
Un dato è aperto quando rispetta almeno tre prerogative,
piuttosto semplici dal punto di vista informatico:
• Disponibilità e accesso: i dati devono essere disponibili nel loro
complesso, per un prezzo non superiore ad un ragionevole
costo di riproduzione, preferibilmente mediante scaricamento
da Internet. I dati devono essere disponibili in un formato utile
e modificabile.
• Riutilizzo e ridistribuzione: i dati devono essere forniti a
condizioni tali da permetterne il riutilizzo e la ridistribuzione.
Ciò comprende la possibilità di combinarli con altre basi di dati.
• Partecipazione universale: tutti devono essere in grado di
usare, riutilizzare e ridistribuire i dati. Non ci devono essere
discriminazioni né di ambito di iniziativa né contro soggetti o
gruppi. Ad esempio, la clausola ‘non commerciale’, che vieta
l’uso a fini commerciali o restringe l’utilizzo solo per
determinati scopi (es. quello educativo) non è ammessa.
In base al rispetto di questi requisiti, la qualità di un dato
aperto è classificato secondo il modello a 5 stelle di Tim Berners Lee.
• Il dato è disponibile sul web (in qualsiasi formato) ma con una
licenza aperta affinché possa essere considerato Open Data
(una stella)
• Il dato è disponibile in un formato strutturato che può essere
interpretato da un software, ad esempio Excell (due stelle)
• Il dato è in un formato strutturato e inoltre questo
formato non è proprietario, ad esempio CSV (tre stelle)
• Oltre a rispettare tutti i criteri precedenti, il dato fa uso
di standard aperti per identificare oggetti, cosicché è possibile
fare riferimento alle sue risorse (quattro stelle)
• Il dato rispetta tutti gli altri criteri e inoltre contiene
collegamenti ad altri dati al fine di fornire un contesto alle proprie
informazione (cinque stelle)
Se ci mettiamo nei panni dell'architetto informatico che dovrà
convertire l'approccio ai dati di un Ente pubblico verso il paradigma
Open, ci rendiamo conto che una parte del suo lavoro va dedicato
all'elaborazione tecnica del dato, un'altra non meno importante alla
comprensione delle implicazioni sociali di un paradigma Open applicato
17
C. Marciano
ad una PA.
Dal punto di vista tecnico, il primo passo per procedere alla
messa in pratica del modello Open Data è quello di elaborare un albero
dei dati: individuare i dataset (le tematiche attorno cui raccogliere le
informazioni) e comprendere le risorse disponibili, cioè i dati raccolti
finora su quegli argomenti. Quindi la loro conversione in formati che
consentono il rispetto dei requisiti di cui sopra: disponibilità, usabilità,
riutilizzo, in una parola la rispondenza rispetto alle licenze d'uso Open
Data. Infine il passo più complesso è quello dell'organizzazione dei dati
in modalità “divulgativa”, scegliendo una strategia di comunicazione, ad
esempio un portale, e indicando chiaramente agli utenti la modalità di
consultazione.
Proprio la coscienza che il dato aperto è un seminatore di
trasparenza, comporta uno sforzo sociologico per chi voglia applicarlo
alla PA. Si tratta infatti di capovolgere una caratteristica del potere
burocratico: la reificazione delle sue (spesso) deliranti necessità, che si
fonda sulla mancanza di accesso alle informazioni da parte di tutti.
Un primo passo è, in questo caso, coinvolgere gli utenti
potenzialmente interessati ai dati aperti fin dall'inizio del processo: solo
così si potrà avere un'idea della domanda di dati, di quali siano i bisogni
informativi di cittadini, aziende e istituzioni non ancora soddisfatti.
Allo stesso modo, è altrettanto importante comprendere quali
sono le barriere, i timori e le incomprensioni che l'adozione di un
approccio open può comportare in una struttura abituata a gestire i
dati in modo diverso: per questo, accanto agli users, vanno coinvolti
parimenti i produttori dei dati, quelli che dovranno raccoglierli, gestirli e
validarli. Non solo comunicare, ma anche “formare”, perché per quanto
accessibile, l'apparato tecnologico degli Open Data va comunque
assorbito e compreso, specie da risorse umane cresciute in paradigmi
informazionali diversi.
Se il mondo delle App consente anche al semplice utente di
partecipare alla costruzione di una grande intelligenza collettiva e
connettiva urbana, e quello Open Data di trasformare in valore la
disponibilità e l'apertura delle informazioni. Infine, sebbene non
descritto per ragioni di spazio in questo articoli, c'è il mondo del Cloud
Computing ad abilitare a servizi e capacità di memorizzazione che
democratizzano ulteriormente l'accesso alla Smartness.
2. Il Cuore della Smart City
Se le infrastrutture materiali descrivono le principali innovazioni
della Smart City dal punto di vista delle tecnologie, quelle “immateriali”
possono offrire diversi spunti su come l'urbanizzazione intelligente
produca delle nuove necessità dal punto di vista organizzativo.
Nelle pagine precedenti, abbiamo osservato che la logica
dominante nelle infrastrutture materiali è la “trasduzione”, cioè la
conversione di codici diversi verso uno comprensibile a tutti i dispositivi
coinvolti nel processo comunicativo. Dai sensori alle tecnologie di
trasmissione fino all'elaborazione di App, la microfisica della Smart City
18
La Comunicazione N.R.& N.
Smart City. Infrastrutture fisiche e sociali dell'urbanizzazione intelligente.
Smart City. Social and material infrastructures of intelligent urbanisation.
sarebbe una sfida a cercare di capirsi: prima tra persone, poi tra
istituzioni, quindi tra sensori e perfino oggetti, come richiede il
paradigma IOT.
L'ipotesi che seguiamo in questa seconda sezione è per certi
versi simile. Sosteniamo che anche le infrastrutture immateriali
seguono un processo di convergenza verso l'incremento delle relazioni
e verso l'interoperabilità anziché l'autoreferenzialità. Inoltre, che i
modelli organizzativi adottati nella Smart City tendano al superamento
di alcuni “vuoti” lasciati dallo spazio astratto industriale, i quali
prendono la forma di bisogni sociali mai espressi o comunque
soddisfatti, oppure di gap istituzionali in cui mutamento tecnologico e
organizzativo non sono sincronici.
Cosa intendiamo dire? Si pensi al modello degli attanti urbani
proposto da sociologo sistematico come Raymond Ledrut nel 1971. Di
fronte c'è la città industriale con il suo ordine razionale e il suo spirito
categorizzante e concentrazionario. Ledrut individua tre grandi attori
sociali capaci di sintetizzare le strutture dell'azione e di avviare nuovi
processi di urbanizzazione: lo Stato, il Mercato e la Comunità. In
ognuno di essi agiscono diverse istituzioni: partiti politici e
amministrazioni comunali, burocrazie e magistrature, imprese e
sindacati, associazioni culturali e religiose.
La Smart City agirebbe sulle strutture dell'azione sia
indebolendo il ruolo di alcune, sia rafforzando o addirittura
generandone di nuove, sia soprattutto agendo in modo tale che i codici
caratteristici di ognuna investano l'altra. Ad esempio: che i meccanismi
partecipativi delle associazioni culturali siano sempre più adottati dalle
istituzioni politiche, che i metodi di ricerca delle discipline scientifiche
ispirino l'azione delle imprese, che l'organizzazione aziendale venga
adottata sempre più dalle amministrazioni pubbliche e così via.
Sezioneremo il cuore della Smart City in tre gruppi tematici.
La prima infrastruttura osservata è la governance urbana. In
questa sezione noteremo come la convergenza tra le strutture
dell'azione urbana si esplichi in modelli istituzionali partecipati e in
strategie di finanza di impatto.
La seconda infrastruttura riguarda invece i modelli di impresa
innovativi, a cui non partecipa soltanto il Capitale privato, ma anche la
comunità e le istituzioni pubbliche come Comuni e Università. In questa
sezione parleremo delle Start Up e della Social Innovation come ambiti
peculiari dell'economia Smart City.
La terza infrastruttura riguarda invece gli spazi pubblici, cioè i
luoghi dove il modello Smart City è decodificato in modo più autentico
verso l'appropriazione e il superamento delle contraddizioni dello
spazio astratto industriale: i Fab Lab e le strutture di Co-Working da un
lato, ma anche gli orti urbani e i gruppi di acquisto solidale.
2.1 La governance nella Smart City
Il concetto di governance ha avuto una certa fortuna nelle
scienze politiche a partire dagli anni 90'. La sua origine è riconducibile
all'ambito giuridico-normativo. Semplicemente, governance voleva
19
C. Marciano
dire azione del government, le cui funzioni principali consistevano nella
decisione sugli assetti istituzionali e nella produzione di norme
(Kooiman 2003).
Nel tempo, il concetto è emigrato verso diverse accezioni, tanto
che oggi appare abbastanza normale parlare di governance delle
imprese, delle relazioni internazionali e delle politiche urbane (Kooiman
2003). Di base, l'idea condivisa di governance implica che che lo Stato,
il mercato e la comunità non siano sfere completamente disgiunte, che
vengano legittimati dalla interiorizzazione di qualche forma di
cooperazione, e che vi sia, nella loro collaborazione, un orientamento
alla decisione e alla pratica.
È dentro questa cornice che può essere interpretata la “Smart
Governance”, cioè l'elaborazione di specifici modelli di governance
adeguati a gestire l'urbanizzazione della Smart City (Brenner 2003).
La Smart Governance si distingue, in misura prevalente, per un
ruolo sempre più centrale assunto dall'attore “comunità”. Infatti,
complice un orientamento culturale che ha plasmato i movimenti
sociali urbani verso un approccio pragmatico e istanziale (Diani e Della
Porta 2004), ad essere coinvolti come attori fondamentali dei processi
decisionali non sono solo le imprese e gli istituti di credito, ma anche le
associazioni culturali, i gruppi di volontariato e di cittadinanza attiva. Le
élite urbane, che in passato trovavano nei partiti politici e nel capitale
edilizio/finanziario i settori generativi maggiori, sono abitate sempre
più dai social innovators.
Infine, la Smart Governance introduce un quarto attore nella
triade tradizionale delle strutture dell'azione urbana, costituite da
pubblico, privato e comunità (Ledrut 1971): l'expertise scientifica. Il
ruolo delle università, degli enti di ricerca, delle società di consulenza,
nella governo delle città intelligenti, diventa importantissima in termini
di produzione dell'innovazione, di valutazione delle performance e di
critica delle azioni.
a. I modelli istituzionali partecipati: il caso SMILE del Comune di Torino.
La forma più diffusa di Smart Governance è quella dei modelli
istituzionali partecipati, i quali sono essenzialmente due: la gestione
diretta da parte dei Comuni o la costituzione di enti ad hoc, spesso
fondazioni o associazioni, a compagine mista.
Nel primo caso è il Comune l'ente che guida i progetti Smart
City. La governance pertanto coinvolge principalmente i dipartimenti
interni all'amministrazione comunale e solo marginalmente le forze
imprenditoriali e associative esterne. Spesso questa soluzione è
adottata nelle città più piccole dove non vi è la presenza di università, di
sedi centrali di banche e di imprese di settore interessate ai progetti
Smart. La partecipazione, se praticata, viene attuata attraverso specifici
progetti di consultazione oppure attraverso partenariati tematici.
A incarnare lo spirito della governance Smart, per impostazione
culturale e politica, è l'altro modello, quello della fondazione, che infatti
è praticato nelle città più grandi e complesse come Torino, Amsterdam,
Barcellona.
Diverse città europee hanno costituito delle fondazioni o
associazioni con lo scopo di guidare la trasformazione urbana verso il
20
La Comunicazione N.R.& N.
Smart City. Infrastrutture fisiche e sociali dell'urbanizzazione intelligente.
Smart City. Social and material infrastructures of intelligent urbanisation.
modello Smart City. Si tratta di enti di diritto privato in cui, tuttavia, vi è
una preponderante presenza di capitale pubblico rappresentato dal
Comune, dalla Regione, dalle Università, dalle camere di commercio e
dalle società partecipate. Quanto alla componente privata, è
rappresentata prevalentemente da aziende leader nel mercato ICT, da
istituti di credito, da enti di ricerca privati e dagli organismi di categoria
degli industriali.
La fondazione, accanto ad un comitato direttivo costituito dai
soci istituzionali, ha solitamente anche un comitato scientifico e una
struttura amministrativa che stabilisce delle partnership con l'esterno
sotto forma di accordi di programma. Questo consente un ampliamento
notevole dei soggetti coinvolti nelle varie attività, soprattutto
associazioni e piccole imprese, altrimenti schiacciati dal peso dei grandi
partners di mercato oppure istituzionali.
Oltre ad aggregare soggetti di diversa natura sociale,
solitamente le fondazioni Smart City svolgono delle attività di
pianificazione, consulenza, comunicazione e fund raising per conto dei
propri soci. Si tratta cioè di progettare e realizzare processi di
partecipazione, di elaborare soluzioni tecniche, di effettuare ricerche, di
organizzare eventi e di consentire l'accesso a forme di finanziamento,
spesso comunitarie, tramite la partecipazione a bandi e concorsi.
La fondazione incorpora molto efficacemente l'idea di
governance urbana esposta da Le Gales, per cui il government non
sarebbe più solo la classe politica burocratica del Comune, ma un
aggregato di forze capaci di mediare i loro interessi e di rappresentarli
unitariamente all'esterno sotto forma di Città. L'osservazione di un caso
concreto chiarisce meglio le implicazione di questo modello
istituzionale partecipato. La scelta può andare sul progetto SMILE della
fondazione Torino Smart City, attraverso cui è stato elaborato il primo
“Masterplan”, ovvero piano strategico per condurre la città verso il
modello Smart City.
SMILE è l'acronimo di Smart Mobility Inclusion Life&Health
Energy. Il piano strategico si pone l'obiettivo di stabilire obiettivi,
strumenti e fonti di finanziamento sulla mobilità sostenibile, la
produzione di energia rinnovabile, il miglioramento dei servizi alla
persona e la sicurezza, con uno sguardo fino al 2025. L'innovazione
digitale percorre trasversalmente tutti gli ambiti del progetto, fungendo
non solo da dispositivo tecnologico ma anche organizzativo,
promuovendo pertanto un'idea matura di Smart City, cioè completa,
dotata di un'identità propria e non somigliante a nessun modello di
città pregressa. Elemento importante per un contesto urbano come
Torino, che invece ha avuto un glorioso passato industriale ed oggi
evolve verso un sistema urbano intelligente.
È interessante, per il nostro discorso sulla governance, più che
l'osservazione delle iniziative concrete, quella del metodo di lavoro.
SMILE infatti non è il prodotto di un gruppo di esperti seduti a tavolino
a decidere le sorti della città fino al 2025. È un percorso di
partecipazione che ha coinvolti 66 soggetti sociali e 350 persone in tre
mesi di tavoli, focus groups, consultazioni strutturate e altre tecniche di
engagement e di confronto orizzontale.
21
C. Marciano
Il primo passo seguito dalla Fondazione Torino Smart City, che a
livello amministrativo è un ente strumentale del Comune, è stato
promulgare una manifestazione di interesse rivolta a altri enti pubblici,
imprese, ricerca e terzo settore. Individuati i partners interessati a
collaborare è stato strutturato un team con almeno un rappresentante
per ogni aderente. Al Comune e ai soci della Fondazione si sono
aggiunti, in particolare, alte 28 imprese, 5 enti di ricerca privati e 15
associazioni no profit.
Il processo di costruzione del piano strategico è quindi
consistito in una prioritaria analisi degli asset della città: i punti di forza
e debolezza, le opportunità non ancora utilizzate, i rischi alle porte.
Accanto al contesto ambientale, è stata fatta un'analisi di quello
sociale: le competenze diffuse sul territorio, le caratteristiche degli
stakheolders e degli stessi partecipanti ai tavoli. Quindi un benmarking
rispetto ad altre realtà assimilabili a quella di Torino e la proposta di un
gruppo di 45 azioni strategiche sui quattro pilastri tematici Mobility,
Inclusion, Life&Health, Energy. Per ogni azioni il piano ha individuato
possibili fonti di finanziamento e uno schema di valutazione dei risultati
raggiunti.
C'è da rilevare come il Masterplan di Torino Smart City abbia
garantito un livello di partecipazione notevole nella fase di analisi e
costruzione della proposta, ma abbia saldamente confermato nelle
mani del Comune la fase decisionale e l'individuazione delle priorità.
Orientamento ribadito, nella gestione della Fondazione, inserendo
come esclusivi componenti del comitato di gestione i tre assessorati
tecnici del Comune (ambiente, partecipate e fondi comunitari).
Tuttavia, se si pensa alle modalità di costruzione delle politiche
pubbliche locali del passato, si può evidenziare un cambio di passo
decisamente notevole. La possibilità data ad associazioni culturali,
piccole imprese, mondo della ricerca, di avere accesso alle informazioni
prima esclusive della burocrazia, di poter incidere nella costruzione di
obiettivi amministrativi a lungo termine e di proporre un arco di azioni
da intraprendere sono una novità che plasmano la governance urbana
in senso più aperto e partecipato.
Una conferma ulteriore di questa tendenza è evidenziabile
nell'analisi dei processi di finanziamento che la Smart City tende ad
incentivare, che vengono raccolti sotto il concetto di “Impact Finance”.
2.2 Modelli di impresa innovativi
L'impresa nasce per produrre valore. È un'istituzione sociale
fondamentale perché presiede al soddisfacimento di bisogni diffusi,
spesso di beni e servizi, e nella storia della città ha plasmato in base alle
sue esigenze organizzative lo spazio fisico e sociale.
Nella Smart City il valore più prezioso che l'impresa possa
produrre è il senso, inteso come relazione sociale e comunicativa
attraverso cui gli individui si scambiano significati.
La Start Up è l'idealtipo del capitalismo relazionale e nella
Smart City trova il suo campo d'azione urbana fondamentale. Vedremo
nelle prossime pagine, le sue origini culturali e il suo rapporto
stringente con la redditività finanziaria. Tuttavia, è anche l'idealtipo di
22
La Comunicazione N.R.& N.
Smart City. Infrastrutture fisiche e sociali dell'urbanizzazione intelligente.
Smart City. Social and material infrastructures of intelligent urbanisation.
una versione alternativa e conflittuale di economia, in cui la produzione
di senso costituisce comunque il valore fondamentale, ma non
finalizzato all'accumulazione, bensì alla risoluzione di problemi sociali.
Qui la Start Up evolve verso la Social Innovation, un processo di
ibridazione tra impresa capitalistica e movimento sociale, che
costituisce un altro pilastro innovativo del cuore della Smart City, cioè
delle sue infrastrutture immateriali.
a. Il mondo delle Start Up
La Smart City, nella sua componente elaborativa, cioè quella
che produce applicazioni e servizi per i cittadini, è una costellazione di
Start Up.
Inizialmente, con questo concetto, si è inteso qualificare la fase
di avvio di un progetto imprenditoriale. Tuttavia, presto Start Up ha
cominciato ad indicare qualcosa di più di un inizio, indicando le imprese
caratterizzate da prodotti fortemente innovativi, spesso legati all'uso di
ICT o di dispositivi di condivisione dell'informazione, rivolti alla
soluzione di problemi quotidiani della vita urbana e alla generazione di
profitti con costi relativamente bassi.
Per comprendere da dove abbia origine il modello di impresa
Start Up è necessario ricostruire la trama che lo ha partorito e ne ha
consentito una mobilità ideologica straordinaria, quindi cogliere le sue
caratteristiche principali dal punto di vista economico e organizzativo,
attraverso cui tenderebbe a “costruire” lo spazio percepito della Smart
City.
Secondo autorevoli commentatori, la cultura delle Start Up
avrebbe origine nella West Coast americana (Castells 1998) ai tempi dei
movimenti sociali libertari, ed esprimerebbe una sorprendente
convergenza tra controcultura e cybercultura (Turner 2008).
La tesi è suggestiva: la libertà che artisti, scrittori e intellettuali
cercavano nella musica psichedelica o nell'arte concettuale alla fine dei
70', avrebbe trovato nelle tecnologie dell'informazione, e in particolare
nello sviluppo di Internet e nel suo uso per fare impresa una forma
contemporanea e ancora più compiuta di espressione (Turner 2008). Un
file rouge curioso, se si pensa che Internet è stata inventata da un
gruppo di informatici al servizio dell'esercito americano per poter
creare una rete di informazioni in grado di resistere ad attacchi
nucleari.
La Start Up è figlia di questo conflitto, nella misura in cui esprimerebbe
un approccio allo stesso tempo libertario e cibernetico, in cui da un lato
prevalgono i valori di un'imprenditorialità creativa e innovatrice, pronta
a distruggere il vecchio e a proporre nuove regole nel mercato,
dall'altro tesa a spingere agli estremi il rapporto tra uomo e
macchina, in particolare nella loro reciproca possibilità di cooperare nel
produrre informazioni e valore sociale.
I valori culturali che ispirano il modello della Start Up sono
importanti per cogliere il fenomeno, tuttavia non aiutano a spiegare la
sua ascesa come modello di impresa: più efficace a questo scopo è la
ricostruzione della trama finanziaria che ne muove le fila.
Tutto inizia attraverso una vera e propria campagna di credit
rasing, in cui gli investitori sono attirati da guadagni elevatissimi a cui
23
C. Marciano
corrispondono altrettanti rischi. Tra il fondo e i creditori si posiziona
quindi un intermediario, che ha il compito di trovare un'impresa, o
anche semplicemente un'idea, che potrebbe generare a medio termine
profitti clamorosi o anche perdite senza alcuna possibilità di rimborso: il
cosiddetto venture capital.
Dove cercare le idee se non tra i “geni”? Gli intermediari
sguinzagliano cacciatori di teste nelle Università, piuttosto che nelle reti
di incubatori, nei gruppi di innovazione industriale e sociale. Individuato
un progetto interessante, il fondo investe in primo luogo per la
produzione di un prototipo, quindi per il primo impatto sul mercato e
poi, in caso di successo, nell'espansione del prodotto a livello globale.
Ovviamente, l'idea è riprodotta in una miriade di Start Up in innesti
diversi, per capire quali variabili funzionano meglio e resistono meglio
all'ambiente, alla pari del coltivatore neolitico con i semi degli alberi da
frutto..
La Start Up è un modello estremamente competitivo, che
richiede un mutamento continuo dei suoi prodotti, delle sue tecniche di
riproduzione e di accumulazione, adeguato ad un mercato con una
domanda flessibile e spesso difficile da prevedere.
In questo senso, la Start Up è destinata a sconvolgere
completamente le relazioni tra capitale e lavoro, le forme di
organizzazione, di contratto, i cosiddetti rapporti sociali di produzione.
La Start Up nasce e muore molto rapidamente, il suo numero di
“dipendenti” varia da uno a mille anche nel giro di poco tempo,
rendendo il lavoro necessariamente più precario, richiedendo una
divisione del lavoro sociale fondato sulla conoscenza e sulla
iperspecializzazione, rendendo i cosiddetti “mezzi di produzione”
qualcosa di molto più facile da ottenere che nel passato.
La Start Up nasce come espressione di un'economia
finanziarizzata e di una cultura influenzata dal libertarismo e dalla
cibernetica. Tuttavia, nella Smart City, che come altri modelli di città è
un buco nero centrifugo in cui tutto è attirato e niente riesce a fuggire,
anche la Start Up entra in contatto con i temi dell'urbanizzazione
intelligente, con la sfera culturale dell'ecologismo, con la società del
rischio che tende ad alleggerire il carico esplosivo della crescita e del
progresso senza fine.
La Start Up entra quindi in contatto con un mondo in cui la
finanza e l'impresa sono definite “sociali”, in cui gli obiettivi
fondamentali non sono la massimizzazione dei profitti e il reperimento
di investitori, ma la lotta contro l'inquinamento del traffico e per dare
un tetto agli anziani con redditi bassi, in cui gli imprenditori hanno una
formazione manageriale ma vengono dal cattolicesimo di base,
dall'estrema sinistra, dal libertarismo radicale.
La Start Up si snatura, o meglio evolve e si adegua, ad un
mondo che non va verso un senso unico, e diviene la forma di impresa
peculiare non solo dell'economia neoliberale degli ultimi anni ma anche
dell'anti-economia, quella sociale, ben rappresentata dal concetto di
“Social Innovation”.
24
La Comunicazione N.R.& N.
Smart City. Infrastrutture fisiche e sociali dell'urbanizzazione intelligente.
Smart City. Social and material infrastructures of intelligent urbanisation.
b. Il mondo della Social Innovation. Il caso CleanNap a Napoli
Sarebbe impreciso definire la Social Innovation un nuovo
modello di impresa. Tuttavia, si può considerare come un processo
socio-economico fondamentale alla creazione di nuove forme di valore
che hanno una possibile incidenza sulle strutture organizzative delle
imprese.
La Social Innovation incorpora la convergenza della Smart City
nella misura in cui muove i gruppi intermedi della Comunità verso
attività e sistemi di organizzazione tipici di un'impresa ed esprime
l'influenza dei paradigmi informazionale ed ecologico attraverso la
creazione di servizi.
Può aiutare, per calare la Social Innovation nell'ambito urbano,
raccontare una best practice in corso di realizzazione, ovvero
l'esperienza di CleaNap: un'associazione culturale che ha vinto un
finanziamento governativo di 2 milioni di euro per implementare un
sistema di bike sharing a Napoli. Si tratta di un'esperienza che contiene
tutti gli elementi caratteristici della social innovation un'associazione
che diventa impresa, un bisogno sociale che trova una soluzione
organizzativa e tecnologica nuova per essere finalmente soddisfatto, un
servizio caratterizzato da uso collettivo, l'implementazione di tecnologie
della comunicazione e con finalità ambientali.
CleaNap nasce nel 2011 dichiaratamente come un gruppo di
innovazione sociale. L'obiettivo dei fondatori è quello di creare
aggregazione su proposte di creatività urbana, partecipativa e
volontaria. Il nucleo fondatore è costituito da cinque giovani laureati
under 35 anni con competenze diverse, dall'architettura alla sociologia,
caratterizzati da una forte tensione verso il proprio territorio. Nel 2013
CleaNap decide di partecipare al bando MIUR sull'innovazione sociale
rivolto alle Regioni della convergenza, tra cui la Campania. Il progetto
viene finanziato con due milioni di euro e dopo un anno di attese per
recepire i finanziamenti, utile tuttavia alla comunicazione del progetto
in giro per l'Italia, prende il via a Febbraio 2015.
Chiunque conosca Napoli conosce anche la situazione
drammatica della sua mobilità urbana. Traffico alle stelle, geografia del
centro caratterizzata da un continuo sali e scendi, piste ciclabili
inesistenti, per non parlare del rischio (diffuso del resto in tutte le
metropoli) di furti, scassi e vandalismo. Un contesto dove sperimentare
pratiche di mobilità condivisa e pubblica come il bike sharing è
sicuramente un'azione coraggiosa.
Il progetto proposto da CleaNap non è tuttavia un bike sharing
“canonico”. Nel sistema ideato e poi attuato, ci sono alcuni dispositivi
“Smart” che lo rendono particolarmente ingegnoso.
Le stazioni sono dislocate nel centro urbano, tra la Stazione, il
Porto e nei pressi dell'Università Federico II. Ognuna è dotata di un
sensore GPS nascosto nel telaio per garantire al gestore di avere sotto
controllo la flotta.
Le ciclo-stazioni sono date di lettore RFID e NFC per garantire il
pagamento del servizio tramite cellulare, semplicemente apponendolo
vicino al codice sorgente. Il sistema è collegato ad un'APP user friendly,
25
C. Marciano
in cui è possibile registrarsi con poche credenziali e avere accesso alle
postazioni a distanza, prenotando anche ore prima la bicicletta. L'App
fornisce anche il codice per sbloccare la bici prenotata, con un sistema
di controllo elettronico che scoraggia il tentativo di furto. Ogni ciclostazione è monitorata da videosorveglianza, di un totem informativo
che raccoglie anche pubblicità e di un hot spot per garantire la
connettività.
Il sistema tariffario è indubbiamente incentivante: i primi trenta
minuti sono gratuiti, e l'unica penale in caso di sforamento è il ritiro
dell'abbonamento che abilita l'accesso alle bici. Inoltre, fino a Maggio
2015, l'abbonamento sarà gratuito, perché lo start up è pagato dal
MIUR con il bando Smart Cities and Communities. Dopo si procederà
con il pagamento di una tariffa per accedere al servizio minimo (30
minuti a sessione), e con livelli superiori al crescere dell'uso.
La gestione del servizio sarà a cura di CleaNap, che avendo
realizzato l'infrastruttura è anche concessionaria del servizio per alcuni
anni. Un'associazione no profit che diventa agenzia per la mobilità di
una città di quasi un milione di abitanti restituisce il senso dell'idea di
Social Innovation come processo che trasforma le strutture di comunità
in imprese sociali.
Il progetto è stato comunicato per circa un anno nella città,
anche grazie alla collaborazione dell'amministrazione comunale: è stato
realizzato, a Febbraio 2015, un evento di lancio, con conferenza stampa
e inaugurazione delle ciclo-stazioni.
I risultati finora ottenuti sono incoraggianti: in un mese sono
stati registrati 4.000 utenti e realizzate oltre 6.500 sessioni. Sono in
corso analisi sui flussi, le destinazioni e la tipologia di utente: il sistema
informativo che regge il servizio consente infatti un monitoraggio
consapevole degli utilizzi, a cui partecipano in primis gli utenti del
servizio, che forniscono informazioni anche sotto forma di messaggi e
suggerimenti.
Le esperienze di Social Innovation pongono le basi per il
prossimo e ultimo paragrafo destinato a descrivere il cuore della Smart
City: gli spazi pubblici. Infatti, i luoghi di produzione e svolgimento delle
attività di innovazione sociale sono anch'essi strutture fondamentali
dell'urbanizzazione intelligente. Si tratta di entrare, seguendo una
metafora geografica, nelle dinamiche “bottom up” della Smart City,
quelle prodotte dal basso, quelle che poi ci porteranno a indagare lo
spazio vissuto nel terzo capitolo, dedicato all'analisi di un caso di
telelavoro.
2.3 Gli spazi di Comunità
Chiudiamo questa rapida panoramica sul cuore della Smart City,
dedicando alcune pagine a quelli che definiamo “spazi di comunità”.
Certi luoghi caratterizzano i modelli urbani fungendo da
sineddoche, esprimendo il tutto attraverso una sua parte: l'anfiteatro
per la città romana, il castello per la città medievale, la fabbrica per la
città industriale. Si tratta di spazi non necessariamente pubblici, tuttavia
visibili e decodificabili da tutti gli abitanti di una città come dei
dispositivi identitari. In questo senso sono “spazi comuni”, cioè
26
La Comunicazione N.R.& N.
Smart City. Infrastrutture fisiche e sociali dell'urbanizzazione intelligente.
Smart City. Social and material infrastructures of intelligent urbanisation.
contengono e riproducono la forma essenziale dei rapporti sociali per
come saranno vissuti anche al di fuori dei propri confini. Sono la scena
che ispira l'osceno.
Analizzare gli spazi comuni della Smart City vuol dire
comprendere, per dirla con Heidegger, il suo “essere nel mondo”: il
modo in cui nell'abitare un luogo si esprime un progetto di società, si
cerca di soddisfare un complesso di aspirazioni e di colmare lacune e
vuoti lasciati dai sistemi istituzionali in decadenza.
Probabilmente, non è ancora matura l'idea di Smart City al
punto di eleggere dei luoghi così pregnanti della sua essenza. Allo stato
attuale, sarebbe improvvido eleggere uno “spazio comune” della Smart
City, perché nessuno è abitato al di fuori di specifiche élite.
Tuttavia, se ci sono oggi degli spazi peculiari creati dal modello
Smart City e con una tensione all'egemonia tale da farli considerare dei
possibili candidati a ricoprire la carica di spazi comuni, quelli sono gli
orti urbani, i Fab Lab, i Coworking che proponiamo di chiamare gli
“spazi di Comunità”.
a. Il mondo degli orti urbani
Da Matrix a Blade Runner, diverse narrazioni cinematografiche
hanno immaginato un destino robotico per gli spazi pubblici della città
futura. La flora e la fauna sarebbero scomparse, il clima devastato da
piogge acide e nucleari, i paesaggi occupati da immense colate di
cemento e acciaio, sorvegliati da sensori diffusi fin dentro la pelle degli
abitanti.
Pochi avrebbero immaginato che, invece, gli scenari della Smart
City avessero al centro il tema della distribuzione della terra,
dell'agricoltura urbana, della produzione di cibo a chilometro zero, in
una parola del mondo degli orti urbani.
Gli orti urbani, infatti, producono lo spazio sociale della Smart
City.
Lo fanno dal punto di vista fisico riscrivendo i paesaggi urbani
attraverso la coltivazione di apprezzamenti abbandonati, l'apertura di
mercati e botteghe con cibo biologico, la creazione di fattorie
didattiche. Lo fanno dal punto di vista concettuale consentendo la
diffusione di un nuovo immaginario di città e di una maggiore
sensibilità verso la natura. Infine, dal punto di vista delle esperienze,
creando nuovi gruppi sociali intermedi in cui circola una rinnovata
coesione sociale attraverso la condivisione di particolari stili di vita e
abitudini di consumo.
La categoria concettuale di “appropriazione”, elaborata da
Lefebvre (1975), ci consente di interpretare la genesi di questo mondo.
Lefebvre ritiene che la rivoluzione urbana
si espliciti
nell'appropriazione dello spazio e del tempo di vita da parte delle
persone. Appropriazione vuol dire emancipazione ma anche possesso,
riconoscimento dell'altro ma coscienza della propria unicità.
Rispetto allo spazio astratto, in cui la complessità è costretta ad
omologarsi in grandi gruppi semplificatori e l'ordine è garantito
attraverso il controllo e la disciplinamento, l'appropriazione è una
struttura dell'azione dello spazio differenziale, in cui invece le diversità
27
C. Marciano
si riconoscono reciprocamente senza centro e senza integrazione, gli
individui sono liberi di poter decidere e scegliere in base alle proprie
sensibilità, senza normalità e, a volte, senza norma.
Il mondo degli orti urbani rappresenta una duplice
appropriazione nei confronti sia del modo di alimentarsi sia della
gestione del territorio nella città industriale.
La città industriale è quella in cui il cibo, forse per la prima volta nella
storia, tendenzialmente non scarseggia. Eppure, la produzione di massa
del cibo e la sua distribuzione secondo le logiche dell'economia
capitalistica, ha creato dei vuoi profondi, cioè dei bisogni insoddisfatti.
L'impersonalità dei rapporti tra consumatore e produttore, il
rischio ambientale connesso alle monoculture, agli OGM e alla destagionalizzazione dei prodotti, conduce sempre più persone a rivedere
i propri comportamenti alimentari, per renderli meno omologati e più
salubri. L'appropriazione si traduce nel consumerismo che prende
forma nell'origine controllata dei cibi, nelle certificazioni biologiche, nel
chilometro zero, nel veganesimo e in altre sensibilità in cui si sviluppano
valori culturali alla dieta alimentare.
Anche la gestione del territorio nella città industriale ha
prodotto dei vuoti e dei bisogni insoddisfatti: gli apprezzamenti di terre
pubbliche e private lasciate all'incuria, perché bloccate nell'edificazione
dalla burocrazia, dalla crisi economica e finanziaria, dalla scarsa
tendenza all'innovazione da parte del capitale edilizio. Sono i luoghi
dell'abbandono, perennemente in attesa di diventare altro, di essere
alienati o semplicemente curati dalle istituzioni pubbliche, oppure se
privati, di acquisire maggiore valore commerciale attraverso una
speculazione o una variante urbanistica. Sono i luoghi esclusivi della
città, sebbene non servano a nulla: sono sempre di “altri”, blindati per il
loro disuso.
L'appropriazione del mondo degli orti urbani opera in questi
interstizi urbani, occupandoli o chiedendo il loro affidamento per
progetti diversi: dalla coltivazione di quartiere, in cui ogni famiglia ha un
piccolo lotto da curare, all'apertura di vere e proprie aziende agricole in
città. Ancora, opera tramite il situazionismo del guerriglia gardening,
che li ripulisce dalle sterpaglie e li riempie di fiori e piante.
In altre parole, l'appropriazione usa gli orti urbani per
risemantizzare lo spazio urbano dal punto di vista di chi lo vive, nella
dialettica lefebvriana è lo spazio vissuto che conquista quello concepito:
le conseguenze sul piano culturale sono notevoli.
In questo ribaltamento, non è infatti più la città che fugge verso
la campagna, come negli anni dello sviluppo del peri-urbano in cui la
residenzialità annaspava verso il residuo di ossigeno lasciato oltre le
periferie. È piuttosto il contrario: è la campagna che torna dentro la
città, non solo con i suoi alberi da frutto e i suoi campi coltivati, bensì
con le sue istituzioni sociali comunitarie.
L'appropriazione che esprime il mondo degli orti urbani è infatti
un'istanza politica: come il peri-urbano isola in villette unifamiliari le
persone chiudendole nel privato, così l'orto urbano ributta le relazioni
28
La Comunicazione N.R.& N.
Smart City. Infrastrutture fisiche e sociali dell'urbanizzazione intelligente.
Smart City. Social and material infrastructures of intelligent urbanisation.
sociali verso il pubblico. Un fatto privato come la dieta, diviene di nuovo
un fatto politico. Per fare la spesa, si va a fare lo scarico al gruppo di
acquisto solidale, ed ogni mese si fa una riunione, si eleggono piccole
rappresentanze, ci si collega con altri gruppi confrontandosi su
necessità organizzative ma anche organizzando convivialità,
formazione, iniziative pubbliche per “seminare” i propri stili di vita
verso chi ancora non li conosce.
b. Il mondo dello smart working: Fab Lab e Coworking
Il concetto di smart working è di nuovissima elaborazione e sta
ad indicare l'organizzazione del lavoro alla luce delle innovazioni poste
dall'affermarsi del modello Smart City.
La tesi sostenuta in questo paragrafo è che il mondo dello
smart working, sia incorporato da alcuni luoghi peculiari: i Fab Lab e i
Coworking. Questi spazi sarebbero stati generati dalla spinta
all'appropriazione già esplorata a proposito degli orti urbani. Tale
spinta, a sua volta innestata dalla diffusione di tecnologie e valori
afferenti i paradigmi informazionale ed ecologico, intenderebbe
capovolgere l'organizzazione on-site based e suoi presupposti
fondamentali: la concentrazione nello spazio-tempo di manodopera,
l'eterodirezione nell'effettuazione della mansione, il focus sulla quantità
anziché la qualità. Il fine sarebbe quello di colmare i vuoti e i bisogni
insoddisfatti creati dal lavoro nella città industriale, sia dal punto di
vista del lavoratore che dell'impresa: l'alienazione e lo stress da un lato,
la scarsa produttività e l'eccesso di costi da un altro.
In estrema sintesi, i Fab Lab sono spazi, spesso ricavati da
magazzini in disuso o fabbriche abbandonate, in cui è possibile coprogettare e costruire oggetti, grazie alla presenza di diverse tecnologie
per la fabbricazione digitale, come stampanti 3D, macchine a controllo
numerico,fresatrici e kit vari di microelettronica. La gestione dei Fab Lab
è spesso affidata ad associazioni culturali, pertanto l'accesso è vincolato
al tesseramento e offre la possibilità di partecipare a laboratori, corsi e
workshop sulle tecniche di produzione digitale. I Fab Lab tuttavia non
sono semplicemente luoghi formativi o di intrattenimento, si
propongono come incubatori di impresa e come vere e proprie
fabbriche 2.0: un progetto imprenditoriale può effettuare un test sulla
sua validità, un professionista può produrre ciò che gli occorre usando
le attrezzature presenti, si può perfino cercare di trovare dei finanziatori
o dei valutatori tra gli iscritti. Infine i Fab Lab sono una rete
internazionale, diffusa in tutti i continenti, con degli standard condivisi
e un movimento sociale, quello dei “makers”, che si caratterizza per la
promozione del fai da te, dell'open source e della sharing economy.
I Co-Working sono invece spazi in cui professionisti di varia
estrazione trovano la propria sede operativa, ottenendo da un lato un
forte risparmio sui costi fissi di un ufficio autonomo, da un altro la
possibilità di confrontarsi e relazionarsi con i propri vicini. Spesso i
Coworking sono anche bar-bistrot e i più evoluti hanno al proprio
interno anche alcuni servizi complementari come l'assistenza a
bambini. A differenza dei Fab Lab, i Coworking non sono una rete
internazionale, non hanno una modelizzazione ufficiale né un
29
C. Marciano
movimento sociale dietro che ne promuove attivamente la diffusione.
Tuttavia, sono in corso tentativi che mirano a colmare queste lacune.
L'esempio è “The Hub”, un'associazione di innovazione sociale
internazionale, che nelle principali capitali europee ha creato dei
Coworking con uno stile architettonico particolare, nonché una
corrispondente piattaforma web dove chi aderisce, pagando un
abbonamento, può avere modo di entrare in contatto con professionisti
“selezionati” e disponibili a discutere dei reciproci progetti.
Senza dilungarci troppo sulle singole caratteristiche, possiamo
rilevare come sia Fab Lab che CoWorking condividano la medesima
natura di spazi creati grazie all'incrocio di tecnologie e valori derivanti
dai paradigmi informazionale ed ecologico, che reggono sia l'idea di
Smart City sia, evidentemente, di smart working.
In prima istanza, lo smart working è indissolubilmente legato
all'affermazione delle nuove ICT, in particolare al personal computer,
alla connessione wireless e allo sviluppo delle telecomunicazioni. È
grazie a questi dispositivi che è possibile “portare” lo strumento di
lavoro in qualsiasi luogo, poterne trasferire i risultati in tempo reale
senza condizioni spazio/temporali definite.
In secondo luogo, lo smart working è prevalentemente
orientato alla produzione di servizi che hanno come oggetto la
circolazione di informazione e conoscenza. Cambia la formazione
dell'intellettuale organico: se un tempo era necessario per costruire un
ponte avere a disposizione ingegneri civili, geometri, operai, autisti,
amministrativi e contabili, per realizzare un portale web sono necessari
grafici, ingegneri informatici, esperti di usabilità, di marketing e
comunicazione. Oltre che nella qualità della mansione, la differenza sta
nel fatto che il grafico e l'informatico possono lavorare allo stesso
progetto anche abitando in continenti diversi, lavorando nel contempo
per diverse imprese: questo sposta i rapporti sociali di produzione dal
salariato al freelance, dal tempo indeterminato al progetto a contratto,
rendendo irrimandabile una riforma degli ammortizzatori sociali in
uscita.
Una terza gamba dell'informazionalismo nel plasmare lo smart
working è l'uso di Internet come enciclopedia permanente, da cui
deriva sia l'approccio fai da te sia quello open source. Siamo sul confine
del free work, del lavoro non retribuito, ma capace di produrre servizi e
beni non solo di “autosussistenza” funzionanti e riconosciuti
socialmente. Il DIY (do it your self) e l'hackerismo sono i pilastri del
movimento maker: la conoscenza è fatta per essere condivisa, il diritto
di proprietà va superato verso il copyleft o il peer to peer, affinché tutti,
anche gli amatori, siano in grado di riparare un oggetto, di preparare un
cibo, di curarsi o anche di coltivare una pianta di Marjuana! In questo, i
makers incrociano la controcultura, alla pari di quanto abbiamo rilevato
per la genesi culturale del mondo delle Start Up.
Lo smart working è fortemente influenzato anche dal
paradigma ecologico. In primo luogo, spesso la finalità dei servizi e dei
beni prodotti, o anche dei dispositivi organizzativi come nel caso del
telelavoro, è quella di una maggiore salvaguardia di ambiente e salute.
30
La Comunicazione N.R.& N.
Smart City. Infrastrutture fisiche e sociali dell'urbanizzazione intelligente.
Smart City. Social and material infrastructures of intelligent urbanisation.
Tuttavia, l'influenza del paradigma ecologico sullo smart
working, almeno nella versione incorporata a livello urbano da Fab Lab
e Coworking, è maggiormente evidente a livello latente, in particolare
nella spinta alla secolarizzazione e alla limitazione.
Ciò che tuttavia appare più evidente nel frequentare un Fab Lab
o un Coworking è l'orizzontalità dei rapporti tra chi li frequenta, nonché
di eterodirezione nella gestione dello spazio e del tempo. È in questo
senso che lo smart working opererebbe un'appropriazione rispetto al
on-site based: nel produrre meno dipendenti e più autonomi, meno
grandi concentrazioni e più piccolissime imprese, meno prodotti
standardizzati e più offerta personalizzata, meno controllo sul metodo e
più sul risultato ottenuto.
Il vuoto, cioè il bisogno non corrisposto, che lo smart working
colma, è ridare lo spazio e il tempo di lavoro, quindi il controllo del
proprio corpo e dei propri movimenti, infine delle proprie competenze,
al lavoratore. Lo spazio astratto della città industriale, lo aveva
concentrato negli stessi luoghi per lo stesso numero di ore, vincolato a
seguire procedure per ottenere risultati di cui non conosceva lo scopo,
spinto a considerare lo sviluppo della propria persona in contrasto con
la carriera, specie nel caso delle donne.
L'appropriazione opera nello smart working, e comincia a farsi
strada spazialmente nei fab lab o nei coworking, nella misura in cui chi
vi lavora non ha un datore a cui rispondere se non per un periodo di
tempo limitato, non ha una gerarchia predefinita da rispettare, decide
quando lavorare e con chi confrontarsi per avere valutazione e riscontro
del proprio lavoro.
Tuttavia, non bisogna guardare l'appropriazione solo dal punto
di vista del singolo lavoratore, anche il datore di lavoro usa lo smart
working per superare il modello precedente, inadeguato a servire il
contesto contemporaneo e le sue sfide. Lo dimostrano, in particolare,
l'esternalizzazione dei servizi operativi e il mantenimento solo della
direzione tra le strutture dipendenti, l'off-shoring delle manifatture
verso paesi in via di sviluppo, la precarizzazione dei rapporti di lavoro
con relativa riduzione dei costi, lo spostamento dei costi fissi di beni e
attrezzature sul lavoratore free-lance piuttosto che sul dipendente.
Conclusioni
Le infrastrutture e gli apparati della Smart City sembrano
pertanto essere caratterizzati da una reciproca tendenza
all'interdipendenza: tecnologicamente, attraverso la ricerca di un codice
minimo con cui far circolare informazioni tra soggetti/oggetti/istituzioni
prima scarsamente interoperabili; sociologicamente, attraverso una
fusione tra le caratteristiche funzionali degli apparati pubblici, privati e
comunitari, in cui governo, mercato e comunità sembrano scambiarsi i
codici, le pratiche sociali e a volte perfino gli obiettivi.
Ma tutta questa disponibilità ad incontrare l'altro è reale o manifesta? E
quali conseguenza ha sul piano delle strutture sociali? Ad esempio: una
governance sempre più orizzontale, partecipata e trasparente non
31
C. Marciano
indebolisce l'autorità delle istituzioni pubbliche e, in particolare, di
quelle politiche rappresentative? Oppure, la contaminazione tra mondo
dell'impresa e del privato sociale crea davvero progetti imprenditoriali
duraturi, capaci di generare reddito e remunerare gli investimenti,
oppure c'è sempre bisogno del supporto pubblico e di restare dentro
un ambito sperimentale? Negli stessi spazi di comunità chi partecipa
realmente e soprattutto cosa cerca?
In parole diverse, le premesse che ispirano le infrastrutture e le
pratiche organizzative della Smart City sono ancora un interrogativo
aperto per larga parte della popolazione delle città, la quale non è
coinvolta, non conosce e, nel caso, spesso non capisce di cosa si parla
quando sente la parola “smartness”. Potrebbe questo risultare un
dettaglio per chi è abituato a gestire i rapporti di mercato dal punto di
vista dell'offerta. Tuttavia, i tempi in cui Henri Ford poteva sentenziare
ironicamente “Ditemi di che colore volete le automobili, ve le darò
nere” sono ormai lontani.
In che modo le scienze sociali e della comunicazione possono
intervenire per sciogliere questi nodi problematici? La strada maestra
sembra quella delle fenomenologie della Smart City.
Come la scuola di Chicago ha studiato la città industriale attraverso un
insieme di ricerche empiriche ispirate dalle tecniche etnografiche, e ne
ha poi desunto una teoria generale della città grazie all'integrazione tra
i dati raccolti sul campo e l'applicazione dei concetti euristici
dell'ecologia, così anche sarebbe da fondare una scuola della Smart
City, in cui da un lato si procede a studiare le sue tante applicazioni a
partire dai punti di vista di chi le mette in campo, quindi si integrano
questi dati rispetto ad una teoria generale, che in queste pagine
abbiamo provato ad abbozzare, almeno dal punto di vista delle
implicazioni culturali.
I casi di studio sarebbero tanti, già solo nelle città italiane. Ad
esempio, la mobilità urbana e le nuove modalità di fruizione dei mezzi
di trasporto, attraverso la diffusione di sistemi di bike e car sharing, così
come di car e bike pooling. Oppure le nuove pratiche di produzione e
consumo dei cibi, con i vari gruppi di acquisto solidale, orti urbani,
cooperative agricole.
Un punto di vista interessante da studiare potrebbero essere
proprio le pubbliche amministrazioni che elaborano i primi sistemi
informativi territoriali georeferenziati, in cui cioè riproducono in 3D la
cartografia comunale e creano banche dati uniche per il controllo del
territorio; oppure che usano gli sportelli telematici, in cui i flussi di
comunicazione tra cittadino e amministrazione divengono
completamente immateriali, ed è necessario che diversi settori
contemporaneamente adottino la pratica ed effettuino i passaggi
successivi alla sua risoluzione.
Ancora, la Smart City potrebbe essere studiata dal punto di
vista degli studenti e dei docenti nelle scuole dove si sperimenta l'elearnig e cominciano ad essere utilizzati i devices digitali come LIM e
tablet: come si modifica l'apprendimento, quali conseguenze per
l'articolazione degli spazi stessi della didattica, per i rapporti tra docenti
e studenti.
32
La Comunicazione N.R.& N.
Smart City. Infrastrutture fisiche e sociali dell'urbanizzazione intelligente.
Smart City. Social and material infrastructures of intelligent urbanisation.
Sono queste, solo poche tra le tantissime esperienze da andare
a studiare, proprio adesso che nascono e proprio ora che ancora non le
studia nessuno.
Perché farlo? Non solo per seguir virtute et conoscenza.
Anche e soprattutto per migliorare il design delle Smart Cities,
per far sì che i suoi dispositivi tecnologici ed organizzativi non siano
costruiti unicamente sugli interessi dei produttori di ICT o infrastrutture
verdi, bensì su quelli delle comunità.
Anche e soprattutto per migliorare l'approccio delle
amministrazioni comunali e locali alla realizzazione di progetti Smart
Cities, introducendo metodi e tecniche per l'analisi di sfondo, in modo
tale da far maturare ai policy makers l'idea di produrre azioni in base
alle reali esigenze del territorio e non alle proprie solitarie visioni.
33
C. Marciano
Bibliografia
1.] Nam T., Pardo T. A., Conceptualizing Smart City with Dimensions of
Technology, People, andInstitutions,”Proc. 12th Conference on
Digital Government Research, College Park, MD, June 12–15, 2011.
2.] Lévy, P., Cybercultura: gli usi sociali delle nuove tecnologie. Feltrinelli,
Milano, 2003.
3.] De Kerchkove, D., L'architettura dell'intelligenza, Testo e Immagine,
Torino, 2001.
4.] Weber, H. R., Internet of things: new security and private challenges.
In Computer law and secutiry review, Vol.26, Zurigo, 23-30, 2011.
5.] M.N. Zhadin, Combined action of static and alternating magnetic
fields on ionic current in aqueous glutami c acid solution, in
Biolettromagnetics, Vol.19, 41-45, 1996.
6.] Bolter J.D., Grusin R., Remediation: competizione e integrazione tra
media vecchie nuovi. Guerini, Milano, 2002.
7.] Kooiman, J., Governing as governance, Sage, London, 2003.
8.] Le Galés, P., Le retour des villes europeennes : societes urbaines,
mondialisation, gouvernement et gouvernance, Presses de Sciences
Po, Paris, 2003.
9.] Brenner, N., Urban governance and the production of new state
spaces in western Europe, 1960–2000, in Review of International
Political Economy, Vol.11.3. 447-488, 2004.
10.] Ledrut, R., Sociologia urbana. Bologna: Il Mulino, 1971.
11.] Diani M., Della Porta D., Movimenti senza protesta?
L’ambientalismo in Italia, Il Mulino, Bologna, 2004.
12.] Castells, M., The rise of the network society. Vol I, John Wiley and
Sons, New York, 1997.
13.] Turner, F., From counterculture to cyberculture, University of
Chicago Press, Chicago, 2008.
34
La Comunicazione N.R.& N.
Smart City. Infrastrutture fisiche e sociali dell'urbanizzazione intelligente.
Smart City. Social and material infrastructures of intelligent urbanisation.
14.] Negri A., Hardt M., Empire. Harward University Edition, Cambridge,
2001.Chourabi H. e Taewoo N., Understanding Smart Cities: An
Integrative Framework, Proc. of HICSS, 45th Hawaii Conference,
2002.
15] Lefevbre, H., La produzione dello spazio. Il Mulino, Bologna, 1975.
16] Marciano, C., Unpacking a Smart City Model. The hegemony of
ecological and information paradigm, The International Journal of
Interdisciplinary Environmental Studies" Vol.VII, Issue 3, pg1-12,
Spiral Bound (USA), 2013.
Sitografia dei documenti di policy
Anci, Osservatorio nazionale per le Smart Cities, Vademecum per la
città intelligente
http://osservatoriosmartcity.it/il-vademecum/
Commissione Europea, 2010, A digital agenda for Europe.
http://europa.eu/legislation_summaries/information_society/strate
gies/si0016_en.htm
Comune di Milano (Giunta Comunale), Indirizzi per la
sperimentazione di azioni di crowdfunding
http://www.milanosmartcity.org/joomla/images/delibera_crowdfun
ding.pdf
Governo Italiano, 2014, Strategia Italiana per la banda ultralarga.
http://www.corrierecomunicazioni.it/upload/images/11_2014/1411
21155030.pdf
Governo Italiano, 2014, Strategia crescita digitale.
http://www.corrierecomunicazioni.it/upload/images/11_2014/1411
21155204.pdf
Governo Italiano, 2014, Bando Smart Cities and Communities.
http://www.ponrec.it/programma/interventi/smartcities/
Governo Britannico, 2013, The Future of Cities. The cultural
dimension
https://www.gov.uk/government/uploads/system/uploads/attachm
35
C. Marciano
ent_data/file/366138/14-821-cities-cultural-dimension.pdf
Governo Britannico, 2013, The Future of Cities. Urban infrastructure
and form
https://www.gov.uk/government/publications/future-cities-urbanform-and-infrastructure
Governo Britannico, 2013, The Future of Cities. Comparative urban
governance
https://www.gov.uk/government/publications/future-citiescomparative-urban-governance
Regione Piemonte, 2014, Politiche di conciliazione in azienda.
Rapporto Piemonte 2014
http://www.regione.piemonte.it/pariopportunita/cms/images/files/
politiche-conciliazione-in-azienda-2014.pd
36
La Comunicazione N.R.& N.
La Comunicazione N.R.&N.
Frank Silvio Marzano,
Augusto Maria Marziani
“Sapienza” Università di Roma
- Dipartimento di Ingegneria
dell’Informazione, Elettronica e
Telecomunicazioni
Elio Restuccia
Istituto Superiore delle
Comunicazioni e delle
Tecnologie dell’Informazione ISCOM
Fernando Consalvi
Fondazione Ugo Bordoni
Realizzazione di una stazione
terrena ricevente satellitare per
studi di propagazione
elettromagnetica in atmosfera.
Realization of a satellite ground station for studies of
electromagnetic propagation in the atmosphere.
Sommario: Il satellite per telecomunicazioni Alphasat, il più grande
realizzato in Europa e collocato in orbita geostazionaria nel luglio del
2013, ospita a bordo una piattaforma scientifica (TDP-5 “Aldo
Paraboni”) destinata allo studio della propagazione elettromagnetica in
atmosfera in alcune bande di frequenze a microonde tra cui la banda
Ka (20 GHz) e la banda Q (40 GHz). Alle sperimentazioni partecipano
numerose Università ed Enti di ricerca di tutta Europa, in Italia su
iniziativa dell'ASI (Agenzia Spaziale Italiana) sono coinvolti, tra gli altri,
il Politecnico di Milano e le Università di Roma Tor Vergata e Sapienza.
Presso l'ISCTI (Istituto Superiore delle Comunicazioni e delle
Tecnologie dell'Informazione) è stata realizzata una stazione ricevente
con minima spesa, grazie all'utilizzo di componenti appartenenti a
ricevitori non più operativi, e dotata di piattaforme open-source per
l’implementazione di funzioni aggiuntive.
Abstract: Alphasat satellite, the largest telecommunication satellite
built in Europe, was placed in geostationary orbit in July 2013. On board
is operative a scientific platform (TDP-5 “Aldo Paraboni”) devoted to
the study of atmospheric propagation in some frequency bands
including microwave Ka-band (20 GHz) and Q-band (40 GHz). Many
universities and research organizations across Europe are involved in
experimental trials. In Italy ASI (Italian Space Agency) is involved with
the Polytechnic of Milan, the Universities Tor Vergata and Sapienza in
Rome and others.
At ISCTI (Istituto Superiore delle Comunicazioni e delle Tecnologie
dell'Informazione) a receiving station was made with minimal expense
recycling components contained in old equipment no longer operative
and using open-source platforms for the implementation of additional
functions.
37
F.S.Marzano, A.M.Marziani, E.Restuccia, F.Consalvi
1. Introduzione
Il diffondersi a livello globale di tecnologie sempre più avanzate e a
basso costo crea da parte degli utenti finali una richiesta di capacità di
trasmissione sempre maggiore per consentire in particolare il
trasferimento di immagini e video ad alta risoluzione in tempi più
brevi. Questo bisogno si trasforma nella necessità di dispositivi con
potenze di calcolo sempre più elevate e comunicazioni con flusso di
dati a bit-rate sempre più alto e per di più in mobilità. Questo, in
aggiunta allo sfruttamento già intensivo dello spettro
elettromagnetico, porta alla ricerca di risorse spettrali a frequenze
sempre più elevate e spinge alla sperimentazione in bande mai o
scarsamente utilizzate fino ad ora [1], [2], [3].
È qui che si inserisce l’esperimento denominato TDP-5 [4] “Aldo
Paraboni”.
L’Agenzia Spaziale Europea, infatti, ha deciso di installare a bordo
del satellite per telecomunicazioni Alphasat dei trasmettitori di segnali
ad onda continua per studi di propagazione elettromagnetica in alcune
bande di frequenze tra cui la banda Ka (20 GHz) e la banda Q (40 GHz).
L’Università “Sapienza”, in collaborazione con l’Istituto Superiore
delle Comunicazioni e delle Tecnologie dell'Informazione (ISCTI) e la
Fondazione Ugo Bordoni, ha deciso di partecipare a questo
esperimento tramite la progettazione e la realizzazione di due
ricevitori.
Entrambi i ricevitori sono localizzati a Roma presso la sede
dell'ISCTI, quello operante in banda Ka (19701 MHz) risulta attivo da
tempo ed ha permesso di ottenere già una discreta quantità di dati [5].
La realizzazione della stazione ricevente è avvenuta in quattro fasi:
- analisi e simulazione matematica della propagazione in
atmosfera;
- progettazione, assemblaggio e misurazione in laboratorio delle
sezioni di ricezione;
- realizzazione e installazione delle piattaforme di supporto;
- realizzazione del software di acquisizione dati.
L’analisi del modello di propagazione, basato sulle indicazioni
riportate nelle Raccomandazioni ITU-R [6], è stata effettuata tramite il
software Mat Lab mentre per quanto riguarda le piattaforme di
supporto al ricevitore (controllo temperatura e tracking) è stata scelta
la piattaforma open source italiana Arduino.
L’acquisizione dati, invece, sfrutta una scheda di acquisizione per PC
di tipo PCI dotata di universal library. E’ stato quindi possibile scrivere
un programma in linguaggio C++ per la lettura, la visualizzazione e il
salvataggio dei dati relativi al livello della potenza del segnale ricevuto.
38
La Comunicazione N.R.& N.
Realizzazione di una stazione terrena ricevente satellitare per studi di propagazione elettromagnetica in atmosfera
Realization of a satellite ground station for studies of electromagnetic propagation in the atmosphere
2. Il ricevitore in banda Ka
A – Architettura e caratterizzazione del sistema
La stazione ricevente è stata realizzata riutilizzando componenti di
un ricevitore, destinato negli scorsi decenni ad analoghe campagne
sperimentali ma da tempo dismesso, che operava a frequenza diversa
da quella Alphasat.
I singoli dispositivi e componenti recuperati sono stati provati e
caratterizzati per verificarne le prestazioni e valutare il loro riutilizzo
nel nuovo assemblaggio nel rispetto delle specifiche imposte dall’ESA
TDP-5.
La struttura della stazione ricevente ottenuta risulta, nelle sue parti
essenziali, così composta (Figura 1)
- sezione front end situato in esterno sul locale Torrino nord-ovest
della sede ISCTI;
- sezione back end situato all’interno del Laboratorio Microonde
ISCTI.
Front end
Torrino
nord-ovest
Back end
Laboratorio Microonde
Fig.1 Struttura della stazione
ricevente.
La sezione front end, il cui schema funzionale è visibile in
Figura 2, risulta costituita dall’antenna, con specchio
paraboloide da 1.5 m di diametro e con illuminatore primo
fuoco, che raccoglie il segnale a 19701 MHz emesso dal
satellite, seguito dall’amplificatore a basso rumore (LNA) e dal
down converter.
39
F.S.Marzano, A.M.Marziani, E.Restuccia, F.Consalvi
Quest’ultimo effettua conversioni di frequenza in due stadi in
modo da generare un’uscita a 69 MHz che viene poi inviata, tramite
cavo coassiale, alla sezione back end del ricevitore situata all’interno
del Laboratorio.
L’antenna presenta un guadagno di 47 dBi, l’amplificatore a basso
rumore ha un guadagno di 30.5 dB ed una cifra di rumore di 3.3 dB,
valore che comprende l’effetto del filtro a radiofrequenza che lo
precede. La risposta normalizzata dell’amplificatore + filtro è mostrata
in Figura 3.
Fig. 2. Architettura del front
end del ricevitore in banda Ka.
Fig. 3. Risposta normalizzata
dell’amplificatore a basso
rumore con filtro in banda Ka.
40
La Comunicazione N.R.& N.
Realizzazione di una stazione terrena ricevente satellitare per studi di propagazione elettromagnetica in atmosfera
Realization of a satellite ground station for studies of electromagnetic propagation in the atmosphere
Nella sezione di front end le conversioni di frequenza sono ottenute
con oscillatori di alta precisione e stabilità. Il primo convertitore, con
uscita a 751 MHz, è realizzato con tecnologia a microstriscia mentre il
secondo, con uscita a 69 MHz è montato su PCB.
I due stadi presentano un’amplificazione complessiva di 55 dB.
Uno studio accurato è stato condotto al fine di accertare che sia
evitata la possibilità che segnali alle frequenze immagini di conversione
possano raggiungere l’uscita a 69 MHz.
Il gruppo di amplificazione a basso rumore è stato sistemato in una
scatola a tenuta stagna montata sul lato posteriore del paraboloide
Figure 4 e 5, minimizzando così l’attenuazione della guida
dell’illuminatore e rendendo più facili le manovre di aggiustamento
dell’elevazione dell’intera antenna.
La scatola è provvista di un elemento riscaldatore gestito da un sistema
automatico di regolazione della temperatura al fine di ridurre le
instabilità di risposta in ampiezza dell’intero gruppo dovute a variazioni
di temperatura ambientale
Fi g. 4 Gruppo amplificatore
a basso rumore
41
F.S.Marzano, A.M.Marziani, E.Restuccia, F.Consalvi
Le unità AC/DC e gli alimentatori a tensione d’uscita stabilizzata
sono montati in un separato contenitore, anch’esso a tenuta stagna,
dotato di connettori e cavi idonei all’uso in esterno.
La sezione front end descritta è collegata, tramite apposito
cablaggio, alla sezione back end del ricevitore che si trova all’interno
del laboratorio Microonde ISCTI, al settimo piano della sede
ministeriale, immediatamente al di sotto della zona terrazza e quindi
nelle vicinanze del locale Torrino nord-ovest sulla cui sommità è
installato il front end.
Nella sezione back end trova posto il cosiddetto ricevitore di beacon
(Satellite Beacon Receiver), che effettua ulteriori condizionamenti sul
segnale a 69 MHz proveniente dal front end e fornisce in uscita, grazie
ad un rivelatore logaritmico, una tensione quasi continua la cui
ampiezza può essere rapportata facilmente al valore in decibel del
livello del segnale ricevuto.
Il ricevitore di beacon, anch’esso oggetto di recupero, è stato
concepito a suo tempo con lo scopo di condurre campagne di
misurazioni su segnali ad onda continua ed è fornito di un sistema
automatico di scansione/ricerca ed aggancio in frequenza che rende
autonoma la funzionalità dell’intero sistema anche in caso di perdita
temporanea del segnale.
Un PC ed un software, appositamente sviluppato per l’attuale
sperimentazione Alphasat,
consentono infine di monitorare
costantemente, raccogliere e memorizzare i dati di propagazione
anche in assenza di un presidio permanente.
42
Fi g. 5 Sistemazione del gruppo
amplificatore a basso rumore
La Comunicazione N.R.& N.
Realizzazione di una stazione terrena ricevente satellitare per studi di propagazione elettromagnetica in atmosfera
Realization of a satellite ground station for studies of electromagnetic propagation in the atmosphere
Di seguito vengono riassunte le caratteristiche salienti del
ricevitore:
•
•
•
•
•
•
Frequenza RF: 19701 MHz
Diametro dell’antenna : 1.5 m
Efficienza dell’antenna : 60%
Guadagno dell’antenna : 47 dBi
Larghezza di banda del Satellite Beacon Receiver : 1 kHz
Cifra di rumore : 3.3 dB
in Tabella 1 vengono riportati i risultati della simulazione al banco in
laboratorio relativi al rapporto segnale/rumore, misurato in uscita al
front end a 69 MHz, in corrispondenza dei vari livelli RF ricevuti e delle
relative probabilità calcolate in base ai modelli di propagazione in
atmosfera raccomandati dall’UIT-R per la tratta satellitare [7].
Livello ricevuto
Probabilità
(dBm)
(%)
-110.0
90
30.1
-110.5
10
29.3
-111.2
3
28.5
-117.8
0.1
22.1
(in uscita all’antenna)
C/N
BW 1 kHz
(dB)
Queste prestazioni soddisfano i requisiti dettati dall’ESA per TDP-5
[6] e, una volta utilizzati in una simulazione al calcolatore, fanno
prevedere un tempo di fuori servizio (tempo di perdita dell’aggancio
del segnale di beacon) molto inferiore allo 0.1 % [5][7].
B – Acquisizione ed elaborazione dei dati
Tab.1 Previsioni della
statistica del ricevitore in
banda Ka
Il valore del livello di potenza ricevuto viene ottenuto tramite il
campionamento della tensione, fornita in uscita dal ricevitore di
beacon, effettuato da una scheda di acquisizione PCI, gestita da un
software in linguaggio C++ specificatamente sviluppato per questo
scopo Figura 6.
43
F.S.Marzano, A.M.Marziani, E.Restuccia, F.Consalvi
La schermata prodotta dal software mostra in tempo reale i valori
del livello in dBm del segnale ricevuto misurato all’ingresso del
ricevitore di beacon (riportabile a quello raccolto dall’illuminatore
d’antenna) ad intervalli di tempo regolari con possibilità di visualizzare
più tracciati, di scegliere la finestra temporale e di impostare
l’intervallo dei livelli visualizzati.
Gli stessi dati vengono memorizzati in file di tipo xxx.dat lasciando
la possibilità, per ciascun file, di impostare i parametri desiderati.
Da default i dati vengono memorizzati con una velocità di uno al
secondo mentre un nuovo file viene creato automaticamente ogni 24
ore alla mezzanotte.
Come è evidente dal tracciato, il livello è soggetto a variazioni
periodiche dovute in massima parte al movimento relativo, sia
azimutale che zenitale, del satellite rispetto all’antenna ricevente
causato dal non perfetto posizionamento dello stesso satellite
nell’orbita geostazionaria.
Ciò provoca un disallineamento dall’asse di massimo guadagno
dell’antenna ricevente, che non possiede, al momento, un proprio
sistema di inseguimento ma che inquina la raccolta dei dati con
elementi di natura non propagativa.
Questo effetto è stato comunque ridotto con un filtraggio
numerico. Un filtro passa-basso ricostruisce la parte indesiderata che
viene successivamente sottratta al segnale originale ottenendo come
risultato l’andamento netto del livello dovuto alla propagazione in
atmosfera ed agli agenti attenuanti in essa contenuti.
44
Fi g.6 Schermata prodotta dal
software di acquisizione
La Comunicazione N.R.& N.
Realizzazione di una stazione terrena ricevente satellitare per studi di propagazione elettromagnetica in atmosfera
Realization of a satellite ground station for studies of electromagnetic propagation in the atmosphere
In Figura 7 è mostrato un esempio del risultato dell’elaborazione in
In presenza di evento di pioggia intensa.
La sequenza ottenuta viene quindi correlata con i dati meteo
acquisiti da una stazione meteorologica posizionata sul Torrino nordest dell’edificio, nelle vicinanze del front end del ricevitore ed in
sincronismo temporale con la registrazione dei livelli.
Nella Figura 8 è mostrato un grafico che evidenzia tale correlazione
come rilevato durante un evento del 30 agosto del 2014.
Fi g.7 Esempio di
filtraggio dei dati
Fig.8 Esempio di
correlazione tra
l’andamento del livello
del segnale e la pioggia.
45
F.S.Marzano, A.M.Marziani, E.Restuccia, F.Consalvi
3. Il ricevitore in banda Q
Il ricevitore in banda Q (40 GHz) è strutturato nello stesso modo del
ricevitore in banda Ka e cioè, come schematizzato in Figura 1, è
costituito da un front end installato in esterno sul Torrino nord-ovest
dell’edificio dell’ISCTI, accanto al front end del ricevitore in banda Ka e
da un back end all’interno del Laboratorio Microonde ISCTI.
Nella Figura 9 è illustrata l’architettura di massima del front end.
IF1
3406 MHz
LNA
MIXER
IN
39402 MHz
IF2
70 MHz
CONVERTITORE
IF1 – IF2
OL
35996 MHz
L’antenna, dotata di specchio paraboloide da 46 cm di diametro e di
illuminatore primo fuoco, raccoglie il segnale a 39402 MHz emesso dal
satellite. E’ seguito dall’amplificatore a basso rumore (LNA) e dal primo
convertitore di frequenza.
L’antenna ha un guadagno di 42.7 dBi mentre l’amplificatore a
basso rumore ha un guadagno di 50 dB ed una cifra di rumore di 3.5
dB.
La prima frequenza intermedia è di 3406 MHz che si riduce a 70
MHz dopo la seconda conversione mentre opportuni amplificatori
portano il segnale ad un livello idoneo per essere trattati dagli stadi
successivi.
Nel back end è ospitato un ricevitore di beacon simile a quello
utilizzato per il ricevitore in banda Ka, con la differenza che la larghezza
di banda dell’ultimo stadio IF è stata ridotta a 100 Hz. Ciò è stato
possibile in quanto l’emissione del TDP-5 di Alphasat è del tipo ad onda
continua e quindi con contenuto spettrale minimo.
Si ottiene così un miglioramento di 10 dB sul rapporto
segnale/rumore in uscita, compensando in questo modo il basso valore
del guadagno dell’antenna disponibile che è inferiore a quello previsto
dall’ESA di 53.6 dBi.
Il ricevitore è stato recentemente installato in opera e messo in
servizio ed è tuttora monitorato per verificarne le prestazioni.
46
Fi g. 9. Architettura del front
end del ricevitore in banda Q
La Comunicazione N.R.& N.
Realizzazione di una stazione terrena ricevente satellitare per studi di propagazione elettromagnetica in atmosfera
Realization of a satellite ground station for studies of electromagnetic propagation in the atmosphere
Al sistema di raccolta e registrazione dei dati, che è quello già
descritto per il ricevitore in banda Ka, è stato affiancato un sistema di
registrazione parallelo, gestito da computer, che fa uso del software
“Windaq” in uso presso il Laboratorio Microonde.
Si riassumono di seguito le principali caratteristiche:
•
•
•
•
•
•
Frequenza RF: 39402 MHz
Diametro dell’antenna : 46 cm
Efficienza dell’antenna : 50%
Guadagno dell’antenna : 42.7 dBi
Larghezza di banda del Satellite Beacon Receiver : 100 Hz
Cifra di rumore : 3.5 dB
In Tabella 2, analogamente a quanto fatto per la banda Ka, vengono
riportati i risultati della simulazione al banco in Laboratorio relativi al
rapporto segnale/rumore, misurato in uscita al front end a 70 MHz, in
corrispondenza di alcuni livelli di segnale ricevuto e delle relative
probabilità calcolate in base ai modelli di propagazione in atmosfera
raccomandati dall’UIT-R per la tratta satellitare in banda Q [7] [8].
I segnali ricevuti sono stati simulati con un generatore RF operante a
quella frequenza ed una opportuna catena di attenuatori.
Livello ricevuto
(in uscita all’antenna)
(dBm)
Probabilità
(%)
C/N
BW 100 Hz
(dB)
-114 dBm
90%
37 dB
-115.4 dBm
10%
34 dB
-117.7 dBm
3%
32 dB
-138.1 dBm
0.1%
10 dB
4. Il radiometro in banda W e la stazione meteorologica
Tab. 2 Previsioni della
statistica del ricevitore in
banda Q
Il radiometro è uno strumento utilizzato per la misurazione della
temperatura di brillanza del cielo e dell’atmosfera in una specifica
banda di frequenze e nella direzione in cui viene puntata l’antenna.
La realizzazione di un radiometro a 89 GHz (banda W) è attualmente in
corso presso il Laboratorio Microonde.
47
F.S.Marzano, A.M.Marziani, E.Restuccia, F.Consalvi
Affiancato ai due ricevitori per Alphasat permetterà di raccogliere
informazioni circa il fondo di rumore generato dalla zona
dell’atmosfera interessata dalla propagazione e la correlazione dei vari
dati sarà utile per una migliore interpretazione degli stessi.
Il radiometro in fase di sviluppo è del tipo a potenza totale (Tant +
Trec) con due riferimenti di temperatura per la calibrazione e la
selezione di due diverse polarizzazioni a 90 gradi.
In Figura 10 è mostrata l’architettura di sistema con il carico di
riferimento caldo, il carico di riferimento freddo ed il sistema
ricevente.
In Figura 11 è presentata una raffigurazione in 3D del radiometro nelle
sue parti essenziali.
Fig. 10. Architettura del
radiometro a 89 GHz
Fig.11 Rappresentazione in 3D
del radiometro
48
La Comunicazione N.R.& N.
Realizzazione di una stazione terrena ricevente satellitare per studi di propagazione elettromagnetica in atmosfera
Realization of a satellite ground station for studies of electromagnetic propagation in the atmosphere
Nelle vicinanze delle antenne, sulla sommità dell’edificio come già
accennato, è posizionata una stazione meteorologica che consente,
tramite appositi sensori, il rilevamento della temperatura dell’aria,
della pressione barometrica, della velocità del vento e dell’intensità
della pioggia.
I parametri meteo vengono raccolti da un sistema automatico di
rilevamento ed immagazzinamento dati che vengono scaricati
periodicamente in un data base correlato cronologicamente ai dati
Alphasat.
E’ in corso di perfezionamento anche l’uso di un disdrometro,
strumento in tecnica laser destinato alla misurazione della trasparenza
dell’aria, dell’intensità della pioggia, della dimensione e della velocità
delle idrometeore.
L’elaborazione di tutti questi dati sarà fondamentale per la
sperimentazione in quanto la propagazione ad onde centimetriche e
millimetriche è fortemente influenzata dalle condizioni meteo
dell’atmosfera che, per la geometria del collegamento satellitare, è
coinvolta in tutto il suo spessore.
5. I sistemi automatici di controllo e gestione.
Per ridurre al minimo la necessità di presidiare costantemente i
ricevitori e la registrazione dei dati, viene fatto uso di diversi dispositivi
automatici di controllo e gestione specificatamente sviluppati per
interagire con l’ambiente esterno, prendere decisioni seguendo una
logica preordinata e conseguentemente reagire tramite attuatori o
sistemi di comunicazione.
Tra le funzioni di questi dispositivi, che sono del tipo “embedded” e
non richiedono particolari cure da parte del personale tecnico,
vengono citate:
-
L’analisi in tempo reale dei dati raccolti;
Il controllo della temperatura dei moduli sensibili dei front end;
Il sistema di tracking dell’antenna (allo studio)
Per le ultime due voci è stata scelta la piattaforma di sviluppo che fa
uso del microcontrollore “Arduino”.
In Figura 12 sono illustrate le funzioni del sistema di controllo della
temperatura in cui il valore, rilevato da un sensore, viene mostrato da
un display a sette segmenti, inviato al back end per la registrazione e
confrontato con un valore di soglia che determina l’accensione e lo
spegnimento di un riscaldatore.
49
F.S.Marzano, A.M.Marziani, E.Restuccia, F.Consalvi
Mentre in Figura 13 è visibile l’hardware realizzato allo scopo ed
ospitato all’interno del contenitore a tenuta posizionato in esterno in
prossimità dell’antenna.
Il sistema di tracking, anch’esso basato sulla piattaforma “Arduino”,
consiste in un controllo automatico ad anello aperto dell’angolo di
elevazione dell’antenna basato sulle effemeridi previste del satellite.
L’angolo di elevazione è infatti quello soggetto alle variazioni più
consistenti e maggiormente determinati riguardo il corretto
puntamento.
Un inclinometro digitale fornisce l’informazione sull’angolo di
elevazione raggiunto dall’antenna mentre l’azionamento avviene
grazie ad un attuatore a pistone dotato di motore elettrico ed
interfaccia di controllo ad alta corrente. L’informazione di angolo di
elevazione è anche inviato al data base per il monitorino remoto.
50
Fig. 12 Sistema di controllo
della temperatura
Fig.13 Hardware del sistema di
controllo della temperatura
La Comunicazione N.R.& N.
Realizzazione di una stazione terrena ricevente satellitare per studi di propagazione elettromagnetica in atmosfera
Realization of a satellite ground station for studies of electromagnetic propagation in the atmosphere
In Figura 14 una vista d’insieme del front end del ricevitore a
20 GHz.
Fig. 14 Front end del ricevitore
a 20 GHz
6. Conclusioni.
E' stata descritta la realizzazione di due ricevitori, destinati al
monitoraggio dei segnali trasmessi dalla piattaforma scientifica TDP-5
del satellite geostazionario Alphasat, e collocati presso il Laboratorio
Microonde dell’ISCTI.
Sono state percorse tutte le fasi dalla progettazione alla scelta dei
componenti, recuperati da ricevitori non più in uso ma utilizzati in
precedenza per analoghe sperimentazioni, per passare poi alle prove di
caratterizzazione in laboratorio, all’assemblaggio, alla costruzione degli
elementi mancanti ed alla validazione complessiva dei sistemi.
Grazie ai due ricevitori è possibile la misurazione e la registrazione
continua del livello di potenza dei segnali a 20 GHz e 40 GHz ricevuti a
terra nella zona geografica di Roma.
Lo scopo è di raccogliere informazioni utili ed approfondire le
conoscenze riguardo le statistiche di propagazione in atmosfera, nelle
varie condizioni meteorologiche che si presentano durante l’anno in
zona, e di affinare la modellistica predittiva. Tale modellistica sarà
molto utile per la progettazione di sistemi di comunicazione radio via
satellite che su tali frequenze, con l’ausilio di eventuali tecniche
adattative per migliorare la disponibilità del collegamento,
51
F.S.Marzano, A.M.Marziani, E.Restuccia, F.Consalvi
disporrebbero di maggiori larghezze di banda e consentirebbero quindi
maggiori capacità trasmissive.
L’acquisizione dei dati ed una sua prima elaborazione è effettuata
da un software, sviluppato in modo specifico per tale uso, con
l’obbiettivo di visualizzare immediatamente il risultato, memorizzarlo e
renderlo trasferibile per l'elaborazione anche da parte degli altri centri
di ricerca. La sperimentazione infatti è collocata nell’ambito di una
cooperazione scientifica internazionale, a cui partecipano i maggiori
Enti di ricerca europei, e comporterà pertanto lo scambio delle
informazioni raccolte. In tal modo potrà essere possibile tenere conto
delle varie realtà geografiche e climatiche, dipendenti da fattori quali:
la latitudine, la vicinanza al mare, la copertura da parte del sistema
d'antenna satellitare etc. per ottenere una estesa e globale visione
europea dei fenomeni propagativi.
Ringraziamenti
Gli autori desiderano ringraziare la Dott. Rita Forsi e l’Ing. Giuseppe
Pierri per avere consentito e messo a disposizione la strumentazione del
Laboratorio Microonde ISCTI, desiderano inoltre ringraziare Roberto Dal
Molin ISCTI per il costante supporto tecnico prestato e Simone Chicarella
DIET Sapienza Università di Roma per l’abile realizzazione del supporto
meccanico dell’antenna del ricevitore.
__________________________________________________________________________________________________
BIBLIOGRAFIA
[1]
[2]
[3]
[4]
[5]
[6]
[7]
[8]
52
G. Maral and M. Bousquet, “Satellite Communications Systems” 5th Ed., Wiley & Sons
Ltd (Chichester, UK), 2009.
G. Brussaard and P.A. Watson, “Atmospheric modelling and millimetre wave
Propagation”, Chapman & Hall, London (UK), 1995.
F. S. Marzano and C. Riva, “Evidence of long-term correlation between clear-air
scintillation and attenuation in microwave and millimeter-wave satellite links”, IEEE
Trans. on Antennas and Propagation, vol. 47, pp. 1749-1757, 1999.
ESA, “AlphaSat TDP-5 Scientific Experiment Link Budget Analysis”, Project report,2008.
A. Marziani, “Caratterizzazione dei componenti e analisi delle misure sul ricevitore satellitare
Alphasat”, Tesi di Laurea in Ingegneria Elettronica, Sapienza Università di Roma, Dicembre 2011.
ITU-Radiocommunication, Raccomandazioni P.618-9, P.676-7, P.840-3, Ginevra
(CH), 2007.
F.S. Marzano, “Computing probability of total path attenuation in a given receiving site
from ITU-R recommendations”, Internal report, Sapienza Università di Roma, 2010
P. Salemme, “Telecomunicazioni via satellite a microonde: caratterizzazione del sistema ricevente
Alphasat ed il radiometro a 90 GHz“, Tesi Magistrale in Ingegneria Elettronica, Sapienza Università di
Roma, Ottobre 2011.
La Comunicazione N.R.& N.
La Comunicazione N.R.&N.
Stefano Penna
Silvia Di Bartolo
Vincenzo Attanasio
Donato Del Buono
Emanuele Nastri
Anna Stefania Michelangeli
Istituto Superiore delle
Comunicazioni e delle
Tecnologie dell'Informazione
(ISCOM)
Metriche e Standard per la
valutazione dell'efficienza energetica
nei Data Center
Metrics and standards for the evaluation of the Data Center
Energy Efficiency
Sommario: L’esplosione recente del modello di business ICT dei data
center ha portato ad un incremento sensibile dei consumi energetici ad
essi legati, previsti pesare per il 2% dei consumi mondiali entro il 2020. Per
contrastare tale tendenza sono state avviate diverse iniziative per
incentivare azioni di incremento dell’efficienza energetica dei data center,
ponendo la questione della valutazione dell’efficienza energetica che
richiede metriche e procedure uniformi di stima adeguate. L’articolo che
segue presenta una panoramica delle recenti metriche sviluppate dalle
associazioni industriali per la valutazione dell’efficienza energetica
all’interno dei data center considerando i diversi livelli infrastrutturali e di
tecnologia ICT di una Data Center Network. Lo stato dell’arte degli
standard proposti dagli enti internazionali di standardizzazione viene
delineato nella seconda parte del contributo.
Abstract: The development of the ICT business model of Data Centers
led to a high increase of the related energy consumption, estimated to
weight as 2% of the world overall energy consumption by 2020. In order to
address this issue many initiatives were launched with the aim to support
actions to improve the data centers energy efficiency, focusing on the
energy efficiency evaluation that requires for proper metrics and
universally accepted procedures. This contribution provides a partial
overview of the metrics developed by the industrial associations for the
evaluation of the energy efficiency in data centers, considering the
different facility segments and ICT equipment of a data center network.
The state of the art of the standards proposed by the main international
standard organizations is provided in the last part of the contribution.
1. Introduzione
L'affermazione del modello di business ICT basato sui data center, che
negli ultimi anni ha visto uno sviluppo dai ritmi vertiginosi, ha posto
l'attenzione sulla problematica energetica legata al consumo dei data
center (DC). Le reti di DC infatti si attestano su un'alta percentuale del
consumo di energia legato alle infrastrutture IT e di conseguenza hanno
53
S.Penna, S.Di Bartolo, V.Attanasio, D.Del Buono, E.Nastri, A.S. Michelangeli
un impatto significativo sulle emissioni di gas serra. Le stime aggiornate al
2007 e destinate comunque a raddoppiare entro il 2020, riportano
percentuali di impatto sulle emissioni legate ai DC pari al 2% dell'energia
consumata globalmente [1], corrispondente in valore assoluto per
l'Europa Occidentale a 56 TWh l'anno nel 2007, con previsioni di
raggiungere 104 TWh l'anno nel 2020 [1]. Di conseguenza, nell'ottica di
riduzione dell'impatto ambientale secondo quanto prescritto dal
Protocollo di Kyoto e recepito dalle direttive comunitarie nell'ambito del
programma Europa 2020, ma anche di riduzione dei costi energetici legati
all'alimentazione elettrica dei DC, la massimizzazione dell'efficienza
energetica dei DC e` diventata un tema prioritario sia a livello tecnicoscientifico che industriale.
La valutazione dell'efficienza energetica di un DC richiede tuttavia
delle procedure e delle metriche ben definite, che possano essere
applicate in modo univoco tanto dagli operatori quanto dai fornitori per
stimare l'efficienza della loro infrastruttura DC e poter individuare i
margini di ottimizzazione del consumo energetico ottenibili attraverso
azioni di intervento mirate.
Attualmente, la comunita` DC a livello mondiale e` guidata dalla
componente industriale, caratteristica che si riflette sui livelli di rigore e di
affidabilita` delle procedure e delle metriche attualmente utilizzate per
valutare l'efficienza energetica di un DC. Ad oggi, lo standard di fatto di
valutazione dell'efficienza energetica di un DC e` il Power Usage
Effectiveness (PUE), letteralmente Efficacia di Utilizzo dell'Energia
elettrica, che e` stato introdotto dall'organizzazione industriale no-profit
The Green Grid nel 2007 [2] con lo scopo di fornire un parametro di
valutazione generale di un DC. Infatti il PUE e` definito come il rapporto
tra l'energia consumata complessivamente in un DC e l'energia consumata
dai soli apparati IT contenuti, che insieme compongono il cosiddetto IT
load. L'IT load e` riferito all'insieme dei consumi energetici di tutti gli
apparati IT contenuti nel DC, includendo pertanto i server di calcolo
(computing) e di archiviazione (storage), gli apparati di comunicazione dati
all'interno del DC e verso l'esterno, come switch e router, e apparati di
monitoraggio e controllo. Il periodo di osservazione per la valutazione dei
due termini di consumo energetico del PUE ha durata di un anno. Tale
estensione temporale e` mirata a includere nella valutazione dei consumi
piu` fattori di influenza, come i cambiamenti climatici relativi al ciclo
stagionale che hanno effetti sulle esigenze di raffreddamento (cooling)
degli apparati, e al tempo stesso a minimizzare gli effetti di distorsione
dell'osservazione che possono essere legati a singoli eventi sporadici,
come picchi di traffico e carico di lavoro effettivo degli apparati di calcolo.
Si può notare come, rispetto alla definizione legata ad un piano
temporale, quindi ad un valore di energia, la denominazione del
parametro e` legata alla potenza, ovvero ad un valore istantaneo,
producendo una discrepanza formale dovuta all'accezione comune in uso
nei paesi anglosassoni di definire colloquialmente i consumi energetici
come potenze (power).
54
La Comunicazione N.R.& N.
Metriche e Standard per la valutazione dell'efficienza energetica nei Data Center
Metrics and standards for the evaluation of the Data Center Energy Efficiency
Complici le recenti iniziative pubbliche per stimolare l’incremento di
efficienza dei DC dal punto di vista energetico, negli ultimi anni il PUE ha
acquisito un'accezione di strumento di marketing, impiegato dagli
operatori e dai fornitori di DC per esaltare le prestazioni green delle
proprie infrastrutture DC; per questo motivo sui media di informazione si
assiste frequentemente ad annunci di messa in opera di nuovi DC con
valori record di PUE, che si avvicinano sempre piu` al limite di PUE=1,
ovvero alla condizione ideale di 100% di efficienza energetica in cui tutti i
consumi energetici del DC sono legati unicamente alla sezione ICT, intesa
come il carico utile della struttura [2][3]. Parallelamente al PUE, e di fatto
concorde nel significato che viene pero` presentato nella piu` corretta
forma di efficienza, nel 2007 e` stato introdotto anche il Data Centre
infrastructure Efficiency (DCiE) [4], definito come l'inverso del PUE. Di
conseguenza, il DCiE viene mostrato come una percentuale di efficienza
che raggiunge il massimo valore del 100% solo nel caso ideale sopracitato
di energia del DC interamente consumata per la sua sezione ICT.
Il PUE ed il suo analogo DCiE presentano pero` diverse anomalie,
ascrivibili tanto alla definizione intrinseca di questi parametri, che porta
ad inevitabili imprecisioni nella stima dell'efficienza energetica di un DC,
quanto all'uso improprio e poco rigoroso con cui i valori di PUE vengono
attualmente autodeterminati e divulgati, legati ad esigenze pratiche degli
operatori rispetto alla corretta applicazione delle procedure di stima e
valutazione.
Il principale errore metodologico e` nella scelta del periodo di
osservazione e misurazione dei due termini di consumo energetico relativi
all'intera infrastruttura DC e alla sola sezione IT. Al riguardo, la procedura
prevede un periodo di osservazione di un anno. Tuttavia il PUE viene
attualmente definito (e dichiarato) in fase di progettazione e consegna di
un DC, di conseguenza i valori energetici utilizzati per il calcolo di
efficienza non derivano dall'osservazione reale, ma dalle potenze di targa
dei singoli apparati. La potenza di targa e` la potenza massima assorbita
da uno strumento, dalla quale il termine di energia viene ricavato
semplicemente ipotizzando il valore di potenza di targa costante durante
un anno. Nel caso dei server e piu` in generale degli apparati IT questa
ipotesi presuppone in modo poco realistico che l'utilizzo della capacita` di
calcolo, e quindi i consumi energetici ad essa legati (ovvero l'IT load),
siano massimi, mentre e` ormai noto come la reale percentuale di utilizzo
della CPU sia contenuta in un intervallo compreso tra il 10% ed il 50%
della capacita` di calcolo massima [5], con medie accettate di consumo
energetico pari al 60% della potenza di targa [6]. Pertanto, utilizzare il
valore massimo di IT load per la stima del PUE porta a sovrastimarne
matematicamente il valore calcolato.
In aggiunta a questo errore, che deriva dalla mancata applicazione delle
corrette procedure di stima indicate in [2], l'effetto intrinseco di errore del
PUE riguarda la superficialita` in termini strettamente energetici e relativi
della definizione dell'IT load, che porta a penalizzare gli sforzi di
ottimizzazione dello sfruttamento dei server, in particolare relativi alle
55
S.Penna, S.Di Bartolo, V.Attanasio, D.Del Buono, E.Nastri, A.S. Michelangeli
recenti tendenze di virtualizzazione nei Data Center 2.0 [7]. La
virtualizzazione delle macchine ottimizza il carico di lavoro della sezione IT
spegnendo i server in persistente stato di idle, colloquialmente definite
"zombie server" [8], con un conseguente incremento dell'efficienza
energetica reale di un DC a parita` di servizio fornito. Tuttavia dalla
definizione rigida del PUE, che non tiene conto del lavoro svolto dal DC,
risulta che spegnendo i server in stato di idle si riducono i consumi della
sezione IT e quindi paradossalmente peggiora il valore di PUE calcolato,
nonostante il consumo energetico sia stato ottimizzato [6].
E` evidente l'inadeguatezza del PUE a fornire una piena indicazione
dell'efficienza energetica di un DC e a consentire una analisi approfondita
all'interno di uno scenario operativo reale del carico IT per distinguere
l'impatto dei diversi segmenti di rete presenti nell'infrastruttura DC. Il
grafico in figura 1 prodotto da Microsoft [9] riassume visivamente
l'impatto dei diversi driver sulla reale efficienza energetica di un DC,
definita produttivita` energetica, e sul PUE, evidenziandone i trend
discordanti.
Per colmare le lacune intrinseche nel PUE, recentemente sono stati
proposti diversi parametri di valutazione che fungano da affiancamento al
PUE, lasciando a quest'ultimo il ruolo di valutazione piu` generale
dell'efficienza energetica e rimandando alle nuove metriche il compito di
consentire un'analisi piu` dettagliata e approfondita delle inefficienze da
ottimizzare.
Nel 2010 la Green Grid ha proposto il parametro di Data Center
computing Efficiency (DCcE) e la relativa sotto-metrica Server compute
Efficiency (ScE), in grado di includere l'impatto fornito dai server idle
all'interno del DC [10]. L'ScE e per estensione il DCcE sono parametri
basati sul tempo, misurando la porzione di tempo che un server fisico o
virtuale impiegano per fornire un servizio primario, come ad esempio il
56
Figura 1. Effetto delle diverse
strategie di ottimizzazione
dell'efficienza energetica di un
Data Center [9]
La Comunicazione N.R.& N.
Metriche e Standard per la valutazione dell'efficienza energetica nei Data Center
Metrics and standards for the evaluation of the Data Center Energy Efficiency
servizio di posta elettronica. Analogamente al PUE, il DCcE non e`
confrontabile tra diversi DC, quindi non puo` essere utilizzato come un
indicatore assoluto che fornisca agli operatori i mezzi per un'analisi
approfondita del carico IT e consenta un'ottimizzazione dei ad hoc, mirata
ad una particolare sezione dell'IT load. In modo analogo, la stessa Green
Grid ha definito [11] la Data Center energy Productivity (DCeP), che nella
valutazione dell'efficienza energetica include sia l'infrastruttura DC
complessiva sia la sola sotto-sezione IT, focalizzandosi sul concetto di
produttivita` del data center, ovvero il lavoro utile (useful work) svolto
dagli apparati IT. In modo più esplicitamente legato al lavoro utile del DC,
la metrica di Data Center Productivity Index (DCIP) è definita come il
rapporto tra il lavoro utile, calcolato in termini di numero di operazioni
svolte in un lasso di tempo, e l’energia totale consumata
dall’infrastruttura DC.
Come per i precedenti parametri, anche il DCeP da solo non consente
un corretto confronto tra diversi DC, tuttavia se affiancato al PUE
permette di avere una visione di insieme piu` completa sullo stato della
reale efficienza energetica del DC inteso come infrastruttura operativa che
fornisce un servizio con una determinata qualita`. Ad ogni modo manca ad
oggi una definizione comunemente accettata per la quantificazione del
lavoro utile, dal momento che ci sono task di calcolo eterogenei in un
singolo DC e tra diversi DC che è impossibile accomunare sotto un unico
parametro di definizione. Oltre alla Green Grid esistono diversi organismi
nazionali ed internazionali, di natura sia pubblica che industriale, che
hanno affrontato la problematica di garantire una stima corretta
dell'efficienza energetica dei DC, con il fine reale di considerare il
consumo energetico in valore assoluto di un DC e di definire un parametro
per monitorare a livello operativo gli effetti dell' ottimizzazione dei
consumi.
L'Energy Efficiency High Performance Computing Working Group
(EEHPC WG) [12], un gruppo internazionale di agenzie pubbliche ed enti
privati in prevalenza statunitensi, ha sviluppato delle nuove metriche
scomponendo rispettivamente il PUE e l'IT load. Questo approccio ha
portato a due nuove metriche, una incentrata sull'IT load denominata ITpower Usage Effectiveness (ITUE) ed una ad un livello piu` alto
denominata Total-power Usage Effectiveness (TUE) [13]. L'ITUE e` definito
come il rapporto tra l'energia totale assorbita dagli apparati IT e l'energia
assorbita dai soli apparati di computing. Di fatto, l'ITUE considera l'energia
assorbita da alcuni componenti interni agli apparati IT, come ventole e
alimentatori, rispetto ai componenti di puro calcolo come processori e
memorie, presentandosi come l’analogo del PUE riferito alla sola sezione
IT piuttosto che all’intera infrastruttura DC. Dal prodotto del PUE e
dell’ITUE si calcola il TUE, definito come il rapporto tra l’energia totale
consumata dall’infrastruttura DC e l’energia totale consumata dalla
sezione computazionale all’interno degli apparati IT del DC [13] Nel Regno
Unito, il Data Centre Specialist Group (DCSG) della British Computer
Society (BSC) si e` focalizzato sulla definizione di metriche in grado di
facilitare la valutazione delle azioni intraprese per migliorare l'efficienza
57
S.Penna, S.Di Bartolo, V.Attanasio, D.Del Buono, E.Nastri, A.S. Michelangeli
energetica dei DC, pertanto sono mirate a fornire uno strumento di
riscontro agli operatori di natura incrementale piu` che a fornire un
parametro di valutazione complessivo come il PUE. In questo ambito il
DCSG ha utilizzato un approccio ispirato dalle metriche dei costi fissi e
lineari utilizzato nella finanza, in cui il consumo energetico viene
interpretato come un costo, come effettivamente è se si considera anche
l’impatto sulla bolletta elettrica dei DC. Pertanto alla metrica DciE,
riportata in precedenza, sono affiancate le metriche di overhead fissi e
lineari, che permettono di comprendere il reale comportamento del DC in
termini di consumi e di costi energetici e valutarne l’impatto relativo sullo
sfruttamento degli apparati IT all’interno del DC [14].
Secondo questo approccio, al DciE è lasciato il compito di fornire un
parametro generale di facile comprensione e di facile raffronto
sull’efficienza energetica dell’infrastruttura DC, mentre gli overhead
hanno lo scopo di consentire un’analisi più approfondita per valutare gli
effetti dei miglioramenti apportati singolarmente ai diversi componenti
della struttura DC, come ad esempio gli apparati IT. Più in dettaglio,
l’overhead fisso è definito come il rapporto tra la potenza assorbita dal DC
con carico IT nullo e la potenza di targa della sezione IT, permettendo
quindi di apprezzare in termini percentuali i consumi del DC quando non
sono attivi gli apparati IT, ovvero di apprezzare le perdite energetiche del
DC in un modo simile al calcolo dei costi fissi in finanza. Questo permette
di apprezzare meglio i miglioramenti energetici del DC, quando ad
esempio si disattivano parzialmente alcune sezioni o si satura il più
possibile la capacità IT del DC per ridurre l’impatto delle perdite fisse.
L’overhead lineare è definito invece come il rapporto della differenza tra
potenza assorbita rispettivamente con carico IT completo e carico IT nullo
sulla potenza di targa dell’apparato IT dell’intera infrastruttura. Questo
parametro permette di considerare i consumi energetici legati al
funzionamento di alcuni apparati dipendente dall’effettiva operatività IT
del DC. Un esempio è rappresentato dai chiller, nei quali l’attivazione delle
pompe dei compressori avviene con cadenza temporanea dipendente
dalle particolari necessità di raffreddamento [14] legate al funzionamento
degli apparati IT.
L’overhead lineare permette quindi di valutare come il consumo di
energia del DC varia in dipendenza del consumo degli apparati IT,
permettendo quindi di prevedere il livello di riduzione dei consumi
generali indotti da un decremento dei consumi del carico IT, ad esempio
quando vengono smantellati i server obsoleti. Inoltre, i valori degli
overhead variano quando un’infrastruttura viene istallata o attivata,
adattandosi perciò al modello attuale di DC di potenziamento modulare
della capacità IT, permettendo quindi agli operatori di valutare in modo
più intuitivo l’efficienza dell’infrastruttura e di stimare e soprattutto
prevedere i benefici dei miglioramenti introdotti.
Dal momento che sono il risultato di un rapporto di potenze, gli
overhead forniscono valori adimensionali.
58
La Comunicazione N.R.& N.
Metriche e Standard per la valutazione dell'efficienza energetica nei Data Center
Metrics and standards for the evaluation of the Data Center Energy Efficiency
2. Attività di standardizzazione in materia di efficienza energetica
nei data center
Da questa panoramica parziale delle metriche dell’efficienza
energetica nei DC, focalizzata sulle principali metriche e metodologie
adottate o in fase di considerazione tra gli operatori e più in generale tra
gli stakeholders, è chiaro che la definizione di uno standard per la misura
dell’efficienza energetica è necessaria. Questa necessità riguarda sia la
definizione univoca delle metriche sia delle metodologie per una misura
accurata per il conseguente calcolo dei valori delle metriche. Emerge
inoltre il bisogno di uno studio complesso ed esaustivo che descriva nel
dettaglio la tematica di efficienza energetica di un DC e definisca un
insieme di metriche che consentano un adeguato confronto tra diversi DC,
considerandone l’etereogeneità tecnologica ed architetturale.
A questo riguardo, a livello mondiale gli organi di standardizzazione
nazionali ed internazionali e le associazioni industriali hanno fissato dei
working groups per definire le raccomandazioni e le procedure per una
corretta valutazione e misura dell’efficienza energetica dei DC, come
riportato nel disegno in figura 2.
Figura 2. Visione d’insieme dei
principali organi, pubblici ed
industriali, che contribuiscono
alla definizione di standard e
metriche di riferimento per data
center networks [fonte: A.Rouyer
– The Green Grid – CENELEC
BTWG 132-3 Green Data Centers
Report]
L’Unione Internazionale delle Telecomunicazioni (ITU, International
Telecommunications Union) ha pubblicato diversi standard riguardo la
green ICT nei DC. In particolare, si può considerare la raccomandazione
ITU-T L.1300 [15], che include le buone pratiche per l’utilizzo dei data
center riguardanti sia gli apparati ICT che le sezioni per il raffreddamento,
includendo oltre il 90% delle 61 buone pratiche del Codice di Condotta
Europeo V4.0.5 per l’impiego ed il monitoraggio dei data center e
includendo ulteriori 16 pratiche introdotte dai membri dello Study Group
5 dell’ITU-T [16]. La raccomandazione ITU-T L.1300 elenca le migliori
59
S.Penna, S.Di Bartolo, V.Attanasio, D.Del Buono, E.Nastri, A.S. Michelangeli
pratiche per ridurre l’impatto negativo dei DC attraverso il design, il
funzionamento e la gestione mirati dei data center green delle loro
principali componenti come apparati IT, impianti di raffreddamento e di
alimentazione [16].
L’International Standard Organization (ISO) e il Comitato
Elettrotecnico Internazionale (CEI, International Electrotechnical
Commission, IEC) stanno sviluppando lo standard ISO/IEC 30134 [17] per
definire gli indicatori di performance chiave (KPI, Key Performance
Indicators) per i data center, anche se i draft disponibili finora sono
principalmente focalizzati sul PUE, considerando la sua interpretazione e
le linee guida per misura, calcolo e pubblicazione corretti dei valori
relativi.
Sul territorio europeo negli ultimi anni, tutti gli organi di
standardizzazione sono stati coinvolti nello sviluppo di standard legati ai
data center. Nel 2010, il Comitato Europeo di Standardizzazione (CEN), il
Comitato Europeo per la Standardizzazione Elettrotecnica (CENELEC) e
l’European Telecommunications Standards Institute (ETSI) hanno creato
un gruppo di coordinamento comune europeo [16] con l’obiettivo di
gestire e coordinare le attività europee e i lavori di standardizzazione
legati all’efficienza energetica.
Il CEN/CENELEC/ETSI Coordination Group on Green Data Centres
(CEN/CLC/ETSI CG GDC) è un’attività comune delle tre organizzazioni che
include anche gli stakeholder dell’industria e dei diversi progetti europei
sul tema. Il CG GDC aggiorna costantemente un report di “panoramica
della standardizzazione” (standardization landscape) [16], che registra gli
standard esistenti riguardanti la gestione energetica dei data center e
identifica ogni lacuna che richiede ulteriore lavoro, permettendo al
Coordination Group di raccomandare azioni future alle organizzazioni
pertinenti per colmare queste lacune. Il rapporto di 'standardization
landscape' opera una distinzione chiave tra standard che supportano la
progettazione, mirati a nuovi DC, e standard che possono essere usati per
migliorare l’operatività dei DC, mirati a DC già esistenti dove un design di
efficienza energetica non è stato adottato al principio.
Il documento di specifiche tecniche di ETSI TS 105174-2-2 [18]
introduce la tematica di consumo ed efficienza energetica all’interno dei
DC e ne affronta il tema delle buone pratiche operative per centrare gli
obiettivi di riduzione dei consumi e incremento dell’efficienza. Il
documento contiene sezioni sulle infrastrutture di distribuzione elettrica,
sistemi di controllo ambientale e dotazioni IT istallate nei DC. Inoltre
affronta il problema dei KPI fuorvianti, che indicano miglioramenti a
svantaggio degli obiettivi primari di ridotto consumo energetico in valore
assoluto e aumento dell’efficienza energetica, come è il caso del PUE [18].
60
La Comunicazione N.R.& N.
Metriche e Standard per la valutazione dell'efficienza energetica nei Data Center
Metrics and standards for the evaluation of the Data Center Energy Efficiency
3. Iniziative europee per l’incremento dell’efficienza energetica nei
data center
Nell’ambito degli obiettivi europei per la normativa dei mercati in
tema di cambiamenti climatici ed energia [19][20], nel 2008 la
Commissione Europea ha proposto il “Codice di Condotta Europeo per
l’efficienza energetica nei data centers” [1] indirizzato a proprietari,
operatori e fornitori di apparati nell’industria dei DC, con il doppio fine di
aumentare la sensibilità industriale verso il consumo energetico e
stimolare la ricerca di una efficienza energetica maggiore. Il codice di
condotta è un programma volontario in cui si assume che i partecipanti
recepiscano le raccomandazioni e le buone pratiche in materia [20][21]
proposte dal Joint Research Center (JRC), che è lo strumento istituzionale
con cui l’UE gestisce il programma. Il codice di condotta dell’efficienza
energetica nei DC ha adottato il DciE come metrica di riferimento
comunemente accettata, stabilendo come futura prospettiva di migliorare
la valutazione tramite l’adozione delle metriche di “produttività IT” e di
“produttività dell’energia totale” [21]. Le raccomandazioni sono rivolte
all’intera struttura del DC mentre le misure vengono svolte dagli stessi
partecipanti secondo le procedure definite da JRC [21][22]. I partecipanti
che registrano il migliore incremento di prestazioni, in termini di riduzione
dei consumi percentuali e assoluti [22], ricevono un riconoscimento
ufficiale dall’UE nell’ambito di una cerimonia annuale che premia i
vincitori di ciascuna delle categorie di DC previste (DC nuovi o
ricondizionati, DC proprietari o non proprietari, DC di diverse dimensioni).
La premiazione costituisce un riconoscimento ufficiale e pertanto
rappresenta un potente strumento di marketing. Tramite il Codice di
Condotta l’UE ha di fatto definito il JRC come l’unico punto di
coordinamento a livello europeo in tematiche di efficienza energetica nei
DC.
Tuttavia, si registra la mancanza di un’attività normativa in tema di
efficienza energetica da parte UE, legata principalmente alla mancanza di
uno standard universalmente accettato [20].
Bibliografia
[1] http://iet.jrc.ec.europa.eu/energyefficiency/ict-codesconduct/data-centres-energy-efficiency
[2] The Green Grid, The Green Grid metrics: data center infrastructure
efficiency (DCIE) detailed analysis, White Paper #14 (2008)
[3] The Green Grid, PUE™: a comprehensive examination of the metric,
White Paper #49 (2012)
[4] Verdun G (2007) The Green Grid metrics: data center infrastructure
efficiency (DCiE) detailed analysis. Technical report, The Green Grid, Feb
2007. Available at: http://www.thegreengrid.org/Global/Content/whitepapers/DCiE-Detailed-Analysis
61
S.Penna, S.Di Bartolo, V.Attanasio, D.Del Buono, E.Nastri, A.S. Michelangeli
[5] Barroso LA, Holzle U, The Case for Energy-Proportional Computing,
IEEE Computer, pp 33-37 (2007)
[6] Brady KA, Kapur N, Summers JL, Thompson HM, A case study and
critical assessment in calculating power usage effectiveness foa a data
centre. Energy COnversion and Management, 76, pp 155-161 (2013)
[7] Huawei White Technical Paper, High Throughput Computing Data
Center Architecture - Thinking of Data Center 3.0, available at:
http://www.huawei.com/ilink/en/download/HW_349607
[8] 2014 Data Center Industry Survey - Uptime Institute eJournal,
available
at:
https://journal.uptimeinstitute.com/2014-data-centerindustry-survey/
[9] Aggar M, The IT Energy Efficiency Imperative, (2011) white paper
available at: http://download.microsoft.com/download/7/5/A/75AB83E82487-409F-AC6C-4C3D22B72139/ITEI_Paper_5.27.11.pdf
[10] Blackburn M et al., THE GREEN GRID DATA CENTER COMPUTE
EFFICIENCY METRIC: DCcE, white paper #34 (2010), available at
http://www.thegreengrid.org/~/media/WhitePapers/DCcE_White_Paper_
Final.pdf?lang=en
[11] http://www.thegreengrid.org/Global/Content/whitepapers/Framework-for-Data-Center-Energy-Productivity
[12] https://eehpcwg.llnl.gov/
[13] Patterson et al., “ TUE, a new energy-efficiency metric applied at
ORNL's Jaguar”, Proc. ADFA 2011
[14] Newcombe L, “Data centre energy efficiency metrics”, BCS group,
http://www.bcs.org/upload/pdf/data-centre-energy.pdf
[15] ITU-T, Recommendation L.1300 ‘‘Best practices for green data
centres’’, June 2014
[16] Gilmore M (CEN/CLC/ETSI Coordination Group on Green Data
Centres ), “Executive summary Standardization landscape for energy
management and environmental viability of green data centres” (2013)
[17] http://drafts.bsigroup.com/Home/Details/54220
[18] Access, Terminals, Transmission and Multiplexing (ATTM);
Broadband Deployment - Energy Efficiency and Key Performance
Indicators; Part 2: Network sites; Sub-part 2: Data centres available at:
http://www.etsi.org/deliver/etsi_ts/105100_105199/1051740202/01.01.
01_60/ts_1051740202v010101p.pdf
[19]
http://iet.jrc.ec.europa.eu/energyefficiency/sites/energyefficiency/files/d
ata_centre_coc_folder.pdf
[20] Workshop Report DG CONNECT, ‘‘Environmentally sound1 Data
Centres: Policy measures, metrics, and methodologies’’, 2014
[21] “Code of Conduct on Data Centres Energy Efficiency Version 2.0
Participant Guidelines and Registration Form” (2009), available at:
http://iet.jrc.ec.europa.eu/energyefficiency/sites/energyefficiency/files/fil
es/documents/ICT_CoC/participant_guidelines_v2_0-final.pdf
[22] Bertoldi P, “European Code of Conduct for Data Centre
Presentation of the Awards 2014” available at:
http://iet.jrc.ec.europa.eu/energyefficiency/sites/energyefficiency/files/p
resentation_dc_coc_awards_2014.pdf
62
La Comunicazione N.R.& N.
La Comunicazione N.R.&N.
Debora Proietti Modi ,
Ricercatore Università Tor
Vergata presso Istituto
Superiore delle
Comunicazioni (ISCOM),
Ministero dello Sviluppo
Economico
Giuseppe Pierri,
Franco Pangallo
Istituto Superiore delle
Comunicazioni (ISCOM),
Ministero dello Sviluppo
Economico
ISITEP: Sistemi di Interoperabilità tra
le reti TETRA e Tetrapol
ISITEP: Inter System Interoperability for TETRA and TetraPol
Networks
Sommario: Il progetto ISITEP ha l’obiettivo di definire le soluzioni
tecnologiche per realizzare una rete Europea che garantisca
l’interconnessione tra le principali tipologie di reti di comunicazioni
digitali professionali (PPDR), in modo da assicurare una risposta veloce
e repentina in caso di recupero da disastri e nella lotta contro il crimine.
In questo paper si vuole descrivere il progetto ISITEP, facendo
particolare attenzione al ruolo svolto dall’Istituto Superiore delle
Comunicazioni e delle Tecnologie dell’Informazione nell’ambito del
progetto stesso.
Abstract: The growth of international crime requires the on field
intervention of joint polices, especially for activities like cross-border
controls.In this paper is described the project ISITEP, which is devoted to
achieve the full interoperability for the two main PPDR communication
systems in Europe, in order to garantee the “roaming” among terminal
of different national network
Introduzione
Il progetto "Inter System Interoperability for TETRA-TetraPol
(ISITEP) Networks" fa parte del Settimo Programma Quadro (7PQ), il cui
scopo è sviluppare le procedure, le tecnologie e gli accordi legali
attraverso i quali si possa raggiungere una soluzione di comunicazione
globale per la cooperazione tra i diversi sistemi di pubblica sicurezza, i
Public Protection & Disaster Relief (PPDR) [1].
Il progetto creerà quindi una struttura in grado di condividere le
comunicazioni di emergenza, in modo da migliorare la sicurezza dei
cittadini e ridurre le minacce di sicurezza, consentendo il "roaming" tra
le diverse reti nazionali di pubblica sicurezza esistenti in Europa.
63
D. Proietti Modi, G. Pierri, F.Pangallo
Scopo del progetto
Il progetto ha l’obiettivo di definire le soluzioni tecnologiche per
realizzare una rete Europea che garantisca l’interconnessione tra le
principali tipologie di reti di comunicazioni digitali professionali, in
modo da assicurare una risposta veloce e repentina in caso di recupero
da disastri e nella lotta contro il crimine [2]. Nello specifico, una miglior
gestione della migrazione fra i confini delle reti Europee nazionali,
porta ad un riduzione delle attività criminali ed una maggior protezione
dei dati scambiati, dovuta ad un alto livello di sicurezza presente nelle
reti professionali.
Le organizzazioni criminali oggigiorno sono connesse globalmente,
mentre la cooperazione tra le polizie trans-nazionali sono molto spesso
limitate: la carenza di sistemi di comunicazione interoperabili ha reso
meno fluida la cooperazione fra le forze dell’ordine di diverse nazioni,
per questo le reti radio nazionali per i servizi di pubblica sicurezza
(PPDR) sono funzionanti esclusivamente ognuna sul proprio territorio.
La crescita del crimine internazionale richiede in campo l'intervento
congiunto di forze di polizia, specialmente per attività lungo i confini.
La cooperazione fra forze di polizia è inoltre critica durante eventi
particolari come la protezione dei VIP (Very Important Person) durante
i summit internazionali, o durante eventi sportivi e culturali
internazionali, o anche per la protezione delle ferrovie durante il
trasporto di materie pericolose.
A livello europeo con gli accordi di Schengen, le operazioni di
protezione dei confini sono diventate un priorità, e in aggiunta a ciò,
secondo l'articolo 222 del Trattato di Lisbona (che riguarda la "mutua
solidarietà"), l'Unione Europea può mobilitare le risorse degli Stati
Membri per dare assistenza a quegli Stati Membri che al momento
sono stati vittima di attacchi terroristici o disastri naturali. Dal
momento che il tempo è il fattore critico in caso di catastrofi, solo la
cooperazione internazionale può consentire una maggiore efficacia
quando le risorse nazionali sono limitate, riducendo così le perdite
dovuta alla catastrofe stessa. I risparmi derivanti da tutto ciò superano
di gran lunga gli investimenti effettuati nell'interoperabilità e nel
raggiungimento della cooperazione.
Attualmente in Europa ci sono due principali sistemi di
comunicazioni PPDR: TETRA (TErrestrial Trunked RAdio) e TetraPol, e ci
si aspetta che saranno operativi fino al 2025. Questi due sistemi in
Europa [Figura 1] sono implementati dalle seguenti industrie:
Cassidian, Motorola e Selex ES (ex Elsag). Le reti TETRA/TetraPol
nazionali non sono ancora interoperabili con altre reti TETRA/TetraPol,
anche quando condividono la stessa tecnologia radio, ciò significa che
persino due reti TETRA non sono interoperabili. La comunicazione fra
gli Stati Membri è principalmente limitata da questa mancanza di
sistemi radio interoperabili, ma anche il corrente sistema di
64
La Comunicazione N.R.& N.
ISITEP: Sistemi di interoperabilità tra reti TETRA e Tetrapol
ISITEP: Inter System operabily for TETRA e Tetrapol networks
regolamentazione e la carenza di procedure di comunicazioni comuni
ne sta limitando di molto l'interoperabilità.
La realizzazione di una piena interoperabilità fra queste reti
permetterebbe ai primi soccorritori di comunicare con i propri
terminali nella Nazione straniera. Questa capacità può essere realizzata
con l'interconnessione delle reti attraverso particolari gateways, che
permettono ai terminali in visita di migrare nella rete straniera
sfruttando la copertura radio della Nazione visitata.
Il progetto, in conclusione, nasce dal bisogno di migliorare
l'interoperabilità nelle comunicazioni fra reti PPDR europee, di
ottimizzare le risorse di queste reti e stabilire anche le procedure di
comunicazioni per mettere in piedi l'interoperabilità; in base a ciò il
progetto si propone di definire:
Figura 1. Rete ISITEP Pan
Europea.
- una rete cloud Europea, integrando tutte le reti PPDR delle singole
Nazioni;
- le nuove procedure, i modelli funzionali e gli accordi legali per
mettere in piedi il tutto;
- la realizzazioni di terminali avanzati, con un'architettura basata su
smartphones e/o tablets, con all'interno applicativi in grado di
supportare i servizi PPDR.
65
D. Proietti Modi, G. Pierri, F.Pangallo
La struttura del progetto
Il progetto, finanziato dall'Unione Europea, ha una durata
triennale, è coordinato da SELEX ES del Gruppo Finmeccanica ed ha
avuto inizio il 1° settembre 2013. Il sito internet del progetto è:
www.isitep.eu.
Nel progetto partecipano industrie manifatturiere, enti di ricerca,
università, ministeri e forze di polizia di diverse nazioni. In particolare
per l’Italia, oltre a SELEX ES, ne fanno parte anche l’ISCOM (Istituto
superiore delle Comunicazioni e Tecnologie dell’Informazione del
Ministero dello Sviluppo Economico) e l’Università degli Studi di Roma
TRE.
La pianificazione del progetto è basata su un flusso iterativo che
comincia con gli scenari operativi, i requisiti, la definizione
dell'architettura per poi procedere con la progettazione, lo sviluppo, la
validazione e l'integrazione del sistema.
Tutti i componenti del sistema saranno validati e valutati
attraverso i cinque trials in campo. In ISITEP sono gli utenti finali a
guidare il progetto. L'Advisory Board che include gli utenti finali (quindi
i partners e i supporters) ha il ruolo di accettare i deliverables in modo
da mantenere il progetto conforme ai loro bisogni strategici. [Figura 2]
I componenti passivi su InP godono di prestazioni non ottimali per
quanto riguarda le perdite ottiche, che hanno in media un’ordine di
grandezza superiore ai corrispettivi in Silicon Photonics. Di
Figura 2. Struttura del
progetto
66
La Comunicazione N.R.& N.
ISITEP: Sistemi di interoperabilità tra reti TETRA e Tetrapol
ISITEP: Inter System operabily for TETRA e Tetrapol networks
Il ruolo di ISCOM
L’ISCOM all'interno del progetto si occupa della definizione delle
procedure per i test sull’interoperabilità fra i diversi sistemi e della
definizione dei test report per le verifiche tecniche e per le
certificazioni, in modo da consentire ai terminali dei diversi costruttori
di operare nelle reti, sia TETRA che TetraPol, ed ottenere così una rete
pan-europea in grado di far comunicare le forze di pubblica sicurezza
delle nazioni che partecipano al progetto [3].
Il progetto, come dalla Figura 1, si propone di interconnettere
quattro tipi di reti nazionali, in cui dovranno essere operative le
funzionalità dell'IOP (InterOPerability) phase2, specificate nello
standard ISI (Inter-System Interface) TETRA. Le principali riguardano
l'autenticazione del terminale ed il roaming, le chiamate di gruppo, le
chiamate individuali, gli short data, sia individuali che di gruppo, le
chiamate di emergenza adattate alla rete in cui si effettua il roaming e
lo scambio delle chiavi di cifratura (TEA2). Per questo motivo l'ISCOM
effettuerà la validazione delle interconnessioni e dei terminali: la
certificazione coprirà le funzionalità che saranno poi interessate nelle
dimostrazioni.
Conclusioni
Il ISITEP può portare dei benefici rilevanti agli operatori PPDR ed ai
cittadini Europei in generale, in termini di nuove tecnologie, nuove
procedure e un nuovo approccio per la gestione dei disastri. In primo
luogo la rete cloud Europea migliorerà le comunicazioni PPDR,
aumentando la loro efficienza sul campo e salvando molte vite,
riducendo inoltre gli effetti dei disastri nello stesso tempo. Secondo, gli
accordi legali rappresenteranno inoltre uno step futuro sia per lo
sviluppo di una comune PPDR europea che per lo sviluppo di una
metodologia comune a tutte le Nazioni durante gli interventi critici,
grazie soprattutto alla condivisione delle procedure. Per ultimo, ma
non per importanza, la realizzazione di nuovi terminali sarà un compito
impegnativo per le compagnie coinvolte, ma porterà anche lo sviluppo
di nuovi modelli di business e magari l'entrata in nuovi mercati.
67
D. Proietti Modi, G. Pierri, F.Pangallo
Bibliografia.
[1] Sito ufficiale Progetto Isitep: http://isitep.eu/
[2] Sito ISTICOM: www.isticom.it
[3] Proietti Modi Debora: "Interoperabilità fra sistemi TETRA e
TetraPol" - gennaio 2015
68
La Comunicazione N.R.& N.
La Comunicazione N.R.&N.
Fabio Di Resta
Avvocato Membro del
Consiglio direttivo
Master di II livello
Università Roma Tre/Dip.
Giurisprudenza LL.M. ISO 27001 Security Lead
Auditor - Data Protection
and I.P. Law Specialist Studio legale Di Resta
Il diritto all’oblio: dalla tutela nei
confronti dell’editore alla
deindicizzazione delle parole chiave
nei risultati dei motori di ricerca.
The right to be forgotten (RTBF): the legal protection towards to
publishers of the original content and the delising in the results
of the original content and the delisting in the results of search
engines.
Sommario: La società moderna è una società digitale e
interconnessa nella quale le informazioni sul nostro conto possono
essere raccolte e associate da diverse fonti di informazioni, si aprono
così problematiche spinose del controllo dei nostri dati, ne sono
esempio tangibile i casi a tutti noti legati ai Big Data, a tal riguardo si
citano i sistemi, come per esempio il programma di sorveglianza
elettronica Prism sviluppato negli USA per ragioni di pubblica sicurezza,
i quali se venissero utilizzati in modo distorto potrebbero diventare
mezzi di raccolta massima ed indiscriminata contro i cittadini stessi.
In tale contesto, si afferma con maggior forza l’esigenza di tutela
dell’identità personale di ciascuno, soprattutto nell’ambiente di Internet
che si caratterizza per la sua dimensione universale, identità che deve
essere controllata e gestita al fine di evitare che la stessa venga
dispersa.
In particolare, nell’ambiente di Internet una notizia negativa sulla
nostra reputazione può danneggiare gravemente chiunque
pregiudicando irreparabilmente il suo futuro, dal professionista,
all’imprenditore, ad uno studente, ecc.
Il diritto all’oblio, nell’accezione in senso stretto, è un aspetto del
diritto alla protezione dei dati personali (diritto fondamentale della
persona) che consente di evitare che informazioni negative sul nostro
conto ci inseguano per sempre consentendo all’interessato di rivolgersi
ai motori di ricerca per la rimozioni dei link associati ai risultati
contenenti i dati personali dello stesso.
Abstract: Our modern, digital and interconnected society is going
through a period whereby more personal data about our day-to-day life
information is being collected, linked and processed within various
sources through out the world within and out of the Internet.
In particular, in the Internet many thorny points on controlling our
personal data is raised, recent episodes relating to Big Data and the
electronic surveillance program (PRISM) developed by US Government,
for the purpose of public security, show the real risks for our personal
data and the possible consequences on personal identity of each citizen.
This context states an estreme need to controll one's online identity
where personal data is to serve il for not to be lost.
69
F. Di Resta
Almost every waking moment of our lives is recorded online, and it
can be potentially shared or made public, and it can negatively
influence on everyone's future.
In Europe the right to be forgotten, in restrictive sense, is an aspect
of our right to data protection, a fundamental right which allows to
avoid that negative news on our social identity will persue us forever,
guaranteeing to data subjects to ask search engines to remove links to
the results with personal data about them.
Come è noto, il diritto alla riservatezza inteso come interesse alla
non intrusione nella propria sfera privata ha trovato una prima
compiuta elaborazione nello scritto pubblicato a quattro mani tra
l’avvocato S.D.Warren eL.D. Brandais anch’egli avvocato, che
successivamente divenne giudice della Corte Suprema degli Stati Uniti,
l’articolo titolava The Right to Privacy, pubblicato nel 15 dicembre 1890
sulla Harvard Law Review.
Fu la prima vera riflessione sulla tutela della riservatezza come
diritto inviolabile, nel quale si denunciava il conflitto tra diritto
all’informazione e diritto dalla riservatezza, la vicenda riguardava
appunto la vita coniugale dell’allora noto avvocato di Boston,S.D.
Warren, finito su tutti di giornali per una relazione extraconiugale.
L’articolo sollevava una questione giuridica ancora fortemente
attuale, se da una parte la pubblicazione di informazioni per scopi
giornalistici si ricollega ai diritti fondamentali di informare i cittadini
dall’altra occorre che non vengano lesi altri diritti perché questo può
determinare una evidente sproporzione nella sfera personale di
ciascuno.
Dal 1890 sono trascorsi oltre centoventi anni, sicuramente la
cultura giuridica si è adattata ai radicali cambiamenti della società,
invero, nel corso di più di un secolo i nuovi principi giuridici e istituti
giuridici sembrano più essersi integrati con i precedenti nella continua
ricerca di una tutela effettiva, dal canto suo il progresso tecnologico ha
comportato un completo stravolgimento della società trasformandola
in una società dell’informazione.
In questa prospettiva di evoluzione storica del diritto alla
riservatezza con specifico riferimento all’informatica giuridica, in
ambito giuridico si è passati dal concetto di habeas corpus,insieme di
garanzie giurisdizionali affermatesi originariamente negli ordinamenti
di common law tramite la Dichiarazione dei diritti del 1215 (la Magna
Carta), cui si è accostato molti secoli dopo il concetto di tutela del
corpo informatico ossia le garanzie dell’habeas data da intendersi
usando le parole del giurista Eduardo Rozo Acuña come un “diritto
autonomo e fondamentale, che permette a ogni persona di conoscere,
aggiornare e rettificare le proprie informazioni raccolte nelle banche
dati e archivi degli enti pubblici e privati, in difesa dei diritti
fondamentali all’intimità - privacy”.
70
La Comunicazione N.R.& N.
Il diritto all’oblio: dalla nei confronti dell’editore alla deindicizzazione delle parole chiave nei risultato dei motori di ricerca.
The right to be forgotten (RTBF): the legal protection towards to publishers of the original content and the delising in the results of the original content
and the delisting in the results of search engines.
Da una società di fine ottocento in cui l’informazione era basata
sul passa parola e sulla stampa cartacea, siamo arrivati alla società
dell’informazione, un mondo digitale ed interconnesso, nel quale lo
sviluppo dell’ Internet delle Cose (IoT) è già una realtà, nei prossimi
anni sarà esponenziale, frigoriferi intelligenti, macchine che
comunicano informazioni tramite satellite in caso di incidente oppure
tecnologie che consentono di aprire la porta dell’autovettura tramite
smartphone.
In questo contesto, se da una parte vi sono le major di Internet
(spesso anche indicati con l’acronimo GAFA, Google, Apple, Facebook
and Amazon) che dominano il mondo digitale, come anche le più
importanti enciclopedie online, tra cui Wikipedia, dall’altra vi è chi
pensa che i diritti fondamentali debbano prevalere sul progresso
tecnologico, senza tuttavia che l’applicazione di tali diritti si tramuti in
forme di censure oppure che impedisca il progresso sociale stesso.
Evidentemente, la soluzione tra opposte prospettiva non può
essere trovata con le ideologie, ma identificando valori, principi e diritti
su cui si fonda la società nella dimensione di internet cercando di
trovare caso per caso una soluzione proporzionata e bilanciata.
Dopo queste brevi premesse generali, occorre addentrarsi nelle
recenti questioni giuridiche relative alla cronaca giudiziaria in relazione
alla protezione dei dati personali.
In primo luogo, tralasciando per il momento l’aspetto relativo
all’eventuale falsità della notizia, l’indagine dovrebbe essere volta a
verificare se la notizia contenuta sul sito del mass media o testata
giornalistica sia obsoleta, ossia non abbia seguito lo sviluppo della
vicenda giudiziaria, il cittadino coinvolto nella vicenda potrebbe
rivolgersi al quotidiano chiedendo l’aggiornamento dei dati poiché la
notizia così come è riportata attualmente non è più esatta, corretta,
ovvero non rispetta i criteri di essenzialità.
In altri termini, sebbene la notizia che riportava la vicenda del
professionista costituisse originariamente un trattamento lecito dei
dati personali, allo stato potrebbe costituire un illecito trattamento dei
dati perché la notizia non è più aggiornata.
Oltre a questo il professionista potrebbe chiedere che la notizia
venisse spostata nell’archivio storico online del quotidiano in modo che
l’informazione fosse meno accessibile da parte di terzi attraverso una
deindicizzazione della stessa.
Questo diritto viene conferito al cittadino come interessato,
Codice della Privacy (C.d.P.), art. 11 lett. c, laddove prescrive che i dati
personali oggetto di trattamento debbono essere “ c) esatti e, se
necessario, aggiornati”.
71
F. Di Resta
Tuttavia, mentre l’aggiornamento specifico e la spostamento
della notizia nell’archivio storico non presenta problemi tecnici di
particolari complessità, una volta risolta la questione giuridica di
bilanciamento dei diritti coinvolti, qualche criticità, tanto giuridica
quanto tecnica, potrebbe presentarsi in ordine alla richiesta di
deindicizzazione rivolta all’Editore.
Infatti, se da una parte il cittadino si ritiene leso sostenendo che
chiunque ricerchi la notizia come parola chiave il proprio nome e
cognome, trovi tra i risultati associati alla notizia i propria dati
personali; dall’altra, lo stesso richiedente la deindicizzazione (c.d.
delisting), tramite robots.txt della notizia, potrebbe trovarsi di fronte ai
limiti tecnologici dell’operazione; se è, infatti, vero che da alcuni anni i
maggiori quotidiani hanno oramai provveduto a digitalizzate gli archivi
cartacei, è anche vero che le piattaforme web implementate dai
quotidiani sono sicuramente dei siti dinamici che utilizzano banche dati
più o meno complesse e strutturate.
In tali casi, deindicizzare la singola pagina web può presentare
notevoli complessità tecniche e nella maggior parte dei casi potrebbe
essere difficile se non addirittura impossibile arrivare a risultati utili alla
tutela dell’interessato per il tramite del solo sito sorgente (Editore).
In tal senso, vi è anche il pronunciamento del Garante privacy
dell’11 dicembre 2008, laddove si asseriva che: ‘alla luce dell’attuale
meccanismo di funzionamento dei motori di ricerca standard,
intendendo con ciò quelli di maggiore diffusione, la raccolta di
informazioni sulla pagine disponibili nel world wide web (fase di
“grabbing”) è influenzabile dal solo amministratore di un sito web
sorgente per il tramite della compilazione del file robots.txt, previsto
dal “Robots Exclusion Protocol”, o tramite l’uso dei “Robots Meta Tag
secondo convenzioni concordate nella comunità di internet (avendo
presente comunque come tali accorgimenti non siano immediatamente
efficaci rispetto ai contenuti già indicizzati da parte motori di ricerca
internet, la cui rimozione potrà avvenire secondo le modalità da
ciascuno di questi previste)”.
In un provvedimento precedente il Garante aveva anche asserito
che: “in realtà la rettifica o cancellazione effettuati dal gestore del sito
non sono sufficienti a tutelare l’interessato: infatti in diversi casi le
copie cache dei siti e le relativa sintesi (gli abstract che compaiono
nelle pagine dei risultati della ricerca) non vengono aggiornate o
rettificate dal motore di ricerca, anche se sui siti sorgenti la rettifica o la
cancellazione è avvenuta da tempo […] le copie di cache generate da
Google per l’indicizzazione di determinate pagine web continuavano a
contenere la notizia dell’arresto di una professionista nell’ambito di
una nota vicenda giudiziaria senza menzionare la successiva
assoluzione […] il motore di ricerca continua a trattare autonomamente
dati consentendone la permanenza in rete anche se non più presenti
nei siti che li contenevano originariamente” (Provv. Garante privacy, 18
gennaio 2006, commento estratto dal volume PRIVACY E
72
La Comunicazione N.R.& N.
Il diritto all’oblio: dalla nei confronti dell’editore alla deindicizzazione delle parole chiave nei risultato dei motori di ricerca.
The right to be forgotten (RTBF): the legal protection towards to publishers of the original content and the delising in the results of the original content
and the delisting in the results of search engines.
GIORNALISMO, Mauro Paissan, Editore - Garante per la protezione dei
dati personali, pagg. 39 e 40).
Il problema sopra illustrato – piuttosto ricorrente in realtà - mostra da
una parte che il semplice aggiornamento e/o rettifica della notizia sul
sito sorgente può non sempre essere una sufficiente soluzione in
termini di efficace tutela del diritto alla protezione dei dati personali,
dall’altra la questione è ancora più complicata quando si pone un
problema di giurisdizione come nel caso di Google, nel quale essendo i
server e le attività di gestione delle attività dei motori di ricerca svolte
negli Stati Uniti,la applicazione a Google Italy della giurisdizione italiana
ed europea presenta ostacoli ritenuti a lungo insormontabili (tema che
sarà trattato nel prosieguo).
In tale contesto, il recente protocollo di verifica adottato dal
Garante privacy rappresenta in tal senso un passo avanti verso la
soluzione di questi problemi (Provv. Garante privacy del 22 gennaio
2015), il protocollo prevede aggiornamenti trimestrali sullo stato di
avanzamento dei lavori e la possibilità di effettuare presso la sede
americana di Google verifiche di conformità alla disciplina italiana delle
misure in via di implementazione: informative, consenso,
conservazione dei dati, rimozione delle informazioni dai risultati di
ricerca da parte degli utenti.
I quesiti e le problematiche sopra illustrati sono stati affrontati in
numerose pronunce della giurisprudenza di merito, nella prassi
decisoria del Garante privacy nonché della Cassazione e della Corte di
Giustizia. Nel prosieguo andremo ad analizzare queste pronunce.
Quando rivolgersi all’editore e cosa chiedere
In giurisprudenza non è rinvenibile un vero è proprio landmark
case in materia di diritto all’oblio almeno fino al 2012, mentre il
Garante privacy aveva già riconosciuto almeno dal 2004-2005 una
forma di diritto all’oblio in ambito di cronaca giudiziaria.
A tal riguardo, il provvedimento del Garante del 7 luglio 2005
riguardava la trasmissione “Un giorno in Pretura” programma della RAI
S.p.a., la trasmissione televisiva riproponeva a distanza di sedici anni le
immagini riprese durante il dibattimento processuale di una persona,
estranea alla vicenda, allora legata sentimentalmente con uno degli
imputati, la stessa manifestava chiaramente solidarietà con
quest’ultimo.
Tuttavia, riteneva l’Autorità le reazioni emotive dell’interessata
erano stato riprese senza alcuna cautela
volta ad evitarne
l’identificazione e non rispettando il requisito di essenzialità
dell’informazione. Pertanto, “la tutela invocata dalla segnalante trova
73
F. Di Resta
giusto fondamento anche nel diritto della segnalante di non essere più
ricordata pubblicamente, anche a distanza di molti anni (c.d. diritto
all’oblio; art. 11, comma 1, lett. e del Codice).
La riproposizione […] ha leso il diritto dell’interessata di veder
rispettata la propria rinnovata dimensione sociale e affettiva, così come
si è venuta definendo successivamente alla vicenda stessa, anche in
relazione al proprio diritto all’identità personale e al diritto alla
protezione dei dati personali”.
A questo punto appare opportuno, per ordine di importanza,
iniziare ad analizzare la pronuncia della Cassazione del 2012, atteso il
suo valore di landmark case.
Si trattava di un articolo pubblicato sul Corriere della Sera,
l’interessato aveva chiesto inizialmente al Garante per la protezione dei
dati personali il “blocco dei dati personali che lo riguardavano
contenuti nell’articolo “Arrestato per corruzione…” pubblicato sul
quotidiano il giorno 22 aprile 1993, l’Autorità aveva respinto il ricorso.
Quindi, lo stesso impugnava il provvedimento di rigetto del Garante
Privacy innanzi al Tribunale di Milano, tuttavia, il Tribunale confermava
quanto asserito dal Garante respingendo l’opposizione volta alla
rimozione dei dati giudiziari.
Così come previsto dall’art. 152 del C.d.P., attesa la non
appellabilità delle sentenze del Tribunale, l’interessato proponeva
ricorso in Cassazione. Il ricorso conteneva un unico complesso motivo
nel quale si richiamava alla violazione degli artt. 2, 7, 11, 99, 102, 150
del C.d.P., nonché agli artt.3, 5, 7 del codice deontologico e buona
condotta per i trattamenti di dati per scopi storici.
Gli argomenti dell’organo giudicante respingono alcune richieste
della ricorrente e sono così succintamente riassunti: “l’articolo di cui si
tratta non può essere tecnicamente inteso come una nuova
pubblicazione”, la “ricerca effettuata attraverso i comuni motori di
ricerca – non direttamente legata all’articolo del Corriere della Sera –
dà, in realtà, contezza degli esiti processualmente favorevoli” e
“l’inserimento di una sorta di sequel nell’articolo contenuto in archivio
[…] farebbe venir meno il valore di documento del testo stesso,
vanificandone così la funzione storico-documentaristica”.
Gli argomenti posti dal ricorrente avverso la pronuncia del
Tribunale più nello specifico così possono riassumersi:
- richiesta di “spostamento dell’articolo pubblicato molti anni
prima in un area di un sito web non indicizzabile dai motori di
ricerca”;
- L’articolo “non reca, in sé, la notizia distinta successiva – che
l’inchiesta giudiziaria che aveva condotto all’arresto del ricorrente
si sia poi conclusa con il proscioglimento del medesimo, sicché,
ancora il […] è soggetto allo stigma derivante dalla continua
74
La Comunicazione N.R.& N.
Il diritto all’oblio: dalla nei confronti dell’editore alla deindicizzazione delle parole chiave nei risultato dei motori di ricerca.
The right to be forgotten (RTBF): the legal protection towards to publishers of the original content and the delising in the results of the original content
and the delisting in the results of search engines.
riproposizione di una notizia che, al momento della sua
pubblicazione era senz’altro vera ed attuale, ma che oggi, a
distanza di così grande lasso di tempo ed in ragione delle
sopravvenute vicende favorevoli, getta un intollerabile alone di
discredito sulla persona del ricorrente, vittima di un vera e propria
gogna mediatica”.
La vicenda sottoposta alla Corte riproponeva ancora una volta la
spinosa questione del bilanciamento, da una parte il diritto di
informare, la libertà di espressione e l’interesse della collettività ad
accedere ad informazioni e dell’altra parte il diritto, non più solo diritto
alla riservatezza inteso come right to be alone, ma al trattamento
dinamico dei dati, dalla raccolta alla gestione alla prima diffusione
(prima pubblicazione) financo alla ulteriore diffusione (si trattava di
una circolazione dei dati tramite internet e quindi potenzialmente
accessibile da tutto il mondo).
Come è noto, l’art. 11 del C.d.P. definisce i criteri con il quali il
trattamento dei dati personali può essere definito corretto (p.e. è stato
acquisito il consenso informato) e/o lecito (p.e. violazione di altre
disposizione del C.d.P. come ad esempio violazione del principio di
finalità e/o proporzionalità del trattamento).
Invero, la liceità del trattamento merita un breve approfondimento
perché è un principio fondamentale nella decisione che occupa.
L’organo giudicante asserisce che la liceità trova fondamento nella
finalità del trattamento e ne costituisce un limite intrinseco allo stesso,
nello specifico, la finalità perseguita nella prima pubblicazione da parte
del quotidiano è diversa da una riproposizione dello stesso articolo.
Infatti, come già accennato sopra la pubblicazione originaria può
avere il carattere di attualità (trattamento dati originario), ma il
trascorre del tempo può comportare che la notizia divenga obsoleta
perché non più di interesse per il pubblico, l’ulteriore ripubblicazione a
distanza di tempo di una notizia dimentica può quindi danneggiare
l’identità personale e professionale di un individuo e può pertanto
considerarsi illecita.
Un altro passaggio della sentenza appare cruciale, anche i dati
pubblici o pubblicati sono oggetto di tutela, afferma la Cassazione che
“il diritto all’oblio salvaguardia in realtà la proiezione sociale
dell’identità personale, l’esigenza del soggetto di essere tutelato dalla
divulgazione di informazioni (potenzialmente) lesive in ragione della
perdita (stante il lasso di tempo intercorso dall’accadimento del fatto
che costituisce l’oggetto) di attualità delle stesse sicché il relativo
trattamento viene a risultare non più giustificato ed anzi suscettibile di
ostacolare il soggetto nell’esplicazione e nel godimento della propria
personalità.” Il Supremo Collegio prosegue richiamando altra pronuncia
secondo la quale “ il diritto al rispetto della propria identità personale e
75
F. Di Resta
morale, a non vedere cioè travisato alterato il proprio patrimonio
intellettuale […] (la n.d.r.) propria immagine nel momento storico
attuale”.
Sempre analizzando il profilo della liceità del trattamento
successivo alla prima pubblicazione l’organo giudicante richiama un
principio, ai fini della valutazione della ripubblicazione della notizia,
secondo il quale è importante tenere in conto che i dati personali
provenienti da fonti pienamente conoscibili (p.e. elenchi telefonici)
come anche i dati pubblici (p.e. dati reddituali detenuti dall’Agenzia
delle Entrate), entrambi non sono liberamente utilizzabili, ed i secondi
possono comunque essere sottoposti ad un regime giuridico di
pubblicità che ne limiti l’utilizzo.
In particolare, i primi sono anche reperibili online, si pensi ad
esempio alle e mail, agli indirizzi, ai numeri di telefono, non per questo
sono dati personali liberamente utilizzabili da chiunque e per
qualunque scopo ed anzi sono soggetti in termini generali alla
protezione dati personali.
Nel ricercare un giusto bilanciamento di interessi la Corte
asserisce quindi che se da una parte occorre tutelare l’identità
personale anche nelle fasi successive alla prima pubblicazione
dell’articolo ai fini di tutela della proiezione sociale della stessa
identità, dall’altra vi è pur sempre l’interesse del pubblico ad accedere
alla notizia e quindi ad una permanenza della stessa nella memoria
storica presente su Internet.
Pertanto, asserisce la stessa proprio sulla base dell’esigenza di
garantire una liceità del trattamento successivo alla prima
pubblicazione che il quotidiano Corriere della Sera (R.C.S. Quotidiani
S.p.A.) non è sufficiente che si sposti nell’archivio storico la notizia, è
invece necessario che adotti un sistema di segnalazione dello sviluppo
della stessa (p.e. banner all’interno dell’articolo) il quale garantisca una
contestualizzazione e l’aggiornamento della stessa.
Infine, vi da rilevare che, correttamente, la Corte non sembra
aver accolto altre richieste del ricorrente volte invece a chiedere anche
la deindicizzazione dall’archivio online, trovando invero questa
richiesta di difficile realizzabilità tecnica. Come si avrà modo di
illustrare più avanti la deindicizzazione avrebbe dovuto essere rivolta al
motore di ricerca, sebbene i limiti giurisdizionali all’epoca ancora
sussistenti non avrebbero forse consentito di coinvolgere
processualmente lo stesso.
Altra pronuncia che si inserisce parzialmente nel solco delineato
da questo significativo arresto è l’ordinanza del Tribunale di Firenze del
29 marzo 2014, la questione attinente alla cronaca giudiziaria, si
contrapponevano anche qui il diritto all’autodeterminazione
informativa, nell’accezione di diritto alla tutela dell’identità personale e
quindi alla veridicità delle informazioni contenute nell’archivio storico
76
La Comunicazione N.R.& N.
Il diritto all’oblio: dalla nei confronti dell’editore alla deindicizzazione delle parole chiave nei risultato dei motori di ricerca.
The right to be forgotten (RTBF): the legal protection towards to publishers of the original content and the delising in the results of the original content
and the delisting in the results of search engines.
online, per contro vi era lo scopo storico-documentaristico, il diritto di
informare e di essere informati.
L’organo giudicante asserisce che: “il presente giudizio infatti non
tocca in alcun modo il contenuto degli archivi storici del quotidiano che
rimarrebbero pertanto disponibili a chiunque voglia prenderne visione
[…] la deindicizzazione dei due articoli risulta, pertanto, misura
adeguata e sufficiente a contemperare l’esigenza di mantenimento
della memoria storica della cronaca giudiziaria (continuando i due
articoli ad essere reperibili nell’archivio storico del quotidiano) ma
anche a garantire, al contempo, in via immediata la tutela
dell’immagine telematica dal punto di vista professionale e lavorativo
dell’odierno ricorrente […]
Nel caso di specie l’avvenuta rettifica nel corpo dell’articolo di cui
alla URL […] pur ristabilendo la verità storica, non tutela certamente in
modo sufficiente l’interesse cui è diretto il presente ricorso, che
consiste, principalmente, nel disincentivare l’associazione del nome del
ricorrente alle parole “arresti domiciliari” ogni qualvolta lo si digiti sul
motore di ricerca Google”.
Pertanto, da una parte il pronunciamento del Tribunale
fiorentino è pienamente conforme all’arresto giurisprudenziale della
Suprema Corte del 2012, ma lo stesso va oltre asserendo che
l’esattezza dell’informazione non è sufficiente: occorre che la notizia
venga deindicizzata dal sito sorgente.
D’altro canto, il Tribunale fiorentino si era già pronunciato su una
questione analoga l’anno precedente, Ord. Trib. di Firenze del 13
febbraio 2013, asserendo su ricorso per provvedimento d’urgenza ex
art. 700 c.p.c. che: “non spetta ai motori di ricerca provvedere
all’aggiornamento e alla contestualizzazione delle informazioni
immesse, ma ai siti sorgente e quindi alle testate giornalistiche […] è
chiaro perciò che il fumus boni iuris del diritti all’identità personale del
ricorrente deriva dalla indicizzazione da parte dei motori di ricerca del
suo nome e cognome e dall’associazione dello stesso alla qualità di
indagato e arresto non più attuali e veritiere […] Ciò posto la
permanenza di tali informazioni non può che arrecare un pregiudizio
grave e irreparabile al ricorrente”.
Anche Il Tribunale di Milano nella ordinanza del 26 aprile 2013, n.
5820, prende le mosse proprio dal landmark case del 2012, il ricorrente
lamentava la natura diffamatoria e la illiceità dell’articolo “l’usuraio del
casinò ha evaso 84 miliardi”, notizia pubblicata su Repubblica il 29
settembre 1985 e riportata nell’archivio online di Repubblica (il Gruppo
editoriale l’Espresso S.p.A.).
Lo stesso asseriva, in particolare, la mancanza di veridicità
dell’articolo, sia in ordine al reato contestato, sia all’esistenza di
mandati di cattura ovvero la presunta latitanza, sia l’importo
77
F. Di Resta
contestato e ne chiedeva comunque la rimozione dell’articolo
dall’archivio online o in subordine “impedire al motore di ricerca
l’accesso al predetto link”.
L’organo giudicante nelle conclusioni asseriva in primo luogo la
carenza (assunto invero molto ricorrente almeno fino alla pronuncia
della Corte di Giustizia) di legittimazione passiva di Google Italy S.r.l.,
atteso che la stessa effettuava mera attività pubblicitaria e di
marketing di prodotti editoriali, attività autonome e distinte da quelle
svolte dalla società madre, Google inc., nello specifico autonome e
distinte dalle attività relative alla gestione dell’indicizzazione delle
pagine web impiegate dai motori di ricerca.
Come già accennato, tale tesi costituisce un comune denominatore
nella costante giurisprudenza fino a maggio 2014, secondo la stessa si
deve asserire il difetto di legittimazione passiva nei confronti di Google
Italy in quanto non rientrante nell’art. 5 del C.d.P. e non potendosi
individuare neanche un’attività di mero supporto per la società madre
(Cfr. Tribunale di Roma, 11 luglio 2011; Tribunale di Luca, 20 agosto
2007; Tribunale di Milano, 25 ottobre 2010, successivamente la stessa
è stata riformata totalmente nei due successivi gradi di giudizio).
Le altre conclusioni dell’organo giudicante milanese erano le
seguenti pieno accoglimento della domanda spiegata dall’attore nei
confronti del Gruppo editoriale l’Espresso S.p.A. e per l’effetto si
ordinava la cancellazione dell’articolo in oggetto dall’archivio online
del quotidiano La Repubblica, condannava, inoltre, il quotidiano al
risarcimento dei danni non patrimoniali.
Pertanto, da una parte la pronuncia milanese sembra andare oltre
il landmark case del 2012, asserendo non il mero aggiornamento o
rettifica della notizia, ma la totale rimozione del contenuto della stessa.
Occorre però analizzare il percorso argomentativo del Giudice.
Il tribunale, si giovava di molte delle argomentazioni presenti nella
nota pronuncia del 2012, ma asseriva anche che: “le finalità di archivio
di una notizia così risalente (il 1985, n.d.r.) ben possono essere
assicurate attraverso la conservazione di una copia cartacea (in tal
modo sicuramente sacrificando le possibilità di accesso alla notizia, ma
in favore del superiore interesse all’identità personale, per le
argomentazione sopra esposte) e considerato il fatto che le procedure
di c.d. deindicizzazione poste in essere dalle resistenti sono rimaste
infruttuose (Cfr. documentazione prodotta dalla difesa di parte attrice
unitamente alla comparsa conclusionale), si ritiene che, ai sensi del
citato articolo 7 D.lgs. n. 196 del 2003, possa essere disposta, a cura del
Gruppo Editoriale l’Espresso – cui spetta provvedere, Cfr. Cass.
5525/2012) – la cancellazione dell’articolo […] dall’archivio
telematico[…]”.
Il Giudice milanese ritiene pertanto che sia sufficiente che il
quotidiano conservi la notizia in formato cartaceo, data la notizia di
78
La Comunicazione N.R.& N.
Il diritto all’oblio: dalla nei confronti dell’editore alla deindicizzazione delle parole chiave nei risultato dei motori di ricerca.
The right to be forgotten (RTBF): the legal protection towards to publishers of the original content and the delising in the results of the original content
and the delisting in the results of search engines.
trent’anni orsono l’interesse pubblico è da considerarsi recessivo
rispetto alla protezione dell’identità, inoltre, neanche le soluzioni
tecniche approntate dal quotidiano non erano state sufficienti a
deindicizzare la notizia.
La pronuncia in oggetto è stata accolta da alcuni con riserve e
perplessità dovuta al fatto che la conservazione nel solo archivio
cartaceo rappresenta una sanzione molto aspra. Tuttavia, a ben vedere
il giudicante in ordine al contenuto offensivo si è limitato a constatare
la prescrizione relativa alle richieste inerenti la diffamazione, tenuto
conto del fatto che questi fatti riportati nella notizia erano almeno in
parte falsi come l’accusa di usura, l’evasione di somme molto ingenti,
mandati di cattura e latitanza.
A tal proposito si richiama la Cassazione del 2012 la quale asserisce
che la notizia “originariamente completa e vera, diviene non
aggiornata, risultando quindi parziale e non esatta, e pertanto
sostanzialmente non vera”, invece nel caso in esame non era il
trascorrere del tempo a rendere la notizia non vera (anche se solo
parzialmente)la notizia era tale ab origine.
Orbene, dalla lettura più approfondita della sentenza emerge che
l’aspra misura adottata dall’organo giudicante appare ben motivata
sotto il profilo del bilanciamento di interessi, in primo luogo la notizia
era stata pubblicata nel 1985 (lasso di tempo sufficiente per soddisfare
l’interesse pubblico ad accedere all’informazione), a distanza di quasi
trent’anni, inoltre, non sussistevano motivi per l’ulteriore
identificabilità della persona in riferimento alle finalità di pubblicazione
(trattamento dati), infine, come sopra accennato non solo la stessa era
in parte falsa ma le misure adottate dall’editore erano state
infruttuose.
Pertanto, la rimozione della notizia dagli archivi online è vista
correttamente dal giudicante come una extrema ratio volta a garantire
un’effettività di tutela del diritto dell’attore non altrimenti tutelabile
nell’ambiente Internet, di qui appunto l’obbligo di conservare in
formato solo cartaceo per adempimento agli scopi storicodocumentaristici.
Alla luce di queste osservazioni appare ora opportuno analizzare la
sentenza che costituisce un landmark case a livello europeo. Si tratta
della pronuncia della Corte di Giustizia dell’Unione Europea del 13
maggio 2014, causa C-131/12. La vicenda come è noto riguardava il sig.
Costeja Gonzales il quale mediante reclamo chiedeva che fosse
ordinato ad un noto quotidiano catalano, La Vanguardia, di rimuovere
oppure modificare alcune pagine web contenenti i suoi dati personali.
Il reclamo, innanzi alla Agencia Espanola de Proteccion de Datos
(AEDP), era rivolto sia contro il quotidiano La Vanguardia sia contro
Google Spain e Google Inc., si fondava in ragione del fatto che quando
79
F. Di Resta
veniva effettuata una ricerca da parte di un qualsiasi utente con le
parole chiave “Costeja Gonzales” il motore otteneva come risultati due
link verso due pagine di suddetto quotidiano, rispettivamente del 19
gennaio e del 9 marzo 1998, riportanti la notizia da considerarsi oramai
obsoleta.
Nella notizia si riportava che il sig. Costeja Gonzales, a seguito di
accertamenti, era risultato evasore per crediti previdenziali e che dei
suoi immobili erano stati messi all’asta a seguito di un pignoramento
per la riscossione coatta di detti crediti.
Il reclamo verso il quotidiano La Vanguardia veniva respinto
ritenendo la pubblicazione del quotidiano legalmente giustificata dato
che alla vendita pubblica era stata data ampia pubblicità su ordine del
Ministero del Lavoro e degli Affari sociali.
Il medesimo reclamo veniva invece accolto dalla AEDP contro
Google Spain e Google Inc. Le ragioni dell’accoglimento possono essere
riassunte come segue: Le società spagnola e la società madre
americana operano in stretta collaborazione, “i gestori di motori di
ricerca sono assoggettati alla normativa in materia di protezione dei
dati […] effettuano un trattamento di dati per il quale sono responsabili
e agiscono quali intermediari […] L’AEDP ha ritenuto di essere
autorizzata ad ordinare la rimozione dei dati nonché il divieto di
accesso a taluni dati da parte dei gestori dei motori di ricerca ”.
Alla base di tale pronunciamento vi è il bilanciamento degli
interessi in gioco, nel quale prevale “il diritto fondamentale alla
protezione dei dati personali e alla dignità delle persone in senso
ampio, ciò che includerebbe anche la semplice volontà della persona
interessata che tali non siano conosciuti da terzi”.
La pronuncia dell’AEDP veniva impugnata innanzi all’Audiencia
Nacional, la quale sospendeva procedimento ponendo una questione
pregiudiziale comunitaria innanzi alla Corte di Giustizia.
Si ponevano principalmente tre questioni che possono riassumersi
come segue:
1. La qualificazione come “stabilimento” relativamente a Google
Spain al fine di definire la giurisdizione in base alla normativa
europea e al diritto spagnolo sul caso;
2. Se l’attività posta in essere da Google Search, “consistente nel
localizzare le informazioni pubblicate e messe in rete a terzi,
nell’indicizzarle in maniera automatica, nel memorizzarle
temporaneamente e infine metterle a disposizioni degli utenti
di Internet secondo un determinato ordine di preferenza”
possa qualificarsi come trattamento dei dati personali e se
come tale la società possa essere qualificata come
Responsabile del trattamento ai sensi dell’art. 2 lett. d) della
Direttiva 95/46/Ce.
80
La Comunicazione N.R.& N.
Il diritto all’oblio: dalla nei confronti dell’editore alla deindicizzazione delle parole chiave nei risultato dei motori di ricerca.
The right to be forgotten (RTBF): the legal protection towards to publishers of the original content and the delising in the results of the original content
and the delisting in the results of search engines.
3. In riferimento alla portata del diritto di cancellazione e/o
opposizione al trattamento di dati in relazione al diritto
all’oblio, ai sensi degli artt. 12 e 14, se il diritto di cancellazione
e congelamento dei dati implichino o meno che l’interessato
possa rivolgersi ai motori di ricerca “per impedire
l’indicizzazione delle informazioni riguardanti la sua persona
pubblicate su pagine web di terzi, facendo valere la propria
volontà che tali informazioni non siano conosciute dagli utenti
di internet”, qualora tale divulgazione comporti una pregiudizio
ai sui danni o desideri che tali informazioni siano dimenticate.
Per tutte e tre le questioni sopra illustrate la Corte di Giustizia
forniva risposta affermativa, riconosceva per la prima volta nella la
giurisdizione europea e spagnola sui motori di ricerca, che Google
Spain fosse qualificabile come responsabile del trattamento (Titolare
autonomo secondo il diritto italiano).
Infine, con la questione indicata al punto 3 si chiedeva alla Corte se
fosse possibile legittimamente chiedere al motore di ricerca la
rimozione del link alla pagina web del sito sorgente (quotidiano La
Vanguardia), anche nella circostanza che il trattamento operato da
quest’ultimo fosse lecita (Cfr. paragrafo 62). La risposta della Corte è
netta in base alla Direttiva 95/46/Ce il fatto che le informazioni
pubblicate sul sito sorgente siano lecite non incide sugli obblighi dei
motori di ricerca.
Anzi, specifica che il trattamento dell’editore di una pagina web,
consistente nella pubblicazione di informazioni relative ad una persona
fisica, può in ipotesi essere anche effettuato per esclusivi scopi
giornalistici (par. 85) e beneficiare delle deroghe previste dall’art. 9
della Direttiva, mentre tali deroghe non sono applicabili ai motori di
ricerca.
La Corte conclude, infine, che il diritto allo protezione dei dati
personali prevale, nell’ottica di un bilanciamento di diritti, non soltanto
sugli interessi economici dei motori di ricerca ma sull’interesse del
pubblico ad accedere all’informazione in occasione di una ricerca
concernente il nome dell’interessato.
D’altro canto, quest’ultima tesi trova conforto anche se si fosse
ragionato in stretti termini di diritto italiano, l’editore in tal caso
avrebbe potuto infatti sostenere una tesi difensiva ricorrendo all’art.
136 e ss. del Codice della Privacy (d.lgs. 196/2003). Lo stesso prevede
una deroga al consenso al trattamento quando lo stesso è “effettuato
nell’esercizio della professione di giornalista e per l’esclusivo
perseguimento delle relative finalità” o “effettuato dai soggetti iscritti
nell’elenco dei pubblicisti o nel registro dei praticanti di cui agli articoli
26 e 33 della legge 3 febbraio 1963, n. 69”. D’altro canto, il trattamento
potrebbe anche essere “temporaneo finalizzato esclusivamente alla
81
F. Di Resta
pubblicazione o diffusione occasionale di articoli, saggi e altre
manifestazioni di pensiero anche nell’espressione artistica”.
Ovviamente la deroga al consenso, che include anche le garanzie
previste dagli artt. 27 in combinato disposto con l’art. 137 C.d.P. sul
trattamento dei dati giudiziari, potrebbe anche essere opposta
impropriamente perché lo scopo giornalistico potrebbe essere ritenuto
recessivo rispetto al diritto all’oblio ossia il diritto alla protezione dei
dati personali nell’accezione di controllo della propria identità
personale nella sua proiezione sociale. In tale caso una notizia diventa
obsoleta per il trascorrere del tempo perdendo di interesse per la
collettività.
Peraltro, riprendendo le argomentazioni della Corte di Giustizia,
la notizia di un privato cittadino che non ha incarichi pubblici perde di
interesse dopo un certo numero di anni, prevalendo il diritto a che la
notizia venga dimentica, pertanto si può chiedere che non sia più
accessibili con facilità da parte di terzi, tuttavia, quotidiano potrà
ottenere ragionevolmente il risultato di continuare a conservare la
notizia, in forma aggiornata e veritiera, nell’archivio storico online.
Sul piano generale occorre, inoltre, porsi un ulteriore quesito che
allo stato rappresenta uno dei punti critici del dibattito istituzionale a
livello europeo in tema di protezione dati, il diritto all’oblio
riconosciuto in via giurisprudenziale deve trovare una puntuale
disciplina normativa?
Il testo della proposta del regolamento europeo sulla protezione
dei dati personali (General Data Protection Regulation-GDPR),
regolamento che dovrebbe essere approvato prevedibilmente entro gli
inizi del 2016, sarà come tale direttamente efficace in tutti Stati
Membri (c.d. diretta applicabilità dei regolamenti dell’UE), licenziato
dal Consiglio dell’Unione Europea lo scorso 19 dicembre 2014, contiene
anche una disposizione sul diritto all’oblio.
Tuttavia, solo in apparenza sembra andare nella direzione della
necessità di riconoscere un nuovo diritto oltre ai diritti dell’interessato
già riconosciuti (art. 7 co. 3 e 4 Codice della Privacy; art. 12 co. 2 e 3
della Direttiva 95/46/Ce), per contro è da ritenersi che la volontà
attuale del legislatore comunitario sia di individuare un’accezione del
più ampio diritto alla cancellazione dei dati, all’integrazione e
all’aggiornamento nonché all’opposizione del trattamento per motivi
legittimi.
Infatti, l’art. 17 è stato rubricato “Right to be forgotten and to
erasure” (spesso nella letteratura in materia si riporta il semplice
acronimo RTBF), invece, esaminando il testo attuale, il diritto all’oblio
compare solo nella rubrica e non viene specificamente disciplinato, le
disposizioni riconoscono al diritto di cancellazione un ambito di
applicazione molto vasto, rimandando al diritto di opposizione al
trattamento per motivi legittimi e al bilanciamento tra i diritto in gioco
82
La Comunicazione N.R.& N.
Il diritto all’oblio: dalla nei confronti dell’editore alla deindicizzazione delle parole chiave nei risultato dei motori di ricerca.
The right to be forgotten (RTBF): the legal protection towards to publishers of the original content and the delising in the results of the original content
and the delisting in the results of search engines.
(Art. 19), al principio di finalità e necessità del trattamento dati, alla
revoca del consenso al trattamento dei dati (Articolo 9).
Infine, analizzando i documenti del Dapix Working Group,
Gruppo di Lavoro sullo scambio di informazioni e la protezione dei dati
in seno al Consiglio dei Ministri dell’Unione Europea, emergono diverse
posizioni degli Stati Membri, in particolare, le delegazioni di Germania,
Danimarca e Spagna ritengono che non sia necessario introdurre
legislativamente un diritto ad hoc andando oltre il diritto di
cancellazione dei dati, ma sia sufficiente disciplinare solo quest’ultimo.
Le delegazioni spagnola e tedesca, insieme ad altre sostengono,
inoltre, che il diritto all’oblio sia un’ accezione del diritto alla
riservatezza e quindi espressione del più ampio diritto alla protezione
dei dati personali che deve essere bilanciato contro diritto alla
memoria storica dei fatti e all’accesso alle fonti di informazione, intesi
questi ultimi come esplicazioni della libertà di espressione.
Quando e come rivolgersi al motore di ricerca
La sentenza sopra analizzata rappresenta come detto un
landmark case per diversi aspetti, infatti, immediatamente dopo la
pubblicazione della sentenza, 13 maggio 2014, il principale motore di
ricerca a livello mondiale ha introdotto in tutta Europa una procedura
di segnalazione per i richiedenti la deindicizzazione delle pagine web.
Come sopra accennato fino ad allora le società come Google Italy
e Google Spain, erano costantemente considerate, come società che
svolgono una semplice attività di vendita di servizi pubblicitari per
conto della Google Ireland Ltd. (Società del gruppo Google che gestisce
la raccolta pubblicitaria sul sito web) e non compiendo pertanto
operazione di trattamento strumentali alle attività di motore di ricerca
non erano soggette alle giurisdizioni europee (Provv. Garante privacy
del 18 gennaio 2006, doc. web n. 1242501)
Successivamente a tale sentenza, Google Inc. ha deciso di
pubblicare in diverse lingue la procedura in base alla quale i cittadini
possono richiedere la deindicizzazione delle parole chiave dai risultanti
dei motori di ricerca. Il richiedente dopo aver compilato la richiesta
telematica deve attendere il riscontro di Google in merito.
Le decisioni di Google in tema di deindicizzazione in Italia
possono essere impugnate innanzi al Garante privacy ed innanzi al
Tribunale, atteso che secondo i più recenti pronunciamenti in materia
Google Italy deve ritenersi un rappresentante stabilito in Italia ai fini
dell’art. 5, co. 2 del d.lgs. 196/2003.
La statistiche ufficiali italiane mostrano che Google finora ha
rigettato circa il 60% delle richieste pervenute secondo criteri e
83
F. Di Resta
valutazioni condivise dal nostro Garante per la protezione dei dati
personali (Audizione del Presidente Antonello Soro presso la
Commissione dei Diritti e doveri relativi ad Internet – Camera dei
Deputati, 12 gennaio 2015).
Fino a tutto dicembre 2014, erano alcune decine le richieste di
indicizzazione pervenute al Garante, di queste solo nove pervenute ad
una conclusione del procedimento innanzi al Garante. Di queste nove
pronunce, sette sono di conferma delle decisioni di Google e quindi di
rigetto delle richieste di deindicizzazione (newsletter del Garante del 22
dicembre 2014), mentre le altre due pronunce hanno accolto il ricorso
degli interessati, in un primo caso le informazioni pubblicate erano
eccedenti e riferite a persone estranee alla vicenda giudiziaria,
nell’altro caso la notizia pubblicata era inserita in un contesto idoneo a
ledere la vita privata della persona (Cfr. doc. web nn. 3623877 e
3623978).
Più nel merito, analizzando i succinti provvedimenti del garante
relativi al respingimento delle richieste di indicizzazione, già rifiutate in
sede stragiudiziale da parte di Google Inc., da una parte emerge che le
vicende attinenti alla cronaca giudiziaria sono per lo più ancora
considerate di pubblico interesse, dall’altra viene suggerito al
ricorrente di esercitare i diritti di aggiornamento, rettifica e
integrazione previsti dall’art. 7 C.d.P. qualora ritenga che le notizie
pubblicate dagli editori non siano vere.
Il quadro complessivo relativo alle richieste stragiudiziali rivolte a
Google e a quelle in sede amministrativa innanzi al Garante privacy è
piuttosto netto al momento.
L’accoglimento di una richiesta di deindicizzazione deve essere ben
motivato per superare il test del bilanciamento tra lo specifico contesto
in cui si applica il diritto alla protezione dei dati personale (rectius
diritto all’oblio) e i diritti con esso confliggenti (diritto di cronaca,
diritto di essere informati e pubblico interesse all’accesso), indicando le
URL per le quali si chiede al motore di ricerca di rimuovere i link.
A tal riguardo corre l’obbligo di richiamare la recente
pubblicazione delle Linee guida di Google del 6 febbraio 2015, su
indicazione dell’Advisory Council nominato da Google (“The Advisory
Council to Google on the Right To Be Forgotten”),nella quale si
esplicitano i criteri in base al quali Google opererà suddetto
bilanciamento di interessi.
E’, infine, il caso di notare come le linee guida di Google non siano
allineate per diversi aspetti con il Parere del Gruppo europeo dei
Garanti (Article 29 Working Party) pubblicato il 26 novembre 2014
(Giudelines on the Implementation of the court of Justice on the
European Union Judgement on “Google Spain And Inc V. Agencia
84
La Comunicazione N.R.& N.
Il diritto all’oblio: dalla nei confronti dell’editore alla deindicizzazione delle parole chiave nei risultato dei motori di ricerca.
The right to be forgotten (RTBF): the legal protection towards to publishers of the original content and the delising in the results of the original content
and the delisting in the results of search engines.
Espanola de Proteccion de Datos (AEDP) and Mario Costeja Gonzalez”
C-131/12).
L’accostamento tra i due documenti è invero improprio, le linee
guida sono da intendersi come una procedura aziendale implementata
da una multinazionale leader mondiale nel settore, mentre l’Opinion
del Gruppo di lavoro art. 29 è invece un documento istituzionale
europeo.
La differenza tra i predetti documenti è di tutta evidenza, il
documento del Gruppo europeo dei Garanti essendo un documento
istituzionale da ritenersi un riferimento sia per il contenzioso
amministrativo (ricorsi al Garante per la protezione dei dati personali)
che per quello giudiziario e non ultimo anche per tutti i cittadini e le
altre istituzioni.
In ogni caso, è bene ribadire che le linee guida di Google saranno
un documento utile per fornire indicazioni in ordine ai criteri di
bilanciamenti degli interessi in gioco per chi vuole proporre una
richiesta di indicizzazione, trattandosi allo stato attuale di una scelta
obbligata, successivamente si sceglierà la sede - tra quelle consentite
dell’ordinamento - più opportuna per tutelare il diritto fondamentale
quale quello alla protezione dei dati personali.
________________________________________________________________________________
BIBLIOGRAFIA ESSENZIALE
Bianchi, D. Difendersi da internet, Guida al Diritto, Il Sole 24 Ore, Milano, 2014.
Di Resta, F. Il diritto all'oblio: un'evoluzione del diritto di aggiornamento e
all'esattezza delle notizie sul proprio conto o un nuovo diritto? Pubblicato su Diritto
24 del Sole 24 ore (ultima visita 25 giugno 2015)
http://www.diritto24.ilsole24ore.com/art/avvocatoAffari/mercatiImpresa/201502-26/il-diritto-oblio-evoluzione-diritto-aggiornamento-e-esattezza-notiziaproprio-conto-o-nuovo-diritto-110423.php
Di Resta, F., Dal Rfid all’IoT: le criticità del quadro normativo, pubblicato sul sito
web (ultima visita 25 giugno 2015):
http://channels.theinnovationgroup.it/iot/tag/fabio-di-resta/
Di Resta, F., Protezione dei dati personali - Privacy e Sicurezza (Prefazione a cura di
Giuseppe Chiaravalloti), Giapplichelli editore, Torino, 2008, pagg. da 51 a 61.
Paissan, M., Privacy e Giornalismo, Garante per la Protezione dei dati personali,
ed. febbraio 2008.
Warren, S.D. e Brandais, L.D., The Right to Privacy, pubblicato il 15 dicembre 1890,
Harvard Law Review.
DOCUMENTI DI RIFERIMENTO
85
F. Di Resta
− Lettera inviata dal Presidente del Garante privacy a Google Inc., 22 marzo 2006,
doc. web. 13339146.
− Parere del Gruppo europeo dei Garanti (Article 29 Working Party – WP 225)
pubblicato il 26 novembre 2014 (Giudelines on the Implementation of the Court of
Justice on the European Union Judgement on “Google Spain And Inc V. Agencia
Espanola de Proteccion de Datos (AEDP) and Mario Costeja Gonzalez” C-131/12)
− Bozza del Regolamento generale sulla protezione dei dati personali, versione testo
del Consiglio dell’Unione Europea, 19 dicembre 2014
− Newsletter del Garante per la protezione dei dati personali, 22 dicembre 2014.
− Audizione del Presidente Antonello Soro presso la Commissione dei Diritti e doveri
relativi ad Internet – Camera dei Deputati, 12 gennaio 2015
− Linee guida, The Advisory Council to Google on the Right to be Forgotten,
pubblicate il 6 febbraio 2015
− Relazione annuale del Garante per la protezione dei dati personali, 2014
(pubblicata a giugno 2015), pagg. 142 e ss.
GIURISPRUDENZA DI RIFERIMENTO
− Provvedimento del Garante privacy del 10 novembre 2004, doc. web. 1116068
− Provvedimento del Garante privacy del 7 luglio 2005, doc. web. 1148642
− Provvedimento del Garante privacy del 18 gennaio 2006, doc. web. 1242501
− Tribunale di Luca, 20 agosto 2007
− Tribunale di Milano, sez. penale, n. 1972/2010 (Sentenza di condanna,
successivamente riformata con assoluzione degli imputati in appello e in
cassazione)
− Tribunale di Milano, 25 ottobre 2010
− Tribunale di Roma, 11 luglio 2011
− Tribunale di Milano, Ordinanza del 24 marzo 2011 – 1 aprile 2011
− Cassazione, 5 aprile 2012, n. 5225
− Tribunale di Pinarolo, Ordinanza 2 maggio 2012
− Tribunale di Firenze, Ordinanza 25 maggio 2012
− Tribunale di Firenze, 13 febbraio 2013
− Tribunale di Milano, Ordinanza 26 aprile 2013
− Tribunale di Firenze, 29 marzo 2014
− Corte di Giustizia, 13 maggio 2014, Causa C- 131/12
− Provvedimento Garante privacy del 6 novembre 2014, doc. web. 3623877
− Provvedimento Garante privacy del 11 dicembre 2014, doc. web 3623978
− Provvedimento Garante privacy del 18 dicembre 2014, doc. web. 3736353
86
La Comunicazione N.R.& N.
La Comunicazione N.R.&N.
Agostino Giorgio
Laboratorio di Elettronica
dei Sistemi e delle
Applicazioni Digitali,
Dipartimento di
Ingegneria Elettrica e
dell’Informazione Politecnico di Bari
Elettronica del fumo digitale
Digital Smoke Electronics
Sommario: L'obiettivo di quest'articolo è di proporre uno studio sul
funzionamento della sigaretta elettronica da un punto di vista tecnico ed
ingegneristico, accennando anche ad aspetti medici tutt’ora controversi.
Chiariti i principi di funzionamento, lo studio viene condotto tramite un
modello logico e circuitale appositamente sviluppato nell’ambito delle
attività di ricerca dell’autore, con l’introduzione di un metodo per il
controllo fine della quantità di nicotina inalata. La logica di controllo
sviluppata ed il relativo modello circuitale, rendono possibile ottimizzare il
progetto e la realizzazione della e-cig in versioni più evolute di quelle
attualmente in commercio.
Abstract: In this paper it is proposed a study on the operation of the
electronic cigarette from a technical and engineering point of view.
Clarified the principles of operation, the study is conducted via a logical
model and circuit developed by the author’s research team, with the
introduction of a method for the fine control of the amount of inhaled
nicotine. The model is suitable to optimize the design and implementation
of e-cig in more advanced versions of those currently on the market.
1. Introduzione
Il recente sviluppo del mercato della sigaretta elettronica, spesso
nota come e-cig, come possibile, benchè parziale, soluzione agli effetti
collaterali della dipendenza da nicotina legati alla inalazione di sostanze
altamente cancerogene, induce ad approfondimenti sia medici (inerenti la
reale innocuità della e-cig) sia tecnici per lo sviluppo di prodotti sempre
meno nocivi e sempre più efficaci per chi decide di adottare la e-cig come
metodo alternativo alla sigaretta tradizionale per l’assunzione controllata
di nicotina.
Pertanto, in questo articolo, viene descritto il funzionamento della
sigaretta elettronica con particolare riferimento ad un metodo, ideato
dall’autore, per il controllo fine della nicotina inalata.
Allo scopo, nella sezione II vengono analizzati la struttura e i
componenti della sigaretta elettronica e il principio di funzionamento e
vengono accennati aspetti più squisitamente medico-salutistici. Nella
sezione III si descrive la logica di controllo che gestisce il funzionamento
della sigaretta elettronica ed un metodo originale per il controllo di fine
sigaretta allo scopo di consentire un controllo più fine ed efficace sulla
87
A. Giorgio
quantità di nicotina assunta. Seguono considerazioni conclusive (sezione
IV).
2. La sigaretta elettronica: generalità
La diffusione delle sigarette elettroniche è un fenomeno molto
recente anche se l’idea tecnica risale a diversi decenni addietro. Infatti, già
nel 1963 l’americano Herbert A. Gilbert deposita il primo brevetto [1].
Tuttavia, il contributo alla nascita della e-cig, così come la conosciamo
oggi, si deve a Hon Lik che nel 2003 brevettò un modello di e-cig con
tecnologia ad ultrasuoni [2].
Attualmente, la maggior parte delle sigarette elettroniche ha
abbandonato questo sistema a favore di quello basato sull'uso del
vaporizzatore. Il brevetto cinese è stato, tuttavia, d’impulso per lo
sviluppo di dispositivi progettati ed attualmente in commercio per
soddisfare tutte le esigenze dei fumatori [3].
A differenza della sigaretta tradizionale, la sigaretta elettronica ha
una struttura modulare composta da sette componenti principali [4]:
Beccuccio (Nozzle), Vaporizzatore, Atomizzatore o Riscaldatore
(Atomizer), Cartuccia contenente il Liquido (e-Liquid Cartridge), Sensore di
flusso d’aria (Pressure Sensor), Microcontrollore (Microcontroller),
Batteria a Litio (Lithium Battery) e indicatore a LED (LED Indicator) come si
può vedere in figura 1.
La differenza principale tra la sigaretta tradizionale e quella
elettronica, risiede nel fatto che in quest'ultima non c'è combustione.
Infatti, il principio di funzionamento su cui si basa la sigaretta
elettronica è quello di riscaldare il liquido contenuto nella cartuccia per la
produzione di vapore quando l'utente inala. Il vaporizzatore è la parte del
dispositivo preposta alla vaporizzazione del liquido che viene reso così
inalabile. Il funzionamento del vaporizzatore richiede una sorgente di
alimentazione per riscaldare il liquido fino al punto di evaporazione e per
questo è necessario l’utilizzo di una batteria nel corpo della e-cig.
Figura 1. Componenti della
sigaretta elettronica
Nella sigaretta tradizionale a causa della combustione l'utente inala
88
La Comunicazione N.R.& N.
Elettronica del fumo digitale
Digital Smoke Electronics
più di 4.000 sostanze chimiche, di cui almeno 80 sono cancerogene come:
monossido di carbonio, catrame, nicotina, ammoniaca, arsenico, polonio
210 e molte altre, secondo l’International Agency for Research into Cancer
[6].
Nella e-cig non c'è combustione, ma viene prodotto vapore composto
principalmente da sostanze apparentemente non nocive per la salute, che
sono:
• Glicole Propilenico (PG): è un liquido incolore, insapore,
umettante, igroscopico, ha proprietà batteriostatiche e si conserva per
molti anni senza alterazioni. La proprietà del glicole propilenico è di
esaltare l'hit della nicotina.
• Glicerina Vegetale (VG): è un liquido incolore, denso, viscoso,
dolciastro, umettante, igroscopico. La glicerina vegetale è la sostanza del
liquido che conferisce la fumosità.
• Acqua: costituisce il 10% circa del liquido vaporizzato.
• Nicotina: questa sostanza pur non necessaria per la creazione del
fumo, si rivela importante perché presente nelle sigarette, e crea un certo
livello di dipendenza a basse concentrazioni.
• Aromi: sono comuni aromi alimentari, usati nell’industria dolciaria
e di cibi e servono per dare il sapore al liquido. Si aromatizza il liquido in
genere nell’ordine del 3-10%.
Sui danni provocati dal fumo digitale la comunità scientifica è divisa in
due, tra chi è piuttosto favorevole [7], ritenendolo non nocivo per la
salute ed utile alla riduzione della dipendenza da tabacco, e chi invece
contrario [8], ritenendolo nocivo per la salute.
In sostanza il dibattito medico sulla sicurezza delle sigarette
elettroniche è tutt’altro che concluso. Studi ancora in corso dovranno
stabilire se la sigaretta elettronica si può usare con assoluta tranquillità e
se è la candidata ideale per chi vuole smettere di fumare le sigarette
tradizionali. Va comunque riconosciuto alla sigaretta elettronica il merito
di far riflettere milioni di tabagisti sui pericoli che si corrono con le
sigarette tradizionali.
Anche se gli esperti non sono unanimi sulla innocuità della e-cig, è
certo che la sigaretta tradizionale è dannosa per la salute per via delle
numerose sostanze cancerogene risultanti dalla combustione ed inalate,
mentre nella e-cig vi sono comunque poche sostanze chimiche che
vengono inalate dal fumatore.
3. Tecnica ed elettronica della e-cig
Entrando nel dettaglio tecnico-ingegneristico e facendo riferimento
allo schema a blocchi in Figura 2 viene di seguito descritto il
funzionamento della e-cig.
89
A. Giorgio
La batteria alimenta il sensore di flusso d'aria, l'unità di controllo e il
vaporizzatore. I segnali che sono gestiti dall'unità di controllo sono
evidenziati attraverso frecce tratteggiate mentre il sensore di temperatura
è alimentato dall'unità di controllo.
Quando l’utente non inala, il sensore di flusso d’aria non rileva alcuna
variazione di pressione e pertanto non è prodotto alcun segnale all’uscita
del sensore. In tal caso l’unità di controllo non attiva né il vaporizzatore né
il LED, in altre parole la sigaretta elettronica si trova in modalità
"standby".
Viceversa, quando l’utente inala, il sensore di flusso d’aria rileva una
differenza di pressione e conseguentemente invia un segnale all’unità di
controllo. L’unità di controllo, a sua volta, invia un segnale che va a
pilotare un interruttore elettronico che chiudendosi permette alla batteria
di erogare energia alla resistenza situata nel vaporizzatore e,
contemporaneamente, va ad attivare l’indicatore a LED. In questo caso, la
sigaretta elettronica si trova in modalità "on" [9].
Il segnale in uscita dal sensore di temperatura viene inviato all’unità
di controllo che, nel caso di temperature troppo elevate, apre
l’interruttore elettronico in modo tale da interrompere la corrente che
scorre nella resistenza (cut-off).
La logica di controllo implementata dall'unità di controllo può essere
schematizzata attraverso il diagramma di flusso di Figura 3.
Figura 2. Schema a blocchi
funzionale della e-cig.
Quando l’unità di controllo rileva un livello di carica della batteria
basso, solitamente sotto il 10% rispetto a quello nominale, invia un
90
La Comunicazione N.R.& N.
Elettronica del fumo digitale
Digital Smoke Electronics
segnale che va a pilotare il segnalatore a LED facendolo lampeggiare in
modo da avvisare l’utente che la batteria è scarica e che deve essere
ricaricata.
Viceversa, se il livello di carica della batteria è alto, l’unità di controllo
attende che l’utente inali per attivare il normale funzionamento della e-cig
(vaporizzazione del liquido presente nella cartuccia). In questo caso la
sigaretta elettronica si trova in modalità standby.
Nell’ipotesi che il livello di carica della batteria sia alto e che l’utente
aspiri (inali), la condizione “Inhalation” è vera e, di conseguenza, l’unità di
controllo compie una seconda verifica sulla temperatura attraverso il
sensore presente nel vaporizzatore.
Se la temperatura rilevata è pari a quella limite di rottura indicata con
T Break , oltre la quale si potrebbe compromettere in maniera irreversibile
l’elemento riscaldante, l’unità di controllo provvede ad aprire
l’interruttore elettronico se è chiuso oppure lo mantiene aperto (Switch
off) e nello stesso istante invia un segnale al LED di notifica in modo da
avvisare l’utente attraverso una serie di lampeggi della interruzione del
funzionamento della e-cig per temperatura troppo elevata al
vaporizzatore. Il controllo termico viene ripetuto ciclicamente. Questa
operazione risulta essere importante per prevenire la rottura
dell’elemento riscaldante, fondamentale per il funzionamento della e-cig
stessa.
Figura 3. Flow chart del
funzionamento logico della
e-cig
91
A. Giorgio
Quando la temperatura rilevata è minore di quella di rottura T Break e
l’utente aspira, l’unità di controllo chiude l’interruttore elettronico (Switch
on) per attivare sia la resistenza (coil) presente nel vaporizzatore, che si
occupa di riscaldare il liquido che deve essere inalato dall’utente, sia il LED
di notifica, per simulare con un effetto luminoso la combustione che
avviene in una sigaretta tradizionale. In questo caso la sigaretta
elettronica passa dalla modalità "standby" alla modalità "on".
Una delle incognite nell’utilizzo della sigaretta elettronica è capire a
quanti tiri corrisponde una sigaretta classica in termini di quantità di
nicotina assunta.
Senza questo tipo di controllo può accadere che l’utente fumando
digitale si ritrovi ad assumere più nicotina rispetto alla sigaretta classica.
Chiaramente questo rischio dipende innanzitutto dalla concentrazione di
nicotina che si trova nel liquido all’interno della cartuccia o nel serbatoio
della e-cig che può essere di 24 mg, 18 mg, 16 mg, 12 mg, 8 mg, e 4 mg,
ma dipende anche dalla quantità di liquido consumato in una sessione di
fumo digitale, e questo non è attualmente controllabile in modo fine. Una
notifica, infatti, viene prodotta dalla e-cig solo quando il liquido si è
esaurito.
Per consentire all’utente un controllo fine sulla nicotina inalata,
occorre, quindi, implementare un meccanismo di controllo fine che dia
segnali di avvertimento all’utente durante la sessione di fumo digitale e
non solo quando il liquido da svaporare si è esaurito.
Si può ragionevolmente stimare che in media il numero tiri
corrispondenti ad una sigaretta normale è circa 10.
Quando si ricarica una cartuccia, poi, bisogna sapere quanta nicotina
c’è nel liquido per capire a quante sigarette tradizionali corrisponde una
data quantità di liquido consumato. Dal rapporto dell’Istituto Superiore di
Sanità si evince che in un flacone commerciale di liquido per e-cig da
10ml, da 24 mg di nicotina, sono contenuti 240mg di nicotina.
Ad
esempio,
una
sigaretta
Marlboro
Red
contiene
approssimativamente 1,2 mg di nicotina e di conseguenza un pacchetto
intero 24 mg. A un millilitro di liquido per e-cig equivalgono circa 20
gocce; usando un flacone da 24 mg di nicotina, ci sarebbero 1,2 mg di
nicotina per goccia.
Inoltre, bisogna tener conto che l’assorbimento di nicotina non è
totale e dipende da vari fattori quali: il sistema di vaporizzazione della
sigaretta elettronica, la frequenza e la durata con cui si fuma e quanto
profondamente si inala [10].
Sulla base delle considerazioni esposte, è stato ideato dall’autore il
controllo di fine sigaretta che va ad integrarsi nella logica di controllo della
e-cig implementata nel microcontrollore [11]. Tale meccanismo di
controllo fine consente alla e-cig di segnalare all'utente quando ha
assunto una quantità di nicotina all'incirca pari a quella che avrebbe
assunto con una sigaretta tradizionale. Questa informazione è molto
importante per chi vuole utilizzare la e-cig al fine di ridurre la dipendenza
92
La Comunicazione N.R.& N.
Elettronica del fumo digitale
Digital Smoke Electronics
ed il danno da tabacco [12].
I criteri adottati sono:
• Controllo del numeri di tiri effettuati dall'utente
• Controllo del tempo trascorso dalla prima inalazione
Entrambi i criteri sono stati implementati sia singolarmente sia in
forma correlata.
Il metodo di controllo di fine e-cig introdotto, è stato implementato in
un modello logico e successivamente in un modello circuitale digitale, con
l’obiettivo di verificarne il corretto funzionamento con l’ausilio di
simulazioni circuitali.
Le azioni gestite dalla logica di controllo si possono così
schematizzare:
• Durante l’inalazione è attivata l’alimentazione e il LED di
segnalazione (verde)
• Se la batteria è scarica vengono emessi 5 lampeggi da parte del
LED di segnalazione (verde)
• Se T > T Break viene interrotta l’alimentazione e attivato il LED di
segnalazione (rosso)
• Se sono effettuati dieci tiri, oppure trascorrono tre minuti dalla
prima inalazione, viene interrotta l’alimentazione e sono emessi tre
lampeggi da parte del LED di segnalazione (verde)
Sulla base di queste specifiche sono state definite le variabili di
ingresso ed uscita del modello, come si vede in Figura 4.
Figura 4. Variabili di ingresso
e uscita del modello della ecig
93
A. Giorgio
Le variabili d'ingresso e di uscita sono messe in relazione attraverso la
tabella della verità (Tabella I) in modo da ottenere le funzioni booleane
che formalizzano il funzionamento della e-cig. La sintesi di queste funzioni
ci consente di ottenere il corrispondente modello circuitale.
Per implementare il controllo di fine sigaretta sono stati utilizzati degli
elementi di memoria in modo da eseguire il conteggio del numero di tiri e
del tempo di funzionamento.
La Figura 5 mostra lo schema logico della e-cig con il controllo
combinato sia sul numero di tiri realizzati da parte dell'utente che nel
tempo.
Il modello circuitale oggetto delle simulazioni è costituito da un dip
switch S1, un demultiplexer, due timer 555, un interruttore pilotato in
tensione S2, due SR Latch, un Decoder BCD, un display a 7 segmenti, tre
contatori asincroni modulo 16 U1 e U2, un LED bicolore rosso-verde e
infine da alcune porte logiche e componenti analogici.
Il dip switch S1 è costituito da tre interruttori incapsulati in un singolo
contenitore, ed è utilizzato per generare le combinazioni delle variabili di
ingresso relative allo stato della batteria, all’esecuzione o meno della
inalazione e alla temperatura del vaporizzatore rispetto alla soglia critica.
94
Tabella I. Tabella della
verità della e-cig
La Comunicazione N.R.& N.
Elettronica del fumo digitale
Digital Smoke Electronics
Il circuito logico è composto da quattro blocchi funzionali che
racchiudono al loro interno dei circuiti più complessi:
•
•
•
•
Figura 5. Modello circuitale
della e-cig con controllo
combinato sul numero di tiri
e sul tempo di on della e-cig
Demux_2TO4
555 Astabile_1
555 Astabile_2
Decoder BCD
Il blocco Demux_2TO4 si occupa di gestire i warning della sigaretta
elettronica attraverso il LED, inerenti alla batteria scarica e alla
temperatura del riscaldatore, quando maggiore rispetto a quella di
rottura.
I blocchi 555 Astabile_1 e 555 Astable_2 sono utilizzati per generare
delle onde quadre che sono utilizzate per le segnalazioni attraverso il LED
di funzionamento, ed infine il blocco Decoder BCD si occupa di gestire il
display a 7 segmenti.
Il conteggio del tempo di on (accensione) della e-cig parte dalla prima
inalazione effettuata dall’utente ed è affidata ad un contatore asincrono
modulo 16 di tipo up, attraverso un’associazione del conteggio nel tempo
con il conteggio degli impulsi che sono forniti dal generatore di clock V2,
come mostrato in Fig. 5.
Il periodo dell’onda quadra di V2 viene dimensionato in modo tale
che in corrispondenza del sedicesimo impulso di clock sia trascorso un
tempo pari a quello che occorre per fumare una sigaretta classica. Nel
nostro caso, è stato dimensionato il periodo del generatore di clock V2 in
95
A. Giorgio
modo che al sedicesimo impulso di clock sia trascorso un intervallo di
tempo pari a 3 minuti:
f = 88mHz →T = 1/0.088Hz = 11,36 sec. ⇒ T × 16 ≈ 180 sec.
Avviata la simulazione, quando gli interruttori del dip switch S1 che
simulano le variabili di ingresso relative a batteria, inalazione e
temperatura sono aperti, la e-cig si trova in modalità standby.
In questo caso il contatore asincrono U3, che si occupa del conteggio
del tempo trascorso dalla prima inalazione da parte dell’utente, e il
contatore asincrono U4, che si occupa di mantenere attivo il warning di
fine sigaretta, sono disabilitati.
Quando l’interruttore relativo alla variabile della batteria è chiuso, si
ottengono da parte del LED verde una serie di cinque lampeggi per la
notifica di batteria scarica e questo avviene indipendentemente dallo
stato delle altre variabili.
Quando l’interruttore relativo alla batteria è aperto mentre gli
interruttori relativi a inalazione e temperatura sono chiusi, si accende il
LED rosso allo scopo di notificare all’utente che la temperatura ha
raggiunto il limite di rottura del riscaldatore.
Quando, invece, gli interruttori del dip switch S1 relativi alle variabili
batteria e temperatura sono aperti, mentre quello dell’inalazione è
chiuso, si ottiene la condizione di normale funzionamento della e-cig.
In tal caso, l’interruttore S2 si chiude e attiva il LED verde per tutta la
durata del tiro e, nello stesso istante, il contatore asincrono U1 conta il
primo impulso di clock con il display che si porta da 0 a 1, e viene attivato
il contatore asincrono U3, in quanto sull’ingresso S del SR Latch1 arriva un
livello logico alto che porta l’uscita Q ad un valore alto, mentre l’uscita Q’
viene portata da un livello alto al livello basso.
Quando l’utente effettua il decimo tiro e il tempo trascorso dalla
prima inalazione è minore di tre minuti, l’uscita della porta AND3 si porta
ad un livello logico alto e di conseguenza anche l’uscita della porta OR si
porta ad un livello logico alto che viene sfruttata sia per resettare il
contatore asincrono U1 che si occupa del conteggio dei tiri, che per
resettare il contatore asincrono U3 che si occupa del conteggio del tempo
attraverso l’SR Latch1, in quanto il valore logico alto sull’ingresso R
produce un’uscita Q’ a valore logico alto. Inoltre, dato che il livello logico
alto proveniente dalla porta OR ha una durata molto breve, viene
utilizzato un SR Latch2 che si occupa di memorizzare il livello dell’uscita: in
tal caso l’uscita Q del SR Latch2 passa da un valore logico basso ad uno
alto e viene utilizzata sia per alimentare il blocco 555 Astabile_2, che si
occupa della notifica attraverso il LED verde, sia di attivare il contatore
asincrono U4 in quanto in questa situazione l’uscita della porta NOT viene
a trovarsi ad un livello logico basso.
Dopo in intervallo di tempo pari a 32 secondi, durante il quale
avviene la segnalazione relativa al controllo di fine sigaretta, l’uscita dalla
porta AND5 si porta un livello logico alto che viene mandato sull’ingresso
96
La Comunicazione N.R.& N.
Elettronica del fumo digitale
Digital Smoke Electronics
R del SR Latch2 in modo da portare l’uscita Q dal livello alto a basso e di
conseguenza disabilitare sia il contatore asincrono U4 che il blocco 555
Astabile_2 in modo da riportarsi nuovamente in standby.
Se l’utente effettua un numero di tiri minore di dieci e il tempo
trascorso dalla prima inalazione risulta essere maggiore di tre minuti, in
uscita dalla porta AND4 si produce un livello logico alto. Di conseguenza,
anche l’uscita della porta OR è alta e viene sfruttata per resettare
entrambi i contatori asincroni U1 e U3 che si occupano del conteggio del
numero di tiri e del tempo, rispettivamente.
L’uscita della OR viene memorizzata dal SR Latch2 e in tal caso la sua
uscita Q si trova ad un valore logico alto e viene utilizzata sia per
alimentare il blocco 555 Astabile_2, che si occupa della notifica attraverso
il LED verde, sia di attivare il contatore asincrono U4 in quanto in questa
situazione l’uscita della porta NOT viene a trovarsi ad un livello logico
basso.
Dopo un intervallo di tempo pari a 32 secondi, durante il quale
avviene la segnalazione relativa al controllo di fine sigaretta, l’uscita della
porta AND5 si porta un livello logico alto che viene mandato sull’ingresso
R del SR Latch2 in modo da portare l’uscita Q dal livello alto a basso e, di
conseguenza, disabilitare sia il contatore asincrono U4 che il blocco 555
Astabile_2 in modo da riportarsi nuovamente in standby.
Figura 6. Forme d’onda
risultanti dalla simulazione
durante il controllo di fine
sigaretta derivante dal
conteggio del numero di tiri
In Figura 6 e 7 sono mostrate le forme d’onda associate al warning
notificato all’utente quando vengono effettuate dieci inalazioni in meno di
tre minuti.
97
A. Giorgio
Quando l’utente inala per la prima volta, sull’ingresso S del SR Latch1
arriva un livello logico alto che porta l’uscita Q’ da un livello alto ad un
livello basso come si vede in Fig. 6, in modo da attivare il contatore
asincrono U3 che si occupa del conteggio del tempo trascorso dalla prima
inalazione da parte dell’utente. Successivamente vengono effettuati
ulteriori tiri, e quando viene effettuato il decimo in meno di tre minuti,
viene attivato il controllo di fine sigaretta legato al numero di tiri: in tal
caso si può osservare che l’uscita Q’ del SR Latch1 si riporta ad un livello
logico alto in modo da resettare il contatore U3 e nello stesso momento
viene resettato anche il contatore U1, che si occupa del conteggio dei tiri.
In Fig. 7 si può osservare che in corrispondenza del decimo tiro
l’uscita Q del SR Latch2 si porta dal valore logico basso ad alto, che
consente di attivare il contatore asincrono U4 che mantiene attiva la
segnalazione (warning) di fine sigaretta per circa trenta secondi, durante
cui si hanno varie serie di tre lampeggi da parte dell’indicatore a LED.
Alla stessa maniera delle simulazioni fin qui descritte, sono state
eseguite con il modello sviluppatp anche le simulazioni relative al
funzionamento della e-cig assumendo che il warning di fine sigaretta si
produca quando il computo del tempo di accensione raggiunge una soglia
prefissata, benchè si siano conteggiati un numero di tiri minore di dieci.
Anche in queste simulazioni si è verificato un comportamento della ecig corrispondente alle attese, a validazione del modello implementato.
Figura 7. Forme d’onda
risultanti dalla simulazione
durante il controllo di fine
sigaretta derivante dal
conteggio tempo di on e
numero di tiri
98
La Comunicazione N.R.& N.
Elettronica del fumo digitale
Digital Smoke Electronics
4. Conclusioni
In questo articolo sono stati presentati gli aspetti tecnicoingegneristici caratterizzanti il funzionamento della sigaretta elettronica.
Sono stati anche accennati aspetti strettamente medici del fumo digitale,
inerenti i rischi per la salute da parte dei consumatori di e-cig.
E’ stato quindi proposto un modello circuitale digitale utile alla
simulazione della e-cig ovvero al suo progetto, includendo anche una
novità introdotta dall’autore ovvero il controllo di fine sigaretta,
correlando i criteri di controllo del tempo di “on” della e-cig e del numero
di tiri (inalazioni da parte dell’utente) nella logica di controllo che gestisce
le operazioni nella sigaretta elettronica, basandosi sia sul numeri di tiri
che in media occorre effettuare per assumere un livello di nicotina
analogo a quello che si potrebbe assumere fumando una sigaretta
tradizionale, sia sulle statistiche dei tempi di combustione di una sigaretta
tradizionale.
L’esito delle simulazioni ha consentito di validare il modello
sviluppato, che potrà essere utile in futuro per perfezionare la tecnologia
del fumo digitale.
99
A. Giorgio
Bibliografia.
[1] Patent Herbert A. Gilbert, Smokeless non-tobacco cigarette,
Publication
number: US3200819A, http://worldwide.espacenet.com
[2] Patent Hon Lik, A Non-Smokable Electronic Spray Cigarette,
Publication number: CA2518174A1, http://worldwide.espacenet.com
[3] www.besmoke.it/wp/e-sig-storia
[4] www.comefunziona.net/arg/sigaretta-elettronica/3/
[5] www.esigarettaportal.it/forum/articoli/4209-che-cosa-entra-nellasigarettaelettronica-le-liquido-e-la-sua-composizione.html
[6] www.airc.it/prevenzione-tumore/fumo/tabagismo-smetterefumare
[7] U. Veronesi, http://scienza.panorama.it/salute/E-se-ci-fossero-solosigarette-elettroniche
[8] S. Garattini, Sigaretta elettronica: ecco come la penso io, Oggi,
1 febbraio 2013
[9] Patent: Hon Lik, A capacitor sensor, Devices Employing the capacitor
sensor and methods for their use, Publication number:
WO2013016846, http://worldwide.espacenet.com
[10] C. Colasanto, Come smettere di fumare con la sigaretta elettronica,
Ariccia(RM), Editori Riuniti, Aprile 2013, pp. 43-44 e p. 70
[11] A. Giorgio, M. Guerra, La sigaretta elettronica: scienza e tecnica, ed.
Gruppo Editoriale l’Espresso, Roma, 2014, ISBN: 9788891081254
[12], Christopher Bullen, et al. "Electronic cigarettes for smoking
cessation: a randomised controlled trial." The Lancet 382.9905
(2013): 1629-1637
100
La Comunicazione N.R.& N.
La Comunicazione N.R.&N.
a), b)
Stefano Penna
,
a)
Silvia Di Bartolo ,
a)
Vincenzo Attanasio ,
b)
Akira Otomo ,
c)
Leonardo Mattiello
a)
Istituto Superiore delle
Comunicazioni e delle
Tecnologie
dell'Informazione (ISCOM)
b)
Advanced ICT Research
Institute - National
Institute of Information
and Communications
Technology (NICT), Kobe
(Giappone)
c) Dipartimento di Scienze
di Base e Applicate per
l`Ingegneria - Sapienza
Università di Roma
Tecnologie di fotonica integrata:
dispositivi e applicazioni
Integrated photonic technologies: devices and applications
Sommario: L’affermazione recente della fotonica in silicio e più in
generale della fotonica integrata sta introducendo una nuova
tecnologia di base di dispositivi per applicazioni ad ampio spettro, dalla
sensoristica all’ICT alle applicazioni più strettamente datacom.
Attraverso gli strumenti di finanziamento del settimo programma
quadro, negli ultimi anni l’Europa ha sviluppato diverse piattaforme
tecnologiche per la realizzazione di dispositivi fotonici integrati,
introducendo nuovi modelli di business basati sulla condivisione delle
infrastrutture di fabbricazione tra più partner per consentire la
sostenibilità economica dello sviluppo tecnologico. Il contributo descrive
i progressi ottenuti nello sviluppo delle tecnologie fotoniche integrate,
focalizzandosi sui recenti risultati della tecnologia ibrida SilicioOrganica (SOH), e fornisce una panoramica dei principali partenariati.
Abstract: The recent success of Silicon Photonics and more
generally of the integrated photonic technologies led to a new device
concept for a wide range of applications, from sensors to ICT and
datacom. Through the funding of the Framework Programmes (FP), the
European Union supported the constitution of more technology
platforms aimed at the fabrication of integrated photonic devices,
easing the introduction of a new business model based on shared
manufacturing facilities among more partners to enable the economical
and financial sustainability of the technological development. The
following contribution reports the main achievements of the different
integrated photonic technologies, focusing on the recent results of the
Silicon Organic Hybrid (SOH) technology, and provides an overlook of
the main partnerships.
1. Introduzione
L'ultima decade ha visto profondi mutamenti nel mondo
industriale e tecnologico legato alla fotonica, da un lato con
l’esplosione della bolla delle aziende “dot-com”, che dopo una crescita
vorticosa ha subito una battuta di arresto nei primi anni del duemila a
favore dell'economia di servizi basata sullo sfruttamento delle
potenzialità della banda larga, come nel caso degli operatori OTT (Over
The Top), dall'altro dai raggiunti limiti fisici e tecnologici del mondo
101
S.Penna, S.Di Bartolo,V.Attanasio, A.Otomo, L. Mattiello
della microelettronica che proprio nella fotonica vedono una possibile
soluzione, introducendo pertanto nuove prospettive di applicazione. Il
risultato di questo processo di cambiamento, ancora in essere, e` nella
definizione di Key Enabling Technology che l'Europa ha dato della
fotonica all'interno del programma quadro Horizon2020, intendendo
una tecnologia abilitante per l'innovazione in ambiti che spaziano oltre
le pure tecnologie dell'informazione e della comunicazione (ICT), dalla
sensoristica fino alla microelettronica e alle comunicazioni dati
(datacom), che nell'attuale era dei data center costituiscono forse la
principale area di sviluppo.
I principali vantaggi delle tecnologie fotoniche derivano dalle
peculiarità legate alla radiazione ottica, su tutte la larghezza della
banda potenzialmente disponibile (centinaia di THz), fino a quattro
ordini di grandezza superiore alla banda attualmente disponibile con le
tecnologie elettroniche (decine di GHz). A questo proposito la Legge di
Moore, una legge empirica del 1965 inizialmente mirata ad anticipare i
trend di crescita delle prestazioni dei processori nel solo decennio
seguente e dimostrandosi invece valida fino ad oggi, predice
l'incremento della frequenza di clock dei processori e la conseguente
riduzione di dimensioni dei transistor con un passo che si stima
raggiungerà i limiti fisici entro il 2020 [1]. Tali limiti sono legati appunto
al dominio elettrico dei segnali, per i quali una miniaturizzazione delle
connessioni elettriche all'interno de e tra chip porta ad un incremento
della potenza dissipata e soprattutto a valori di resistività maggiori che
limitano la banda disponibile e quindi la velocità di elaborazione del
dispositivo finale.
Un'ulteriore considerazione riguarda l'aspetto energetico. Come
anticipato, negli attuali processori basati su tecnologia elettronica
CMOS l'incremento della velocità porta ad un aumento della potenza
dissipata, in particolar modo nelle interconnessioni tra transistor, con
un tetto massimo di potenza dissipabile pari a 200W per un'area di 2
cm2. Al raggiungimento di questo limite le attuali interconnessioni
elettriche contribuiscono sensibilmente, con una crescita più che
lineare all'aumento della frequenza di clock. Questo aspetto ha portato
dagli anni 2000 all'introduzione del concetto di processori multi-core,
basati su calcolo parallelo [1][2].
Da quanto sopra riportato ne consegue anche un aspetto
meramente energetico, con la necessità di disporre di tecnologie a
maggiore efficienza ovvero dal minore consumo, a parità di prestazioni
garantite. Da questo punto di vista l'impiego di concetti legati alla
fotonica ed in particolare mutuati dalle reti ottiche, come la
multiplazione a divisione di lunghezza d'onda (Wavelength, Division
Multiplexing, WDM), permettono di garantire un intrinseco
parallelismo, oltre a larga banda e quindi alta velocità di elaborazione,
sostanziale immunità dalle perdite capacitive e resistive tipiche delle
connessioni metalliche e interferenza tra canali adiacenti
comparabilmente nulla [1][2]. Per meglio comprendere l'impatto di
102
La Comunicazione N.R.& N.
Tecnologie di fotonica integrata: dispositivi e applicazioni
Integrated photonic technologies: devices and applications
queste caratteristiche si possono citare i dati forniti da Google ed
Amazon relativamente agli effetti che ha sul proprio fatturato il
parametro di latenza, ovvero il tempo richiesto dalla rete internet per
fornire all'utente le informazioni da lui richieste, che e` direttamente
legato alla velocità di connessione. In particolare, per Google un
incremento di mezzo secondo sul tempo medio di caricamento di una
pagina di ricerca e` causa del 20% di riduzione del traffico di ricerca,
mentre per Amazon 100 ms di aumento nel tempo di caricamento di
una pagina portano ad un calo di vendite dell'1%. E` evidente come per
queste aziende la latenza, dominata in particolare dalla velocità di
trasferimento dati all'interno dei propri data centers, rappresenti il
fulcro abilitante della generazione di profitto. Questo aspetto
rappresenta il principale traino per lo sviluppo di interconnessioni
interamente ottiche anche per infrastrutture di rete locale come i data
centers, che richiedono di fianco alle prestazioni tipiche della banda
ottica un livello di integrazione e miniaturizzazione molto elevato per
trovare spazio all’interno delle server farm.
Lo sfruttamento della fotonica in contesti attualmente dominati
dalla microelettronica, con dispositivi fotonici in grado di garantire
velocità elevate con minori consumi energetici, e` possibile unendo il
concetto di dispositivo ottico al concetto di dispositivo integrato, con la
definizione pertanto di circuito fotonico integrato o PIC (Photonic
Integrated Circuit), ovvero un chip che è in grado di elaborare al suo
interno l’informazione come segnale ottico implementando su un unico
substrato o piattaforma le principali funzioni ottiche, quali ad esempio
generazione di luce, ricezione, modulazione e filtro. Si deve comunque
evidenziare come un chip interamente ottico abbia poco senso ai fini
pratici, dal momento che l’informazione viene comunque generata e
gestita come segnale elettrico, pertanto un PIC deve soddisfare anche
la compatibilità con le tecnologie elettroniche, su tutte la CMOS, per
potersi interfacciare in modo adeguato con costi contenuti,
possibilmente condividendo anche la stessa piattaforma e
auguratamente anche lo stesso flusso di processo di fabbricazione.
Per questo motivo negli ultimi anni si e` imposta sempre più la
Silicon Photonics [3], ad indicare la classe di dispositivi fotonici
compatibili con il Silicio. Tale affermazione e` legata ad aspetti di
carattere economico, considerando i forti investimenti in tecnologia
richiesti da un impianto di produzione di chip, nell'ordine di qualche
miliardo di dollari, che costituiscono una pesante barriera
all'introduzione di tecnologie alternative su scala industriale.
Storicamente ed attualmente le linee di produzione di chip sono
state e sono tuttora dominate dalla tecnologia CMOS basata su Silicio
ed il basso costo dei dispositivi prodotti, a fronte dell'ingente costo
degli impianti di fabbricazione, e` assicurato dagli alti volumi di
produzione e di mercato che consentono di ripartire in modo
sostenibile i costi di investimento sugli impianti e lo sviluppo dei
processi [4]. Ad oggi, gli sforzi delle aziende e degli enti di ricerca del
103
S.Penna, S.Di Bartolo,V.Attanasio, A.Otomo, L. Mattiello
settore concentrati sullo sviluppo di dispositivi fotonici compatibili o
integrabili su Silicio ha consentito di dimostrare separatamente tutte le
principali funzionalità ottiche (generazione [5][6], rivelazione [7],
modulazione [8]). Tuttavia la sfida maggiore è rappresentata proprio
dall’integrazione di queste funzioni in un unico sistema che riproduca a
livello di circuito nanometrico una rete ottica, da cui la definizione di
on-chip networks.
L'elemento chiave di un PIC, che rappresenta anche la principale
differenza rispetto ad un chip prettamente elettronico, e` costituito
dall'elemento di connessione: la guida d'onda. Se nei chip elettronici le
frequenze specifiche dello spettro elettromagnetico consentono un
trasferimento della radiazione tramite connessioni metalliche con
dimensioni nell'ordine delle decine di nanometri (1 nm = 10-9 m), nei
PIC la radiazione ottica deve essere confinata all'interno di guide
d'onda che hanno dimensioni caratteristiche confrontabili con le
lunghezze d'onda della radiazione stessa, nell’ordine di 100 nm – 1 µm.
Questo rappresenta un primo limite dei PIC, ovvero l’impossibilità
attualmente di portare il fattore di forma alla stessa scala attuale dei
transistor CMOS, introducendo quindi un limite alla densita` massima
di chip raggiungibile. Nella Silicon Photonics, l'impiego del Silicio come
elemento guidante della luce permette di ottenere strutture altamente
confinanti, quindi con basse perdite ottiche, legate all'alto contrasto di
indice di rifrazione tra il nucleo, costituito di Silicio che ha indice di
rifrazione nel vicino infrarosso pari a n=3.48, ed il substrato e, quando
presente, il mantello (cladding), che sono tipicamente costituiti di
materiali come Ossidi o altri dielettrici caratterizzati da indici di
rifrazione con valori minori, compresi tra 1.44 e 2. Il contrasto d'indice
che ne risulta si attesta intorno al 40%. Per avere un'idea di raffronto,
nelle fibre ottiche in vetro, l’esempio più noto di guida d’onda ottica, il
contrasto d'indice e` inferiore all’1%.
Questa caratteristica dei PIC in Silicio consente di ottenere campi
ottici estremamente confinati e pertanto rende possibile la
realizzazione di dispositivi con minore fattore di forma e maggiore
efficienza, come nel caso dei modulatori di fase, in cui le prestazioni e
le dimensioni delle sezioni attive dipendono dal fattore di
confinamento della radiazione ottica. Consentono inoltre di ridurre le
dimensioni caratteristiche delle guide al di sotto di 1 µm, a fronte
tuttavia di un incremento delle perdite ottiche.
2. Tecnologie
Come anticipato, esistono differenti tipologie di piattaforme di
integrazione fotonica, ognuna con una una sua particolare peculiarietà
che ne rende possibile l’impiego per specifiche applicazioni. Tale
diversità riflette la principale differenza tra l’elettronica integrata e la
fotonica integrata, ovvero mentre l’elettronica integrata è chiaramente
dominata dal Silicio, la fotonica integrata vede invece un’etereogeneità
104
La Comunicazione N.R.& N.
Tecnologie di fotonica integrata: dispositivi e applicazioni
Integrated photonic technologies: devices and applications
di materiali impiegati per la realizzazione delle diverse funzionalità
ottiche: semiconduttori elementari, come Silicio e Germanio, o
composti, come Fosfuro d’Indio (InP) ed Arseniuro di Gallio (GaAs),
materiali dielettrici, come Diossido di Silicio (SiO 2 ) o Nitruri di Silicio
(Si 3 N x ), polimeri e cristalli non lineari come il Niobato di Litio (LiNbO 3 ).
Questa eterogeneità di materiali è stata la principale barriera allo
sviluppo dei PIC, ma come vedremo nel seguito oggi questa
problematica viene affrontata con soluzioni promettenti e soprattutto
con un sensibile cambio di appoccio allo sviluppo.
La tecnologia fotonica integrata più compatibile con la tecnologia
CMOS è la Silicon Photonics, che consente di ottenere dispositivi
sostanzialmente
passivi,
privi
cioè
della
funzione
di
generazione/amplificazione ottica, a fronte però di una più semplice
integrazione con gli esistenti circuiti elettronici e di ottime prestazioni;
la tecnologia basata su Fosfuro d’Indio, un semiconduttore del gruppo
III-V, è invece l’unica per ora in grado di consentire la realizzazione di
dispositivi attivi su chip grazie all’emissione dell’InP nelle lunghezze
d’onda della banda C (1530 nm – 1565 nm), a fronte però di perdite
ottiche su guida d’onda superiori di un ordine di grandezza al Silicio; da
ultimo, la piattaforma basata su Nitruro di Silicio (Si 3 N 4 ) permette di
ottenere guide d’onda con bassissime perdite ottiche su un ampio
intervallo di lunghezze d’onda, dal visibile all’infrarosso, aggiungendo
anche funzionalità termo-ottiche.
2.1 Silicon Photonics
Quando si parla di Silicon Photonics, generalmente ci si riferisce a
dispositivi basati su substrato di Silicon On Insulator (SOI), che in uno
dei processi di fabbricazione più tipici è costituito da un wafer di Silicio,
detto handle, al di sopra del quale viene “attaccato” (bonding) uno
strato di Ossido di Silicio, l’isolante anche detto BOX (Buried Oxide),
che sulla superficie superiore presenta un ulteriore film sottile di Silicio,
detto seed [9]. Il Silicio seed ha la funzione tipicamente di core nelle
guide d’onda mentre il BOX funge da mantello, oltre che da substrato,
consentendo quindi una propagazione ottica con perdite ridotte. Come
accennato in precedenza, l’elevato contrasto d’indice del Silicio rispetto
al BOX consente di realizzare strutture con dimensioni caratteristiche
intorno a 250 nm, a fronte però di maggiore perdita ottica (nell’ordine
di 1 dB/cm), sensibilità alla polarizzazione e soprattutto un più difficile
accoppiamento con la fibra ottica. E’ stata pertanto ipotizzata una
differenziazione di guide d’onda a seconda del fine d’uso, puntando su
strutture a dimensioni più ridotte per collegamenti intra ed inter-chip,
in cui l’accoppiamento ottico in fibra non è necessario e soprattutto le
lunghezze di collegamento tipiche sono sostanzialmente ridotte, ed
impiegando strutture di dimensioni maggiori, nell’ordine di 2-3 µm, per
i collegamenti di lunghezza maggiore, portando a perdite
caratteristiche inferiori a 0.3 dB/cm, e per l’accoppiamento esterno in
fibra [1].
105
S.Penna, S.Di Bartolo,V.Attanasio, A.Otomo, L. Mattiello
Dal momento che il Silicio è un materiale a band gap indiretto non
può essere facilmente impiegato per la realizzazione di sorgenti
ottiche; di conseguenza, la piattaforma SOI viene solitamente
impiegata per la realizzazione di PIC sostanzialmente passivi.
L’obiettivo di realizzare laser su Silicio, ad esempio tramite nanocristalli
[10] o tramite drogaggio del Silicio stesso con materiali ad emissione IR
come l’Erbio [10], costuisce oggi una sfida ancora aperta. A tal
proposito, nel 2004 la University of California Santa Barbara [5] e in
forma migliorata Intel nel 2005 [6] hanno dimostrato emissione laser
da Silicio sfruttando l’effetto Raman, le cui effettive possibilità di
integrazione a basso costo su chip devono comunque essere ancora
dimostrate. Per questo motivo la Silicon Photonics basata su SOI viene
considerata per lo più per dispositivi passivi, ovvero, oltre alle già citate
guide d’onda: accoppiatori [11][12][13], riflettori di Bragg (DBR) [14], e
AWG (Arrayed Waveguide Gratings) [15].
Per quanto riguarda la funzione di fotorivelazione, dal momento
che il Silicio è trasparente alle lunghezze d’onda superiori a 1100 nm, si
utilizza un film sottile di Germanio, che è compatibile con il processo
CMOS, in posizione adiacente al core di Silicio per sfruttare
l’accoppiamento dei modi evanescenti. Sono stati dimostrati rivelatori
con bande fino a 120 GHz [16] e responsività superiore a 1.05 A/W
[17], sebbene non integrati su piattaforma.
2.2 Fosfuro d’Indio
La piattaforma basata su InP è quella che attualmente consente di
realizzare i PIC più complessi, in particolare per le caratteristiche
intrinseche del InP che permette l’implementazione di funzioni chiave
dei circuiti fotonici come le funzioni attive di emissione laser e
amplificazione.
Pertanto i blocchi funzionali realizzabili coprono l’intera gamma
delle funzioni ottiche, come illustrato nella tabella dell’Istituto COBRA
(Communications Technologies Basic Research and Applications)
dell’Università Tecnica di Eindhoven [18] riportata in figura 1,
riassumbili in funzioni passive, modulatori di fase, amplificatori ottici e
covertitori di polarizzazione [19]: accoppiatori MMI couplers ed AWG,
switch ottici e modulatori, laser multi-lunghezza d’onda e tunabili, flipflops e convertitori di lunghezza d’onda ultraveloci, laser al
picosecondo e splitter e convertitori di polarizzazione [18][19].
In modo simile alla microelettronica, le diverse funzioni si possono
ottenere combinando tra loro i singoli blocchi funzionali. L’introduzione
degli Arrayed Waveguide Gratings (AWG) ha consentito di
incrementare la complessità dei PIC su InP, arrivando in tempi recenti
ad ottenere chip fotonici con oltre 450 componenti integrati su singolo
substrato [20][21]. A questo proposito, osservando i tempi di progresso
e le prestazioni ottenute, il COBRA ha proposto un interessante
parallelismo con la legge di Moore, di fatto confermandone la validità
anche per la microfotonica integrata [19].
106
La Comunicazione N.R.& N.
Tecnologie di fotonica integrata: dispositivi e applicazioni
Integrated photonic technologies: devices and applications
I componenti passivi su InP godono di prestazioni non ottimali per
quanto riguarda le perdite ottiche, che hanno in media un’ordine di
grandezza superiore ai corrispettivi in Silicon Photonics. Di
conseguenza si adattano per la realizzazione di chip ad elevata densità,
in cui la lunghezza ottiche, ma non riescono a garantire un’efficiente
connessione su lunghezze maggiori.
Tuttavia, anche per incrementare le possibilità di applicazione della
tecnologia InP, che come vedremo nella sezione successiva segue un
nuovo approccio mirato a favorire lo sviluppo in chiave commerciale
della fotonica integrata, un’intensa attività di R&D riguarda
l’integrazione delle sorgenti e degli amplificatori InP su Silicon
Photonics.
Figura 1. Elementi circuitali
e funzionalità ottiche nei
circuiti fotonici integrati
basati su piattaforma InP
[18]
Da questo punto di vista le difficoltà risiedono nella diversa
costante reticolare tra InP e Silicio (variazione del 4%) e al diverso
coefficiente di espansione termica, che rende impossibile applicare i
metodi classici di bonding ad alta temperatura. Inoltre, il bonding
pregiudica le possibilità di elevata portata di produzione ottenibile con
la Silicon Photonics, riguardando un processo intrinsecamente più lento
e delicato.
Ad ogni modo, un’interessante alternativa ai processi di bonding a
bassa temperatura basata su plasma di Ossigeno [22] è costituita
dall’adesione mediante polimero, tipicamente DVS-BCB [23], tramite
processi in soluzione liquida più a basso costo.
107
S.Penna, S.Di Bartolo,V.Attanasio, A.Otomo, L. Mattiello
2.3 Nitruro di Silicio
La tecnologia basata su Nitruro di Silicio Si 3 N 4 consente di ottenere
perdite minime pari a 0.00045 dB/cm [26], preservando tali
caratteristiche anche in caso di bassi raggi di curvatura, necessari per
connettere i blocchi del chip minimizzando il loro fattore di forma. In
particolare determinante per ottenere simili prestazioni è la
realizzazione di strutture caratterizzate dall’alternanza di Si 3 N 4 ed SiO 2 .
Il processo di fabbricazione compatibile con la tecnologia CMOS è
caratterizzato da processi di deposizione chimica in fase vapore (CVD) a
bassa pressione.
Questo processo permette di ottenere una composizione stabile
dei materiali, requisito necessario per il controllo delle loro proprietà
ottiche che influenzano le prestazioni della propagazione all’interno
della guida d’onda. La finestra di trasmissione dei due materiali
permette la realizzazione di guide a bassa perdita su un ampio
intervallo spettrale, dal visibile violetto (400 nm) fino all’infrarosso
(2350 nm), adattandosi pertanto ad applicazioni che vanno oltre le
comunicazioni insenso stretto, includendo la sensoristica ed il
biomedicale. Sono state definite tre geometrie di guida d’onda: box
shell [24], doppia striscia [25] e filled box [26].
In particolare, altra peculiarietà delle strutture basate su Si3N4
nella tecnologia proprietaria TriPlex, è la possibilità di abbinare l’alto
contrasto d’indice con l’accoppiamento ottico tra chip e fibra, due
obiettivi che solitamente sono mutuamente esclusivi con strutture in
Silicon Photonics [26].
2.4 Silicon Organic Hybrid Technology
Un ramo della Silicon Photonics basata sul SOI è la cosiddetta
Silicon Organic Hybrid Technology (SOH) [27], che fa uso di materiali
attivi di origine organica, come monomeri [27] e soprattutto polimeri
[28][29], che introducono vantaggi come il basso costo di processo, in
particolare per i polimeri dal momento che possono essere lavorati in
fase liquida con tecniche di stampa, la facilità di integrazione legata alla
loro natura amorfa che elimina le restrizioni dell’uguaglianza della
costante reticolare con il Silicio e soprattutto le possibilità uniche e
potenzialmente illimitate di migliorare o, usando un termine in voga
nella comunità scientifica, “cucire” le proprietà dei materiali
specificatamente per una determinata applicazione (molecular
tailoring) tramite il design molecolare e la conseguente sintesi chimica.
Quest’ultimo aspetto consente di ottenere materiali che in alcuni casi
sorpassano in prestazioni gli analoghi inorganici.
Un ulteriore vantaggio della tecnologia SOH è la sua completa
compatibilità con il processo di fabbricazione CMOS, in particolare si
configura come un processo di back-end, ovvero che si pone al termine
del tipico flusso di processo CMOS, pertanto può essere integrato senza
indurre variazioni nelle linee di produzione già presenti e per di più con
processi di stampa, dai costi caratteristici trascurabili rispetto al resto
della linea di produzione. Intrinsecamente, l’uso di materiali organici
108
La Comunicazione N.R.& N.
Tecnologie di fotonica integrata: dispositivi e applicazioni
Integrated photonic technologies: devices and applications
consente di replicare le caratteristiche di basse perdite ottiche dei
dispositivi basati su SOI dal momento che le condizioni di alto contrasto
d’indice tra Silicio e polimeri sono preservate.
L’applicazione più nota di tecnologia SOH è la modulazione di fase,
ottenuta tramite l’impiego di polimeri elettro-ottici che mostrano
coefficienti non lineari di molto superiori a 100 pm/V [30] (l’analogo
inorganico, il Niobato di Litio, è nell’ordine di 30-40 pm/V). La
tecnologia SOH è spesso associata alle guide d’onda slot [31] per via
dell’elevata concnetrazione di campo ottico all’interno della struttura
nanometrica. La guida d’onda slot è basata su tecnologia SOI e,
sfruttando la forte discontinuità di campo elettrico tra il Silico ed il
materiale che compone lo slot, solitamente un polimero o un Ossido di
Silicio, induce un miglioramento del campo nella centrale regione di
slot di un fattore pari al rapporto delle rispettive costanti dielettriche
dei materiali, ovvero al quadrato degli indici di rifrazione, n Si 2/n slot 2=46, come si può osservare nel profilo di campo ottico mostrato in figura,
con fattori di confinamento della radiazione ottica che superano il 30%.
Accoppiando le guide d’onda slot ai materiali elettro-ottici è possibile
ottenere modulatori di fase o anche, composti all’interno di strutture
inteferometriche Mach Zender, modulatori di ampiezza che presentano
valori di tensione V π inferiori ad 1V [32] e soprattutto bitrate superiori
a 100 Gbit/s, con punte a 160 Gb/s [33].
Figura 2. Struttura di una
guida d‘onda slot striploaded per modulatori
fotonici in tecnologia SOH e
immagine al microscopio
elettronico (SEM)
Utilizzando lo stesso tipo di materiali elettro-ottici è possibile
realizzare anche la funzione di commutazione (switching) ad alta
frequenza, necessaria per applicazioni specifiche come i data center in
cui a breve termine saranno richiesti tempi caratteristici di switching
nell’ordine dei nanosecondi, mentre allo stato dell’arte i tempi
caratteristici sono nell’ordine dei ms, con valori di punta dimostrati
nell’ordine dei 100 µs. Alcuni esempi, mirati per ora più alla
dimostrazione concettuale, mostrano tensione di switching inferiore a
10V con un coefficiente nonlineare pari a 250 pm/V su lunghezza di
accoppiamento di 1.7 cm [34].
Similmente ai materiali organici elettro-ottici è possibile utilizzare
anche altri tipi di materiali che ben si accoppiano alla tecnologia SOI
per la realizzazione di sorgenti o di fotorivelatori.
109
S.Penna, S.Di Bartolo,V.Attanasio, A.Otomo, L. Mattiello
In particolare i materiali organici drogati con Erbio possono
fungere da materiali attivi per la generazione/amplificazione della
radiazione IR a 1550 nm all’interno del chip. A questo proposito sono
stati dimostrati elettroluminescenza da LED organico cresciuto su Silicio
con tecniche da vuoto [35] e di recente, con tecniche di processo in
fase liquida, anche se non su subtrato di Silicio [36]. L’ISCOM ha
un’attività in essere su quest’ultima linea che ha portato a risultati
promettenti sia per quanto riguarda la realizzazione di guide d’onda
con processi di fabbricazione interamente ottici [37][38], sia per le
potenzialità di realizzazione di un dispositivo laser su Silicio [39]
mediante tecniche di fabbricazione a basso costo come la litografia per
Nanoimprinting [40] o nell’estremo ultravioletto (EUV) [39]. In
aggiunta, mediante la collaborazione con l’Università La Sapienza di
Roma sono state realizzate delle versioni avanzate dei monomeri
drogati con Erbio in grado di migliorare l’efficienza di emissione e
soprattutto di consentire una lavorazione interamente in fase liquida,
condizione abilitante per un processo a basso costo su scala industriale
[37][40].
Per quanto riguarda la funzione di fotorivelazione, l’esplosione
recente del fotovoltaico organico ha portato a miglioramenti netti in
termini di materiali attivi disponibili per l’assorbimento ottico, per lo
più nel range visibile ma in prospettiva anche per il range del vicino
infrarosso inbanda C. Al momento sono in essere diversi lavori di
caratterizzazione ed ulteriore miglioramento dei materiali organici
attivi in termini di massimizzazione della velocità di risposta, peculiarità
dei fotorivelatori rispetto alle celle fotovoltaiche che lavorano con luce
continua (f=0). Si può prevedere facilmente che l’immenso know how
generato per il fotovoltaico organico in termini di design e sintesi di
110
Figura 3. Spettro laser
preliminare di cavità laser
DFB basata su Erbio trisidrossichinolina
come
materiale
attivo
per
l’emissione a 1530 nm
(banda C) [39] e immagine
del reticolo DBR realizzato
su wafer di Silicio con unico
processo di stampa da nanoimprinting su larga area (10
2
cm ) [41]
La Comunicazione N.R.& N.
Tecnologie di fotonica integrata: dispositivi e applicazioni
Integrated photonic technologies: devices and applications
nuovi materiali per l’assorbimento ottico porterà allo sviluppo in tempi
brevi di materiali in grado di competere con i loro equivalenti
inorganici.
Da questo punto di vista è stato domostrato un fotorivelatore con
una larghissima risposta spettrale (300–1450 nm), alta rivelabilità
(1012−1013 cm Hz 0.5 W–1) e un intervallo dinamico lineare (>100 dB), in
grado pertanto di competere direttamente con rivelatori in Silicio e
InGaAs [42].
Una delle principali problematiche derivanti dall’uso dei materiali
organici in elettronica è legato alla stabilità. Tuttavia, un lavoro di
sviluppo specifico in tal senso ha portato già a dimostrare la
compatibilità di alcuni prototipi come i modulatori polimerici ai
protocolli di certificazione Telcordia, ovvero previsti dall’associazione
delle industrie di telecomunicazione statunitensi, che fungono da
standard di stabilità [43][44].
Come già riportato in precedenza, ciascuna di queste tecnologie
gode di vantaggi e svantaggi legatti alle proprie cararteristiche specifici.
Pertanto, nell’ottica di convogliare gli sforzi verso obiettivi comuni,
l’approccio che domina il periodo corrente è l’integrazione tra le
diverse tecnologie integrate, in modo tale da ampliare la gamma di
applicazioni possibili e migliorare le prestazioni ottenibili. Come
accennato, ci sono diverse alternative proposte per l’integrazione dei
dispositivi attivi in InP su Silicon Photoncs, sebbene il ricorso al bonding
tende comunque ad innalzare i costi di fabbricazione se pensati su
processo in linea [45]. Di recente, ad inizio 2015, alcuni dei partner di
jEPPIX insieme a Lionix hanno annunciato l’integrabilità della tecnologia
InP su Triplex [46], in grado qundi di combinare le funzioni attive
dell’InP con le eccellenti proprietà guidanti per applicazioni nel visibile
e nel vicino infrarosso del Triplex.
3. Piattaforme Tecnologiche e Generic Foundry Model
Come citato in precedenza, una linea di processo per la
fabbricazione di chip ha costi proibitivi, sia per chip elettronici che per
PIC. Si consideri ad esempio che la realizzazione di una singola
maschera litografica ad elevata densità ha costi nell’ordine dei $
100.000 e che per un intero processo possono occorrere fino a 40
maschere.
Tuttavia, come detto, l’industria microelettronica può ripartire
questi costi su un elevato volume di produzione legato alle enormi
richieste di mercato, con quantiaà di lavorazione di circa 1.000-10.000
wafer per settimana su una singola linea [4]. Nel caso dei PIC, non
esiste ancora un mercato caratterizzato da simili volumi di richiesta. In
realtà per la quasi totalità delle applicazioni non esiste ancora un
mercato, per cui gli elevati costi di sviluppo tendono a limitare il
numero di attori del settore a pochi soggetti con disponibilità
111
S.Penna, S.Di Bartolo,V.Attanasio, A.Otomo, L. Mattiello
finanziarie adeguate. In aggiunta, la forte etereogeneità di materiali e
quindi di processi tecnologici per la realizzazione delle singole funzioni
ottiche tende ad innalzare ulteriormente i costi di sviluppo [19].
Tuttavia, proprio per far fronte a queste barriere, si è affermato un
nuovo modello basato sulla condivisione delle onerose infrastrutture
tecnologiche con la realizzazione di piattaforme tipicamente a iniziale
sovvenzione pubblica. Il concetto di riferimento è quello di Multi
Project Wafer (MPW), mutuato dall microelettronica, ovvero un wafer
al cui interno sono raccolti i design di dispositivi provenienti da diversi
clienti o partner fino saturarne l’intera area, consentendo di ripartire i
costi di realizzazione tra più progetti e creando quindi un business
sostenibile sia per il realizzatore che per il cliente [47].
Questo modello di sviluppo consente la nascita di un indotto
legato a singole competenze della catena del valore, come la
progettazione, il testing, l’integrazione, lo sviluppo di proprietà
intellettuali, incrementando la nascita di aziende anche di piccole
dimensioni ma dall’alto contenuto tecnologico [8]. Inoltre un sistema di
questo tipo favorisce la nascita delle fabless companies, ovvero delle
aziende senza impianto di fabbricazione proprietario (fab), che possono
sviluppare componenti per specifiche applicazioni, denominati ASPIC
(Application Specific PIC), demandando la realizzazione alla specifica
piattaforma tecnologica.
Tramite lo strumento dei programmi quadro FP6 ed FP7, l’Europa
ha investito pesantemente nel supporto alla nascita delle piattaforme
europee, in particolare tramite la Network of Excellence ePIXnet
(European Photonic Integrated Components and CircuitS Network) del
programma FP6. La vision di sviluppo del modello di Fonderia Generica
(Generic Foundry Model) applicato alla fotonica integrata è stato
introdotto proprio in ePIXnet [48].
Dalla rete di ePIXnet sono nati dei consorzi tecnologici a
partecipazione pubblica e privata, come ePIXfab, che è la piattaforma
di riferimento per la tecnologia SOI legata dal punto di vista dei
processi ai centri IMEC (belgio) e CEA-LETI (Francia), e jEPPIX (Joint
European Platform on Photonic Integrated CrcuitS), basata sulla
tecnologia in Fosfuro di Indio e legata per la maggior parte della
partnership al polo tecnologico di Eindhoven (Paesi Bassi). In aggiunta,
sempre originata da ePIXnet, si è affermata la tecnologia Del consorzio
Triplex basata su Nitruro di Silicio, attualmente sviluppata dall’azienda
olandese Lionix.
Ultimo “prodotto” di ePIXnet è la piattaforma ePIXpack per lo
sviluppo di tecnologie di packaging specifiche per i chip fotonici.
Attualmente il costo del packaging, che diversamente dai chip
elettronici è legato alle problematiche di accoppiamento della luce in
fibra, tende a superare di un ordine di grandezza il rimanente costo del
chip, con una percentuale sul costo totale stimato al 94% (fonte: FP7
Fabulous project).
112
La Comunicazione N.R.& N.
Tecnologie di fotonica integrata: dispositivi e applicazioni
Integrated photonic technologies: devices and applications
In ambito extra-Europeo è degna di nota la piattaforma a matrice
statunitense OpSis, giunta a conclusione a inizio 2015, legata
all’Università di Delaware e costituita da una rete di collaborazione che
ha visto partecipi anche le aziende leader della Silicon Photonics della
Silcon Valley come Luxtera e Kotura (ora all’interno di Mellanox), le
quali dispongono ognuna di linee di fabbricazione dedicate su SOI con
risoluzione rispettivamente di 200 nm e 150 nm [47], l’agenzia
tecnologica di Singapore ASTAR, Hewlett-Packard e BAE Systems.
La funzione di supporto pubblico che in Europa è assolta dai
programmi quadro, con impegni rinnovati anche all’interno dell’attuale
programma Horizon2020 per lo sviluppo di applicazioni di fotonica
integrata in ambito ICT e datacom, negli USA è svolta da DARPA
(Defense Advanced Research Projects Acency), che ha lanciato diversi
programmi di finanziamento come UNIC, mirati principalmente ad
applicazioni in ambito HPC (High Performance Computing).
In Italia si annota la recente inaugurazione del centro InPhoTec
(Integrated Photonic Techology center) all’interno del polo di ricerca
CNR-Scuola Sup. Sant’Anna di Pisa, interamente dedicato alla
realizzazione di dispositivi fotonici integrati, includendo l’attività di
packaging che attualmente rappresenta uno dei principali colli di
bottiglia per lo sviluppo commerciale dei PIC.
Conclusioni
Come detto, per garantire l’esplosione commerciale della fotonica
integrata, nonostante gli indiscussi vantaggi e potenzialità, dipende
dalle dimensioni del mercato di riferimento.
Attualmente c’è un forte impegno nello sviluppo di
interconnessioni ottiche, in particolare dedicate ad applicazioni in data
centers e per i microprocessori, e nel campo della sensoristica in fibra,
tutti settori caratterizzati da enormi potenziali volumi di richiesta che
faciliterebbero lo sviluppo commerciale e prima ancora lo sviluppo
tecnologico.
113
S.Penna, S.Di Bartolo,V.Attanasio, A.Otomo, L. Mattiello
Bibliografia.
[1] M. Ashgari, A. V. Krishnamoorty, Energy-efficient communication,
Nature, 5, p. 268-270, 2011
[2] Y. Arakawa et al., Silicon Photonics for Next Generation System
Integration Platform, IEEE Communications Magazine (2013)
[3] B. Jalali et al., Silicon photonics, J. Lightwave Technol. 24(12), p.
4600-4615, 2006
[4] T.W. Baehr-Jones, Myths and rumours of silicon photonics, Nature
Photonics, 6, p. 206-208 (2012)
[5] O. Boyraz et al., Demonstration of a silicon Raman laser, Opt. Exp.,
12 (21), p. 5269-5273 (2004)
[6] H. Rong et al., A continuous-wave Raman silicon laser, Nature 433,
p. 725-728 (2005)
[7] Liao S, Feng N, Feng D, Dong P, Shafiiha R, Kung C, Liang H, Qian W,
Liu Y, Fong J, Cunningham J, Luo Y, Asghari M. 36 GHz submicron silicon
waveguide germanium photodetector. Optics Express,19, p. 10967–
10972 (2011)
[8] M. Hochberg et al., Towards fabless silicon photonics, Nature
Photonics, 4, p. 492-494 (2010)
[9] B Aspar et al., The generic nature of the Smart-Cut® process for thin
film transfer, Journal of Electronic Materials, Vol. 30, No. 7, 2001
[10] F. Priolo et al., Silicon nanostructures for photonics and
photovoltaics, Nature Nanotechnologies, 9, p.19-32 (2014)
[11] Na Net al., Efficient broadband silicon-on-insulator grating coupler
with low backreflection. Opt. Lett. 36, p2101–3 (2011)
[14] Wang X et al, Narrow-band waveguide Bragg gratings on SOI
wafers with CMOS-compatible fabrication process. Opt. Exp. 20,
p.15547–58 (2012)
[15] Fu X, Dai D., Ultra-small Si-nanowire-based 400 GHz-spacing 15 X
15 arrayed-waveguide grating router with microbends, Electron Lett.
47, p. 266–8 (2011)
[16] Vivien L. et al., Zero-bias 40 Gbit/s germanium waveguide
photodetector on silicon. Opt Exp., 20, p. 1096–101 (2012)
[17] Liao S. et al., 36 GHz submicron silicon waveguide germanium
photodetector, Opt. Exp. 19 p. 10967–72 (2011)
[18] M. Smit et al., An introduction to InP-based generic integration
technology, Semiconductor Science and Technology, 29, p. 1-41 (2014)
[19] G. Gilardi et al., Generic InP-Based Integration Technology: Present
and Prospects, Progress In Electromagnetics Research, 147, p. 23–35
(2014)
[20] COrzine S W, Large-scale InP transmitter PICs for PM-DQPSK fibre
transmission systems, Photon. Technology Letters, 22, p. 1015-1017
(2010)
114
La Comunicazione N.R.& N.
Tecnologie di fotonica integrata: dispositivi e applicazioni
Integrated photonic technologies: devices and applications
[21] Stabile R et al., Monolithic active-passive 16x16 optoelectronic
switch, Optics Letters, 37, p. 4666-4668
[22] D. Liang et al., Hybrid Integrated Platforms for Silicon Photonics,
Materials, 3, p. 1789-1802 (2010)
[23] Roelkens et al., Adhesive bonding of InP/InGaAsP Dies to
Processed Silicon-On-Insulator wafer using DVS-bis-Benzocyclobutene,
J. Electrochem Soc., 153, G1015-G1019 (2006)
[25] J. F. Bauters et al., Planar waveguides with less than 0.1 dB/m
propagation loss fabricated with wafer bonding, Optics Express, vol. 19,
no. 24, pp. 24090– 24101, Nov. 2011.
[Zhuang] L. Zhuang et al.,, Low-loss, high-index-contrast Si3N4/SiO2
optical waveguides for optical delay lines in microwave photonics signal
processing, Optics Express, vol. 19, no. 23, pp. 23162–23170, Nov. 2011
[24] K. Wörhoff et al., TriPleX: a versatile dielectric photonic platform,
Advanced Optical Technologies, 4 (2), p. 189–207 (2015)
[26] Leinse A. et al., TriPleXTM platform technology for photonic
integration: applications from UV through NIR to IR, IEEE 2011
[27] J. Leuthold et al., Silicon Organic Hybrid Technology - A Platform
for Practical Nonlinear Optics, Proceedings of the IEEE, 97 (7), p. 13041316 (2009)
[Baehr Jones] T.W. Baehr Jones et al., Polymer Silicon Hybrid Systems:
A Platform for Practical Nonlinear Optics, J. Phys. Chem. C, 112, 8085–
8090 (2008)
[29] F. Qiu et al., A hybrid electro-optic polymer and TiO2 double-slot
waveguide modulator, Scientific Reports, 5, 8561 (2014)
[30] Y. Enami et al., Hybrid polymer/sol–gel waveguide modulations
with exceptionally large electro–optic coefficients, Nature Photonics, 1,
p. 180-185 (2007)
[31] V. Almeida et al., Guiding and confining light in void nanostructure,
Optics Letters, 29(11), p. 1209-1211 (2004)
[32] T. Baehr-Jones et al., Nonlinear polymer-clad silicon slot
waveguide modulator with a half wave voltage of 0.25 V, Appl. Phys.
Lett., 92 1633031-3 (2008)
[33] 40 GBd 16QAM Signaling at 160 Gbit/s in a Silicon-Organic Hybrid
(SOH) Modulator, Journal of Light. Tech., 2015
[34] Silicon/electro-optic polymer hybrid directional coupler switch,
Proc. SPIE 8991, Optical Interconnects XIV, 89910Q (2014)
[35] W.P. Gillin et al., Erbium (III) tris (8-hydroxyquinoline)(ErQ): A
potential material for silicon compatible 1.5 m emitters, Applied Phys.
Lett., 74 (6), p. 798-799 (1999)
[36] P. Martìn-Ramos et al., Active layer solution-processed NIR-OLEDs
based on ternary erbium(III) complexes with 1,1,1-trifluoro-2,4pentanedione and different N,N-donors, Dalton Trans., 43, p. 1808718096 (2014)
115
S.Penna, S.Di Bartolo,V.Attanasio, A.Otomo, L. Mattiello
[37] S. Penna et al., Applications and low cost processing of Erbium
Quinolinolates for active integrated photonic devices, Proc. IEEE Int.
Conf. Transaprent Optical Networks (2014)
[38] S. Penna et al., Opportunities for low Cost Processing of Erbium 8Quinolinolates for Active Integrated Photonic Applications, Journal of
Nanoscience and Nanotechnology (2015) in fase di stampa
[39] S. Prezioso et al., Infrared photoluminescence of erbium-tris (8hydroxyquinoline) in a distributed feedback cavity, Journal of
Luminescence, 131 (4), p. 682-685 (2011)
[40] S. Penna et al., Towards the implementation of an organic
inorganic laser for next generation optical applications, Proc. Of
Conference on Laser and Electro-Optics (2010)
[41] S. Penna et.al., Near-Infrared luminescent properties of
halogenated tetrakis erbium quinolinolates for photonic applications ,
in preparazione
[42] Gong, X. et al., High-detectivity polymer photodetectors with
spectral response from 300 nm to 1450 nm. Science 325, 1665–1667
(2009)
[43] M. Lauermann et al., 64 GBd Operation of a Silicon-Organic Hybrid
Modulator at Elevated Temperature, Optical Fiber Communication
Conference 2015, Tu2A.5 (2015)
[44] R. Dinu et al., Environmental stress testing of electro–optic
polymer modulators, Journal of Lightwave Technology Vol. 27, Issue 11,
pp. 1527-1532 (2009)
[45] J.T Robinson et al., First-principle derivation of gain in high-index
contrast waveguides, Optics Express, 16 (21), p. 16659-16669 (2008)
[46] http://www.vlcphotonics.com/2015/02/02/new-photonicintegration-platform-available-combining-inp-and-triplex-tmtechnologies/
[47] A. Eu-Jin Li et al., Review of Silicon Photonics Foundry Efforts, IEEE
J. Sel. Top. Quantum Electr., 4 (20), 2014
[48]
http://www.epixnet.org/uploads/media/visionphotonicsfoundryvs16.
doc
116
La Comunicazione N.R.& N.
La Comunicazione N.R.&N.
Silvia Di Bartolo ,
Vincenzo Attanasio ,
Stefano Penna
Donato Del Buono
Istituto Superiore delle
Comunicazioni e delle
Tecnologie dell'Informazione
(ISCOM)
Applicazione dell’ibrido fibra-FSO per
collegamenti bidirezionali passivi su
reti d’accesso ad alta velocità
Application of the hybrid fiber-FSO systems for passive duplex
links in high speed access networks
Sommario: negli ultimi decenni, il rapido aumento della
richiesta di banda dovuta sia ai servizi di nuova generazione che
alle nuove tecnologie sia all’aumento del traffico dati, ha reso
indispensabile l’ammodernamento delle infrastrutture di
telecomunicazione. Nello scenario della rete d’accesso, la
tecnologia FTTx risponde sia alla necessità di banda ultralarga
che a quella di avere una rete scalabile e flessibile, come richiesto
per le reti di nuova generazione. In particolar modo, la tecnologia
di tipo PON, Passive Optical Network, fornisce una soluzione a
basso costo ed efficiente da un punto di vista energetico per
operare come unica infrastruttura per diversi tipi di servizi o per
differenti operatori attraverso una semplice architettura puntomultipunto (P2MP). Tanti sono gli studi riportati in letteratura
sull’analisi della fattibilità e dei vantaggi apportati dal ibrido
fibra-radio che unisce il meglio della tecnologia PON con il meglio
della tecnologia wireless come WiFi o LTE. In questo lavoro viene
analizzata la possibilità di aumentare la copertura della rete in
fibra, li dove sia un problema la posa della fibra stessa, attraverso
collegamenti in tecnologia free space optics.
Abstract: In the last decade, the rapid increasing of broadband
request by residential and business customers due to the new services
and technologies on one hand and the growth of Internet traffic on the
other hand made the improvement of the telecommunication
infrastructure necessary. In the access network scenario, the FTTx
technology complies with the need for high scalability and flexibility
required in new generation networks. In particular, Passive Optical
Networks (PONs) provide a low cost and energy efficient solution to
operate as a single infrastructure of different telecommunication
services or of different operators through a very simple point-tomultipoint (P2MP) architecture. Many studies have been reported in
literature focused on the feasibility and benefits analysis of the hybrid
fiber-radio that combines the best of PON technology with the best of
wireless technology, such as WiFi or LTE. In this paper we analyze the
possibility to increase the coverage of the fiber network through
117
S. Di Bartolo , V. Attanasio , S. Penna, D. Del Buono
connections in free space optical technology, where in the fiber
deployment is an issue.
Introduzione
Negli ultimi decenni, il rapido aumento della richiesta di
banda da parte sia degli utenti residenziali che business, dovuta
tanto ai nuovi servizi e tecnologie quanto all’aumento del traffico
dati, ha reso indispensabile l’ammodernamento delle
infrastrutture di telecomunicazione.
Nello scenario della rete d’accesso, le tecnologie ottiche sono
ottimi candidati per il rinnovamento delle infrastrutture di rete.
Fiber To The x (FTTx), dove la x indica C=Curb, H=Home, B=
Building, etc, risponde sia alla necessità di banda ultralarga che
alla necessità di avere una rete scalabile e flessibile, come
richiesto per le reti di nuova generazione. In particolar modo, la
tecnologia di tipo PON, Passive Optical Network, fornisce una
soluzione a basso costo ed efficiente da un punto di vista
energetico [1] per operare come unica infrastruttura per diversi
tipi di servizi o per differenti operatori attraverso una semplice
architettura punto-multipunto (P2MP).
Tale architettura mette in contatto la centrale operativa (CO)
con i terminali d’utente attraverso un link passivo in fibra ottica
singolo modo. Nella centrale, l’apparato di rete OLT (Optical Line
Terminal), connette la rete d’accesso PON alla rete
metropolitana; lato utente la conversione elettro-ottica è
realizzata dall’Optical Network Unit (ONU). Il link in fibra ottica e
un nodo passivo, che costituiscono la rete di distribuzione,
trasportano sia il segnale di downstream generato dalla centrale
che di upstream generato dalle varie ONU [2]. Il mezzo può
essere condiviso attraverso diverse tecniche secondo cui diverse
configurazioni di PON sono possibili. Nelle reti tradizionali Time
Division Multiplexing PON (TDM PON), gli utenti comunicano con
la centrale utilizzando un’unica lunghezza d’onda, fissata a
1490nm per il segnale di downstream e 1310nm per quello di
upstream. Le ONU condividono tali lunghezze d’onda con una
tecnica a divisione di tempo TDM/TDMA per downlink e uplink
rispettivamente.
Le TDM PONs hanno dei costi per utente molto bassi se
comparati con le altre reti di accesso di tipo PON. Il nodo remoto
è costituito da un semplice accoppiatore passivo che divide la
118
La Comunicazione N.R.& N.
Applicazione dell’ibrido fibra-FSO per collegamenti bidirezionali passivi su reti d’accesso ad alta velocità
Integrated photonic technologies: devices and applications
potenza ottica tra le varie ONU introducendo elevate
attenuazioni rispetto alla potenza di ingresso al nodo passivo.
L’OLT assegna un intervallo temporale a ciascuna ONU per la
trasmissione del segnale di upstream [3]. Per aumentare la banda
trasmissiva di ogni utente, è possibile usare la tecnica di
Wavelength Division Multiplexing (WDM), che permette di
inviare contemporaneamente diverse lunghezze d’onda su
un’unica fibra singolo modo ed associare ogni lambda ad un
singolo utente. Nelle WDM PON il nodo remoto è costituito da un
accoppiatore di lunghezze d’onda passivo, come per esempio un
AWG (Arrayed Waveguide Grating), che multipla e demultipla le
varie lunghezze d’onda verso e da le ONU assegnate.
In questo caso il nodo remoto presenta delle perdite in
potenza molto più basse rispetto ad un semplice accoppiatore
passivo. Ogni ONU può trasmettere sfruttando pienamente la
banda trasmissiva di uplink e senza interruzioni temporali [4].
Altre possibili progettazioni per le PON si basano su tecniche di
multiplazione SCM, Sub-Carrier Multiplexing, su OFDM,
Orthogonal Frequency Division Multiplexing, o CDM, Code
Division Multiplexing che hanno un’alta efficienza di banda ma
con costi ridotti rispetto alle WDM PON.
Nelle SCM PON [5], ogni ONU ha un sottoportante elettrico
dedicato per comunicare con la OLT e non è necessario alcun tipo
di sincronismo. Per evitare interferenze sul segnale di upstream,
la lunghezza d’onda usata da ogni ONU è leggermente
desintonizzata rispetto alle altre.
Nelle CDM PON [6], ogni ONU è associata ad un codice
specifico e può trasmettere e ricevere in ogni momento
sfruttando la stessa architettura di rete che si utilizza nelle TDM
PON. Nelle OFDM PON [7], il segnale OFDM supporta alti bit rate,
per esempio 100Gbps, a discapito di una maggiore complessità e
un maggior costo del dispositivo ricetrasmittente rispetto alle
TDM PON.
Un altro approccio di progettazione delle PON importante è
quello dell’integrazione di diversi tipi di PON, come quello
TDM/WDM PON, che permette di raggiungere migliori
performance in termini di banda per utente [8][9]. Sistemi fibracoassiale (HFC) sono stati proposti per trasportare altri servizi
come la TV via cavo (CATV) su architetture di tipo PON. Questi
sistemi permettono di realizzare convergenza dei servizi
riducendo i costi di gestione della rete sia di semplificare la rete
119
S. Di Bartolo , V. Attanasio , S. Penna, D. Del Buono
coassiale con una riduzione del numero di amplificatori necessari
lungo la tratta [10]. Sono stati anche realizzati [26] esperimenti
sul trasporto del segnale TV di tipo DVB-T in fibra ottica,
dimostrando la flessibilità della rete al trasporto di servizi di
natura differente dal traffico internet.
I concetto dei servizi di nuova generazione è ben racchiuso
nel termine “internet delle cose”. In questa visione ubiquita
futura, una importante caratteristica della rete d’accesso è la
capacità di fornire connettività di tipo wireless. A questo
riguardo, i sistemi ibridi fibra aria sono ottimi per unire le
peculiarità della tecnologia PON, come l’alta capacità, con il
meglio della tecnologia wireless, cioè l’ubiquità, dando vita ad un
ottimo candidato per le reti d’accesso di nuova generazione.
L’ibrido fibra-radio
In questo scenario dell’ibrido tra fibra e tecnologia d’accesso
radio molte soluzioni sono state studiate e presentate da diversi
gruppi di ricerca. L’architettura comunemente riportata si basa su
tecnologia PON, con ONUs equipaggiate con interfaccia wireless
per operare la conversione ottica-radioelettrica, e viceversa, e
combinare le funzioni classiche delle ONU con le funzionalità del
front-end wireless.
Il front end wireless può essere incorporato dalla ONU
oppure quest’ultima può essere connessa via cavo ad un access
point o ad una base station a seconda della tecnologia wireless
utilizzata.
Figura 1. Configurazione
tipica di un sistema wireless
ibrido fibra-radio
120
La Comunicazione N.R.& N.
Applicazione dell’ibrido fibra-FSO per collegamenti bidirezionali passivi su reti d’accesso ad alta velocità
Integrated photonic technologies: devices and applications
Diversi acronimi vengono usati per identificare le reti ibride,
come: HOWAN, Hybrid Optical-Wireless Access Network, ii)
WOBAN, Wireless-Optical Access Network, iii) FiWi.
Per tutti questi approcci la rete in fibra è intesa essere una
rete di tipo PON. Le soluzioni wireless esplorate sono di tipo LTE
(Long Term Evolution), WiMAX (Worldwide Interoperability for
Microwave Access) o WiFi.
WiMax (IEEE 802.16) è nato per accesso alla rete sia fisso che
mobile, fornendo un data rate fino a 75Mbps su collegamenti di
circa 5km [11]. Lo standard del WiMAX prevede
l’implementazione di due tipi diversi di architettura, che sono
una di tipo punto-multipunto (P2MP) e l’altra di tipo Mesh.
In quella di tipo P2MP, ogni stazione radio base (BS, base
station) gestisce un gruppo di utilizzatori (SS, subscriber station) e
ogni comunicazione è gestita dalla BS; nella topologia di tipo
Mesh, ogni SS può comunicare direttamente con altri SS senza
essere gestiti dalla BS [12].
LTE è l’ultimo standard commerciale per le comunicazioni
mobili che offre collegamenti a 100Mbps su più di 5km, con
capacità di cella fino a 200 utenti [o].
Lo standard WiFi (IEEE 802.11) è il più maturo dei tre, ha un
costo molto basso e un dispiegamento molto semplice. Offre
velocità di connessione condivisa compresa in 11-54Mbps in
funzione dello standard preso in riferimento (IEEE 802.11 a/b/g).
L’ultima versione, IEEE 802.11n, supporta fino a 600Mbps con
copertura tra i 100-200m.
Inoltre il WiFi opera su frequenze non licenziate e può
lavorare sia in modalità infrastructure che in modalità ad hoc.
Nella prima modalità, la rete è gestita da un access point (AP)
mentre nella modalità ad hoc, i terminali d’utente si
autogestiscono [12].
Le reti wireless di tipo mesh (WMN, wireless mesh network)
sono idonee per estendere la copertura delle reti WiFi
domestiche, permettendo un miglioramento del rapporto costoefficienza. Tipicamente una WMN è costituita da più gateway per
l’accesso ad internet, un gruppo di router wireless e un gruppo di
mesh client [13].
121
S. Di Bartolo , V. Attanasio , S. Penna, D. Del Buono
A prescindere dalla particolare tecnologia scelta, I sistemi
ibridi fibra-radio sono perfetti per combinare l’alta capacità di
trasporto della fibra e la possibilità di fornire un accesso ubiquito
delle reti wireless.
In [14], è stato proposto un backhauling ottico, costituito da
una WDM/TDM PON, unito ad un front-end wireless di tipo WiFi
in architettura WMN. In particolare si è analizzata la scalabilità
della PON in termini del numero AP supportati e la copertura
offerta.
Altri lavori si basano sullo studio della collocazione ottimale
delle ONU, sugli algoritmi di routing o sulla riconfigurazione delle
PON in funzione della specifica tecnologia di accesso di tipo
wireless presa in considerazione [15][16]. In [17], gli autori
presentano un tool per la pianificazione della rete per decidere in
modo efficiente la posizione del front-end wireless della rete
d’accesso ibrida, prendendo in considerazione anche tecnologie
wireless miste come per esempio PON-LTE-WiFi.
L’ibrido fibra-FSO
Un altro fattore chiave delle reti ibride è la minore difficoltà
della messa in opera rispetto ad una soluzione completamente
cablata, da cui derivano anche minori costi di dispiegamento. Le
tecnologie wireless sono indicate per la copertura di zone difficili
da cablare, per aree poco vantaggiose da un punto di vista
economico se raggiunte con cavo o per quelle situazioni in cui è
fortemente sconsigliato lo scavo per posa di cavi come per
esempio nelle aree di interesse storico.
A prescindere dalla particolare tecnologia wireless
considerata, l’interfacciamento della rete radio con la fibra ottica
prevede una conversione ottica elettrica, che rappresenta il collo
di bottiglia della rete rispetto alle velocità raggiungibili sulla rete
di distribuzione ottica.
Un modo per ridurre l’area da coprire in modalità radio e
mantenere il vantaggio di semplice dispiegamento della rete,
anche dove il cablaggio è di fatto un limite, è quello di integrare
fibra e wireless attraverso collegamenti wireless di tipo ottico,
detti FSO (Free Space Optics). I collegamenti FSO sono link su
lunghezze d’onda ottiche che viaggiano in spazio libero e ad alta
velocità. Un sistema FSO tradizionale è di tipo attivo, ossia
122
La Comunicazione N.R.& N.
Applicazione dell’ibrido fibra-FSO per collegamenti bidirezionali passivi su reti d’accesso ad alta velocità
Integrated photonic technologies: devices and applications
composto da front-end alimentati. Questi sistemi sono composti
da ricevitori e trasmettitori ottici che permettono di far
propagare i segnali luminosi provenienti da una fibra ottica su
canale atmosferico e viceversa per realizzare canali trasmissivi
bidirezionali.
Tipicamente, il trasmettitore ottico è costituto da un diodo
laser (LD), mentre il ricevitore è costituito da un fotodiodo (PD).
Le conversioni O-E-O all’interfaccia fibra-FSO permettono di
limitare il power budget sul canale FSO, ma rendono anche il
sistema più complesso e costoso.
Gli attuali sistemi commerciali utilizzano tale configurazione
ed arrivano a bit rate massimi di 10Gbps.
Tra i vantaggi dei sistemi FSO rispetto a quelli a RF ci sono le
ridotte dimensioni del front end e i minori consumi energetici. Le
frequenze ottiche su cui lavorano non sono licenziate; i link sono
immuni da interferenze elettromagnetiche e sono sicuri da un
punto di vista informatico grazie alla elevata direttività del fascio
laser. Tra gli svantaggi invece la necessità di linea di vista LOS tra
trasmettitore e ricevitore e la dipendenza dalle condizioni
climatiche.
Una soluzione alternativa e a basso costo si basa sull’utilizzo
di testine FSO passive, costituite da un sistema di lenti. I
collegamenti ottici in canale atmosferico che utilizzano tali
interfacce fibra-aria sono caratterizzati dalla assenza di elementi
attivi, come LD e PD e quindi non è necessaria nessuna
conversione O-E-O del flusso informativo.
In questo articolo il termine “attivo” e “passivo” è legato
esclusivamente al trattamento del segnale informativo.
Infatti, il sistema passivo potrebbe necessitare di
alimentazione per alimentare il sistema di allineamento
automatico che permette di compensare disallineamenti
meccanici e termici [18] tra ricevitore e trasmettitore.
123
S. Di Bartolo , V. Attanasio , S. Penna, D. Del Buono
a)
b)
Perciò, in un sistema ibrido fibra-FSO di tipo passivo il
segnale viene generato da un diodo laser posto in una sorgente
remota. Tale segnale si propaga in fibra ottica fino a giungere al
terminale FSO passivo dove, attraverso un sistema di lenti
collimatrici, si propaga in atmosfera fino a raggiungere il
terminale FSO di ricezione. Un sistema di lenti permette di
focalizzare e riaccoppiare il segnale ottico in fibra per raggiungere
il terminale di ricezione remoto.
L’accoppiamento passivo fibra-FSO rende il sistema semplice
ed economico rispetto ai sistemi attivi tradizionali e soprattutto
permette di trattare in modo trasparente il segnale ottico a
prescindere dal formato di modulazione e dalla velocità di linea
utilizzata nella rete in fibra ottica.
Questa caratteristica di trasparenza del FSO è molto
importante perché permette di ottenere un sistema di
trasmissione fibra-aria trasparente sull’intero collegamento
ottico[19]. La configurazione passiva dei link FSO impone delle
restrizioni sul power budget del link, che devono essere
propriamente dimensionate e eventualmente compensate per
avere una percentuale di disponibilità del servizio il più alta
possibile[20].
La soluzione passiva per i sistemi FSO è efficiente dal punto di
visto energetico poiché non necessita di alimentazione per il
funzionamento dei relativi front-end. Inoltre, nel contesto PON lo
scenario passivo della rete di distribuzione viene preservato. In
letteratura sono presenti diversi lavori che illustrano la fattibilità
dell’ibrido fibra-FSO nel contesto PON.
In [21], un esempio di PON ibrida ad alta capacità è stato
sperimentalmente dimostrato. Per validare il concetto di utilizzo
della tecnologia FSO come parte del sistema PON, un link passivo
124
Figura 2. Sistema FSO
tradizionale (a) e sistema
passivo
di
nuova
generazione (b) [20]
La Comunicazione N.R.& N.
Applicazione dell’ibrido fibra-FSO per collegamenti bidirezionali passivi su reti d’accesso ad alta velocità
Integrated photonic technologies: devices and applications
di tipo FSO lungo 6m in scenario indoor è stato inserito nella rete
di distribuzione passiva. Lo studio riguarda l’analisi di una rete
PON ibrida flessibile e ad alta capacità in cui coesistono sistemi di
trasmissione tradizionali e segnali video, e la valutazione di
diversi formati di modulazione.
Nel lavoro [22], un link FSO è stato inserito in un sistema PON
attraverso una sperimentazione di laboratorio ottenuta
utilizzando degli apparati di rete commerciali; il link FSO copre
una distanza di 2,3m e si dimostra che il sistema FSO non riduce
la qualità del segnale GPON.
Le perdite inserite dal link FSO possono essere compensate
attraverso l’uso di amplificatori ottici e in caso di propagazione in
aria pulita non vi sono altre degradazioni aggiunte dal link
atmosferico. In [23], viene sperimentalmente realizzato un link
FSO passivo su 56m in ambiente esterno.
Set up sperimentale di un link ibrido fibra-FSO in contesto
PON
Nei laboratori dell’Istituto Superiore delle Comunicazioni e
delle Tecnologie dell’Informazione, ISCTI sono in atto delle
sperimentazioni per lo studio di sistemi FSO passivi in contesto di
rete d’accesso passiva con l’obiettivo di coprire la tratta dal
cabinet al building in tecnologia ottica.
Gli esperimenti sono in fase di studio preliminare e sono
incentrati sulla stabilizzazione del link ottico al fine di poterne
analizzare il comportamento in diverse condizioni climatiche.
Obiettivo finale della ricerca è lo studio dell’affidabilità del
collegamento rispetto ai requisiti impostati dalla rete d’accesso
stessa.
Di seguito sono illustrate le varie fasi sperimentali che hanno
portato alla realizzazione del sistema ibrido fibra-FSO sotto
studio.
La prima fase ha riguardato la dimostrazione del concetto
attraverso prove condotte in laboratorio in configurazione back
to back. In tale fase si è investigata la fattibilità di utilizzo del
sistema FSO per estendere la copertura di un ramo passivo di una
rete di distribuzione PON. Per preservare la natura passiva della
PON il link FSO è stato realizzato passivo e bidirezionale.
125
S. Di Bartolo , V. Attanasio , S. Penna, D. Del Buono
Il primo passo è stato quello di cercare le lenti opportune
per permettere il passaggio del segnale ottico da fibra a canale
atmosferico.
In riferimento alla figura 3, il segnale generato dall’apparato
di rete di centrale (OLT) a 1490nm propaga in fibra singolo modo
fino al punto A nel quale, tramite un sistema di lenti che
collimano il fascio riducendo la naturale divergenza in uscita dalla
fibra ottica, è lasciato propagare in spazio libero. Dopo essersi
propagato per circa 80m il link FSO viene focalizzato e accoppiato
di nuovo in fibra nel punto B (Fig.3) in modo da raggiungere il
ricevitore ottico posto nella ONU.
Lo stesso sistema di lenti permette al segnale in upstream
generato dalla ONU di seguire lo stesso percorso e giungere
all’apparato di centrale rendendo il sistema bidirezionale. Il
sistema FSO così realizzato, oltre ad essere energy free è
economico poiché composto da sole lenti.
La configurazione back to back (Fig.4) è stata montata su
banco ottico, utilizzando degli specchi per porre in linea di vista
trasmettitore e ricevitore.
126
Figura 3. Link FSO tra
apparati di una rete PON
Figura 4. Set up
sperimentale per misure
back to back
La Comunicazione N.R.& N.
Applicazione dell’ibrido fibra-FSO per collegamenti bidirezionali passivi su reti d’accesso ad alta velocità
Integrated photonic technologies: devices and applications
Il comportamento della rete PON è stato caratterizzato in
termini di rate dati ricevuto rispetto la potenza ottica ricevuta. Il
comportamento del sistema PON è stato analizzato sia in
presenza che assenza del FSO tra OLT e ONU. Queste misure
sono state condotte sia al ricevitore della ONU che della OLT per
analizzare la comunicazione full duplex. Un analizzatore di
traffico (Data Analyzer Fig.4) è stato usato per generare un flusso
binario pseudo casuale a 100Mbps. Tale flusso viene inviato alla
porta Ethernet dell’OLT che converte in flusso binario da elettrico
a ottico raggiungendo ‘il ricevitore della ONU attraverso la rete di
distribuzione.
Nella ONU il segnale di downstream viene riportato nel
dominio elettrico ed analizzato dal Data Analyzer, che confronta
bit a bit la sequenza originaria e quella ricevuta. Lo stesso
processo è stato implementato sul segnale di upstream. La
potenza di ingresso all’ONU è stata modificata grazie all’utilizzo di
un attenuatore variabile (VOA, Variable Optical Attenuator) ed
impostata leggendone il valore tramite analizzatore di spettro
ottico (OSA, Optical Spectrum Analyzer).
Considerando un link tra OLT e ONU interamente in fibra
ottica, è possibile osservare un comportamento della rete a
soglia. In un intervallo specifico di potenza ricevuta, il rate di
ricezione della ONU rimane costante al 100%. Al di fuori dello
specifico intervallo di potenza la connessione tra trasmettitore e
ricevitore decade portando il rate di ricezione a zero.
Dal lato del ricevitore della OLT si verifica un comportamento
simile. In questo caso il rate ricevuto, prima di crollare a zero,
degrada al 90%. Questa differenza (vedi Fig.5 a e b) dipende
probabilmente dalla qualità dei trasmettitori presenti nella OLT e
nell’ONU. Nel primo caso si tratta di un laser singolo modo stabile
in potenza, mentre nel caso dell’ONU si tratta di laser
multimodale non stabilizzato che fluttua nel tempo sia
spettralmente che in potenza.
127
S. Di Bartolo , V. Attanasio , S. Penna, D. Del Buono
Le misure del rate ricevuto al variare della potenza di
ingresso sono state realizzate comparando l’effetto della
connessione tra ONU ed OLT realizzata sia in fibra (Fig.5,a-b) che
in fibra+FSO (Fig.5,c-d). Come si può osservare dai grafici riportati
in Fig. 5, il link FSO è totalmente trasparente per la rete poiché si
ottengono gli stessi risultati ottenuti con link interamente in
fibra. L’unica degradazione aggiunta dal link FSO è una
attenuazione di 4dB che in laboratorio non permette di avere
potenze di ricezione maggiore di -5dBm.
Inoltre, con lo scopo di dimostrare l’uso potenziale della
tecnologia FSO per fornire accesso multiplo a servizi differenti
sulla stessa infrastruttura di rete, un segnale DVB-T modulato su
portante ottica a 1558nm con tecnica Radio over Fiber è stato
accoppiato in fibra insieme al segnale di centrale 1490nm ed
inviato ad una ONU equipaggiata con interfaccia RF (radio
frequency) per la trasmissione del segnale televisivo su cavo
coassiale.
Il segnale RF è stato captato da un’antenna posta sul tetto
dell’edificio del MISE, sede dei laboratori in cui sono state
effettuate le misure descritte nel presente lavoro, ed è stato
convertito nel dominio ottico grazie ad un modulatore elettroottico di tipo Mach Zehnder. In ricezione la ONU provvede a
separare tramite un filtro ottico la lunghezza d’onda a 1558nm e
128
Figura 5. Bit rate ricevuto da
OLT (a,c) e ONU (b,d) in fiber
link (a,b) or in fiber+FSO link
(c,d)
La Comunicazione N.R.& N.
Applicazione dell’ibrido fibra-FSO per collegamenti bidirezionali passivi su reti d’accesso ad alta velocità
Integrated photonic technologies: devices and applications
a riconvertire nel dominio elettrico tramite un fotodiodo il
segnale RF il quale è trasmesso su cavo coassiale ad una TV
commerciale munita di decoder per demodulare e decodificare il
segnale DVB-T ricevuto. Il numero di canali che il decoder è in
grado di ricevere è stato misurato tramite scansioni paragonando
il link in fibra a quello ibrido fibra-FSO.
Dopo aver dimostrato la fattibilità del collegamento OLTONU di una rete passiva in tecnologia ibrida fibra-FSO in
ambiente indoor, si è montato il sistema in modo da avere un link
FSO in outdoor.
La struttura dell’edificio a “U” (Fig. 6) ha permesso di avere a
disposizione due stanze in visibilità reciproca in cui installare il
sistema FSO, mostrato in Fig. 7. In una sono stati posti
trasmettitore e ricevitore con le lenti di accoppiamento fibra-aria
mentre nell'altra è stato posizionato uno specchio per riflettere
in segnale e mettere in linea di vista trasmettitore e ricevitore.
Edificio del MISE
dall'alto
Stanza 1 al piano
terra dell'ala B
dell'edificio (B0028)
Stanza 2 al piano
terra dell'ala A
dell'edificio (A0043)
Figura 6. Edificio MISE-ISCTI
in cui sono in atto le
sperimentazioni descritte nel
presente lavoro
129
S. Di Bartolo , V. Attanasio , S. Penna, D. Del Buono
Sistema di Lenti
OLT
Specchi
GRIN
Il link è bidirezionale
Specchio
a 40m
Sistema di Lenti
ONU
GRIN
Specchi
Il sistema realizzato subisce un’attenuazione complessiva di
13dB di cui 6 dovuti all’attenuazione dei vetri delle finestre delle
stanze attraverso cui passa il segnale ottico e i restanti 7 dB
dovuti alla somma dei contributi di attenuazione degli specchi e
delle lenti.
In conclusione, si è dimostrato che l’ibrido fibra-FSO è utile
per coprire il tratto tra cabinet e building [24], mantenendo le
velocità di accesso della rete in fibra senza necessità di scavi.
Il sistema è attualmente sotto osservazione per
caratterizzare il comportamento della rete al variare delle
condizioni climatiche che possono degradare il canale
atmosferico. Infatti, monitorando la potenza ricevuta in
prossimità della ONU si sono osservati un andamento ciclico
legato alla variazione periodica di temperatura giorno/notte e
una degradazione più accentuata in concomitanza di intense
precipitazioni.
La caratterizzazione di questi aspetti, ancora allo stadio
iniziale, richiederà notevoli sforzi e risulta di fondamentale
importanza per garantire l’affidabilità del sistema. Per
contrastare le instabilità del link FSO legate alle condizioni
climatiche e quindi garantire la disponibilità del servizio all’utente
finale può essere utilizzato il link in rame attualmente presente
tra cabinet e building, considerando che se pur a più basso bit
rate il link può essere mantenuto attivo in qualsiasi condizione
climatica [25].
130
Figura 7 Sistema FSO
passivo
realizzato
nei
laboratori di Comunicazioni
Ottiche dell’ISCTI
La Comunicazione N.R.& N.
Applicazione dell’ibrido fibra-FSO per collegamenti bidirezionali passivi su reti d’accesso ad alta velocità
Integrated photonic technologies: devices and applications
Reference
[1] Fiorani, M.; Tombaz, S.; Monti, P.; Casoni, M.; Wosinska, L.,
"Green backhauling for rural areas," Optical Network Design and
Modeling, 2014 International Conference on , vol., no., pp.114,119, 1922 May 2014
[2] Koonen, T., "Fiber to the Home/Fiber to the Premises: What,
Where, and When?," Proceedings of the IEEE , vol.94, no.5, pp.911,934,
May 2006
[3] Chang-Hee Lee; Sorin, W.V.; Byoung Yoon Kim, "Fiber to the
Home Using a PON Infrastructure," Lightwave Technology, Journal of ,
vol.24, no.12, pp.4568,4583, Dec. 2006
[4] A. Banerjee et al., Wavelength-division multiplexed passive
optical network (WDM-PON) echnologies for broadband access: A
review, J. Opt. Netw., vol. 4, pp. 737758, 2005
[5] Hui, Rongqing; Benyuan Zhu; Renxing Huang; Allen, C.T.;
Demarest, K.; Richards, D., "Subcarrier multiplexing for high-speed
optical transmission," Lightwave Technology, Journal of , vol.20, no.3
[6] Kamijoh, T.; Kashima, M.; Tamai, H.; Sarashina, M.; Iwamura,
H.; Gupta, G.C., "CDM-technologies for next generation optical access
networks," Optical Fiber Communication - incudes post deadline papers,
2009. OFC 2009. Conference on , vol., no., pp.1,3, 22-26 March 2009
[7] Silva, J.A.L.; Coura, D.J.C.; Barbero, A.P.L.; Segatto, M.E.V., "A
passive optical network based on centralized wavelength and
bandwidth scalable OFDM signals," Transparent Optical Networks,
2009
[8] Sarashina, M.; Tamai, H.; Furusawa, S.; Suzuki, A.; Kashima, M.;
Mukojima, T.; Kaneko, S.; Yoshida, T.; Kimura, S.; Yoshimoto, N., "First
demonstration of a wavelength swept discovery process for λ-tunable
WDM/TDM-PON system," Optical Fiber Communications Conference
and Exhibition (OFC), 2014 , vol., no., pp.1,3, 9-13 March 2014
[9] Zhaowen Xu; Xiaofei Cheng; Yong-Kee Yeo; Luying Zhou; Xu
Shao; Hongguang Zhang, "1.24-Tb/s hybrid SCM/WDM passive optical
networks," Optical Communication (ECOC), 2011 37th European
[10] G. Donaldson and D. Jones, BCable television broadband
network architectures, IEEE Commun. Mag., vol. 39, no. 6, pp. 122–126,
Jun. 2001.
[11] Mohammad, A.B.; Shaddad, R.Q.; Al-Gailani, S.A., "Enabling
optical and wireless broadband access technologies," Photonics (ICP),
2012 IEEE 3rd International Conference on , vol., no., pp.135,139, 1-3
[12] Shaddad, R.Q.; bin Mohammad, A.B., "Performance
assessment of a 2 Gb/s hybrid optical-wireless access network,"
Photonics (ICP), 2010 International Conference on , vol., no., pp.1,5, 5-7
July 2010
[13] Zeyu Zheng; Jianping Wang; Jin Wang, "A Study of Network
Throughput Gain in Optical-Wireless (FiWi) Networks Subject to Peerto-Peer Communications," Communications, 2009. ICC '09. IEEE
131
S. Di Bartolo , V. Attanasio , S. Penna, D. Del Buono
[14] Shaddad, R.Q.; Mohammad, A.B.; Al-Gailani, S.A.; Aon, E.F.,
"Scalability analysis of hybrid optical wireless access network
(HOWAN)," Signal Processing & its Applications (CSPA), 2014 IEEE 10th
International Colloquium on , vol., no., pp.48,52, 7-9 March 2014
[15] Wei-Tao Shaw, ”Hybrid Architecture and Integrated Routing in
a Scalable Optical Wireless Access Network”, JOURNAL OF LIGHTWAVE
TECHNOLOGY, Vol. 25, No. 11, Nov. 2007, pp.3443-3451.
[16] P. Gupta, P. R. Kumar, ”The capacity of wireless networks”,
IEEE Transactions on Information Theory, Vol. 46(2000), pp. 388-404.
[17] Chowdhury, R.; Shami, A.; Almustafa, K., "Designing of nextgeneration hybrid optical-wireless access network," Innovations for
Community Services (I4CS), 2014 14th International Conference on ,
vol., no., pp. 9, 15, 4-6 June 2014
[18] Gupta, A.; Anand, P.; Khajuria, R.; Bhagat, S.; and Kumar Jha,
R.. "A Survey of Free Space Optical Communication Network Channel
over Optical Fiber Cable Communication", International Journal of
Computer Applications 105, (10), 32-36, November 2014
[19] Matsumoto, M. ; Kazaura, K. ; Dat, Pham ; Shah, Alam ; Omae,
K. ; Suzuki, T. ; Wakamori, K. ; Higashino, T. ;Tsukamoto, K. ; Komaki, S.,
"Innovations in NGN: Future Network and Services", 2008. K-INGN
2008. First ITU-T Kaleidoscope Academic Conference, 221-228, May
2008
[20] Matsumoto, M., "Next Generation Free-space Optical System
by System Design Optimization and Performance Enhancement", PIERS
Proceedings, Malaysia, 2012
[21] Teixeira, A.; Parca, G.; Shahpari, A.; Reis, J.D.; Ferreira, R.;
Abdalla, A.; Lima, M.; Carrozzo, V.; Tosi Beleffi, G., "Ultra high capacity
PON systems," Transparent Optical Networks (ICTON), 2013 15th
International Conference on , vol., no., pp.1,4, 23-27 June 2013
[22] Parca, G.; Tavares, A.; Shahpari, A.; Teixeira, A.; Carrozzo, V.;
Tosi Beleffi, G., "FSO for broadband multi service delivery in futu1re
networks," Optical Wireless Communications (IWOW), 2013 2nd
International Workshop on , vol., no., pp.67,70, 21-21 Oct. 2013
[23] Teixeira, A.; Shahpari, A.; Reis, J.D.; Ferreira, R., "Flexible
access networks," Transparent Optical Networks (ICTON), 2014 16th
International Conference on , vol., no., pp.1,3, 6-10 July 2014
[24] Di Bartolo, S.; Pizzoleo, A.; Penna, S.; Beleffi, G.M.T.; Matera,
F.; Pompei, S., "Experimental demonstration of a GPON free space
optical link for full duplex communications," Photonics Technologies,
2014 Fotonica AEIT Italian Conference on, vol., no., pp.1,3, 12-14 May
2014
[25] Bloom, S.; Hartley, S.," The last-mile solution: hybrid FSO
radio", AirFiber Inc., White Paper, available at:
http://morse.uml.edu/Activities.d/Summer-05/PAPERS/KC/AirFiberHFR.pdf
[26] Tripaldi, G.; Di Bartolo, S.; Betti, S.; Pizzoleo, A.; Matera, F.,
"Experimental investigation on DVB-T over CATV-RoF constraints in long
haul Passive Optical Networks," Transparent Optical Networks (ICTON),
2014 16th International Conference on , vol., no., pp.1,4, 6-10 July 2014
132
La Comunicazione N.R.& N.
La Comunicazione N.R.&N.
Silvio Abrate
Riccardo Scopigno
Istituto Superiore
Mario Boella Torino
Roberto Gaudino
Politecnico di Torino
Lo stato della banda larga in Italia:
opportunità, ostacoli, tendenze
Status of broad-band in Italy: opportunities, threats, trends
Sommario - Questo articolo intende riportare brevemente sul
simposio intitolato “Sviluppo dell’ultra-broadband in Italia” tenutosi a
Torino nell’ambito di Fotonica 2015, convegno italiano di riferimento per
le tecnologie ottiche, in maggio. Sarà inoltre analizzato lo stato di
definizione delle reti ottiche di accesso di nuova generazione, con
un’accenno alle tendenze per le tecnologie non cablate, nell’ottica delle
reti convergenti.
Abstract - This paper will give a summary of the symposium titled
“Ultra-broadband deployment in Italy”, held in Turin within Fotonica
2015, national conference on photonic technologies, in May. In addition,
we will briefly analyse the status of the definition of the Next Generation
Optical Access Networks, and an insight on the trends of wireless
technologies, towards the paradigm of converged networking.
Introduzione
Discutere ancora oggi sui vantaggi che potrebbe portare una
diffusione della banda larga sul territorio italiano risulta essenzialmente
superato, essendo oramai universalmente accettato ed accertato, con
esempi provenienti da più parti del mondo, quanto i vantaggi in termini
di qualità della vita, produttività, sostenibilità ecologica, etc. siano più
che evidenti.
Altrettanto superato, vista la maturità delle tecnologie sia per le reti
di back-bone, sia per le reti di accesso, dovrebbe essere il discorso
riguardo il “come” ed il “quando” provvedere ad una massiccia opera di
“connessione” dei cittadini italiani; purtroppo, la situazione dello Stivale
risulta ancora piuttosto arretrata da questo punto di vista, ed a dispetto
di un inizio pionieristico nella diffusione del Fiber-To-The-Home (FTTH),
prevalentemente a cura di FastWeb, che ha portato l’Italia ad inizio degli
anni 2000 ad essere uno dei primi paesi al mondo ad avere oltre l’1% di
cittadini connessi in fibra, gli investimenti infrastrutturali sembrano
bloccati e un aggiornamento dei modelli di business ha portato ad
adottare massicciamente tecniche radio, quali Wi-Max, 3G ed LTE, per
l’ultimo miglio, garantendo sì un facile ed economico raggiungimento di
una vasta platea di clienti, ma allo stesso tempo limitando fortemente le
133
S.Abate, R.Scopigno, R.Gaudino
prestazioni, al punto che ancora nel 2010 la percentuale era ferma al
1,56% (sorgente: FTTH Council Europe). In Figura 1 è indicata una
rappresentazione quantitativa della penetrazione del FTTH per vari
paesi, ed il confronto con il Giappone, prossimo al raggiungimento di 20
milioni di case, risulta impietoso; il raffronto diventa ancor più desolante
se si considera la Figura 2, dove la penetrazione del FTTH è
rappresentata in percentuale sulla popolazione, in cui l’Italia non
compare tra i primi 13 paesi.
Nonostante un lieve incremento della diffusione della fibra ottica
dopo il 2011, appare particolarmente sfidante l’obiettivo del piano
nazionale per la banda larga, che prevede 30 Mbit/s per tutti e 100 Mb/s
per il 50% delle famiglie entro il 2020: a giugno 2014, secondo i dati
OCSE, solo il 22% (28° posto) degli utenti fissi italiani era raggiunto da
una connessione ad almeno 10 Mb/s, mentre si sale al 67% (19° posto
OCSE) per gli utenti mobili.
Obiettivo dei prossimi paragrafi sarà portare l’opinione di produttori,
utenti e istituzioni così come rappresentato dal simposio “Sviluppo
dell’Ultra Broadband in Italia”, tenutosi in occasione del convegno
Fotonica 2015, per procedere ad uno sguardo alla tecnologia
analizzando lo stato della standardizzazione per le reti ottiche passive di
nuova generazione (NG-PON2) e delle più recenti tecnologie radio.
Sviluppo dell’Ultra Broadband in Italia – Simposio a Fotonica 2015
Il 6 maggio 2015 si è tenuto a Torino, nell’ambito della conferenza
nazionale Fotonica 2015, un simposio intitolato “Sviluppo dell’Ultra
Broadband in Italia”, organizzato e moderato da Giovanni Colombo,
direttore dell’Istituto Superiore Mario Boella, già direttore di Telecom
Italia Lab e membro del governing board del European Institute of
Technology; ad animare il simposio, sono intervenuti Stefano Pileri, AD
di Italtel e già direttore generale di Telecom Italia, Raffaele Tiscar, della
vicepresidenza al Consiglio dei Ministri, e Maurizio Gattiglio, di Prima
Electro e presidente della piattaforma tecnologica EFFRA.
L’intervento di Stefano Pileri, AD di Italtel e profondo conoscitore
della rete italiana visti i suoi trascorsi in Telecom Italia, è stato di natura
prettamente tecnologica, a meno di un piccolo accenno alla recente
inversione di tendenza, in senso positivo, avvenuta negli ultimi anni nei
bilanci di Italtel. Una prima indicazione di natura quantitativa ha
riguardato l’occupazione del traffico voce sulle attuali reti: inferiore al
10%, e con un trend in ulteriore discesa; questo significa che le nostre
reti, ancora largamente pensate per tale tipo di traffico, vanno
pesantemente riviste con un investimento sull’ottica. Ad occupare
maggiormente la banda sono, attualmente, servizi ti tipo video: filmati,
immagini, film ad alta o ultra-alta definizione; tutto questo inoltre deve
tener conto del fatto che, sebbene non abbia più senso parlare di reti
fisse o mobili ma bensì di reti convergenti, il servizio deve essere ubiquo.
Dal punto di vista degli utilizzatori, risultano al momento 6 miliardi di
134
La Comunicazione N.R.& N.
Lo stato della banda larga in Italia: opportunità, ostacoli, tendenze
Status of broad-band in Italy: opportunities, threats, trends
smart-phone e telefonini convenzionali, con una tendenza ovviamente
ad incrementare la percentuale dei primi rispetto ai secondi; accanto a
questo tipo di utilizzo, ci sono altrettanti oggetti connessi alla rete, del
tipo sensori di varia natura, on-boards unit di veicoli, telecamere di
sorveglianza, etc. Complessivamente, si stima per al 2020 25 miliardi di
oggetti di vario tipo saranno connessi alla rete richiedendo e
trasmettendo dati; il tutto richiede, parallelamente allo sviluppo delle
reti wireless o wired convenzionali, dove spesso il wired serve
principalmente come back-hauling per il wired, lo sviluppo di reti a bassa
frequenza per tutti gli smart-objects che vanno via via diffondendosi, e
che necessitano di consumare meno energia possibile.
Ad oggi, le stime di consumo parlano di 40*1018 byte al mese, con
una previsione di un aumento a 140*1018 byte al mese nel 2018. Questa
premessa e questi dati servono per far capire come le reti debbano
reagire, secondo quattro direzioni principali:
1.
Evoluzione dell’accesso, con passaggio necessario alla fibra
ottica, senza pensare ad un pay-back time di breve termine (15
anni come minimo per gli investimenti necessari ad una rete
sufficientemente future-proof).
2. Continuo sviluppo sui back-bone delle reti, necessari a
supportare la capacità erogata dagli accessi, ma anche finalizzata
a contenere la latenza, che si deve mantenere al di sotto dei
10ms per una effettiva connessione a 100Mb/s end-to-end;
obiettivo di Italtel è portarla a 1 ms nl 2020.
3. Cloud computing, cui vanno demandate molte delle funzioni di
intelligenza delle reti anziché lasciarle su hardware embedded
dedicato, in funzione di un utilizzo più articolato che nasce
dall’Internet of Things.
4. Semplificazione della rete, allo scopo di ridurre il costo per unità
di traffico, per ridurre il tempo di ritorno dell’investimento;
diventa necessario quindi sviluppare il backbone ad un solo
layer, senza più separazione tra layer ottico e layer IP, per
ridurre gli elementi di rete.
Il ruolo pubblico diventa fondamentale come garante della
universalità, in termini di copertura e di offerta di servizi, dei progetti di
diffusione del broadband, ed in tal senso si colloca l’invito a Raffaele
Tiscar. Dal punto di vista dell’infrastruttura, la partecipazione dello stato
nella posa di nuova fibra ottica è fondamentale in quanto il 70% dei costi
di posa è da imputarsi ad opere civili; inoltre, un indirizzo pubblico è
essenziale per recuperare una politica industriale che in questi anni è
stata spesso assente, laddove non abbia addirittura portato ad uno
smantellamento delle industrie italiane del settore, inteso in senso vasto
includendo tutti i fornitori di servizi digitali.
La mano pubblica è pertanto essenziale sia per generare il volano
economico che dia finalmente inizio al processo, sia in termini di
indirizzamento per il medio/lungo periodo. E’ proprio di maggio, pochi
135
S.Abate, R.Scopigno, R.Gaudino
giorni prima dello svolgimento del simposio, l’annuncio da parte del
governo dell’intenzione di contribuire con 6 miliardi di euro per
supportare lo sviluppo della larga banda, a supporto di un modello in cui
la Cassa Depositi e Prestiti tramite Metroweb proceda al cablaggio di
grandi città in collaborazione con operatori privati, come a Milano con
Fastweb; contestualmente, inoltre, Telecom Italia ha annunciato
l’intenzione di intervenire su 40 grandi città, seppur già sia proprietaria
della capillare rete in rame.
L’intervento di Raffaele Tiscar si è aperto con due osservazioni di
natura prettamente politica: la prima ha fatto notare come l’attuale
governo sta operando nel campo delle telecomunicazioni, in particolare
dal punto di vista normativo, con una visione di lungo respiro, che
travalica la durata del mandato elettorale; la seconda ha viceversa
evidenziato come la situazione delle reti italiane stia ancora scontando
una privatizzazione in toto di Telecom Italia, senza separare
infrastruttura e servizi come invece è stato più sapientemente fatto per,
ad esempio, il sistema di distribuzione dell’energia elettrica. A questo
modo, l’operatore si è trovato fortemente indebitato per acquisire
anche la rete, ed pertanto impossibilitato ad adeguarla negli anni.
Negli anni successivi alla privatizzazione di Telecom Italia, anche per
questioni di conflitto di interessi, non è poi stato fatto alcun intervento
significativo (economico o normativo) di natura pubblica sulle
infrastrutture per telecomunicazioni, e la somma di tutti questi fattori
porta l’Italia al suo attuale imbarazzante ranking a livello mondiale per
quanto riguarda lo sviluppo della rete. In un contesto a livello mondiale
in cui ovunque il detentore della rete è principalmente pubblico, l’Italia è
andata in controtendenza pagandone le conseguenza, poiché l’orizzonte
temporale su cui ragiona un operatore privato non è compatibile con
investimenti di miliardi di Euro; è interessante notare come sia
l’intervento tecnologico di Pileri, sia quello politico di Tiscar, abbiano
fortemente messo l’accento su questo argomento.
Avendo consapevolezza del fatto che la partita si gioca non sul
raggiungimento degli obiettivi al 2020 ma richiede una strategia molto
più future-proof poiché il digital-divide è una barriera mobile, a livello
centrale è stata stimata la necessità di un investimento di circa 12
miliardi di Euro per un aggiornamento di carattere prospettico sulla
infrastruttura (sostanzialmente sostituendo l’intera rete in rame con una
rete in fibra ottica), mentre gli obiettivi al 2020 potrebbero
probabilmente essere raggiunti con investimento molto più contenuto
sulla tecnologia.
E’ questo il vero volano dello sviluppo economico, senza il quale non
ci sarà alcuna ricaduta industriale; il governo ha pertanto scelto di
investire 2 miliardi dai fondi strutturali europei e 5 miliardi dai fondi di
sviluppo e coesione per l’infrastruttura in fibra ottica, il tutto avendo
cura di non introdurre alcuna turbativa di mercato in un settore
liberalizzato. Altre azioni mirate, in corso, sono:
136
La Comunicazione N.R.& N.
Lo stato della banda larga in Italia: opportunità, ostacoli, tendenze
Status of broad-band in Italy: opportunities, threats, trends
•
•
•
accurata analisi del territorio, diviso in 94000 aree, di cui è
necessario conoscere il numero di unità abitative e lo stato
dell’infrastruttura, per poter calibrare in modo ottimale gli
investimenti;
realizzazione del catasto delle infrastrutture;
semplificazione degli iter autorizzativi e modalità di realizzazione
delle reti (micro-trincee, posa aerea e fronte edifici, etc.).
Maurizio Gattiglio, in quanto presidente di EFFRA e quindi come
rappresentante di grosse aziende manifatturiere europee, non ha
portato il punto di vista di un esperto piuttosto che di un attore attivo
del settore, bensì quello di potenziali utilizzatori della banda ultra-larga
che potrebbero trarre notevoli benefici in termini di innovazione nel loro
processo produttivo, a patto ovviamente di sapersi innovare e non solo
limitarsi a connettersi al servizio. Una vera banda ultra-larga è vista
come fattore abilitante per dare luce ad un nuovo paradigma produttivo,
che vede non più lo spostamento di prodotti finiti, ma lo spostamento,
se necessario, delle materie prime e la trasmissione di
progetti/indicazioni/istruzioni/controlli per trasformare tali materie in
prodotti quanto più vicino possibile all’acquirente finale, con una
evidente ottimizzazione di costi e tempi, e riduzione di inquinamento.
Sarà veramente questa la manifattura 2.0?
Reti ottiche di
standardizzazione
accesso:
stato
della
tecnologia
e
della
In questa sezione si presenterà una classificazione delle soluzioni
tecnologiche che sono ad oggi disponibili per implementare reti di
accesso basate su fibra ottica, e successivamente si proporrà una breve
discussione dei principali pregi e difetti di ciascuna delle soluzioni.
Una prima importante classificazione è relativa al punto in cui viene
terminata la connessione della fibra ottica dal lato dell’utente finale. A
livello mondiale, sono utilizzate in larga scala, con ad oggi milioni di
installazioni per ciascuna delle possibilità, le seguenti soluzioni:
•
FTTH (Fiber to the Home): si tratta di soluzioni in cui la fibra
ottica è portata direttamente all’unità abitativa dell’utente
finale, sostituendo completamente il tradizionale collegamento
su doppino telefonico in rame. In sostanza, la fibra ottica viene
terminata all’interno dell’appartamento di ciascun utente in un
apposito Modem con ingresso ottico, che sostituisce
completamente l’attuale modem ADSL. Le soluzioni trasmissive
FTTH possono già oggi arrivare a bit rate per utente
estremamente elevate, dell’ordine di 1 Gbit/s per utente. In
generale, nei paesi dove le soluzioni FTTH sono già
implementate il bit rate massimo è limitato ad oggi da questioni
137
S.Abate, R.Scopigno, R.Gaudino
•
commerciali, ma la banda potenzialmente disponibile sulla fibra
è intrinsecamente estremamente elevata (sino a decine di Gbit/s
per fibra)
Soluzioni ibride fibra+rame in cui il tradizionale collegamento in
doppino telefonico in rame che parte dalla centrale viene
sostituito dalla fibra ottica sino ad un punto intermedio. In
questo modo, grazie al fatto che il collegamento che rimane in
rame è molto più corto rispetto alle attuali reti di accesso
tradizionali, i massimi bit rate ottenibili sono più alti rispetto a
quelli degli attuali modem ADSL su rete tradizionale.
Le performance trasmissive che si possono ottenere
dipendono fortemente dalla tecnologia utilizzata sulla tratta
residua in rame e dalla sua lunghezza, ma tipicamente oggi le
reti ibride possono dare bit rate per utente dai 30 Mbit/s fino ai
100 Mbit/s. Tipicamente le soluzioni ibride sono implementate
secondo le seguenti architetture:
o
o
FTTCab (Fiber to the Cabinet): il collegamento in fibra
ottica che parte dalla centrale è terminato nei cosiddetti
“armadi di strada” (Street Cabinet), all’interno dei quali
opportune schede elettroniche interfacciano il
collegamento in fibra ottica con tutti i pre-esistenti
doppini telefonici, che dunque non vengono ad essere
rimossi ed anzi continuano ad essere parte integrante
della rete di accesso.
FTTB (Fiber to the Building): soluzioni analoghe alla
precedente, in cui però la fibra viene portata sino agli
edifici, e il punto di conversione da ottico ad elettrico è
tipicamente posto in un armadietto nelle cantine dei
palazzi.
Le soluzioni ibride permettono di riutilizzare parte dell’infrastruttura
esistente in rame con il conseguente principale vantaggio di non dover
implementare nessuna opera edile all’interno dei palazzi, operazione
solitamente molto onerosa in termini economici, ma anche dal punto di
vista degli accordi con i proprietari degli edifici stessi, in particolare nelle
realtà europee caratterizzate da condomini con un numero molto
elevato di proprietari.
Di conseguenza, le soluzioni ibride FTTCab (e similari) hanno un costo
iniziale inferiore alle soluzioni ottiche “pure”, cioè all’FTTH, in tutte le
soluzioni in cui si deve sostituire la rete in rame già esistente (diverso il
discorso per eventuali costruzioni ex-novo di nuovi quartieri, dove la
differenza di costo iniziale tra soluzioni ibride e soluzioni FTTH è
marginale).
Le soluzioni ibride presentano tuttavia due principali svantaggi
rispetto dalla soluzione FTTH. In primo luogo, il bit rate massimo che si
può ottenere nelle soluzioni FTTH è molto più elevato rispetto a quello
138
La Comunicazione N.R.& N.
Lo stato della banda larga in Italia: opportunità, ostacoli, tendenze
Status of broad-band in Italy: opportunities, threats, trends
delle soluzioni ibride (parecchi Gbit/s nel caso FTTH da confrontarsi con
30-100 Mbit/s nelle soluzioni ibride).
Questo è un punto fondamentale: si consideri infatti che le reti di
accesso fisse hanno un tempo di vita lunghissimo. Ad esempio l’attuale
rete in rame è sostanzialmente la stessa da almeno 70 anni; sarebbe
dunque auspicabile che il passaggio ad una nuova rete ottica abbia un
tempo di vita simile, visto il notevolissimo costo di questo tipo di
“rivoluzione” tecnologica. Tuttavia, su archi temporali così lunghi, i 30100 Mbit/s per utente forniti delle attuali soluzioni ibride potrebbero
risultare non più sufficienti mentre le decine di Gbit/s per utente
potenzialmente disponibili nelle soluzioni FTTH sembrano invece essere
assolutamente soddisfacenti anche nel lunghissimo termine.
Un altro svantaggio delle soluzioni ibride rispetto alle soluzioni FTTH
è quello di richiedere il posizionamento di apparati optoelettronici
sofisticati nei Cabinet (di strada o di edificio) cioè in luoghi non
particolarmente protetti da agenti atmosferici o vandalici.
Per completare questa panoramica architetturale, si segnala ancora
che per le soluzioni FTTH è spesso utilizzata la tecnologia delle “Passive
Optical Networks” (PON) la cui configurazione è riportata in figura 3. In
sostanza, un gruppo di utenti (tipicamente da 32 a 64) è collegato ad una
struttura ottica ad albero che parte dalla centrale con una singola fibra,
la quale viene poi suddivisa in un numero adeguato di collegamenti
terminali da uno o più componenti ottici denominati “optical splitters”
(completamente passivi, da cui il nome di “Passive Optical Networks”).
Le architetture PON sono solitamente considerate vantaggiose nelle
soluzioni FTTH implementate su larga scala in quanto consentono di
ridurre notevolmente il numero di terminazioni ottiche in centrale (di un
fattore che dipende dal numero di utenti per ogni PON, e dunque
tipicamente per il sopracitato valore da 32 a 64) rispetto alle soluzioni
(denominate solitamente P2P, da point-to-point) in cui ci sia una fibra
dedicata per ciascun utente finale. Le soluzioni PON sono oggi installate
in milioni di “pezzi” all’anno in alcune nazioni, quali in particolare in US,
Giappone, Cina e Korea.
La diffusione delle soluzioni PON ha spinto una evoluzione
tecnologica massiccia in questo settore: ad oggi, sono tipicamente
installate le soluzioni degli standard ITU-T GPON o IEEE EPON (in grado
di fornire fino a 2.5 Gbit/s su ciascuna PON), ma sono già commerciali le
soluzioni in standard ITU-T XGPON e IEEE 10GE-PON (fino a 10 Gbit/s su
ciascuna PON) e sono in fase di standardizzazione le cosiddette soluzioni
NG-PON2, che permetteranno di aumentare ulteriormente il bit rate per
PON (oltre a 40 Gbit/s per PON).
139
S.Abate, R.Scopigno, R.Gaudino
L’accesso radio a banda larga: 2000-2015
Le tecnologie a radio frequenze sono andate incontro ad un processo
esplosivo - persino disordinato - in questi anni.
Per capire quanto la situazione sia fluida, può essere utile iniziare con
il guardare retrospettivamente ai primi anni 2000: in Italia e non solo, le
tecnologie radio venivano utilizzate in modo estremamente ridotto e
semplicistico rispetto ad oggi.
Si annoveravano le seguenti forme di accesso radio.
•
•
•
GSM e, in Italia solo dopo la gara pubblica del 2000, tecnologie
UMTS (licenze costate circa 2.300 M€ ad ogni gestore).
Inizialmente UMTS, prima dell’avvento di HSxPA, erogava
connessioni inferiori al Mb/s.
Tecnologie radio per l’accesso ma non verso l’utente finale (per
esempio tecnologie punto-multipunto per interconnettere aree
disagiate o per dare connettività di altro tipo a complessi urbani
e industriali, ovvero contro il digital divide.
WiFi, inizialmente in Italia nella sola frequenza portante a 2.4
GHz, banda ISM non soggetta a licenza ma congestionata. Per
giunta, lo standard allora usato era IEEE 802.11b, in grado di
erogare non più di 11 Mb/s half-duplex (da condividere tra tutti
gli utenti, al lordo delle inefficienze di protocollo). Inoltre le reti
IEEE 802.11 erano pensate per solo uso privato.
Le tre tecnologie, molto diverse tra loro, rivelano comunque la realtà
di quegli anni: in primis il concetto stesso di banda larga non si sposava
molto lo stato dell’arte di allora del wireless; si puntava ancora molto
sulle tecnologie in cavo di rame (xDSL) che permettevano di raggiungere
l’utente finale con una larghezza di banda difficilmente eguagliabile
(grazie ai concetti di multicast in quegli anni arrivava in Italia la
televisione su ADSL).
Inoltre l’erogazione di servizi wireless all’utente finale era una
prerogativa delle tecnologie licensed. Infine, tutte le tecnologie wireless
– a partire da UMTS (rispetto al GSM) – stavano tacitamente migrando
verso i paradigmi di connessione dati (reti all-IP con capacità di
erogazione di servizi voce e non più il contrario).
Da allora sono passati solo 15 anni da allora e sia tecnologicamente, sia
normativamente, si è realizzato un salto che può essere riassunto nei
seguenti fatti, ancora una volta solo apparentemente frammentari:
•
Il numero di soluzioni tecnologiche per la connettività wireless è
letteralmente esploso.
o
140
UMTS è stato realizzato appieno, pervenendo alla
successiva generazione mobile (LTE) e all’introduzione di
pico e femto-celle.
La Comunicazione N.R.& N.
Lo stato della banda larga in Italia: opportunità, ostacoli, tendenze
Status of broad-band in Italy: opportunities, threats, trends
o
o
o
o
o
•
Molte delle tecnologie wireless sono pensate per uso privato –
praticamente tutte, ad eccezione di LTE, WiMax e White Space.
Questo implica che una fotografia del wireless in Italia non possa
esimersi dallo stimare le innumerevoli reti private che sono
presenti sul territorio.
o
o
•
Per la connettività su area regionale è stato introdotto il
WiMax (IEEE 802.16).
Il Wi-Fi è stato liberalizzato sia nella banda a 2.4 GHz che
a 5 GHz, con soluzioni dapprima a 54 Mb/s e poi (grazie
al MIMO, ovvero alle antenne multiple) fino ad oltre 5
Gb/s (IEEE 802.11ac).
Nelle bande libere sono state proposte anche soluzioni
molto eterogenee per reti di sensori (ZigBee e simili –
IEEE 802.15.4) e per la connessione di dispositivi a banda
larga (Bluetooth, IEEE 802.15.1 con varianti low energy).
Si sta razionalizzando lo spettro lasciato libero con lo
switch-over della televisione da analogica a digitale: vi
sono soluzioni basate su WiFi per bande elevate in aree
non ampie (IEEE 802.11af, noto anche come White-Fi) o
soluzioni alternative, come da IEEE 802.22 (pensate per
fornire alcuni Mb/s di connessione fino a 30 km di
distanza dalla base station).
Infine stanno emergendo nuove soluzioni nelle
microonde (IEEE 802.11ad e IEEE 802.11ay) e con
l’impiego di nuove portanti (significativo il caso di Li-Fi o
Light-Fidelity – IEEE 802.15.7 - che impiega la
modulazione di luce per erogare accesso a corto raggio).
Inoltre il confine stesso tra rete licensed e unlicensed è
sfumato: gli operatori stanno studiando soluzioni per
l’autenticazione unica tra Mobile e Wi-Fi (come nel caso
di Passpoint o Hotspot 2.0). Tali soluzioni offrono la
possibilità di scaricare (off-load) parte del traffico
cellulare su rete Wi-Fi, il che risulta particolarmente utile
in termini di risparmio per i Mobile Virtual Network
Operator che affittino la Radio Access Network.
Per quanto riguarda l’accesso Wi-Fi è spesso offerto non
a pagamento ma come commodity. Anche in Italia, dopo
il “Decreto del Fare”, è venuto meno l’obbligo di
identificazione degli utenti da parte degli esercizi
commerciali che offrano il servizio gratuito di
navigazione.
Infine, da una prospettiva meno tecnologica, stanno emergendo
nuove tendenze di servizio che moltiplicano esponenzialmente
l’esigenza di connessione. Ricordiamo:
141
S.Abate, R.Scopigno, R.Gaudino
o
o
o
Esplosione dei Social Networks e, per contro, dei
terminali mobili che offrono molteplici interfacce radio e
applicazioni (app) specifiche per la connettività sociale o
per l’e-commerceo per soddisfare il dilagante modello di
archiviazione in cloud (che garantisce il back-up dei
contenuti del terminale ma implica traffico aggiuntivo).
Paradigma di Internet delle Cose (Internet of Things o
IoT): tutti gli oggetti possono essere connessi,
virtualizzati e controllati da remoto.
Il tipo di connettività (Wi-Fi, WiMax, LTE) sta diventando
sempre più trasparente all’utente che, semplicemente,
risulta connesso e, auspicabilmente, in modo ubiquo.
Allo stesso modo le reti che condividono la stessa banda
(per esempio gli white space), stanno acquisendo la
capacità di auto-configurarsi per limitare l’interferenza.
Ovvero: le reti wireless stanno diventando più flessibili
(cognitive).
Queste sono le tendenze generali che, per lo più, l’Italia condivide con il
resto di Europa.
Poi ci sono le peculiarità di sviluppo del singolo stato: siccome la
situazione è molto fluida, possiamo fornire alcune istantanee attraverso
fatti concreti che riguardano il nostro Paese.
•
In Italia, circa 2.200 M€ (+22% rispetto al 2013) derivano dalla
vendita di smartphone e telefoni cellulari, a detta
dell’associazione italiana retailer elettrodomestici specializzati
(AIRES - report sul mercato nel 2014).
o
o
•
Il numero di Access Points WI-Fi (AP) disponibili in Italia è
difficile da stimare ma ci sono due fatti da menzionare:
o
142
Secondo il sito wearesocial.it, in Italia, su una
popolazione di quasi 61 milioni, gli utenti Internet attivi
sono 36.6 mil., gli account social attivi 28 mil., di cui 22
attivi su mobile; le connessioni mobili sono oltre 82 mil.
(più di un dispositivo a testa, come è noto, e oltre 2.5
volte la media mondiale). Inoltre, il tempo medio speso
su Internet tramite telefonino è di oltre 2 ore, contro le
4 ore spese tra PC e tablet (quindi circa metà in wireless
considerando laptop e tablets). Anche circa la metà
dell’e-commerce si attesta su dispositivo mobile.
Ovvero: gli Italiani sono voraci di connettività e di servizi
elettronici… purché funzionino.
Sempre più utenti acquisiscono un AP e lo configurano
autonomamente per costruirsi la propria rete in grado di
erogare servizi integrati in casa propria.
La Comunicazione N.R.& N.
Lo stato della banda larga in Italia: opportunità, ostacoli, tendenze
Status of broad-band in Italy: opportunities, threats, trends
o
•
Ci sono diverse iniziative che stanno cavalcando il
“decreto del fare” per fornire connettività libera Wi-Fi
sul territorio nazionale (giusto per citare alcuni esempi
www.freeitaliawifi.it con provincia di Roma, Regione
Sardegna e Venezia; retegratuita.it che sta crescendo
con hotspot presso commercianti in Liguria).
Rete mobile: non è facile avere statistiche elaborate ma basta
navigare sul sito crowd-sourced opensignal.com per osservare i
dati di copertura 2G, 3G e 4G di ogni posizione. Quello che si
vede è che lo sviluppo di rete mobile è costante: ormai le grandi
città sono coperte in LTE e la connettività UMTS ha raggiunto la
quasi totalità delle aree abitate.
o
o
Ha avuto meno fortuna, in Italia, il WiMax. La rete è
stata
sviluppata
ma
senza
mai
decollare
completamente; degno di nota il fatto che la stessa
Linkem (già Megabeam), dopo aver coperto il 40% del
territorio nazionale e aver vinto la gara WiMax in 13
regioni, abbia intrapreso l'attivazione LTE su frequenze
3.5 GHz (frequenze proprietarie) con una campagna di
sostituzione delle antenne WiMax Outdoor.
Per quanto concerne le tecnologie White Space… è
ancora una scommessa.
143
S.Abate, R.Scopigno, R.Gaudino
In breve: si sta scommettendo molto in Italia sull’accesso radio e questo
trova conforto nei dati di sviluppo di rete e di vendita dei dispositivi. Sono
stati corretti alcuni errori del passato – come per l’accesso Wi-Fi - e
questo sta ulteriormente agevolando la “Internet-reattività” degli
Italiani.
Questo non significa che tutti i tipi di connettività siano destinati al
successo: alcune reti non hanno rispettato le aspettative e il mercato ha
decretato un parziale flop. Per il futuro varrà la pena continuare a
monitorare le nuove soluzioni, soprattutto in termini di loro vantaggi
rispetto alle soluzioni esistenti e in termini di servizi erogati all’utente
finale – non solo in termini di competitività (si possono prefigurare casi
molto diversi: per esempio l’uso di white spaces per smart metering e per
la connessione id oggetti IoT senza richiedere nuove SIM; oppure
l’impiego di architetture mobile per la connettività seamless e sicura alle
proprie “cose” IoT).
Conclusioni
La diffusione della banda larga in Italia è drammaticamente in ritardo
rispetto alle buone premesse di inizio secolo; tale ritardo è sicuramente
penalizzante dal punto di vista della crescita sia in termini economici, sia
in termini sociali. Tuttavia, un programma massiccio di investimenti
sotto impulso pubblico, in termini normativi, di visione e di incentivi,
visto lo stato attuale della tecnologia, potrebbe portare, ad avere una
rete realmente future-proof, a patto di non limitarsi a puntare agli
obiettivi del 2020 ma ragionando su un ritorno dell’investimento con
una tempistica anche decennale.
144
La Comunicazione N.R.& N.
Lo stato della banda larga in Italia: opportunità, ostacoli, tendenze
Status of broad-band in Italy: opportunities, threats, trends
Figura 1. Numero di case
connesse in fibra ottica, per
paese, a fine 2011. Sorgente:
FTTH Council.
Figura 2. Percentuale di utenti
connessi in fibra ottica, per
paese, a fine 2011. Sorgente:
FTTH Council.
145
S.Abate, R.Scopigno, R.Gaudino
Optical
modem
Optical
modem
Optical
Splitter
Centrale
Fibra ottica
condivisa tra N
utenti
Optical
modem
Optical
modem
Figura 3. Esempio di
architettura PON
Figura 4. Adattamento
delle tecnologie radio ai
nuovi servizi.
146
La Comunicazione N.R.& N.
La Comunicazione N.R.&N.
Roberto Marani
Anna Gina Perri
Dipartimento di
Ingegneria Elettrica e
dell’Informazione,
Laboratorio di Dispositivi
Elettronici, Politecnico di
Bari
Una introduzione alla tecnologia
RFID
An introduction to RFID technology
Sommario: In questo articolo, dopo una descrizione del
principio di funzionamento e della struttura base della tecnologia
RFID, vengono esaminate alcune tra le principali applicazioni di
tale tecnologia, con riferimento alle attuali ricerche riguardanti
ulteriori realizzazioni ed ai problemi ad esse connessi.
Abstract: In this paper, after a description of the operating
principle and basic structure of RFID technology, we present some
of the main applications of this technology, with reference to the
current research regarding further applications and problems
related to them.
1. Introduzione
L’acronimo RFID (Radio Frequency Identification) sta ad indicare la
funzione di identificazione di oggetti, persone, ecc. attraverso una
trasmissione di segnali a radiofrequenza.
L’identificazione implica l’assegnazione di un’identità univoca ad un
oggetto che consenta di distinguerlo in modo non ambiguo. Il fine
principale di questa tecnologia, pertanto, è quello di assumere, da
parte di un “identificatore”, varie informazioni su oggetti, animali o
persone, per mezzo di piccoli apparati radio, associati ai medesimi.
L’assunzione di informazioni è relativa ad operazioni di ricerca,
identificazione, selezione, localizzazione spaziale e tracciamento.
Identificatore ed identificato comunicano mediante segnali a
radiofrequenza, quindi senza necessità di contatto fisico (a differenza,
ad esempio, delle carte a banda magnetica) e senza che gli apparati
siano né visibili (a differenza, ad esempio, dei codici a barre), né in
visibilità reciproca (non-line-of-sight).
147
R. Marani, A. G. Perri
L’antenato degli RFID è comunemente riconosciuto nei sistemi
“Identification Friend or Foe (IFF)”, sviluppati in Inghilterra durante la
seconda guerra mondiale. Il sistema IFF a bordo degli aerei alleati,
rispondeva, se interrogato, identificando così gli aerei alleati e
distinguendoli da quelli nemici.
Negli ultimi anni invece sono passati dall’essere una tecnologia
quasi sconosciuta ad essere una delle soluzioni più diffuse data la
grande varietà di applicazioni a cui si prestano [1].
A differenza dei più comuni codici a barre, le etichette RFID (tag)
supportano un ben più grande set di ID unici rispetto ai codici a barre.
Inoltre possono memorizzare informazioni aggiuntive come il
“produttore” o il “tipo di prodotto” oltre a poter misurare fattori
esterni che indicano lo stato dell’oggetto come la temperatura o
l’acidità [2].
Come mai allora questa tecnologia ha impiegato più di 50 anni per
giungere a questo livello di diffusione? Il motivo principale è stato il
costo, avendo dovuto competere con il più consolidato ed economico
metodo dei codici stampati. Attualmente esistono numerose soluzioni
commerciali a costi contenuti.
In questo articolo, dopo una descrizione del principio di
funzionamento e della struttura base della tecnologia RFID, vengono
esaminate alcune tra le principali applicazioni di tale tecnologia, con
riferimento alle attuali ricerche riguardanti ulteriori realizzazioni ed ai
problemi ad esse connessi.
2. La tecnologia RFID
Un sistema RFID è composto da etichette denominate tag e
lettori. Le informazioni sono memorizzate nei tag che le trasmettono
poi al lettore. Ogni lettore è in grado di ricevere dati da differenti tag
simultaneamente senza che tra loro ci sia un contatto visivo.
Successivamente invia tali dati ad un server per essere processati e
analizzati.
Un tag RFID è un particolare microchip con un’antenna
integrata per comunicazioni wireless. L’involucro è generalmente
una lamina plastica ma spesso anche una capsula di vetro, come
mostrato in Fig. 1.
148
La Comunicazione N.R.& N.
Una introduzione alla tecnologia RFID
An introduction to RFID technology
Figura 1. Vari formati di
etichetta RFID
I diversi sistemi RFID sono classificati in due categorie: sistemi
attivi e sistemi passivi.
Quelli attivi richiedo una fonte di alimentazione, pertanto possono
essere connessi a una rete che li alimenta, oppure possono utilizzare
dell’energia immagazzinata in una batteria integrata.
D’altra parte però, il tempo di vita di tali tag è limitato dalla
quantità di energia immagazzinabile, in genere calcolata in base al
numero di letture che il dispositivo deve sostenere.
Un esempio di questo tipo di tag è proprio il transponder che si
trova sugli aeroplani per l’identificazione della nazione d’origine. In
ogni caso, è proprio la batteria ad incidere su costo, dimensioni e
durata di questi dispositivi, rendendoli poco adatti al mercato di
consumo.
I sistemi RFID passivi risultano di maggior interesse in quanto non
richiedono batterie e quindi manutenzione. Pertanto i tag godono di un
indefinito tempo di vita e sono di dimensioni abbastanza ridotte da
adattarsi a più pratiche etichette adesive. In generale questo tipo di tag
è costituito da tre parti: un’antenna, un chip a semiconduttore
connesso all’antenna, e qualche tipo di involucro o supporto. In questo
caso è il lettore ad essere responsabile dell’alimentazione e della
comunicazione con il tag. L’antenna cattura l’energia emessa dal
lettore e risponde inviando l’ID del tag (il tutto coordinato dal chip).
Esistono due differenti approcci progettuali per il trasferimento
dell’energia dal lettore al tag: a induzione magnetica e ad onda
elettromagnetica.
Entrambe le tecniche si basano sulle proprietà elettromagnetiche
associate a un’antenna RF. Esistono diverse tecniche di modulazione
che sfruttano segnali di campo vicino o campo lontano per trasmettere
149
R. Marani, A. G. Perri
e ricevere dati. Nel contempo entrambi i tipi di segnali possono
trasferire sufficiente energia da sostenere queste operazioni,
tipicamente tra i 10 μW e 1 mW, in base al tipo di tag [2].
3. Struttura di un sistema RFID
Un sistema RFID prevede l’interazione di tre elementi: uno o più
tag RFID (detti anche transponder), un lettore, un sistema di backend
(sistema per l’elaborazione dei dati), così come mostrato in Fig. 2 [3].
Il sistema di backend può essere costituito sia da un vero e proprio
PC sia da un microcontrollore programmato per operazioni specifiche.
Il lettore invece comprende un apparato per la ricezione e l’invio
dei segnali da e verso il tag, e un microcontrollore che legge e verifica
le informazioni trasmesse. Tutti i dati sono poi memorizzati in un
database.
I tag passivi si differenziano in base alla banda di frequenze in cui
lavorano. I tag a bassa frequenza (124 KHz ÷ 135 KHz) presentano un
raggio di azione fino ad 1 metro, quelli ad alta frequenza (13.56 MHz)
presentano un raggio di azione più ampio ma ancora limitato rispetto ai
tag UHF (860 MHz ÷ 960 MHz), che hanno il maggior raggio di azione
potendo operare fino a 10 metri.
Un lettore RFID è un dispositivo attivo, portatile o fisso, in grado di
connettersi con uno o più tag contemporaneamente, e di trasferire le
150
Figura 2. Schema base di un
sistema RFID
La Comunicazione N.R.& N.
Una introduzione alla tecnologia RFID
An introduction to RFID technology
informazioni ad un server. Esso è costituito da un’unità di controllo, un
modulo a radiofrequenza e un’unità di accoppiamento con i tag. Dopo
aver attivato il tag inviando un segnale di richiesta, e di alimentazione
per i tag passivi, modulano un segnale con i dati da inviare al tag e
demodulano quello con i dati ricevuti dal tag.
Un tag RFID generalmente è diviso in due sezioni: la prima, che
provvede alla comunicazione con il lettore, e la seconda, che
memorizza l’ID e altri tipi di informazioni.
Quando il tag passa attraverso il raggio d’azione del lettore, questo
rileva il segnale di risposta generato dal tag, invia così un impulso di
sincronizzazione, che assicura l’alimentazione per un tag passivo e la
connessione tra lettore e tag, ed infine elabora le informazioni
trasmesse.
Caratteristiche come potenza e larghezza di banda, variano da
paese a paese in base alle normative vigenti.
Spesso, per la loro natura omnidirezionale, vengono largamente
utilizzati tag con antenne a mezza lunghezza d’onda.
La Fig. 3 rappresenta la tipica struttura di una etichetta RFID su
substrato plastico e antenna a bobina planare.
Figura 3. Tipica struttura di
una etichetta RFID
Tutte queste componenti base di un sistema RFID sono combinate
in maniera differente, con qualche piccola differenza, in tutte quelle
applicazioni che prevedono il tracciamento di un oggetto e, in base alla
tipologia, si sceglie se utilizzare un tag passivo, semi-passivo o attivo.
151
R. Marani, A. G. Perri
Per quanto riguarda i lettori il processo è simile, data la tipologia
dell’applicazione per cui si sta realizzando il sistema, si decide se è
meglio l’uso di lettori fissi, come per esempio il caso di un controllo di
accessi, o di lettori portatili, come nel caso dell’organizzazione di un
inventario. Se si opta per una zona di azione con lettori fissi si tiene
conto anche di fattori quali potenza di segnale necessaria e tipo di
antenna utilizzata sia per il lettore sia per il tag.
Certamente il processo di realizzazione di tag passivi è molto
economico. Tuttavia questo si scontra con la necessità di un segnale
molto più potente e ad alta frequenza rispetto all’uso di tag di tipo
attivo. [1]
4. Principali applicazioni dei sistemi RFID
I campi di applicazione dei sistemi RFID sono numerosi, molti dei
quali si sono sviluppati negli ultimi anni [1]. Qui ci limitiamo a
descrivere le applicazioni più diffuse.
Nelle catene di montaggio [4] i sistemi RFID possono essere
utilizzati per una rapida localizzazione di veicoli in un impianto di
assemblaggio di automobili (cfr. Fig. 4). In tal modo si ottiene un netto
miglioramento del rendimento.
Nella produzione [4] il sistemi RFID può essere utilizzato in aziende
di confezionamento in combinazione con la pianificazione delle risorse
aziendali. I tag RFID vengono collocati su ciascun prodotto, in modo
tale da averne il controllo durante ogni fase e analizzare facilmente
ogni situazione (cfr. Fig. 5).
152
Figura 4. Tipica struttura di
una etichetta RFID
La Comunicazione N.R.& N.
Una introduzione alla tecnologia RFID
An introduction to RFID technology
Nei sistemi di tele-pedaggio [3] (cfr. Fig. 6) ai veicoli, dotati di un
tag RFID, che attraversano il casello, i lettori RFID fissi addebitano
automaticamente il costo del pedaggio senza così rallentare il traffico.
Figura 5. Sistema RFID in
produzione
Figura 6. Sistema RFID per
il tele-pedaggio
Nel servizio sanitario [3-5] la tecnologia RFID può far risparmiare
risorse migliorando l'efficienza del sistema ospedaliero. Le attrezzature
mediche e le cartelle dei pazienti possono essere corredate di un tag
RFID, consentendo la loro rintracciabilità.
In aziende lattiero-casearie [5] si possono utilizzare tag RFID per
tenere sotto controllo il bestiame (cfr. Fig. 7) ma anche più
semplicemente per la gestione dell’inventario e dei prodotti.
153
R. Marani, A. G. Perri
Nel controllo e nella sicurezza [6] i tag RFID (cfr. Fig. 8) possono
essere collegati a carte di identità e veicoli. In questo modo, si possono
creare delle zone protette a cui è consentito accedere al solo personale
autorizzato o ad un veicolo di entrare ed uscire.
I sistemi RFID possono essere impiegati nel controllo della
temperatura [7], così come, per la prima volta, è avvenuto in Cile,
durante il trasporto di casse di mirtilli (cfr. Fig. 9) sulla rotta per Miami
via nave e aereo. I tag RFID erano stati inseriti fra i mirtilli e la lettura
della temperatura avveniva ogni 5 minuti.
Figura 7. Sistema RFID per
il controllo del bestiame.
Figura 8. Sistema RFID per
il controllo e la sicurezza.
Figura 9. Sistema RFID per
il controllo della
temperatura
154
La Comunicazione N.R.& N.
Una introduzione alla tecnologia RFID
An introduction to RFID technology
Nella tracciatura dei prodotti [8] nelle catene di distribuzione (cfr.
Fig. 10), costituite da una serie di passaggi, i tag sono controllati da
"lettori di controllo", che interagiscono con i tag garantendo che venga
seguito il giusto percorso.
Nel monitoraggio e trasporto di container [9] la tecnologia RFID è
considerata attualmente la migliore alternativa alle tecnologie
tradizionali quali codici a barre e sistemi di riconoscimento delle
immagini. Tag RFID vengono inseriti nei container per ottimizzarne
l’organizzazione.
Nell’antitaccheggio [10] si può sfruttare la tracciabilità del RFID
per permettere ai negozianti di tener traccia degli spostamenti dei
prodotti, incluso la possibilità di far scattare un allarme in caso di furti
(cfr. Fig. 11).
Figura 10. Sistema RFID
per la tracciatura dei
prodotti.
Figura 11. Sistema RFID
per l’antitaccheggio
Nell’anticontraffazione [10] i tag RFID possono tenere sotto
controllo il contenuto di un carico, ad esempio, di medicinali. Difatti, in
caso di contraffazione, il tag registra la modifica delle proprietà del
155
R. Marani, A. G. Perri
contenuto trasmettendola quando, giunto a destinazione, viene
scansionato.
Nella sicurezza nazionale [10] tag attivi possono tenere traccia sia
degli eventuali spostamenti non autorizzati che verificare che siano
rispettati tutti i parametri di sicurezza.
In biblioteca [11], con tag RFID attaccati ai libri o contenuti nelle
tessere dei clienti, si può implementare un sistema efficiente di
tracciatura dei libri e di gestione degli iscritti (cfr. Fig. 12).
Nel passaporto elettronico [4], già abbastanza diffuso, al suo
interno è presente un chip RFID che contiene tutti i dati anagrafici, ed
eventualmente biometrici, del possessore (cfr. Fig. 13). Inoltre è
possibile memorizzare anche tutti gli spostamenti effettuati, allo scopo
di ridurre le truffe, rendere più rapido il controllo dell’immigrazione,
migliorando di conseguenza il livello di sicurezza.
Figura 12. Sistema RFID
per la tracciatura dei libri.
Figura 13. Passaporto
elettronico
156
La Comunicazione N.R.& N.
Una introduzione alla tecnologia RFID
An introduction to RFID technology
Per lo smistamento dei bagagli [6] ormai molti aeroporti utilizzano
la tecnologia RFID per rendere tale processo più dinamico e sicuro (cfr.
Fig. 14).
Nelle applicazioni biomedicali [12], con particolari tag attivi, si
possono progettare apparati RFID con funzioni di monitoraggio,
identificazione, cura di patologie legate all’uomo.
Per ottenere questi risultati, la ricerca ha orientato i propri sforzi
verso la progettazione di vere e proprie capsule di dimensioni
ridottissime con funzionalità RFID, dotate di caratteristiche
tecnologiche e di compatibilità elettromagnetica che le rendono
perfettamente compatibili all’impianto all’interno dell’organismo
umano.
La tecnologia RFID orientata alle applicazioni all’interno del corpo
umano si basa generalmente su dispositivi passivi (batteryless) e
permette di raggiungere distanze di lettura molto brevi, di solito 10 cm
o meno.
Figura 14. Sistema RFID per
lo smistamento dei bagagli
Per le applicazioni biomedicali è previsto anche lo sviluppo di
dispositivi RFID impiantabili per trasmettere vari parametri biologici o
chimici misurati all'interno del corpo. Tali dispositivi possono essere
utilizzati da chi soffre di diabete: una unità di allarme wireless,
impiantato nella regione addominale del paziente, legge
continuamente i dati di un chip sensore sensibile alla concentrazione di
glucosio nei fluidi circostanti. Recentemente si è utilizzata la tecnologia
degli RFID impiantabili per la raccolta di dati in vivo e la trasmissione
wireless di elettroencefalogrammi, acquisiti durante la registrazione su
animali.
157
R. Marani, A. G. Perri
Dal punto di vista delle applicazioni terapeutiche, sono previsti
dispositivi RFID da impianto per il monitoraggio e la manipolazione
dell’attività biologica o funzioni fisiologiche del corpo umano. Un
esempio è costituito dal monitoraggio delle funzioni cerebrali mediante
sonde impiantate, in grado di comunicare tramite un transponder
incorporato all'interno del cranio. Una serie di 16 microelettrodi di
iridio attivati (5-6 mm di lunghezza all'interno di un cluster di circa 1,8
mm di diametro), adatti per l'impianto a lungo termine nel cervello,
registra il segnale di singoli neuroni e fornisce inoltre una
microstimolazione localizzata.
Questi microelettrodi possono anche essere utilizzati
terapeuticamente. Tuttavia tali applicazioni di impianti RFID sono
ancora in fase di “proof of concept”, nel senso che i benefici di tale
tecnologia in termini di miglioramento della qualità di vita o di cura del
paziente, devono ancora essere dimostrati.
Ciononostante, l’avanzamento attuale della tecnologia è
realisticamente in grado di consentire il monitoraggio remoto delle
funzioni biologiche in un essere umano. Secondo recenti studi [12], un
sistema radio a singolo chip (comprendente l’antenna) con sensori
montati a bordo di dimensioni complessive di 100 x 100 x 1 µm3
sembra
essere
fattibile
con
la
tecnologia
disponibile.
Conseguentemente, la comunicazione wireless con piccoli impianti
RFID all’interno dell’organismo per l’acquisizione di informazioni circa
la presenza di sostanze chimiche o l’entità di determinate grandezze
fisiche nei sistemi biologici o anche la attivazione/disattivazione remota
dell’attività biochimica all’interno di una singola cellula vivente,
sembrano essere obiettivi raggiungibili.
Inoltre, utilizzando le nanotecnologie, è stato realizzato un
apparato radio FM usando un singolo nanotubo (CNT) di lunghezza
1µm e 10 nm di larghezza [12]. Questo apparato potrebbe essere
inserito all’interno di cellule umane e costituire una interfaccia di
controllo subcellulare in real-time.
Tale risultato di miniaturizzazione dei radio-chip potrebbe anche
trovare applicazione nella fabbricazione di smartdusts, cioè di piccoli
oggetti con capacità di rilevamento e comunicazione, che possono
essere massicciamente distribuiti su una certa zona per il controllo
remoto a livello biomolecolare, il cui studio di fattibilità è stato
riportato in [13].
In particolare il controllo della ibridazione delle molecole di DNA è
stato realizzato attraverso il monitoraggio del riscaldamento di nano-
158
La Comunicazione N.R.& N.
Una introduzione alla tecnologia RFID
An introduction to RFID technology
particelle di oro legate al DNA [13]. Il riscaldamento locale controllato,
ottenuto per accoppiamento elettromagnetico alla frequenza di 1 GHz,
induce la ibridazione/de-ibridazione reversibile del DNA, lasciando
relativamente inalterate le molecole circostanti. Sebbene gli effetti
fisici del riscaldamento di particelle di dimensioni nano-metriche siano
stati ancora poco esplorati e saranno sicuramente oggetto di studi
futuri, questo esperimento dimostra, per la prima volta, il controllo
diretto, per mezzo di segnali a radiofrequenza, di reazioni
biomolecolari in modo specifico e pienamente reversibile. Il controllo
remoto su tale scala sembrerebbe non alterare eventi biomolecolari,
che hanno luogo nel mezzo circostante.
5. Conclusioni e sviluppi futuri
In questo articolo, dopo una descrizione del principio di
funzionamento e della struttura base della tecnologia RFID, sono state
esaminate alcune tra le principali applicazioni di tale tecnologia.
Attualmente si stanno conducendo diverse ricerche riguardanti
ulteriori applicazioni di tale tecnologia, soprattutto in campo
meccanico e biomedico
È allo studio, ad esempio, la realizzazione di un sensore di
deformazione superficiale wireless [14-15], che vede congiungersi due
innovativi campi dell’elettronica: la tecnologia RFID e quella dei
nanotubi di carbonio. Come è noto, i comuni estensimetri basati su
materiali metallici sono in grado di misurare deformazioni della
struttura superficiale di un oggetto; tuttavia, necessitando
collegamenti fisici con l’elettronica di lettura, risultano sconvenienti per
alcune applicazioni, come ad esempio la misurazione di vibrazioni.
Quindi è sorta la necessità di sviluppare sensori wireless che possano
lavorare in ambienti ostili e aiutino a rilevare le deformazioni anche a
distanza senza la necessità di collegarsi fisicamente al sensore. Sulla
base di questa idea, un film di CNT può essere usato come
estensimetro, in quanto si è osservata [14] una relazione lineare tra la
sollecitazione applicata e la variazione della resistenza elettrica del film
indotta dalla deformazione, ottenendo così un prototipo di sensore di
deformazione wireless passivo a film sottile per deformazioni
localizzate.
159
R. Marani, A. G. Perri
Bibliografia e webgrafia di riferimento
[1] K. Singh; G. Kaur: “Radio Frequency Identification: Applications
and Security Issues”; Nature, vol. 354(56), 1991, pp. 56-58.
[2] R. Want: "An introduction to RFID technology", IEEE Pervasive
Computing, vol. 5(1), 2006, pp. 25-33.
[3] Q. Xiao, T. Gibbsons, H. Lebrun, "RFID Technology, Security
Vulnerabilities, and Countermeasures”, 19.mo capitolo del libro
Supply Chain the Way toFlat Organisation, Edito da Y.Huo e F. Jia,
Intech, ISBN 978-953-7619-35-0, 2009, pp. 357-382.
4] Arun M. Nambiar: "RFID Technology: A Review of its
Applications”, Proceedings of World Congress on Engineering and
Computer Science, 2009, pp. 1-7.
[5] S.F. Wamba, A. Wicks: "RFID deployment and use in the dairy
value chain: Applications, current issues and future research
directions”, in Technology and Society (ISTAS), 2010 IEEE
International Symposium on, 2010, pp. 172-179.
[6] K. Ahsan, H. Shah, P. Kingston: "RFID Applications: An
Introductory and Exploratory Study”, International Journal of
Computer Science Issues, vol. 7(3), 2010, pp.1.
[7] R. Mockler, J. Hayes, M. Gartenfield: "RFID and its Applications
in Management”. Proceedings of E-Leader Budapest, 2010, pp. 1
17.
[8] K. Ouafi, S. Vaudenay: "Pathchecker: An Application for Training
Products in supply Chains”, in Workshop on RFID Security, 2009,
pp. 1-14.
[9] Z. Cheng, C. Wensheng: "A Study on Application of RFID to
Container Transportation System”, in 2007 International
Conference on Management Science and Engineering, 2007.
[10]A. Rida, R. Vyas, T. Wu, RongLin Li, M.M. Tentzeris:
"Development and Implementation of Novel UHF Paper-Based RFID
Designs for Anti-counterfeiting and Security Applications”, in Anti
counterfeiting, Security, Identification, 2007 IEEE International
Workshop, pp. 52-56.
[11] AP. Renold, R.R. Josh: "An internet based RFID library
160
La Comunicazione N.R.& N.
Una introduzione alla tecnologia RFID
An introduction to RFID technology
management system”, in Information & Communication
Technologies (ICT), 2013 IEEE Conference, pp. 932-936.
[12] H. Aubert: “RFID Technology for Human Implant Devices”,
Comptes rendus a l'Académie des Sciences, 2011, Special issue on
nanosciences/nanotechnologies, pp.1-19.
[13] K. Hamad-Schifferli, J.J. Schwartz, A.T. Santos, S. Zhang, J.M.
Jacobson: "Remote electronic control of DNA hybridization through
inductive coupling to an attached metal nanocrystal antenna”,
Nature, 2002, 415, pp. 152-155.
[14] A. Benchirouf, E Sowade, A Al-Hamry, T Blaudeck, O Kanoun, R
Baumann: "Investigation of RFID passive strain sensors based on
carbon nanotubes using inkjet printing technology”, in Systems,
Signals and Devices (SSD), 9th International Multi-Conference,
2012, pp. 1-6.
[15] A.G. Perri “Dispositivi Elettronici Avanzati”; Edizioni Progedit,
Bari, II Ed., 2015, ISBN 978-88-6194-081-9.
161
R. Marani, A. G. Perri
Roberto Marani, nato a Trani il 27 marzo 1985, ha conseguito la Laurea
Specialistica in Ingegneria Elettronica l’8 ottobre 2008, con la votazione di
110/110 e lode, presso il Politecnico di Bari.Dal 1° gennaio 2009 al 31 dicembre
2011 ha frequentato il corso di Dottorato di Ricerca presso il Dipartimento di
Elettrotecnica ed Elettronica del Politecnico di Bari, conseguendo il titolo di
Dottore di Ricerca. Nel dicembre 2009 è risultato vincitore della borsa di studio
"Piccoli scienziati nel PoliBA" nell’ambito del Progetto Arianna per l’attività di
ricerca svolta.
Dal marzo 2010 ad ottobre 2012 ha collaborato con il gruppo di
Nanofotonica ed Elettromagnetismo (nanoPhotonics and Electromagnetics
Group, nPEG), coordinato dalla Prof. A. D’Orazio del Politecnico di Bari,
occupandosi di metodi numerici per l’elettromagnetismo e di strutture
plasmoniche per applicazioni nei campi della biosensoristica, delle energie
rinnovabili e delle tecnologie dell’informazione e della comunicazione (ICT).
Dal Febbraio 2011 ad Ottobre 2011 ha svolto un periodo di formazione
nell’ambito del corso di Dottorato di Ricerca presso il Departamento di Física
Teórica de la Materia Condensada dell’Universidad Autónoma de Madrid,
Spagna, dove ha svolto attività di ricerca relativa all’analisi e al progetto di
sistemi risonanti attivi sotto la guida del Prof. Francisco J. García-Vidal.
Attualmente è Ricercatore III livello del CNR (Consiglio Nazionale delle
Ricerche), sede di Bari.
Il Dr. Marani è autore e co-autore di oltre 100 articoli, apparsi su Riviste
Internazionali e presentati a Congressi Internazionali.
Anna Gina Perri è Professore Ordinario di Elettronica presso il Politecnico di
Bari, dove insegna Fondamenti di Dispositivi Elettronici e Dispositivi Elettronici
Avanzati nell’ambito dei corsi di Laurea in Ingegneria Elettronica e delle
Telecomunicazioni e Laurea Magistrale in Ingegneria Elettronica,
rispettivamente.
I suoi interessi scientifici hanno riguardato lo studio e progetto di sistemi
ottici di telecomunicazioni, il progetto automatico di amplificatori a microonde
a basso rumore, il “modelling” dei dispositivi elettronici e la caratterizzazione
degli effetti termici, lo studio di dispositivi optoelettronici basati su strutture
PBG (Photonic BandGap) ed il progetto di microrisonatori su PBG per
acceleratori di particelle in adroterapia dei tumori. Attualmente è impegnata
nello studio e caratterizzazione di dispositivi elettronici nanometrici, FET su
nanotubi di carbonio, dispositivi quantistici e per il quantum computing. Dal
2000 la Prof. Perri, in qualità di consulente, collabora con l’ALENIA SPAZIO di
Roma.
E’ Revisore di prestigiose Riviste Internazionali quali IEEE Transaction on
Electron Devices, IEEE Transaction on Microwave and Wireless Components
Letters, Solid State Electronics, IEEE Electronic Letters e Current Nanoscience.
E’ la Responsabile Scientifica del Laboratorio di Ricerca di "Dispositivi
Elettronici" presso il Dipartimento di Ingegneria Elettrica e dell’Informazione
del Politecnico di Bari.
E’ autrice di 9 libri riguardanti la teoria, le applicazioni, il progetto
automatico di dispositivi micro e nanoelettronici e di circuiti integrati per la
microelettronica, di 2 libri internazionali e di circa 250 articoli, apparsi su
riviste internazionali e presentati a Congressi Internazionali.
162
La Comunicazione N.R.& N.
La Comunicazione N.R.&N.
Francesco Matera
Fondazione Ugo Bordoni
Riduzione dei consumi energetici
nelle reti core ottimizzando le
prestazioni dei sistemi ottici WDM
Energy consumption reduction in core networks optimizing
WDM optical system performance
Sommario: Questo lavoro riporta una serie di studi fatti sul
risparmio energetico nelle reti core ed in particolare è mostrato un
semplice modello analitico per valutare le prestazioni dei sistemi WDM,
che permette di studiare il problema energetico nella metodologia
dell’instradamento e dell’assegnazione delle lunghezze d’onda (Routing
and Wavelength Assignment) in reti WDM con rigenerazione del
segnale. E’ mostrato come considerare gli effetti di degradazione che
subiscono i segnali nella trasmissione in fibra ottica e quando effettuare
la rigenerazione 3R, proponendo un metodo per assegnare
efficacemente l'insieme delle connessioni ottiche, assumendo diversi bit
rate e formati di modulazione, con lo scopo di minimizzare la potenza
totale consumata nella rete.
Abstract: A simple analytical model to evaluate the WDM system
performance, verified by means of numerical simulations, has been
applied to study the energy-efficient RWA (Routing and Wavelength
Assignment) problem in translucent networks, analyzing the
consequent need for signal regeneration. We show that taking into
account physical layer impairments and the consequent possible
regeneration is mandatory to achieve satisfactory energy efficiency in
RWA algorithms. Then, we asses the energy efficiency achievable with
different modulation formats. The case of mixed line-rate networks is
also considered and a heuristic method is proposed to efficiently decide
the set of connections, at different bit rates, to be assigned to each
traffic demand with the goal of minimizing the total consumed power.
1. Introduzione
La crescita del traffico nella rete di accesso, che prevede nei
prossimi anni per l’utenza capacità anche superiori ai 100 Mb/s, rischia
di far esplodere i consumi energetici nelle reti di telecomunicazioni.
Occorre tuttavia fare una distinzione tra la parte di accesso e quella
core della rete, in quanto nel segmento di accesso l’introduzione delle
architetture in fibra ottica dovrebbe portare ad un miglioramento del
163
F. Matera
risparmio energetico rispetto alle architetture in rame, come è stato
ampiamente dimostrato nei laboratori ISCOM [1]. Viceversa l’aumento
del traffico nella rete di accesso, garantito dalle infrastrutture FTTx
(dove x sta per curb, building e home), renderà assai più pesante il
funzionamento della parte core dove i router saranno chiamati ad
instradare traffici con bit rate superiori ai Tb/s, con importanti
ripercussioni sui consumi energetici [2].
Come già mostrato in molti studi, la parte più critica dal punto di
vista del consumo energetico è il processo che porta, a ogni nodo, alla
conversione del segnale da ottico ad elettrico, al successivo
instradamento a livello IP e poi alla nuova conversione del segnale da
elettrico ad ottico.
Quindi nel futuro bisognerà puntare a tecniche di instradamento
che evitino il più possibile questa doppia conversione ottica-elettricoottica con relativo routing IP, cercando di aggregare il traffico già a
livello ottico nelle parti Edge della rete con un percorso ottico che punti
direttamente all’insieme di utenze connesse in un altro punto della
rete EDGE. Perciò il routing IP a livello core andrebbe sostituito il più
possibile con un routing fatto a livello EDGE e sfruttando le enormi
capacità permesse dalle fibre ottiche, in particolare con le tecniche
WDM che permettono il trasporto di tantissime lunghezze d’onda
(canali) anche con bit rate e formati di modulazione diversi.
Il tema dell'efficienza energetica nelle reti core WDM è già stato
studiato in diversi contributi proponendo diverse metodologie che
operano sia a livello di elettronica (IP) [2] e ottica (WDM) [3-6]. Uno dei
principali principi utilizzati per l’efficienza energetica in reti WDM è
quello basato sul metodo del Routing Power-Aware e Wavelength
Assegnazione (PA-RWA) che consiste nell’aggregazione dei percorsi
ottici (lightpath) su un numero ridotto di collegamenti in fibra in modo
da minimizzare il numero di amplificatori ottici e riducendo così il
consumo di energetico della rete.
Sebbene siano stati proposti vari algoritmi tipo PA-RWA per ridurre
significativamente il consumo di potenza nei collegamenti ottici, tutti
assumono una rete ottica trasparente trascurando perciò le
degradazioni che i segnali possono avere a livello fisico e in particolare
quelle dovute al segnale nella sua propagazione in fibra che risulta
molto forte su lunghe distanze tipiche delle reti operanti su lunghe
distanze. Il PA-RWA può portare ad una notevole riduzione dei costi e
risparmi energetici perché riesce ad evitare l’utilizzo di percorsi ottici
che consumano energia a causa delle tante apparecchiature di
elaborazione elettronica.
Tuttavia, i dispositivi ottici inducono diversi disturbi sul segnale
ottico che limitano la portata massima della trasmissione, riducendo
così la dimensione della rete “ trasparente”. E’ quindi necessario
l’utilizzo della rigenerazione 3R per portare la qualità del segnale ad un
livello accettabile. In questo contesto, le reti cosiddette “traslucide”
164
La Comunicazione N.R.& N.
Riduzione dei consumi energetici nelle reti core ottimizzando le prestazioni dei sistemi ottici WDM
Energy consumption reduction in core networks optimizing WDM optical system performance
(cioè senza blocchi ma con rigenerazione), sembrano essere l'unica
architettura realizzabile per reti core operanti su vaste aree
geografiche come quelle nazionali e continentali [7].
Quindi gli algoritmi PA-RWA, finora presentati [4-5], generalmente
producono un aumento della lunghezza dei percorsi e ciò solleva la
questione se il risparmio energetico derivante da un uso più limitato
del numero delle connessioni può essere parzialmente o totalmente
annullato dalla crescita del consumo energetico derivante dalla
introduzione della rigenerazione 3R.
Questo problema è stato studiato per la prima volta in [8], dove è
stato preso in considerazione un modello per la valutazione delle
prestazioni dei sistemi WDM, che ha permesso il calcolo della distanza
massima di trasmissione trasparente considerando la degradazione
derivante dalla fibra in condizioni di propagazione sia lineare che non
lineare. Per mezzo di questo modello le prestazioni del sistema WDM
possono essere calcolate e quindi l'impatto della rigenerazione
elettronica sul consumo energetico della rete è stato analizzato quando
viene utilizzato un algoritmo PA-RWA. In questo lavoro applichiamo
questo metodo, dedicando particolare interesse al caso dei sistemi
WDM con bit rate e formati di modulazione diversi (MIxed Line Rate).
Il lavoro è organizzato nel modo seguente. Dopo questa
introduzione nella Sez. II si descrive il modello per il calcolo delle
prestazioni dei sistemi WDM, nella Sez. III riportiamo una breve
panoramica sugli strumenti per valutare l'efficienza energetica delle
reti core, nella Sez. IV descriviamo alcuni dei principi base dei metodi
per ottenere risparmi energetici, con cenni agli algoritmi utilizzati. Nella
Sez. V riportiamo i principali risultati sul risparmio energetico nelle reti
a grande estensione geografica, mentre le conclusioni sono riportate
nella Sez. VI.
2. Il Modello WDM
Recentemente diversi approcci analitici sono stati presentati che
permettono di valutare le prestazioni dei sistemi WDM tenendo conto
della interazione non lineare tra i canali e consentendo il calcolo del
fattore Q anche con elevata precisione [13-16]. In particolare tra gli
approcci analitici WDM uno dei più importanti è quello che è stato
ottenuto nel contesto di un approccio nel dominio della frequenza, che
è noto come Gaussian Noise (GN) [13]. In tale approccio il rumore può
essere ipotizzato approssimativamente come gaussiano e additivo.
D'altra parte, adottando un approccio perturbativo nel dominio del
tempo è possibile utilizzare un altro modello per sistemi WDM di tipo
semplice che ha dimostrato di essere affidabile nella maggior parte
delle reti WDM attuali e future [11]. In particolare in [11] il
comportamento non lineare a canale singolo è stato studiato con
165
F. Matera
l'introduzione della lunghezza di interazione non lineare, , che tiene
conto della interazione non lineare di tipo Kerr tra gli impulsi. Tale
parametro può essere valutato analiticamente seguendo l'approccio
descritto in [12] [18] per segnali modulati sia in ampiezza che in fase.
Tale modello è stata verificato per diversi sistemi WDM [11], anche
nel contesto di sistemi di linea con bit rate e formati di modulazione
diversi [11]. Quindi per ottenere l'assegnazione delle lunghezze d'onda
tenendo in conto dei limiti indotti dalla propagazione non lineare
abbiamo adottato il calcolo del fattore Q riportato in [11] in cui:
PAv
Q=
ξRb N ASE N + ργ 2 PAv3 L2NLI N ϑ +
4γ 2 PAv3 L2A S B N χ
β 2 Rb2
Nel denominatore possiamo distinguere 3 diversi contributi di
2
rumore; σ ASE
= ξRb N ASE N è il rumore ASE emesso dagli amplificatori
3 2
ottici supposti con un guadagno G, ργ 2 PAv
LNLI N ϑ è il rumore dovuto
alla interazione nonlineare di tipo Kerr per il canale sotto osservazione
2
e σ WDM
=
4γ 2 PAv3 LA S B N χ
è l’interazione di tipo Kerr tra canali. PAV è
β 2 Rb2
la Potenza media del segnale in ingresso e N ASE = ω 0 (G − 1)n sp è la
densità spettrale del rumore ASE per unità di banda che è aggiunto da
ciascun amplificatore di linea ,  è la costante ridotta di Plank, ω0 la
frequenza centrale e
nsp il fattore di emissione spontanea. ξ è un
valore che dipende dal formato di modulazione e rivelazione, Rb è il
symbol rate. γ è il coefficiente nonlineare. Il contributo di rumore
dovuto alla interazione nonlinerare tra segnali ortogonali in
polarizzazione [9][19] è tenuto in conto mediante il fattore ρ ed in
particolare ρ =1 in assenza di multiplazione di polarizzazione, mentre
assume un valore maggiore di 1 nel caso di sistemi POLMUX; inoltre
tale parametro dipende anche dalla sovrapposizione temporale che
hanno gli impulsi [20] e quando sono perfettamente sovrapposti
temporalmente ρ =1.7 [9], mentre quando la sovrapposizione è
minima ρ si riduce a 1.07.
Il termine ϑ dipende dal tipo di compensazione della dispersione
cromatica e varia tra 1 e 2. In particolare nel caso di compensazione
periodica in-line ϑ =2, mentre nel caso di compensazione tutta alla fine
ϑ tende ad assumere valori più bassi e nei casi trattati in questo
lavoro ϑ ≈ 1.4. S B prende in considerazione l'interazione tra gli m
canali WDM e nel caso di molti canali (m>>1), per il canale centrale si
può assumere S B ≈ κRb [ln(m / 2) + 0.57] , dove ∆f è la spaziatura in
π∆f
frequenza tra canali adiacenti e κ dipende dal tipo di modulazione e
166
La Comunicazione N.R.& N.
Riduzione dei consumi energetici nelle reti core ottimizzando le prestazioni dei sistemi ottici WDM
Energy consumption reduction in core networks optimizing WDM optical system performance
per i nostri casi vale sempre 0.21 tranne che 0.36 per l’8QAM. L'eq, (1)
può anche essere estesa ai sistemi aventi canali con bit rate diversi
come riportato in [11].
La rete che consideriamo in questo lavoro è costituita da fibre
G.652 con collegamenti costituiti da N tratte con lunghezza LA =80 km,
che corrisponde alla spaziatura tra gli amplificatori ottici. La dispersione
cromatica è 16 ps/nm/km, le perdite 0.25 dB/km e il coefficiente
nonlineare 1.3 W-1km-1 [8]. Il guadagno degli amplificatori ottici è di 20
dB e n sp =2. Nella tabella 1 riportiamo i parametri espressi nella eq. (1)
per i diversi sistemi utilizzati in questo lavoro.
Modulationdetection scheme
Bit-rate
(Gbit(s))
T ( (ps)
ξ
L NLI
Nmax
W=40W=80
NRZ-IMDD
10
100
2
0.5
95 90
RZ-DQPSK
40
14
2
0.77
30 29
8QAM
100
7.5
2
3.4
18 17
PM-QPSK
100
12
1.5
0.83
28 27
3. Modello della Rete Core e consumi energetici
Tabella 1. Parametri dei
sistemi utilizzati in questo
lavoro. NRZ Non Return to
Zero, RZ Return to Zero,
IMDD Intensity modulation
with Direct Detection, DQPSK
Differential
Quadrature
Phase Shift Keying, QAM
Quadrature
Amplitude
Modulation, PM Polarization
Multiplexing. T è la durata
degli impulsi.
L'architettura tipica di una rete core è generalmente composta da due
strati, come illustrato in Fig. 1. Lo strato superiore è una rete IP i cui
nodi sono router IP, mentre quello inferiore è una rete ottica WDM a
commutazione di circuito, i cui nodi sono Optical Cross Connect (OXC). I
collegamenti tra gli OXC sono costituiti da fibre ottiche. Diversi canali
(lunghezza d'onda diverse) sono multiplati nello stesso collegamento in
fibra ottica mediante un multiplexer (MUX) e un de-multiplexer
(DEMUX) all'altra estremità del collegamento. Un certo numero di
amplificatori ottici (OA) sono disposti lungo ciascun collegamento in
fibra ottica; ciascun OA amplifica tutte le lunghezze d'onda che si
propagano in una fibra.
Un collegamento tra due core router (rappresentato dalla linea
tratteggiata in figura 1) è costituito quindi da un percorso ottico
(lightpath) stabilito nella rete ottica mediante un canale WDM con un
formato di modulazione e bit rate definito nell' ambito della rete.
Chiaramente due router potranno essere anche connessi con diversi
lightpaths.
167
F. Matera
Il consumo energetico della rete core è dato dalla somma di diversi
contributi che possono così essere riassunti per quanto riguarda la
parte ottica [9]
PmOXC = N mTR P TR + N mREG P REG
(2)
FL
ILA ILA
Pmn
= N mn
P + P BA + P PA + P DEMUX
(3)
OXC
dove Pm
è la potenza consumata dall' m-esimo OXC, , P e P REG
sono le potenze consumate da ciascun transponder e rigeneratore 3R,
mentre N mTR and N mREG sono il numero di transponder e rigeneratori
3R dell'm-esimo OXC. Per completare i contributi del consumo
energetico per ogni nodo occorre tenere in conto il consumo, P R ,
dovuto alla elaborzione elettronica dei router per l'instradamento del
traffico. In genere PR assume valori anche 10 volte maggiori rispetto a
PmOXC .
TR
I termini nell'eq. (3) si riferiscono alla potenza del collegamento nella
fibra (m e n sono i punti di terminazione della fibra), al numero e alla
potenza degli amplificatori in linea (ILA) oltre alla potenza del buster,
del preamplificatore e del DEMUX. Utilizzando i valori di consumi
adottati in [3] abbiamo P ILA =40 W, P BA + P PA + P DEMUX = 240 W e per i
trasponder assumiamo 50 W, 100 W, and 150 W rispettivamente per i
sistemi a 10 Gbit/s, 40 Gbit/s, and 100 Gbit/s. Le eq. (2) e (3), insieme ai
valori riportati ci fanno subito intuire che una diminuzione del consumo
energetico nella rete avviene se limitiamo la conversione otticaelettrica-ottica e quindi l'utilizzo di transponder e elaborazione IP in
pratica dobbiamo cercare di far propagare il segnale il più possibile a
livello ottico, evitando l'utilizzo dei rigeneratori 3R, e quindi dobbiamo
cercare di evitare connessioni troppe lunghe, dove l'effetto Kerr e l'ASE
potrebbero dare una forte degradazioni del segnale.
168
Figura 1. Architettura di una
rete core (backbone) di tipo
IP over WDM .
La Comunicazione N.R.& N.
Riduzione dei consumi energetici nelle reti core ottimizzando le prestazioni dei sistemi ottici WDM
Energy consumption reduction in core networks optimizing WDM optical system performance
4.
Metodi per il risparmio energetico nelle reti core: gli
algoritmi
Finora, la maggior parte dei metodi per ridurre il consumo
energetico nelle reti core si sono basati sull'aggregazione di lightpath
su un insieme ridotto di collegamenti a fibre ottiche ed è stato
mostrato l'importanza di questi algoritmi che adottavano questo
principio e che sono stati denominati di Power Aware Routing e
Wavelength Assignment (PA-RWA) [4], che comunque inducono un
aumento delle massime distanze percorse dai lightpath, con
conseguente degrado del segnale e con la necessità dell'introduzione di
rigeneratori. Pertanto il comportamento della metodologia PA-RWA
doveva essere rivisto tenendo conto delle limitazioni indotte dalla
propagazione del segnale. Questa indagine è stata condotta per la
prima volta, a nostra conoscenza in [8], dove è stata introdotta una
formulazione di ottimizzazione della rete attraverso un modello di tipo
Integer Linearing Problem ( ILP). Purtroppo modello ILP presentato in
[8] porta a soluzioni che sono possibili solo nel caso di piccole reti.
Tuttavia in [8] è stato proposto anche un algoritmo euristico per
minimizzare i consumi energetici tenendo in conto i limiti della
propagazione e l'uso dei rigeneratori 3R, anche nel caso di grandi reti.
L'analisi e la descrizione di questi algoritmi è assai complessa e può
comunque essere trovata in tutta la sua formulazione in [8]. In questo
lavoro preferiamo soffermarci sui risultati e le consequenze sulla
realizzazioni delle reti.
5. Analisi dei risultati
In questa sezione presentiamo i risultati numerici ottenuti
eseguendo simulazioni in diverse condizioni per la rete e per il traffico.
Prima di tutto, si valuta il consumo energetico supponendo l'utilizzo del
metodo PA-RWA, trascurando i limiti della propagazione in fibra e
quindi l'utilizzo dei rigeneratori 3R. Successivamente si considerano i
problemi della propagazione e l'incremento del consumo energetico
dovuto alla necessità di introdurre i rigeneratori 3R. Infine, si valutano i
consumi nel caso di reti MLR.
Al fine di ricavare risultati validi in condizioni molto ampie,
abbiamo generato topologie di reti fisiche in maniera casuale secondo
il metodo descritto in [8]. In questo modo, possiamo considerare reti
con diverse caratteristiche topologiche. Specificamente, topologie di
rete vengono generate fissando il numero di nodi N e il grado di
connessione media dei nodi K. I nodi sono distribuiti uniformemente
in un'area quadrata di lato pari a L Km. Abbiamo preso in
considerazione un numero di nodi N pari a 25 e diversi valori di K e L.
Si assumono sistemi WDM che trasportano 80 lunghezze d'onda (cioè,
W = 80). Per ogni combinazione dei precedenti parametri topologici
vengono generati 20 diverse topologie e, per ciascuno di essi, sono
considerati 20 diverse matrici che descrivono il traffico tra i nodi.
169
F. Matera
a) Conseguenze dei limiti trasmissivi delle fibre ottiche per il
risparmio energetico
La prima serie di risultati, mostrati in Fig. 2, ha lo scopo di valutare,
ai fini del risparmio energetico, i limiti imposti dalla propagazione in
fibra vedendo come cambiano i consumi quando si applica un
algoritmo RWA che punta al risparmio energetico semplicemente
aggregando il traffico per spegnere i collegamenti in fibra con poco
traffico. Come detto nel Capitolo III questo algoritmo porterebbe a
considerare lightpath operanti su distanze molto lunghe, e quindi a
causa delle limitazioni della fibra sarebbe necessaria l'introduzione di
rigeneratori 3R, che aumenterebbero i consumi di potenza.
I grafici in Fig. 2 mostrano il consumo energetico della rete senza
rigenerazione e con rigenerazione 3R in funzione della quantità di
traffico, espressa come traffico totale medio generato e terminato in
ciascun nodo, supponendo sistemi WDM con solo canali a 40 Gbps e
due differenti dimensioni di rete (1000 e 3000 km). Sono anche
considerati due diversi gradi di connessione K.
La fig. 2 mostra chiaramente che
tenendo conto del
deterioramento della trasmissione ottica è richiesto un consumo di
energetico più elevato a causa della necessità di rigeneratori 3R. In
particolare per L = 1000 km la differenza tra con e senza rigenerazione
è piccola poiché i percorsi ottici di lunghezza superiore alla distanza
massima di propagazione (vedere tabella 1) sono pochi. Considerando
altri risultati riportati in [8] possiamo dire che il metodo PA-RWA, per L
= 1000 km, porta sempre ad un risparmio energetico dell'ordine del
30% che è praticamente mantenuto pur tenendo in considerazione i
limiti trasmissivi. Viceversa per L = 3000 km i cammini ottici, che
presentano una lunghezza maggiore della massima permessa dalla
trasmissione in fibra, sono diversi e richiedono quindi un sensibile uso
di rigeneratori 3R, il che porta ad un maggiore consumo energetico.
Quindi questa figura indica che il metodo PA-RWA deve essere
modificato per fare una aggregazione del traffico che prenda in
considerazione anche la massima distanza percorribile e questo verrà
mostrato nelle due successive figure seguendo l'approccio riportato in
[8].
La fig. 2 sottolinea anche l'importanza del grado K: infatti
aumentando il numero di lightpath a disposizione per ogni nodo si
produce una riduzione del consumo energetico.
170
La Comunicazione N.R.& N.
Riduzione dei consumi energetici nelle reti core ottimizzando le prestazioni dei sistemi ottici WDM
Energy consumption reduction in core networks optimizing WDM optical system performance
Nelle stesse condizioni topologiche di fig. 2, esaminando i risultati
per canali a 10 e 100 Gbps, che non riportiamo per brevità, possiamo
riassumere che per 10 Gbps nessuna variazione può essere osservata
anche per L = 3000 km perchè la massima distanza di propagazione
supera i 3000 km (tabella 1). Viceversa nel caso di 100 Gbps una grossa
differenza può essere osservata sia adottando la tecnica 8QAM o la
PM-QPSK. In particolare il comportamento di 100 Gbps PM-QPSK, in
termini di percentuale di rigenerazione 3R rispetto al senza 3R, è molto
simile al caso 40 Gbps, viceversa un ampio aumento di 3R è mostrato
nel caso di 8QAM, a causa della forte riduzione della distanza massima
di propagazione per questo formato di modulazione.
b) Efficienza dei diversi formati di modulazione
Figura 2. Il consumo di
energia senza rigenerazione
3R (linee tratteggiate) e con
rigenerazione
3R
(linee
continue) in funzione del
traffico
totale
medio
generato e terminato in ogni
nodo, supponendo canali a
40 Gbps. K è il grado di
connessione media dei nodi .
In questo paragrafo analizziamo la dipendenza dell'efficienza
energetica della rete dal formato di modulazione (e il relativo bit-rate) .
Fig. 3 mostra l'energia consumata dalla rete per ogni bit trasmesso in
funzione del traffico medio totale per il nodo (Gbps). Chiaramente
meno è il consumo energetico per bit e più efficiente è la rete dal
punto di vista energetico. Come previsto, quando il traffico richiesto è
basso, le modulazioni a minor bit rate (10 Gbps) portano a risultati
migliori.
Infatti utilizzando formati di modulazione con bit rate più alti
non si ottiene una riduzione dei collegamenti, mentre la potenza
assorbita da ciascuno di essi aumenta notevolmente a causa del
maggior consumo dei transponder e del maggior numero di
rigenerazioni richieste. Al contrario, quando il carico di traffico è
elevato, adottando reti con canali a 40 e 100 Gbps (PM QPSK) il
171
F. Matera
trasporto diventa sempre più efficiente. Viceversa i limiti del 8QAM in
termini di massima distanza di propagazione non permettono alcun
miglioramento
in
termini
di
efficienza
energetica.
Si può anche vedere che la gamma di convenienza dei sistemi a 40
Gbps rispetto ai 100 Gbts PM QPSK vale solo per basso traffico ed è
comunque molto debole. Il 10 Gbps conviene nettamente per basso
traffico mentre per altro traffico è molto conveniente il 100 Gbps con
formato PM QPSK, mentre il 100 Gbps 8QAM non mostra alcuna
convenienza rispetto agli altri sistemi di modulazione.
C) Prestazioni per reti con Mixed Line Rate (MLR) .
L'ultima analisi riguarda l'efficienza delle reti MLR utilizzando il
meccanismo presentato in [8].
I risultati presentati in Fig. 4 mostrano la percentuale di risparmio
energetico rispetto al miglior risultato ottenuto nelle reti utilizzando
sempre lo stesso formato di modulazione, e cioè, 10, 40, o 100 Gbps
(PM QPSK e 8QAM). Possiamo vedere che, sfruttando adeguatamente il
paradigma MLR, si arriva a risparmiare fino al 25%.. Infatti lo schema
proposto è in grado di scegliere la modulazione più efficace in funzione
del carico di ogni richiesta traffico e la "distanza" tra ogni coppia di nodi
specifica, ottenendo così un comportamento quasi ottimale fra i
contributi del consumo di potenza descritti nel Par. III.
Infine, il beneficio del meccanismo proposto è più evidente per
reti molto estese, in cui più richieste di traffico possono essere
realizzate in maniera efficace da connessioni a 10 Gbps specialmente
nel caso di nodi molto distanti ma con basso traffico.
172
Figura
3.
Efficienza
energetica in funzione del
traffico medio nel nodo
considerando diversi formati
di modulazione.
La Comunicazione N.R.& N.
Riduzione dei consumi energetici nelle reti core ottimizzando le prestazioni dei sistemi ottici WDM
Energy consumption reduction in core networks optimizing WDM optical system performance
Conclusioni
Questo lavoro descrive una analisi sulla progettazione di reti core
ottiche con l’obiettivo del risparmio energetico e tenendo in
considerazione i vincoli dovuti alla propagazione dei collegamenti
WDM e l'uso di rigeneratori 3R per aumentare la lunghezza dei
cammini ottici del segnale.
I risultati mostrati in questo documento dimostrano che con la
forte crescita del traffico il risparmio energetico può essere
efficientemente ottenuto aumentando il numero di lightpath
(connessioni ottiche) tra i nodi e diminuendo quindi il routing IP
elettronico, ed in particolare cercando di collegare direttamente la
sorgente e la destinazione con un percorso ottico " trasparente", e cioè
senza rigenerazione, e sfruttando quindi tutta la massima distanza di
trasmissione permessa dallo schema di modulazione-rivelazione
adottato. Un ulteriore vantaggio in termini di efficienza energetica sarà
ottenuto con l'adozione di sistemi WDM con bit rate misti in cui ogni
canale utilizza un bit rate che si adatta al carico da trasportare.
Ringraziamenti
Lavoro realizzato nell'ambito del progetto ATENA-RE sostenuto dal
Ministero dello Sviluppo Economico. Si ringraziano il Prof. Marco
Listanti e il Dott. Angelo Coiro per il supporto dato a questo lavoro.
Figura 4. Risparmio di
Potenza con la tecnica MLR
valutato rispetto al miglior
comportamento per reti con
unico
formato
di
modulazione: 10, 40 e 100
(PM QPAK e 8QAM) Gbps.
173
F. Matera
Bibliografia
[1]
[2]
[3]
[4]
[5]
[6]
[7]
[8]
[9]
[10]
[11]
[12]
[13]
[14]
[15]
[16]
[17]
[18]
[19]
[20]
[21]
[22]
A. Valenti, F. Matera, D. Del Buono, " ENERGY IMPACT OF THE FUTURE FIBRE OPTICS
ACCESS NETWORKS: ECONOMIC PERSPECTIVES " Fotonica 2015, Torino 6-8 maggio
2015
Y. Zhang, P. Chowdhury, M. Tornatore, and B. Mukherjee, “Energy efficiency in telecom
optical networks,” Communications Surveys Tutorials, IEEE, vol. 12, no. 4, pp. 441–458,
Fourth 2010.
H. Zang and J. P. Jue, “A review of routing and wavelength assignment approaches for
wavelength-routed optical wdm networks,”Optical Networks Magazine, vol. 1, pp. 47–
60, 2000.
Y. Wu, L. Chiaraviglio, M. Mellia, and F. Neri, “Power-aware routing and wavelength
assignment in optical networks,” in Optical Communication, 2009. ECOC ’09. 35th
European Conference on, sept. 2009, pp. 1 –2
A. Coiro, M. Listanti, and A. Valenti, “Dynamic power-aware routing and wavelength
assignment for green wdm optical networks,” in Communications (ICC), 2011 IEEE
International Conference on, 2011, pp. 1–6.
A. Coiro, M. Listanti, and A. Valenti, “Impact of energy-aware topology design and
adaptive routing at different layers in ip over wdm networks,” in Telecommunications
Network Strategy and Planning Symposium (NETWORKS), 2012 XVth International.
B. Ramamurthy, H. Feng, D. Datta, J. Heritage, and B. Mukherjee, “Transparent vs.
opaque vs. translucent wavelength-routed optical networks,” in Optical Fiber
Communication Conference, 1999.
A. Coiro, M. Listanti, F. Matera, “Energy-Efficiency Routing and Wavelength Assignment
in Translucent Optical Networks” in press on J. of Optical Communications and
Networking, 2014.
A. Coiro, M. Listanti, A. Valenti, and F. Matera, “Power-aware routing and wavelength
assignment in multi-fiber optical networks,”Optical Communications and Networking,
IEEE/OSA Journal of, vol. 3, no. 11, pp. 816 –829, november 2011
F. Matera, "Nonlinear performance limits in higly dispersive transmission systems"
proc. ECOC 2013, London, September 21-24, P4.11, 2013
F. Matera “Mixed Line Rate WDM System Performance in Highly and Weakly Dispersive
Regimes” in Xplore proc. Fotonica 2014, May 12-14, Naple (It), 2014.
A. Mecozzi, "A Unified Theory of Intrachannel Nonlinearity in Pseudolinear
Transmission" in "Impact of Nonlinearities on Fiber Optic Communications" pp. 253291, Springer New York 2011.
P. Poggiolini "The GN model of Non-linear Propagation in Uncompensated Coherent
Optical Systems" ”, J. of Lightwave Technolog, vol. 30, pp. 3857-3879, 2012.
A. Mecozzi, E.-J. Essiambre, “Nonlinear Shannon Limit in Pseudolinear Coherent
Systems”, J. of Lightwave Technolog, vol. 30, n. 12, pp. 2011-2024, 2012.
M. Secondini, E. Forestieri, G. Prati, “Achievable information rate in nonlinear WDM
fiber-optic system with arbitrary modulation formats and dispersion maps” J. of
Lightwave Technolog, vol. 31, n. 23, pp. 3839-3852, 2013.
R. Dar, M. Feder, A. Mecozzi, M. Shtaif, "Properties of nonlinear noise in long
dispersion uncompensated fiber links" Optics Express vol. 21, pp.25685-25699, 2013.
P. Poggiolini, G. Bosco, A. Carena, V. Curri, Y. Jiang, F. Forghieri “A Simple and Effective
Closed-Form GN model Correction Formula Accounting for Signal Non-Gaussian
Distribution” in Press on J. of Lightwave Technology.
A. Mecozzi, M. Tabacchiera, F. Matera, M. Settembre, 2011. “Intra-channel nonlinearity
in differentially phase-modulated transmission. Optics Express vol. 19, n. 5, pp. 33903395, 2011.
A. Mecozzi, F. Matera, “Intrachannel nonlinearity enhancement in polarization
multiplexed phase modulated systems with differential detection. Optics Letters, 36
(1): 3903-3905. 2011.
A. Mecozzi, F. Matera, “Intrachannel nonlinearity enhancement in polarization
multiplexed phase modulated systems with differential detection. Optics Letters, 36
(1): 3903-3905. 2011.
N. Sambo, M. Secondini, F. Cugini, G. Bottari, P. Iovanna, F. Cavaliere, P. Castoldi,
"Modelling and distribuited provisioning in 10-40-100 Gb/s multirate wavelength
switched optical networks" J. Ligthwave Technology vol. 29, n. 9, pp. 1248-1257, 2011.
A. Mecozzi, F. Matera, “Polarization scattering by intra-channel collisions” Optics
Express, 20 ( 2): 1213-1218. 2012.
174
La Comunicazione N.R.& N.
La Comunicazione N.R.&N.
Agostino Giorgio
Dipartimento di Ingegneria
Elettrica e dell’Informazione
Politecnico di Bari
Dispositivo Medico
per la Diagnosi Oggettiva
di Patologie Psicosomatiche
A Medical Device For The Instrumental Diagnosis Of
Psychosomatic Disorders
Sommario:. In questo articolo viene presentato un dispositivo
innovativo dedicato alla diagnosi oggettiva delle malattie psicosomatiche,
come ad esempio la depressione, tramite il rilevamento a lungo termine di
eventuali asimmetrie esistenti fra i segnali provenienti dalla corteccia
frontale dei due emisferi dell’encefalo, asimmetrie correlate ai disturbi
psicosomatici. Il dispositivo è di ridotte dimensioni e consente di effettuare
la diagnosi di malattie psicosomatiche anche a distanza e acquisendo
tracciati a lungo termine in telemonitoraggio.
Abstract: The purpose of this paper is to present a medical device for
the reliable diagnosis of psychosomatic illnesses, such as depression, by
using the electroencephalographic signal. The presented device allows
detecting any asymmetries between the signals from the frontal cortex in
both hemispheres. The device is small and easy to use so that it can also
be used in medical studies of general practitioners.
1. Introduzione
Il problema principale nella cura della depressione e delle malattie
psicosomatiche in generale è quello di ottenere una diagnosi affidabile
perché difficilmente oggettivabile.
L'obiettivo di questo lavoro è di presentare un dispositivo finalizzato alla
diagnosi scientificamente oggettiva e quindi affidabile delle malattie
psicosomatiche che consenta una più rapida guarigione e di ridurre i costi
di diagnosi sia di cura della malattia.
2. Metodo di diagnosi
Il metodo implementato si basa sul rilevamento di asimmetrie in alcune
onde elettroencefaliche [1].
Il range di frequenze di queste onde elettriche cerebrali si estende da 0.5
Hz a 100 Hz con un'ampiezza variabile fra 20 e 200 µV. In base alla
frequenza, le onde cerebrali sono classificabili in 4 gruppi: Alpha (8-13 Hz),
Beta (13-50 Hz), Theta (4-7 Hz) e Delta (0.5-4 Hz) [2].
R. Davidson [3] e B. Lithgow [4] hanno proposto i risultati di uno studio in
base al quale i soggetti affetti da depressione presentano un'attivazione
175
A.Giorgio
asimmetrica della corteccia frontale sinistra rispetto alla destra, rilevabile
attraverso l’acquisizione delle onde Alpha. Sulla base di questa teoria si
può sviluppare un metodo oggettivo di diagnosi per il quale è stato
necessario progettare il dispositivo presentato di seguito.
Per una diagnosi maggiormente affidabile, l’analisi delle onde Alpha viene
effettuata su tracciati acquisiti a lungo termine per cui il dispositivo
presenta anche un’interfaccia wireless per effettuare acquisizioni a lungo
termine in tele monitoraggio senza particolare disagio per il paziente.
3. Progetto
Il dispositivo deve essere in grado di rilevare la presenza di una netta e
persistente differenza fra le ampiezze del segnale Alpha proveniente dai
due lobi dell'encefalo. L’hardware deve essere quindi in grado di
amplificare esclusivamente la differenza fra i due segnali prelevati sullo
scalpo; un software appositamente sviluppato esegue il confronto della
differenza dei due segnali con un valore di soglia. Infatti, il superamento di
una soglia critica, di seguito meglio specificata, indica la presenza
oggettiva di malattia psicosomatica.
Il valore di ampiezza medio delle onde Alpha è compreso fra 40 e 50 µV e
una differenza persistente in ampiezza del 50% a favore dell'emisfero
dominante può essere considerata fisiologica. Prendendo come
riferimento questo emisfero, una differenza del segnale proveniente
dall'emisfero dominante rispetto al segnale proveniente dall'emisfero non
dominante compresa fra il 50 - 70% indica una situazione di incertezza che
necessita di approfondimento; una differenza superiore al 70% è
considerata come sintomo oggettivo della presenza di una patologia
psicosomatica.
A. Specifiche di progetto
Il dispositivo deve presentare:
• banda passante compresa fra 8 -13 Hz. Il sistema di filtraggio deve
eliminare la continua in uscita, aumentare il SNR ed evitare il problema
dell'aliasing durante la fase di campionamento;
• CMRR molto elevato e superiore a 100 dB, in modo da riuscire ad
amplificare solo il segnale utile, reiettando il più possibile i segnali di
modo comune;
• fattore di amplificazione K tale da adattare il segnale proveniente dagli
elettrodi alla dinamica di ingresso dell'ADC. Considerando, quindi, una
differenza compresa fra 10 - 100 µV e una dinamica di 5V, otteniamo
un valore di K compreso fra 50000 e 500000.
Possiamo, quindi, stabilire degli intervalli di ampiezza del segnale per
effettuare la diagnosi sul paziente, come in tabella I.
176
La Comunicazione N.R.& N.
Dispositivo Medico per la Diagnosi Oggettiva di Patologie Psicosomatiche
A Medical Device For The Instrumental Diagnosis Of Psychosomatic Disorders
Differenza in % fra segnali
50%
70%
Differenza in µV fra i segnali
16.7
20.6
Segnale differenza amplificato (V)
0.835
1.03
Tab. I
B. Schema a Blocchi
L'hardware è costituito fondamentalmente da una sezione di acquisizione
costituita dai sensori, da un amplificatore da strumentazione ed alcuni
filtri per il trattamento del segnale.
Alla sezione di acquisizione segue la sezione di conversione analogico
digitale e di elaborazione in tempo reale tramite un microcontrollore, che
si preoccupa anche di gestire tutte le funzionalità del dispositivo.
Segue una sezione di interfacciamento con un modulo bluetooth, per
telemonitoraggio a corto raggio, oppure GPRS/UMTS/LTE per
telemonitoraggio a lungo raggio.
Nel seguito viene illustrata sommariamente la sezione di acquisizione, di
delicata progettazione.
B 1 . Elettrodi
Il segnale proveniente dai due emisferi sarà prelevato da due elettrodi
superficiali in posizione Fp1 e Fp2 (Sistema Internazionale 10-20), riferiti
ad un terzo elettrodo posto sul lobo dell'orecchio. Gli elettrodi da
utilizzare sono i comuni elettrodi superficiali Ag/AgCl posti sullo scalpo.
B 2 . Amplificatore da Strumentazione
L'amplificatore da strumentazione (IA - Instrumentation Amplifier) ha il
compito di amplificare solo la differenza esistente fra i due segnali in
ingresso. All'ingresso non invertente sarà posto l'elettrodo proveniente
dall'emisfero non dominante e a quello invertente l'elettrodo collegato
all'emisfero dominante.
Il dispositivo usato in questo progetto è l'AD522 dell'Analog Devices che
fornisce un elevato valore di CMRR superiore a 110 dB, amplificazione fino
ad un fattore 1000 e un rumore massimo pari a 1.5 µV picco-picco a
frequenze comprese fra 0.1 - 100 Hz.
Gli stadi di amplificazione supplementare possono essere implementati
impiegando lo stesso dispositivo opportunamente configurato.
Tabella I. Soglie di diagnosi I
B 3 . Filtro passa-banda
Il filtro passa-banda ha il compito di eliminare tutte le componenti del
segnale elettroencefalografico non utili alla diagnosi della malattia, ovvero
le onde cerebrali che si trovano al di fuori della banda delle onde Alpha (813 Hz). Questo filtro è stato realizzato come la cascata di un filtro passabasso e di uno passa-alto di tipo Sallen-Key. Lo schema circuitale è
riportato in fig. 1 e la risposta in frequenza in fig. 2
177
A.Giorgio
C3
R2
14.067k
200n
-
1Vac
0Vdc
C1
C2
V11u
1u
0
OPAMP
R3
R4
86.569k
86.569k
+
C4 U2
100n
V
0
0
B 4 . Filtro passa-basso
Il filtro passa-basso aumenta il SNR (Signal to Noise Ratio) attenuando le
componenti di segnale indesiderato presenti ad alta frequenza come
rumore ed eventuali componenti armoniche, ed elimina il problema
dell'aliasing evitando che le repliche si vadano a sovrapporre. Si è scelto
un filtro molto selettivo del quinto ordine formato dalla cascata di due
filtri del secondo ordine di tipo Sallen-Key ed uno del primo (rete RC). La
configurazione circuitale dell'intero filtro è mostrata in figura 3
imponendo una frequenza di taglio di 18 Hz; in figura 4 è mostrata la
risposta in frequenza del filtro.
178
OUT
OUT
+
U1
R1
28.135k
OPAMP
Figura 1. Schema circuitale
filtro passa-banda
Figura 2. Risposta in
frequenza del filtro passabanda
La Comunicazione N.R.& N.
Dispositivo Medico per la Diagnosi Oggettiva di Patologie Psicosomatiche
A Medical Device For The Instrumental Diagnosis Of Psychosomatic Disorders
C. Convertitore A/D
Il convertitore utilizzato in questo progetto è l’ADS1298 utilizzato in tutte
le applicazioni mediche della Texas Instrument, caratterizzato da un CMRR
pari a 115 dB di valore tipico e 105 dB di valore minimo e un SNR di 112
dB come valore tipico.
4.
Figura 3. Schema circuitale
del filtro passa-basso
Figura
4.
Risposta
in
frequenza del filtro passabanda
Conclusioni e sviluppi futuri
Il dispositivo presentato ha lo scopo di consentire una diagnosi oggettiva
di malattie psicosomatiche, diagnosi altrimenti sovente legata alla perizia
del medico ed alla sua valutazione soggettiva e quindi passibile di errore. Il
dispositivo si basa su una teoria ormai accettata in ambito medico in base
alla quale esiste una relazione oggettiva fra il segnale proveniente dalla
corteccia prefrontale e la presenza di malattie psicosomatiche, in
particolare la depressione. Il dispositivo proposto consente un
monitoraggio a lungo termine, a corto o lungo raggio, dell’attività
cerebrale maggiormente coinvolta dalla presenza di patologie
psicosomatiche in modo da favorirne una diagnosi oggettiva.
179
A.Giorgio
Il progetto del dispositivo adatto a tale diagnosi risulta semplice ed
affidabile per cui rappresenta un incoraggiante punto di partenza
procedere con la validazione e quindi la certificazione e immissione sul
mercato di uno strumento che può rivelarsi molto utile per affrontare dal
punto di vista medico ma anche sociale ed economico un problema la cui
entità cresce esponenzialmente nel tempo qual è quello delle malattie
psicosomatiche e in particolare della depressione.
Bibliografia.
[1] JOHN J. WEBSTER, Medical Instrumentation Application and Designed,
John Wiley & Sons Inc., 2009
[2] M. J. AMINOFF, Electrodiagnosis in Clinical Neurology, Churchill
Livingstone editore, 1999
[3] R. DAVIDSON, EEG Measures of Cerebral Asymmetry: Conceptual and
Methodological Issues, International journal of neuroscience, vol. 39, pp.
71-89, 1988
[4] A.J. NIEMIEC, B. J. LITHGOW, Alpha-band characteristics in EEG
spectrum indicate reliability of frontal brain asymmetry measures in
diagnosis of depression, IEEE - Engineering in Medicine and Biology
Society, pp. 7517-7520, 2005
180
La Comunicazione N.R.& N.
La Comunicazione N.R.&N.
Roberto Marani,
Anna Gina Perri
Dipartimento di
Ingegneria Elettrica e
dell’Informazione,
Laboratorio di Dispositivi
Elettronici, Politecnico di
Bari
Principali applicazioni sensoristiche
dei Nanotubi di Carbonio
Main Sensor applications of Carbon Nanotubes
Sommario: In questo articolo, dopo una breve descrizione delle
proprietà elettroniche dei NanoTubi di Carbonio (CNT), legate alla
possibilità di esibire un comportamento metallico o semiconduttivo in
relazione alla loro geometria, vengono esaminate alcune tra le
principali applicazioni dei CNTs nel campo della sensoristica.
Abstract: In this paper, after a brief review of electronic properties
of Carbon NanoTubes (CNTs), we present some of the main applications
of CNTs in the sensor field.
1. Introduzione
La tecnologia può essere definita come l’insieme dei processi o fasi
di lavorazione necessarie per fabbricare dispositivi e sistemi di
complessità qualunque.
All’avanzare della tecnologia si accompagna l’avanzare del
progresso dove per progresso intendiamo tutto quanto i prodotti della
tecnologia permettono di fare: dispositivi per mezzi di trasporto,
domotica,
applicazioni
medicali,
computazione,
grafica,
telecomunicazioni, creazione di nuovi strumenti per acquisire sapere
(ricerca), educare, ecc.
Lo stato di avanzamento della tecnologia si misura dalla
dimensione minima che un dispositivo può avere perché alla riduzione
delle dimensioni è legato un incremento delle potenzialità o
performance (per esempio della velocità) e delle applicazioni.
Man mano che la tecnologia avanza, le dimensioni minime si
riducono e ci si avvicina sempre più all’ordine di grandezza del
nanometro.
Tuttavia, il passaggio dalle tecnologie micrometriche a quelle
nanometriche (o nanotecnologie) non è banale bensì ricco di
implicazioni.
181
R. Marani, A. G. Perri
Le nanotecnologie, infatti, segnano non una evoluzione ma una
rivoluzione tecnologica e rappresentano la soluzione possibile per non
frenare il progresso.
E’ chiaro, quindi, che hanno un ruolo determinante per il futuro
dell’umanità e per questo sono oggetto di notevoli sforzi di ricerca in
tutto il mondo.
Le nanotecnologie, peraltro, riguardano dispositivi sia elettronici
che optoelettronici ed interessano numerosissime discipline del sapere
umano:
•
Biologia: costruire nanosensori e manipolatori di materia
biologica (stessa scala di dimensioni);
• Medicina: monitoraggio di marcatori per il cancro, rivelatori di
proteine e di virus, somministrazione selettiva di farmaci, nuovi
materiali per impianto di organi, ecc.
• Scienza dei materiali: maggiore resistenza, elasticità, proprietà
strutturali ed elettriche;
• Informazione,
computazione,
comunicazione:
miniaturizzazione dei dispositivi, memorie, microelaboratori,
nuovi algoritmi di calcolo, display flessibili con LED organici.
Passare
dall’attuale
tecnologia
(microelettronica)
alle
nanotecnologie (nanoelettronica) significa cambiare:
Architettura dei dispositivi elementari, ovvero passare dai
tradizionali dispositivi a giunzione a semiconduttore ad altre tipologie
completamente nuove;
Algoritmi computazionali: i nuovi dispositivi nanometrici lavorano
secondo le leggi della fisica quantistica e non della fisica classica oppure
sono basati sui fenomeni di scambio molecolare per cui richiedono
nuove procedure di calcolo;
Materiali e processi di fabbricazione, ovvero utilizzare non più solo
il silicio come materiale per la fabbricazione dei dispositivi e circuiti ma
ricorrere ad altre strutture, quali, ad esempio, i nanotubi di carbonio.
I nanotubi di carbonio, noti anche con l’acronimo di CNTs (Carbon
NanoTubes), stanno infatti suscitando notevole interesse per le loro
singolari proprietà elettroniche e meccaniche e la loro versatilità: essi
sono pertanto oggetto di studio in un ampio ventaglio di discipline che
spaziano dalla fisica dello stato solido, alla chimica e alla biologia, con
confini non ben definiti.
In questo articolo, dopo una descrizione delle proprietà
elettroniche, legate alla possibilità di esibire un comportamento
metallico o semiconduttivo in relazione alla loro geometria, vengono
182
La Comunicazione N.R.& N.
Principali applicazioni sensoristiche dei Nanotubi di Carbonio
Main Sensor applications of Carbon Nanotubes
esaminate alcune tra le principali applicazioni dei CNT nel campo della
sensoristica.
2. Tecnologie
Il carbonio può esistere in natura sotto varie forme, dette forme
allotropiche, tra cui le più famose sono il diamante e la grafite.
Come è noto, un atomo di carbonio ha 4 elettroni di valenza sugli
orbitali 2s e 2p, che possono facilmente interagire fra di loro a causa
della piccola differenza di energia fra questi orbitali. Un elettrone
dell’orbitale 2s può, cioè, combinarsi con uno, due, tre elettroni
dell’orbitale 2p dando origine alle cosiddette ibridazioni sp, sp2 ed sp3.
Nel caso del diamante, tutti e 4 gli elettroni sono regolarmente
accoppiati con gli elettroni di altri atomi di carbonio, formando così una
struttura tetraedrica (ibridazione sp3). Questo tipo di legame è molto
forte, ed è per questo che il diamante è così duro.
La grafite, invece, riesce ad accoppiare stabilmente solo tre
elettroni su quattro (ibridazione sp2), e lascia il quarto elettrone libero.
Ogni atomo di carbonio è legato ai tre atomi di carbonio adiacenti
mediante legami covalenti di tipo σ (cioè localizzati lungo la direzione
interatomica), che sono sullo stesso piano, con angoli tra loro di 120°.
Tanti atomi tutti insieme danno origine pertanto ad una struttura
planare, denominata grafene, riempita da esagoni i cui vertici sono,
appunto, gli atomi di carbonio. Il quarto elettrone si trova nell’orbitale
di tipo π (legame metallico tra i piani), che presenta lobi ortogonali al
piano del foglio di grafene. Le proprietà elettroniche dei nanotubi
possono essere studiate tenendo conto della relazione di dispersione
dell’energia per gli elettroni degli orbitali π.
Nella Fig. 1 è mostrato uno strato di grafite, con tutti gli atomi
legati tra loro.
Figura 1. Struttura planare
della grafite.
La grafite è formata da un'infinità di questi strati sovrapposti.
Poiché tutti gli elettroni, che non si sono accoppiati, stanno tra uno
183
R. Marani, A. G. Perri
strato e l'altro, i vari strati di grafite scivolano molto facilmente l'uno
sull'altro, rendendo la grafite morbida e friabile. Fino al 1985 erano
note solamente le due suddette forme di carbonio cristallino.
Gli studi dello scienziato americano Richard Smalley hanno portato
alla scoperta di una terza forma di arrangiamento regolare degli atomi
di carbonio: quella dei fullereni, chiamati così in onore dell’architetto
R. Buchminster-Fuller, le cui creazioni, chiamate “cupole geodetiche”
ricordano la struttura dei fullereni. Difatti i fullereni sono delle
“gabbie” approssimativamente sferiche formate da un arrangiamento
ordinato di strutture esagonali e pentagonali di atomi di carbonio.
Il primo fullerene scoperto è il C 60 (cfr. Fig. 2), che ha la stessa
forma di un pallone da calcio ed è per questo noto anche con il nome
di “buckyball”.
La storia dei nanotubi di carbonio ha origine nel 1991, con la
scoperta del giapponese Iijima [1] del laboratorio NEC di Tsunuba,
della possibilità di legare dei fullereni per formare strutture a forma di
tubi chiusi alle estremità, del diametro di pochi nanometri. Egli infatti
osservò, casualmente, dei filamenti di dimensioni nanometriche in un
residuo di fuliggine originato dalla vaporizzazione di grafite usata per
la produzione di fullereni.
Queste strutture lunghe e sottili furono chiamate nanotubi.
I nanotubi di carbonio possono essere pensati come fogli di grafite
arrotolati in forma cilindrica. La maggior parte dei nanotubi consiste di
diversi cilindri concentrici indicati come nanotubi a parete multipla
(Multi Wall Carbon NanoTubes, MWCNT, cfr. Fig. 3), ma esistono anche
nanotubi formati da un singolo strato (Single Wall Carbon NanoTubes,
SWCNT, cfr. Fig. 4), chiusi alle due estremità da due calotte emisferiche
[2-3].
184
Figura 2. Fullerene tipo
C60.
La Comunicazione N.R.& N.
Principali applicazioni sensoristiche dei Nanotubi di Carbonio
Main Sensor applications of Carbon Nanotubes
La Fig. 5 mostra il reticolo ad alveare del foglio di grafene. Si sono
scelti, come vettori del reticolo primitivo, a1 e a 2 che definiscono un
parallelogramma costituente la cella unitaria primitiva.
Un nanotubo di carbonio può essere costruito avvolgendo il foglio
in modo tale che l’origine (0,0) coincida con uno dei siti equivalenti del
reticolo (ad esempio il punto C della Fig. 5a).
Il vettore chirale o di avvolgimento:
C = n a 1 + ma 2
(1)
è specificato dalla coppia di interi (n, m).
Figura 3. Tipi di MWCNT
Figura 4. Struttura di un
SWCNT ideale
Figura 5. Foglio di
grafene con indicazione
del vettore chirale e del
vettore di traslazione
185
R. Marani, A. G. Perri
L’avvolgimento lungo le linee tratteggiate dà origine a due
particolari categorie di nanotubi:
•
•
quelli di tipo armchair (n = m, φ = 0°)
quelli del tipo zig-zag (m = 0, φ = 30°)
L’angolo φ è detto angolo chirale e rappresenta l’angolo tra il
vettore di traslazione T ortogonale al vettore chirale e il vettore H
ortogonale alla direzione armchair.
Per angoli chirali 0°< φ <30°, il nanotubo è indicato, più
genericamente, come di tipo chirale.
Le proprietà elettroniche dei nanotubi dipendono fortemente
dalla chiralità del nanotubo, cioè dagli indici n ed m, con 0 ≤ m ≤ n
per ragioni di simmetria legate al reticolo ad alveare: valori di m al di
fuori di questo range forniscono valori già ottenuti [4-5].
Il vettore chirale è legato al diametro d del nanotubo dalla
relazione:
d=
C a
=
n 2 + m 2 + nm
π π
(2)
L’angolo chirale è determinabile attraverso la seguente relazione:
cos ϕ =
(n + m )
3
2 n + m + nm
2
2
(3)
I valori di n ed m determinano quindi la torsione del nanotubo che
influenza la sua conduttanza, la densità, la struttura del reticolo ed
altre proprietà.
Un SWCNT è considerato metallico se il valore n-m è divisibile per
tre. Altrimenti il nanotubo è considerato semiconduttore.
Di conseguenza, quando i nanotubi sono caratterizzati da valori
casuali di n ed m dovremmo aspettarci che due terzi del nanotubo
saranno semiconduttori e l’altro terzo metallico.
In Fig. 6 sono rappresentati i tre tipi di nanotubi descritti.
Per studiare le proprietà elettroniche dei nanotubi, si rimanda ai
testi proposti in bibliografia [4-6]. In particolare le proprietà di
conducibilità della maggior parte dei solidi periodici possono essere
espresse in base all’approssimazione dell’elettrone fortemente legato
(tight binding approximation), in cui si parte dalla funzione d’onda per
un elettrone in un atomo libero e si costruisce poi una funzione orbitale
del cristallo, ossia una funzione di Bloch che descrive l’elettrone nel
campo periodico dell’intero cristallo [7-10].
186
La Comunicazione N.R.& N.
Principali applicazioni sensoristiche dei Nanotubi di Carbonio
Main Sensor applications of Carbon Nanotubes
La Fig. 7a mostra la rappresentazione tridimensionale della
cosiddetta equazione di dispersione relativa al foglio di grafene [7].
(a)
(b)
Come si può osservare, il suddetto grafico è formato da due grandi
“tende”: la “tenda” superiore è un’immagine della banda di
conduzione, quella inferiore rappresenta la banda di valenza.
Figura 6. Schemi delle tre
tipologie
di
nanotubi:
dall'alto in basso armchair
(n, n), a zig-zag (n, 0), e
chirale (n, m).
Figura 7. a) Diagramma
della relazione di
dispersione per il grafene;
b) punti K
Inoltre si rileva come, in corrispondenza dei vertici dell’esagono, le
due bande si tocchino: tali punti sono noti con il nome di punti K e
sono responsabili delle proprietà elettroniche del grafene (cfr. Fig. 7b).
L’energia di Fermi E F è così ridotta a questi sei punti.
Se le linee di quantizzazione relative al foglio di grafene avvolto a
cilindro attraversano i punti K, il nanotubo presenterà un
comportamento metallico, perché avrà bandgap nullo, altrimenti si
comporterà come un semiconduttore [10].
187
R. Marani, A. G. Perri
In particolare, se:
•
n - m = 3l
con l'intero, il nanotubo ha
comportamento metallico;
il nanotubo si comporta da
•
n - m ≠ 3l
semiconduttore.
L’analisi sperimentale delle proprietà elettroniche dei nanotubi
viene condotta utilizzando il sistema mostrato in Fig. 8.
Su un nanotubo vengono fatti accrescere due contatti metallici di
oro o platino, che fungono da source e drain mentre il nanotubo da
gate.
2.a Proprietà elettriche dei nano tubi metallici
La resistenza di un SWCNT metallico a temperatura ambiente può
variare in maniera significativa, oscillando da circa 6 KΩ a valori di
diversi MΩ. La maggior parte di queste variazioni sono dovute alle
variazioni della resistenza di contatto tra gli elettrodi ed il tubo.
E’ stato notato che i valori di conduttanza si avvicinano al valore G
= 4e2/h in cui e è la carica dell’elettrone e h è la costante di Planch.
Sperimentalmente si è visto che, per bassi valori di V sd (tensione
source-drain), la conduttanza è all’incirca 2e2/h, crescendo fino al
valore 3.4e2/h quando la temperatura viene diminuita. Assumendo
contatti perfetti, questo indica che il libero cammino medio è almeno ~
1μm a temperatura ambiente e aumenta man mano che il dispositivo
viene raffreddato.
Questi valori corrispondono a quelli che si hanno con una resistività
a temperatura ambiente pari a ρ ~ 10-6cm.
La conducibilità di un nanotubo metallico può, quindi, essere pari,
o persino più grande, a quella dei migliori metalli.
188
Figura 8. Sistema usato per
l’analisi sperimentale delle
proprietà elettriche dei CNT
La Comunicazione N.R.& N.
Principali applicazioni sensoristiche dei Nanotubi di Carbonio
Main Sensor applications of Carbon Nanotubes
2.b Proprietà elettriche dei nanotubi semiconduttori
La Fig. 9 mostra le misure della conduttanza di un SWCNT
semiconduttore in funzione della tensione di gate V g applicata al
substrato conduttore.
Il nanotubo conduce per valori negativi di V g mentre è spento per
valori positivi di V g .
La resistenza cambia tra lo stato “on” ed “off” di diversi ordini di
grandezza.
Per elevate tensioni positive di V g , si è osservata talvolta una
conduttanza di tipo n, specialmente nei nanotubi con grande diametro.
La conduttanza nelle regioni di tipo n è inferiore a quella delle regioni
di tipo p, dato il valore della funzione lavoro degli elettrodi in oro. Il
livello di Fermi dell’oro si allinea con la banda di valenza del SWCNT,
stabilizzando un contatto di tipo p con una barriera per l’iniezione degli
elettroni.
I nanotubi semiconduttori sono tipicamente di tipo p per V g = 0 a
causa dei contatti e anche perché alcune specie chimiche, come
l’ossigeno, vengono assorbite dal tubo ed agiscono come deboli
droganti di tipo p.
Figura 9. Valori della
conduttanza G in funzione
della tensione di Gate Vg
Inoltre, dalla Fig. 9 si può notare come la conduttanza inizialmente
aumenta linearmente con V g man mano che le lacune vengono
iniettate nel nanotubo. Ad alti valori di V g , la conduttanza smette di
aumentare ed assume un andamento costante. Questa saturazione
189
R. Marani, A. G. Perri
nella conduttanza è dovuta sia al nanotubo sia alle resistenze di
contatto tra gli elettrodi metallici e il nanotubo.
A regime, quando la conducibilità G aumenta linearmente con V g ,
le proprietà del dispositivo possono essere descritte dalla relazione:
G=
µC 'g ( Vg − VT )
(4)
L
dove C 'g è la capacità per unità di lunghezza del tubo, V T è la tensione
di soglia e
 è la mobilità.
Usando questa relazione possiamo dedurre sperimentalmente la
mobilità del nano tubo.
3. Alcune tra le principali applicazioni dei CNT nel campo della
sensoristica
3.a Sensori chimici
Dato che la conduttanza dei nanotubi dipende fortemente dalla
struttura atomica, drogaggio chimico e condizioni ambientali, è
possibile utilizzare i CNT come sensori chimici [11].
Infatti essi sono in grado di individuare piccole concentrazioni di
molecole di gas come diossido di azoto (NO 2 ) e ammoniaca (NH 3 ) a
temperatura ambiente.
Si è rilevato che per un SWCNT semiconduttore esposto a 200 ppm
di NO 2 la conduttanza elettrica può aumentare di tre ordini di
grandezza in pochi secondi. Al contrario l’esposizione al 2 % di NH 3
provoca una diminuzione della conduttanza di circa due ordini di
grandezza (cfr.
Fig. 10).
Misure su un SWCNT (10,0) in ambiente NO 2 hanno condotto alle
seguenti considerazioni: le molecole di NO 2 si legano al nanotubo con
trasferimento di carica dall’atomo di C alla molecola di NO 2 , che porta
ad un drogaggio di tipo p del nanotubo semiconduttore. L’aumento
delle lacune nel SWNT è responsabile dell’incremento della
conduttanza rilevato.
Per un sistema a SWCNT e NH 3 il trasferimento di carica è dal NH 3 al
nanotubo e porta ad un drogaggio di tipo n corrispondente alla
diminuzione della conduttanza mostrata in Fig. 10.
190
La Comunicazione N.R.& N.
Principali applicazioni sensoristiche dei Nanotubi di Carbonio
Main Sensor applications of Carbon Nanotubes
Un risultato molto importante è stato trovato per l’H 2 O: la
configurazione molecolare mostra un interazione repulsiva e nessun
trasferimento di carica quando la molecola di acqua è vicina alla
superficie del nanotubo. Questo risultato è consistente con
l’osservazione sperimentale che la conduttanza del nanotubo non
cambia significativamente quando esso è completamente immerso in
acqua e questo dà l’importante possibilità di usare i SWCNT come
sensori biochimici operanti in acqua a temperatura fisiologica.
Figura 10. Variazioni della
conduttanza del nanotubo
quando esposta a NO2 e
NH3
Una struttura EIS (Electrolyte Insulator Semiconductor) può essere
usata per misurare le concentrazioni ed i tipi di ioni. In un tipico
sensore EIS viene applicata una differenza di potenziale al back-gate del
semiconduttore, il quale attira gli ioni presenti nell’elettrolita verso la
superficie dell’ossido. La disposizione degli ioni in risposta ad una
specifica V g è determinata dalle dimensioni e dalla carica degli ioni.
Misurando la capacità di gate C g in funzione di V g si possono trovare sia
la concentrazione che la specie dello ione.
191
R. Marani, A. G. Perri
3.b Eliminazione dei gas tossici
I nanotubi, a differenza del carbonio attivo, permettono una
maggiore interazione tra la loro superficie interna e le molecole di gas
tossici che possono scorrere al loro interno [12]. Questa proprietà è
importante per l’assorbimento dei gas di scarto nelle produzioni
industriali come la diossina, sottoprodotto altamente inquinante per
aria, terreno, acqua e tutta la catena alimentare.
3.c Applicazioni in acustica
Alcuni ricercatori, nello sforzo di produrre un nuovo microfono più
sensibile, hanno cercato di imitare la natura. E’ stato quindi sviluppato
un dispositivo che può essere definito come una “coclea artificiale”
[13].
In questo apparato vengono usati vettori di nanotubi come le
cellule cigliate del nostro apparato uditivo. Il loro movimento e quindi
le loro vibrazioni dovute all’urto delle onde sonore vengono
trasformate in segnali elettrici. Lo stesso fenomeno è sfruttato nelle
comuni membrane usate nei microfoni, ma esistono sostanziali
differenze tra i due casi. Mentre le ultime più sono piccole, meno
risentono delle onde sonore più lievi, le ciglia a nanotubi vibrano anche
se sottoposte a suoni più gravi. Inoltre i nanotubi presentano una
naturale direzionalità: essi si piegano allontanandosi dalla sorgente del
suono. Questo è molto importante perché si può ottenere
un’informazione direzionale con un solo sensore a differenza dei
comuni dispositivi o dell’apparato uditivo umano, che ha bisogno
necessariamente di due orecchi.
Inoltre l’abilità dei nanotubi di operare in aria, a differenza di tutte
le ciglia naturali che operano in un liquido, permette di eliminare ogni
complesso apparato che simula l’interfaccia aria-liquido dei sistemi
naturali.
La stessa tecnologia può essere sfruttata per le applicazioni militari
(costruzione di sensori per intercettare sottomarini) o per le
applicazioni mediche (nuovi stetoscopi che possono navigare nel flusso
sanguigno e riconoscere eventi biochimici non scopribili altrimenti).
3.d Applicazioni spaziali
E’ noto che le navicelle spaziali nei loro viaggi nel cosmo sono
sottoposti a probabili collisioni con micrometeoriti, che potrebbero
danneggiare la loro struttura compromettendo la vita di chi è
all’interno.
192
La Comunicazione N.R.& N.
Principali applicazioni sensoristiche dei Nanotubi di Carbonio
Main Sensor applications of Carbon Nanotubes
Vi è inoltre la continua esposizione a radiazioni cosmiche altamente
nocive per la salute e la presenza di ossigeno atomico altamente
reattivo, che tende ad attirare atomi di carbonio, idrogeno e azoto
(esso è capace, come è stato dimostrato, di distruggere oggetti in
orbita delle dimensioni di un autobus).
Sembra che l’uso dei nanotubi di carbonio possa sopperire a tutte
queste difficoltà [14]: è possibile, infatti, equipaggiare le nuove
astronavi con una fitta rete di nanotubi, attraverso i quali viaggiano
messaggi che informano un computer centrale sullo stato di ogni
piccola parte della struttura costituente la navicella. Sarebbe così
possibile, allo stesso modo di una reazione epidermica, cicatrizzare le
superfici se dovessero subire un danno. Questa rete, oltre ad
alleggerire la struttura del mezzo, può essere utilizzata per contenere
idrogeno liquido in uno spessore molto piccolo per schermare
l’equipaggio dalle radiazioni cosmiche.
3.e Applicazioni nelle celle a combustibile
Le eccezionali proprietà di adsorbimento dei nanotubi sono
approfondite anche in vista di una eventuale applicazione nelle celle a
combustibile per lo stoccaggio dell’idrogeno andando a rimpiazzare i
comuni sistemi basati su bombole, idruri e carboni attivi, che
richiedono alte pressioni e basse temperature per poter immagazzinare
una sufficiente quantità di idrogeno. In questo caso verrebbero usati
nanotubi drogati con litio e potassio dato il successo di alcuni
esperimenti a differenza di altri, che non hanno avuto in seguito
conferme, dai quali emergeva che l’adsorbimento di idrogeno arrivava
fino al 30% del peso del carbonio adsorbente.
3.f Nanomolle e nanobilance
Un gruppo di ricercatori è riuscito a costruire un MWCNT come se
fosse un tubo telescopico: due nanotubi coassiali che riescono a
scorrere l’uno dentro l’altro. Un nanotubo come questo può essere
utilizzato come un nanoammortizzatore o nanomolla nelle
nanomacchine, applicazione che ora potrebbe risultare fantascientifica.
Inoltre, i nanotubi sono molto sensibili ai campi elettrici, sottoposti
ai quali cominciano a vibrare e, controllando la frequenza di
oscillazione, è possibile portarli in risonanza. Questa proprietà può
essere sfruttata per la costruzione di nanobilance, utili nella misura di
corpi con massa nell’ordine dei femtogrammi.
3.g Monitor a nanotubi di carbonio
Dato che gli CNT si presentano inerti, essi possono essere più stabili
e più pratici rispetto alle comuni sorgenti di immissione di elettroni
193
R. Marani, A. G. Perri
(metalliche o inorganiche) per stimolare l’emissione di luce colorata sui
pannelli sottili.
Nei dispositivi reali, gas residui possono essere ionizzati e gli ioni
derivanti possono bombardare la punta dell’emettitore di elettroni
facendolo scoppiettare e rendendolo meno efficiente.
I nanotubi, invece, resistono a questo tipo di fenomeno: in questo
modo potremo avere dei monitor piatti molto più durevoli.
3.h Nanotubi come catodi negli apparecchi a raggi X
I nanotubi di carbonio possono rimpiazzare i filamenti metallici
utilizzati nei tradizionali apparecchi a raggi X, che necessariamente
devono essere portati ad elevate temperature prima di essere
sottoposti a campo elettrico [15].
I potenziali vantaggi di questa sostituzione sono numerosi:
•
•
i nanotubi possono funzionare a temperatura ambiente
le macchine possono essere fabbricate più piccole e
persino portatili e possono essere più efficienti e meno
costose.
3.i Nanotubi antibatterici
È stata scoperta una classe di nanotubi che possono essere
utilizzati come farmaci per combattere alcune infezioni batteriche
dovute a batteri che hanno sviluppato una certa resistenza ai
tradizionali antibatterici.
Questi tubi sono avvolti da catene di aminoacidi che possono
attaccare e crescere sulle pareti delle cellule e, pungendole,
permettono di tirare fuori ogni loro componente critico. Essi, inoltre,
possono essere anche generati in modo tale da attaccare e uccidere
solo specifici agenti patogeni.
In merito sono stati condotti con effetti positivi esperimenti su topi
per curare una letale infezione da una razza di stafilococchi resistenti
agli antibatterici.
3.l Muscoli artificiali
La sintesi di nanotubi lunghi come un capello (8 cm) ha aperto le
porte alla realizzazione di robusti azionatori per muscoli artificiali [1618].
194
La Comunicazione N.R.& N.
Principali applicazioni sensoristiche dei Nanotubi di Carbonio
Main Sensor applications of Carbon Nanotubes
I nuovi attuatori utilizzano fogli di SWCNT come elettrodi di un
condensatore imbevuti di elettrolita (cfr. Fig. 11).
Nella Fig. 11(A), un potenziale applicato inietta cariche opposte nei
due elettrodi immersi in un elettrolita solido o liquido. Queste cariche
vengono completamente bilanciate dagli ioni provenienti
dall’elettrolita.
Dipendentemente dal numero di nanotubi per elettrodo e da
potenziale applicato, si possono avere deformazioni meccaniche in fase
o fuori fase.
La Fig. 11(B) mostra l’iniezione di cariche in un elettrodo a fascio di
nanotubi.
La Fig. 12 mostra un attuatore immerso in una soluzione acquosa di
NaCl, costituito da due strisce di SWCNT tenute insieme da una striscia
di scotch tape (zona bianca tra le due strisce grigie).
Figura 11. Illustrazione
schematica dell’iniezione di
cariche in un attuatore
elettromeccanico a
nanotubi di carbonio
Figura 12.Schematizzazione
di un attuatore a trave a
sbalzo
195
R. Marani, A. G. Perri
Quando viene applicata una tensione, le due strisce si muovono
verso destra o sinistra, rispetto alla fase di rilassamento, che è quella
rappresentata al centro.
La deformazione meccanica del CNT può essere descritta dal
coefficiente di strain S v , definito come rapporto tra la variazione di
tensione di deformazione e la variazione di potenziale applicato
all’elettrodo [5]. Si è visto sperimentalmente che differenze di
potenziale di pochi volt generano grandi deformazioni, rendendo
questi nuovi attuatori più convenienti rispetto ai convenzionali
attuatori ferroelettrici.
3.m SW-CNTFET per la riconoscimento di sequenze di DNA
In generale un biosensore è un particolare trasduttore costituito da
un elemento sensibile, biologicamente attivo (enzimi, cellule, anticorpi
ecc.) e da una parte elettronica. Il principio di funzionamento è molto
semplice: l'elemento biologico interagisce con il substrato da analizzare
e un sistema di trasduzione (sensore) converte la risposta biochimica in
un segnale elettrico.
Le attuali tecniche di biomonitoraggio sono molto selettive e
specifiche ma, al tempo stesso, difficili da miniaturizzare. Biosensori
basati sui nanotubi formati da un singolo strato (SWCNTs) sono
intrinsecamente portati alla miniaturizzazione, visto le peculiari
caratteristiche strutturali e di conduzione dei nanotubi. Essi infatti
manifestano un significativo cambio di conduttanza in risposta alla
presenza di piccole biomolecole e proteine e per questo si considerano
come versatili mezzi per la costruzione di biosensori.
In particolare sono stati progettati biosensori, basati su SWCNTFET, molto promettenti per la rilevazione di varie specie biologiche
come DNA, proteine e cellule. Infatti, nell’ambito della ricerca
biomedica il riconoscimento di sequenze di DNA consente di stabilire la
mappa genetica di un soggetto e, sulla base di questa, conoscere la
propensione verso determinate malattie (utile a scopo preventivo),
eventuali malattie latenti in atto, la reazione soggettiva ai farmaci
(utilissima per effettuare un dosaggio personalizzato di qualunque
farmaco), ecc.
Come è noto [5], il transistore ad effetto di campo su nanotubo di
carbonio, noto con l’acronimo di CNTFET (Carbon NanoTube Field
Effect Transistor), ampiamente analizzato e caratterizzato [19-26], è un
FET, che utilizza un singolo nanotubo di carbonio (SW) o una serie di
196
La Comunicazione N.R.& N.
Principali applicazioni sensoristiche dei Nanotubi di Carbonio
Main Sensor applications of Carbon Nanotubes
nanotubi di carbonio (MW) come materiale del canale al posto del
tradizionale silicio.
Poiché le caratteristiche dei nanotubi di carbonio dipendono
fortemente dalla loro chiralità, dal diametro e dal drogaggio, le
caratteristiche dei CNTFET possono essere controllate scegliendo la
morfologia appropriata del CNT.
I nanotubi semiconduttori a singola parete sono i più impiegati per
la realizzazione del canale del CNTFET, perché, in tal modo, le
caratteristiche elettroniche del dispositivo non sono influenzate dalle
pareti interne.
Il funzionamento dei SWCNT-FET, come biosensori per la
rilevazione del DNA, è basato sul fenomeno dell’ibridazione.
Come è noto [27], l'ibridazione è l'appaiamento complementare di
due filamenti di DNA oppure di un filamento di DNA e l'altro di acido
ribonucleico (RNA) ed è una forma di riconoscimento molecolare
estremamente specifica.
Per mezzo dell’ibridazione si possono formare delle doppie eliche
di DNA-DNA, DNA-RNA o RNA-RNA. La condizione fondamentale
perché ciò avvenga è che in soluzione si mettano molecole con
sequenza complementare (antiparallele).
In particolare viene sfruttata la proprietà del DNA di dissociare e
riassociare i due filamenti della doppia elica, insieme alla possibilità di
sintetizzare molecole di DNA "marcate". All’interno di una miscela di
DNA si può infatti identificare un frammento che porta una sequenza
nota facendolo ibridare a un filamento di DNA marcato che abbia la
sequenza complementare.
Sulla base di queste considerazioni, in [28] è stato progettato un
sensore SWNT-FET a DNA, in grado di rilevare campioni con
concentrazioni pico o micromolari di DNA.
In particolare è stato dimostrato [28] che il singolo filamento di
DNA interagisce attraverso legami non covalenti con il SWCNT ed
inoltre è in grado di formare un ibrido stabile con il singolo CNT
avvolgendosi intorno ad esso (cfr. Fig.13).
197
R. Marani, A. G. Perri
Figura 12.
Schematizzazione di un
attuatore a trave a sbalzo
Più precisamente il meccanismo consiste in una fase di ibridazione
tra il DNA assorbito sulla superficie del nanotubo e un DNA target,
portando ad una riduzione della conduttanza del SWCNT-FET, poichè il
filamento di DNA sul nanotubo, dopo l’ibridazione, genera carica nel
SWCNT con conseguente variazione della conduttanza del FET.
Conclusioni
In questo articolo, dopo una breve descrizione delle proprietà
elettroniche dei nanotubi di carbonio, sono state esaminate alcune tra
le principali applicazioni dei CNT nel campo della sensoristica. Tra le
varie applicazioni esaminate emergono i biosensori ed i muscoli
artificiali (assemblaggi di vettori di miliardi di singoli nanoattuatori),
che, se utilizzati per avvolgere il cuore di un paziente ammalato per
supportare i muscoli cardiaci, potrebbero servire come ponte in un
trapianto o per ovviare ad un necessario trapianto di cuore.
198
La Comunicazione N.R.& N.
Principali applicazioni sensoristiche dei Nanotubi di Carbonio
Main Sensor applications of Carbon Nanotubes
Bibliografia e webgrafica di riferimento.
[1] Ijima S.: “Helical microtubules of graphitic carbon”; Nature, vol.
354(56), 1991, pp. 56-58.
[2] Avouris Ph.; Radosavljević M.; Wind S.J. Carbon Nanotube
Electronics and Optoelectronics. In: Rotkin SV, Subramone S,
editors. Applied Physics of Carbon Nanotubes: Fundamentals of
Theory, Optics and Transport Devices, Berlin Heidelberg; SpringerVerlag; ISBN: 978-3-540-23110-3, 2005.
[3] Datta S. Cambridge Studies in Semiconductor Physics and
Microelectronic Engineering 3. Electronic Transport in Mesoscopic
Systems, New York: Cambridge University Press; ISBN: 978-0-521599943-6, 1995.
[4] Perri A.G.: “Fondamenti di Dispositivi Elettronici”; Ed. Progedit,
2010, ISBN 978-88-6194-080-2.
[5] Perri A.G.: “Dispositivi Elettronici Avanzati”; Ed. Progedit, 2011,
ISBN 978-88-6194-081-9.
[6] Perri A.G.: “Modelling and Simulations in Electronic and
Optoelectronic Engineering”; Ed. Research Signpost, 2011, ISBN
978-81-308-0450-7.
[7] Marani R., Perri A.G.: “Modelling the Electronic Characteristics of
Carbon Nanotube ”; 1st Transalp’Nano 2008 Conference, Lione,
Francia, 27 – 29 Ottobre 2008.
[8] Dohn S.: “Investigation of mechano-electrical properties of multiwalled carbon nanotubes”; Niels Bohr Institute and NanoScience
Center, University of Copenaghen, 2003, pp.62.
[9] Schonenberger C.: “Bandstructure of graphene and carbon
nanotubes: an exercise in condensed matter physics”; University of
Basilea, 15, 2000.
[10]Marani R., Perri A.G.: “A Light Model To Evaluate The Dispersion
Equation of Carbon Nanotubes ”; International Journal of Research
and Reviews in Applied Sciences, Vol. 15(1), 2013, pp. 57-61.
[11]Peng S., O'Keeffe J., Wei C., Cho K.: “Carbon Nanotube Chemical
and Mechanical Sensors”, Proceedings of 3rd International
Workshop on Structural Health Monitoring;, 2009, CA.
[12] http://www.universonline.com.
[13] http://www.hearinglossweb.com/Medical/cures/artcoch.htm.
199
R. Marani, A. G. Perri
[14] http://www.espressoonline.it
[15] http://www.nanoelectronicasplanet.com.
[16] http://www.devicelink.com.
[17] Baughman H. , Cui C.: “Carbon Nanotube Actuators”, Science, vol.
284, 1999.
[18] http://eurekalert.org.
[19] Marani R., Gelao G., Diana R., Perri A.G.: “A Semi-Empirical SPICE
Model for n-type Conventional CNTFETs”; IEEE Transactions on
Nanotechnology, Vol. 10(3), 2011, pp.506-512.
[20]Marani R., Perri A.G.: “A DC Model of Carbon Nanotube Field Effect
Transistor for CAD Applications”; International Journal of
Electronics, Vol, 99(3), 2012, pp. 427 - 444.
[21]Marani R., Gelao G., Perri A.G.: “Comparison of ABM SPICE library
with Verilog-A for Compact CNTFET model implementation”,
Current Nanoscience, Vol. 8(4), 2012, pp. 556-565.
[22]Marani R., Gelao G., Perri A.G.: “Modelling of Carbon Nanotube
Field Effect Transistors oriented to SPICE software for A/D circuit
design”; Microelectronics Journal, Vol. 44(1), 2013, pp.33-39.
[23]Marani R., Perri A.G.: “Modelling of CNTFETs for Computer Aided
Design of A/D Electronic Circuits”, Current Nanoscience, Vol. 10(3),
2014, pp. 326-333.
[24]Marani R., Perri A.G.: “Dc Thermal Modeling of CNTFETs Based on a
Semi-Empirical Approach”, International Journal of Advances in
Engineering & Technology (IJAET), VoL.8(2), 2015, pp. 38-45.
[25]Gelao G., Marani R., Pizzulli L., Perri A.G.: “A Model to Improve
Analysis of CNTFET Logic Gates in Verilog-A-Part I: Static Analysis ”,
Current Nanoscience, Vol. 11(4), 2015, pp. 515-526.
[26]Gelao G., Marani R., Pizzulli L., Perri A.G.: “A Model to Improve
Analysis of CNTFET Logic Gates in Verilog-A-Part II: Dynamic
Analysis ”, in corso di pubblicazione su Current Nanoscience.
[27]Hagan M.F, Chakraborty A.K.: “Hybridization dynamics of surface
immobilized DNA”, Journal of Chemical Physics, Vol. 120(10), 2004,
pp. 4958-4968.
[28]Hu P., Zhang J., Li L., Wang Z., O’Neill W., Estrela P.: "Carbon
Nanostructure-Based Field-Effect Transistors for Label-Free
Chemical/Biological Sensors”, Sensors, Vol. 10, 2010, pp. 51335159.
200
La Comunicazione N.R.& N.
La Comunicazione N.R.&N.
Giancarlo Butti
Banco Popolare - Audit
Conformità e presidi
231/2001
Alberto Piamonte
ISACA
Un modello per la valutazione dei
rischi relativamente al trattamento dei
dati personali nelle comunicazioni
elettroniche
A risk assessment model regarding the personal data processing in
electronic communications
Sommario: L'articolo si propone di illustrare un modello per condurre
una “Privacy Impact Assessment (PIA)": valutazione dell'impatto-privacy
(parte integrante di un approccio Privacy by Design), che costituisce uno
dei requisiti contenuti nel nuovo Regolamento Privacy UE (previso per il
2016) e che sarà applicabile alle diverse modalità di comunicazione
elettronica.
Abstract: The purpose of this paper is to explain the principles which
form the basis for a "Privacy Impact Assessment (PIA)" one of the
requirements contained in the new EU Privacy Regulations (final approval
expected for 2016) and will be applicable to various forms of electronic
communication. and is an integral part of taking a Privacy by Design
approach.
INQUADRAMENTO NORMATIVO
La proposta di regolamento del Parlamento europeo e del Consiglio
concernente la tutela delle persone fisiche con riguardo al trattamento
dei dati personali e la libera circolazione di tali dati (nuovo Regolamento
UE sulla privacy) fra le varie novità introdotte richiede che il DATA
CONTROLLER (tale termine nella versione italiana è tradotto come
RESPONSABILE, ma in realtà corrisponde all’attuale TITOLARE di
trattamento così come definito nel Dlgs 196/03) effettui nei casi di
maggior rischio per la protezione dei dati personali una valutazione
dell’impatto sulla protezione dei dati stessi (Data Protection impact
Assessment).
Articolo 33 - Valutazione d'impatto sulla protezione dei dati
1. Quando un tipo di trattamento, allorché prevede in particolare
l'uso di nuove tecnologie, considerati la natura, l'oggetto, il contesto e le
finalità del trattamento, può presentare un rischio elevato per i diritti e le
libertà delle persone fisiche, ad esempio discriminazione, furto o
usurpazione d'identità, perdite finanziarie, pregiudizio alla reputazione,
decifratura non autorizzata della pseudonimizzazione, perdita di
201
G. Butti, A. Piamonte
riservatezza dei dati protetti da segreto professionale o qualsiasi altro
danno economico o sociale importante, il responsabile del trattamento
(…) effettua, prima di procedere al trattamento, una valutazione
dell'impatto delle operazioni di trattamento previste sulla protezione dei
dati personali. (…).
L’articolo 33 del Regolamento UE, oltre a declinare le modalità con
cui effettuare la valutazione d’impatto:
…
3. La valutazione contiene almeno una descrizione generale delle
operazioni di trattamento previste, una valutazione del rischio di cui al
paragrafo 1, le misure previste per affrontare il rischio, includendo le
garanzie, le misure di sicurezza e i meccanismi per garantire la
protezione dei dati personali e dimostrare la conformità al presente
regolamento, tenuto conto dei diritti e dei legittimi interessi degli
interessati e delle altre persone in questione.
3 bis. Nella valutazione della liceità e dell'impatto del trattamento
compiuto dai relativi responsabili o incaricati si tiene debito conto del
rispetto da parte di questi ultimi dei codici di condotta approvati di cui
all'articolo 38, in particolare ai fini di una valutazione d'impatto sulla
protezione dei dati.
individua anche quelli che sono i casi (definito dall’autorità di
controllo) nei quali tale valutazione è indispensabile.
Indipendentemente dalla finalità del trattamento che si sta
analizzando, appare evidente che le comunicazioni elettroniche, così
come definite dal Dlgs 196/03:
Art. 4. Definizioni
2. Ai fini del presente codice si intende, inoltre, per:
a) "comunicazione elettronica", ogni informazione scambiata o
trasmessa tra un numero finito di soggetti tramite un servizio di
comunicazione
elettronica
accessibile
al
pubblico.
Sono escluse le informazioni trasmesse al pubblico tramite una rete di
comunicazione elettronica, come parte di un servizio di radiodiffusione,
salvo che le stesse informazioni siano collegate ad un contraente o utente
ricevente, identificato o identificabile;
e) "servizio di comunicazione elettronica", i servizi consistenti
esclusivamente o prevalentemente nella trasmissione di segnali su reti di
comunicazioni elettroniche, compresi i servizi di telecomunicazioni e i
servizi di trasmissione nelle reti utilizzate per la diffusione circolare
radiotelevisiva, nei limiti previsti dall'articolo 2, lettera c), della direttiva
2002/21/CE del Parlamento europeo e del Consiglio, del 7 marzo 2002;
sono trasversali a tutti gli scenari presenti e futuri individuati dalla
normativa e che pertanto è necessario considerarli sempre nella
valutazione dei rischi richiesta.
Del resto l’importanza assunta dalle comunicazioni elettroniche ed il loro
alto profilo di rischio è già evidente nell’attuale versione del Dlgs 196/03,
202
La Comunicazione N.R.& N.
Un modello per la valutazione dei rischi relativamente al trattamento dei dati personali nelle comunicazioni elettroniche
A risk assessment model regarding the personal data processing in electronic communications
che con decreto legislativo 28 maggio 2012, n. 69 ha introdotto nel Codice
per la protezione dei dati personali l’articolo 32-bis.
Tale articolo, obbliga i titolari di trattamento, fornitori di servizi di
comunicazione elettronica accessibili al pubblico, alla notifica di una
violazione di dati personali, così come definita nell’Art. 4 dello stesso
Codice.
Art. 4. Definizioni
3. Ai fini del presente codice si intende, altresì, per:
…
g-bis) "violazione di dati personali": violazione della sicurezza che
comporta anche accidentalmente la distruzione, la perdita, la modifica, la
rivelazione non autorizzata o l'accesso ai dati personali trasmessi,
memorizzati o comunque elaborati nel contesto della fornitura di un
servizio di comunicazione accessibile al pubblico.
Gli adempimenti richiesti al Titolare da parte di questo articolo sono
molto onerosi e prevedono una comunicazione della violazione sia al
Garante
Art. 32-bis Adempimenti conseguenti ad una violazione di dati
personali
1. In caso di violazione di dati personali, il fornitore di servizi di
comunicazione elettronica accessibili al pubblico comunica senza indebiti
ritardi detta violazione al Garante.
sia ai singoli contraenti (termine più esteso dei semplici interessati in
quanto comprende anche le persone giuridiche):
In particolare quest’ultimo adempimento può essere estremamente
costoso in termini di risorse tecniche ed economiche, considerando la
potenziale numerosità di tali soggetti. In caso di mancata spontanea
comunicazione ai contraenti da parte del Titolare è lo stesso Garante che
può imporla.
Un fattore esimente a tale comunicazione è descritto al comma 3 dello
stesso articolo 32-bis.
3. La comunicazione di cui al comma 2 non è dovuta se il fornitore ha
dimostrato al Garante di aver utilizzato misure tecnologiche di
protezione che rendono i dati inintelligibili a chiunque non sia
autorizzato ad accedervi e che tali misure erano state applicate ai dati
oggetto della violazione
L’obbligo di segnalazione di una violazione, pur essendo estremamente
impegnativo, viene ripreso dallo stesso Garante per la protezione dei dati
personali, ad esempio nel Provvedimento generale prescrittivo in tema
di biometria del 12 novembre 2014
…prescrive, ai sensi dell'Art. 154, comma 1, lettera c) del Codice, che i
titolari di trattamenti biometrici comunichino al Garante, entro
203
G. Butti, A. Piamonte
ventiquattro ore dalla conoscenza del fatto, le violazioni dei dati
biometrici secondo le modalità di cui al paragrafo 3;
o, seppure in forma diversa, da altri enti quali Banca d’Italia nelle sue
Nuove disposizioni di vigilanza prudenziale per le banche - Circolare n.
263 del 27 dicembre 2006 – 15° aggiornamento del 2 luglio 2013
…I gravi incidenti di sicurezza informatica sono comunicati
tempestivamente alla Banca d’Italia, con l’invio di un rapporto sintetico
recante una descrizione dell’incidente e dei disservizi provocati agli utenti
interni e alla clientela nonché i seguenti dati, accertati o presunti: i) data e
ora dell’accadimento o della manifestazione dell’incidente; ii) risorse e
servizi coinvolti; iii) cause, tempi e modalità previsti per il pieno ripristino
dei livelli di disponibilità e sicurezza definiti e per il completo
accertamento dei fatti connessi; iv) descrizione delle azioni intraprese e
dei risultati ottenuti; v) una valutazione dei danni delle perdite
economiche o danni d’immagine.
Tale obbligo inoltre viene esteso a tutti i data controller,
indipendentemente dal tipo di trattamento effettuato, nella Proposta del
nuovo Regolamento UE sulla privacy, che all’ Articolo 31 Notifica di una
violazione dei dati personali all'autorità di controllo, così recita:
1. In caso di violazione dei dati personali suscettibile di presentare un
rischio elevato per i diritti e le libertà delle persone fisiche, ad esempio
discriminazione, furto o usurpazione d'identità, perdite finanziarie,
decifratura non autorizzata della pseudonimizzazione, pregiudizio alla
reputazione, perdita di riservatezza dei dati protetti da segreto
professionale o qualsiasi altro danno economico o sociale importante, il
responsabile del trattamento notifica la violazione all'autorità di controllo
competente ai sensi dell'articolo 51 senza ritardo ingiustificato, ove
possibile entro 72 ore dal momento in cui ne è venuto a conoscenza.
Qualora non sia effettuata entro 72 ore, la notifica all'autorità di controllo
è corredata di una giustificazione motivata.
Anche in questo caso la comunicazione deve avvenire anche ni confronti
dell’interessato: Articolo 32 Comunicazione di una violazione dei dati
personali all'interessato.
Per tornare alla valutazione di impatto, richiesta dal nuovo Regolamento
UE, questa non appare in realtà del tutto nuova, essendo in parte
paragonabile a quanto prescritto dall’Art. 31. Obblighi di sicurezza del
Dlgs 196/03:
1. I dati personali oggetto di trattamento sono custoditi e controllati,
anche in relazione alle conoscenze acquisite in base al progresso tecnico,
alla natura dei dati e alle specifiche caratteristiche del trattamento, in
modo da ridurre al minimo, mediante l'adozione di idonee e preventive
misure di sicurezza, i rischi di distruzione o perdita, anche accidentale, dei
204
La Comunicazione N.R.& N.
Un modello per la valutazione dei rischi relativamente al trattamento dei dati personali nelle comunicazioni elettroniche
A risk assessment model regarding the personal data processing in electronic communications
dati stessi, di accesso non autorizzato o di trattamento non consentito o
non conforme alle finalità della raccolta.
Anche in questo caso, il legislatore ha ritenuto che le comunicazioni
elettroniche presenti dei profili di rischio più alti rispetto agli altri
trattamenti, ed ha prescritto al riguardo uno specifico articolo Art. 32.
Obblighi relativi ai fornitori di servizi di comunicazione elettronica
accessibili al pubblico.
La differenza più evidente fra il nuovo Regolamento UE e l’attuale Dlgs
196/03, riguarda la presenza in quest’ultimo, non solo di una generica
autovalutazione da parte del DATA CONTROLLER del proprio livello di
rischio rispetto ad uno o più trattamenti, ma anche la presenza, all’Art.
33 del Codice, di una serie di misure minime:
1 Nel quadro dei più generali obblighi di sicurezza di cui all'articolo 31, o
previsti da speciali disposizioni, i titolari del trattamento sono comunque
tenuti ad adottare le misure minime individuate nel presente capo o ai
sensi dell'articolo 58, comma 3, volte ad assicurare un livello minimo di
protezione dei dati personali.
che costituiscono una sorta di check list alla quale i DATA CONTROLLER
devono attenersi per essere quantomeno conformi con la normativa
(l’omessa adozione delle misure minime è presidiata penalmente).
La conseguenza negativa di questo tipo di approccio normativo, è stata la
conseguente interpretazione dei DATA CONTROLLER, che hanno da
sempre privilegiato la semplice conformità alla reale sicurezza (si è sicuri
se si è conformi) così come richiesta dal già citato articolo 31 del Codice (e
dall’articolo 32 per i fornitori di servizi di comunicazione elettronica
accessibili al pubblico).
I tentativi di semplificazioni successivamente introdotti dal legislatore non
hanno fatto altro che rafforzare tale visione.
Le misure minime (che nell’intenzione originale del legislatore avrebbero
dovuto essere riviste periodicamente) hanno mostrato tutti i loro limiti,
essendo applicate in forma indifferenziata sia per la micro azienda e
libero professionista, sia per la grande banca o pubblica amministrazione.
Di contro a tale approccio, il nuovo Regolamento UE ribalta il punto di
vista: si è conformi se si è sicuri, ed è compito del DATA CONTROLER
dimostrare di esserlo.
Anche in questo caso non si tratta di una novità assoluta, considerando
che il Dlgs 196/03 con l’ Art. 15. Danni cagionati per effetto del
trattamento, equiparando il trattamento dei dati personali allo
svolgimento di un’attività pericolosa prescrive proprio al DATA
CONTROLLER l’onere di dimostrare il proprio livello di sicurezza.
205
G. Butti, A. Piamonte
Art. 15. Danni cagionati per effetto del trattamento
1. Chiunque cagiona danno ad altri per effetto del trattamento di dati
personali è tenuto al risarcimento ai sensi dell'articolo 2050 del codice
civile.
2. Il danno non patrimoniale è risarcibile anche in caso di violazione
dell'articolo 11.
CODICE CIVILE
Art. 2050 (Responsabilità per l'esercizio di attività pericolose)
Chiunque cagiona danno ad altri nello svolgimento di un'attività
pericolosa, per sua natura o per la natura dei mezzi adoperati, è tenuto al
risarcimento, se non prova di avere adottato tutte le misure idonee a
evitare il danno.
La capacità di effettuare una adeguata analisi preliminare, o di dimostrare
a posteriori il proprio livello di sicurezza (e quindi di conformità) è quindi
una necessità che richiede l’uso di adeguati modelli di analisi e di
gestione.
Si passa quindi da una visione di “regole da rispettare” a quella di “quali
obiettivi raggiungere”.
Sempre più di frequente ci si rende conto che l’adozione “passiva” di
soluzioni preconfezionate (one-size-fits-all) con l’obiettivo primario di
ottenere un attestato di conformità, non fornisce sufficienti garanzie di
efficacia: effettiva sicurezza IT , e di efficienza: costi spesso eccessivi e non
proporzionati ai risultati raggiunti in termini di sicurezza
La risposta è l’adozione di metodi basati sulla gestione proattiva del
Rischio IT: si definisce in modo chiaro e trasparente il risultato che si vuole
ottenere (rischio accettabile) e si pianifica di conseguenza una serie di
azioni.
Nella pratica si è rilevato che passare da un approccio “passivo” ad uno
“proattivo” oltre che assegnare con maggiore chiarezza le responsabilità
(accountability), porta ad un contenimento dei costi, a vantaggi
competitivi ed, in generale, ad una maggior tempestività nella gestione
delle nuove emergenti minacce.
La domanda è quindi: “Come impostare / definire “ gli obiettivi da
raggiungere ed, in base a questi, definire un piano di azione ? Esistono dei
riferimenti autorevoli cui appoggiarsi ?
FRAMEWORK DI SICUREZZA INFORMATICA: COME USARLI
Sono stati sviluppati e oggi sono disponibili Frameworks che possono
costituire la base per il processo sistematico di identificazione,
valutazione e gestione dei rischi legati alla sicurezza informatica. Non si
tratta quindi, in generale, di sostituire quanto già esiste, quanto piuttosto
di disporre di una nuova chiave di lettura utilizzabile per determinare
carenze e per sviluppare piani di miglioramento. L’utilizzo di Framework
consente inoltre di individuare le attività più importanti per raggiungere
specifici obiettivi ed assegnare le priorità in modo da garantire il massimo
ritorno sugli investimenti.
Definire chiaramente gli obiettivi consente anche di comunicarli con
altrettanta chiarezza all’interno ed all’esterno dell’organizzazione,
206
La Comunicazione N.R.& N.
Un modello per la valutazione dei rischi relativamente al trattamento dei dati personali nelle comunicazioni elettroniche
A risk assessment model regarding the personal data processing in electronic communications
assegnando responsabilità definite in termini del loro raggiungimento e
non di “cosa è stato fatto“ (accountability) e di documentare programmi
ed iniziative.
Vediamo cosa suggeriscono i moderni Frameworks di Cybersecurity che
affrontano “sistematicamente il problema” ( 1
Funzione
Descrizione
Individuare
Individuare le possibili situazioni di rischio in termini di:
•
•
•
Proteggere
tipo di violazione
strutture organizzative e risorse coinvolte
probabilità dell’evento e gravità delle
conseguenze
Adottare preventivamente le misure rivolte a:
•
evitare trattamenti non necessari
•
ridurre la probabilità di accadimento
•
ridurre le possibili conseguenze negative
Rilevare
Istituire un sistema di monitoraggio continuo in grado di
segnalare tempestivamente eventi legati alla sicurezza
informatica.
Rispondere
Predisporre, in caso di incidente, le azioni rivolte al
contenimento delle conseguenze e ad evitare il ripetersi
di problemi simili:
•
•
Ripristinare
Attività per raggiungere
l’obiettivo ( da COBIT5,
ISO 27001, ecc.)
(2
informare gli interessati o l’autorità
competente
registrare ed analizzare l’incidente adottando le
misure correttive ne evitino la ripetizione
Predisporre I piani di ripristino della normale continuità
operativa
1
La “nuova” protezione dei Dati Personali richiesta dal Nuovo Regolamento Europeo non è attività a se stante
ma va inserita in un più ampio contesto della Cybersecurity aziendale. Il Framework ci aiuta in questo fornendoci
una chiave di analisi ed implementazione univoca e condivisibile.
2
ENISA gave a presentation on cyber security incident reporting and security measures in the EU. Focus was on
Art. 13a in the electronic communications framework directive which has logics in common with Art. 4 in the
ePrivacy Directive, Art. 30-32 in the proposed Data Protection Reform, Art. 15 in the proposed regulation on eID
and trust services and Art. 14 in the proposed Network and Information Security Directive. Article 13a talks about
risk assessments, security measures and incident reporting. The provider providing public communications
networks or publicly available electronic communications services shall take appropriate security measures to
minimize impact of security incidents on users and interconnected networks and to guarantee network integrity,
thus ensuring continuous supply of services over the networks. Providers shall report significant incidents with
impact on operation of services to their Regulator (NRA).
207
G. Butti, A. Piamonte
Partire quindi dagli standard, le linee guida e le pratiche suggerite dal
Framework mette a disposizione delle organizzazioni tassonomia e
meccanismi condivisi per:
1 Descrivere (e documentare) lo stato attuale;
2 Descrivere (e documentare) lo stato di destinazione al quali si
vuole arrivare;
3 Identificare e concentrarsi sulle opportunità di miglioramento con
processi continui e ripetibili;
4 Misurare i progressi verso lo stato desiderato;
5 Comunicare con gli stakeholder interni ed esterni.
6. STRUTTURA GENERALIZZATA DI UN FRAMEWORK DI GOVERNO
Figura 1
Con riferimento allo schema rappresentato nella Figura 1, le componenti
che costituiscono un Framework sono:
•
•
•
•
208
Definizione degli Obiettivi
Individuazione degli interventi rivolti al loro ottenimento
Tempificazione degli interventi (Ciclo di vita)
Individuazione ed assegnazione di ruoli e responsabilità
La Comunicazione N.R.& N.
Un modello per la valutazione dei rischi relativamente al trattamento dei dati personali nelle comunicazioni elettroniche
A risk assessment model regarding the personal data processing in electronic communications
che sono brevemente descritte nei paragrafi successivi.
Definizione degli Obiettivi
Si parte definendo (comunicando e condividendo) gli obiettivi da ottenere
che, in generale, individuano:
•
•
•
Benefici da ottenere
Rischi da evitare
Risorse da gestire in modo ottimale.
Questo è anche il momento della comunicazione e del coinvolgimento: la
condivisione di un obiettivo è uno degli elementi chiave del successo, ma
spesso, lo si dimentica!
Vanno coinvolti tutti coloro che in modo diretto od indiretto sono
coinvolti nell’iniziativa o, semplicemente, ne verranno impattati dal
risultato finale: successo o insuccesso che sia. È in genere utilizzato il
termine inglese Stakeholder (Portatori di interessi) da non confondere
con Shareholder che è tutt’altra cosa.
Un altro concetto molto importante nella definizione degli obiettivi è
quello del “bilanciamento”: non esiste la soluzione perfetta, ma piuttosto
quella “bilanciata “ in modo ottimale tra esigenze tra loro discordanti. È
molto diffuso l’utilizzo delle Balanced Scorecards (Nolan e Kaplan 1996)
che aiutano a mediare tra esigenze strategiche o di mercato, attenzione
alla clientela, ottimizzazione dei processi aziendali interni ed innovazione
e competitività. Esse sono disponibili sia per organizzazioni private che
per strutture pubbliche ( sanità, ecc.).
Individuazione degli interventi
Dove intervenire
Per ottenere i risultati desiderati bisogna pianificare correttamente una
serie di interventi. È necessario decidere innanzitutto dove intervenire; al
riguardo risulta comodo utilizzare un elenco delle possibili aree
intervento. Esse secondo l’attuale (2015) letteratura sono:
•
•
•
•
•
•
•
Processi / Pratiche /Attività da implementare o migliorare
Principi o Policies da definire e comunicare
Persone con le loro capacità ed esperienza
Organizzazioni con specifici ruoli e responsabilità
Cultura ed etica
Informazioni di cui si necessita per operare correttamente ed
efficacemente
Strumenti e sistemi tecnologici (spesso ci si limita a questi con le
prevedibili conseguenze!)
209
G. Butti, A. Piamonte
Il termine divenuto di moda: olistico, indica appunto la necessità di
prendere in considerazione tutte e sette le possibili aree di intervento.
Come intervenire
Qui, se possibile, è meglio evitare i fai da te: si corrono solo rischi inutili.
Per ogni cosa da fare esistono ormai Buone pratiche, Standards e linee
guida che raccolgono in modo sistematico il meglio delle varie tematiche,
dalla gestione della sicurezza a quella delle risorse umane, dalla continuità
di servizio alla scelta dei fornitori… Sono in genere dettagliate, aggiornate
ed autorevoli e . . . . stuoli di consulenti in grado di assistervi nella loro
scelta ed utilizzo.
Un caveat: l’adozione di uno standard deve rimanere un “mezzo” per
raggiungere gli obiettivi di cui al punto precedente, spesso ci si concentra
invece eccessivamente sullo standard in quanto tale e la certificazione, il
bollino blu diventano il fine.
Il ciclo di vita
Dopo aver definito cosa si desidera e cosa si deve fare (o non fare) per
ottenerlo, si pone il quesito se fare tutto e subito oppure se esiste un
ordine logico ottimale.
Il Framework ci aiuta anche in questo identificando i vari momenti nel
ciclo di vita di un’iniziativa:
1. Valutare, indirizzare e controllare (Governance!)
2. Interpretare gli indirizzi, Pianificare e organizzare
3. Analizzare e costruire le soluzioni
4. Erogare servizio o supporto
5. Monitorare e misurare
Sembra ovvio ma quanto volte si erogano servizi senza prima averli
pianificati con i diretti interessati ?!
Attori
Al termine del processo, ma fondamentale per il successo finale, è la fase
di assegnazione dei ruoli e delle responsabilità.
Anche qui il Framework aiuta con un elenco di possibili ruoli.
Accountable (non esiste una traduzione, ma si tratta di chi ha la
responsabilità del risultato finale (Obiettivi al punto 1 !)
Responsible: colui (o colei) che guida gli interventi e ne è responsabile
Consultend: che va sentito prima di operare
Informed: cui va comunicato la disponibilità di nuovi servizi, ecc.
Questo completa la nostra struttura che ora è possibile utilizzare
leggendola “verticalmente” per analizzare il nostro problema con
210
La Comunicazione N.R.& N.
Un modello per la valutazione dei rischi relativamente al trattamento dei dati personali nelle comunicazioni elettroniche
A risk assessment model regarding the personal data processing in electronic communications
crescente livello di dettaglio, oppure “orizzontalmente” (come indicato in
figura con i collegamenti in colore verde) per scoprire le relazioni causaeffetto.
Conclusione
Per concludere si ricorda che uno schema così strutturato ed articolato
può:
1. Essere specializzato per uno specifico problema
• Sicurezza informatica
• Conformità ad una specifica legge o regolamento
• Soluzione di casi specifici quali:
• Gestione dei Fornitori
• Gestione delle problematiche BYOD, Cluod, ecc.
2. Essere utilizzato per stendere guide all’implementazione
3. Ospitare strumenti di valutazione della Capability di Processo
• Che forniscono la possibilità di valutare a priori la probabilità
che il Processo fornisca i risultati attesi (Data Protection by
Design !!!) controllando e dimostrando sistematicamente
quanto è stato fatto.
211
G. Butti, A. Piamonte
APPENDICE 1 - PRIVACY FRAMEWORK
Perché
intervenire
Proposta
Regolamento
EU Protezione
Dati Personali
Art. 5, Art. 22,
Art. 25, Art. 35,
Art. 36, Art. 37
Art. 5, Art. 9, Art.
28, Art. 34, Art.
42, Art. 44, Art.
81, Art. 83
Art. 7, Art. 8, Art.
20, Art. 83
Art. 22
Art. 30
Art. 24, Art. 26
Art. 27, Art. 43
Art. 11, Art. 14,
Art. 36
Art. 12, Art. 13,
Art. 15, Art. 16,
Art. 17, Art. 18,
Art. 19
Art. 22, Art. 23,
Art. 33
Art. 31, Art. 32
Art. 22
212
Governo
Gestione
Interpretare, indirizzare e
monitorare
1. Definire e Mantenere
una Struttura di Governo
della Data Protection
2. Mantenere un
Inventario dei Dati
Personali e dei flussi che li
interessano
3. Policy di Personal Data
Protection
4. Includere (embed) la
Data Privacy nei
trattamenti
5. Programmi di
formazione e
sensibilizzazione
6. Gestire il Rischi di
Sicurezza informatica
7. Gestire i rischi derivanti
da terze parti
8. Dare “visibilità” agli
obiettivi ed alle iniziative
di Data Protection
9. Attivare procedure per
rispondere a richieste e
lamentele
10. Monitorare novità o
modifiche nei Processi e
nelle Procedure
11. Definire un programma
di gestione dei Data
Privacy Breach
12. Monitorare le modalità
(pratiche) di trattamento
dei Dati Personali
Interventi
•
•
Principi
Organizzazione
•
Informazioni
•
Policy
•
Processi
•
•
•
Processi
Persone
Cultura
•
•
Processi
Sistemi
•
Processi
•
•
•
Processi
Persone
Cultura
•
Processi
•
Processi
•
•
Processi
Policy
•
Processi
•
•
•
Attività
Sequenze
Ruoli
La Comunicazione N.R.& N.
Un modello per la valutazione dei rischi relativamente al trattamento dei dati personali nelle comunicazioni elettroniche
A risk assessment model regarding the personal data processing in electronic communications
La tabella della pagina precedente esemplifica i passi preliminari
all’utilizzo di un Framework di Governo IT per il “governo” e la “gestione”
del Nuovo Regolamento Europeo sulla protezione dei Dati Personali.
Si parte dalla decisione di “adottare” il nuovo Regolamento per ottenere i
benefici (immagine aziendale) e per evitare i possibili rischi legati ad
eventuali non conformità (contenzioso, penali, ecc.).
Il Nuovo Regolamento va quindi interpretato, calandolo nella propria
realtà aziendale, e dall’analisi devono scaturire indirizzi – linee guida di
alto livello. È questo, a nostro avviso, un passaggio fondamentale “non
delegabile”. Una delega a questo livello porterebbe infatti ad approcci
“generalizzati” inefficaci e costosi. Data Protection by design parte infatti
da una chiara e maturata volontà aziendale di proteggere i Dati Personali
custoditi ed utilizzati e di cui è responsabile. La conformità deve essere
una, e non la sola, conseguenza e non può certo costituire l’unico punto
di partenza !
Questo vale in generale, ed in particolare per le attività legate alla
valutazione della PIA (Valutazione Impatto Privacy) il cui obiettivo deve
andare ben oltre l’ottenimento di una semplice conformità soltanto
“formale”..
Le linee guida, che esprimono gli indirizzi e gli obiettivi di governo,
andranno messi in pratica con una serie di interventi, i cui risultati
potranno venire nel tempo misurati a fronte degli obiettivi.
Il Framework, nella sua parte rivolta a management e alla gestione, ci
consentirà di collocare i vari interventi nei tempi e con le sequenze
opportune fornendo, agli attori coinvolti, una visione completa e
condivisa delle proprie ed altrui responsabilità.
APPENDICE 2 – RIFERIMENTI NORMATIVI
Proposta di regolamento del Parlamento europeo e del Consiglio
concernente la tutela delle persone fisiche con riguardo al trattamento
dei dati personali e la libera circolazione di tali dati (regolamento
generale sulla protezione dei dati)
Articolo 31 Notifica di una violazione dei dati personali all'autorità di
controllo
1. In caso di violazione dei dati personali suscettibile di presentare un
rischio elevato per i diritti e le libertà delle persone fisiche, ad esempio
discriminazione, furto o usurpazione d'identità, perdite finanziarie,
decifratura non autorizzata della pseudonimizzazione, pregiudizio alla
213
G. Butti, A. Piamonte
reputazione, perdita di riservatezza dei dati protetti da segreto
professionale o qualsiasi altro danno economico o sociale importante, il
responsabile del trattamento notifica la violazione all'autorità di controllo
competente ai sensi dell'articolo 51 senza ritardo ingiustificato, ove
possibile entro 72 ore dal momento in cui ne è venuto a conoscenza.
Qualora non sia effettuata entro 72 ore, la notifica all'autorità di controllo
è corredata di una giustificazione motivata.
1 bis. La notifica prevista al paragrafo 1 non è richiesta se, ai sensi
dell'articolo 32, paragrafo 3, lettere a) e b), non è richiesta una
comunicazione all'interessato.
2. (…) L'incaricato del trattamento informa il responsabile del trattamento
senza ingiustificato ritardo dopo aver accertato la violazione dei dati
personali.
3. La notifica di cui al paragrafo 1 deve come minimo:
a) descrivere la natura della violazione dei dati personali compresi, ove
possibile e appropriato, le categorie e il numero di interessati
approssimativi in questione nonché le categorie e il numero
approssimativo di registrazioni dei dati in questione;
b) indicare l’identità e le coordinate di contatto del responsabile della
protezione dei dati o di altro punto di contatto presso cui ottenere più
informazioni;
c) (…)
d) descrivere le possibili conseguenze della violazione dei dati personali
individuate dal responsabile del trattamento;
e) descrivere le misure adottate o di cui si propone l'adozione da parte del
responsabile del trattamento per porre rimedio alla violazione dei dati
personali; e
f) ove opportuno, indicare le misure intese ad attenuare i possibili effetti
pregiudizievoli della violazione dei dati personali.
3 bis. Qualora e nella misura in cui non sia possibile fornire le informazioni
di cui al paragrafo 3, lettere d), e) ed f), contestualmente alle informazioni
di cui ai punti a) e b), il responsabile del trattamento trasmette dette
informazioni senza ulteriore ingiustificato ritardo.
4. Il responsabile del trattamento documenta la violazione dei dati
personali di cui ai paragrafi 1 e 2, incluse le circostanze in cui si è
verificata, le sue conseguenze e i provvedimenti adottati per porvi
rimedio. La documentazione deve consentire all’autorità di controllo di
verificare il rispetto del presente articolo. (…).
5. (…)
6. (…)
Articolo 32 Comunicazione di una violazione dei dati personali
all'interessato
1. Quando la violazione dei dati personali è suscettibile di presentare un
rischio elevato per i diritti e le libertà delle persone fisiche, ad esempio
discriminazione, furto o usurpazione d'identità, perdite finanziarie,
pregiudizio alla reputazione, decifratura non autorizzata della
pseudonimizzazione, perdita di riservatezza dei dati protetti da segreto
professionale o qualsiasi altro danno economico o sociale importante, il
214
La Comunicazione N.R.& N.
Un modello per la valutazione dei rischi relativamente al trattamento dei dati personali nelle comunicazioni elettroniche
A risk assessment model regarding the personal data processing in electronic communications
responsabile del trattamento (…) comunica la violazione all'interessato
senza ingiustificato ritardo.
2. La comunicazione all'interessato di cui al paragrafo 1 descrive la natura
della violazione dei dati personali e contiene almeno le informazioni e le
raccomandazioni di cui all'articolo 31, paragrafo 3, lettere b), e) ed f).
3. Non è richiesta la comunicazione (…) all'interessato ai sensi del
paragrafo 1 se:
a. il responsabile del trattamento (…) ha utilizzato le opportune misure
tecnologiche ed organizzative di protezione e tali misure erano state
applicate ai dati personali oggetto della violazione, in particolare quelle
destinate a rendere i dati incomprensibili a chiunque non sia autorizzato
ad accedervi, quali la cifratura; oppure
b. il responsabile del trattamento ha successivamente adottato misure
atte a scongiurare il sopraggiungere di un rischio elevato per i diritti e le
libertà degli interessati di cui al paragrafo 1;
c. detta comunicazione richiederebbe sforzi sproporzionati, in particolare
a motivo del numero di casi in questione. In una simile circostanza, si
procede invece a una comunicazione pubblica o a una misura simile,
tramite la quale gli interessati sono informati con analoga efficacia;
d. avrebbe ripercussioni negative su un interesse pubblico rilevante.
4. (…)
5. (…)
6. (…)
Articolo 33 Valutazione d'impatto sulla protezione dei dati
1. Quando un tipo di trattamento, allorché prevede in particolare l'uso di
nuove tecnologie, considerati la natura, l'oggetto, il contesto e le finalità
del trattamento, può presentare un rischio elevato per i diritti e le libertà
delle persone fisiche, ad esempio discriminazione, furto o usurpazione
d'identità, perdite finanziarie, pregiudizio alla reputazione, decifratura
non autorizzata della pseudonimizzazione, perdita di riservatezza dei dati
protetti da segreto professionale o qualsiasi altro danno economico o
sociale importante, il responsabile del trattamento (…) effettua, prima di
procedere al trattamento, una valutazione dell'impatto delle operazioni di
trattamento previste sulla protezione dei dati personali. (…). (…).
1 bis. Il responsabile del trattamento, allorquando svolge una valutazione
d'impatto sulla protezione dei dati, chiede un parere al responsabile della
protezione dei dati, qualora ne sia designato uno.
2. La valutazione d'impatto sulla protezione dei dati di cui al paragrafo 1 è
richiesta in particolare nei seguenti casi:
a) una valutazione sistematica e globale (…) di aspetti della personalità
(…) degli interessati (…), basata sulla profilazione e da cui discendono
decisioni che hanno effetti giuridici sugli interessati o incidono
gravemente sugli interessati;
b) il trattamento di categorie particolari di dati personali ai sensi
dell'articolo 9, paragrafo 1 (…), dati biometrici o dati relativi a condanne
penali e reati o a connesse misure di sicurezza, qualora i dati siano trattati
per prendere decisioni su larga scala riguardanti persone fisiche;
c) la sorveglianza di zone accessibili al pubblico su larga scala, in
particolare se effettuata mediante dispositivi ottico-elettronici (…);
d) (…);
215
G. Butti, A. Piamonte
e) (…).
2 bis. L'autorità di controllo redige e rende pubblico un elenco delle
tipologie di operazioni di trattamento soggette al requisito di una
valutazione d'impatto sulla protezione dei dati ai sensi del paragrafo 1.
L'autorità di controllo comunica tali elenchi al comitato europeo per la
protezione dei dati.
2 ter. L'autorità di controllo può inoltre redigere e rendere pubblico un
elenco delle tipologie di operazioni di trattamento per le quali non è
richiesta una valutazione d'impatto sulla protezione dei dati. L'autorità di
controllo comunica tali elenchi al comitato europeo per la protezione dei
dati.
2 quater. Prima di adottare gli elenchi di cui ai paragrafi 2 bis e 2 ter,
l'autorità di controllo competente applica il meccanismo di coerenza di
cui all'articolo 57 se tali elenchi comprendono attività di trattamento
finalizzate all'offerta di beni o servizi a interessati o al controllo del loro
comportamento in più Stati membri, o attività di trattamento che
possono incidere significativamente sulla libera circolazione dei dati
personali all'interno dell'Unione.
3. La valutazione contiene almeno una descrizione generale delle
operazioni di trattamento previste, una valutazione del rischio di cui al
paragrafo 1, le misure previste per affrontare il rischio, includendo le
garanzie, le misure di sicurezza e i meccanismi per garantire la protezione
dei dati personali e dimostrare la conformità al presente regolamento,
tenuto conto dei diritti e dei legittimi interessi degli interessati e delle
altre persone in questione.
3 bis. Nella valutazione della liceità e dell'impatto del trattamento
compiuto dai relativi responsabili o incaricati si tiene debito conto del
rispetto da parte di questi ultimi dei codici di condotta approvati di cui
all'articolo 38, in particolare ai fini di una valutazione d'impatto sulla
protezione dei dati.
4. Il responsabile del trattamento raccoglie le opinioni degli interessati o
dei loro rappresentanti sul trattamento previsto, fatta salva la tutela degli
interessi commerciali o pubblici o la sicurezza delle operazioni di
trattamento (…).
5. (...) Qualora il trattamento effettuato ai sensi dell'articolo 6, paragrafo
1, lettere c) o e), trovi nel diritto dell'Unione o nel diritto dello Stato
membro cui il responsabile del trattamento è soggetto un fondamento
giuridico attraverso un atto legislativo che disciplina l'operazione di
trattamento specifica o l'insieme di operazioni in questione, i paragrafi 1,
2 e 3 non si applicano, salvo che gli Stati membri ritengano necessario
effettuare tale valutazione prima di procedere alle attività di trattamento.
6. (…)
7. (…)
216
La Comunicazione N.R.& N.
Un modello per la valutazione dei rischi relativamente al trattamento dei dati personali nelle comunicazioni elettroniche
A risk assessment model regarding the personal data processing in electronic communications
Decreto legislativo 30 giugno 2003, n. 196
CODICE IN MATERIA DI PROTEZIONE DEI DATI PERSONALI
Art. 31. Obblighi di sicurezza
1. I dati personali oggetto di trattamento sono custoditi e controllati,
anche in relazione alle conoscenze acquisite in base al progresso tecnico,
alla natura dei dati e alle specifiche caratteristiche del trattamento, in
modo da ridurre al minimo, mediante l'adozione di idonee e preventive
misure di sicurezza, i rischi di distruzione o perdita, anche accidentale, dei
dati stessi, di accesso non autorizzato o di trattamento non consentito o
non conforme alle finalità della raccolta.
Art. 32. Obblighi relativi ai fornitori di servizi di comunicazione
elettronica accessibili al pubblico* (1)
1. Il fornitore di un servizio di comunicazione elettronica accessibile al
pubblico adotta, ai sensi dell'articolo 31, anche attraverso altri soggetti a
cui sia affidata l'erogazione del predetto servizio, misure tecniche e
organizzative adeguate al rischio esistente, per salvaguardare la sicurezza
dei suoi servizi e per gli adempimenti di cui all'articolo 32-bis. (2)
1-bis. Ferma restando l'osservanza degli obblighi di cui agli articoli 30 e
31, i soggetti che operano sulle reti di comunicazione elettronica
garantiscono che i dati personali siano accessibili soltanto al personale
autorizzato per fini legalmente autorizzati. (3)
1-ter. Le misure di cui ai commi 1 e 1-bis garantiscono la protezione dei
dati relativi al traffico ed all'ubicazione e degli altri dati personali
archiviati o trasmessi dalla distruzione anche accidentale, da perdita o
alterazione anche accidentale e da archiviazione, trattamento, accesso o
divulgazione non autorizzati o illeciti, nonché assicurano l'attuazione di
una politica di sicurezza. (3)
2. Quando la sicurezza del servizio o dei dati personali richiede anche
l'adozione di misure che riguardano la rete, il fornitore del servizio di
comunicazione elettronica accessibile al pubblico adotta tali misure
congiuntamente con il fornitore della rete pubblica di comunicazioni. In
caso di mancato accordo, su richiesta di uno dei fornitori, la controversia
è definita dall'Autorità per le garanzie nelle comunicazioni secondo le
modalità previste dalla normativa vigente.
3. Il fornitore di un servizio di comunicazione elettronica accessibile al
pubblico informa i contraenti e, ove possibile, gli utenti, se sussiste un
particolare rischio di violazione della sicurezza della rete, indicando,
quando il rischio è al di fuori dell'ambito di applicazione delle misure che
il fornitore stesso è tenuto ad adottare ai sensi dei commi 1, 1-bis e 2,
tutti i possibili rimedi e i relativi costi presumibili. Analoga informativa è
resa al Garante e all'Autorità per le garanzie nelle comunicazioni. (4)
Art. 32-bis Adempimenti conseguenti ad una violazione di dati personali
(1)
1. In caso di violazione di dati personali, il fornitore di servizi di
comunicazione elettronica accessibili al pubblico comunica senza indebiti
ritardi detta violazione al Garante.
217
G. Butti, A. Piamonte
2. Quando la violazione di dati personali rischia di arrecare pregiudizio ai
dati personali o alla riservatezza del contraente o di altra persona, il
fornitore comunica anche agli stessi senza ritardo l'avvenuta violazione.
3. La comunicazione di cui al comma 2 non è dovuta se il fornitore ha
dimostrato al Garante di aver utilizzato misure tecnologiche di protezione
che rendono i dati inintelligibili a chiunque non sia autorizzato ad
accedervi e che tali misure erano state applicate ai dati oggetto della
violazione.
4. Ove il fornitore non vi abbia già provveduto, il Garante può,
considerate le presumibili ripercussioni negative della violazione,
obbligare lo stesso a comunicare al contraente o ad altra persona
l'avvenuta violazione.
5. La comunicazione al contraente o ad altra persona contiene almeno
una descrizione della natura della violazione di dati personali e i punti di
contatto presso cui si possono ottenere maggiori informazioni ed elenca
le misure raccomandate per attenuare i possibili effetti pregiudizievoli
della violazione di dati personali. La comunicazione al Garante descrive,
inoltre, le conseguenze della violazione di dati personali e le misure
proposte o adottate dal fornitore per porvi rimedio.
6. Il Garante può emanare, con proprio provvedimento, orientamenti e
istruzioni in relazione alle circostanze in cui il fornitore ha l'obbligo di
comunicare le violazioni di dati personali, al formato applicabile a tale
comunicazione, nonché alle relative modalità di effettuazione, tenuto
conto delle eventuali misure tecniche di attuazione adottate dalla
Commissione europea ai sensi dell'articolo 4, paragrafo 5, della direttiva
2002/58/CE, come modificata dalla direttiva 2009/136/CE.
7. I fornitori tengono un aggiornato inventario delle violazioni di dati
personali, ivi incluse le circostanze in cui si sono verificate, le loro
conseguenze e i provvedimenti adottati per porvi rimedio, in modo da
consentire al Garante di verificare il rispetto delle disposizioni del
presente articolo. Nell'inventario figurano unicamente le informazioni
necessarie a tal fine.
8. Nel caso in cui il fornitore di un servizio di comunicazione elettronica
accessibile al pubblico affidi l'erogazione del predetto servizio ad altri
soggetti, gli stessi sono tenuti a comunicare al fornitore senza indebito
ritardo tutti gli eventi e le informazioni necessarie a consentire a
quest'ultimo di effettuare gli adempimenti di cui al presente articolo.
Art. 32-bis Adempimenti conseguenti ad una violazione di dati personali
(1)
1. In caso di violazione di dati personali, il fornitore di servizi di
comunicazione elettronica accessibili al pubblico comunica senza indebiti
ritardi detta violazione al Garante.
2. Quando la violazione di dati personali rischia di arrecare pregiudizio ai
dati personali o alla riservatezza del contraente o di altra persona, il
fornitore comunica anche agli stessi senza ritardo l'avvenuta violazione.
3. La comunicazione di cui al comma 2 non è dovuta se il fornitore ha
dimostrato al Garante di aver utilizzato misure tecnologiche di protezione
che rendono i dati inintelligibili a chiunque non sia autorizzato ad
218
La Comunicazione N.R.& N.
Un modello per la valutazione dei rischi relativamente al trattamento dei dati personali nelle comunicazioni elettroniche
A risk assessment model regarding the personal data processing in electronic communications
accedervi e che tali misure erano state applicate ai dati oggetto della
violazione.
4. Ove il fornitore non vi abbia già provveduto, il Garante può,
considerate le presumibili ripercussioni negative della violazione,
obbligare lo stesso a comunicare al contraente o ad altra persona
l'avvenuta violazione.
5. La comunicazione al contraente o ad altra persona contiene almeno
una descrizione della natura della violazione di dati personali e i punti di
contatto presso cui si possono ottenere maggiori informazioni ed elenca
le misure raccomandate per attenuare i possibili effetti pregiudizievoli
della violazione di dati personali. La comunicazione al Garante descrive,
inoltre, le conseguenze della violazione di dati personali e le misure
proposte o adottate dal fornitore per porvi rimedio.
6. Il Garante può emanare, con proprio provvedimento, orientamenti e
istruzioni in relazione alle circostanze in cui il fornitore ha l'obbligo di
comunicare le violazioni di dati personali, al formato applicabile a tale
comunicazione, nonché alle relative modalità di effettuazione, tenuto
conto delle eventuali misure tecniche di attuazione adottate dalla
Commissione europea ai sensi dell'articolo 4, paragrafo 5, della direttiva
2002/58/CE, come modificata dalla direttiva 2009/136/CE.
7. I fornitori tengono un aggiornato inventario delle violazioni di dati
personali, ivi incluse le circostanze in cui si sono verificate, le loro
conseguenze e i provvedimenti adottati per porvi rimedio, in modo da
consentire al Garante di verificare il rispetto delle disposizioni del
presente articolo. Nell'inventario figurano unicamente le informazioni
necessarie a tal fine.
8. Nel caso in cui il fornitore di un servizio di comunicazione elettronica
accessibile al pubblico affidi l'erogazione del predetto servizio ad altri
soggetti, gli stessi sono tenuti a comunicare al fornitore senza indebito
ritardo tutti gli eventi e le informazioni necessarie a consentire a
quest'ultimo di effettuare gli adempimenti di cui al presente articolo.
APPENDICE 3 - ESEMPIO DI APPROCCIO STRUTTURATO
Il recente Cybersecurity Framework USA elaborato da NIST (2 / 2014)
fornisce linee guida dettagliate per l’implementazione delle 5 funzionalità
che quindi, anche tenendo conto della criticità del contesto, possono
essere implementate con livelli differenti di “capacità ed efficacia”
219
G. Butti, A. Piamonte
Capacità, efficacia documentabilità crescenti
Livello 1
Function
Category
IDENTIFY
(ID)
Asset Management
(ID.AM): The data,
personnel, devices,
systems, and facilities
that enable the
organization to achieve
business purposes are
identified and managed
consistent with their
relative importance to
business objectives and
the organization’s risk
strategy.
Business Environment
(ID.BE): The
organization’s mission,
objectives, stakeholders,
and activities are
understood and
prioritized; this
information is used to
inform cybersecurity
roles, responsibilities,
and risk management
decisions.
Governance (ID.GV): The
policies, procedures, and
220
Livello 2
Subcategory
Livello 3
Riferimento a
Frameworks /
Standards
implementativi
(COBIT5 / ISO
27001-2013)
ID.AM-1: Physical devices and
systems within the organization are
inventoried
ID.AM-2: Software platforms and
applications within the organization
are inventoried
ID.AM-3: Organizational
communication and data flows are
mapped
ID.AM-4: External information
systems are catalogued
ID.AM-5: Resources (e.g., hardware,
devices, data, and software) are
prioritized based on their
classification, criticality, and business
value
ID.AM-6: Cybersecurity roles and
responsibilities for the entire
workforce and third-party
stakeholders (e.g., suppliers,
customers, partners) are established
ID.BE-1: The organization’s role in
the supply chain is identified and
communicated
ID.BE-2: The organization’s place in
critical infrastructure and its industry
sector is identified and
communicated
ID.BE-3: Priorities for organizational
mission, objectives, and activities are
established and communicated
ID.BE-4: Dependencies and critical
functions for delivery of critical
services are established
ID.BE-5: Resilience requirements to
support delivery of critical services
are established
ID.GV-1: Organizational information
security policy is established
La Comunicazione N.R.& N.
Un modello per la valutazione dei rischi relativamente al trattamento dei dati personali nelle comunicazioni elettroniche
A risk assessment model regarding the personal data processing in electronic communications
Livello 1
processes to manage and
monitor the
organization’s
regulatory, legal, risk,
environmental, and
operational
requirements are
understood and inform
the management of
cybersecurity risk.
Risk Assessment (ID.RA):
The organization
understands the
cybersecurity risk to
organizational
operations (including
mission, functions,
image, or reputation),
organizational assets,
and individuals.
Risk Management
Strategy (ID.RM): The
organization’s priorities,
constraints, risk
tolerances, and
assumptions are
established and used to
support operational risk
decisions.
PROTECT
(PR)
Access Control (PR.AC):
Access to assets and
associated facilities is
limited to authorized
users, processes, or
devices, and to
authorized activities and
transactions.
Livello 2
ID.GV-2: Information security roles &
responsibilities are coordinated and
aligned with internal roles and
external partners
ID.GV-3: Legal and regulatory
requirements regarding
cybersecurity, including privacy and
civil liberties obligations, are
understood and managed
ID.GV-4: Governance and risk
management processes address
cybersecurity risks
ID.RA-1: Asset vulnerabilities are
identified and documented
ID.RA-2: Threat and vulnerability
information is received from
information sharing forums and
sources
ID.RA-3: Threats, both internal and
external, are identified and
documented
ID.RA-4: Potential business impacts
and likelihoods are identified
ID.RA-5: Threats, vulnerabilities,
likelihoods, and impacts are used to
determine risk
ID.RA-6: Risk responses are
identified and prioritized
ID.RM-1: Risk management
processes are established, managed,
and agreed to by organizational
stakeholders
ID.RM-2: Organizational risk
tolerance is determined and clearly
expressed
ID.RM-3: The organization’s
determination of risk tolerance is
informed by its role in critical
infrastructure and sector specific risk
analysis
PR.AC-1: Identities and credentials
are managed for authorized devices
and users
PR.AC-2: Physical access to assets is
managed and protected
PR.AC-3: Remote access is managed
PR.AC-4: Access permissions are
managed, incorporating the
principles of least privilege and
separation of duties
PR.AC-5: Network integrity is
protected, incorporating network
segregation where appropriate
Livello 3
221
G. Butti, A. Piamonte
Livello 1
Awareness and Training
(PR.AT): The
organization’s personnel
and partners are
provided cybersecurity
awareness education
and are adequately
trained to perform their
information securityrelated duties and
responsibilities
consistent with related
policies, procedures, and
agreements.
Data Security (PR.DS):
Information and records
(data) are managed
consistent with the
organization’s risk
strategy to protect the
confidentiality, integrity,
and availability of
information.
Information Protection
Processes and
Procedures (PR.IP):
Security policies (that
address purpose, scope,
roles, responsibilities,
management
commitment, and
coordination among
organizational entities),
processes, and
procedures are
maintained and used to
manage protection of
information systems and
assets.
222
Livello 2
PR.AT-1: All users are informed and
trained
PR.AT-2: Privileged users understand
roles & responsibilities
PR.AT-3: Third-party stakeholders
(e.g., suppliers, customers, partners)
understand roles & responsibilities
PR.AT-4: Senior executives
understand roles & responsibilities
PR.AT-5: Physical and information
security personnel understand roles
& responsibilities
Livello 3
PR.DS-1: Data-at-rest is protected
PR.DS-2: Data-in-transit is protected
PR.DS-3: Assets are formally
managed throughout removal,
transfers, and disposition
PR.DS-4: Adequate capacity to
ensure availability is maintained
PR.DS-5: Protections against data
leaks are implemented
PR.DS-6: Integrity checking
mechanisms are used to verify
software, firmware, and information
integrity
PR.DS-7: The development and
testing environment(s) are separate
from the production environment
PR.IP-1: A baseline configuration of
information technology/industrial
control systems is created and
maintained
PR.IP-2: A System Development Life
Cycle to manage systems is
implemented
PR.IP-3: Configuration change
control processes are in place
PR.IP-4: Backups of information are
conducted, maintained, and tested
periodically
PR.IP-5: Policy and regulations
regarding the physical operating
environment for organizational
assets are met
PR.IP-6: Data is destroyed according
to policy
PR.IP-7: Protection processes are
continuously improved
PR.IP-8: Effectiveness of protection
technologies is shared with
appropriate parties
La Comunicazione N.R.& N.
Un modello per la valutazione dei rischi relativamente al trattamento dei dati personali nelle comunicazioni elettroniche
A risk assessment model regarding the personal data processing in electronic communications
Livello 1
Maintenance (PR.MA):
Maintenance and repairs
of industrial control and
information system
components is
performed consistent
with policies and
procedures.
Protective Technology
(PR.PT): Technical
security solutions are
managed to ensure the
security and resilience of
systems and assets,
consistent with related
policies, procedures, and
agreements.
DETECT
(DE)
Anomalies and Events
(DE.AE): Anomalous
activity is detected in a
timely manner and the
potential impact of
events is understood.
Security Continuous
Monitoring (DE.CM):
The information system
and assets are
monitored at discrete
intervals to identify
Livello 2
PR.IP-9: Response plans (Incident
Response and Business Continuity)
and recovery plans (Incident
Recovery and Disaster Recovery) are
in place and managed
PR.IP-10: Response and recovery
plans are tested
PR.IP-11: Cybersecurity is included in
human resources practices (e.g.,
deprovisioning, personnel screening)
PR.IP-12: A vulnerability
management plan is developed and
implemented
PR.MA-1: Maintenance and repair of
organizational assets is performed
and logged in a timely manner, with
approved and controlled tools
PR.MA-2: Remote maintenance of
organizational assets is approved,
logged, and performed in a manner
that prevents unauthorized access
PR.PT-1: Audit/log records are
determined, documented,
implemented, and reviewed in
accordance with policy
PR.PT-2: Removable media is
protected and its use restricted
according to policy
PR.PT-3: Access to systems and
assets is controlled, incorporating
the principle of least functionality
PR.PT-4: Communications and
control networks are protected
DE.AE-1: A baseline of network
operations and expected data flows
for users and systems is established
and managed
DE.AE-2: Detected events are
analyzed to understand attack
targets and methods
DE.AE-3: Event data are aggregated
and correlated from multiple sources
and sensors
DE.AE-4: Impact of events is
determined
DE.AE-5: Incident alert thresholds
are established
DE.CM-1: The network is monitored
to detect potential cybersecurity
events
DE.CM-2: The physical environment
is monitored to detect potential
cybersecurity events
Livello 3
223
G. Butti, A. Piamonte
Livello 1
cybersecurity events and
verify the effectiveness
of protective measures.
Detection Processes
(DE.DP): Detection
processes and
procedures are
maintained and tested to
ensure timely and
adequate awareness of
anomalous events.
RESPOND
(RS)
Response Planning
(RS.RP): Response
processes and
procedures are executed
and maintained, to
ensure timely response
to detected
cybersecurity events.
Communications
(RS.CO): Response
activities are
coordinated with
internal and external
stakeholders, as
appropriate, to include
external support from
law enforcement
agencies.
Analysis (RS.AN):
Analysis is conducted to
ensure adequate
response and support
224
Livello 2
DE.CM-3: Personnel activity is
monitored to detect potential
cybersecurity events
DE.CM-4: Malicious code is detected
DE.CM-5: Unauthorized mobile code
is detected
DE.CM-6: External service provider
activity is monitored to detect
potential cybersecurity events
DE.CM-7: Monitoring for
unauthorized personnel,
connections, devices, and software is
performed
DE.CM-8: Vulnerability scans are
performed
DE.DP-1: Roles and responsibilities
for detection are well defined to
ensure accountability
DE.DP-2: Detection activities comply
with all applicable requirements
DE.DP-3: Detection processes are
tested
DE.DP-4: Event detection
information is communicated to
appropriate parties
DE.DP-5: Detection processes are
continuously improved
RS.RP-1: Response plan is executed
during or after an event
Livello 3
RS.CO-1: Personnel know their roles
and order of operations when a
response is needed
RS.CO-2: Events are reported
consistent with established criteria
RS.CO-3: Information is shared
consistent with response plans
RS.CO-4: Coordination with
stakeholders occurs consistent with
response plans
RS.CO-5: Voluntary information
sharing occurs with external
stakeholders to achieve broader
cybersecurity situational awareness
RS.AN-1: Notifications from
detection systems are investigated
RS.AN-2: The impact of the incident
is understood
La Comunicazione N.R.& N.
Un modello per la valutazione dei rischi relativamente al trattamento dei dati personali nelle comunicazioni elettroniche
A risk assessment model regarding the personal data processing in electronic communications
Livello 1
recovery activities.
RECOVER
(RC)
Mitigation (RS.MI):
Activities are performed
to prevent expansion of
an event, mitigate its
effects, and eradicate
the incident.
Improvements (RS.IM):
Organizational response
activities are improved
by incorporating lessons
learned from current and
previous
detection/response
activities.
Recovery Planning
(RC.RP): Recovery
processes and
procedures are executed
and maintained to
ensure timely
restoration of systems or
assets affected by
cybersecurity events.
Improvements (RC.IM):
Recovery planning and
processes are improved
by incorporating lessons
learned into future
activities.
Communications
(RC.CO): Restoration
activities are
coordinated with
internal and external
parties, such as
coordinating centers,
Internet Service
Providers, owners of
attacking systems,
victims, other CSIRTs,
and vendors.
Livello 2
RS.AN-3: Forensics are performed
RS.AN-4: Incidents are categorized
consistent with response plans
RS.MI-1: Incidents are contained
RS.MI-2: Incidents are mitigated
RS.MI-3: Newly identified
vulnerabilities are mitigated or
documented as accepted risks
Livello 3
RS.IM-1: Response plans incorporate
lessons learned
RS.IM-2: Response strategies are
updated
RC.RP-1: Recovery plan is executed
during or after an event
RC.IM-1: Recovery plans incorporate
lessons learned
RC.IM-2: Recovery strategies are
updated
RC.CO-1: Public relations are
managed
RC.CO-2: Reputation after an event
is repaired
RC.CO-3: Recovery activities are
communicated to internal
stakeholders and executive and
management teams
225