Scarica la rivista completa - ISCOM
Transcript
Scarica la rivista completa - ISCOM
2015 Ministero dello Sviluppo Economico Volume LIX Numero Unico LA COMUNICAZIONE Note Recensioni & Notizie Pubblicazione dell’ISCOM - Istituto Superiore delle Comunicazioni e delle Tecnologie dell’Informazione SICUREZZA INFORMATICAuQUALITÀ DEL SERVIZIOuMARCATURA CEuINTEROPERABILITÀuNUMERAZIONEuINTERNET GOVERNANCEuRETI OTTICHE NGNuMICROONDEuPROGETTI DI RICERCA uPROGETTI EUROPEIuSCUOLA SUPERIORE DI SPECIALIZZAZIONEuPATENTE EUROPEA DEL COMPUTERuCERTIFICAZIONI EUCIPuSEMINARI FORMATIVIuEVENTI DI COMUNICAZIONE ESTERNAuRIVISTA LA COMUNICAZIONEuINTERCONNESSIONEuSTANDARDIZZAZIONEuSPECIFICHE TECNICHEu La Comunicazione N.R.&N. 2015 Ministero dello Sviluppo Economico Istituto Superiore delle Comunicazioni e delle Tecnologie dell’Informazione ___________________________________________________ LA COMUNICAZIONE Note Recensioni & Notizie Pubblicazione dell’Istituto Superiore delle Comunicazioni e delleTecnologie dell’Informazione Numero Unico Anno 2015 Vol. LXI Direttore: Rita Forsi Redazione ISCOM: Coordinamento: Roberto Piraino Redattori: Corrado Pisano, Fabrizio Cardinali, Eva Alfieri, Marcella Graziosi, Andrea Ferraris Ministero dello Sviluppo economico ISCOM Viale America, 201- 00144 Roma www.mise.gov.it , www.isticom.it SOMMARIO Rita Forsi (Direttore dell’Istituto Superiore delle Comunicazioni e delle Tecnologie dell’Informazione) Claudio Marciano Dottore di Ricerca in Scienze della Comunicazione, Dipartimento di Comunicazione e Ricerca Sociale, Università degli Studi di Roma "La Sapienza". 5 Introduzione 7 Smart City.Infrastrutture fisiche e sociali dell'urbanizzazione intelligente. Smart City. Social and material infrastructures of intelligent urbanisation. 1 SOMMARIO Frank Silvio Marzano, Augusto Maria Marziani 37 “Sapienza” Università di Roma Dipartimento di Ingegneria dell’Informazione, Elettronica e Telecomunicazioni Realizzazione di una stazione terrena ricevente satellitare per studi di propagazione elettromagnetica in atmosfera Realization of a satellite ground station for studies of electromagnetic propagation in the atmosphere Elio Restuccia Istituto Superiore delle Comunicazioni e delle Tecnologie dell'Informazione (ISCOM) Fernando Consalvi Fondazione Ugo Bordoni Stefano Penna, Silvia Di Bartolo, Vincenzo Attanasio, Donato Del Buono, Emanuele Nastri, Anna Stefania Michelangeli 53 Debora Proietti Modi 63 Metriche e Standard per la valutazione dell'efficienza energetica nei Data Center Metrics and standards for the evaluation of the Data Center Energy Efficiency Istituto Superiore delle Comunicazioni e delle Tecnologie dell'Informazione (ISCOM) Ricercatore Università Tor Vergata presso Istituto Superiore delle Comunicazioni (ISCOM) ISITEP: Sistemi di Interoperabilità tra le reti TETRA e Tetrapol ISITEP: Inter System Interoperability for TETRA and TetraPol Networks Giuseppe Pierri, Franco Pangallo Istituto Superiore delle Comunicazioni (ISCOM) Ministero dello Sviluppo Economico Fabio Di Resta Avvocato Membro del Consiglio direttivo Master di II livello Università Roma Tre/Dip. Giurisprudenza LL.M. - ISO 27001 Security Lead Auditor - Data Protection and I.P. Law Specialist Studio legale Di Resta Agostino Giorgio Dipartimento di Ingegneria Elettrica e dell’Informazione Politecnico di Bari, Via E. Orabona, 4 70125 Bari (Italy) 2 69 Il diritto all'oblio: dalla tutela nei confronti dell'editore alla deindicizzazione delle parole chiave nei risultati dei motori di ricerca The right to be forgotten (RTBF): the legal protection towards to publishers of the original content and the delising in the results of the original content and the delisting in the results of search engines. 87 Elettronica del fumo digitale Digital Smoke Electronics La Comunicazione N.R.& N. SOMMARIO Stefano Penna a) b) Silvia Di Bartolo a) Vincenzo Attanasio a) Akira Otomo b) Leonardo Mattiello c) 101 Tecnologie di fotonica integrata Integrated photonic technologies: devices and applications a) Istituto Superiore delle Comunicazioni e delle Tecnologie dell'Informazione (ISCOM) b) Advanced ICT Research Institute National Institute of Information and Communications Technology (NICT) c) Dipartimento di Scienze di Base e Applicate per l`Ingegneria Sapienza Università di Roma Silvia Di Bartolo, Vincenzo Attanasio, Stefano Penna, Donato Del Buono 117 Silvio Abrate, Riccardo Scopigno 133 Applicazione dell’ibrido fibra-FSO per collegamenti bidirezionali passivi su reti d’accesso ad alta velocità Application of the hybrid fiber-FSO systems for passive duplex links in high speed access networks Istituto Superiore delle Comunicazioni e delle Tecnologie dell'Informazione (ISCOM) Istituto Superiore Mario Boella Torino Lo stato della banda larga in Italia: opportunità, ostacoli, tendenze Status of broad-band in Italy: opportunities, threats, trends Roberto Gaudino Politecnico di Torino Roberto Marani, Anna Gina Perri 147 Una introduzione alla tecnologia RFID An introduction to rfid technology Dipartimento di Ingegneria Elettrica e dell’Informazione, Laboratorio di Dispositivi Elettronici, Politecnico di Bari Via E. Orabona 4, 70125, Bari 3 SOMMARIO Francesco Matera Fondazione Ugo Bordoni via del Policlinico 147 00161, Roma Agostino Giorgio Dipartimento di Ingegneria Elettrica e dell’Informazione, Laboratorio di Dispositivi Elettronici, Politecnico di Bari Via E. Orabona 4, 70125, Bari 163 Energy consumption reduction in core networks optimizing WDM optical system performance 175 181 Giancarlo Butti 201 ISACA 4 Principali applicazioni sensoristiche dei nanotubi di carbonio Main sensor applications of carbon nanotubes Dipartimento di Ingegneria Elettrica e dell’Informazione, Laboratorio di Dispositivi Elettronici, Politecnico di Bari Via E. Orabona 4, 70125, Bari, Italy Alberto Piamonte Dispositivo Medico per la Diagnosi Oggettiva di Patologie Psicosomatiche A Medical Device For The Instrumental Diagnosis Of Psychosomatic Disorders Roberto Marani, Anna Gina Perri Banco Popolare - Audit Conformità e presidi 231/2001 Riduzione dei consumi energetici nelle reti core ottimizzando le prestazioni dei sistemi ottici WDM Un modello per la valutazione dei rischi relativamente al trattamento dei dati personali nelle comunicazioni elettroniche" A risk assessment model regarding the personal data processing in electronic communications La Comunicazione N.R.& N. INTRODUZIONE Introduzione del Direttore Generale dell’Istituto Superiore CTI É sempre con emozione che mi accingo a scrivere l'introduzione alla Rivista dell'Istituto Superiore. Le ragioni risiedono essenzialmente in due sentimenti che regolarmente riesco a combinare quando vedo l'insieme degli articoli proposti. Innanzi tutto provo un senso di meraviglia e di grande interesse per le tematiche che sono toccate e che riescono sempre a dare un quadro degli argomenti più attuali in discussione spaziando in un ambito tecnologico e scientifico davvero molto ampio. La seconda motivazione é la grande responsabilità che deriva dalla consapevolezza di costituire, con la pubblicazione della rivista,uno strumento di divulgazione di interessanti aspetti delle materie piú innovative, frutto di veri approfondimenti molti dei quali realizzati direttamente in laboratorio. E molti laboratori dai quali escono i risultati citati, sono attivi presso l'istituto Superiore delle Comunicazioni e delle Tecnologie dell'Informazione. Quest'ultima caratteristica rappresenta , a mio avviso, il maggior pregio, di molti articoli e della Rivista stessa. Esiste un'ulteriore motivo di interesse che potrà portare a nuovi sviluppi dell'attività di studio e ricerca presso questo Istituto Superiore: la predisposizione, attualmente in corso, di ulteriori laboratori che, nella tradizione esistente, saranno frequentati da giovani ricercatori di varie Università e Centri di ricerca. Anche questi nuovi laboratori saranno il luogo di approfondimento di tematiche innovative e dove possibilmente si valuteranno le ricadute applicative e gli impatti reali su vari aspetti della vita delle persone e della moderna società, sempre piú informatizzata e tecnologica. Il rapporto tra Istituto Superiore e Accademia é sempre stato molto vivo e proficuo, ed é mio vero piacere coltivarlo con grande attenzione. Su questa linea si rende conto con orgoglio di aver intensificato questa collaborazione con l'accordo tra l'Istituto Superiore e il Consorzio CINI Consorzio Interuniversitario Nazionale per l’Informatica per l'attivazione di iniziative congiunte di ricerca e formazione nel settore della cyber. É ragionevole pensare che l'esperienza che sta maturando presso l'Istituto Superiore in materia di cyber Security con l'avvio nel 2014 del Cert nazionale, e che vede un incremento delle attività specialistiche di studio di vulnerabilità di reti e sistemi di telecomunicazioni, di infosharing, di allacciamento di rapporti internazionali a livello internazionale, sia un volano speciale per il migliore utilizzo delle strutture tecnologiche esistenti e per un loro sensibile sviluppo a sostegno della comunità scientifica italiana e ipoteticamente anche a livello sovranazionale. Rita Forsi 5 Immagine di copertina: Laboratori di Ricerca del Settore Infrastrutture e Dispositivi di Nuova Generazione 6 La Comunicazione N.R.&N. Claudio Marciano Dottore di Ricerca in Scienze della Comunicazione, Dipartimento di Comunicazione e Ricerca Sociale, Università degli Studi di Roma "La Sapienza". Smart City. Infrastrutture fisiche e sociali dell'urbanizzazione intelligente Smart City. Social and material infrastructures of intelligent urbanisation. Sommario: La Smart City è una visione culturale e un modello di urbanizzazione. Le aspettative sociali sulla sostenibilità ambientale e i valori promulgati dall'innovazione digitale prendono corpo in una serie di infrastrutture peculiari che consentono di usare l'informazione per rendere più efficienti i sistemi complessi, come la gestione dei rifiuti o la mobilità. Allo stesso modo, le strutture dell'azione urbana, ovvero le istituzioni pubbliche, il mercato e la società civile, vengono interessate da tensioni e mutamenti posti dall'urbanizzazione intelligente. In entrambi i casi la tensione egemone sembra quella della convergenza, che si traduce nell'incremento dell'interdipendenza e dell'interoperabilità tra i sistemi urbani, in risposta ai lasciti autopoietici della città industriale. L'articolo esplora entrambi i piani del modello Smart City: quello fisico e quello sociale, quello delle fibre ottiche e dei sensori, come quello delle governance partecipate e delle start up. Lo scopo è quello di consentire un'introduzione al “mondo” della Smart City, alle sue tecnologie principali, ai mutamenti organizzativi più evidenti, al fine di avviare una sua definizione utile per la costruzione di politiche urbane adeguata alla sua realizzazione. Abstract: The recent success of Silicon Photonics and more generally of the integrated photonic technologies led to a new device concept for a wide range of applications, from sensors to ICT and datacom. Through the funding of the Framework Programmes (FP), the European Union supported the constitution of more technology platforms aimed at the fabrication of integrated photonic devices, easing the introduction of a new business model based on shared manufacturing facilities among more partners to enable the economical and financial sustainability of the technological development. The following contribution reports the main achievements of the different integrated photonic technologies, focusing on the recent results of the Silicon Organic Hybrid (SOH) technology, and provides an overlook of the main partnerships. Smart City is a cultural vision and a model of urbanisation. 7 C. Marciano The social expectations about environmental sustainability and the values disseminated by digital innovation are embodied in a series of infrastructures that enable the use of information to improve the efficiency of complex systems, such as waste management and mobility. Similarly, the structures of urban actions, that is, public institutions, markets and communities, are interested by tensions and changes urged by ‘smart urbanisation’. In both cases the hegemonic tension points to a kind of “convergence”, that is the increasing interdependence and interoperability between systems, in response to the legacy of the industrial city. The article explores both the plans of the Smart City's model: the physical one and the social, the first with its sensors and optical fibre, the second with its multi-stakeholders governance and start up. The aim of the article is to highlight the Smart City's world, its technologies and, organizational changes in order to elaborate a useful definition of “smartness” for better urban policies. Introduzione In questo articolo osserveremo la traduzione della Smart City in pratica spaziale, focalizzando l'attenzione sulla descrizione delle infrastrutture fisiche e sociali che la caratterizzano come un modello urbano peculiare. Si tratta di un tema che chi scrive ha esplorato come Dottorando di Ricerca presso l'Istituto Superiore delle Comunicazioni e Tecnologie dell'Informazione, coadiuvato dall'Ing.Giancarlo Gaudino e dal Direttore Rita Forsi. Gli obiettivi che ci poniamo sono essenzialmente due: • Descrivere le principali infrastrutture che caratterizzano la città intelligente: dalla fibra ottica alle Start Up, dalla sensoristica alla social innovation, la Smart City ha un suo portato tecnologico e organizzativo peculiare, che la rende un modello urbano storicamente a se stante; • Individuare le interdipendenze e la comune origine culturale delle infrastrutture: siano fisiche oppure sociali, le infrastrutture della Smart City dipendono una dall'altra, ed esprimono due tendenze allo stesso tempo tecnologiche e culturali, la “trasduzione” e la “convergenza”. L'articolo è diviso in due sezioni: il sistema nerovoso della Smart City, dove è illustrato il paradigma infrastrutturale che rende la “smartness” un idealtipo di urbanizzazione alla pari di quella industriale o rinascimentale; il cuore della Smart City, in cui le logiche che ispirano le infrastrutture sono specchiate in mutamenti sul piano delle più importanti istituzioni sociali urbane. Nelle conclusioni è messo a fuoco il parallelismo tra “traduzione” e “convergenza” che caratterizzerebbe lo spazio sociale della Smart City e che aprirebbe notevoli interrogativi per future ricerche empiriche e transdisciplinari. 8 La Comunicazione N.R.& N. Smart City. Infrastrutture fisiche e sociali dell'urbanizzazione intelligente. Smart City. Social and material infrastructures of intelligent urbanisation. 1. Il sistema nervoso della Smart City Il sistema nervoso della Smart City sarebbe costituito da una componente periferica e una centrale. La prima, deputata alla raccolta degli stimoli dall'ambiente esterno e alla loro trasmissione, sarebbe incorporata dalla sensoristica e dalle infrastrutture di rete. La seconda, finalizzata all'elaborazione e alla memorizzazione, dalle applicazioni e dalle infrastrutture di storage. Dall'analisi delle loro funzionalità, emerge una costante: la tendenza a ridurre la complessità ad un codice minimo universale. Questa logica, che riprende l'essenza del paradigma informazionale descritto nelle pagine precedenti, può essere definita “trasduzione”. La trasduzione consiste nel movimento fondamentale della “digitalizzazione”, il processo di trasformazione di un'immagine, un suono o un testo in un formato interpretabile da un computer, grazie all'adozione di un codice binario in cui tutta la semantica e la sintassi dei vari linguaggi è ridotta a combinazioni variabili di zero ed uno, quindi a stati di acceso/spento, alto/basso, attivo/passivo. 1.1. Sentire Secondo un vecchio adagio empirista attribuito ad Aristotele “Nihil est in intellectu quod prius non fuerit in sensu”: le elaborazioni intellettuali più complesse dipendono dalle informazioni raccolte dai sensi. Se si prende il corpo di un essere umano, notiamo che il sistema nervoso periferico è caratterizzato dalla presenza di recettori sensoriali: si tratta di cellule capaci di registrare gli stimoli ambientali esterni e di trasdurli, trasformandoli in segnali elettrici decodificabili dal sistema nervoso centrale. Nella Smart City questa funzione è svolta dai sensori, che sono i recettori attraverso cui si articola la città senziente. Si tratta di dispositivi che convertono le grandezze ambientali (fisiche, chimiche o biologiche) in segnali digitalizzabili, attraverso cui un sistema intelligente è in grado di misurare, comunicare, elaborare e conservare le informazioni concernenti l'ambiente stesso. La letteratura di settore ha diviso i segnali in sei classi, indicando tutto ciò che può essere trasformato in unità di informazione. Tra le principali, le grandezze meccaniche (la velocità, l'accelerazione, la pressione), quelle termiche (la temperatura, il calore, l'entropia), quelle elettriche (corrente, resistenza, potenziale), o quelle magnetiche (intensità di campo, densità di flusso, permeabilità). Tutto questo può essere registrato e convertito in unità discrete e convertibili in informazione per sistemi intelligenti e per persone. Chiunque cammini per una città occidentale mediamente sviluppata ha un'esperienza quotidiana di rapporto con differenti tipi di sensori senza che vi faccia caso: ne diventa cosciente quando il prodotto acquistato al supermercato passa per la cassa per disattivarne il codice RFID, quando sale su un ascensore con la chiusura automatica o entra nel bagno di un locale che si illumina senza interruttori. La differenza tra questa sensoristica e quella di cui la Smart City 9 C. Marciano ha bisogno come infrastruttura senziente, è nell’architettura del processo di trasmissione ed elaborazione delle informazioni: i dati raccolti tendono a convergere, anziché verso una complessa rete di cervelli elaboratori ognuno dotato di un codice a se stante, verso un'unica grande banca dati che parla una sola lingua ed è accessibile a tutti per lo sviluppo e la fruizione delle applicazioni. Ma a tutti chi? In primis a persone e istituzioni sociali, le quali partecipano a questo organismo informazionale non solo come consumatori ma anche come attivi produttori, integrando la sensoristica con le loro rappresentazioni, i loro testi, le loro immagini. Il sentire della Smart City non è pertanto chiuso dentro un processo di automazione e trasduzione più o meno evoluta: è dotato di un'intelligenza vivace come quella di un commento su un bel paesaggio, o di un'intelligenza interpretativa come un dataset che ponga in senso diacronico i risultati sulla raccolta differenziata di un Comune. Seguendo sempre una visione ideale di Smart City, i cittadini dotati di propri supporti digitali, dovrebbero agire come recettori dei fenomeni ambientali generando informazione in maniera diretta o indiretta tramite il complesso di sensori che sempre più indosserebbero nella vita quotidiana. Anche le istituzioni, economiche, politiche, sociali, sarebbero “sensori” della città intelligente producendo informazioni, soprattutto in formato aperto, e integrando le loro banche dati al fine di una maggiore e reciproca efficienza. Il sentire della Smart City sembra confermare le intuizioni di Levy (1999) e de Kerckhove (2001) sull'intelligenza collettiva e connettiva. Per certi versi, la città intelligente incorpora la struttura di Internet, ponendosi come una poderosa coscienza urbana collettiva che si nutre della partecipazione di uomini, oggetti, macchine ed istituzioni, i quali aggiungono, aggiustano, eliminano e ristrutturano la banca dati cittadina. L'intelligenza che circola in questo sistema è collettiva nella misura in cui ogni elemento ha la coscienza di essere irrilevante se isolato, mentre è connettiva nella ricerca di sempre nuove interrelazioni, nel capire come le cose possono stare insieme tra loro senza per forza conoscerle in profondità, come il gentiluomo di Moliere che sa tutto senza aver appreso nulla (de Kerckhove 2001). Questa visione di perfetta integrazione tra macchina e uomo, sebbene affascinante, si presta però a diverse critiche. In primo luogo, a differenza di un sensore, l'uomo mente consapevolmente: l'informazione prodotta dalle persone, se non validata opportunamente, rischia di generare entropia e caos nel cervello collettivo della Smart City. In secondo luogo l'intelligenza è collettiva e connettiva nella misura in cui il soggetto può partecipare alla cittadinanza digitale, cosa che invece non avviene sia per disparità sociali, sia generazionali, sia geografiche: la Smart City deve fare i conti per affermarsi come città della comunicazione, con i problemi dell'integrazione, del digital divide, delle competenze digitali scarse in molti settori della popolazione. Infine, la narrazione collettiva della Smart City si regge sul presupposto della sua utilità per i singoli: cosa che può non avvenire, 10 La Comunicazione N.R.& N. Smart City. Infrastrutture fisiche e sociali dell'urbanizzazione intelligente. Smart City. Social and material infrastructures of intelligent urbanisation. specie se prevale un approccio deterministico per cui l'offerta determina la domanda, la necessità di vendere dispositivi e soluzioni prodotte supera i bisogni sociali da soddisfare. Remore a parte, il mondo della sensoristica integrata costituisce comunque un'infrastruttura abilitante del modello Smart City, attraverso cui, con tutti i limiti dei vari contesti territoriali, si cerca di costruire una comune sorgente di dati su cui generare nuovi servizi su scala urbana. Una concreta esperienza di come la Smart City possa infrastrutturare la città e trasformarla in un organo senziente è costituita dalle prime implementazioni del paradigma Internet of Things ai processi complessi, come ad esempio l'organizzazione del lavoro. a. Un caso concreto: Human Cloud a Londra IoT è un paradigma troppo recente per avere una letteratura sociologica di riferimento. Tuttavia, tra le ricerche condotte su alcune sue applicazioni nel mondo del lavoro, risulta particolarmente interessante quella denominata “Human Cloud: a study into the impact of wearable technology n the workplace ” e condotta dalla Goldsmith University of London (2014). L'oggetto dello studio sono le wearable technologies: dispositivi portabili, spesso con la forma di oggetti comuni come occhiali, anelli o bracciali. La loro funzione è quella di raccogliere informazioni a partire dal corpo umano a cui sono legati e di usarne le espressioni più diverse per produrre servizi. È bene premettere che lo studio è stato finanziato e pubblicato a spese della Rackspace, player nel mercato inglese del Cloud computing: rientra pertanto, a pieno titolo nella categoria degli studi integrati. Le wearable technologies impiegate sono state di tre tipi: • Neurosky: un dispositivo che legge le onde celebrali e le usa per velocizzare operazioni come lo scatto di una fotografia; • Geneactive: un bracciale che calcola il battito cardiaco piuttosto che i kilometri percorsi durante una prestazione sporitiva,; • Lumbo: una cintura che analizza i dati sulla postura e informa chi la indossa di quali posizioni siano le più salutari. La ricerca è stata condotta a Marzo 2014, ha coinvolto direttamente 40 impiegati presso l'agenda di global media Mindshare, nelle sedi di Londra. I partecipanti sono stati tutti equipaggiati con uno dei device descritti sopra, e hanno potuto controllare in prima persona i punteggi relativi alle proprie performance at work (PAW) sul proprio cellulare, sul PC di azienda o, in alcuni casi, su schermi a Led messi in ufficio a disposizione di tutto il personale. La ricerca ha alternato questionario diretto ai lavoratori con interviste in profondità e la redazione da parte di ognuno di un diario. I ricercatori hanno così potuto ricostruire alcuni “comportamenti” tipici che i lavoratori sviluppano a contatto con le wearable technologies: i miglioristi, cioè quelli che le usano per incrementare le loro performance, i giocatori, che si divertono a fare competizione con i 11 C. Marciano colleghi, i “calcolatori” che riescono a lavorare meglio se si sentono osservati, a conferma di una vecchia intuizione di Howthorne e del suo celebre “effetto”. Il risultato chiave della ricerca mostra che i “wearing devices”, producono un significativo incremento nella produttività e, allo stesso tempo, nel livello di soddisfazione del lavoratore nei confronti dell'ambiente aziendale. In particolare, secondo i ricercatori, questo incremento sarebbe computabile con un accrescimento del 8,5% nel caso della produttività e del 3,5% nel caso del job satisfaction dopo tre settimane di utilizzo dei dispositivi. Senza esplicitarlo, questo studio inoltre conferma che l'espansione dell'IoT nella vita quotidiana ha anche delle profonde implicazioni per la tutela della privacy e per la cyber security. Se infatti si ampliano i nodi sulla Rete capaci di raccogliere informazioni di qualsiasi tipo, si amplia anche lo spettro di dati sensibili che possono essere usati per scopi criminali o comunque illeciti. La quantità di informazioni sensibili prodotte da questi dispositivi pone seri problemi sulla gestione dei server, su ciò che può legittimamente circolare in Rete su una persona e su ciò che invece richiede un formato “closed”. Infatti, oltre ai dati tradizionali anagrafici, IoT consente di “tracciare” i corpi: di rendere evidente sempre la loro collocazione e disponibili le loro performance. La possibilità di accedere a dati così intimi potrebbe aiutare senz'altro il mercato a produrre prodotti più aderenti ai bisogni, ma anche consentire l'attualizzazione di un “biopotere” pervasivo, peraltro in mani private e con una normativa ancora in via di definizione. Tuttavia, le applicazioni IoT costituiscono un campo di ricerca ancora in via di esplorazione, in cui le scienze sociali possono trovare diversi sentieri da battere per comprendere come questa innovazione tecnologica sarà realmente utilizzata nella Smart City. Certamente, la sua implementazione galoppante rende improrogabile la dotazione di un'infrastruttura per il trasferimento delle informazioni, che IoT moltiplica in forma di Big Data. Passiamo pertanto a comprendere come la Smart City si attrezzi per consentire ai suoi “neurotrasmettitori” di procedere il più speditamente possibile, sebbene i carichi diventino sempre più pesanti. 1.2 Trasmettere Si pone ora la necessità di analizzare le strutture deputate alla trasmissione dei dati verso gli apparati elaboratori. Proseguendo nella metafora organicistica, si tratta di analizzare il processo sinaptico, individuando le componenti e le condizioni che abilitano il passaggio di stimoli nervosi tra cellule diverse. Possiamo notare due famiglie di infrastrutture: una con e una senza cavi. a. Paradigma wired Le reti di conduttori via cavo che garantiscono la connettività tra i sistemi informativi della Smart City appartengono a due grandi famiglie, che corrispondono a delle vere e proprie “età”: una del 12 La Comunicazione N.R.& N. Smart City. Infrastrutture fisiche e sociali dell'urbanizzazione intelligente. Smart City. Social and material infrastructures of intelligent urbanisation. “rame”, l'altra in corso di affermazione, della “fibra”. Le telecomunicazioni devono, ancora oggi, molto al rame. Le infrastrutture telefoniche, e pertanto la maggior parte di quelle di cui si serve Internet, sono costituite da questo prezioso materiale. Basta dare uno sguardo alle sue caratteristiche fisiche per capirne la ragione. Il rame è un ottimo conduttore di elettricità, il migliore in natura dopo l'argento, di cui è tuttavia decisamente più economico. Inoltre, il rame è duttile e resistente allo stesso tempo, ideale per la realizzazione di cablaggi in contesti urbani, dove è necessario colmare lunghe distanze tra dispositivi ma con spazi ridotti a disposizione. Tuttavia questa infrastruttura, anche nella sua versione più evoluta, è in grado di servire la Smart City solo dal punto di vista del downstream, cioè della fruizione di servizi. Tuttavia la Smart City è una città anche dell'upload, del caricamento di dati, anzi di Big Data (si veda l'esempio dei sistemi intelligenti di info-mobilità), che il rame e le sue tecnologie di connessione non riescono a supportare adeguatamente, né dal punto di vista dell'offerta di servizi, né tantomeno della compartecipazione dei singoli utenti. Non si tratta solo della velocità massima che gli stessi sono in grado di raggiungere, soprattutto delle variabili che incidono sul suo funzionamento, che possono essere tante e imprevedibili: ad esempio, la distanza tra i dispositivi connessi a rame e la centralina di rete (più è lunga più la velocità si riduce), la vulnerabilità delle guaine dei cavi ai fattori atmosferici, le interferenze elettromagnetiche prodotte, ad esempio, dalle linee ad alta tensione che corrono parallele spesso a quelle telefoniche. Per questo la Smart City richiede una tecnologia di trasmissione ancora più evoluta di quelle in rame di ultima generazione, che non ragiona più in termini di segnale elettrico, bensì luminoso. È il caso della fibra ottica. Il cavo in fibra ottica è costituito da filamenti sottilissimi, dal diametro di un capello, composti da vetro o polimeri plastici, tenuti insieme da una guaina in gomma. Il filamento in fibra è costituito da una doppia sezione concentrica, in cui la parte esterna è riflettente e opaca, mentre quella interna è trasparente e chiara. È come se uno specchio fosse arrotolato a forma di tubo: la parte interna catturerebbe la luce e continuerebbe a rifletterla all'interno, mentre quella esterna respingerebbe “stimoli” ambientali diversi. Questo è il principio che consente alla fibra di avere prestazioni migliori del rame: gli impulsi luminosi lanciati da Modem che supportano la tecnologia in fibra sono “riflessi” continuamente all'interno del cavo, raggiungendo con rapidità e senza interferenze la destinazione del messaggio. In parole povere, se il rame è simile ad un autostrada in cui gli impulsi elettrici a seconda delle condizioni della strada, dell'atmosfera, degli automobilisti, raggiungono la destinazione in un tempo variabile, la fibra è il teletrasporto dove gli impulsi luminosi sono automaticamente condotti a destinazione secondo canali preferenziali, andando alla velocità della luce, o quasi. Per questo la 13 C. Marciano fibra è più leggera, flessibile e maneggiabile, più resistente alle interferenze e agli agenti atmosferici, più veloce e capace di trasportare maggiore quantità di informazione. In termini di performance, la fibra arriva in upload e download ad assicurare connettività pari a 100Mbps, fino a raggiungere nei casi “industriali”, proprio quelli richiesti dalle applicazioni Smart City, la velocità di 1Gbps. In una visione “sistemica” della Smart City, in cui non ci si limita ad introdurre qualche innovazione digitale, ma si converte il funzionamento dei sistemi complessi urbani ad una nuova filosofia organizzativa, l'estensione e il radicamento della fibra è indispensabile. Tuttavia, il paradigma Wired è una condizione necessaria ma non sufficiente ad infrastrutturare una città Smart. La portabilità della connessione in qualsiasi spazio/tempo della città può essere infatti garantita solo da un altro paradigma, quello Wireless. b. Il paradigma wireless Wireless significa letteralmente “senza fili”. Indica un sistema di comunicazione tra dispositivi elettronici che non fanno uso di cavi, bensì di onde elettromagnetiche a bassa potenza e in alcuni casi anche di radiazione infrarossa o laser . Lo standard più diffuso è il WI FI (wireless fidelity) che utilizza per le telecomunicazioni le onde radio con frequenza di 2,4 Ghz. Queste radiazioni possono creare delle aree di accesso senza fili ad Internet, definite Land Area Networks (LAN), dell'ampiezza di circa 100 metri, o anche superiore a seconda della potenza dell'antenna. Di recente, sono state installate in alcuni paesi non raggiunti dalle tecnologie wired delle antenne WI MAX che riescono ad estendere le LAN fino a 15 Km. La struttura fisica di una rete Wireless è piuttosto semplice: da un lato c'è un Access Point (AP, o più comunemente chiamati Hotspot), ovvero un dispositivo collegato alla rete fissa e dotato di un'antenna che propaga onde radio con standard particolari, da un'altra vi sono i Wireless Terminal, ovvero i devices in grado di captare le onde e di potersi connettere alla rete da cui vengono propagate. I più comuni AP sono i Router, mentre i WT possono essere PC, smartphone, e, lo abbiamo visto a proposito dell'IOT, anche oggetti senza CPU e senza alcuna intelligenza artificiale. Il Wi Fi non è altro che un ponte invisibile verso la rete: le sue infrastrutture servono, pertanto, a diffondere Internet ovunque, senza gli ostacoli fisici che pongono le tecnologie wired. L'implementazione della tecnologia Wireless, in particolare nel dotare le aree pubbliche strategiche di connessione WI FI, è considerata nell'agenda digitale europea un fondamentale per la messa in pratica della Smart City. I suoi vantaggi sono noti: la mancanza di collegamenti fisici tra i vari terminali consente la diffusione di Internet a basso costo, ne abbatte i problemi di mobilità rendendo la connessione portabile, ne incrementa la scalabilità perché le reti WI FI possono crescere di dimensioni e potenza con il crescere delle necessità degli utenti. Il modello Smart City si fonda, interamente, sulla possibilità di diffondere la banda ultralarga in tutti i territori urbani: senza, verrebbe 14 La Comunicazione N.R.& N. Smart City. Infrastrutture fisiche e sociali dell'urbanizzazione intelligente. Smart City. Social and material infrastructures of intelligent urbanisation. meno il principio “senziente” per cui sensori, ma anche persone, possono comunicare in diretta informazioni la cui elaborazione è alla base delle app, cioè dei servizi, che qualificano l'urbanizzazione cibernetica. Pertanto, l'infrastruttura wireless di una città assume un carattere strategico per la sua evoluzione verso un modello Smart “maturo”, cioè capace di sussumere i sistemi complessi. Tuttavia, è necessario anche tenere conto di una sempre più consolidata letteratura medica (Zahdin 1998) che critica fortemente l'esposizione continua alle micronde, perché sarebbe foriera di traumi fisici e, addirittura, alla base di processi degenerativi come i tumori. Il tema delle ricadute sulla salute si è fatto strada fino ad interessare il dibattito politico e scientifico con una certa urgenza. In particolare, gruppi di scienziati indipendenti e alcuni Enti, come ICEMS (International commission for security electro-magnetic field), si evince che gli attuali standard internazionali non sono considerati sufficienti a proteggere la salute pubblica e questo debba spingere la ricerca ad investigare gli effetti biologici e i meccanismi d'azione anche per livelli di esposizione molto bassi. Sono infatti stati stabiliti con un certo livello di certezza alcuni “rischi”, cioè eventi probabili in alcune circostanze, legati all'esposizione a radiazioni WI FI, come l'induzione di morte cellulare e lo stress ossidativo, che oltre alle patologie neoplastiche indurrebbe anche la sterilità. Tuttavia, gli stessi scienziati sostengono che non vi siano meccanismi molecolari in grado di rilevare il legame tra malattie umane e l'esposizione ai campi elettromagnetici, mentre l'OMS ha inserito le radiazioni elettromagnetiche nella classe dei rischi B2, quella dei “possibili danni alla salute”. La discussione è destinata ad essere sempre più rilevante per il futuro, data la pervasività delle tecnologie wireless per la vita quotidiana e la sensibilità, a volte tracimante con il panico, della popolazione ai rischi ambientali delle nuove tecnologie. Un caso, tra i tanti, in cui paradigma informazionale ed ecologico sono tutto fuorché convergenti. 1.3 Elaborare Siamo giunti al sistema nervoso centrale della Smart City. L'analisi della sensoristica e delle infrastrutture di connettività ha consentito di mettere a fuoco le tematiche più rilevanti nella fase di raccolta e trasmissione delle informazioni. Ora si tratta di capire come funziona il cervello e il midollo spinale della Smart City: quali dispositivi, sono deputati all'elaborazione dei dati, alla loro diffusione e memorizzazione. a. Il mondo delle App Il mondo delle App è un pianeta costituito da software di scopo, spesso gratuiti, portabili e leggeri, che hanno come oggetto la fornitura di servizi per ogni pilastro della vita in città. Mobilità, rifiuti, energia, turismo, intrattenimento, e-gov, partecipazione: grazie alle App possiamo sapere se il treno che prenderemo è in ritardo, se un ristorante ha una dieta per celiaci, se il 15 C. Marciano nostro impianto elettrico consuma troppo o ancora dove riporre un certo tipo di rifiuto nella raccolta differenziata. Le App sono dei dispositivi di informazione nel senso cibernetico del termine: riducono l'incertezza, per questo in un contesto in cui tradizionalmente non tutto è prevedibile, come la città, sono molto utilizzate. Inoltre, la loro raffinatezza progressiva abilita quella che Bolter e Grusin chiamano “ipermediazione” del media: la concentrazione su un unico device di caratteristiche enunciative tipiche di diversi media (Bolter e Grusin 2002). Le App, infatti, trasformano il cellulare in un oggetto complesso, che diventa all'occorrenza radio, walkman, televisione, macchina fotografica, torcia, videogioco, diario “segreto” oppure agenda degli appuntamenti. Malgrado la loro diffusione, pochi utenti conoscono i codici di elaborazione delle APP. Anzi, se potessero accedere alle matrici con cui sono scritte e rese operative da parte degli sviluppatori, si stupirebbero del loro grado di complessità. Infatti, rimosso il “velo di Maja” dei sistemi operativi che le rendono fruibili, le App sono espressioni dei linguaggi di programmazione e marcatura, alla pari di altri software. La vera novità introdotta dal modello Smart City nel mondo delle App è la riproduzione di una logica semplificata, anticipata dall'introduzione di sistemi operativi accessibili a tutti, dalla parte dello sviluppatore. La convergenza dei dati in banche accessibili, spesso in Rete e in formato aperto, così come l'estrema economicità di software facilitatori, rendono lo sviluppo di App un'attività diffusa, che può diventare da un lato l'occasione di redditività per una start up, dall'altro anche una modalità di partecipazione attiva alla vita urbana da parte di semplici utenti. L'arte del software diventa una specie di bricolage diffuso e la città intelligente il suo campo di sperimentazione. In base al sistema operativo di riferimento, è possibile scaricare programmi che consentono di mettere su un App senza conoscere una riga di codice, né avere idea di cosa sia un algoritmo. Il punto essenziale diventa pertanto riuscire a creare un servizio che colga un bisogno non ancora soddisfatto e comunicare la sua disponibilità attraverso una strategia di marketing adeguata. Diverse inchieste testimoniano di casi sempre più diffusi in cui utenti non esperti riescano a sviluppare App destinate ad essere usate da milioni di persone e di produrre profitti considerevoli: app per il car pooling, per un migliore uso di Amazon, per raggruppare le news più seguite, perfino per cercare amicizie e rapporti sessuali. È questa la vita dell'utente nella Smart City: il traffico di rete sui dispositivi mobili per l'80% è dedicato alle App, mentre al Web, tolta email e messaggeria, è rimasta ben poca attenzione. Le App più utilizzate sono globali: What's Up, Spotify, Blablacar, per inviare messaggi, ascoltare musica e prenotare un passaggio. Tuttavia, la forte duttilità delle App ne consente un utilizzo anche su base locale, peculiare rispetto ai bisogni espressi da un territorio. E' evidente che la condizione minima per un mondo di App è un mondo di informazioni aperte e usabili. 16 La Comunicazione N.R.& N. Smart City. Infrastrutture fisiche e sociali dell'urbanizzazione intelligente. Smart City. Social and material infrastructures of intelligent urbanisation. b. Il paradigma Open Data Chiunque abbia un minimo di dimestichezza con i nuovi linguaggi del mondo informativo, si è certamente imbattuto in espressioni come: open data, open government, open source. Siano dati, normative o software, le risorse caratterizzate dal paradigma “open” sono liberamente accessibili, senza brevetti che ne limitino la riproduzione e senza copyright, sebbene vi sia sempre l'obbligo per l'utilizzatore di citare la fonte.. Un dato è aperto quando rispetta almeno tre prerogative, piuttosto semplici dal punto di vista informatico: • Disponibilità e accesso: i dati devono essere disponibili nel loro complesso, per un prezzo non superiore ad un ragionevole costo di riproduzione, preferibilmente mediante scaricamento da Internet. I dati devono essere disponibili in un formato utile e modificabile. • Riutilizzo e ridistribuzione: i dati devono essere forniti a condizioni tali da permetterne il riutilizzo e la ridistribuzione. Ciò comprende la possibilità di combinarli con altre basi di dati. • Partecipazione universale: tutti devono essere in grado di usare, riutilizzare e ridistribuire i dati. Non ci devono essere discriminazioni né di ambito di iniziativa né contro soggetti o gruppi. Ad esempio, la clausola ‘non commerciale’, che vieta l’uso a fini commerciali o restringe l’utilizzo solo per determinati scopi (es. quello educativo) non è ammessa. In base al rispetto di questi requisiti, la qualità di un dato aperto è classificato secondo il modello a 5 stelle di Tim Berners Lee. • Il dato è disponibile sul web (in qualsiasi formato) ma con una licenza aperta affinché possa essere considerato Open Data (una stella) • Il dato è disponibile in un formato strutturato che può essere interpretato da un software, ad esempio Excell (due stelle) • Il dato è in un formato strutturato e inoltre questo formato non è proprietario, ad esempio CSV (tre stelle) • Oltre a rispettare tutti i criteri precedenti, il dato fa uso di standard aperti per identificare oggetti, cosicché è possibile fare riferimento alle sue risorse (quattro stelle) • Il dato rispetta tutti gli altri criteri e inoltre contiene collegamenti ad altri dati al fine di fornire un contesto alle proprie informazione (cinque stelle) Se ci mettiamo nei panni dell'architetto informatico che dovrà convertire l'approccio ai dati di un Ente pubblico verso il paradigma Open, ci rendiamo conto che una parte del suo lavoro va dedicato all'elaborazione tecnica del dato, un'altra non meno importante alla comprensione delle implicazioni sociali di un paradigma Open applicato 17 C. Marciano ad una PA. Dal punto di vista tecnico, il primo passo per procedere alla messa in pratica del modello Open Data è quello di elaborare un albero dei dati: individuare i dataset (le tematiche attorno cui raccogliere le informazioni) e comprendere le risorse disponibili, cioè i dati raccolti finora su quegli argomenti. Quindi la loro conversione in formati che consentono il rispetto dei requisiti di cui sopra: disponibilità, usabilità, riutilizzo, in una parola la rispondenza rispetto alle licenze d'uso Open Data. Infine il passo più complesso è quello dell'organizzazione dei dati in modalità “divulgativa”, scegliendo una strategia di comunicazione, ad esempio un portale, e indicando chiaramente agli utenti la modalità di consultazione. Proprio la coscienza che il dato aperto è un seminatore di trasparenza, comporta uno sforzo sociologico per chi voglia applicarlo alla PA. Si tratta infatti di capovolgere una caratteristica del potere burocratico: la reificazione delle sue (spesso) deliranti necessità, che si fonda sulla mancanza di accesso alle informazioni da parte di tutti. Un primo passo è, in questo caso, coinvolgere gli utenti potenzialmente interessati ai dati aperti fin dall'inizio del processo: solo così si potrà avere un'idea della domanda di dati, di quali siano i bisogni informativi di cittadini, aziende e istituzioni non ancora soddisfatti. Allo stesso modo, è altrettanto importante comprendere quali sono le barriere, i timori e le incomprensioni che l'adozione di un approccio open può comportare in una struttura abituata a gestire i dati in modo diverso: per questo, accanto agli users, vanno coinvolti parimenti i produttori dei dati, quelli che dovranno raccoglierli, gestirli e validarli. Non solo comunicare, ma anche “formare”, perché per quanto accessibile, l'apparato tecnologico degli Open Data va comunque assorbito e compreso, specie da risorse umane cresciute in paradigmi informazionali diversi. Se il mondo delle App consente anche al semplice utente di partecipare alla costruzione di una grande intelligenza collettiva e connettiva urbana, e quello Open Data di trasformare in valore la disponibilità e l'apertura delle informazioni. Infine, sebbene non descritto per ragioni di spazio in questo articoli, c'è il mondo del Cloud Computing ad abilitare a servizi e capacità di memorizzazione che democratizzano ulteriormente l'accesso alla Smartness. 2. Il Cuore della Smart City Se le infrastrutture materiali descrivono le principali innovazioni della Smart City dal punto di vista delle tecnologie, quelle “immateriali” possono offrire diversi spunti su come l'urbanizzazione intelligente produca delle nuove necessità dal punto di vista organizzativo. Nelle pagine precedenti, abbiamo osservato che la logica dominante nelle infrastrutture materiali è la “trasduzione”, cioè la conversione di codici diversi verso uno comprensibile a tutti i dispositivi coinvolti nel processo comunicativo. Dai sensori alle tecnologie di trasmissione fino all'elaborazione di App, la microfisica della Smart City 18 La Comunicazione N.R.& N. Smart City. Infrastrutture fisiche e sociali dell'urbanizzazione intelligente. Smart City. Social and material infrastructures of intelligent urbanisation. sarebbe una sfida a cercare di capirsi: prima tra persone, poi tra istituzioni, quindi tra sensori e perfino oggetti, come richiede il paradigma IOT. L'ipotesi che seguiamo in questa seconda sezione è per certi versi simile. Sosteniamo che anche le infrastrutture immateriali seguono un processo di convergenza verso l'incremento delle relazioni e verso l'interoperabilità anziché l'autoreferenzialità. Inoltre, che i modelli organizzativi adottati nella Smart City tendano al superamento di alcuni “vuoti” lasciati dallo spazio astratto industriale, i quali prendono la forma di bisogni sociali mai espressi o comunque soddisfatti, oppure di gap istituzionali in cui mutamento tecnologico e organizzativo non sono sincronici. Cosa intendiamo dire? Si pensi al modello degli attanti urbani proposto da sociologo sistematico come Raymond Ledrut nel 1971. Di fronte c'è la città industriale con il suo ordine razionale e il suo spirito categorizzante e concentrazionario. Ledrut individua tre grandi attori sociali capaci di sintetizzare le strutture dell'azione e di avviare nuovi processi di urbanizzazione: lo Stato, il Mercato e la Comunità. In ognuno di essi agiscono diverse istituzioni: partiti politici e amministrazioni comunali, burocrazie e magistrature, imprese e sindacati, associazioni culturali e religiose. La Smart City agirebbe sulle strutture dell'azione sia indebolendo il ruolo di alcune, sia rafforzando o addirittura generandone di nuove, sia soprattutto agendo in modo tale che i codici caratteristici di ognuna investano l'altra. Ad esempio: che i meccanismi partecipativi delle associazioni culturali siano sempre più adottati dalle istituzioni politiche, che i metodi di ricerca delle discipline scientifiche ispirino l'azione delle imprese, che l'organizzazione aziendale venga adottata sempre più dalle amministrazioni pubbliche e così via. Sezioneremo il cuore della Smart City in tre gruppi tematici. La prima infrastruttura osservata è la governance urbana. In questa sezione noteremo come la convergenza tra le strutture dell'azione urbana si esplichi in modelli istituzionali partecipati e in strategie di finanza di impatto. La seconda infrastruttura riguarda invece i modelli di impresa innovativi, a cui non partecipa soltanto il Capitale privato, ma anche la comunità e le istituzioni pubbliche come Comuni e Università. In questa sezione parleremo delle Start Up e della Social Innovation come ambiti peculiari dell'economia Smart City. La terza infrastruttura riguarda invece gli spazi pubblici, cioè i luoghi dove il modello Smart City è decodificato in modo più autentico verso l'appropriazione e il superamento delle contraddizioni dello spazio astratto industriale: i Fab Lab e le strutture di Co-Working da un lato, ma anche gli orti urbani e i gruppi di acquisto solidale. 2.1 La governance nella Smart City Il concetto di governance ha avuto una certa fortuna nelle scienze politiche a partire dagli anni 90'. La sua origine è riconducibile all'ambito giuridico-normativo. Semplicemente, governance voleva 19 C. Marciano dire azione del government, le cui funzioni principali consistevano nella decisione sugli assetti istituzionali e nella produzione di norme (Kooiman 2003). Nel tempo, il concetto è emigrato verso diverse accezioni, tanto che oggi appare abbastanza normale parlare di governance delle imprese, delle relazioni internazionali e delle politiche urbane (Kooiman 2003). Di base, l'idea condivisa di governance implica che che lo Stato, il mercato e la comunità non siano sfere completamente disgiunte, che vengano legittimati dalla interiorizzazione di qualche forma di cooperazione, e che vi sia, nella loro collaborazione, un orientamento alla decisione e alla pratica. È dentro questa cornice che può essere interpretata la “Smart Governance”, cioè l'elaborazione di specifici modelli di governance adeguati a gestire l'urbanizzazione della Smart City (Brenner 2003). La Smart Governance si distingue, in misura prevalente, per un ruolo sempre più centrale assunto dall'attore “comunità”. Infatti, complice un orientamento culturale che ha plasmato i movimenti sociali urbani verso un approccio pragmatico e istanziale (Diani e Della Porta 2004), ad essere coinvolti come attori fondamentali dei processi decisionali non sono solo le imprese e gli istituti di credito, ma anche le associazioni culturali, i gruppi di volontariato e di cittadinanza attiva. Le élite urbane, che in passato trovavano nei partiti politici e nel capitale edilizio/finanziario i settori generativi maggiori, sono abitate sempre più dai social innovators. Infine, la Smart Governance introduce un quarto attore nella triade tradizionale delle strutture dell'azione urbana, costituite da pubblico, privato e comunità (Ledrut 1971): l'expertise scientifica. Il ruolo delle università, degli enti di ricerca, delle società di consulenza, nella governo delle città intelligenti, diventa importantissima in termini di produzione dell'innovazione, di valutazione delle performance e di critica delle azioni. a. I modelli istituzionali partecipati: il caso SMILE del Comune di Torino. La forma più diffusa di Smart Governance è quella dei modelli istituzionali partecipati, i quali sono essenzialmente due: la gestione diretta da parte dei Comuni o la costituzione di enti ad hoc, spesso fondazioni o associazioni, a compagine mista. Nel primo caso è il Comune l'ente che guida i progetti Smart City. La governance pertanto coinvolge principalmente i dipartimenti interni all'amministrazione comunale e solo marginalmente le forze imprenditoriali e associative esterne. Spesso questa soluzione è adottata nelle città più piccole dove non vi è la presenza di università, di sedi centrali di banche e di imprese di settore interessate ai progetti Smart. La partecipazione, se praticata, viene attuata attraverso specifici progetti di consultazione oppure attraverso partenariati tematici. A incarnare lo spirito della governance Smart, per impostazione culturale e politica, è l'altro modello, quello della fondazione, che infatti è praticato nelle città più grandi e complesse come Torino, Amsterdam, Barcellona. Diverse città europee hanno costituito delle fondazioni o associazioni con lo scopo di guidare la trasformazione urbana verso il 20 La Comunicazione N.R.& N. Smart City. Infrastrutture fisiche e sociali dell'urbanizzazione intelligente. Smart City. Social and material infrastructures of intelligent urbanisation. modello Smart City. Si tratta di enti di diritto privato in cui, tuttavia, vi è una preponderante presenza di capitale pubblico rappresentato dal Comune, dalla Regione, dalle Università, dalle camere di commercio e dalle società partecipate. Quanto alla componente privata, è rappresentata prevalentemente da aziende leader nel mercato ICT, da istituti di credito, da enti di ricerca privati e dagli organismi di categoria degli industriali. La fondazione, accanto ad un comitato direttivo costituito dai soci istituzionali, ha solitamente anche un comitato scientifico e una struttura amministrativa che stabilisce delle partnership con l'esterno sotto forma di accordi di programma. Questo consente un ampliamento notevole dei soggetti coinvolti nelle varie attività, soprattutto associazioni e piccole imprese, altrimenti schiacciati dal peso dei grandi partners di mercato oppure istituzionali. Oltre ad aggregare soggetti di diversa natura sociale, solitamente le fondazioni Smart City svolgono delle attività di pianificazione, consulenza, comunicazione e fund raising per conto dei propri soci. Si tratta cioè di progettare e realizzare processi di partecipazione, di elaborare soluzioni tecniche, di effettuare ricerche, di organizzare eventi e di consentire l'accesso a forme di finanziamento, spesso comunitarie, tramite la partecipazione a bandi e concorsi. La fondazione incorpora molto efficacemente l'idea di governance urbana esposta da Le Gales, per cui il government non sarebbe più solo la classe politica burocratica del Comune, ma un aggregato di forze capaci di mediare i loro interessi e di rappresentarli unitariamente all'esterno sotto forma di Città. L'osservazione di un caso concreto chiarisce meglio le implicazione di questo modello istituzionale partecipato. La scelta può andare sul progetto SMILE della fondazione Torino Smart City, attraverso cui è stato elaborato il primo “Masterplan”, ovvero piano strategico per condurre la città verso il modello Smart City. SMILE è l'acronimo di Smart Mobility Inclusion Life&Health Energy. Il piano strategico si pone l'obiettivo di stabilire obiettivi, strumenti e fonti di finanziamento sulla mobilità sostenibile, la produzione di energia rinnovabile, il miglioramento dei servizi alla persona e la sicurezza, con uno sguardo fino al 2025. L'innovazione digitale percorre trasversalmente tutti gli ambiti del progetto, fungendo non solo da dispositivo tecnologico ma anche organizzativo, promuovendo pertanto un'idea matura di Smart City, cioè completa, dotata di un'identità propria e non somigliante a nessun modello di città pregressa. Elemento importante per un contesto urbano come Torino, che invece ha avuto un glorioso passato industriale ed oggi evolve verso un sistema urbano intelligente. È interessante, per il nostro discorso sulla governance, più che l'osservazione delle iniziative concrete, quella del metodo di lavoro. SMILE infatti non è il prodotto di un gruppo di esperti seduti a tavolino a decidere le sorti della città fino al 2025. È un percorso di partecipazione che ha coinvolti 66 soggetti sociali e 350 persone in tre mesi di tavoli, focus groups, consultazioni strutturate e altre tecniche di engagement e di confronto orizzontale. 21 C. Marciano Il primo passo seguito dalla Fondazione Torino Smart City, che a livello amministrativo è un ente strumentale del Comune, è stato promulgare una manifestazione di interesse rivolta a altri enti pubblici, imprese, ricerca e terzo settore. Individuati i partners interessati a collaborare è stato strutturato un team con almeno un rappresentante per ogni aderente. Al Comune e ai soci della Fondazione si sono aggiunti, in particolare, alte 28 imprese, 5 enti di ricerca privati e 15 associazioni no profit. Il processo di costruzione del piano strategico è quindi consistito in una prioritaria analisi degli asset della città: i punti di forza e debolezza, le opportunità non ancora utilizzate, i rischi alle porte. Accanto al contesto ambientale, è stata fatta un'analisi di quello sociale: le competenze diffuse sul territorio, le caratteristiche degli stakheolders e degli stessi partecipanti ai tavoli. Quindi un benmarking rispetto ad altre realtà assimilabili a quella di Torino e la proposta di un gruppo di 45 azioni strategiche sui quattro pilastri tematici Mobility, Inclusion, Life&Health, Energy. Per ogni azioni il piano ha individuato possibili fonti di finanziamento e uno schema di valutazione dei risultati raggiunti. C'è da rilevare come il Masterplan di Torino Smart City abbia garantito un livello di partecipazione notevole nella fase di analisi e costruzione della proposta, ma abbia saldamente confermato nelle mani del Comune la fase decisionale e l'individuazione delle priorità. Orientamento ribadito, nella gestione della Fondazione, inserendo come esclusivi componenti del comitato di gestione i tre assessorati tecnici del Comune (ambiente, partecipate e fondi comunitari). Tuttavia, se si pensa alle modalità di costruzione delle politiche pubbliche locali del passato, si può evidenziare un cambio di passo decisamente notevole. La possibilità data ad associazioni culturali, piccole imprese, mondo della ricerca, di avere accesso alle informazioni prima esclusive della burocrazia, di poter incidere nella costruzione di obiettivi amministrativi a lungo termine e di proporre un arco di azioni da intraprendere sono una novità che plasmano la governance urbana in senso più aperto e partecipato. Una conferma ulteriore di questa tendenza è evidenziabile nell'analisi dei processi di finanziamento che la Smart City tende ad incentivare, che vengono raccolti sotto il concetto di “Impact Finance”. 2.2 Modelli di impresa innovativi L'impresa nasce per produrre valore. È un'istituzione sociale fondamentale perché presiede al soddisfacimento di bisogni diffusi, spesso di beni e servizi, e nella storia della città ha plasmato in base alle sue esigenze organizzative lo spazio fisico e sociale. Nella Smart City il valore più prezioso che l'impresa possa produrre è il senso, inteso come relazione sociale e comunicativa attraverso cui gli individui si scambiano significati. La Start Up è l'idealtipo del capitalismo relazionale e nella Smart City trova il suo campo d'azione urbana fondamentale. Vedremo nelle prossime pagine, le sue origini culturali e il suo rapporto stringente con la redditività finanziaria. Tuttavia, è anche l'idealtipo di 22 La Comunicazione N.R.& N. Smart City. Infrastrutture fisiche e sociali dell'urbanizzazione intelligente. Smart City. Social and material infrastructures of intelligent urbanisation. una versione alternativa e conflittuale di economia, in cui la produzione di senso costituisce comunque il valore fondamentale, ma non finalizzato all'accumulazione, bensì alla risoluzione di problemi sociali. Qui la Start Up evolve verso la Social Innovation, un processo di ibridazione tra impresa capitalistica e movimento sociale, che costituisce un altro pilastro innovativo del cuore della Smart City, cioè delle sue infrastrutture immateriali. a. Il mondo delle Start Up La Smart City, nella sua componente elaborativa, cioè quella che produce applicazioni e servizi per i cittadini, è una costellazione di Start Up. Inizialmente, con questo concetto, si è inteso qualificare la fase di avvio di un progetto imprenditoriale. Tuttavia, presto Start Up ha cominciato ad indicare qualcosa di più di un inizio, indicando le imprese caratterizzate da prodotti fortemente innovativi, spesso legati all'uso di ICT o di dispositivi di condivisione dell'informazione, rivolti alla soluzione di problemi quotidiani della vita urbana e alla generazione di profitti con costi relativamente bassi. Per comprendere da dove abbia origine il modello di impresa Start Up è necessario ricostruire la trama che lo ha partorito e ne ha consentito una mobilità ideologica straordinaria, quindi cogliere le sue caratteristiche principali dal punto di vista economico e organizzativo, attraverso cui tenderebbe a “costruire” lo spazio percepito della Smart City. Secondo autorevoli commentatori, la cultura delle Start Up avrebbe origine nella West Coast americana (Castells 1998) ai tempi dei movimenti sociali libertari, ed esprimerebbe una sorprendente convergenza tra controcultura e cybercultura (Turner 2008). La tesi è suggestiva: la libertà che artisti, scrittori e intellettuali cercavano nella musica psichedelica o nell'arte concettuale alla fine dei 70', avrebbe trovato nelle tecnologie dell'informazione, e in particolare nello sviluppo di Internet e nel suo uso per fare impresa una forma contemporanea e ancora più compiuta di espressione (Turner 2008). Un file rouge curioso, se si pensa che Internet è stata inventata da un gruppo di informatici al servizio dell'esercito americano per poter creare una rete di informazioni in grado di resistere ad attacchi nucleari. La Start Up è figlia di questo conflitto, nella misura in cui esprimerebbe un approccio allo stesso tempo libertario e cibernetico, in cui da un lato prevalgono i valori di un'imprenditorialità creativa e innovatrice, pronta a distruggere il vecchio e a proporre nuove regole nel mercato, dall'altro tesa a spingere agli estremi il rapporto tra uomo e macchina, in particolare nella loro reciproca possibilità di cooperare nel produrre informazioni e valore sociale. I valori culturali che ispirano il modello della Start Up sono importanti per cogliere il fenomeno, tuttavia non aiutano a spiegare la sua ascesa come modello di impresa: più efficace a questo scopo è la ricostruzione della trama finanziaria che ne muove le fila. Tutto inizia attraverso una vera e propria campagna di credit rasing, in cui gli investitori sono attirati da guadagni elevatissimi a cui 23 C. Marciano corrispondono altrettanti rischi. Tra il fondo e i creditori si posiziona quindi un intermediario, che ha il compito di trovare un'impresa, o anche semplicemente un'idea, che potrebbe generare a medio termine profitti clamorosi o anche perdite senza alcuna possibilità di rimborso: il cosiddetto venture capital. Dove cercare le idee se non tra i “geni”? Gli intermediari sguinzagliano cacciatori di teste nelle Università, piuttosto che nelle reti di incubatori, nei gruppi di innovazione industriale e sociale. Individuato un progetto interessante, il fondo investe in primo luogo per la produzione di un prototipo, quindi per il primo impatto sul mercato e poi, in caso di successo, nell'espansione del prodotto a livello globale. Ovviamente, l'idea è riprodotta in una miriade di Start Up in innesti diversi, per capire quali variabili funzionano meglio e resistono meglio all'ambiente, alla pari del coltivatore neolitico con i semi degli alberi da frutto.. La Start Up è un modello estremamente competitivo, che richiede un mutamento continuo dei suoi prodotti, delle sue tecniche di riproduzione e di accumulazione, adeguato ad un mercato con una domanda flessibile e spesso difficile da prevedere. In questo senso, la Start Up è destinata a sconvolgere completamente le relazioni tra capitale e lavoro, le forme di organizzazione, di contratto, i cosiddetti rapporti sociali di produzione. La Start Up nasce e muore molto rapidamente, il suo numero di “dipendenti” varia da uno a mille anche nel giro di poco tempo, rendendo il lavoro necessariamente più precario, richiedendo una divisione del lavoro sociale fondato sulla conoscenza e sulla iperspecializzazione, rendendo i cosiddetti “mezzi di produzione” qualcosa di molto più facile da ottenere che nel passato. La Start Up nasce come espressione di un'economia finanziarizzata e di una cultura influenzata dal libertarismo e dalla cibernetica. Tuttavia, nella Smart City, che come altri modelli di città è un buco nero centrifugo in cui tutto è attirato e niente riesce a fuggire, anche la Start Up entra in contatto con i temi dell'urbanizzazione intelligente, con la sfera culturale dell'ecologismo, con la società del rischio che tende ad alleggerire il carico esplosivo della crescita e del progresso senza fine. La Start Up entra quindi in contatto con un mondo in cui la finanza e l'impresa sono definite “sociali”, in cui gli obiettivi fondamentali non sono la massimizzazione dei profitti e il reperimento di investitori, ma la lotta contro l'inquinamento del traffico e per dare un tetto agli anziani con redditi bassi, in cui gli imprenditori hanno una formazione manageriale ma vengono dal cattolicesimo di base, dall'estrema sinistra, dal libertarismo radicale. La Start Up si snatura, o meglio evolve e si adegua, ad un mondo che non va verso un senso unico, e diviene la forma di impresa peculiare non solo dell'economia neoliberale degli ultimi anni ma anche dell'anti-economia, quella sociale, ben rappresentata dal concetto di “Social Innovation”. 24 La Comunicazione N.R.& N. Smart City. Infrastrutture fisiche e sociali dell'urbanizzazione intelligente. Smart City. Social and material infrastructures of intelligent urbanisation. b. Il mondo della Social Innovation. Il caso CleanNap a Napoli Sarebbe impreciso definire la Social Innovation un nuovo modello di impresa. Tuttavia, si può considerare come un processo socio-economico fondamentale alla creazione di nuove forme di valore che hanno una possibile incidenza sulle strutture organizzative delle imprese. La Social Innovation incorpora la convergenza della Smart City nella misura in cui muove i gruppi intermedi della Comunità verso attività e sistemi di organizzazione tipici di un'impresa ed esprime l'influenza dei paradigmi informazionale ed ecologico attraverso la creazione di servizi. Può aiutare, per calare la Social Innovation nell'ambito urbano, raccontare una best practice in corso di realizzazione, ovvero l'esperienza di CleaNap: un'associazione culturale che ha vinto un finanziamento governativo di 2 milioni di euro per implementare un sistema di bike sharing a Napoli. Si tratta di un'esperienza che contiene tutti gli elementi caratteristici della social innovation un'associazione che diventa impresa, un bisogno sociale che trova una soluzione organizzativa e tecnologica nuova per essere finalmente soddisfatto, un servizio caratterizzato da uso collettivo, l'implementazione di tecnologie della comunicazione e con finalità ambientali. CleaNap nasce nel 2011 dichiaratamente come un gruppo di innovazione sociale. L'obiettivo dei fondatori è quello di creare aggregazione su proposte di creatività urbana, partecipativa e volontaria. Il nucleo fondatore è costituito da cinque giovani laureati under 35 anni con competenze diverse, dall'architettura alla sociologia, caratterizzati da una forte tensione verso il proprio territorio. Nel 2013 CleaNap decide di partecipare al bando MIUR sull'innovazione sociale rivolto alle Regioni della convergenza, tra cui la Campania. Il progetto viene finanziato con due milioni di euro e dopo un anno di attese per recepire i finanziamenti, utile tuttavia alla comunicazione del progetto in giro per l'Italia, prende il via a Febbraio 2015. Chiunque conosca Napoli conosce anche la situazione drammatica della sua mobilità urbana. Traffico alle stelle, geografia del centro caratterizzata da un continuo sali e scendi, piste ciclabili inesistenti, per non parlare del rischio (diffuso del resto in tutte le metropoli) di furti, scassi e vandalismo. Un contesto dove sperimentare pratiche di mobilità condivisa e pubblica come il bike sharing è sicuramente un'azione coraggiosa. Il progetto proposto da CleaNap non è tuttavia un bike sharing “canonico”. Nel sistema ideato e poi attuato, ci sono alcuni dispositivi “Smart” che lo rendono particolarmente ingegnoso. Le stazioni sono dislocate nel centro urbano, tra la Stazione, il Porto e nei pressi dell'Università Federico II. Ognuna è dotata di un sensore GPS nascosto nel telaio per garantire al gestore di avere sotto controllo la flotta. Le ciclo-stazioni sono date di lettore RFID e NFC per garantire il pagamento del servizio tramite cellulare, semplicemente apponendolo vicino al codice sorgente. Il sistema è collegato ad un'APP user friendly, 25 C. Marciano in cui è possibile registrarsi con poche credenziali e avere accesso alle postazioni a distanza, prenotando anche ore prima la bicicletta. L'App fornisce anche il codice per sbloccare la bici prenotata, con un sistema di controllo elettronico che scoraggia il tentativo di furto. Ogni ciclostazione è monitorata da videosorveglianza, di un totem informativo che raccoglie anche pubblicità e di un hot spot per garantire la connettività. Il sistema tariffario è indubbiamente incentivante: i primi trenta minuti sono gratuiti, e l'unica penale in caso di sforamento è il ritiro dell'abbonamento che abilita l'accesso alle bici. Inoltre, fino a Maggio 2015, l'abbonamento sarà gratuito, perché lo start up è pagato dal MIUR con il bando Smart Cities and Communities. Dopo si procederà con il pagamento di una tariffa per accedere al servizio minimo (30 minuti a sessione), e con livelli superiori al crescere dell'uso. La gestione del servizio sarà a cura di CleaNap, che avendo realizzato l'infrastruttura è anche concessionaria del servizio per alcuni anni. Un'associazione no profit che diventa agenzia per la mobilità di una città di quasi un milione di abitanti restituisce il senso dell'idea di Social Innovation come processo che trasforma le strutture di comunità in imprese sociali. Il progetto è stato comunicato per circa un anno nella città, anche grazie alla collaborazione dell'amministrazione comunale: è stato realizzato, a Febbraio 2015, un evento di lancio, con conferenza stampa e inaugurazione delle ciclo-stazioni. I risultati finora ottenuti sono incoraggianti: in un mese sono stati registrati 4.000 utenti e realizzate oltre 6.500 sessioni. Sono in corso analisi sui flussi, le destinazioni e la tipologia di utente: il sistema informativo che regge il servizio consente infatti un monitoraggio consapevole degli utilizzi, a cui partecipano in primis gli utenti del servizio, che forniscono informazioni anche sotto forma di messaggi e suggerimenti. Le esperienze di Social Innovation pongono le basi per il prossimo e ultimo paragrafo destinato a descrivere il cuore della Smart City: gli spazi pubblici. Infatti, i luoghi di produzione e svolgimento delle attività di innovazione sociale sono anch'essi strutture fondamentali dell'urbanizzazione intelligente. Si tratta di entrare, seguendo una metafora geografica, nelle dinamiche “bottom up” della Smart City, quelle prodotte dal basso, quelle che poi ci porteranno a indagare lo spazio vissuto nel terzo capitolo, dedicato all'analisi di un caso di telelavoro. 2.3 Gli spazi di Comunità Chiudiamo questa rapida panoramica sul cuore della Smart City, dedicando alcune pagine a quelli che definiamo “spazi di comunità”. Certi luoghi caratterizzano i modelli urbani fungendo da sineddoche, esprimendo il tutto attraverso una sua parte: l'anfiteatro per la città romana, il castello per la città medievale, la fabbrica per la città industriale. Si tratta di spazi non necessariamente pubblici, tuttavia visibili e decodificabili da tutti gli abitanti di una città come dei dispositivi identitari. In questo senso sono “spazi comuni”, cioè 26 La Comunicazione N.R.& N. Smart City. Infrastrutture fisiche e sociali dell'urbanizzazione intelligente. Smart City. Social and material infrastructures of intelligent urbanisation. contengono e riproducono la forma essenziale dei rapporti sociali per come saranno vissuti anche al di fuori dei propri confini. Sono la scena che ispira l'osceno. Analizzare gli spazi comuni della Smart City vuol dire comprendere, per dirla con Heidegger, il suo “essere nel mondo”: il modo in cui nell'abitare un luogo si esprime un progetto di società, si cerca di soddisfare un complesso di aspirazioni e di colmare lacune e vuoti lasciati dai sistemi istituzionali in decadenza. Probabilmente, non è ancora matura l'idea di Smart City al punto di eleggere dei luoghi così pregnanti della sua essenza. Allo stato attuale, sarebbe improvvido eleggere uno “spazio comune” della Smart City, perché nessuno è abitato al di fuori di specifiche élite. Tuttavia, se ci sono oggi degli spazi peculiari creati dal modello Smart City e con una tensione all'egemonia tale da farli considerare dei possibili candidati a ricoprire la carica di spazi comuni, quelli sono gli orti urbani, i Fab Lab, i Coworking che proponiamo di chiamare gli “spazi di Comunità”. a. Il mondo degli orti urbani Da Matrix a Blade Runner, diverse narrazioni cinematografiche hanno immaginato un destino robotico per gli spazi pubblici della città futura. La flora e la fauna sarebbero scomparse, il clima devastato da piogge acide e nucleari, i paesaggi occupati da immense colate di cemento e acciaio, sorvegliati da sensori diffusi fin dentro la pelle degli abitanti. Pochi avrebbero immaginato che, invece, gli scenari della Smart City avessero al centro il tema della distribuzione della terra, dell'agricoltura urbana, della produzione di cibo a chilometro zero, in una parola del mondo degli orti urbani. Gli orti urbani, infatti, producono lo spazio sociale della Smart City. Lo fanno dal punto di vista fisico riscrivendo i paesaggi urbani attraverso la coltivazione di apprezzamenti abbandonati, l'apertura di mercati e botteghe con cibo biologico, la creazione di fattorie didattiche. Lo fanno dal punto di vista concettuale consentendo la diffusione di un nuovo immaginario di città e di una maggiore sensibilità verso la natura. Infine, dal punto di vista delle esperienze, creando nuovi gruppi sociali intermedi in cui circola una rinnovata coesione sociale attraverso la condivisione di particolari stili di vita e abitudini di consumo. La categoria concettuale di “appropriazione”, elaborata da Lefebvre (1975), ci consente di interpretare la genesi di questo mondo. Lefebvre ritiene che la rivoluzione urbana si espliciti nell'appropriazione dello spazio e del tempo di vita da parte delle persone. Appropriazione vuol dire emancipazione ma anche possesso, riconoscimento dell'altro ma coscienza della propria unicità. Rispetto allo spazio astratto, in cui la complessità è costretta ad omologarsi in grandi gruppi semplificatori e l'ordine è garantito attraverso il controllo e la disciplinamento, l'appropriazione è una struttura dell'azione dello spazio differenziale, in cui invece le diversità 27 C. Marciano si riconoscono reciprocamente senza centro e senza integrazione, gli individui sono liberi di poter decidere e scegliere in base alle proprie sensibilità, senza normalità e, a volte, senza norma. Il mondo degli orti urbani rappresenta una duplice appropriazione nei confronti sia del modo di alimentarsi sia della gestione del territorio nella città industriale. La città industriale è quella in cui il cibo, forse per la prima volta nella storia, tendenzialmente non scarseggia. Eppure, la produzione di massa del cibo e la sua distribuzione secondo le logiche dell'economia capitalistica, ha creato dei vuoi profondi, cioè dei bisogni insoddisfatti. L'impersonalità dei rapporti tra consumatore e produttore, il rischio ambientale connesso alle monoculture, agli OGM e alla destagionalizzazione dei prodotti, conduce sempre più persone a rivedere i propri comportamenti alimentari, per renderli meno omologati e più salubri. L'appropriazione si traduce nel consumerismo che prende forma nell'origine controllata dei cibi, nelle certificazioni biologiche, nel chilometro zero, nel veganesimo e in altre sensibilità in cui si sviluppano valori culturali alla dieta alimentare. Anche la gestione del territorio nella città industriale ha prodotto dei vuoti e dei bisogni insoddisfatti: gli apprezzamenti di terre pubbliche e private lasciate all'incuria, perché bloccate nell'edificazione dalla burocrazia, dalla crisi economica e finanziaria, dalla scarsa tendenza all'innovazione da parte del capitale edilizio. Sono i luoghi dell'abbandono, perennemente in attesa di diventare altro, di essere alienati o semplicemente curati dalle istituzioni pubbliche, oppure se privati, di acquisire maggiore valore commerciale attraverso una speculazione o una variante urbanistica. Sono i luoghi esclusivi della città, sebbene non servano a nulla: sono sempre di “altri”, blindati per il loro disuso. L'appropriazione del mondo degli orti urbani opera in questi interstizi urbani, occupandoli o chiedendo il loro affidamento per progetti diversi: dalla coltivazione di quartiere, in cui ogni famiglia ha un piccolo lotto da curare, all'apertura di vere e proprie aziende agricole in città. Ancora, opera tramite il situazionismo del guerriglia gardening, che li ripulisce dalle sterpaglie e li riempie di fiori e piante. In altre parole, l'appropriazione usa gli orti urbani per risemantizzare lo spazio urbano dal punto di vista di chi lo vive, nella dialettica lefebvriana è lo spazio vissuto che conquista quello concepito: le conseguenze sul piano culturale sono notevoli. In questo ribaltamento, non è infatti più la città che fugge verso la campagna, come negli anni dello sviluppo del peri-urbano in cui la residenzialità annaspava verso il residuo di ossigeno lasciato oltre le periferie. È piuttosto il contrario: è la campagna che torna dentro la città, non solo con i suoi alberi da frutto e i suoi campi coltivati, bensì con le sue istituzioni sociali comunitarie. L'appropriazione che esprime il mondo degli orti urbani è infatti un'istanza politica: come il peri-urbano isola in villette unifamiliari le persone chiudendole nel privato, così l'orto urbano ributta le relazioni 28 La Comunicazione N.R.& N. Smart City. Infrastrutture fisiche e sociali dell'urbanizzazione intelligente. Smart City. Social and material infrastructures of intelligent urbanisation. sociali verso il pubblico. Un fatto privato come la dieta, diviene di nuovo un fatto politico. Per fare la spesa, si va a fare lo scarico al gruppo di acquisto solidale, ed ogni mese si fa una riunione, si eleggono piccole rappresentanze, ci si collega con altri gruppi confrontandosi su necessità organizzative ma anche organizzando convivialità, formazione, iniziative pubbliche per “seminare” i propri stili di vita verso chi ancora non li conosce. b. Il mondo dello smart working: Fab Lab e Coworking Il concetto di smart working è di nuovissima elaborazione e sta ad indicare l'organizzazione del lavoro alla luce delle innovazioni poste dall'affermarsi del modello Smart City. La tesi sostenuta in questo paragrafo è che il mondo dello smart working, sia incorporato da alcuni luoghi peculiari: i Fab Lab e i Coworking. Questi spazi sarebbero stati generati dalla spinta all'appropriazione già esplorata a proposito degli orti urbani. Tale spinta, a sua volta innestata dalla diffusione di tecnologie e valori afferenti i paradigmi informazionale ed ecologico, intenderebbe capovolgere l'organizzazione on-site based e suoi presupposti fondamentali: la concentrazione nello spazio-tempo di manodopera, l'eterodirezione nell'effettuazione della mansione, il focus sulla quantità anziché la qualità. Il fine sarebbe quello di colmare i vuoti e i bisogni insoddisfatti creati dal lavoro nella città industriale, sia dal punto di vista del lavoratore che dell'impresa: l'alienazione e lo stress da un lato, la scarsa produttività e l'eccesso di costi da un altro. In estrema sintesi, i Fab Lab sono spazi, spesso ricavati da magazzini in disuso o fabbriche abbandonate, in cui è possibile coprogettare e costruire oggetti, grazie alla presenza di diverse tecnologie per la fabbricazione digitale, come stampanti 3D, macchine a controllo numerico,fresatrici e kit vari di microelettronica. La gestione dei Fab Lab è spesso affidata ad associazioni culturali, pertanto l'accesso è vincolato al tesseramento e offre la possibilità di partecipare a laboratori, corsi e workshop sulle tecniche di produzione digitale. I Fab Lab tuttavia non sono semplicemente luoghi formativi o di intrattenimento, si propongono come incubatori di impresa e come vere e proprie fabbriche 2.0: un progetto imprenditoriale può effettuare un test sulla sua validità, un professionista può produrre ciò che gli occorre usando le attrezzature presenti, si può perfino cercare di trovare dei finanziatori o dei valutatori tra gli iscritti. Infine i Fab Lab sono una rete internazionale, diffusa in tutti i continenti, con degli standard condivisi e un movimento sociale, quello dei “makers”, che si caratterizza per la promozione del fai da te, dell'open source e della sharing economy. I Co-Working sono invece spazi in cui professionisti di varia estrazione trovano la propria sede operativa, ottenendo da un lato un forte risparmio sui costi fissi di un ufficio autonomo, da un altro la possibilità di confrontarsi e relazionarsi con i propri vicini. Spesso i Coworking sono anche bar-bistrot e i più evoluti hanno al proprio interno anche alcuni servizi complementari come l'assistenza a bambini. A differenza dei Fab Lab, i Coworking non sono una rete internazionale, non hanno una modelizzazione ufficiale né un 29 C. Marciano movimento sociale dietro che ne promuove attivamente la diffusione. Tuttavia, sono in corso tentativi che mirano a colmare queste lacune. L'esempio è “The Hub”, un'associazione di innovazione sociale internazionale, che nelle principali capitali europee ha creato dei Coworking con uno stile architettonico particolare, nonché una corrispondente piattaforma web dove chi aderisce, pagando un abbonamento, può avere modo di entrare in contatto con professionisti “selezionati” e disponibili a discutere dei reciproci progetti. Senza dilungarci troppo sulle singole caratteristiche, possiamo rilevare come sia Fab Lab che CoWorking condividano la medesima natura di spazi creati grazie all'incrocio di tecnologie e valori derivanti dai paradigmi informazionale ed ecologico, che reggono sia l'idea di Smart City sia, evidentemente, di smart working. In prima istanza, lo smart working è indissolubilmente legato all'affermazione delle nuove ICT, in particolare al personal computer, alla connessione wireless e allo sviluppo delle telecomunicazioni. È grazie a questi dispositivi che è possibile “portare” lo strumento di lavoro in qualsiasi luogo, poterne trasferire i risultati in tempo reale senza condizioni spazio/temporali definite. In secondo luogo, lo smart working è prevalentemente orientato alla produzione di servizi che hanno come oggetto la circolazione di informazione e conoscenza. Cambia la formazione dell'intellettuale organico: se un tempo era necessario per costruire un ponte avere a disposizione ingegneri civili, geometri, operai, autisti, amministrativi e contabili, per realizzare un portale web sono necessari grafici, ingegneri informatici, esperti di usabilità, di marketing e comunicazione. Oltre che nella qualità della mansione, la differenza sta nel fatto che il grafico e l'informatico possono lavorare allo stesso progetto anche abitando in continenti diversi, lavorando nel contempo per diverse imprese: questo sposta i rapporti sociali di produzione dal salariato al freelance, dal tempo indeterminato al progetto a contratto, rendendo irrimandabile una riforma degli ammortizzatori sociali in uscita. Una terza gamba dell'informazionalismo nel plasmare lo smart working è l'uso di Internet come enciclopedia permanente, da cui deriva sia l'approccio fai da te sia quello open source. Siamo sul confine del free work, del lavoro non retribuito, ma capace di produrre servizi e beni non solo di “autosussistenza” funzionanti e riconosciuti socialmente. Il DIY (do it your self) e l'hackerismo sono i pilastri del movimento maker: la conoscenza è fatta per essere condivisa, il diritto di proprietà va superato verso il copyleft o il peer to peer, affinché tutti, anche gli amatori, siano in grado di riparare un oggetto, di preparare un cibo, di curarsi o anche di coltivare una pianta di Marjuana! In questo, i makers incrociano la controcultura, alla pari di quanto abbiamo rilevato per la genesi culturale del mondo delle Start Up. Lo smart working è fortemente influenzato anche dal paradigma ecologico. In primo luogo, spesso la finalità dei servizi e dei beni prodotti, o anche dei dispositivi organizzativi come nel caso del telelavoro, è quella di una maggiore salvaguardia di ambiente e salute. 30 La Comunicazione N.R.& N. Smart City. Infrastrutture fisiche e sociali dell'urbanizzazione intelligente. Smart City. Social and material infrastructures of intelligent urbanisation. Tuttavia, l'influenza del paradigma ecologico sullo smart working, almeno nella versione incorporata a livello urbano da Fab Lab e Coworking, è maggiormente evidente a livello latente, in particolare nella spinta alla secolarizzazione e alla limitazione. Ciò che tuttavia appare più evidente nel frequentare un Fab Lab o un Coworking è l'orizzontalità dei rapporti tra chi li frequenta, nonché di eterodirezione nella gestione dello spazio e del tempo. È in questo senso che lo smart working opererebbe un'appropriazione rispetto al on-site based: nel produrre meno dipendenti e più autonomi, meno grandi concentrazioni e più piccolissime imprese, meno prodotti standardizzati e più offerta personalizzata, meno controllo sul metodo e più sul risultato ottenuto. Il vuoto, cioè il bisogno non corrisposto, che lo smart working colma, è ridare lo spazio e il tempo di lavoro, quindi il controllo del proprio corpo e dei propri movimenti, infine delle proprie competenze, al lavoratore. Lo spazio astratto della città industriale, lo aveva concentrato negli stessi luoghi per lo stesso numero di ore, vincolato a seguire procedure per ottenere risultati di cui non conosceva lo scopo, spinto a considerare lo sviluppo della propria persona in contrasto con la carriera, specie nel caso delle donne. L'appropriazione opera nello smart working, e comincia a farsi strada spazialmente nei fab lab o nei coworking, nella misura in cui chi vi lavora non ha un datore a cui rispondere se non per un periodo di tempo limitato, non ha una gerarchia predefinita da rispettare, decide quando lavorare e con chi confrontarsi per avere valutazione e riscontro del proprio lavoro. Tuttavia, non bisogna guardare l'appropriazione solo dal punto di vista del singolo lavoratore, anche il datore di lavoro usa lo smart working per superare il modello precedente, inadeguato a servire il contesto contemporaneo e le sue sfide. Lo dimostrano, in particolare, l'esternalizzazione dei servizi operativi e il mantenimento solo della direzione tra le strutture dipendenti, l'off-shoring delle manifatture verso paesi in via di sviluppo, la precarizzazione dei rapporti di lavoro con relativa riduzione dei costi, lo spostamento dei costi fissi di beni e attrezzature sul lavoratore free-lance piuttosto che sul dipendente. Conclusioni Le infrastrutture e gli apparati della Smart City sembrano pertanto essere caratterizzati da una reciproca tendenza all'interdipendenza: tecnologicamente, attraverso la ricerca di un codice minimo con cui far circolare informazioni tra soggetti/oggetti/istituzioni prima scarsamente interoperabili; sociologicamente, attraverso una fusione tra le caratteristiche funzionali degli apparati pubblici, privati e comunitari, in cui governo, mercato e comunità sembrano scambiarsi i codici, le pratiche sociali e a volte perfino gli obiettivi. Ma tutta questa disponibilità ad incontrare l'altro è reale o manifesta? E quali conseguenza ha sul piano delle strutture sociali? Ad esempio: una governance sempre più orizzontale, partecipata e trasparente non 31 C. Marciano indebolisce l'autorità delle istituzioni pubbliche e, in particolare, di quelle politiche rappresentative? Oppure, la contaminazione tra mondo dell'impresa e del privato sociale crea davvero progetti imprenditoriali duraturi, capaci di generare reddito e remunerare gli investimenti, oppure c'è sempre bisogno del supporto pubblico e di restare dentro un ambito sperimentale? Negli stessi spazi di comunità chi partecipa realmente e soprattutto cosa cerca? In parole diverse, le premesse che ispirano le infrastrutture e le pratiche organizzative della Smart City sono ancora un interrogativo aperto per larga parte della popolazione delle città, la quale non è coinvolta, non conosce e, nel caso, spesso non capisce di cosa si parla quando sente la parola “smartness”. Potrebbe questo risultare un dettaglio per chi è abituato a gestire i rapporti di mercato dal punto di vista dell'offerta. Tuttavia, i tempi in cui Henri Ford poteva sentenziare ironicamente “Ditemi di che colore volete le automobili, ve le darò nere” sono ormai lontani. In che modo le scienze sociali e della comunicazione possono intervenire per sciogliere questi nodi problematici? La strada maestra sembra quella delle fenomenologie della Smart City. Come la scuola di Chicago ha studiato la città industriale attraverso un insieme di ricerche empiriche ispirate dalle tecniche etnografiche, e ne ha poi desunto una teoria generale della città grazie all'integrazione tra i dati raccolti sul campo e l'applicazione dei concetti euristici dell'ecologia, così anche sarebbe da fondare una scuola della Smart City, in cui da un lato si procede a studiare le sue tante applicazioni a partire dai punti di vista di chi le mette in campo, quindi si integrano questi dati rispetto ad una teoria generale, che in queste pagine abbiamo provato ad abbozzare, almeno dal punto di vista delle implicazioni culturali. I casi di studio sarebbero tanti, già solo nelle città italiane. Ad esempio, la mobilità urbana e le nuove modalità di fruizione dei mezzi di trasporto, attraverso la diffusione di sistemi di bike e car sharing, così come di car e bike pooling. Oppure le nuove pratiche di produzione e consumo dei cibi, con i vari gruppi di acquisto solidale, orti urbani, cooperative agricole. Un punto di vista interessante da studiare potrebbero essere proprio le pubbliche amministrazioni che elaborano i primi sistemi informativi territoriali georeferenziati, in cui cioè riproducono in 3D la cartografia comunale e creano banche dati uniche per il controllo del territorio; oppure che usano gli sportelli telematici, in cui i flussi di comunicazione tra cittadino e amministrazione divengono completamente immateriali, ed è necessario che diversi settori contemporaneamente adottino la pratica ed effettuino i passaggi successivi alla sua risoluzione. Ancora, la Smart City potrebbe essere studiata dal punto di vista degli studenti e dei docenti nelle scuole dove si sperimenta l'elearnig e cominciano ad essere utilizzati i devices digitali come LIM e tablet: come si modifica l'apprendimento, quali conseguenze per l'articolazione degli spazi stessi della didattica, per i rapporti tra docenti e studenti. 32 La Comunicazione N.R.& N. Smart City. Infrastrutture fisiche e sociali dell'urbanizzazione intelligente. Smart City. Social and material infrastructures of intelligent urbanisation. Sono queste, solo poche tra le tantissime esperienze da andare a studiare, proprio adesso che nascono e proprio ora che ancora non le studia nessuno. Perché farlo? Non solo per seguir virtute et conoscenza. Anche e soprattutto per migliorare il design delle Smart Cities, per far sì che i suoi dispositivi tecnologici ed organizzativi non siano costruiti unicamente sugli interessi dei produttori di ICT o infrastrutture verdi, bensì su quelli delle comunità. Anche e soprattutto per migliorare l'approccio delle amministrazioni comunali e locali alla realizzazione di progetti Smart Cities, introducendo metodi e tecniche per l'analisi di sfondo, in modo tale da far maturare ai policy makers l'idea di produrre azioni in base alle reali esigenze del territorio e non alle proprie solitarie visioni. 33 C. Marciano Bibliografia 1.] Nam T., Pardo T. A., Conceptualizing Smart City with Dimensions of Technology, People, andInstitutions,”Proc. 12th Conference on Digital Government Research, College Park, MD, June 12–15, 2011. 2.] Lévy, P., Cybercultura: gli usi sociali delle nuove tecnologie. Feltrinelli, Milano, 2003. 3.] De Kerchkove, D., L'architettura dell'intelligenza, Testo e Immagine, Torino, 2001. 4.] Weber, H. R., Internet of things: new security and private challenges. In Computer law and secutiry review, Vol.26, Zurigo, 23-30, 2011. 5.] M.N. Zhadin, Combined action of static and alternating magnetic fields on ionic current in aqueous glutami c acid solution, in Biolettromagnetics, Vol.19, 41-45, 1996. 6.] Bolter J.D., Grusin R., Remediation: competizione e integrazione tra media vecchie nuovi. Guerini, Milano, 2002. 7.] Kooiman, J., Governing as governance, Sage, London, 2003. 8.] Le Galés, P., Le retour des villes europeennes : societes urbaines, mondialisation, gouvernement et gouvernance, Presses de Sciences Po, Paris, 2003. 9.] Brenner, N., Urban governance and the production of new state spaces in western Europe, 1960–2000, in Review of International Political Economy, Vol.11.3. 447-488, 2004. 10.] Ledrut, R., Sociologia urbana. Bologna: Il Mulino, 1971. 11.] Diani M., Della Porta D., Movimenti senza protesta? L’ambientalismo in Italia, Il Mulino, Bologna, 2004. 12.] Castells, M., The rise of the network society. Vol I, John Wiley and Sons, New York, 1997. 13.] Turner, F., From counterculture to cyberculture, University of Chicago Press, Chicago, 2008. 34 La Comunicazione N.R.& N. Smart City. Infrastrutture fisiche e sociali dell'urbanizzazione intelligente. Smart City. Social and material infrastructures of intelligent urbanisation. 14.] Negri A., Hardt M., Empire. Harward University Edition, Cambridge, 2001.Chourabi H. e Taewoo N., Understanding Smart Cities: An Integrative Framework, Proc. of HICSS, 45th Hawaii Conference, 2002. 15] Lefevbre, H., La produzione dello spazio. Il Mulino, Bologna, 1975. 16] Marciano, C., Unpacking a Smart City Model. The hegemony of ecological and information paradigm, The International Journal of Interdisciplinary Environmental Studies" Vol.VII, Issue 3, pg1-12, Spiral Bound (USA), 2013. Sitografia dei documenti di policy Anci, Osservatorio nazionale per le Smart Cities, Vademecum per la città intelligente http://osservatoriosmartcity.it/il-vademecum/ Commissione Europea, 2010, A digital agenda for Europe. http://europa.eu/legislation_summaries/information_society/strate gies/si0016_en.htm Comune di Milano (Giunta Comunale), Indirizzi per la sperimentazione di azioni di crowdfunding http://www.milanosmartcity.org/joomla/images/delibera_crowdfun ding.pdf Governo Italiano, 2014, Strategia Italiana per la banda ultralarga. http://www.corrierecomunicazioni.it/upload/images/11_2014/1411 21155030.pdf Governo Italiano, 2014, Strategia crescita digitale. http://www.corrierecomunicazioni.it/upload/images/11_2014/1411 21155204.pdf Governo Italiano, 2014, Bando Smart Cities and Communities. http://www.ponrec.it/programma/interventi/smartcities/ Governo Britannico, 2013, The Future of Cities. The cultural dimension https://www.gov.uk/government/uploads/system/uploads/attachm 35 C. Marciano ent_data/file/366138/14-821-cities-cultural-dimension.pdf Governo Britannico, 2013, The Future of Cities. Urban infrastructure and form https://www.gov.uk/government/publications/future-cities-urbanform-and-infrastructure Governo Britannico, 2013, The Future of Cities. Comparative urban governance https://www.gov.uk/government/publications/future-citiescomparative-urban-governance Regione Piemonte, 2014, Politiche di conciliazione in azienda. Rapporto Piemonte 2014 http://www.regione.piemonte.it/pariopportunita/cms/images/files/ politiche-conciliazione-in-azienda-2014.pd 36 La Comunicazione N.R.& N. La Comunicazione N.R.&N. Frank Silvio Marzano, Augusto Maria Marziani “Sapienza” Università di Roma - Dipartimento di Ingegneria dell’Informazione, Elettronica e Telecomunicazioni Elio Restuccia Istituto Superiore delle Comunicazioni e delle Tecnologie dell’Informazione ISCOM Fernando Consalvi Fondazione Ugo Bordoni Realizzazione di una stazione terrena ricevente satellitare per studi di propagazione elettromagnetica in atmosfera. Realization of a satellite ground station for studies of electromagnetic propagation in the atmosphere. Sommario: Il satellite per telecomunicazioni Alphasat, il più grande realizzato in Europa e collocato in orbita geostazionaria nel luglio del 2013, ospita a bordo una piattaforma scientifica (TDP-5 “Aldo Paraboni”) destinata allo studio della propagazione elettromagnetica in atmosfera in alcune bande di frequenze a microonde tra cui la banda Ka (20 GHz) e la banda Q (40 GHz). Alle sperimentazioni partecipano numerose Università ed Enti di ricerca di tutta Europa, in Italia su iniziativa dell'ASI (Agenzia Spaziale Italiana) sono coinvolti, tra gli altri, il Politecnico di Milano e le Università di Roma Tor Vergata e Sapienza. Presso l'ISCTI (Istituto Superiore delle Comunicazioni e delle Tecnologie dell'Informazione) è stata realizzata una stazione ricevente con minima spesa, grazie all'utilizzo di componenti appartenenti a ricevitori non più operativi, e dotata di piattaforme open-source per l’implementazione di funzioni aggiuntive. Abstract: Alphasat satellite, the largest telecommunication satellite built in Europe, was placed in geostationary orbit in July 2013. On board is operative a scientific platform (TDP-5 “Aldo Paraboni”) devoted to the study of atmospheric propagation in some frequency bands including microwave Ka-band (20 GHz) and Q-band (40 GHz). Many universities and research organizations across Europe are involved in experimental trials. In Italy ASI (Italian Space Agency) is involved with the Polytechnic of Milan, the Universities Tor Vergata and Sapienza in Rome and others. At ISCTI (Istituto Superiore delle Comunicazioni e delle Tecnologie dell'Informazione) a receiving station was made with minimal expense recycling components contained in old equipment no longer operative and using open-source platforms for the implementation of additional functions. 37 F.S.Marzano, A.M.Marziani, E.Restuccia, F.Consalvi 1. Introduzione Il diffondersi a livello globale di tecnologie sempre più avanzate e a basso costo crea da parte degli utenti finali una richiesta di capacità di trasmissione sempre maggiore per consentire in particolare il trasferimento di immagini e video ad alta risoluzione in tempi più brevi. Questo bisogno si trasforma nella necessità di dispositivi con potenze di calcolo sempre più elevate e comunicazioni con flusso di dati a bit-rate sempre più alto e per di più in mobilità. Questo, in aggiunta allo sfruttamento già intensivo dello spettro elettromagnetico, porta alla ricerca di risorse spettrali a frequenze sempre più elevate e spinge alla sperimentazione in bande mai o scarsamente utilizzate fino ad ora [1], [2], [3]. È qui che si inserisce l’esperimento denominato TDP-5 [4] “Aldo Paraboni”. L’Agenzia Spaziale Europea, infatti, ha deciso di installare a bordo del satellite per telecomunicazioni Alphasat dei trasmettitori di segnali ad onda continua per studi di propagazione elettromagnetica in alcune bande di frequenze tra cui la banda Ka (20 GHz) e la banda Q (40 GHz). L’Università “Sapienza”, in collaborazione con l’Istituto Superiore delle Comunicazioni e delle Tecnologie dell'Informazione (ISCTI) e la Fondazione Ugo Bordoni, ha deciso di partecipare a questo esperimento tramite la progettazione e la realizzazione di due ricevitori. Entrambi i ricevitori sono localizzati a Roma presso la sede dell'ISCTI, quello operante in banda Ka (19701 MHz) risulta attivo da tempo ed ha permesso di ottenere già una discreta quantità di dati [5]. La realizzazione della stazione ricevente è avvenuta in quattro fasi: - analisi e simulazione matematica della propagazione in atmosfera; - progettazione, assemblaggio e misurazione in laboratorio delle sezioni di ricezione; - realizzazione e installazione delle piattaforme di supporto; - realizzazione del software di acquisizione dati. L’analisi del modello di propagazione, basato sulle indicazioni riportate nelle Raccomandazioni ITU-R [6], è stata effettuata tramite il software Mat Lab mentre per quanto riguarda le piattaforme di supporto al ricevitore (controllo temperatura e tracking) è stata scelta la piattaforma open source italiana Arduino. L’acquisizione dati, invece, sfrutta una scheda di acquisizione per PC di tipo PCI dotata di universal library. E’ stato quindi possibile scrivere un programma in linguaggio C++ per la lettura, la visualizzazione e il salvataggio dei dati relativi al livello della potenza del segnale ricevuto. 38 La Comunicazione N.R.& N. Realizzazione di una stazione terrena ricevente satellitare per studi di propagazione elettromagnetica in atmosfera Realization of a satellite ground station for studies of electromagnetic propagation in the atmosphere 2. Il ricevitore in banda Ka A – Architettura e caratterizzazione del sistema La stazione ricevente è stata realizzata riutilizzando componenti di un ricevitore, destinato negli scorsi decenni ad analoghe campagne sperimentali ma da tempo dismesso, che operava a frequenza diversa da quella Alphasat. I singoli dispositivi e componenti recuperati sono stati provati e caratterizzati per verificarne le prestazioni e valutare il loro riutilizzo nel nuovo assemblaggio nel rispetto delle specifiche imposte dall’ESA TDP-5. La struttura della stazione ricevente ottenuta risulta, nelle sue parti essenziali, così composta (Figura 1) - sezione front end situato in esterno sul locale Torrino nord-ovest della sede ISCTI; - sezione back end situato all’interno del Laboratorio Microonde ISCTI. Front end Torrino nord-ovest Back end Laboratorio Microonde Fig.1 Struttura della stazione ricevente. La sezione front end, il cui schema funzionale è visibile in Figura 2, risulta costituita dall’antenna, con specchio paraboloide da 1.5 m di diametro e con illuminatore primo fuoco, che raccoglie il segnale a 19701 MHz emesso dal satellite, seguito dall’amplificatore a basso rumore (LNA) e dal down converter. 39 F.S.Marzano, A.M.Marziani, E.Restuccia, F.Consalvi Quest’ultimo effettua conversioni di frequenza in due stadi in modo da generare un’uscita a 69 MHz che viene poi inviata, tramite cavo coassiale, alla sezione back end del ricevitore situata all’interno del Laboratorio. L’antenna presenta un guadagno di 47 dBi, l’amplificatore a basso rumore ha un guadagno di 30.5 dB ed una cifra di rumore di 3.3 dB, valore che comprende l’effetto del filtro a radiofrequenza che lo precede. La risposta normalizzata dell’amplificatore + filtro è mostrata in Figura 3. Fig. 2. Architettura del front end del ricevitore in banda Ka. Fig. 3. Risposta normalizzata dell’amplificatore a basso rumore con filtro in banda Ka. 40 La Comunicazione N.R.& N. Realizzazione di una stazione terrena ricevente satellitare per studi di propagazione elettromagnetica in atmosfera Realization of a satellite ground station for studies of electromagnetic propagation in the atmosphere Nella sezione di front end le conversioni di frequenza sono ottenute con oscillatori di alta precisione e stabilità. Il primo convertitore, con uscita a 751 MHz, è realizzato con tecnologia a microstriscia mentre il secondo, con uscita a 69 MHz è montato su PCB. I due stadi presentano un’amplificazione complessiva di 55 dB. Uno studio accurato è stato condotto al fine di accertare che sia evitata la possibilità che segnali alle frequenze immagini di conversione possano raggiungere l’uscita a 69 MHz. Il gruppo di amplificazione a basso rumore è stato sistemato in una scatola a tenuta stagna montata sul lato posteriore del paraboloide Figure 4 e 5, minimizzando così l’attenuazione della guida dell’illuminatore e rendendo più facili le manovre di aggiustamento dell’elevazione dell’intera antenna. La scatola è provvista di un elemento riscaldatore gestito da un sistema automatico di regolazione della temperatura al fine di ridurre le instabilità di risposta in ampiezza dell’intero gruppo dovute a variazioni di temperatura ambientale Fi g. 4 Gruppo amplificatore a basso rumore 41 F.S.Marzano, A.M.Marziani, E.Restuccia, F.Consalvi Le unità AC/DC e gli alimentatori a tensione d’uscita stabilizzata sono montati in un separato contenitore, anch’esso a tenuta stagna, dotato di connettori e cavi idonei all’uso in esterno. La sezione front end descritta è collegata, tramite apposito cablaggio, alla sezione back end del ricevitore che si trova all’interno del laboratorio Microonde ISCTI, al settimo piano della sede ministeriale, immediatamente al di sotto della zona terrazza e quindi nelle vicinanze del locale Torrino nord-ovest sulla cui sommità è installato il front end. Nella sezione back end trova posto il cosiddetto ricevitore di beacon (Satellite Beacon Receiver), che effettua ulteriori condizionamenti sul segnale a 69 MHz proveniente dal front end e fornisce in uscita, grazie ad un rivelatore logaritmico, una tensione quasi continua la cui ampiezza può essere rapportata facilmente al valore in decibel del livello del segnale ricevuto. Il ricevitore di beacon, anch’esso oggetto di recupero, è stato concepito a suo tempo con lo scopo di condurre campagne di misurazioni su segnali ad onda continua ed è fornito di un sistema automatico di scansione/ricerca ed aggancio in frequenza che rende autonoma la funzionalità dell’intero sistema anche in caso di perdita temporanea del segnale. Un PC ed un software, appositamente sviluppato per l’attuale sperimentazione Alphasat, consentono infine di monitorare costantemente, raccogliere e memorizzare i dati di propagazione anche in assenza di un presidio permanente. 42 Fi g. 5 Sistemazione del gruppo amplificatore a basso rumore La Comunicazione N.R.& N. Realizzazione di una stazione terrena ricevente satellitare per studi di propagazione elettromagnetica in atmosfera Realization of a satellite ground station for studies of electromagnetic propagation in the atmosphere Di seguito vengono riassunte le caratteristiche salienti del ricevitore: • • • • • • Frequenza RF: 19701 MHz Diametro dell’antenna : 1.5 m Efficienza dell’antenna : 60% Guadagno dell’antenna : 47 dBi Larghezza di banda del Satellite Beacon Receiver : 1 kHz Cifra di rumore : 3.3 dB in Tabella 1 vengono riportati i risultati della simulazione al banco in laboratorio relativi al rapporto segnale/rumore, misurato in uscita al front end a 69 MHz, in corrispondenza dei vari livelli RF ricevuti e delle relative probabilità calcolate in base ai modelli di propagazione in atmosfera raccomandati dall’UIT-R per la tratta satellitare [7]. Livello ricevuto Probabilità (dBm) (%) -110.0 90 30.1 -110.5 10 29.3 -111.2 3 28.5 -117.8 0.1 22.1 (in uscita all’antenna) C/N BW 1 kHz (dB) Queste prestazioni soddisfano i requisiti dettati dall’ESA per TDP-5 [6] e, una volta utilizzati in una simulazione al calcolatore, fanno prevedere un tempo di fuori servizio (tempo di perdita dell’aggancio del segnale di beacon) molto inferiore allo 0.1 % [5][7]. B – Acquisizione ed elaborazione dei dati Tab.1 Previsioni della statistica del ricevitore in banda Ka Il valore del livello di potenza ricevuto viene ottenuto tramite il campionamento della tensione, fornita in uscita dal ricevitore di beacon, effettuato da una scheda di acquisizione PCI, gestita da un software in linguaggio C++ specificatamente sviluppato per questo scopo Figura 6. 43 F.S.Marzano, A.M.Marziani, E.Restuccia, F.Consalvi La schermata prodotta dal software mostra in tempo reale i valori del livello in dBm del segnale ricevuto misurato all’ingresso del ricevitore di beacon (riportabile a quello raccolto dall’illuminatore d’antenna) ad intervalli di tempo regolari con possibilità di visualizzare più tracciati, di scegliere la finestra temporale e di impostare l’intervallo dei livelli visualizzati. Gli stessi dati vengono memorizzati in file di tipo xxx.dat lasciando la possibilità, per ciascun file, di impostare i parametri desiderati. Da default i dati vengono memorizzati con una velocità di uno al secondo mentre un nuovo file viene creato automaticamente ogni 24 ore alla mezzanotte. Come è evidente dal tracciato, il livello è soggetto a variazioni periodiche dovute in massima parte al movimento relativo, sia azimutale che zenitale, del satellite rispetto all’antenna ricevente causato dal non perfetto posizionamento dello stesso satellite nell’orbita geostazionaria. Ciò provoca un disallineamento dall’asse di massimo guadagno dell’antenna ricevente, che non possiede, al momento, un proprio sistema di inseguimento ma che inquina la raccolta dei dati con elementi di natura non propagativa. Questo effetto è stato comunque ridotto con un filtraggio numerico. Un filtro passa-basso ricostruisce la parte indesiderata che viene successivamente sottratta al segnale originale ottenendo come risultato l’andamento netto del livello dovuto alla propagazione in atmosfera ed agli agenti attenuanti in essa contenuti. 44 Fi g.6 Schermata prodotta dal software di acquisizione La Comunicazione N.R.& N. Realizzazione di una stazione terrena ricevente satellitare per studi di propagazione elettromagnetica in atmosfera Realization of a satellite ground station for studies of electromagnetic propagation in the atmosphere In Figura 7 è mostrato un esempio del risultato dell’elaborazione in In presenza di evento di pioggia intensa. La sequenza ottenuta viene quindi correlata con i dati meteo acquisiti da una stazione meteorologica posizionata sul Torrino nordest dell’edificio, nelle vicinanze del front end del ricevitore ed in sincronismo temporale con la registrazione dei livelli. Nella Figura 8 è mostrato un grafico che evidenzia tale correlazione come rilevato durante un evento del 30 agosto del 2014. Fi g.7 Esempio di filtraggio dei dati Fig.8 Esempio di correlazione tra l’andamento del livello del segnale e la pioggia. 45 F.S.Marzano, A.M.Marziani, E.Restuccia, F.Consalvi 3. Il ricevitore in banda Q Il ricevitore in banda Q (40 GHz) è strutturato nello stesso modo del ricevitore in banda Ka e cioè, come schematizzato in Figura 1, è costituito da un front end installato in esterno sul Torrino nord-ovest dell’edificio dell’ISCTI, accanto al front end del ricevitore in banda Ka e da un back end all’interno del Laboratorio Microonde ISCTI. Nella Figura 9 è illustrata l’architettura di massima del front end. IF1 3406 MHz LNA MIXER IN 39402 MHz IF2 70 MHz CONVERTITORE IF1 – IF2 OL 35996 MHz L’antenna, dotata di specchio paraboloide da 46 cm di diametro e di illuminatore primo fuoco, raccoglie il segnale a 39402 MHz emesso dal satellite. E’ seguito dall’amplificatore a basso rumore (LNA) e dal primo convertitore di frequenza. L’antenna ha un guadagno di 42.7 dBi mentre l’amplificatore a basso rumore ha un guadagno di 50 dB ed una cifra di rumore di 3.5 dB. La prima frequenza intermedia è di 3406 MHz che si riduce a 70 MHz dopo la seconda conversione mentre opportuni amplificatori portano il segnale ad un livello idoneo per essere trattati dagli stadi successivi. Nel back end è ospitato un ricevitore di beacon simile a quello utilizzato per il ricevitore in banda Ka, con la differenza che la larghezza di banda dell’ultimo stadio IF è stata ridotta a 100 Hz. Ciò è stato possibile in quanto l’emissione del TDP-5 di Alphasat è del tipo ad onda continua e quindi con contenuto spettrale minimo. Si ottiene così un miglioramento di 10 dB sul rapporto segnale/rumore in uscita, compensando in questo modo il basso valore del guadagno dell’antenna disponibile che è inferiore a quello previsto dall’ESA di 53.6 dBi. Il ricevitore è stato recentemente installato in opera e messo in servizio ed è tuttora monitorato per verificarne le prestazioni. 46 Fi g. 9. Architettura del front end del ricevitore in banda Q La Comunicazione N.R.& N. Realizzazione di una stazione terrena ricevente satellitare per studi di propagazione elettromagnetica in atmosfera Realization of a satellite ground station for studies of electromagnetic propagation in the atmosphere Al sistema di raccolta e registrazione dei dati, che è quello già descritto per il ricevitore in banda Ka, è stato affiancato un sistema di registrazione parallelo, gestito da computer, che fa uso del software “Windaq” in uso presso il Laboratorio Microonde. Si riassumono di seguito le principali caratteristiche: • • • • • • Frequenza RF: 39402 MHz Diametro dell’antenna : 46 cm Efficienza dell’antenna : 50% Guadagno dell’antenna : 42.7 dBi Larghezza di banda del Satellite Beacon Receiver : 100 Hz Cifra di rumore : 3.5 dB In Tabella 2, analogamente a quanto fatto per la banda Ka, vengono riportati i risultati della simulazione al banco in Laboratorio relativi al rapporto segnale/rumore, misurato in uscita al front end a 70 MHz, in corrispondenza di alcuni livelli di segnale ricevuto e delle relative probabilità calcolate in base ai modelli di propagazione in atmosfera raccomandati dall’UIT-R per la tratta satellitare in banda Q [7] [8]. I segnali ricevuti sono stati simulati con un generatore RF operante a quella frequenza ed una opportuna catena di attenuatori. Livello ricevuto (in uscita all’antenna) (dBm) Probabilità (%) C/N BW 100 Hz (dB) -114 dBm 90% 37 dB -115.4 dBm 10% 34 dB -117.7 dBm 3% 32 dB -138.1 dBm 0.1% 10 dB 4. Il radiometro in banda W e la stazione meteorologica Tab. 2 Previsioni della statistica del ricevitore in banda Q Il radiometro è uno strumento utilizzato per la misurazione della temperatura di brillanza del cielo e dell’atmosfera in una specifica banda di frequenze e nella direzione in cui viene puntata l’antenna. La realizzazione di un radiometro a 89 GHz (banda W) è attualmente in corso presso il Laboratorio Microonde. 47 F.S.Marzano, A.M.Marziani, E.Restuccia, F.Consalvi Affiancato ai due ricevitori per Alphasat permetterà di raccogliere informazioni circa il fondo di rumore generato dalla zona dell’atmosfera interessata dalla propagazione e la correlazione dei vari dati sarà utile per una migliore interpretazione degli stessi. Il radiometro in fase di sviluppo è del tipo a potenza totale (Tant + Trec) con due riferimenti di temperatura per la calibrazione e la selezione di due diverse polarizzazioni a 90 gradi. In Figura 10 è mostrata l’architettura di sistema con il carico di riferimento caldo, il carico di riferimento freddo ed il sistema ricevente. In Figura 11 è presentata una raffigurazione in 3D del radiometro nelle sue parti essenziali. Fig. 10. Architettura del radiometro a 89 GHz Fig.11 Rappresentazione in 3D del radiometro 48 La Comunicazione N.R.& N. Realizzazione di una stazione terrena ricevente satellitare per studi di propagazione elettromagnetica in atmosfera Realization of a satellite ground station for studies of electromagnetic propagation in the atmosphere Nelle vicinanze delle antenne, sulla sommità dell’edificio come già accennato, è posizionata una stazione meteorologica che consente, tramite appositi sensori, il rilevamento della temperatura dell’aria, della pressione barometrica, della velocità del vento e dell’intensità della pioggia. I parametri meteo vengono raccolti da un sistema automatico di rilevamento ed immagazzinamento dati che vengono scaricati periodicamente in un data base correlato cronologicamente ai dati Alphasat. E’ in corso di perfezionamento anche l’uso di un disdrometro, strumento in tecnica laser destinato alla misurazione della trasparenza dell’aria, dell’intensità della pioggia, della dimensione e della velocità delle idrometeore. L’elaborazione di tutti questi dati sarà fondamentale per la sperimentazione in quanto la propagazione ad onde centimetriche e millimetriche è fortemente influenzata dalle condizioni meteo dell’atmosfera che, per la geometria del collegamento satellitare, è coinvolta in tutto il suo spessore. 5. I sistemi automatici di controllo e gestione. Per ridurre al minimo la necessità di presidiare costantemente i ricevitori e la registrazione dei dati, viene fatto uso di diversi dispositivi automatici di controllo e gestione specificatamente sviluppati per interagire con l’ambiente esterno, prendere decisioni seguendo una logica preordinata e conseguentemente reagire tramite attuatori o sistemi di comunicazione. Tra le funzioni di questi dispositivi, che sono del tipo “embedded” e non richiedono particolari cure da parte del personale tecnico, vengono citate: - L’analisi in tempo reale dei dati raccolti; Il controllo della temperatura dei moduli sensibili dei front end; Il sistema di tracking dell’antenna (allo studio) Per le ultime due voci è stata scelta la piattaforma di sviluppo che fa uso del microcontrollore “Arduino”. In Figura 12 sono illustrate le funzioni del sistema di controllo della temperatura in cui il valore, rilevato da un sensore, viene mostrato da un display a sette segmenti, inviato al back end per la registrazione e confrontato con un valore di soglia che determina l’accensione e lo spegnimento di un riscaldatore. 49 F.S.Marzano, A.M.Marziani, E.Restuccia, F.Consalvi Mentre in Figura 13 è visibile l’hardware realizzato allo scopo ed ospitato all’interno del contenitore a tenuta posizionato in esterno in prossimità dell’antenna. Il sistema di tracking, anch’esso basato sulla piattaforma “Arduino”, consiste in un controllo automatico ad anello aperto dell’angolo di elevazione dell’antenna basato sulle effemeridi previste del satellite. L’angolo di elevazione è infatti quello soggetto alle variazioni più consistenti e maggiormente determinati riguardo il corretto puntamento. Un inclinometro digitale fornisce l’informazione sull’angolo di elevazione raggiunto dall’antenna mentre l’azionamento avviene grazie ad un attuatore a pistone dotato di motore elettrico ed interfaccia di controllo ad alta corrente. L’informazione di angolo di elevazione è anche inviato al data base per il monitorino remoto. 50 Fig. 12 Sistema di controllo della temperatura Fig.13 Hardware del sistema di controllo della temperatura La Comunicazione N.R.& N. Realizzazione di una stazione terrena ricevente satellitare per studi di propagazione elettromagnetica in atmosfera Realization of a satellite ground station for studies of electromagnetic propagation in the atmosphere In Figura 14 una vista d’insieme del front end del ricevitore a 20 GHz. Fig. 14 Front end del ricevitore a 20 GHz 6. Conclusioni. E' stata descritta la realizzazione di due ricevitori, destinati al monitoraggio dei segnali trasmessi dalla piattaforma scientifica TDP-5 del satellite geostazionario Alphasat, e collocati presso il Laboratorio Microonde dell’ISCTI. Sono state percorse tutte le fasi dalla progettazione alla scelta dei componenti, recuperati da ricevitori non più in uso ma utilizzati in precedenza per analoghe sperimentazioni, per passare poi alle prove di caratterizzazione in laboratorio, all’assemblaggio, alla costruzione degli elementi mancanti ed alla validazione complessiva dei sistemi. Grazie ai due ricevitori è possibile la misurazione e la registrazione continua del livello di potenza dei segnali a 20 GHz e 40 GHz ricevuti a terra nella zona geografica di Roma. Lo scopo è di raccogliere informazioni utili ed approfondire le conoscenze riguardo le statistiche di propagazione in atmosfera, nelle varie condizioni meteorologiche che si presentano durante l’anno in zona, e di affinare la modellistica predittiva. Tale modellistica sarà molto utile per la progettazione di sistemi di comunicazione radio via satellite che su tali frequenze, con l’ausilio di eventuali tecniche adattative per migliorare la disponibilità del collegamento, 51 F.S.Marzano, A.M.Marziani, E.Restuccia, F.Consalvi disporrebbero di maggiori larghezze di banda e consentirebbero quindi maggiori capacità trasmissive. L’acquisizione dei dati ed una sua prima elaborazione è effettuata da un software, sviluppato in modo specifico per tale uso, con l’obbiettivo di visualizzare immediatamente il risultato, memorizzarlo e renderlo trasferibile per l'elaborazione anche da parte degli altri centri di ricerca. La sperimentazione infatti è collocata nell’ambito di una cooperazione scientifica internazionale, a cui partecipano i maggiori Enti di ricerca europei, e comporterà pertanto lo scambio delle informazioni raccolte. In tal modo potrà essere possibile tenere conto delle varie realtà geografiche e climatiche, dipendenti da fattori quali: la latitudine, la vicinanza al mare, la copertura da parte del sistema d'antenna satellitare etc. per ottenere una estesa e globale visione europea dei fenomeni propagativi. Ringraziamenti Gli autori desiderano ringraziare la Dott. Rita Forsi e l’Ing. Giuseppe Pierri per avere consentito e messo a disposizione la strumentazione del Laboratorio Microonde ISCTI, desiderano inoltre ringraziare Roberto Dal Molin ISCTI per il costante supporto tecnico prestato e Simone Chicarella DIET Sapienza Università di Roma per l’abile realizzazione del supporto meccanico dell’antenna del ricevitore. __________________________________________________________________________________________________ BIBLIOGRAFIA [1] [2] [3] [4] [5] [6] [7] [8] 52 G. Maral and M. Bousquet, “Satellite Communications Systems” 5th Ed., Wiley & Sons Ltd (Chichester, UK), 2009. G. Brussaard and P.A. Watson, “Atmospheric modelling and millimetre wave Propagation”, Chapman & Hall, London (UK), 1995. F. S. Marzano and C. Riva, “Evidence of long-term correlation between clear-air scintillation and attenuation in microwave and millimeter-wave satellite links”, IEEE Trans. on Antennas and Propagation, vol. 47, pp. 1749-1757, 1999. ESA, “AlphaSat TDP-5 Scientific Experiment Link Budget Analysis”, Project report,2008. A. Marziani, “Caratterizzazione dei componenti e analisi delle misure sul ricevitore satellitare Alphasat”, Tesi di Laurea in Ingegneria Elettronica, Sapienza Università di Roma, Dicembre 2011. ITU-Radiocommunication, Raccomandazioni P.618-9, P.676-7, P.840-3, Ginevra (CH), 2007. F.S. Marzano, “Computing probability of total path attenuation in a given receiving site from ITU-R recommendations”, Internal report, Sapienza Università di Roma, 2010 P. Salemme, “Telecomunicazioni via satellite a microonde: caratterizzazione del sistema ricevente Alphasat ed il radiometro a 90 GHz“, Tesi Magistrale in Ingegneria Elettronica, Sapienza Università di Roma, Ottobre 2011. La Comunicazione N.R.& N. La Comunicazione N.R.&N. Stefano Penna Silvia Di Bartolo Vincenzo Attanasio Donato Del Buono Emanuele Nastri Anna Stefania Michelangeli Istituto Superiore delle Comunicazioni e delle Tecnologie dell'Informazione (ISCOM) Metriche e Standard per la valutazione dell'efficienza energetica nei Data Center Metrics and standards for the evaluation of the Data Center Energy Efficiency Sommario: L’esplosione recente del modello di business ICT dei data center ha portato ad un incremento sensibile dei consumi energetici ad essi legati, previsti pesare per il 2% dei consumi mondiali entro il 2020. Per contrastare tale tendenza sono state avviate diverse iniziative per incentivare azioni di incremento dell’efficienza energetica dei data center, ponendo la questione della valutazione dell’efficienza energetica che richiede metriche e procedure uniformi di stima adeguate. L’articolo che segue presenta una panoramica delle recenti metriche sviluppate dalle associazioni industriali per la valutazione dell’efficienza energetica all’interno dei data center considerando i diversi livelli infrastrutturali e di tecnologia ICT di una Data Center Network. Lo stato dell’arte degli standard proposti dagli enti internazionali di standardizzazione viene delineato nella seconda parte del contributo. Abstract: The development of the ICT business model of Data Centers led to a high increase of the related energy consumption, estimated to weight as 2% of the world overall energy consumption by 2020. In order to address this issue many initiatives were launched with the aim to support actions to improve the data centers energy efficiency, focusing on the energy efficiency evaluation that requires for proper metrics and universally accepted procedures. This contribution provides a partial overview of the metrics developed by the industrial associations for the evaluation of the energy efficiency in data centers, considering the different facility segments and ICT equipment of a data center network. The state of the art of the standards proposed by the main international standard organizations is provided in the last part of the contribution. 1. Introduzione L'affermazione del modello di business ICT basato sui data center, che negli ultimi anni ha visto uno sviluppo dai ritmi vertiginosi, ha posto l'attenzione sulla problematica energetica legata al consumo dei data center (DC). Le reti di DC infatti si attestano su un'alta percentuale del consumo di energia legato alle infrastrutture IT e di conseguenza hanno 53 S.Penna, S.Di Bartolo, V.Attanasio, D.Del Buono, E.Nastri, A.S. Michelangeli un impatto significativo sulle emissioni di gas serra. Le stime aggiornate al 2007 e destinate comunque a raddoppiare entro il 2020, riportano percentuali di impatto sulle emissioni legate ai DC pari al 2% dell'energia consumata globalmente [1], corrispondente in valore assoluto per l'Europa Occidentale a 56 TWh l'anno nel 2007, con previsioni di raggiungere 104 TWh l'anno nel 2020 [1]. Di conseguenza, nell'ottica di riduzione dell'impatto ambientale secondo quanto prescritto dal Protocollo di Kyoto e recepito dalle direttive comunitarie nell'ambito del programma Europa 2020, ma anche di riduzione dei costi energetici legati all'alimentazione elettrica dei DC, la massimizzazione dell'efficienza energetica dei DC e` diventata un tema prioritario sia a livello tecnicoscientifico che industriale. La valutazione dell'efficienza energetica di un DC richiede tuttavia delle procedure e delle metriche ben definite, che possano essere applicate in modo univoco tanto dagli operatori quanto dai fornitori per stimare l'efficienza della loro infrastruttura DC e poter individuare i margini di ottimizzazione del consumo energetico ottenibili attraverso azioni di intervento mirate. Attualmente, la comunita` DC a livello mondiale e` guidata dalla componente industriale, caratteristica che si riflette sui livelli di rigore e di affidabilita` delle procedure e delle metriche attualmente utilizzate per valutare l'efficienza energetica di un DC. Ad oggi, lo standard di fatto di valutazione dell'efficienza energetica di un DC e` il Power Usage Effectiveness (PUE), letteralmente Efficacia di Utilizzo dell'Energia elettrica, che e` stato introdotto dall'organizzazione industriale no-profit The Green Grid nel 2007 [2] con lo scopo di fornire un parametro di valutazione generale di un DC. Infatti il PUE e` definito come il rapporto tra l'energia consumata complessivamente in un DC e l'energia consumata dai soli apparati IT contenuti, che insieme compongono il cosiddetto IT load. L'IT load e` riferito all'insieme dei consumi energetici di tutti gli apparati IT contenuti nel DC, includendo pertanto i server di calcolo (computing) e di archiviazione (storage), gli apparati di comunicazione dati all'interno del DC e verso l'esterno, come switch e router, e apparati di monitoraggio e controllo. Il periodo di osservazione per la valutazione dei due termini di consumo energetico del PUE ha durata di un anno. Tale estensione temporale e` mirata a includere nella valutazione dei consumi piu` fattori di influenza, come i cambiamenti climatici relativi al ciclo stagionale che hanno effetti sulle esigenze di raffreddamento (cooling) degli apparati, e al tempo stesso a minimizzare gli effetti di distorsione dell'osservazione che possono essere legati a singoli eventi sporadici, come picchi di traffico e carico di lavoro effettivo degli apparati di calcolo. Si può notare come, rispetto alla definizione legata ad un piano temporale, quindi ad un valore di energia, la denominazione del parametro e` legata alla potenza, ovvero ad un valore istantaneo, producendo una discrepanza formale dovuta all'accezione comune in uso nei paesi anglosassoni di definire colloquialmente i consumi energetici come potenze (power). 54 La Comunicazione N.R.& N. Metriche e Standard per la valutazione dell'efficienza energetica nei Data Center Metrics and standards for the evaluation of the Data Center Energy Efficiency Complici le recenti iniziative pubbliche per stimolare l’incremento di efficienza dei DC dal punto di vista energetico, negli ultimi anni il PUE ha acquisito un'accezione di strumento di marketing, impiegato dagli operatori e dai fornitori di DC per esaltare le prestazioni green delle proprie infrastrutture DC; per questo motivo sui media di informazione si assiste frequentemente ad annunci di messa in opera di nuovi DC con valori record di PUE, che si avvicinano sempre piu` al limite di PUE=1, ovvero alla condizione ideale di 100% di efficienza energetica in cui tutti i consumi energetici del DC sono legati unicamente alla sezione ICT, intesa come il carico utile della struttura [2][3]. Parallelamente al PUE, e di fatto concorde nel significato che viene pero` presentato nella piu` corretta forma di efficienza, nel 2007 e` stato introdotto anche il Data Centre infrastructure Efficiency (DCiE) [4], definito come l'inverso del PUE. Di conseguenza, il DCiE viene mostrato come una percentuale di efficienza che raggiunge il massimo valore del 100% solo nel caso ideale sopracitato di energia del DC interamente consumata per la sua sezione ICT. Il PUE ed il suo analogo DCiE presentano pero` diverse anomalie, ascrivibili tanto alla definizione intrinseca di questi parametri, che porta ad inevitabili imprecisioni nella stima dell'efficienza energetica di un DC, quanto all'uso improprio e poco rigoroso con cui i valori di PUE vengono attualmente autodeterminati e divulgati, legati ad esigenze pratiche degli operatori rispetto alla corretta applicazione delle procedure di stima e valutazione. Il principale errore metodologico e` nella scelta del periodo di osservazione e misurazione dei due termini di consumo energetico relativi all'intera infrastruttura DC e alla sola sezione IT. Al riguardo, la procedura prevede un periodo di osservazione di un anno. Tuttavia il PUE viene attualmente definito (e dichiarato) in fase di progettazione e consegna di un DC, di conseguenza i valori energetici utilizzati per il calcolo di efficienza non derivano dall'osservazione reale, ma dalle potenze di targa dei singoli apparati. La potenza di targa e` la potenza massima assorbita da uno strumento, dalla quale il termine di energia viene ricavato semplicemente ipotizzando il valore di potenza di targa costante durante un anno. Nel caso dei server e piu` in generale degli apparati IT questa ipotesi presuppone in modo poco realistico che l'utilizzo della capacita` di calcolo, e quindi i consumi energetici ad essa legati (ovvero l'IT load), siano massimi, mentre e` ormai noto come la reale percentuale di utilizzo della CPU sia contenuta in un intervallo compreso tra il 10% ed il 50% della capacita` di calcolo massima [5], con medie accettate di consumo energetico pari al 60% della potenza di targa [6]. Pertanto, utilizzare il valore massimo di IT load per la stima del PUE porta a sovrastimarne matematicamente il valore calcolato. In aggiunta a questo errore, che deriva dalla mancata applicazione delle corrette procedure di stima indicate in [2], l'effetto intrinseco di errore del PUE riguarda la superficialita` in termini strettamente energetici e relativi della definizione dell'IT load, che porta a penalizzare gli sforzi di ottimizzazione dello sfruttamento dei server, in particolare relativi alle 55 S.Penna, S.Di Bartolo, V.Attanasio, D.Del Buono, E.Nastri, A.S. Michelangeli recenti tendenze di virtualizzazione nei Data Center 2.0 [7]. La virtualizzazione delle macchine ottimizza il carico di lavoro della sezione IT spegnendo i server in persistente stato di idle, colloquialmente definite "zombie server" [8], con un conseguente incremento dell'efficienza energetica reale di un DC a parita` di servizio fornito. Tuttavia dalla definizione rigida del PUE, che non tiene conto del lavoro svolto dal DC, risulta che spegnendo i server in stato di idle si riducono i consumi della sezione IT e quindi paradossalmente peggiora il valore di PUE calcolato, nonostante il consumo energetico sia stato ottimizzato [6]. E` evidente l'inadeguatezza del PUE a fornire una piena indicazione dell'efficienza energetica di un DC e a consentire una analisi approfondita all'interno di uno scenario operativo reale del carico IT per distinguere l'impatto dei diversi segmenti di rete presenti nell'infrastruttura DC. Il grafico in figura 1 prodotto da Microsoft [9] riassume visivamente l'impatto dei diversi driver sulla reale efficienza energetica di un DC, definita produttivita` energetica, e sul PUE, evidenziandone i trend discordanti. Per colmare le lacune intrinseche nel PUE, recentemente sono stati proposti diversi parametri di valutazione che fungano da affiancamento al PUE, lasciando a quest'ultimo il ruolo di valutazione piu` generale dell'efficienza energetica e rimandando alle nuove metriche il compito di consentire un'analisi piu` dettagliata e approfondita delle inefficienze da ottimizzare. Nel 2010 la Green Grid ha proposto il parametro di Data Center computing Efficiency (DCcE) e la relativa sotto-metrica Server compute Efficiency (ScE), in grado di includere l'impatto fornito dai server idle all'interno del DC [10]. L'ScE e per estensione il DCcE sono parametri basati sul tempo, misurando la porzione di tempo che un server fisico o virtuale impiegano per fornire un servizio primario, come ad esempio il 56 Figura 1. Effetto delle diverse strategie di ottimizzazione dell'efficienza energetica di un Data Center [9] La Comunicazione N.R.& N. Metriche e Standard per la valutazione dell'efficienza energetica nei Data Center Metrics and standards for the evaluation of the Data Center Energy Efficiency servizio di posta elettronica. Analogamente al PUE, il DCcE non e` confrontabile tra diversi DC, quindi non puo` essere utilizzato come un indicatore assoluto che fornisca agli operatori i mezzi per un'analisi approfondita del carico IT e consenta un'ottimizzazione dei ad hoc, mirata ad una particolare sezione dell'IT load. In modo analogo, la stessa Green Grid ha definito [11] la Data Center energy Productivity (DCeP), che nella valutazione dell'efficienza energetica include sia l'infrastruttura DC complessiva sia la sola sotto-sezione IT, focalizzandosi sul concetto di produttivita` del data center, ovvero il lavoro utile (useful work) svolto dagli apparati IT. In modo più esplicitamente legato al lavoro utile del DC, la metrica di Data Center Productivity Index (DCIP) è definita come il rapporto tra il lavoro utile, calcolato in termini di numero di operazioni svolte in un lasso di tempo, e l’energia totale consumata dall’infrastruttura DC. Come per i precedenti parametri, anche il DCeP da solo non consente un corretto confronto tra diversi DC, tuttavia se affiancato al PUE permette di avere una visione di insieme piu` completa sullo stato della reale efficienza energetica del DC inteso come infrastruttura operativa che fornisce un servizio con una determinata qualita`. Ad ogni modo manca ad oggi una definizione comunemente accettata per la quantificazione del lavoro utile, dal momento che ci sono task di calcolo eterogenei in un singolo DC e tra diversi DC che è impossibile accomunare sotto un unico parametro di definizione. Oltre alla Green Grid esistono diversi organismi nazionali ed internazionali, di natura sia pubblica che industriale, che hanno affrontato la problematica di garantire una stima corretta dell'efficienza energetica dei DC, con il fine reale di considerare il consumo energetico in valore assoluto di un DC e di definire un parametro per monitorare a livello operativo gli effetti dell' ottimizzazione dei consumi. L'Energy Efficiency High Performance Computing Working Group (EEHPC WG) [12], un gruppo internazionale di agenzie pubbliche ed enti privati in prevalenza statunitensi, ha sviluppato delle nuove metriche scomponendo rispettivamente il PUE e l'IT load. Questo approccio ha portato a due nuove metriche, una incentrata sull'IT load denominata ITpower Usage Effectiveness (ITUE) ed una ad un livello piu` alto denominata Total-power Usage Effectiveness (TUE) [13]. L'ITUE e` definito come il rapporto tra l'energia totale assorbita dagli apparati IT e l'energia assorbita dai soli apparati di computing. Di fatto, l'ITUE considera l'energia assorbita da alcuni componenti interni agli apparati IT, come ventole e alimentatori, rispetto ai componenti di puro calcolo come processori e memorie, presentandosi come l’analogo del PUE riferito alla sola sezione IT piuttosto che all’intera infrastruttura DC. Dal prodotto del PUE e dell’ITUE si calcola il TUE, definito come il rapporto tra l’energia totale consumata dall’infrastruttura DC e l’energia totale consumata dalla sezione computazionale all’interno degli apparati IT del DC [13] Nel Regno Unito, il Data Centre Specialist Group (DCSG) della British Computer Society (BSC) si e` focalizzato sulla definizione di metriche in grado di facilitare la valutazione delle azioni intraprese per migliorare l'efficienza 57 S.Penna, S.Di Bartolo, V.Attanasio, D.Del Buono, E.Nastri, A.S. Michelangeli energetica dei DC, pertanto sono mirate a fornire uno strumento di riscontro agli operatori di natura incrementale piu` che a fornire un parametro di valutazione complessivo come il PUE. In questo ambito il DCSG ha utilizzato un approccio ispirato dalle metriche dei costi fissi e lineari utilizzato nella finanza, in cui il consumo energetico viene interpretato come un costo, come effettivamente è se si considera anche l’impatto sulla bolletta elettrica dei DC. Pertanto alla metrica DciE, riportata in precedenza, sono affiancate le metriche di overhead fissi e lineari, che permettono di comprendere il reale comportamento del DC in termini di consumi e di costi energetici e valutarne l’impatto relativo sullo sfruttamento degli apparati IT all’interno del DC [14]. Secondo questo approccio, al DciE è lasciato il compito di fornire un parametro generale di facile comprensione e di facile raffronto sull’efficienza energetica dell’infrastruttura DC, mentre gli overhead hanno lo scopo di consentire un’analisi più approfondita per valutare gli effetti dei miglioramenti apportati singolarmente ai diversi componenti della struttura DC, come ad esempio gli apparati IT. Più in dettaglio, l’overhead fisso è definito come il rapporto tra la potenza assorbita dal DC con carico IT nullo e la potenza di targa della sezione IT, permettendo quindi di apprezzare in termini percentuali i consumi del DC quando non sono attivi gli apparati IT, ovvero di apprezzare le perdite energetiche del DC in un modo simile al calcolo dei costi fissi in finanza. Questo permette di apprezzare meglio i miglioramenti energetici del DC, quando ad esempio si disattivano parzialmente alcune sezioni o si satura il più possibile la capacità IT del DC per ridurre l’impatto delle perdite fisse. L’overhead lineare è definito invece come il rapporto della differenza tra potenza assorbita rispettivamente con carico IT completo e carico IT nullo sulla potenza di targa dell’apparato IT dell’intera infrastruttura. Questo parametro permette di considerare i consumi energetici legati al funzionamento di alcuni apparati dipendente dall’effettiva operatività IT del DC. Un esempio è rappresentato dai chiller, nei quali l’attivazione delle pompe dei compressori avviene con cadenza temporanea dipendente dalle particolari necessità di raffreddamento [14] legate al funzionamento degli apparati IT. L’overhead lineare permette quindi di valutare come il consumo di energia del DC varia in dipendenza del consumo degli apparati IT, permettendo quindi di prevedere il livello di riduzione dei consumi generali indotti da un decremento dei consumi del carico IT, ad esempio quando vengono smantellati i server obsoleti. Inoltre, i valori degli overhead variano quando un’infrastruttura viene istallata o attivata, adattandosi perciò al modello attuale di DC di potenziamento modulare della capacità IT, permettendo quindi agli operatori di valutare in modo più intuitivo l’efficienza dell’infrastruttura e di stimare e soprattutto prevedere i benefici dei miglioramenti introdotti. Dal momento che sono il risultato di un rapporto di potenze, gli overhead forniscono valori adimensionali. 58 La Comunicazione N.R.& N. Metriche e Standard per la valutazione dell'efficienza energetica nei Data Center Metrics and standards for the evaluation of the Data Center Energy Efficiency 2. Attività di standardizzazione in materia di efficienza energetica nei data center Da questa panoramica parziale delle metriche dell’efficienza energetica nei DC, focalizzata sulle principali metriche e metodologie adottate o in fase di considerazione tra gli operatori e più in generale tra gli stakeholders, è chiaro che la definizione di uno standard per la misura dell’efficienza energetica è necessaria. Questa necessità riguarda sia la definizione univoca delle metriche sia delle metodologie per una misura accurata per il conseguente calcolo dei valori delle metriche. Emerge inoltre il bisogno di uno studio complesso ed esaustivo che descriva nel dettaglio la tematica di efficienza energetica di un DC e definisca un insieme di metriche che consentano un adeguato confronto tra diversi DC, considerandone l’etereogeneità tecnologica ed architetturale. A questo riguardo, a livello mondiale gli organi di standardizzazione nazionali ed internazionali e le associazioni industriali hanno fissato dei working groups per definire le raccomandazioni e le procedure per una corretta valutazione e misura dell’efficienza energetica dei DC, come riportato nel disegno in figura 2. Figura 2. Visione d’insieme dei principali organi, pubblici ed industriali, che contribuiscono alla definizione di standard e metriche di riferimento per data center networks [fonte: A.Rouyer – The Green Grid – CENELEC BTWG 132-3 Green Data Centers Report] L’Unione Internazionale delle Telecomunicazioni (ITU, International Telecommunications Union) ha pubblicato diversi standard riguardo la green ICT nei DC. In particolare, si può considerare la raccomandazione ITU-T L.1300 [15], che include le buone pratiche per l’utilizzo dei data center riguardanti sia gli apparati ICT che le sezioni per il raffreddamento, includendo oltre il 90% delle 61 buone pratiche del Codice di Condotta Europeo V4.0.5 per l’impiego ed il monitoraggio dei data center e includendo ulteriori 16 pratiche introdotte dai membri dello Study Group 5 dell’ITU-T [16]. La raccomandazione ITU-T L.1300 elenca le migliori 59 S.Penna, S.Di Bartolo, V.Attanasio, D.Del Buono, E.Nastri, A.S. Michelangeli pratiche per ridurre l’impatto negativo dei DC attraverso il design, il funzionamento e la gestione mirati dei data center green delle loro principali componenti come apparati IT, impianti di raffreddamento e di alimentazione [16]. L’International Standard Organization (ISO) e il Comitato Elettrotecnico Internazionale (CEI, International Electrotechnical Commission, IEC) stanno sviluppando lo standard ISO/IEC 30134 [17] per definire gli indicatori di performance chiave (KPI, Key Performance Indicators) per i data center, anche se i draft disponibili finora sono principalmente focalizzati sul PUE, considerando la sua interpretazione e le linee guida per misura, calcolo e pubblicazione corretti dei valori relativi. Sul territorio europeo negli ultimi anni, tutti gli organi di standardizzazione sono stati coinvolti nello sviluppo di standard legati ai data center. Nel 2010, il Comitato Europeo di Standardizzazione (CEN), il Comitato Europeo per la Standardizzazione Elettrotecnica (CENELEC) e l’European Telecommunications Standards Institute (ETSI) hanno creato un gruppo di coordinamento comune europeo [16] con l’obiettivo di gestire e coordinare le attività europee e i lavori di standardizzazione legati all’efficienza energetica. Il CEN/CENELEC/ETSI Coordination Group on Green Data Centres (CEN/CLC/ETSI CG GDC) è un’attività comune delle tre organizzazioni che include anche gli stakeholder dell’industria e dei diversi progetti europei sul tema. Il CG GDC aggiorna costantemente un report di “panoramica della standardizzazione” (standardization landscape) [16], che registra gli standard esistenti riguardanti la gestione energetica dei data center e identifica ogni lacuna che richiede ulteriore lavoro, permettendo al Coordination Group di raccomandare azioni future alle organizzazioni pertinenti per colmare queste lacune. Il rapporto di 'standardization landscape' opera una distinzione chiave tra standard che supportano la progettazione, mirati a nuovi DC, e standard che possono essere usati per migliorare l’operatività dei DC, mirati a DC già esistenti dove un design di efficienza energetica non è stato adottato al principio. Il documento di specifiche tecniche di ETSI TS 105174-2-2 [18] introduce la tematica di consumo ed efficienza energetica all’interno dei DC e ne affronta il tema delle buone pratiche operative per centrare gli obiettivi di riduzione dei consumi e incremento dell’efficienza. Il documento contiene sezioni sulle infrastrutture di distribuzione elettrica, sistemi di controllo ambientale e dotazioni IT istallate nei DC. Inoltre affronta il problema dei KPI fuorvianti, che indicano miglioramenti a svantaggio degli obiettivi primari di ridotto consumo energetico in valore assoluto e aumento dell’efficienza energetica, come è il caso del PUE [18]. 60 La Comunicazione N.R.& N. Metriche e Standard per la valutazione dell'efficienza energetica nei Data Center Metrics and standards for the evaluation of the Data Center Energy Efficiency 3. Iniziative europee per l’incremento dell’efficienza energetica nei data center Nell’ambito degli obiettivi europei per la normativa dei mercati in tema di cambiamenti climatici ed energia [19][20], nel 2008 la Commissione Europea ha proposto il “Codice di Condotta Europeo per l’efficienza energetica nei data centers” [1] indirizzato a proprietari, operatori e fornitori di apparati nell’industria dei DC, con il doppio fine di aumentare la sensibilità industriale verso il consumo energetico e stimolare la ricerca di una efficienza energetica maggiore. Il codice di condotta è un programma volontario in cui si assume che i partecipanti recepiscano le raccomandazioni e le buone pratiche in materia [20][21] proposte dal Joint Research Center (JRC), che è lo strumento istituzionale con cui l’UE gestisce il programma. Il codice di condotta dell’efficienza energetica nei DC ha adottato il DciE come metrica di riferimento comunemente accettata, stabilendo come futura prospettiva di migliorare la valutazione tramite l’adozione delle metriche di “produttività IT” e di “produttività dell’energia totale” [21]. Le raccomandazioni sono rivolte all’intera struttura del DC mentre le misure vengono svolte dagli stessi partecipanti secondo le procedure definite da JRC [21][22]. I partecipanti che registrano il migliore incremento di prestazioni, in termini di riduzione dei consumi percentuali e assoluti [22], ricevono un riconoscimento ufficiale dall’UE nell’ambito di una cerimonia annuale che premia i vincitori di ciascuna delle categorie di DC previste (DC nuovi o ricondizionati, DC proprietari o non proprietari, DC di diverse dimensioni). La premiazione costituisce un riconoscimento ufficiale e pertanto rappresenta un potente strumento di marketing. Tramite il Codice di Condotta l’UE ha di fatto definito il JRC come l’unico punto di coordinamento a livello europeo in tematiche di efficienza energetica nei DC. Tuttavia, si registra la mancanza di un’attività normativa in tema di efficienza energetica da parte UE, legata principalmente alla mancanza di uno standard universalmente accettato [20]. Bibliografia [1] http://iet.jrc.ec.europa.eu/energyefficiency/ict-codesconduct/data-centres-energy-efficiency [2] The Green Grid, The Green Grid metrics: data center infrastructure efficiency (DCIE) detailed analysis, White Paper #14 (2008) [3] The Green Grid, PUE™: a comprehensive examination of the metric, White Paper #49 (2012) [4] Verdun G (2007) The Green Grid metrics: data center infrastructure efficiency (DCiE) detailed analysis. Technical report, The Green Grid, Feb 2007. Available at: http://www.thegreengrid.org/Global/Content/whitepapers/DCiE-Detailed-Analysis 61 S.Penna, S.Di Bartolo, V.Attanasio, D.Del Buono, E.Nastri, A.S. Michelangeli [5] Barroso LA, Holzle U, The Case for Energy-Proportional Computing, IEEE Computer, pp 33-37 (2007) [6] Brady KA, Kapur N, Summers JL, Thompson HM, A case study and critical assessment in calculating power usage effectiveness foa a data centre. Energy COnversion and Management, 76, pp 155-161 (2013) [7] Huawei White Technical Paper, High Throughput Computing Data Center Architecture - Thinking of Data Center 3.0, available at: http://www.huawei.com/ilink/en/download/HW_349607 [8] 2014 Data Center Industry Survey - Uptime Institute eJournal, available at: https://journal.uptimeinstitute.com/2014-data-centerindustry-survey/ [9] Aggar M, The IT Energy Efficiency Imperative, (2011) white paper available at: http://download.microsoft.com/download/7/5/A/75AB83E82487-409F-AC6C-4C3D22B72139/ITEI_Paper_5.27.11.pdf [10] Blackburn M et al., THE GREEN GRID DATA CENTER COMPUTE EFFICIENCY METRIC: DCcE, white paper #34 (2010), available at http://www.thegreengrid.org/~/media/WhitePapers/DCcE_White_Paper_ Final.pdf?lang=en [11] http://www.thegreengrid.org/Global/Content/whitepapers/Framework-for-Data-Center-Energy-Productivity [12] https://eehpcwg.llnl.gov/ [13] Patterson et al., “ TUE, a new energy-efficiency metric applied at ORNL's Jaguar”, Proc. ADFA 2011 [14] Newcombe L, “Data centre energy efficiency metrics”, BCS group, http://www.bcs.org/upload/pdf/data-centre-energy.pdf [15] ITU-T, Recommendation L.1300 ‘‘Best practices for green data centres’’, June 2014 [16] Gilmore M (CEN/CLC/ETSI Coordination Group on Green Data Centres ), “Executive summary Standardization landscape for energy management and environmental viability of green data centres” (2013) [17] http://drafts.bsigroup.com/Home/Details/54220 [18] Access, Terminals, Transmission and Multiplexing (ATTM); Broadband Deployment - Energy Efficiency and Key Performance Indicators; Part 2: Network sites; Sub-part 2: Data centres available at: http://www.etsi.org/deliver/etsi_ts/105100_105199/1051740202/01.01. 01_60/ts_1051740202v010101p.pdf [19] http://iet.jrc.ec.europa.eu/energyefficiency/sites/energyefficiency/files/d ata_centre_coc_folder.pdf [20] Workshop Report DG CONNECT, ‘‘Environmentally sound1 Data Centres: Policy measures, metrics, and methodologies’’, 2014 [21] “Code of Conduct on Data Centres Energy Efficiency Version 2.0 Participant Guidelines and Registration Form” (2009), available at: http://iet.jrc.ec.europa.eu/energyefficiency/sites/energyefficiency/files/fil es/documents/ICT_CoC/participant_guidelines_v2_0-final.pdf [22] Bertoldi P, “European Code of Conduct for Data Centre Presentation of the Awards 2014” available at: http://iet.jrc.ec.europa.eu/energyefficiency/sites/energyefficiency/files/p resentation_dc_coc_awards_2014.pdf 62 La Comunicazione N.R.& N. La Comunicazione N.R.&N. Debora Proietti Modi , Ricercatore Università Tor Vergata presso Istituto Superiore delle Comunicazioni (ISCOM), Ministero dello Sviluppo Economico Giuseppe Pierri, Franco Pangallo Istituto Superiore delle Comunicazioni (ISCOM), Ministero dello Sviluppo Economico ISITEP: Sistemi di Interoperabilità tra le reti TETRA e Tetrapol ISITEP: Inter System Interoperability for TETRA and TetraPol Networks Sommario: Il progetto ISITEP ha l’obiettivo di definire le soluzioni tecnologiche per realizzare una rete Europea che garantisca l’interconnessione tra le principali tipologie di reti di comunicazioni digitali professionali (PPDR), in modo da assicurare una risposta veloce e repentina in caso di recupero da disastri e nella lotta contro il crimine. In questo paper si vuole descrivere il progetto ISITEP, facendo particolare attenzione al ruolo svolto dall’Istituto Superiore delle Comunicazioni e delle Tecnologie dell’Informazione nell’ambito del progetto stesso. Abstract: The growth of international crime requires the on field intervention of joint polices, especially for activities like cross-border controls.In this paper is described the project ISITEP, which is devoted to achieve the full interoperability for the two main PPDR communication systems in Europe, in order to garantee the “roaming” among terminal of different national network Introduzione Il progetto "Inter System Interoperability for TETRA-TetraPol (ISITEP) Networks" fa parte del Settimo Programma Quadro (7PQ), il cui scopo è sviluppare le procedure, le tecnologie e gli accordi legali attraverso i quali si possa raggiungere una soluzione di comunicazione globale per la cooperazione tra i diversi sistemi di pubblica sicurezza, i Public Protection & Disaster Relief (PPDR) [1]. Il progetto creerà quindi una struttura in grado di condividere le comunicazioni di emergenza, in modo da migliorare la sicurezza dei cittadini e ridurre le minacce di sicurezza, consentendo il "roaming" tra le diverse reti nazionali di pubblica sicurezza esistenti in Europa. 63 D. Proietti Modi, G. Pierri, F.Pangallo Scopo del progetto Il progetto ha l’obiettivo di definire le soluzioni tecnologiche per realizzare una rete Europea che garantisca l’interconnessione tra le principali tipologie di reti di comunicazioni digitali professionali, in modo da assicurare una risposta veloce e repentina in caso di recupero da disastri e nella lotta contro il crimine [2]. Nello specifico, una miglior gestione della migrazione fra i confini delle reti Europee nazionali, porta ad un riduzione delle attività criminali ed una maggior protezione dei dati scambiati, dovuta ad un alto livello di sicurezza presente nelle reti professionali. Le organizzazioni criminali oggigiorno sono connesse globalmente, mentre la cooperazione tra le polizie trans-nazionali sono molto spesso limitate: la carenza di sistemi di comunicazione interoperabili ha reso meno fluida la cooperazione fra le forze dell’ordine di diverse nazioni, per questo le reti radio nazionali per i servizi di pubblica sicurezza (PPDR) sono funzionanti esclusivamente ognuna sul proprio territorio. La crescita del crimine internazionale richiede in campo l'intervento congiunto di forze di polizia, specialmente per attività lungo i confini. La cooperazione fra forze di polizia è inoltre critica durante eventi particolari come la protezione dei VIP (Very Important Person) durante i summit internazionali, o durante eventi sportivi e culturali internazionali, o anche per la protezione delle ferrovie durante il trasporto di materie pericolose. A livello europeo con gli accordi di Schengen, le operazioni di protezione dei confini sono diventate un priorità, e in aggiunta a ciò, secondo l'articolo 222 del Trattato di Lisbona (che riguarda la "mutua solidarietà"), l'Unione Europea può mobilitare le risorse degli Stati Membri per dare assistenza a quegli Stati Membri che al momento sono stati vittima di attacchi terroristici o disastri naturali. Dal momento che il tempo è il fattore critico in caso di catastrofi, solo la cooperazione internazionale può consentire una maggiore efficacia quando le risorse nazionali sono limitate, riducendo così le perdite dovuta alla catastrofe stessa. I risparmi derivanti da tutto ciò superano di gran lunga gli investimenti effettuati nell'interoperabilità e nel raggiungimento della cooperazione. Attualmente in Europa ci sono due principali sistemi di comunicazioni PPDR: TETRA (TErrestrial Trunked RAdio) e TetraPol, e ci si aspetta che saranno operativi fino al 2025. Questi due sistemi in Europa [Figura 1] sono implementati dalle seguenti industrie: Cassidian, Motorola e Selex ES (ex Elsag). Le reti TETRA/TetraPol nazionali non sono ancora interoperabili con altre reti TETRA/TetraPol, anche quando condividono la stessa tecnologia radio, ciò significa che persino due reti TETRA non sono interoperabili. La comunicazione fra gli Stati Membri è principalmente limitata da questa mancanza di sistemi radio interoperabili, ma anche il corrente sistema di 64 La Comunicazione N.R.& N. ISITEP: Sistemi di interoperabilità tra reti TETRA e Tetrapol ISITEP: Inter System operabily for TETRA e Tetrapol networks regolamentazione e la carenza di procedure di comunicazioni comuni ne sta limitando di molto l'interoperabilità. La realizzazione di una piena interoperabilità fra queste reti permetterebbe ai primi soccorritori di comunicare con i propri terminali nella Nazione straniera. Questa capacità può essere realizzata con l'interconnessione delle reti attraverso particolari gateways, che permettono ai terminali in visita di migrare nella rete straniera sfruttando la copertura radio della Nazione visitata. Il progetto, in conclusione, nasce dal bisogno di migliorare l'interoperabilità nelle comunicazioni fra reti PPDR europee, di ottimizzare le risorse di queste reti e stabilire anche le procedure di comunicazioni per mettere in piedi l'interoperabilità; in base a ciò il progetto si propone di definire: Figura 1. Rete ISITEP Pan Europea. - una rete cloud Europea, integrando tutte le reti PPDR delle singole Nazioni; - le nuove procedure, i modelli funzionali e gli accordi legali per mettere in piedi il tutto; - la realizzazioni di terminali avanzati, con un'architettura basata su smartphones e/o tablets, con all'interno applicativi in grado di supportare i servizi PPDR. 65 D. Proietti Modi, G. Pierri, F.Pangallo La struttura del progetto Il progetto, finanziato dall'Unione Europea, ha una durata triennale, è coordinato da SELEX ES del Gruppo Finmeccanica ed ha avuto inizio il 1° settembre 2013. Il sito internet del progetto è: www.isitep.eu. Nel progetto partecipano industrie manifatturiere, enti di ricerca, università, ministeri e forze di polizia di diverse nazioni. In particolare per l’Italia, oltre a SELEX ES, ne fanno parte anche l’ISCOM (Istituto superiore delle Comunicazioni e Tecnologie dell’Informazione del Ministero dello Sviluppo Economico) e l’Università degli Studi di Roma TRE. La pianificazione del progetto è basata su un flusso iterativo che comincia con gli scenari operativi, i requisiti, la definizione dell'architettura per poi procedere con la progettazione, lo sviluppo, la validazione e l'integrazione del sistema. Tutti i componenti del sistema saranno validati e valutati attraverso i cinque trials in campo. In ISITEP sono gli utenti finali a guidare il progetto. L'Advisory Board che include gli utenti finali (quindi i partners e i supporters) ha il ruolo di accettare i deliverables in modo da mantenere il progetto conforme ai loro bisogni strategici. [Figura 2] I componenti passivi su InP godono di prestazioni non ottimali per quanto riguarda le perdite ottiche, che hanno in media un’ordine di grandezza superiore ai corrispettivi in Silicon Photonics. Di Figura 2. Struttura del progetto 66 La Comunicazione N.R.& N. ISITEP: Sistemi di interoperabilità tra reti TETRA e Tetrapol ISITEP: Inter System operabily for TETRA e Tetrapol networks Il ruolo di ISCOM L’ISCOM all'interno del progetto si occupa della definizione delle procedure per i test sull’interoperabilità fra i diversi sistemi e della definizione dei test report per le verifiche tecniche e per le certificazioni, in modo da consentire ai terminali dei diversi costruttori di operare nelle reti, sia TETRA che TetraPol, ed ottenere così una rete pan-europea in grado di far comunicare le forze di pubblica sicurezza delle nazioni che partecipano al progetto [3]. Il progetto, come dalla Figura 1, si propone di interconnettere quattro tipi di reti nazionali, in cui dovranno essere operative le funzionalità dell'IOP (InterOPerability) phase2, specificate nello standard ISI (Inter-System Interface) TETRA. Le principali riguardano l'autenticazione del terminale ed il roaming, le chiamate di gruppo, le chiamate individuali, gli short data, sia individuali che di gruppo, le chiamate di emergenza adattate alla rete in cui si effettua il roaming e lo scambio delle chiavi di cifratura (TEA2). Per questo motivo l'ISCOM effettuerà la validazione delle interconnessioni e dei terminali: la certificazione coprirà le funzionalità che saranno poi interessate nelle dimostrazioni. Conclusioni Il ISITEP può portare dei benefici rilevanti agli operatori PPDR ed ai cittadini Europei in generale, in termini di nuove tecnologie, nuove procedure e un nuovo approccio per la gestione dei disastri. In primo luogo la rete cloud Europea migliorerà le comunicazioni PPDR, aumentando la loro efficienza sul campo e salvando molte vite, riducendo inoltre gli effetti dei disastri nello stesso tempo. Secondo, gli accordi legali rappresenteranno inoltre uno step futuro sia per lo sviluppo di una comune PPDR europea che per lo sviluppo di una metodologia comune a tutte le Nazioni durante gli interventi critici, grazie soprattutto alla condivisione delle procedure. Per ultimo, ma non per importanza, la realizzazione di nuovi terminali sarà un compito impegnativo per le compagnie coinvolte, ma porterà anche lo sviluppo di nuovi modelli di business e magari l'entrata in nuovi mercati. 67 D. Proietti Modi, G. Pierri, F.Pangallo Bibliografia. [1] Sito ufficiale Progetto Isitep: http://isitep.eu/ [2] Sito ISTICOM: www.isticom.it [3] Proietti Modi Debora: "Interoperabilità fra sistemi TETRA e TetraPol" - gennaio 2015 68 La Comunicazione N.R.& N. La Comunicazione N.R.&N. Fabio Di Resta Avvocato Membro del Consiglio direttivo Master di II livello Università Roma Tre/Dip. Giurisprudenza LL.M. ISO 27001 Security Lead Auditor - Data Protection and I.P. Law Specialist Studio legale Di Resta Il diritto all’oblio: dalla tutela nei confronti dell’editore alla deindicizzazione delle parole chiave nei risultati dei motori di ricerca. The right to be forgotten (RTBF): the legal protection towards to publishers of the original content and the delising in the results of the original content and the delisting in the results of search engines. Sommario: La società moderna è una società digitale e interconnessa nella quale le informazioni sul nostro conto possono essere raccolte e associate da diverse fonti di informazioni, si aprono così problematiche spinose del controllo dei nostri dati, ne sono esempio tangibile i casi a tutti noti legati ai Big Data, a tal riguardo si citano i sistemi, come per esempio il programma di sorveglianza elettronica Prism sviluppato negli USA per ragioni di pubblica sicurezza, i quali se venissero utilizzati in modo distorto potrebbero diventare mezzi di raccolta massima ed indiscriminata contro i cittadini stessi. In tale contesto, si afferma con maggior forza l’esigenza di tutela dell’identità personale di ciascuno, soprattutto nell’ambiente di Internet che si caratterizza per la sua dimensione universale, identità che deve essere controllata e gestita al fine di evitare che la stessa venga dispersa. In particolare, nell’ambiente di Internet una notizia negativa sulla nostra reputazione può danneggiare gravemente chiunque pregiudicando irreparabilmente il suo futuro, dal professionista, all’imprenditore, ad uno studente, ecc. Il diritto all’oblio, nell’accezione in senso stretto, è un aspetto del diritto alla protezione dei dati personali (diritto fondamentale della persona) che consente di evitare che informazioni negative sul nostro conto ci inseguano per sempre consentendo all’interessato di rivolgersi ai motori di ricerca per la rimozioni dei link associati ai risultati contenenti i dati personali dello stesso. Abstract: Our modern, digital and interconnected society is going through a period whereby more personal data about our day-to-day life information is being collected, linked and processed within various sources through out the world within and out of the Internet. In particular, in the Internet many thorny points on controlling our personal data is raised, recent episodes relating to Big Data and the electronic surveillance program (PRISM) developed by US Government, for the purpose of public security, show the real risks for our personal data and the possible consequences on personal identity of each citizen. This context states an estreme need to controll one's online identity where personal data is to serve il for not to be lost. 69 F. Di Resta Almost every waking moment of our lives is recorded online, and it can be potentially shared or made public, and it can negatively influence on everyone's future. In Europe the right to be forgotten, in restrictive sense, is an aspect of our right to data protection, a fundamental right which allows to avoid that negative news on our social identity will persue us forever, guaranteeing to data subjects to ask search engines to remove links to the results with personal data about them. Come è noto, il diritto alla riservatezza inteso come interesse alla non intrusione nella propria sfera privata ha trovato una prima compiuta elaborazione nello scritto pubblicato a quattro mani tra l’avvocato S.D.Warren eL.D. Brandais anch’egli avvocato, che successivamente divenne giudice della Corte Suprema degli Stati Uniti, l’articolo titolava The Right to Privacy, pubblicato nel 15 dicembre 1890 sulla Harvard Law Review. Fu la prima vera riflessione sulla tutela della riservatezza come diritto inviolabile, nel quale si denunciava il conflitto tra diritto all’informazione e diritto dalla riservatezza, la vicenda riguardava appunto la vita coniugale dell’allora noto avvocato di Boston,S.D. Warren, finito su tutti di giornali per una relazione extraconiugale. L’articolo sollevava una questione giuridica ancora fortemente attuale, se da una parte la pubblicazione di informazioni per scopi giornalistici si ricollega ai diritti fondamentali di informare i cittadini dall’altra occorre che non vengano lesi altri diritti perché questo può determinare una evidente sproporzione nella sfera personale di ciascuno. Dal 1890 sono trascorsi oltre centoventi anni, sicuramente la cultura giuridica si è adattata ai radicali cambiamenti della società, invero, nel corso di più di un secolo i nuovi principi giuridici e istituti giuridici sembrano più essersi integrati con i precedenti nella continua ricerca di una tutela effettiva, dal canto suo il progresso tecnologico ha comportato un completo stravolgimento della società trasformandola in una società dell’informazione. In questa prospettiva di evoluzione storica del diritto alla riservatezza con specifico riferimento all’informatica giuridica, in ambito giuridico si è passati dal concetto di habeas corpus,insieme di garanzie giurisdizionali affermatesi originariamente negli ordinamenti di common law tramite la Dichiarazione dei diritti del 1215 (la Magna Carta), cui si è accostato molti secoli dopo il concetto di tutela del corpo informatico ossia le garanzie dell’habeas data da intendersi usando le parole del giurista Eduardo Rozo Acuña come un “diritto autonomo e fondamentale, che permette a ogni persona di conoscere, aggiornare e rettificare le proprie informazioni raccolte nelle banche dati e archivi degli enti pubblici e privati, in difesa dei diritti fondamentali all’intimità - privacy”. 70 La Comunicazione N.R.& N. Il diritto all’oblio: dalla nei confronti dell’editore alla deindicizzazione delle parole chiave nei risultato dei motori di ricerca. The right to be forgotten (RTBF): the legal protection towards to publishers of the original content and the delising in the results of the original content and the delisting in the results of search engines. Da una società di fine ottocento in cui l’informazione era basata sul passa parola e sulla stampa cartacea, siamo arrivati alla società dell’informazione, un mondo digitale ed interconnesso, nel quale lo sviluppo dell’ Internet delle Cose (IoT) è già una realtà, nei prossimi anni sarà esponenziale, frigoriferi intelligenti, macchine che comunicano informazioni tramite satellite in caso di incidente oppure tecnologie che consentono di aprire la porta dell’autovettura tramite smartphone. In questo contesto, se da una parte vi sono le major di Internet (spesso anche indicati con l’acronimo GAFA, Google, Apple, Facebook and Amazon) che dominano il mondo digitale, come anche le più importanti enciclopedie online, tra cui Wikipedia, dall’altra vi è chi pensa che i diritti fondamentali debbano prevalere sul progresso tecnologico, senza tuttavia che l’applicazione di tali diritti si tramuti in forme di censure oppure che impedisca il progresso sociale stesso. Evidentemente, la soluzione tra opposte prospettiva non può essere trovata con le ideologie, ma identificando valori, principi e diritti su cui si fonda la società nella dimensione di internet cercando di trovare caso per caso una soluzione proporzionata e bilanciata. Dopo queste brevi premesse generali, occorre addentrarsi nelle recenti questioni giuridiche relative alla cronaca giudiziaria in relazione alla protezione dei dati personali. In primo luogo, tralasciando per il momento l’aspetto relativo all’eventuale falsità della notizia, l’indagine dovrebbe essere volta a verificare se la notizia contenuta sul sito del mass media o testata giornalistica sia obsoleta, ossia non abbia seguito lo sviluppo della vicenda giudiziaria, il cittadino coinvolto nella vicenda potrebbe rivolgersi al quotidiano chiedendo l’aggiornamento dei dati poiché la notizia così come è riportata attualmente non è più esatta, corretta, ovvero non rispetta i criteri di essenzialità. In altri termini, sebbene la notizia che riportava la vicenda del professionista costituisse originariamente un trattamento lecito dei dati personali, allo stato potrebbe costituire un illecito trattamento dei dati perché la notizia non è più aggiornata. Oltre a questo il professionista potrebbe chiedere che la notizia venisse spostata nell’archivio storico online del quotidiano in modo che l’informazione fosse meno accessibile da parte di terzi attraverso una deindicizzazione della stessa. Questo diritto viene conferito al cittadino come interessato, Codice della Privacy (C.d.P.), art. 11 lett. c, laddove prescrive che i dati personali oggetto di trattamento debbono essere “ c) esatti e, se necessario, aggiornati”. 71 F. Di Resta Tuttavia, mentre l’aggiornamento specifico e la spostamento della notizia nell’archivio storico non presenta problemi tecnici di particolari complessità, una volta risolta la questione giuridica di bilanciamento dei diritti coinvolti, qualche criticità, tanto giuridica quanto tecnica, potrebbe presentarsi in ordine alla richiesta di deindicizzazione rivolta all’Editore. Infatti, se da una parte il cittadino si ritiene leso sostenendo che chiunque ricerchi la notizia come parola chiave il proprio nome e cognome, trovi tra i risultati associati alla notizia i propria dati personali; dall’altra, lo stesso richiedente la deindicizzazione (c.d. delisting), tramite robots.txt della notizia, potrebbe trovarsi di fronte ai limiti tecnologici dell’operazione; se è, infatti, vero che da alcuni anni i maggiori quotidiani hanno oramai provveduto a digitalizzate gli archivi cartacei, è anche vero che le piattaforme web implementate dai quotidiani sono sicuramente dei siti dinamici che utilizzano banche dati più o meno complesse e strutturate. In tali casi, deindicizzare la singola pagina web può presentare notevoli complessità tecniche e nella maggior parte dei casi potrebbe essere difficile se non addirittura impossibile arrivare a risultati utili alla tutela dell’interessato per il tramite del solo sito sorgente (Editore). In tal senso, vi è anche il pronunciamento del Garante privacy dell’11 dicembre 2008, laddove si asseriva che: ‘alla luce dell’attuale meccanismo di funzionamento dei motori di ricerca standard, intendendo con ciò quelli di maggiore diffusione, la raccolta di informazioni sulla pagine disponibili nel world wide web (fase di “grabbing”) è influenzabile dal solo amministratore di un sito web sorgente per il tramite della compilazione del file robots.txt, previsto dal “Robots Exclusion Protocol”, o tramite l’uso dei “Robots Meta Tag secondo convenzioni concordate nella comunità di internet (avendo presente comunque come tali accorgimenti non siano immediatamente efficaci rispetto ai contenuti già indicizzati da parte motori di ricerca internet, la cui rimozione potrà avvenire secondo le modalità da ciascuno di questi previste)”. In un provvedimento precedente il Garante aveva anche asserito che: “in realtà la rettifica o cancellazione effettuati dal gestore del sito non sono sufficienti a tutelare l’interessato: infatti in diversi casi le copie cache dei siti e le relativa sintesi (gli abstract che compaiono nelle pagine dei risultati della ricerca) non vengono aggiornate o rettificate dal motore di ricerca, anche se sui siti sorgenti la rettifica o la cancellazione è avvenuta da tempo […] le copie di cache generate da Google per l’indicizzazione di determinate pagine web continuavano a contenere la notizia dell’arresto di una professionista nell’ambito di una nota vicenda giudiziaria senza menzionare la successiva assoluzione […] il motore di ricerca continua a trattare autonomamente dati consentendone la permanenza in rete anche se non più presenti nei siti che li contenevano originariamente” (Provv. Garante privacy, 18 gennaio 2006, commento estratto dal volume PRIVACY E 72 La Comunicazione N.R.& N. Il diritto all’oblio: dalla nei confronti dell’editore alla deindicizzazione delle parole chiave nei risultato dei motori di ricerca. The right to be forgotten (RTBF): the legal protection towards to publishers of the original content and the delising in the results of the original content and the delisting in the results of search engines. GIORNALISMO, Mauro Paissan, Editore - Garante per la protezione dei dati personali, pagg. 39 e 40). Il problema sopra illustrato – piuttosto ricorrente in realtà - mostra da una parte che il semplice aggiornamento e/o rettifica della notizia sul sito sorgente può non sempre essere una sufficiente soluzione in termini di efficace tutela del diritto alla protezione dei dati personali, dall’altra la questione è ancora più complicata quando si pone un problema di giurisdizione come nel caso di Google, nel quale essendo i server e le attività di gestione delle attività dei motori di ricerca svolte negli Stati Uniti,la applicazione a Google Italy della giurisdizione italiana ed europea presenta ostacoli ritenuti a lungo insormontabili (tema che sarà trattato nel prosieguo). In tale contesto, il recente protocollo di verifica adottato dal Garante privacy rappresenta in tal senso un passo avanti verso la soluzione di questi problemi (Provv. Garante privacy del 22 gennaio 2015), il protocollo prevede aggiornamenti trimestrali sullo stato di avanzamento dei lavori e la possibilità di effettuare presso la sede americana di Google verifiche di conformità alla disciplina italiana delle misure in via di implementazione: informative, consenso, conservazione dei dati, rimozione delle informazioni dai risultati di ricerca da parte degli utenti. I quesiti e le problematiche sopra illustrati sono stati affrontati in numerose pronunce della giurisprudenza di merito, nella prassi decisoria del Garante privacy nonché della Cassazione e della Corte di Giustizia. Nel prosieguo andremo ad analizzare queste pronunce. Quando rivolgersi all’editore e cosa chiedere In giurisprudenza non è rinvenibile un vero è proprio landmark case in materia di diritto all’oblio almeno fino al 2012, mentre il Garante privacy aveva già riconosciuto almeno dal 2004-2005 una forma di diritto all’oblio in ambito di cronaca giudiziaria. A tal riguardo, il provvedimento del Garante del 7 luglio 2005 riguardava la trasmissione “Un giorno in Pretura” programma della RAI S.p.a., la trasmissione televisiva riproponeva a distanza di sedici anni le immagini riprese durante il dibattimento processuale di una persona, estranea alla vicenda, allora legata sentimentalmente con uno degli imputati, la stessa manifestava chiaramente solidarietà con quest’ultimo. Tuttavia, riteneva l’Autorità le reazioni emotive dell’interessata erano stato riprese senza alcuna cautela volta ad evitarne l’identificazione e non rispettando il requisito di essenzialità dell’informazione. Pertanto, “la tutela invocata dalla segnalante trova 73 F. Di Resta giusto fondamento anche nel diritto della segnalante di non essere più ricordata pubblicamente, anche a distanza di molti anni (c.d. diritto all’oblio; art. 11, comma 1, lett. e del Codice). La riproposizione […] ha leso il diritto dell’interessata di veder rispettata la propria rinnovata dimensione sociale e affettiva, così come si è venuta definendo successivamente alla vicenda stessa, anche in relazione al proprio diritto all’identità personale e al diritto alla protezione dei dati personali”. A questo punto appare opportuno, per ordine di importanza, iniziare ad analizzare la pronuncia della Cassazione del 2012, atteso il suo valore di landmark case. Si trattava di un articolo pubblicato sul Corriere della Sera, l’interessato aveva chiesto inizialmente al Garante per la protezione dei dati personali il “blocco dei dati personali che lo riguardavano contenuti nell’articolo “Arrestato per corruzione…” pubblicato sul quotidiano il giorno 22 aprile 1993, l’Autorità aveva respinto il ricorso. Quindi, lo stesso impugnava il provvedimento di rigetto del Garante Privacy innanzi al Tribunale di Milano, tuttavia, il Tribunale confermava quanto asserito dal Garante respingendo l’opposizione volta alla rimozione dei dati giudiziari. Così come previsto dall’art. 152 del C.d.P., attesa la non appellabilità delle sentenze del Tribunale, l’interessato proponeva ricorso in Cassazione. Il ricorso conteneva un unico complesso motivo nel quale si richiamava alla violazione degli artt. 2, 7, 11, 99, 102, 150 del C.d.P., nonché agli artt.3, 5, 7 del codice deontologico e buona condotta per i trattamenti di dati per scopi storici. Gli argomenti dell’organo giudicante respingono alcune richieste della ricorrente e sono così succintamente riassunti: “l’articolo di cui si tratta non può essere tecnicamente inteso come una nuova pubblicazione”, la “ricerca effettuata attraverso i comuni motori di ricerca – non direttamente legata all’articolo del Corriere della Sera – dà, in realtà, contezza degli esiti processualmente favorevoli” e “l’inserimento di una sorta di sequel nell’articolo contenuto in archivio […] farebbe venir meno il valore di documento del testo stesso, vanificandone così la funzione storico-documentaristica”. Gli argomenti posti dal ricorrente avverso la pronuncia del Tribunale più nello specifico così possono riassumersi: - richiesta di “spostamento dell’articolo pubblicato molti anni prima in un area di un sito web non indicizzabile dai motori di ricerca”; - L’articolo “non reca, in sé, la notizia distinta successiva – che l’inchiesta giudiziaria che aveva condotto all’arresto del ricorrente si sia poi conclusa con il proscioglimento del medesimo, sicché, ancora il […] è soggetto allo stigma derivante dalla continua 74 La Comunicazione N.R.& N. Il diritto all’oblio: dalla nei confronti dell’editore alla deindicizzazione delle parole chiave nei risultato dei motori di ricerca. The right to be forgotten (RTBF): the legal protection towards to publishers of the original content and the delising in the results of the original content and the delisting in the results of search engines. riproposizione di una notizia che, al momento della sua pubblicazione era senz’altro vera ed attuale, ma che oggi, a distanza di così grande lasso di tempo ed in ragione delle sopravvenute vicende favorevoli, getta un intollerabile alone di discredito sulla persona del ricorrente, vittima di un vera e propria gogna mediatica”. La vicenda sottoposta alla Corte riproponeva ancora una volta la spinosa questione del bilanciamento, da una parte il diritto di informare, la libertà di espressione e l’interesse della collettività ad accedere ad informazioni e dell’altra parte il diritto, non più solo diritto alla riservatezza inteso come right to be alone, ma al trattamento dinamico dei dati, dalla raccolta alla gestione alla prima diffusione (prima pubblicazione) financo alla ulteriore diffusione (si trattava di una circolazione dei dati tramite internet e quindi potenzialmente accessibile da tutto il mondo). Come è noto, l’art. 11 del C.d.P. definisce i criteri con il quali il trattamento dei dati personali può essere definito corretto (p.e. è stato acquisito il consenso informato) e/o lecito (p.e. violazione di altre disposizione del C.d.P. come ad esempio violazione del principio di finalità e/o proporzionalità del trattamento). Invero, la liceità del trattamento merita un breve approfondimento perché è un principio fondamentale nella decisione che occupa. L’organo giudicante asserisce che la liceità trova fondamento nella finalità del trattamento e ne costituisce un limite intrinseco allo stesso, nello specifico, la finalità perseguita nella prima pubblicazione da parte del quotidiano è diversa da una riproposizione dello stesso articolo. Infatti, come già accennato sopra la pubblicazione originaria può avere il carattere di attualità (trattamento dati originario), ma il trascorre del tempo può comportare che la notizia divenga obsoleta perché non più di interesse per il pubblico, l’ulteriore ripubblicazione a distanza di tempo di una notizia dimentica può quindi danneggiare l’identità personale e professionale di un individuo e può pertanto considerarsi illecita. Un altro passaggio della sentenza appare cruciale, anche i dati pubblici o pubblicati sono oggetto di tutela, afferma la Cassazione che “il diritto all’oblio salvaguardia in realtà la proiezione sociale dell’identità personale, l’esigenza del soggetto di essere tutelato dalla divulgazione di informazioni (potenzialmente) lesive in ragione della perdita (stante il lasso di tempo intercorso dall’accadimento del fatto che costituisce l’oggetto) di attualità delle stesse sicché il relativo trattamento viene a risultare non più giustificato ed anzi suscettibile di ostacolare il soggetto nell’esplicazione e nel godimento della propria personalità.” Il Supremo Collegio prosegue richiamando altra pronuncia secondo la quale “ il diritto al rispetto della propria identità personale e 75 F. Di Resta morale, a non vedere cioè travisato alterato il proprio patrimonio intellettuale […] (la n.d.r.) propria immagine nel momento storico attuale”. Sempre analizzando il profilo della liceità del trattamento successivo alla prima pubblicazione l’organo giudicante richiama un principio, ai fini della valutazione della ripubblicazione della notizia, secondo il quale è importante tenere in conto che i dati personali provenienti da fonti pienamente conoscibili (p.e. elenchi telefonici) come anche i dati pubblici (p.e. dati reddituali detenuti dall’Agenzia delle Entrate), entrambi non sono liberamente utilizzabili, ed i secondi possono comunque essere sottoposti ad un regime giuridico di pubblicità che ne limiti l’utilizzo. In particolare, i primi sono anche reperibili online, si pensi ad esempio alle e mail, agli indirizzi, ai numeri di telefono, non per questo sono dati personali liberamente utilizzabili da chiunque e per qualunque scopo ed anzi sono soggetti in termini generali alla protezione dati personali. Nel ricercare un giusto bilanciamento di interessi la Corte asserisce quindi che se da una parte occorre tutelare l’identità personale anche nelle fasi successive alla prima pubblicazione dell’articolo ai fini di tutela della proiezione sociale della stessa identità, dall’altra vi è pur sempre l’interesse del pubblico ad accedere alla notizia e quindi ad una permanenza della stessa nella memoria storica presente su Internet. Pertanto, asserisce la stessa proprio sulla base dell’esigenza di garantire una liceità del trattamento successivo alla prima pubblicazione che il quotidiano Corriere della Sera (R.C.S. Quotidiani S.p.A.) non è sufficiente che si sposti nell’archivio storico la notizia, è invece necessario che adotti un sistema di segnalazione dello sviluppo della stessa (p.e. banner all’interno dell’articolo) il quale garantisca una contestualizzazione e l’aggiornamento della stessa. Infine, vi da rilevare che, correttamente, la Corte non sembra aver accolto altre richieste del ricorrente volte invece a chiedere anche la deindicizzazione dall’archivio online, trovando invero questa richiesta di difficile realizzabilità tecnica. Come si avrà modo di illustrare più avanti la deindicizzazione avrebbe dovuto essere rivolta al motore di ricerca, sebbene i limiti giurisdizionali all’epoca ancora sussistenti non avrebbero forse consentito di coinvolgere processualmente lo stesso. Altra pronuncia che si inserisce parzialmente nel solco delineato da questo significativo arresto è l’ordinanza del Tribunale di Firenze del 29 marzo 2014, la questione attinente alla cronaca giudiziaria, si contrapponevano anche qui il diritto all’autodeterminazione informativa, nell’accezione di diritto alla tutela dell’identità personale e quindi alla veridicità delle informazioni contenute nell’archivio storico 76 La Comunicazione N.R.& N. Il diritto all’oblio: dalla nei confronti dell’editore alla deindicizzazione delle parole chiave nei risultato dei motori di ricerca. The right to be forgotten (RTBF): the legal protection towards to publishers of the original content and the delising in the results of the original content and the delisting in the results of search engines. online, per contro vi era lo scopo storico-documentaristico, il diritto di informare e di essere informati. L’organo giudicante asserisce che: “il presente giudizio infatti non tocca in alcun modo il contenuto degli archivi storici del quotidiano che rimarrebbero pertanto disponibili a chiunque voglia prenderne visione […] la deindicizzazione dei due articoli risulta, pertanto, misura adeguata e sufficiente a contemperare l’esigenza di mantenimento della memoria storica della cronaca giudiziaria (continuando i due articoli ad essere reperibili nell’archivio storico del quotidiano) ma anche a garantire, al contempo, in via immediata la tutela dell’immagine telematica dal punto di vista professionale e lavorativo dell’odierno ricorrente […] Nel caso di specie l’avvenuta rettifica nel corpo dell’articolo di cui alla URL […] pur ristabilendo la verità storica, non tutela certamente in modo sufficiente l’interesse cui è diretto il presente ricorso, che consiste, principalmente, nel disincentivare l’associazione del nome del ricorrente alle parole “arresti domiciliari” ogni qualvolta lo si digiti sul motore di ricerca Google”. Pertanto, da una parte il pronunciamento del Tribunale fiorentino è pienamente conforme all’arresto giurisprudenziale della Suprema Corte del 2012, ma lo stesso va oltre asserendo che l’esattezza dell’informazione non è sufficiente: occorre che la notizia venga deindicizzata dal sito sorgente. D’altro canto, il Tribunale fiorentino si era già pronunciato su una questione analoga l’anno precedente, Ord. Trib. di Firenze del 13 febbraio 2013, asserendo su ricorso per provvedimento d’urgenza ex art. 700 c.p.c. che: “non spetta ai motori di ricerca provvedere all’aggiornamento e alla contestualizzazione delle informazioni immesse, ma ai siti sorgente e quindi alle testate giornalistiche […] è chiaro perciò che il fumus boni iuris del diritti all’identità personale del ricorrente deriva dalla indicizzazione da parte dei motori di ricerca del suo nome e cognome e dall’associazione dello stesso alla qualità di indagato e arresto non più attuali e veritiere […] Ciò posto la permanenza di tali informazioni non può che arrecare un pregiudizio grave e irreparabile al ricorrente”. Anche Il Tribunale di Milano nella ordinanza del 26 aprile 2013, n. 5820, prende le mosse proprio dal landmark case del 2012, il ricorrente lamentava la natura diffamatoria e la illiceità dell’articolo “l’usuraio del casinò ha evaso 84 miliardi”, notizia pubblicata su Repubblica il 29 settembre 1985 e riportata nell’archivio online di Repubblica (il Gruppo editoriale l’Espresso S.p.A.). Lo stesso asseriva, in particolare, la mancanza di veridicità dell’articolo, sia in ordine al reato contestato, sia all’esistenza di mandati di cattura ovvero la presunta latitanza, sia l’importo 77 F. Di Resta contestato e ne chiedeva comunque la rimozione dell’articolo dall’archivio online o in subordine “impedire al motore di ricerca l’accesso al predetto link”. L’organo giudicante nelle conclusioni asseriva in primo luogo la carenza (assunto invero molto ricorrente almeno fino alla pronuncia della Corte di Giustizia) di legittimazione passiva di Google Italy S.r.l., atteso che la stessa effettuava mera attività pubblicitaria e di marketing di prodotti editoriali, attività autonome e distinte da quelle svolte dalla società madre, Google inc., nello specifico autonome e distinte dalle attività relative alla gestione dell’indicizzazione delle pagine web impiegate dai motori di ricerca. Come già accennato, tale tesi costituisce un comune denominatore nella costante giurisprudenza fino a maggio 2014, secondo la stessa si deve asserire il difetto di legittimazione passiva nei confronti di Google Italy in quanto non rientrante nell’art. 5 del C.d.P. e non potendosi individuare neanche un’attività di mero supporto per la società madre (Cfr. Tribunale di Roma, 11 luglio 2011; Tribunale di Luca, 20 agosto 2007; Tribunale di Milano, 25 ottobre 2010, successivamente la stessa è stata riformata totalmente nei due successivi gradi di giudizio). Le altre conclusioni dell’organo giudicante milanese erano le seguenti pieno accoglimento della domanda spiegata dall’attore nei confronti del Gruppo editoriale l’Espresso S.p.A. e per l’effetto si ordinava la cancellazione dell’articolo in oggetto dall’archivio online del quotidiano La Repubblica, condannava, inoltre, il quotidiano al risarcimento dei danni non patrimoniali. Pertanto, da una parte la pronuncia milanese sembra andare oltre il landmark case del 2012, asserendo non il mero aggiornamento o rettifica della notizia, ma la totale rimozione del contenuto della stessa. Occorre però analizzare il percorso argomentativo del Giudice. Il tribunale, si giovava di molte delle argomentazioni presenti nella nota pronuncia del 2012, ma asseriva anche che: “le finalità di archivio di una notizia così risalente (il 1985, n.d.r.) ben possono essere assicurate attraverso la conservazione di una copia cartacea (in tal modo sicuramente sacrificando le possibilità di accesso alla notizia, ma in favore del superiore interesse all’identità personale, per le argomentazione sopra esposte) e considerato il fatto che le procedure di c.d. deindicizzazione poste in essere dalle resistenti sono rimaste infruttuose (Cfr. documentazione prodotta dalla difesa di parte attrice unitamente alla comparsa conclusionale), si ritiene che, ai sensi del citato articolo 7 D.lgs. n. 196 del 2003, possa essere disposta, a cura del Gruppo Editoriale l’Espresso – cui spetta provvedere, Cfr. Cass. 5525/2012) – la cancellazione dell’articolo […] dall’archivio telematico[…]”. Il Giudice milanese ritiene pertanto che sia sufficiente che il quotidiano conservi la notizia in formato cartaceo, data la notizia di 78 La Comunicazione N.R.& N. Il diritto all’oblio: dalla nei confronti dell’editore alla deindicizzazione delle parole chiave nei risultato dei motori di ricerca. The right to be forgotten (RTBF): the legal protection towards to publishers of the original content and the delising in the results of the original content and the delisting in the results of search engines. trent’anni orsono l’interesse pubblico è da considerarsi recessivo rispetto alla protezione dell’identità, inoltre, neanche le soluzioni tecniche approntate dal quotidiano non erano state sufficienti a deindicizzare la notizia. La pronuncia in oggetto è stata accolta da alcuni con riserve e perplessità dovuta al fatto che la conservazione nel solo archivio cartaceo rappresenta una sanzione molto aspra. Tuttavia, a ben vedere il giudicante in ordine al contenuto offensivo si è limitato a constatare la prescrizione relativa alle richieste inerenti la diffamazione, tenuto conto del fatto che questi fatti riportati nella notizia erano almeno in parte falsi come l’accusa di usura, l’evasione di somme molto ingenti, mandati di cattura e latitanza. A tal proposito si richiama la Cassazione del 2012 la quale asserisce che la notizia “originariamente completa e vera, diviene non aggiornata, risultando quindi parziale e non esatta, e pertanto sostanzialmente non vera”, invece nel caso in esame non era il trascorrere del tempo a rendere la notizia non vera (anche se solo parzialmente)la notizia era tale ab origine. Orbene, dalla lettura più approfondita della sentenza emerge che l’aspra misura adottata dall’organo giudicante appare ben motivata sotto il profilo del bilanciamento di interessi, in primo luogo la notizia era stata pubblicata nel 1985 (lasso di tempo sufficiente per soddisfare l’interesse pubblico ad accedere all’informazione), a distanza di quasi trent’anni, inoltre, non sussistevano motivi per l’ulteriore identificabilità della persona in riferimento alle finalità di pubblicazione (trattamento dati), infine, come sopra accennato non solo la stessa era in parte falsa ma le misure adottate dall’editore erano state infruttuose. Pertanto, la rimozione della notizia dagli archivi online è vista correttamente dal giudicante come una extrema ratio volta a garantire un’effettività di tutela del diritto dell’attore non altrimenti tutelabile nell’ambiente Internet, di qui appunto l’obbligo di conservare in formato solo cartaceo per adempimento agli scopi storicodocumentaristici. Alla luce di queste osservazioni appare ora opportuno analizzare la sentenza che costituisce un landmark case a livello europeo. Si tratta della pronuncia della Corte di Giustizia dell’Unione Europea del 13 maggio 2014, causa C-131/12. La vicenda come è noto riguardava il sig. Costeja Gonzales il quale mediante reclamo chiedeva che fosse ordinato ad un noto quotidiano catalano, La Vanguardia, di rimuovere oppure modificare alcune pagine web contenenti i suoi dati personali. Il reclamo, innanzi alla Agencia Espanola de Proteccion de Datos (AEDP), era rivolto sia contro il quotidiano La Vanguardia sia contro Google Spain e Google Inc., si fondava in ragione del fatto che quando 79 F. Di Resta veniva effettuata una ricerca da parte di un qualsiasi utente con le parole chiave “Costeja Gonzales” il motore otteneva come risultati due link verso due pagine di suddetto quotidiano, rispettivamente del 19 gennaio e del 9 marzo 1998, riportanti la notizia da considerarsi oramai obsoleta. Nella notizia si riportava che il sig. Costeja Gonzales, a seguito di accertamenti, era risultato evasore per crediti previdenziali e che dei suoi immobili erano stati messi all’asta a seguito di un pignoramento per la riscossione coatta di detti crediti. Il reclamo verso il quotidiano La Vanguardia veniva respinto ritenendo la pubblicazione del quotidiano legalmente giustificata dato che alla vendita pubblica era stata data ampia pubblicità su ordine del Ministero del Lavoro e degli Affari sociali. Il medesimo reclamo veniva invece accolto dalla AEDP contro Google Spain e Google Inc. Le ragioni dell’accoglimento possono essere riassunte come segue: Le società spagnola e la società madre americana operano in stretta collaborazione, “i gestori di motori di ricerca sono assoggettati alla normativa in materia di protezione dei dati […] effettuano un trattamento di dati per il quale sono responsabili e agiscono quali intermediari […] L’AEDP ha ritenuto di essere autorizzata ad ordinare la rimozione dei dati nonché il divieto di accesso a taluni dati da parte dei gestori dei motori di ricerca ”. Alla base di tale pronunciamento vi è il bilanciamento degli interessi in gioco, nel quale prevale “il diritto fondamentale alla protezione dei dati personali e alla dignità delle persone in senso ampio, ciò che includerebbe anche la semplice volontà della persona interessata che tali non siano conosciuti da terzi”. La pronuncia dell’AEDP veniva impugnata innanzi all’Audiencia Nacional, la quale sospendeva procedimento ponendo una questione pregiudiziale comunitaria innanzi alla Corte di Giustizia. Si ponevano principalmente tre questioni che possono riassumersi come segue: 1. La qualificazione come “stabilimento” relativamente a Google Spain al fine di definire la giurisdizione in base alla normativa europea e al diritto spagnolo sul caso; 2. Se l’attività posta in essere da Google Search, “consistente nel localizzare le informazioni pubblicate e messe in rete a terzi, nell’indicizzarle in maniera automatica, nel memorizzarle temporaneamente e infine metterle a disposizioni degli utenti di Internet secondo un determinato ordine di preferenza” possa qualificarsi come trattamento dei dati personali e se come tale la società possa essere qualificata come Responsabile del trattamento ai sensi dell’art. 2 lett. d) della Direttiva 95/46/Ce. 80 La Comunicazione N.R.& N. Il diritto all’oblio: dalla nei confronti dell’editore alla deindicizzazione delle parole chiave nei risultato dei motori di ricerca. The right to be forgotten (RTBF): the legal protection towards to publishers of the original content and the delising in the results of the original content and the delisting in the results of search engines. 3. In riferimento alla portata del diritto di cancellazione e/o opposizione al trattamento di dati in relazione al diritto all’oblio, ai sensi degli artt. 12 e 14, se il diritto di cancellazione e congelamento dei dati implichino o meno che l’interessato possa rivolgersi ai motori di ricerca “per impedire l’indicizzazione delle informazioni riguardanti la sua persona pubblicate su pagine web di terzi, facendo valere la propria volontà che tali informazioni non siano conosciute dagli utenti di internet”, qualora tale divulgazione comporti una pregiudizio ai sui danni o desideri che tali informazioni siano dimenticate. Per tutte e tre le questioni sopra illustrate la Corte di Giustizia forniva risposta affermativa, riconosceva per la prima volta nella la giurisdizione europea e spagnola sui motori di ricerca, che Google Spain fosse qualificabile come responsabile del trattamento (Titolare autonomo secondo il diritto italiano). Infine, con la questione indicata al punto 3 si chiedeva alla Corte se fosse possibile legittimamente chiedere al motore di ricerca la rimozione del link alla pagina web del sito sorgente (quotidiano La Vanguardia), anche nella circostanza che il trattamento operato da quest’ultimo fosse lecita (Cfr. paragrafo 62). La risposta della Corte è netta in base alla Direttiva 95/46/Ce il fatto che le informazioni pubblicate sul sito sorgente siano lecite non incide sugli obblighi dei motori di ricerca. Anzi, specifica che il trattamento dell’editore di una pagina web, consistente nella pubblicazione di informazioni relative ad una persona fisica, può in ipotesi essere anche effettuato per esclusivi scopi giornalistici (par. 85) e beneficiare delle deroghe previste dall’art. 9 della Direttiva, mentre tali deroghe non sono applicabili ai motori di ricerca. La Corte conclude, infine, che il diritto allo protezione dei dati personali prevale, nell’ottica di un bilanciamento di diritti, non soltanto sugli interessi economici dei motori di ricerca ma sull’interesse del pubblico ad accedere all’informazione in occasione di una ricerca concernente il nome dell’interessato. D’altro canto, quest’ultima tesi trova conforto anche se si fosse ragionato in stretti termini di diritto italiano, l’editore in tal caso avrebbe potuto infatti sostenere una tesi difensiva ricorrendo all’art. 136 e ss. del Codice della Privacy (d.lgs. 196/2003). Lo stesso prevede una deroga al consenso al trattamento quando lo stesso è “effettuato nell’esercizio della professione di giornalista e per l’esclusivo perseguimento delle relative finalità” o “effettuato dai soggetti iscritti nell’elenco dei pubblicisti o nel registro dei praticanti di cui agli articoli 26 e 33 della legge 3 febbraio 1963, n. 69”. D’altro canto, il trattamento potrebbe anche essere “temporaneo finalizzato esclusivamente alla 81 F. Di Resta pubblicazione o diffusione occasionale di articoli, saggi e altre manifestazioni di pensiero anche nell’espressione artistica”. Ovviamente la deroga al consenso, che include anche le garanzie previste dagli artt. 27 in combinato disposto con l’art. 137 C.d.P. sul trattamento dei dati giudiziari, potrebbe anche essere opposta impropriamente perché lo scopo giornalistico potrebbe essere ritenuto recessivo rispetto al diritto all’oblio ossia il diritto alla protezione dei dati personali nell’accezione di controllo della propria identità personale nella sua proiezione sociale. In tale caso una notizia diventa obsoleta per il trascorrere del tempo perdendo di interesse per la collettività. Peraltro, riprendendo le argomentazioni della Corte di Giustizia, la notizia di un privato cittadino che non ha incarichi pubblici perde di interesse dopo un certo numero di anni, prevalendo il diritto a che la notizia venga dimentica, pertanto si può chiedere che non sia più accessibili con facilità da parte di terzi, tuttavia, quotidiano potrà ottenere ragionevolmente il risultato di continuare a conservare la notizia, in forma aggiornata e veritiera, nell’archivio storico online. Sul piano generale occorre, inoltre, porsi un ulteriore quesito che allo stato rappresenta uno dei punti critici del dibattito istituzionale a livello europeo in tema di protezione dati, il diritto all’oblio riconosciuto in via giurisprudenziale deve trovare una puntuale disciplina normativa? Il testo della proposta del regolamento europeo sulla protezione dei dati personali (General Data Protection Regulation-GDPR), regolamento che dovrebbe essere approvato prevedibilmente entro gli inizi del 2016, sarà come tale direttamente efficace in tutti Stati Membri (c.d. diretta applicabilità dei regolamenti dell’UE), licenziato dal Consiglio dell’Unione Europea lo scorso 19 dicembre 2014, contiene anche una disposizione sul diritto all’oblio. Tuttavia, solo in apparenza sembra andare nella direzione della necessità di riconoscere un nuovo diritto oltre ai diritti dell’interessato già riconosciuti (art. 7 co. 3 e 4 Codice della Privacy; art. 12 co. 2 e 3 della Direttiva 95/46/Ce), per contro è da ritenersi che la volontà attuale del legislatore comunitario sia di individuare un’accezione del più ampio diritto alla cancellazione dei dati, all’integrazione e all’aggiornamento nonché all’opposizione del trattamento per motivi legittimi. Infatti, l’art. 17 è stato rubricato “Right to be forgotten and to erasure” (spesso nella letteratura in materia si riporta il semplice acronimo RTBF), invece, esaminando il testo attuale, il diritto all’oblio compare solo nella rubrica e non viene specificamente disciplinato, le disposizioni riconoscono al diritto di cancellazione un ambito di applicazione molto vasto, rimandando al diritto di opposizione al trattamento per motivi legittimi e al bilanciamento tra i diritto in gioco 82 La Comunicazione N.R.& N. Il diritto all’oblio: dalla nei confronti dell’editore alla deindicizzazione delle parole chiave nei risultato dei motori di ricerca. The right to be forgotten (RTBF): the legal protection towards to publishers of the original content and the delising in the results of the original content and the delisting in the results of search engines. (Art. 19), al principio di finalità e necessità del trattamento dati, alla revoca del consenso al trattamento dei dati (Articolo 9). Infine, analizzando i documenti del Dapix Working Group, Gruppo di Lavoro sullo scambio di informazioni e la protezione dei dati in seno al Consiglio dei Ministri dell’Unione Europea, emergono diverse posizioni degli Stati Membri, in particolare, le delegazioni di Germania, Danimarca e Spagna ritengono che non sia necessario introdurre legislativamente un diritto ad hoc andando oltre il diritto di cancellazione dei dati, ma sia sufficiente disciplinare solo quest’ultimo. Le delegazioni spagnola e tedesca, insieme ad altre sostengono, inoltre, che il diritto all’oblio sia un’ accezione del diritto alla riservatezza e quindi espressione del più ampio diritto alla protezione dei dati personali che deve essere bilanciato contro diritto alla memoria storica dei fatti e all’accesso alle fonti di informazione, intesi questi ultimi come esplicazioni della libertà di espressione. Quando e come rivolgersi al motore di ricerca La sentenza sopra analizzata rappresenta come detto un landmark case per diversi aspetti, infatti, immediatamente dopo la pubblicazione della sentenza, 13 maggio 2014, il principale motore di ricerca a livello mondiale ha introdotto in tutta Europa una procedura di segnalazione per i richiedenti la deindicizzazione delle pagine web. Come sopra accennato fino ad allora le società come Google Italy e Google Spain, erano costantemente considerate, come società che svolgono una semplice attività di vendita di servizi pubblicitari per conto della Google Ireland Ltd. (Società del gruppo Google che gestisce la raccolta pubblicitaria sul sito web) e non compiendo pertanto operazione di trattamento strumentali alle attività di motore di ricerca non erano soggette alle giurisdizioni europee (Provv. Garante privacy del 18 gennaio 2006, doc. web n. 1242501) Successivamente a tale sentenza, Google Inc. ha deciso di pubblicare in diverse lingue la procedura in base alla quale i cittadini possono richiedere la deindicizzazione delle parole chiave dai risultanti dei motori di ricerca. Il richiedente dopo aver compilato la richiesta telematica deve attendere il riscontro di Google in merito. Le decisioni di Google in tema di deindicizzazione in Italia possono essere impugnate innanzi al Garante privacy ed innanzi al Tribunale, atteso che secondo i più recenti pronunciamenti in materia Google Italy deve ritenersi un rappresentante stabilito in Italia ai fini dell’art. 5, co. 2 del d.lgs. 196/2003. La statistiche ufficiali italiane mostrano che Google finora ha rigettato circa il 60% delle richieste pervenute secondo criteri e 83 F. Di Resta valutazioni condivise dal nostro Garante per la protezione dei dati personali (Audizione del Presidente Antonello Soro presso la Commissione dei Diritti e doveri relativi ad Internet – Camera dei Deputati, 12 gennaio 2015). Fino a tutto dicembre 2014, erano alcune decine le richieste di indicizzazione pervenute al Garante, di queste solo nove pervenute ad una conclusione del procedimento innanzi al Garante. Di queste nove pronunce, sette sono di conferma delle decisioni di Google e quindi di rigetto delle richieste di deindicizzazione (newsletter del Garante del 22 dicembre 2014), mentre le altre due pronunce hanno accolto il ricorso degli interessati, in un primo caso le informazioni pubblicate erano eccedenti e riferite a persone estranee alla vicenda giudiziaria, nell’altro caso la notizia pubblicata era inserita in un contesto idoneo a ledere la vita privata della persona (Cfr. doc. web nn. 3623877 e 3623978). Più nel merito, analizzando i succinti provvedimenti del garante relativi al respingimento delle richieste di indicizzazione, già rifiutate in sede stragiudiziale da parte di Google Inc., da una parte emerge che le vicende attinenti alla cronaca giudiziaria sono per lo più ancora considerate di pubblico interesse, dall’altra viene suggerito al ricorrente di esercitare i diritti di aggiornamento, rettifica e integrazione previsti dall’art. 7 C.d.P. qualora ritenga che le notizie pubblicate dagli editori non siano vere. Il quadro complessivo relativo alle richieste stragiudiziali rivolte a Google e a quelle in sede amministrativa innanzi al Garante privacy è piuttosto netto al momento. L’accoglimento di una richiesta di deindicizzazione deve essere ben motivato per superare il test del bilanciamento tra lo specifico contesto in cui si applica il diritto alla protezione dei dati personale (rectius diritto all’oblio) e i diritti con esso confliggenti (diritto di cronaca, diritto di essere informati e pubblico interesse all’accesso), indicando le URL per le quali si chiede al motore di ricerca di rimuovere i link. A tal riguardo corre l’obbligo di richiamare la recente pubblicazione delle Linee guida di Google del 6 febbraio 2015, su indicazione dell’Advisory Council nominato da Google (“The Advisory Council to Google on the Right To Be Forgotten”),nella quale si esplicitano i criteri in base al quali Google opererà suddetto bilanciamento di interessi. E’, infine, il caso di notare come le linee guida di Google non siano allineate per diversi aspetti con il Parere del Gruppo europeo dei Garanti (Article 29 Working Party) pubblicato il 26 novembre 2014 (Giudelines on the Implementation of the court of Justice on the European Union Judgement on “Google Spain And Inc V. Agencia 84 La Comunicazione N.R.& N. Il diritto all’oblio: dalla nei confronti dell’editore alla deindicizzazione delle parole chiave nei risultato dei motori di ricerca. The right to be forgotten (RTBF): the legal protection towards to publishers of the original content and the delising in the results of the original content and the delisting in the results of search engines. Espanola de Proteccion de Datos (AEDP) and Mario Costeja Gonzalez” C-131/12). L’accostamento tra i due documenti è invero improprio, le linee guida sono da intendersi come una procedura aziendale implementata da una multinazionale leader mondiale nel settore, mentre l’Opinion del Gruppo di lavoro art. 29 è invece un documento istituzionale europeo. La differenza tra i predetti documenti è di tutta evidenza, il documento del Gruppo europeo dei Garanti essendo un documento istituzionale da ritenersi un riferimento sia per il contenzioso amministrativo (ricorsi al Garante per la protezione dei dati personali) che per quello giudiziario e non ultimo anche per tutti i cittadini e le altre istituzioni. In ogni caso, è bene ribadire che le linee guida di Google saranno un documento utile per fornire indicazioni in ordine ai criteri di bilanciamenti degli interessi in gioco per chi vuole proporre una richiesta di indicizzazione, trattandosi allo stato attuale di una scelta obbligata, successivamente si sceglierà la sede - tra quelle consentite dell’ordinamento - più opportuna per tutelare il diritto fondamentale quale quello alla protezione dei dati personali. ________________________________________________________________________________ BIBLIOGRAFIA ESSENZIALE Bianchi, D. Difendersi da internet, Guida al Diritto, Il Sole 24 Ore, Milano, 2014. Di Resta, F. Il diritto all'oblio: un'evoluzione del diritto di aggiornamento e all'esattezza delle notizie sul proprio conto o un nuovo diritto? Pubblicato su Diritto 24 del Sole 24 ore (ultima visita 25 giugno 2015) http://www.diritto24.ilsole24ore.com/art/avvocatoAffari/mercatiImpresa/201502-26/il-diritto-oblio-evoluzione-diritto-aggiornamento-e-esattezza-notiziaproprio-conto-o-nuovo-diritto-110423.php Di Resta, F., Dal Rfid all’IoT: le criticità del quadro normativo, pubblicato sul sito web (ultima visita 25 giugno 2015): http://channels.theinnovationgroup.it/iot/tag/fabio-di-resta/ Di Resta, F., Protezione dei dati personali - Privacy e Sicurezza (Prefazione a cura di Giuseppe Chiaravalloti), Giapplichelli editore, Torino, 2008, pagg. da 51 a 61. Paissan, M., Privacy e Giornalismo, Garante per la Protezione dei dati personali, ed. febbraio 2008. Warren, S.D. e Brandais, L.D., The Right to Privacy, pubblicato il 15 dicembre 1890, Harvard Law Review. DOCUMENTI DI RIFERIMENTO 85 F. Di Resta − Lettera inviata dal Presidente del Garante privacy a Google Inc., 22 marzo 2006, doc. web. 13339146. − Parere del Gruppo europeo dei Garanti (Article 29 Working Party – WP 225) pubblicato il 26 novembre 2014 (Giudelines on the Implementation of the Court of Justice on the European Union Judgement on “Google Spain And Inc V. Agencia Espanola de Proteccion de Datos (AEDP) and Mario Costeja Gonzalez” C-131/12) − Bozza del Regolamento generale sulla protezione dei dati personali, versione testo del Consiglio dell’Unione Europea, 19 dicembre 2014 − Newsletter del Garante per la protezione dei dati personali, 22 dicembre 2014. − Audizione del Presidente Antonello Soro presso la Commissione dei Diritti e doveri relativi ad Internet – Camera dei Deputati, 12 gennaio 2015 − Linee guida, The Advisory Council to Google on the Right to be Forgotten, pubblicate il 6 febbraio 2015 − Relazione annuale del Garante per la protezione dei dati personali, 2014 (pubblicata a giugno 2015), pagg. 142 e ss. GIURISPRUDENZA DI RIFERIMENTO − Provvedimento del Garante privacy del 10 novembre 2004, doc. web. 1116068 − Provvedimento del Garante privacy del 7 luglio 2005, doc. web. 1148642 − Provvedimento del Garante privacy del 18 gennaio 2006, doc. web. 1242501 − Tribunale di Luca, 20 agosto 2007 − Tribunale di Milano, sez. penale, n. 1972/2010 (Sentenza di condanna, successivamente riformata con assoluzione degli imputati in appello e in cassazione) − Tribunale di Milano, 25 ottobre 2010 − Tribunale di Roma, 11 luglio 2011 − Tribunale di Milano, Ordinanza del 24 marzo 2011 – 1 aprile 2011 − Cassazione, 5 aprile 2012, n. 5225 − Tribunale di Pinarolo, Ordinanza 2 maggio 2012 − Tribunale di Firenze, Ordinanza 25 maggio 2012 − Tribunale di Firenze, 13 febbraio 2013 − Tribunale di Milano, Ordinanza 26 aprile 2013 − Tribunale di Firenze, 29 marzo 2014 − Corte di Giustizia, 13 maggio 2014, Causa C- 131/12 − Provvedimento Garante privacy del 6 novembre 2014, doc. web. 3623877 − Provvedimento Garante privacy del 11 dicembre 2014, doc. web 3623978 − Provvedimento Garante privacy del 18 dicembre 2014, doc. web. 3736353 86 La Comunicazione N.R.& N. La Comunicazione N.R.&N. Agostino Giorgio Laboratorio di Elettronica dei Sistemi e delle Applicazioni Digitali, Dipartimento di Ingegneria Elettrica e dell’Informazione Politecnico di Bari Elettronica del fumo digitale Digital Smoke Electronics Sommario: L'obiettivo di quest'articolo è di proporre uno studio sul funzionamento della sigaretta elettronica da un punto di vista tecnico ed ingegneristico, accennando anche ad aspetti medici tutt’ora controversi. Chiariti i principi di funzionamento, lo studio viene condotto tramite un modello logico e circuitale appositamente sviluppato nell’ambito delle attività di ricerca dell’autore, con l’introduzione di un metodo per il controllo fine della quantità di nicotina inalata. La logica di controllo sviluppata ed il relativo modello circuitale, rendono possibile ottimizzare il progetto e la realizzazione della e-cig in versioni più evolute di quelle attualmente in commercio. Abstract: In this paper it is proposed a study on the operation of the electronic cigarette from a technical and engineering point of view. Clarified the principles of operation, the study is conducted via a logical model and circuit developed by the author’s research team, with the introduction of a method for the fine control of the amount of inhaled nicotine. The model is suitable to optimize the design and implementation of e-cig in more advanced versions of those currently on the market. 1. Introduzione Il recente sviluppo del mercato della sigaretta elettronica, spesso nota come e-cig, come possibile, benchè parziale, soluzione agli effetti collaterali della dipendenza da nicotina legati alla inalazione di sostanze altamente cancerogene, induce ad approfondimenti sia medici (inerenti la reale innocuità della e-cig) sia tecnici per lo sviluppo di prodotti sempre meno nocivi e sempre più efficaci per chi decide di adottare la e-cig come metodo alternativo alla sigaretta tradizionale per l’assunzione controllata di nicotina. Pertanto, in questo articolo, viene descritto il funzionamento della sigaretta elettronica con particolare riferimento ad un metodo, ideato dall’autore, per il controllo fine della nicotina inalata. Allo scopo, nella sezione II vengono analizzati la struttura e i componenti della sigaretta elettronica e il principio di funzionamento e vengono accennati aspetti più squisitamente medico-salutistici. Nella sezione III si descrive la logica di controllo che gestisce il funzionamento della sigaretta elettronica ed un metodo originale per il controllo di fine sigaretta allo scopo di consentire un controllo più fine ed efficace sulla 87 A. Giorgio quantità di nicotina assunta. Seguono considerazioni conclusive (sezione IV). 2. La sigaretta elettronica: generalità La diffusione delle sigarette elettroniche è un fenomeno molto recente anche se l’idea tecnica risale a diversi decenni addietro. Infatti, già nel 1963 l’americano Herbert A. Gilbert deposita il primo brevetto [1]. Tuttavia, il contributo alla nascita della e-cig, così come la conosciamo oggi, si deve a Hon Lik che nel 2003 brevettò un modello di e-cig con tecnologia ad ultrasuoni [2]. Attualmente, la maggior parte delle sigarette elettroniche ha abbandonato questo sistema a favore di quello basato sull'uso del vaporizzatore. Il brevetto cinese è stato, tuttavia, d’impulso per lo sviluppo di dispositivi progettati ed attualmente in commercio per soddisfare tutte le esigenze dei fumatori [3]. A differenza della sigaretta tradizionale, la sigaretta elettronica ha una struttura modulare composta da sette componenti principali [4]: Beccuccio (Nozzle), Vaporizzatore, Atomizzatore o Riscaldatore (Atomizer), Cartuccia contenente il Liquido (e-Liquid Cartridge), Sensore di flusso d’aria (Pressure Sensor), Microcontrollore (Microcontroller), Batteria a Litio (Lithium Battery) e indicatore a LED (LED Indicator) come si può vedere in figura 1. La differenza principale tra la sigaretta tradizionale e quella elettronica, risiede nel fatto che in quest'ultima non c'è combustione. Infatti, il principio di funzionamento su cui si basa la sigaretta elettronica è quello di riscaldare il liquido contenuto nella cartuccia per la produzione di vapore quando l'utente inala. Il vaporizzatore è la parte del dispositivo preposta alla vaporizzazione del liquido che viene reso così inalabile. Il funzionamento del vaporizzatore richiede una sorgente di alimentazione per riscaldare il liquido fino al punto di evaporazione e per questo è necessario l’utilizzo di una batteria nel corpo della e-cig. Figura 1. Componenti della sigaretta elettronica Nella sigaretta tradizionale a causa della combustione l'utente inala 88 La Comunicazione N.R.& N. Elettronica del fumo digitale Digital Smoke Electronics più di 4.000 sostanze chimiche, di cui almeno 80 sono cancerogene come: monossido di carbonio, catrame, nicotina, ammoniaca, arsenico, polonio 210 e molte altre, secondo l’International Agency for Research into Cancer [6]. Nella e-cig non c'è combustione, ma viene prodotto vapore composto principalmente da sostanze apparentemente non nocive per la salute, che sono: • Glicole Propilenico (PG): è un liquido incolore, insapore, umettante, igroscopico, ha proprietà batteriostatiche e si conserva per molti anni senza alterazioni. La proprietà del glicole propilenico è di esaltare l'hit della nicotina. • Glicerina Vegetale (VG): è un liquido incolore, denso, viscoso, dolciastro, umettante, igroscopico. La glicerina vegetale è la sostanza del liquido che conferisce la fumosità. • Acqua: costituisce il 10% circa del liquido vaporizzato. • Nicotina: questa sostanza pur non necessaria per la creazione del fumo, si rivela importante perché presente nelle sigarette, e crea un certo livello di dipendenza a basse concentrazioni. • Aromi: sono comuni aromi alimentari, usati nell’industria dolciaria e di cibi e servono per dare il sapore al liquido. Si aromatizza il liquido in genere nell’ordine del 3-10%. Sui danni provocati dal fumo digitale la comunità scientifica è divisa in due, tra chi è piuttosto favorevole [7], ritenendolo non nocivo per la salute ed utile alla riduzione della dipendenza da tabacco, e chi invece contrario [8], ritenendolo nocivo per la salute. In sostanza il dibattito medico sulla sicurezza delle sigarette elettroniche è tutt’altro che concluso. Studi ancora in corso dovranno stabilire se la sigaretta elettronica si può usare con assoluta tranquillità e se è la candidata ideale per chi vuole smettere di fumare le sigarette tradizionali. Va comunque riconosciuto alla sigaretta elettronica il merito di far riflettere milioni di tabagisti sui pericoli che si corrono con le sigarette tradizionali. Anche se gli esperti non sono unanimi sulla innocuità della e-cig, è certo che la sigaretta tradizionale è dannosa per la salute per via delle numerose sostanze cancerogene risultanti dalla combustione ed inalate, mentre nella e-cig vi sono comunque poche sostanze chimiche che vengono inalate dal fumatore. 3. Tecnica ed elettronica della e-cig Entrando nel dettaglio tecnico-ingegneristico e facendo riferimento allo schema a blocchi in Figura 2 viene di seguito descritto il funzionamento della e-cig. 89 A. Giorgio La batteria alimenta il sensore di flusso d'aria, l'unità di controllo e il vaporizzatore. I segnali che sono gestiti dall'unità di controllo sono evidenziati attraverso frecce tratteggiate mentre il sensore di temperatura è alimentato dall'unità di controllo. Quando l’utente non inala, il sensore di flusso d’aria non rileva alcuna variazione di pressione e pertanto non è prodotto alcun segnale all’uscita del sensore. In tal caso l’unità di controllo non attiva né il vaporizzatore né il LED, in altre parole la sigaretta elettronica si trova in modalità "standby". Viceversa, quando l’utente inala, il sensore di flusso d’aria rileva una differenza di pressione e conseguentemente invia un segnale all’unità di controllo. L’unità di controllo, a sua volta, invia un segnale che va a pilotare un interruttore elettronico che chiudendosi permette alla batteria di erogare energia alla resistenza situata nel vaporizzatore e, contemporaneamente, va ad attivare l’indicatore a LED. In questo caso, la sigaretta elettronica si trova in modalità "on" [9]. Il segnale in uscita dal sensore di temperatura viene inviato all’unità di controllo che, nel caso di temperature troppo elevate, apre l’interruttore elettronico in modo tale da interrompere la corrente che scorre nella resistenza (cut-off). La logica di controllo implementata dall'unità di controllo può essere schematizzata attraverso il diagramma di flusso di Figura 3. Figura 2. Schema a blocchi funzionale della e-cig. Quando l’unità di controllo rileva un livello di carica della batteria basso, solitamente sotto il 10% rispetto a quello nominale, invia un 90 La Comunicazione N.R.& N. Elettronica del fumo digitale Digital Smoke Electronics segnale che va a pilotare il segnalatore a LED facendolo lampeggiare in modo da avvisare l’utente che la batteria è scarica e che deve essere ricaricata. Viceversa, se il livello di carica della batteria è alto, l’unità di controllo attende che l’utente inali per attivare il normale funzionamento della e-cig (vaporizzazione del liquido presente nella cartuccia). In questo caso la sigaretta elettronica si trova in modalità standby. Nell’ipotesi che il livello di carica della batteria sia alto e che l’utente aspiri (inali), la condizione “Inhalation” è vera e, di conseguenza, l’unità di controllo compie una seconda verifica sulla temperatura attraverso il sensore presente nel vaporizzatore. Se la temperatura rilevata è pari a quella limite di rottura indicata con T Break , oltre la quale si potrebbe compromettere in maniera irreversibile l’elemento riscaldante, l’unità di controllo provvede ad aprire l’interruttore elettronico se è chiuso oppure lo mantiene aperto (Switch off) e nello stesso istante invia un segnale al LED di notifica in modo da avvisare l’utente attraverso una serie di lampeggi della interruzione del funzionamento della e-cig per temperatura troppo elevata al vaporizzatore. Il controllo termico viene ripetuto ciclicamente. Questa operazione risulta essere importante per prevenire la rottura dell’elemento riscaldante, fondamentale per il funzionamento della e-cig stessa. Figura 3. Flow chart del funzionamento logico della e-cig 91 A. Giorgio Quando la temperatura rilevata è minore di quella di rottura T Break e l’utente aspira, l’unità di controllo chiude l’interruttore elettronico (Switch on) per attivare sia la resistenza (coil) presente nel vaporizzatore, che si occupa di riscaldare il liquido che deve essere inalato dall’utente, sia il LED di notifica, per simulare con un effetto luminoso la combustione che avviene in una sigaretta tradizionale. In questo caso la sigaretta elettronica passa dalla modalità "standby" alla modalità "on". Una delle incognite nell’utilizzo della sigaretta elettronica è capire a quanti tiri corrisponde una sigaretta classica in termini di quantità di nicotina assunta. Senza questo tipo di controllo può accadere che l’utente fumando digitale si ritrovi ad assumere più nicotina rispetto alla sigaretta classica. Chiaramente questo rischio dipende innanzitutto dalla concentrazione di nicotina che si trova nel liquido all’interno della cartuccia o nel serbatoio della e-cig che può essere di 24 mg, 18 mg, 16 mg, 12 mg, 8 mg, e 4 mg, ma dipende anche dalla quantità di liquido consumato in una sessione di fumo digitale, e questo non è attualmente controllabile in modo fine. Una notifica, infatti, viene prodotta dalla e-cig solo quando il liquido si è esaurito. Per consentire all’utente un controllo fine sulla nicotina inalata, occorre, quindi, implementare un meccanismo di controllo fine che dia segnali di avvertimento all’utente durante la sessione di fumo digitale e non solo quando il liquido da svaporare si è esaurito. Si può ragionevolmente stimare che in media il numero tiri corrispondenti ad una sigaretta normale è circa 10. Quando si ricarica una cartuccia, poi, bisogna sapere quanta nicotina c’è nel liquido per capire a quante sigarette tradizionali corrisponde una data quantità di liquido consumato. Dal rapporto dell’Istituto Superiore di Sanità si evince che in un flacone commerciale di liquido per e-cig da 10ml, da 24 mg di nicotina, sono contenuti 240mg di nicotina. Ad esempio, una sigaretta Marlboro Red contiene approssimativamente 1,2 mg di nicotina e di conseguenza un pacchetto intero 24 mg. A un millilitro di liquido per e-cig equivalgono circa 20 gocce; usando un flacone da 24 mg di nicotina, ci sarebbero 1,2 mg di nicotina per goccia. Inoltre, bisogna tener conto che l’assorbimento di nicotina non è totale e dipende da vari fattori quali: il sistema di vaporizzazione della sigaretta elettronica, la frequenza e la durata con cui si fuma e quanto profondamente si inala [10]. Sulla base delle considerazioni esposte, è stato ideato dall’autore il controllo di fine sigaretta che va ad integrarsi nella logica di controllo della e-cig implementata nel microcontrollore [11]. Tale meccanismo di controllo fine consente alla e-cig di segnalare all'utente quando ha assunto una quantità di nicotina all'incirca pari a quella che avrebbe assunto con una sigaretta tradizionale. Questa informazione è molto importante per chi vuole utilizzare la e-cig al fine di ridurre la dipendenza 92 La Comunicazione N.R.& N. Elettronica del fumo digitale Digital Smoke Electronics ed il danno da tabacco [12]. I criteri adottati sono: • Controllo del numeri di tiri effettuati dall'utente • Controllo del tempo trascorso dalla prima inalazione Entrambi i criteri sono stati implementati sia singolarmente sia in forma correlata. Il metodo di controllo di fine e-cig introdotto, è stato implementato in un modello logico e successivamente in un modello circuitale digitale, con l’obiettivo di verificarne il corretto funzionamento con l’ausilio di simulazioni circuitali. Le azioni gestite dalla logica di controllo si possono così schematizzare: • Durante l’inalazione è attivata l’alimentazione e il LED di segnalazione (verde) • Se la batteria è scarica vengono emessi 5 lampeggi da parte del LED di segnalazione (verde) • Se T > T Break viene interrotta l’alimentazione e attivato il LED di segnalazione (rosso) • Se sono effettuati dieci tiri, oppure trascorrono tre minuti dalla prima inalazione, viene interrotta l’alimentazione e sono emessi tre lampeggi da parte del LED di segnalazione (verde) Sulla base di queste specifiche sono state definite le variabili di ingresso ed uscita del modello, come si vede in Figura 4. Figura 4. Variabili di ingresso e uscita del modello della ecig 93 A. Giorgio Le variabili d'ingresso e di uscita sono messe in relazione attraverso la tabella della verità (Tabella I) in modo da ottenere le funzioni booleane che formalizzano il funzionamento della e-cig. La sintesi di queste funzioni ci consente di ottenere il corrispondente modello circuitale. Per implementare il controllo di fine sigaretta sono stati utilizzati degli elementi di memoria in modo da eseguire il conteggio del numero di tiri e del tempo di funzionamento. La Figura 5 mostra lo schema logico della e-cig con il controllo combinato sia sul numero di tiri realizzati da parte dell'utente che nel tempo. Il modello circuitale oggetto delle simulazioni è costituito da un dip switch S1, un demultiplexer, due timer 555, un interruttore pilotato in tensione S2, due SR Latch, un Decoder BCD, un display a 7 segmenti, tre contatori asincroni modulo 16 U1 e U2, un LED bicolore rosso-verde e infine da alcune porte logiche e componenti analogici. Il dip switch S1 è costituito da tre interruttori incapsulati in un singolo contenitore, ed è utilizzato per generare le combinazioni delle variabili di ingresso relative allo stato della batteria, all’esecuzione o meno della inalazione e alla temperatura del vaporizzatore rispetto alla soglia critica. 94 Tabella I. Tabella della verità della e-cig La Comunicazione N.R.& N. Elettronica del fumo digitale Digital Smoke Electronics Il circuito logico è composto da quattro blocchi funzionali che racchiudono al loro interno dei circuiti più complessi: • • • • Figura 5. Modello circuitale della e-cig con controllo combinato sul numero di tiri e sul tempo di on della e-cig Demux_2TO4 555 Astabile_1 555 Astabile_2 Decoder BCD Il blocco Demux_2TO4 si occupa di gestire i warning della sigaretta elettronica attraverso il LED, inerenti alla batteria scarica e alla temperatura del riscaldatore, quando maggiore rispetto a quella di rottura. I blocchi 555 Astabile_1 e 555 Astable_2 sono utilizzati per generare delle onde quadre che sono utilizzate per le segnalazioni attraverso il LED di funzionamento, ed infine il blocco Decoder BCD si occupa di gestire il display a 7 segmenti. Il conteggio del tempo di on (accensione) della e-cig parte dalla prima inalazione effettuata dall’utente ed è affidata ad un contatore asincrono modulo 16 di tipo up, attraverso un’associazione del conteggio nel tempo con il conteggio degli impulsi che sono forniti dal generatore di clock V2, come mostrato in Fig. 5. Il periodo dell’onda quadra di V2 viene dimensionato in modo tale che in corrispondenza del sedicesimo impulso di clock sia trascorso un tempo pari a quello che occorre per fumare una sigaretta classica. Nel nostro caso, è stato dimensionato il periodo del generatore di clock V2 in 95 A. Giorgio modo che al sedicesimo impulso di clock sia trascorso un intervallo di tempo pari a 3 minuti: f = 88mHz →T = 1/0.088Hz = 11,36 sec. ⇒ T × 16 ≈ 180 sec. Avviata la simulazione, quando gli interruttori del dip switch S1 che simulano le variabili di ingresso relative a batteria, inalazione e temperatura sono aperti, la e-cig si trova in modalità standby. In questo caso il contatore asincrono U3, che si occupa del conteggio del tempo trascorso dalla prima inalazione da parte dell’utente, e il contatore asincrono U4, che si occupa di mantenere attivo il warning di fine sigaretta, sono disabilitati. Quando l’interruttore relativo alla variabile della batteria è chiuso, si ottengono da parte del LED verde una serie di cinque lampeggi per la notifica di batteria scarica e questo avviene indipendentemente dallo stato delle altre variabili. Quando l’interruttore relativo alla batteria è aperto mentre gli interruttori relativi a inalazione e temperatura sono chiusi, si accende il LED rosso allo scopo di notificare all’utente che la temperatura ha raggiunto il limite di rottura del riscaldatore. Quando, invece, gli interruttori del dip switch S1 relativi alle variabili batteria e temperatura sono aperti, mentre quello dell’inalazione è chiuso, si ottiene la condizione di normale funzionamento della e-cig. In tal caso, l’interruttore S2 si chiude e attiva il LED verde per tutta la durata del tiro e, nello stesso istante, il contatore asincrono U1 conta il primo impulso di clock con il display che si porta da 0 a 1, e viene attivato il contatore asincrono U3, in quanto sull’ingresso S del SR Latch1 arriva un livello logico alto che porta l’uscita Q ad un valore alto, mentre l’uscita Q’ viene portata da un livello alto al livello basso. Quando l’utente effettua il decimo tiro e il tempo trascorso dalla prima inalazione è minore di tre minuti, l’uscita della porta AND3 si porta ad un livello logico alto e di conseguenza anche l’uscita della porta OR si porta ad un livello logico alto che viene sfruttata sia per resettare il contatore asincrono U1 che si occupa del conteggio dei tiri, che per resettare il contatore asincrono U3 che si occupa del conteggio del tempo attraverso l’SR Latch1, in quanto il valore logico alto sull’ingresso R produce un’uscita Q’ a valore logico alto. Inoltre, dato che il livello logico alto proveniente dalla porta OR ha una durata molto breve, viene utilizzato un SR Latch2 che si occupa di memorizzare il livello dell’uscita: in tal caso l’uscita Q del SR Latch2 passa da un valore logico basso ad uno alto e viene utilizzata sia per alimentare il blocco 555 Astabile_2, che si occupa della notifica attraverso il LED verde, sia di attivare il contatore asincrono U4 in quanto in questa situazione l’uscita della porta NOT viene a trovarsi ad un livello logico basso. Dopo in intervallo di tempo pari a 32 secondi, durante il quale avviene la segnalazione relativa al controllo di fine sigaretta, l’uscita dalla porta AND5 si porta un livello logico alto che viene mandato sull’ingresso 96 La Comunicazione N.R.& N. Elettronica del fumo digitale Digital Smoke Electronics R del SR Latch2 in modo da portare l’uscita Q dal livello alto a basso e di conseguenza disabilitare sia il contatore asincrono U4 che il blocco 555 Astabile_2 in modo da riportarsi nuovamente in standby. Se l’utente effettua un numero di tiri minore di dieci e il tempo trascorso dalla prima inalazione risulta essere maggiore di tre minuti, in uscita dalla porta AND4 si produce un livello logico alto. Di conseguenza, anche l’uscita della porta OR è alta e viene sfruttata per resettare entrambi i contatori asincroni U1 e U3 che si occupano del conteggio del numero di tiri e del tempo, rispettivamente. L’uscita della OR viene memorizzata dal SR Latch2 e in tal caso la sua uscita Q si trova ad un valore logico alto e viene utilizzata sia per alimentare il blocco 555 Astabile_2, che si occupa della notifica attraverso il LED verde, sia di attivare il contatore asincrono U4 in quanto in questa situazione l’uscita della porta NOT viene a trovarsi ad un livello logico basso. Dopo un intervallo di tempo pari a 32 secondi, durante il quale avviene la segnalazione relativa al controllo di fine sigaretta, l’uscita della porta AND5 si porta un livello logico alto che viene mandato sull’ingresso R del SR Latch2 in modo da portare l’uscita Q dal livello alto a basso e, di conseguenza, disabilitare sia il contatore asincrono U4 che il blocco 555 Astabile_2 in modo da riportarsi nuovamente in standby. Figura 6. Forme d’onda risultanti dalla simulazione durante il controllo di fine sigaretta derivante dal conteggio del numero di tiri In Figura 6 e 7 sono mostrate le forme d’onda associate al warning notificato all’utente quando vengono effettuate dieci inalazioni in meno di tre minuti. 97 A. Giorgio Quando l’utente inala per la prima volta, sull’ingresso S del SR Latch1 arriva un livello logico alto che porta l’uscita Q’ da un livello alto ad un livello basso come si vede in Fig. 6, in modo da attivare il contatore asincrono U3 che si occupa del conteggio del tempo trascorso dalla prima inalazione da parte dell’utente. Successivamente vengono effettuati ulteriori tiri, e quando viene effettuato il decimo in meno di tre minuti, viene attivato il controllo di fine sigaretta legato al numero di tiri: in tal caso si può osservare che l’uscita Q’ del SR Latch1 si riporta ad un livello logico alto in modo da resettare il contatore U3 e nello stesso momento viene resettato anche il contatore U1, che si occupa del conteggio dei tiri. In Fig. 7 si può osservare che in corrispondenza del decimo tiro l’uscita Q del SR Latch2 si porta dal valore logico basso ad alto, che consente di attivare il contatore asincrono U4 che mantiene attiva la segnalazione (warning) di fine sigaretta per circa trenta secondi, durante cui si hanno varie serie di tre lampeggi da parte dell’indicatore a LED. Alla stessa maniera delle simulazioni fin qui descritte, sono state eseguite con il modello sviluppatp anche le simulazioni relative al funzionamento della e-cig assumendo che il warning di fine sigaretta si produca quando il computo del tempo di accensione raggiunge una soglia prefissata, benchè si siano conteggiati un numero di tiri minore di dieci. Anche in queste simulazioni si è verificato un comportamento della ecig corrispondente alle attese, a validazione del modello implementato. Figura 7. Forme d’onda risultanti dalla simulazione durante il controllo di fine sigaretta derivante dal conteggio tempo di on e numero di tiri 98 La Comunicazione N.R.& N. Elettronica del fumo digitale Digital Smoke Electronics 4. Conclusioni In questo articolo sono stati presentati gli aspetti tecnicoingegneristici caratterizzanti il funzionamento della sigaretta elettronica. Sono stati anche accennati aspetti strettamente medici del fumo digitale, inerenti i rischi per la salute da parte dei consumatori di e-cig. E’ stato quindi proposto un modello circuitale digitale utile alla simulazione della e-cig ovvero al suo progetto, includendo anche una novità introdotta dall’autore ovvero il controllo di fine sigaretta, correlando i criteri di controllo del tempo di “on” della e-cig e del numero di tiri (inalazioni da parte dell’utente) nella logica di controllo che gestisce le operazioni nella sigaretta elettronica, basandosi sia sul numeri di tiri che in media occorre effettuare per assumere un livello di nicotina analogo a quello che si potrebbe assumere fumando una sigaretta tradizionale, sia sulle statistiche dei tempi di combustione di una sigaretta tradizionale. L’esito delle simulazioni ha consentito di validare il modello sviluppato, che potrà essere utile in futuro per perfezionare la tecnologia del fumo digitale. 99 A. Giorgio Bibliografia. [1] Patent Herbert A. Gilbert, Smokeless non-tobacco cigarette, Publication number: US3200819A, http://worldwide.espacenet.com [2] Patent Hon Lik, A Non-Smokable Electronic Spray Cigarette, Publication number: CA2518174A1, http://worldwide.espacenet.com [3] www.besmoke.it/wp/e-sig-storia [4] www.comefunziona.net/arg/sigaretta-elettronica/3/ [5] www.esigarettaportal.it/forum/articoli/4209-che-cosa-entra-nellasigarettaelettronica-le-liquido-e-la-sua-composizione.html [6] www.airc.it/prevenzione-tumore/fumo/tabagismo-smetterefumare [7] U. Veronesi, http://scienza.panorama.it/salute/E-se-ci-fossero-solosigarette-elettroniche [8] S. Garattini, Sigaretta elettronica: ecco come la penso io, Oggi, 1 febbraio 2013 [9] Patent: Hon Lik, A capacitor sensor, Devices Employing the capacitor sensor and methods for their use, Publication number: WO2013016846, http://worldwide.espacenet.com [10] C. Colasanto, Come smettere di fumare con la sigaretta elettronica, Ariccia(RM), Editori Riuniti, Aprile 2013, pp. 43-44 e p. 70 [11] A. Giorgio, M. Guerra, La sigaretta elettronica: scienza e tecnica, ed. Gruppo Editoriale l’Espresso, Roma, 2014, ISBN: 9788891081254 [12], Christopher Bullen, et al. "Electronic cigarettes for smoking cessation: a randomised controlled trial." The Lancet 382.9905 (2013): 1629-1637 100 La Comunicazione N.R.& N. La Comunicazione N.R.&N. a), b) Stefano Penna , a) Silvia Di Bartolo , a) Vincenzo Attanasio , b) Akira Otomo , c) Leonardo Mattiello a) Istituto Superiore delle Comunicazioni e delle Tecnologie dell'Informazione (ISCOM) b) Advanced ICT Research Institute - National Institute of Information and Communications Technology (NICT), Kobe (Giappone) c) Dipartimento di Scienze di Base e Applicate per l`Ingegneria - Sapienza Università di Roma Tecnologie di fotonica integrata: dispositivi e applicazioni Integrated photonic technologies: devices and applications Sommario: L’affermazione recente della fotonica in silicio e più in generale della fotonica integrata sta introducendo una nuova tecnologia di base di dispositivi per applicazioni ad ampio spettro, dalla sensoristica all’ICT alle applicazioni più strettamente datacom. Attraverso gli strumenti di finanziamento del settimo programma quadro, negli ultimi anni l’Europa ha sviluppato diverse piattaforme tecnologiche per la realizzazione di dispositivi fotonici integrati, introducendo nuovi modelli di business basati sulla condivisione delle infrastrutture di fabbricazione tra più partner per consentire la sostenibilità economica dello sviluppo tecnologico. Il contributo descrive i progressi ottenuti nello sviluppo delle tecnologie fotoniche integrate, focalizzandosi sui recenti risultati della tecnologia ibrida SilicioOrganica (SOH), e fornisce una panoramica dei principali partenariati. Abstract: The recent success of Silicon Photonics and more generally of the integrated photonic technologies led to a new device concept for a wide range of applications, from sensors to ICT and datacom. Through the funding of the Framework Programmes (FP), the European Union supported the constitution of more technology platforms aimed at the fabrication of integrated photonic devices, easing the introduction of a new business model based on shared manufacturing facilities among more partners to enable the economical and financial sustainability of the technological development. The following contribution reports the main achievements of the different integrated photonic technologies, focusing on the recent results of the Silicon Organic Hybrid (SOH) technology, and provides an overlook of the main partnerships. 1. Introduzione L'ultima decade ha visto profondi mutamenti nel mondo industriale e tecnologico legato alla fotonica, da un lato con l’esplosione della bolla delle aziende “dot-com”, che dopo una crescita vorticosa ha subito una battuta di arresto nei primi anni del duemila a favore dell'economia di servizi basata sullo sfruttamento delle potenzialità della banda larga, come nel caso degli operatori OTT (Over The Top), dall'altro dai raggiunti limiti fisici e tecnologici del mondo 101 S.Penna, S.Di Bartolo,V.Attanasio, A.Otomo, L. Mattiello della microelettronica che proprio nella fotonica vedono una possibile soluzione, introducendo pertanto nuove prospettive di applicazione. Il risultato di questo processo di cambiamento, ancora in essere, e` nella definizione di Key Enabling Technology che l'Europa ha dato della fotonica all'interno del programma quadro Horizon2020, intendendo una tecnologia abilitante per l'innovazione in ambiti che spaziano oltre le pure tecnologie dell'informazione e della comunicazione (ICT), dalla sensoristica fino alla microelettronica e alle comunicazioni dati (datacom), che nell'attuale era dei data center costituiscono forse la principale area di sviluppo. I principali vantaggi delle tecnologie fotoniche derivano dalle peculiarità legate alla radiazione ottica, su tutte la larghezza della banda potenzialmente disponibile (centinaia di THz), fino a quattro ordini di grandezza superiore alla banda attualmente disponibile con le tecnologie elettroniche (decine di GHz). A questo proposito la Legge di Moore, una legge empirica del 1965 inizialmente mirata ad anticipare i trend di crescita delle prestazioni dei processori nel solo decennio seguente e dimostrandosi invece valida fino ad oggi, predice l'incremento della frequenza di clock dei processori e la conseguente riduzione di dimensioni dei transistor con un passo che si stima raggiungerà i limiti fisici entro il 2020 [1]. Tali limiti sono legati appunto al dominio elettrico dei segnali, per i quali una miniaturizzazione delle connessioni elettriche all'interno de e tra chip porta ad un incremento della potenza dissipata e soprattutto a valori di resistività maggiori che limitano la banda disponibile e quindi la velocità di elaborazione del dispositivo finale. Un'ulteriore considerazione riguarda l'aspetto energetico. Come anticipato, negli attuali processori basati su tecnologia elettronica CMOS l'incremento della velocità porta ad un aumento della potenza dissipata, in particolar modo nelle interconnessioni tra transistor, con un tetto massimo di potenza dissipabile pari a 200W per un'area di 2 cm2. Al raggiungimento di questo limite le attuali interconnessioni elettriche contribuiscono sensibilmente, con una crescita più che lineare all'aumento della frequenza di clock. Questo aspetto ha portato dagli anni 2000 all'introduzione del concetto di processori multi-core, basati su calcolo parallelo [1][2]. Da quanto sopra riportato ne consegue anche un aspetto meramente energetico, con la necessità di disporre di tecnologie a maggiore efficienza ovvero dal minore consumo, a parità di prestazioni garantite. Da questo punto di vista l'impiego di concetti legati alla fotonica ed in particolare mutuati dalle reti ottiche, come la multiplazione a divisione di lunghezza d'onda (Wavelength, Division Multiplexing, WDM), permettono di garantire un intrinseco parallelismo, oltre a larga banda e quindi alta velocità di elaborazione, sostanziale immunità dalle perdite capacitive e resistive tipiche delle connessioni metalliche e interferenza tra canali adiacenti comparabilmente nulla [1][2]. Per meglio comprendere l'impatto di 102 La Comunicazione N.R.& N. Tecnologie di fotonica integrata: dispositivi e applicazioni Integrated photonic technologies: devices and applications queste caratteristiche si possono citare i dati forniti da Google ed Amazon relativamente agli effetti che ha sul proprio fatturato il parametro di latenza, ovvero il tempo richiesto dalla rete internet per fornire all'utente le informazioni da lui richieste, che e` direttamente legato alla velocità di connessione. In particolare, per Google un incremento di mezzo secondo sul tempo medio di caricamento di una pagina di ricerca e` causa del 20% di riduzione del traffico di ricerca, mentre per Amazon 100 ms di aumento nel tempo di caricamento di una pagina portano ad un calo di vendite dell'1%. E` evidente come per queste aziende la latenza, dominata in particolare dalla velocità di trasferimento dati all'interno dei propri data centers, rappresenti il fulcro abilitante della generazione di profitto. Questo aspetto rappresenta il principale traino per lo sviluppo di interconnessioni interamente ottiche anche per infrastrutture di rete locale come i data centers, che richiedono di fianco alle prestazioni tipiche della banda ottica un livello di integrazione e miniaturizzazione molto elevato per trovare spazio all’interno delle server farm. Lo sfruttamento della fotonica in contesti attualmente dominati dalla microelettronica, con dispositivi fotonici in grado di garantire velocità elevate con minori consumi energetici, e` possibile unendo il concetto di dispositivo ottico al concetto di dispositivo integrato, con la definizione pertanto di circuito fotonico integrato o PIC (Photonic Integrated Circuit), ovvero un chip che è in grado di elaborare al suo interno l’informazione come segnale ottico implementando su un unico substrato o piattaforma le principali funzioni ottiche, quali ad esempio generazione di luce, ricezione, modulazione e filtro. Si deve comunque evidenziare come un chip interamente ottico abbia poco senso ai fini pratici, dal momento che l’informazione viene comunque generata e gestita come segnale elettrico, pertanto un PIC deve soddisfare anche la compatibilità con le tecnologie elettroniche, su tutte la CMOS, per potersi interfacciare in modo adeguato con costi contenuti, possibilmente condividendo anche la stessa piattaforma e auguratamente anche lo stesso flusso di processo di fabbricazione. Per questo motivo negli ultimi anni si e` imposta sempre più la Silicon Photonics [3], ad indicare la classe di dispositivi fotonici compatibili con il Silicio. Tale affermazione e` legata ad aspetti di carattere economico, considerando i forti investimenti in tecnologia richiesti da un impianto di produzione di chip, nell'ordine di qualche miliardo di dollari, che costituiscono una pesante barriera all'introduzione di tecnologie alternative su scala industriale. Storicamente ed attualmente le linee di produzione di chip sono state e sono tuttora dominate dalla tecnologia CMOS basata su Silicio ed il basso costo dei dispositivi prodotti, a fronte dell'ingente costo degli impianti di fabbricazione, e` assicurato dagli alti volumi di produzione e di mercato che consentono di ripartire in modo sostenibile i costi di investimento sugli impianti e lo sviluppo dei processi [4]. Ad oggi, gli sforzi delle aziende e degli enti di ricerca del 103 S.Penna, S.Di Bartolo,V.Attanasio, A.Otomo, L. Mattiello settore concentrati sullo sviluppo di dispositivi fotonici compatibili o integrabili su Silicio ha consentito di dimostrare separatamente tutte le principali funzionalità ottiche (generazione [5][6], rivelazione [7], modulazione [8]). Tuttavia la sfida maggiore è rappresentata proprio dall’integrazione di queste funzioni in un unico sistema che riproduca a livello di circuito nanometrico una rete ottica, da cui la definizione di on-chip networks. L'elemento chiave di un PIC, che rappresenta anche la principale differenza rispetto ad un chip prettamente elettronico, e` costituito dall'elemento di connessione: la guida d'onda. Se nei chip elettronici le frequenze specifiche dello spettro elettromagnetico consentono un trasferimento della radiazione tramite connessioni metalliche con dimensioni nell'ordine delle decine di nanometri (1 nm = 10-9 m), nei PIC la radiazione ottica deve essere confinata all'interno di guide d'onda che hanno dimensioni caratteristiche confrontabili con le lunghezze d'onda della radiazione stessa, nell’ordine di 100 nm – 1 µm. Questo rappresenta un primo limite dei PIC, ovvero l’impossibilità attualmente di portare il fattore di forma alla stessa scala attuale dei transistor CMOS, introducendo quindi un limite alla densita` massima di chip raggiungibile. Nella Silicon Photonics, l'impiego del Silicio come elemento guidante della luce permette di ottenere strutture altamente confinanti, quindi con basse perdite ottiche, legate all'alto contrasto di indice di rifrazione tra il nucleo, costituito di Silicio che ha indice di rifrazione nel vicino infrarosso pari a n=3.48, ed il substrato e, quando presente, il mantello (cladding), che sono tipicamente costituiti di materiali come Ossidi o altri dielettrici caratterizzati da indici di rifrazione con valori minori, compresi tra 1.44 e 2. Il contrasto d'indice che ne risulta si attesta intorno al 40%. Per avere un'idea di raffronto, nelle fibre ottiche in vetro, l’esempio più noto di guida d’onda ottica, il contrasto d'indice e` inferiore all’1%. Questa caratteristica dei PIC in Silicio consente di ottenere campi ottici estremamente confinati e pertanto rende possibile la realizzazione di dispositivi con minore fattore di forma e maggiore efficienza, come nel caso dei modulatori di fase, in cui le prestazioni e le dimensioni delle sezioni attive dipendono dal fattore di confinamento della radiazione ottica. Consentono inoltre di ridurre le dimensioni caratteristiche delle guide al di sotto di 1 µm, a fronte tuttavia di un incremento delle perdite ottiche. 2. Tecnologie Come anticipato, esistono differenti tipologie di piattaforme di integrazione fotonica, ognuna con una una sua particolare peculiarietà che ne rende possibile l’impiego per specifiche applicazioni. Tale diversità riflette la principale differenza tra l’elettronica integrata e la fotonica integrata, ovvero mentre l’elettronica integrata è chiaramente dominata dal Silicio, la fotonica integrata vede invece un’etereogeneità 104 La Comunicazione N.R.& N. Tecnologie di fotonica integrata: dispositivi e applicazioni Integrated photonic technologies: devices and applications di materiali impiegati per la realizzazione delle diverse funzionalità ottiche: semiconduttori elementari, come Silicio e Germanio, o composti, come Fosfuro d’Indio (InP) ed Arseniuro di Gallio (GaAs), materiali dielettrici, come Diossido di Silicio (SiO 2 ) o Nitruri di Silicio (Si 3 N x ), polimeri e cristalli non lineari come il Niobato di Litio (LiNbO 3 ). Questa eterogeneità di materiali è stata la principale barriera allo sviluppo dei PIC, ma come vedremo nel seguito oggi questa problematica viene affrontata con soluzioni promettenti e soprattutto con un sensibile cambio di appoccio allo sviluppo. La tecnologia fotonica integrata più compatibile con la tecnologia CMOS è la Silicon Photonics, che consente di ottenere dispositivi sostanzialmente passivi, privi cioè della funzione di generazione/amplificazione ottica, a fronte però di una più semplice integrazione con gli esistenti circuiti elettronici e di ottime prestazioni; la tecnologia basata su Fosfuro d’Indio, un semiconduttore del gruppo III-V, è invece l’unica per ora in grado di consentire la realizzazione di dispositivi attivi su chip grazie all’emissione dell’InP nelle lunghezze d’onda della banda C (1530 nm – 1565 nm), a fronte però di perdite ottiche su guida d’onda superiori di un ordine di grandezza al Silicio; da ultimo, la piattaforma basata su Nitruro di Silicio (Si 3 N 4 ) permette di ottenere guide d’onda con bassissime perdite ottiche su un ampio intervallo di lunghezze d’onda, dal visibile all’infrarosso, aggiungendo anche funzionalità termo-ottiche. 2.1 Silicon Photonics Quando si parla di Silicon Photonics, generalmente ci si riferisce a dispositivi basati su substrato di Silicon On Insulator (SOI), che in uno dei processi di fabbricazione più tipici è costituito da un wafer di Silicio, detto handle, al di sopra del quale viene “attaccato” (bonding) uno strato di Ossido di Silicio, l’isolante anche detto BOX (Buried Oxide), che sulla superficie superiore presenta un ulteriore film sottile di Silicio, detto seed [9]. Il Silicio seed ha la funzione tipicamente di core nelle guide d’onda mentre il BOX funge da mantello, oltre che da substrato, consentendo quindi una propagazione ottica con perdite ridotte. Come accennato in precedenza, l’elevato contrasto d’indice del Silicio rispetto al BOX consente di realizzare strutture con dimensioni caratteristiche intorno a 250 nm, a fronte però di maggiore perdita ottica (nell’ordine di 1 dB/cm), sensibilità alla polarizzazione e soprattutto un più difficile accoppiamento con la fibra ottica. E’ stata pertanto ipotizzata una differenziazione di guide d’onda a seconda del fine d’uso, puntando su strutture a dimensioni più ridotte per collegamenti intra ed inter-chip, in cui l’accoppiamento ottico in fibra non è necessario e soprattutto le lunghezze di collegamento tipiche sono sostanzialmente ridotte, ed impiegando strutture di dimensioni maggiori, nell’ordine di 2-3 µm, per i collegamenti di lunghezza maggiore, portando a perdite caratteristiche inferiori a 0.3 dB/cm, e per l’accoppiamento esterno in fibra [1]. 105 S.Penna, S.Di Bartolo,V.Attanasio, A.Otomo, L. Mattiello Dal momento che il Silicio è un materiale a band gap indiretto non può essere facilmente impiegato per la realizzazione di sorgenti ottiche; di conseguenza, la piattaforma SOI viene solitamente impiegata per la realizzazione di PIC sostanzialmente passivi. L’obiettivo di realizzare laser su Silicio, ad esempio tramite nanocristalli [10] o tramite drogaggio del Silicio stesso con materiali ad emissione IR come l’Erbio [10], costuisce oggi una sfida ancora aperta. A tal proposito, nel 2004 la University of California Santa Barbara [5] e in forma migliorata Intel nel 2005 [6] hanno dimostrato emissione laser da Silicio sfruttando l’effetto Raman, le cui effettive possibilità di integrazione a basso costo su chip devono comunque essere ancora dimostrate. Per questo motivo la Silicon Photonics basata su SOI viene considerata per lo più per dispositivi passivi, ovvero, oltre alle già citate guide d’onda: accoppiatori [11][12][13], riflettori di Bragg (DBR) [14], e AWG (Arrayed Waveguide Gratings) [15]. Per quanto riguarda la funzione di fotorivelazione, dal momento che il Silicio è trasparente alle lunghezze d’onda superiori a 1100 nm, si utilizza un film sottile di Germanio, che è compatibile con il processo CMOS, in posizione adiacente al core di Silicio per sfruttare l’accoppiamento dei modi evanescenti. Sono stati dimostrati rivelatori con bande fino a 120 GHz [16] e responsività superiore a 1.05 A/W [17], sebbene non integrati su piattaforma. 2.2 Fosfuro d’Indio La piattaforma basata su InP è quella che attualmente consente di realizzare i PIC più complessi, in particolare per le caratteristiche intrinseche del InP che permette l’implementazione di funzioni chiave dei circuiti fotonici come le funzioni attive di emissione laser e amplificazione. Pertanto i blocchi funzionali realizzabili coprono l’intera gamma delle funzioni ottiche, come illustrato nella tabella dell’Istituto COBRA (Communications Technologies Basic Research and Applications) dell’Università Tecnica di Eindhoven [18] riportata in figura 1, riassumbili in funzioni passive, modulatori di fase, amplificatori ottici e covertitori di polarizzazione [19]: accoppiatori MMI couplers ed AWG, switch ottici e modulatori, laser multi-lunghezza d’onda e tunabili, flipflops e convertitori di lunghezza d’onda ultraveloci, laser al picosecondo e splitter e convertitori di polarizzazione [18][19]. In modo simile alla microelettronica, le diverse funzioni si possono ottenere combinando tra loro i singoli blocchi funzionali. L’introduzione degli Arrayed Waveguide Gratings (AWG) ha consentito di incrementare la complessità dei PIC su InP, arrivando in tempi recenti ad ottenere chip fotonici con oltre 450 componenti integrati su singolo substrato [20][21]. A questo proposito, osservando i tempi di progresso e le prestazioni ottenute, il COBRA ha proposto un interessante parallelismo con la legge di Moore, di fatto confermandone la validità anche per la microfotonica integrata [19]. 106 La Comunicazione N.R.& N. Tecnologie di fotonica integrata: dispositivi e applicazioni Integrated photonic technologies: devices and applications I componenti passivi su InP godono di prestazioni non ottimali per quanto riguarda le perdite ottiche, che hanno in media un’ordine di grandezza superiore ai corrispettivi in Silicon Photonics. Di conseguenza si adattano per la realizzazione di chip ad elevata densità, in cui la lunghezza ottiche, ma non riescono a garantire un’efficiente connessione su lunghezze maggiori. Tuttavia, anche per incrementare le possibilità di applicazione della tecnologia InP, che come vedremo nella sezione successiva segue un nuovo approccio mirato a favorire lo sviluppo in chiave commerciale della fotonica integrata, un’intensa attività di R&D riguarda l’integrazione delle sorgenti e degli amplificatori InP su Silicon Photonics. Figura 1. Elementi circuitali e funzionalità ottiche nei circuiti fotonici integrati basati su piattaforma InP [18] Da questo punto di vista le difficoltà risiedono nella diversa costante reticolare tra InP e Silicio (variazione del 4%) e al diverso coefficiente di espansione termica, che rende impossibile applicare i metodi classici di bonding ad alta temperatura. Inoltre, il bonding pregiudica le possibilità di elevata portata di produzione ottenibile con la Silicon Photonics, riguardando un processo intrinsecamente più lento e delicato. Ad ogni modo, un’interessante alternativa ai processi di bonding a bassa temperatura basata su plasma di Ossigeno [22] è costituita dall’adesione mediante polimero, tipicamente DVS-BCB [23], tramite processi in soluzione liquida più a basso costo. 107 S.Penna, S.Di Bartolo,V.Attanasio, A.Otomo, L. Mattiello 2.3 Nitruro di Silicio La tecnologia basata su Nitruro di Silicio Si 3 N 4 consente di ottenere perdite minime pari a 0.00045 dB/cm [26], preservando tali caratteristiche anche in caso di bassi raggi di curvatura, necessari per connettere i blocchi del chip minimizzando il loro fattore di forma. In particolare determinante per ottenere simili prestazioni è la realizzazione di strutture caratterizzate dall’alternanza di Si 3 N 4 ed SiO 2 . Il processo di fabbricazione compatibile con la tecnologia CMOS è caratterizzato da processi di deposizione chimica in fase vapore (CVD) a bassa pressione. Questo processo permette di ottenere una composizione stabile dei materiali, requisito necessario per il controllo delle loro proprietà ottiche che influenzano le prestazioni della propagazione all’interno della guida d’onda. La finestra di trasmissione dei due materiali permette la realizzazione di guide a bassa perdita su un ampio intervallo spettrale, dal visibile violetto (400 nm) fino all’infrarosso (2350 nm), adattandosi pertanto ad applicazioni che vanno oltre le comunicazioni insenso stretto, includendo la sensoristica ed il biomedicale. Sono state definite tre geometrie di guida d’onda: box shell [24], doppia striscia [25] e filled box [26]. In particolare, altra peculiarietà delle strutture basate su Si3N4 nella tecnologia proprietaria TriPlex, è la possibilità di abbinare l’alto contrasto d’indice con l’accoppiamento ottico tra chip e fibra, due obiettivi che solitamente sono mutuamente esclusivi con strutture in Silicon Photonics [26]. 2.4 Silicon Organic Hybrid Technology Un ramo della Silicon Photonics basata sul SOI è la cosiddetta Silicon Organic Hybrid Technology (SOH) [27], che fa uso di materiali attivi di origine organica, come monomeri [27] e soprattutto polimeri [28][29], che introducono vantaggi come il basso costo di processo, in particolare per i polimeri dal momento che possono essere lavorati in fase liquida con tecniche di stampa, la facilità di integrazione legata alla loro natura amorfa che elimina le restrizioni dell’uguaglianza della costante reticolare con il Silicio e soprattutto le possibilità uniche e potenzialmente illimitate di migliorare o, usando un termine in voga nella comunità scientifica, “cucire” le proprietà dei materiali specificatamente per una determinata applicazione (molecular tailoring) tramite il design molecolare e la conseguente sintesi chimica. Quest’ultimo aspetto consente di ottenere materiali che in alcuni casi sorpassano in prestazioni gli analoghi inorganici. Un ulteriore vantaggio della tecnologia SOH è la sua completa compatibilità con il processo di fabbricazione CMOS, in particolare si configura come un processo di back-end, ovvero che si pone al termine del tipico flusso di processo CMOS, pertanto può essere integrato senza indurre variazioni nelle linee di produzione già presenti e per di più con processi di stampa, dai costi caratteristici trascurabili rispetto al resto della linea di produzione. Intrinsecamente, l’uso di materiali organici 108 La Comunicazione N.R.& N. Tecnologie di fotonica integrata: dispositivi e applicazioni Integrated photonic technologies: devices and applications consente di replicare le caratteristiche di basse perdite ottiche dei dispositivi basati su SOI dal momento che le condizioni di alto contrasto d’indice tra Silicio e polimeri sono preservate. L’applicazione più nota di tecnologia SOH è la modulazione di fase, ottenuta tramite l’impiego di polimeri elettro-ottici che mostrano coefficienti non lineari di molto superiori a 100 pm/V [30] (l’analogo inorganico, il Niobato di Litio, è nell’ordine di 30-40 pm/V). La tecnologia SOH è spesso associata alle guide d’onda slot [31] per via dell’elevata concnetrazione di campo ottico all’interno della struttura nanometrica. La guida d’onda slot è basata su tecnologia SOI e, sfruttando la forte discontinuità di campo elettrico tra il Silico ed il materiale che compone lo slot, solitamente un polimero o un Ossido di Silicio, induce un miglioramento del campo nella centrale regione di slot di un fattore pari al rapporto delle rispettive costanti dielettriche dei materiali, ovvero al quadrato degli indici di rifrazione, n Si 2/n slot 2=46, come si può osservare nel profilo di campo ottico mostrato in figura, con fattori di confinamento della radiazione ottica che superano il 30%. Accoppiando le guide d’onda slot ai materiali elettro-ottici è possibile ottenere modulatori di fase o anche, composti all’interno di strutture inteferometriche Mach Zender, modulatori di ampiezza che presentano valori di tensione V π inferiori ad 1V [32] e soprattutto bitrate superiori a 100 Gbit/s, con punte a 160 Gb/s [33]. Figura 2. Struttura di una guida d‘onda slot striploaded per modulatori fotonici in tecnologia SOH e immagine al microscopio elettronico (SEM) Utilizzando lo stesso tipo di materiali elettro-ottici è possibile realizzare anche la funzione di commutazione (switching) ad alta frequenza, necessaria per applicazioni specifiche come i data center in cui a breve termine saranno richiesti tempi caratteristici di switching nell’ordine dei nanosecondi, mentre allo stato dell’arte i tempi caratteristici sono nell’ordine dei ms, con valori di punta dimostrati nell’ordine dei 100 µs. Alcuni esempi, mirati per ora più alla dimostrazione concettuale, mostrano tensione di switching inferiore a 10V con un coefficiente nonlineare pari a 250 pm/V su lunghezza di accoppiamento di 1.7 cm [34]. Similmente ai materiali organici elettro-ottici è possibile utilizzare anche altri tipi di materiali che ben si accoppiano alla tecnologia SOI per la realizzazione di sorgenti o di fotorivelatori. 109 S.Penna, S.Di Bartolo,V.Attanasio, A.Otomo, L. Mattiello In particolare i materiali organici drogati con Erbio possono fungere da materiali attivi per la generazione/amplificazione della radiazione IR a 1550 nm all’interno del chip. A questo proposito sono stati dimostrati elettroluminescenza da LED organico cresciuto su Silicio con tecniche da vuoto [35] e di recente, con tecniche di processo in fase liquida, anche se non su subtrato di Silicio [36]. L’ISCOM ha un’attività in essere su quest’ultima linea che ha portato a risultati promettenti sia per quanto riguarda la realizzazione di guide d’onda con processi di fabbricazione interamente ottici [37][38], sia per le potenzialità di realizzazione di un dispositivo laser su Silicio [39] mediante tecniche di fabbricazione a basso costo come la litografia per Nanoimprinting [40] o nell’estremo ultravioletto (EUV) [39]. In aggiunta, mediante la collaborazione con l’Università La Sapienza di Roma sono state realizzate delle versioni avanzate dei monomeri drogati con Erbio in grado di migliorare l’efficienza di emissione e soprattutto di consentire una lavorazione interamente in fase liquida, condizione abilitante per un processo a basso costo su scala industriale [37][40]. Per quanto riguarda la funzione di fotorivelazione, l’esplosione recente del fotovoltaico organico ha portato a miglioramenti netti in termini di materiali attivi disponibili per l’assorbimento ottico, per lo più nel range visibile ma in prospettiva anche per il range del vicino infrarosso inbanda C. Al momento sono in essere diversi lavori di caratterizzazione ed ulteriore miglioramento dei materiali organici attivi in termini di massimizzazione della velocità di risposta, peculiarità dei fotorivelatori rispetto alle celle fotovoltaiche che lavorano con luce continua (f=0). Si può prevedere facilmente che l’immenso know how generato per il fotovoltaico organico in termini di design e sintesi di 110 Figura 3. Spettro laser preliminare di cavità laser DFB basata su Erbio trisidrossichinolina come materiale attivo per l’emissione a 1530 nm (banda C) [39] e immagine del reticolo DBR realizzato su wafer di Silicio con unico processo di stampa da nanoimprinting su larga area (10 2 cm ) [41] La Comunicazione N.R.& N. Tecnologie di fotonica integrata: dispositivi e applicazioni Integrated photonic technologies: devices and applications nuovi materiali per l’assorbimento ottico porterà allo sviluppo in tempi brevi di materiali in grado di competere con i loro equivalenti inorganici. Da questo punto di vista è stato domostrato un fotorivelatore con una larghissima risposta spettrale (300–1450 nm), alta rivelabilità (1012−1013 cm Hz 0.5 W–1) e un intervallo dinamico lineare (>100 dB), in grado pertanto di competere direttamente con rivelatori in Silicio e InGaAs [42]. Una delle principali problematiche derivanti dall’uso dei materiali organici in elettronica è legato alla stabilità. Tuttavia, un lavoro di sviluppo specifico in tal senso ha portato già a dimostrare la compatibilità di alcuni prototipi come i modulatori polimerici ai protocolli di certificazione Telcordia, ovvero previsti dall’associazione delle industrie di telecomunicazione statunitensi, che fungono da standard di stabilità [43][44]. Come già riportato in precedenza, ciascuna di queste tecnologie gode di vantaggi e svantaggi legatti alle proprie cararteristiche specifici. Pertanto, nell’ottica di convogliare gli sforzi verso obiettivi comuni, l’approccio che domina il periodo corrente è l’integrazione tra le diverse tecnologie integrate, in modo tale da ampliare la gamma di applicazioni possibili e migliorare le prestazioni ottenibili. Come accennato, ci sono diverse alternative proposte per l’integrazione dei dispositivi attivi in InP su Silicon Photoncs, sebbene il ricorso al bonding tende comunque ad innalzare i costi di fabbricazione se pensati su processo in linea [45]. Di recente, ad inizio 2015, alcuni dei partner di jEPPIX insieme a Lionix hanno annunciato l’integrabilità della tecnologia InP su Triplex [46], in grado qundi di combinare le funzioni attive dell’InP con le eccellenti proprietà guidanti per applicazioni nel visibile e nel vicino infrarosso del Triplex. 3. Piattaforme Tecnologiche e Generic Foundry Model Come citato in precedenza, una linea di processo per la fabbricazione di chip ha costi proibitivi, sia per chip elettronici che per PIC. Si consideri ad esempio che la realizzazione di una singola maschera litografica ad elevata densità ha costi nell’ordine dei $ 100.000 e che per un intero processo possono occorrere fino a 40 maschere. Tuttavia, come detto, l’industria microelettronica può ripartire questi costi su un elevato volume di produzione legato alle enormi richieste di mercato, con quantiaà di lavorazione di circa 1.000-10.000 wafer per settimana su una singola linea [4]. Nel caso dei PIC, non esiste ancora un mercato caratterizzato da simili volumi di richiesta. In realtà per la quasi totalità delle applicazioni non esiste ancora un mercato, per cui gli elevati costi di sviluppo tendono a limitare il numero di attori del settore a pochi soggetti con disponibilità 111 S.Penna, S.Di Bartolo,V.Attanasio, A.Otomo, L. Mattiello finanziarie adeguate. In aggiunta, la forte etereogeneità di materiali e quindi di processi tecnologici per la realizzazione delle singole funzioni ottiche tende ad innalzare ulteriormente i costi di sviluppo [19]. Tuttavia, proprio per far fronte a queste barriere, si è affermato un nuovo modello basato sulla condivisione delle onerose infrastrutture tecnologiche con la realizzazione di piattaforme tipicamente a iniziale sovvenzione pubblica. Il concetto di riferimento è quello di Multi Project Wafer (MPW), mutuato dall microelettronica, ovvero un wafer al cui interno sono raccolti i design di dispositivi provenienti da diversi clienti o partner fino saturarne l’intera area, consentendo di ripartire i costi di realizzazione tra più progetti e creando quindi un business sostenibile sia per il realizzatore che per il cliente [47]. Questo modello di sviluppo consente la nascita di un indotto legato a singole competenze della catena del valore, come la progettazione, il testing, l’integrazione, lo sviluppo di proprietà intellettuali, incrementando la nascita di aziende anche di piccole dimensioni ma dall’alto contenuto tecnologico [8]. Inoltre un sistema di questo tipo favorisce la nascita delle fabless companies, ovvero delle aziende senza impianto di fabbricazione proprietario (fab), che possono sviluppare componenti per specifiche applicazioni, denominati ASPIC (Application Specific PIC), demandando la realizzazione alla specifica piattaforma tecnologica. Tramite lo strumento dei programmi quadro FP6 ed FP7, l’Europa ha investito pesantemente nel supporto alla nascita delle piattaforme europee, in particolare tramite la Network of Excellence ePIXnet (European Photonic Integrated Components and CircuitS Network) del programma FP6. La vision di sviluppo del modello di Fonderia Generica (Generic Foundry Model) applicato alla fotonica integrata è stato introdotto proprio in ePIXnet [48]. Dalla rete di ePIXnet sono nati dei consorzi tecnologici a partecipazione pubblica e privata, come ePIXfab, che è la piattaforma di riferimento per la tecnologia SOI legata dal punto di vista dei processi ai centri IMEC (belgio) e CEA-LETI (Francia), e jEPPIX (Joint European Platform on Photonic Integrated CrcuitS), basata sulla tecnologia in Fosfuro di Indio e legata per la maggior parte della partnership al polo tecnologico di Eindhoven (Paesi Bassi). In aggiunta, sempre originata da ePIXnet, si è affermata la tecnologia Del consorzio Triplex basata su Nitruro di Silicio, attualmente sviluppata dall’azienda olandese Lionix. Ultimo “prodotto” di ePIXnet è la piattaforma ePIXpack per lo sviluppo di tecnologie di packaging specifiche per i chip fotonici. Attualmente il costo del packaging, che diversamente dai chip elettronici è legato alle problematiche di accoppiamento della luce in fibra, tende a superare di un ordine di grandezza il rimanente costo del chip, con una percentuale sul costo totale stimato al 94% (fonte: FP7 Fabulous project). 112 La Comunicazione N.R.& N. Tecnologie di fotonica integrata: dispositivi e applicazioni Integrated photonic technologies: devices and applications In ambito extra-Europeo è degna di nota la piattaforma a matrice statunitense OpSis, giunta a conclusione a inizio 2015, legata all’Università di Delaware e costituita da una rete di collaborazione che ha visto partecipi anche le aziende leader della Silicon Photonics della Silcon Valley come Luxtera e Kotura (ora all’interno di Mellanox), le quali dispongono ognuna di linee di fabbricazione dedicate su SOI con risoluzione rispettivamente di 200 nm e 150 nm [47], l’agenzia tecnologica di Singapore ASTAR, Hewlett-Packard e BAE Systems. La funzione di supporto pubblico che in Europa è assolta dai programmi quadro, con impegni rinnovati anche all’interno dell’attuale programma Horizon2020 per lo sviluppo di applicazioni di fotonica integrata in ambito ICT e datacom, negli USA è svolta da DARPA (Defense Advanced Research Projects Acency), che ha lanciato diversi programmi di finanziamento come UNIC, mirati principalmente ad applicazioni in ambito HPC (High Performance Computing). In Italia si annota la recente inaugurazione del centro InPhoTec (Integrated Photonic Techology center) all’interno del polo di ricerca CNR-Scuola Sup. Sant’Anna di Pisa, interamente dedicato alla realizzazione di dispositivi fotonici integrati, includendo l’attività di packaging che attualmente rappresenta uno dei principali colli di bottiglia per lo sviluppo commerciale dei PIC. Conclusioni Come detto, per garantire l’esplosione commerciale della fotonica integrata, nonostante gli indiscussi vantaggi e potenzialità, dipende dalle dimensioni del mercato di riferimento. Attualmente c’è un forte impegno nello sviluppo di interconnessioni ottiche, in particolare dedicate ad applicazioni in data centers e per i microprocessori, e nel campo della sensoristica in fibra, tutti settori caratterizzati da enormi potenziali volumi di richiesta che faciliterebbero lo sviluppo commerciale e prima ancora lo sviluppo tecnologico. 113 S.Penna, S.Di Bartolo,V.Attanasio, A.Otomo, L. Mattiello Bibliografia. [1] M. Ashgari, A. V. Krishnamoorty, Energy-efficient communication, Nature, 5, p. 268-270, 2011 [2] Y. Arakawa et al., Silicon Photonics for Next Generation System Integration Platform, IEEE Communications Magazine (2013) [3] B. Jalali et al., Silicon photonics, J. Lightwave Technol. 24(12), p. 4600-4615, 2006 [4] T.W. Baehr-Jones, Myths and rumours of silicon photonics, Nature Photonics, 6, p. 206-208 (2012) [5] O. Boyraz et al., Demonstration of a silicon Raman laser, Opt. Exp., 12 (21), p. 5269-5273 (2004) [6] H. Rong et al., A continuous-wave Raman silicon laser, Nature 433, p. 725-728 (2005) [7] Liao S, Feng N, Feng D, Dong P, Shafiiha R, Kung C, Liang H, Qian W, Liu Y, Fong J, Cunningham J, Luo Y, Asghari M. 36 GHz submicron silicon waveguide germanium photodetector. Optics Express,19, p. 10967– 10972 (2011) [8] M. Hochberg et al., Towards fabless silicon photonics, Nature Photonics, 4, p. 492-494 (2010) [9] B Aspar et al., The generic nature of the Smart-Cut® process for thin film transfer, Journal of Electronic Materials, Vol. 30, No. 7, 2001 [10] F. Priolo et al., Silicon nanostructures for photonics and photovoltaics, Nature Nanotechnologies, 9, p.19-32 (2014) [11] Na Net al., Efficient broadband silicon-on-insulator grating coupler with low backreflection. Opt. Lett. 36, p2101–3 (2011) [14] Wang X et al, Narrow-band waveguide Bragg gratings on SOI wafers with CMOS-compatible fabrication process. Opt. Exp. 20, p.15547–58 (2012) [15] Fu X, Dai D., Ultra-small Si-nanowire-based 400 GHz-spacing 15 X 15 arrayed-waveguide grating router with microbends, Electron Lett. 47, p. 266–8 (2011) [16] Vivien L. et al., Zero-bias 40 Gbit/s germanium waveguide photodetector on silicon. Opt Exp., 20, p. 1096–101 (2012) [17] Liao S. et al., 36 GHz submicron silicon waveguide germanium photodetector, Opt. Exp. 19 p. 10967–72 (2011) [18] M. Smit et al., An introduction to InP-based generic integration technology, Semiconductor Science and Technology, 29, p. 1-41 (2014) [19] G. Gilardi et al., Generic InP-Based Integration Technology: Present and Prospects, Progress In Electromagnetics Research, 147, p. 23–35 (2014) [20] COrzine S W, Large-scale InP transmitter PICs for PM-DQPSK fibre transmission systems, Photon. Technology Letters, 22, p. 1015-1017 (2010) 114 La Comunicazione N.R.& N. Tecnologie di fotonica integrata: dispositivi e applicazioni Integrated photonic technologies: devices and applications [21] Stabile R et al., Monolithic active-passive 16x16 optoelectronic switch, Optics Letters, 37, p. 4666-4668 [22] D. Liang et al., Hybrid Integrated Platforms for Silicon Photonics, Materials, 3, p. 1789-1802 (2010) [23] Roelkens et al., Adhesive bonding of InP/InGaAsP Dies to Processed Silicon-On-Insulator wafer using DVS-bis-Benzocyclobutene, J. Electrochem Soc., 153, G1015-G1019 (2006) [25] J. F. Bauters et al., Planar waveguides with less than 0.1 dB/m propagation loss fabricated with wafer bonding, Optics Express, vol. 19, no. 24, pp. 24090– 24101, Nov. 2011. [Zhuang] L. Zhuang et al.,, Low-loss, high-index-contrast Si3N4/SiO2 optical waveguides for optical delay lines in microwave photonics signal processing, Optics Express, vol. 19, no. 23, pp. 23162–23170, Nov. 2011 [24] K. Wörhoff et al., TriPleX: a versatile dielectric photonic platform, Advanced Optical Technologies, 4 (2), p. 189–207 (2015) [26] Leinse A. et al., TriPleXTM platform technology for photonic integration: applications from UV through NIR to IR, IEEE 2011 [27] J. Leuthold et al., Silicon Organic Hybrid Technology - A Platform for Practical Nonlinear Optics, Proceedings of the IEEE, 97 (7), p. 13041316 (2009) [Baehr Jones] T.W. Baehr Jones et al., Polymer Silicon Hybrid Systems: A Platform for Practical Nonlinear Optics, J. Phys. Chem. C, 112, 8085– 8090 (2008) [29] F. Qiu et al., A hybrid electro-optic polymer and TiO2 double-slot waveguide modulator, Scientific Reports, 5, 8561 (2014) [30] Y. Enami et al., Hybrid polymer/sol–gel waveguide modulations with exceptionally large electro–optic coefficients, Nature Photonics, 1, p. 180-185 (2007) [31] V. Almeida et al., Guiding and confining light in void nanostructure, Optics Letters, 29(11), p. 1209-1211 (2004) [32] T. Baehr-Jones et al., Nonlinear polymer-clad silicon slot waveguide modulator with a half wave voltage of 0.25 V, Appl. Phys. Lett., 92 1633031-3 (2008) [33] 40 GBd 16QAM Signaling at 160 Gbit/s in a Silicon-Organic Hybrid (SOH) Modulator, Journal of Light. Tech., 2015 [34] Silicon/electro-optic polymer hybrid directional coupler switch, Proc. SPIE 8991, Optical Interconnects XIV, 89910Q (2014) [35] W.P. Gillin et al., Erbium (III) tris (8-hydroxyquinoline)(ErQ): A potential material for silicon compatible 1.5 m emitters, Applied Phys. Lett., 74 (6), p. 798-799 (1999) [36] P. Martìn-Ramos et al., Active layer solution-processed NIR-OLEDs based on ternary erbium(III) complexes with 1,1,1-trifluoro-2,4pentanedione and different N,N-donors, Dalton Trans., 43, p. 1808718096 (2014) 115 S.Penna, S.Di Bartolo,V.Attanasio, A.Otomo, L. Mattiello [37] S. Penna et al., Applications and low cost processing of Erbium Quinolinolates for active integrated photonic devices, Proc. IEEE Int. Conf. Transaprent Optical Networks (2014) [38] S. Penna et al., Opportunities for low Cost Processing of Erbium 8Quinolinolates for Active Integrated Photonic Applications, Journal of Nanoscience and Nanotechnology (2015) in fase di stampa [39] S. Prezioso et al., Infrared photoluminescence of erbium-tris (8hydroxyquinoline) in a distributed feedback cavity, Journal of Luminescence, 131 (4), p. 682-685 (2011) [40] S. Penna et al., Towards the implementation of an organic inorganic laser for next generation optical applications, Proc. Of Conference on Laser and Electro-Optics (2010) [41] S. Penna et.al., Near-Infrared luminescent properties of halogenated tetrakis erbium quinolinolates for photonic applications , in preparazione [42] Gong, X. et al., High-detectivity polymer photodetectors with spectral response from 300 nm to 1450 nm. Science 325, 1665–1667 (2009) [43] M. Lauermann et al., 64 GBd Operation of a Silicon-Organic Hybrid Modulator at Elevated Temperature, Optical Fiber Communication Conference 2015, Tu2A.5 (2015) [44] R. Dinu et al., Environmental stress testing of electro–optic polymer modulators, Journal of Lightwave Technology Vol. 27, Issue 11, pp. 1527-1532 (2009) [45] J.T Robinson et al., First-principle derivation of gain in high-index contrast waveguides, Optics Express, 16 (21), p. 16659-16669 (2008) [46] http://www.vlcphotonics.com/2015/02/02/new-photonicintegration-platform-available-combining-inp-and-triplex-tmtechnologies/ [47] A. Eu-Jin Li et al., Review of Silicon Photonics Foundry Efforts, IEEE J. Sel. Top. Quantum Electr., 4 (20), 2014 [48] http://www.epixnet.org/uploads/media/visionphotonicsfoundryvs16. doc 116 La Comunicazione N.R.& N. La Comunicazione N.R.&N. Silvia Di Bartolo , Vincenzo Attanasio , Stefano Penna Donato Del Buono Istituto Superiore delle Comunicazioni e delle Tecnologie dell'Informazione (ISCOM) Applicazione dell’ibrido fibra-FSO per collegamenti bidirezionali passivi su reti d’accesso ad alta velocità Application of the hybrid fiber-FSO systems for passive duplex links in high speed access networks Sommario: negli ultimi decenni, il rapido aumento della richiesta di banda dovuta sia ai servizi di nuova generazione che alle nuove tecnologie sia all’aumento del traffico dati, ha reso indispensabile l’ammodernamento delle infrastrutture di telecomunicazione. Nello scenario della rete d’accesso, la tecnologia FTTx risponde sia alla necessità di banda ultralarga che a quella di avere una rete scalabile e flessibile, come richiesto per le reti di nuova generazione. In particolar modo, la tecnologia di tipo PON, Passive Optical Network, fornisce una soluzione a basso costo ed efficiente da un punto di vista energetico per operare come unica infrastruttura per diversi tipi di servizi o per differenti operatori attraverso una semplice architettura puntomultipunto (P2MP). Tanti sono gli studi riportati in letteratura sull’analisi della fattibilità e dei vantaggi apportati dal ibrido fibra-radio che unisce il meglio della tecnologia PON con il meglio della tecnologia wireless come WiFi o LTE. In questo lavoro viene analizzata la possibilità di aumentare la copertura della rete in fibra, li dove sia un problema la posa della fibra stessa, attraverso collegamenti in tecnologia free space optics. Abstract: In the last decade, the rapid increasing of broadband request by residential and business customers due to the new services and technologies on one hand and the growth of Internet traffic on the other hand made the improvement of the telecommunication infrastructure necessary. In the access network scenario, the FTTx technology complies with the need for high scalability and flexibility required in new generation networks. In particular, Passive Optical Networks (PONs) provide a low cost and energy efficient solution to operate as a single infrastructure of different telecommunication services or of different operators through a very simple point-tomultipoint (P2MP) architecture. Many studies have been reported in literature focused on the feasibility and benefits analysis of the hybrid fiber-radio that combines the best of PON technology with the best of wireless technology, such as WiFi or LTE. In this paper we analyze the possibility to increase the coverage of the fiber network through 117 S. Di Bartolo , V. Attanasio , S. Penna, D. Del Buono connections in free space optical technology, where in the fiber deployment is an issue. Introduzione Negli ultimi decenni, il rapido aumento della richiesta di banda da parte sia degli utenti residenziali che business, dovuta tanto ai nuovi servizi e tecnologie quanto all’aumento del traffico dati, ha reso indispensabile l’ammodernamento delle infrastrutture di telecomunicazione. Nello scenario della rete d’accesso, le tecnologie ottiche sono ottimi candidati per il rinnovamento delle infrastrutture di rete. Fiber To The x (FTTx), dove la x indica C=Curb, H=Home, B= Building, etc, risponde sia alla necessità di banda ultralarga che alla necessità di avere una rete scalabile e flessibile, come richiesto per le reti di nuova generazione. In particolar modo, la tecnologia di tipo PON, Passive Optical Network, fornisce una soluzione a basso costo ed efficiente da un punto di vista energetico [1] per operare come unica infrastruttura per diversi tipi di servizi o per differenti operatori attraverso una semplice architettura punto-multipunto (P2MP). Tale architettura mette in contatto la centrale operativa (CO) con i terminali d’utente attraverso un link passivo in fibra ottica singolo modo. Nella centrale, l’apparato di rete OLT (Optical Line Terminal), connette la rete d’accesso PON alla rete metropolitana; lato utente la conversione elettro-ottica è realizzata dall’Optical Network Unit (ONU). Il link in fibra ottica e un nodo passivo, che costituiscono la rete di distribuzione, trasportano sia il segnale di downstream generato dalla centrale che di upstream generato dalle varie ONU [2]. Il mezzo può essere condiviso attraverso diverse tecniche secondo cui diverse configurazioni di PON sono possibili. Nelle reti tradizionali Time Division Multiplexing PON (TDM PON), gli utenti comunicano con la centrale utilizzando un’unica lunghezza d’onda, fissata a 1490nm per il segnale di downstream e 1310nm per quello di upstream. Le ONU condividono tali lunghezze d’onda con una tecnica a divisione di tempo TDM/TDMA per downlink e uplink rispettivamente. Le TDM PONs hanno dei costi per utente molto bassi se comparati con le altre reti di accesso di tipo PON. Il nodo remoto è costituito da un semplice accoppiatore passivo che divide la 118 La Comunicazione N.R.& N. Applicazione dell’ibrido fibra-FSO per collegamenti bidirezionali passivi su reti d’accesso ad alta velocità Integrated photonic technologies: devices and applications potenza ottica tra le varie ONU introducendo elevate attenuazioni rispetto alla potenza di ingresso al nodo passivo. L’OLT assegna un intervallo temporale a ciascuna ONU per la trasmissione del segnale di upstream [3]. Per aumentare la banda trasmissiva di ogni utente, è possibile usare la tecnica di Wavelength Division Multiplexing (WDM), che permette di inviare contemporaneamente diverse lunghezze d’onda su un’unica fibra singolo modo ed associare ogni lambda ad un singolo utente. Nelle WDM PON il nodo remoto è costituito da un accoppiatore di lunghezze d’onda passivo, come per esempio un AWG (Arrayed Waveguide Grating), che multipla e demultipla le varie lunghezze d’onda verso e da le ONU assegnate. In questo caso il nodo remoto presenta delle perdite in potenza molto più basse rispetto ad un semplice accoppiatore passivo. Ogni ONU può trasmettere sfruttando pienamente la banda trasmissiva di uplink e senza interruzioni temporali [4]. Altre possibili progettazioni per le PON si basano su tecniche di multiplazione SCM, Sub-Carrier Multiplexing, su OFDM, Orthogonal Frequency Division Multiplexing, o CDM, Code Division Multiplexing che hanno un’alta efficienza di banda ma con costi ridotti rispetto alle WDM PON. Nelle SCM PON [5], ogni ONU ha un sottoportante elettrico dedicato per comunicare con la OLT e non è necessario alcun tipo di sincronismo. Per evitare interferenze sul segnale di upstream, la lunghezza d’onda usata da ogni ONU è leggermente desintonizzata rispetto alle altre. Nelle CDM PON [6], ogni ONU è associata ad un codice specifico e può trasmettere e ricevere in ogni momento sfruttando la stessa architettura di rete che si utilizza nelle TDM PON. Nelle OFDM PON [7], il segnale OFDM supporta alti bit rate, per esempio 100Gbps, a discapito di una maggiore complessità e un maggior costo del dispositivo ricetrasmittente rispetto alle TDM PON. Un altro approccio di progettazione delle PON importante è quello dell’integrazione di diversi tipi di PON, come quello TDM/WDM PON, che permette di raggiungere migliori performance in termini di banda per utente [8][9]. Sistemi fibracoassiale (HFC) sono stati proposti per trasportare altri servizi come la TV via cavo (CATV) su architetture di tipo PON. Questi sistemi permettono di realizzare convergenza dei servizi riducendo i costi di gestione della rete sia di semplificare la rete 119 S. Di Bartolo , V. Attanasio , S. Penna, D. Del Buono coassiale con una riduzione del numero di amplificatori necessari lungo la tratta [10]. Sono stati anche realizzati [26] esperimenti sul trasporto del segnale TV di tipo DVB-T in fibra ottica, dimostrando la flessibilità della rete al trasporto di servizi di natura differente dal traffico internet. I concetto dei servizi di nuova generazione è ben racchiuso nel termine “internet delle cose”. In questa visione ubiquita futura, una importante caratteristica della rete d’accesso è la capacità di fornire connettività di tipo wireless. A questo riguardo, i sistemi ibridi fibra aria sono ottimi per unire le peculiarità della tecnologia PON, come l’alta capacità, con il meglio della tecnologia wireless, cioè l’ubiquità, dando vita ad un ottimo candidato per le reti d’accesso di nuova generazione. L’ibrido fibra-radio In questo scenario dell’ibrido tra fibra e tecnologia d’accesso radio molte soluzioni sono state studiate e presentate da diversi gruppi di ricerca. L’architettura comunemente riportata si basa su tecnologia PON, con ONUs equipaggiate con interfaccia wireless per operare la conversione ottica-radioelettrica, e viceversa, e combinare le funzioni classiche delle ONU con le funzionalità del front-end wireless. Il front end wireless può essere incorporato dalla ONU oppure quest’ultima può essere connessa via cavo ad un access point o ad una base station a seconda della tecnologia wireless utilizzata. Figura 1. Configurazione tipica di un sistema wireless ibrido fibra-radio 120 La Comunicazione N.R.& N. Applicazione dell’ibrido fibra-FSO per collegamenti bidirezionali passivi su reti d’accesso ad alta velocità Integrated photonic technologies: devices and applications Diversi acronimi vengono usati per identificare le reti ibride, come: HOWAN, Hybrid Optical-Wireless Access Network, ii) WOBAN, Wireless-Optical Access Network, iii) FiWi. Per tutti questi approcci la rete in fibra è intesa essere una rete di tipo PON. Le soluzioni wireless esplorate sono di tipo LTE (Long Term Evolution), WiMAX (Worldwide Interoperability for Microwave Access) o WiFi. WiMax (IEEE 802.16) è nato per accesso alla rete sia fisso che mobile, fornendo un data rate fino a 75Mbps su collegamenti di circa 5km [11]. Lo standard del WiMAX prevede l’implementazione di due tipi diversi di architettura, che sono una di tipo punto-multipunto (P2MP) e l’altra di tipo Mesh. In quella di tipo P2MP, ogni stazione radio base (BS, base station) gestisce un gruppo di utilizzatori (SS, subscriber station) e ogni comunicazione è gestita dalla BS; nella topologia di tipo Mesh, ogni SS può comunicare direttamente con altri SS senza essere gestiti dalla BS [12]. LTE è l’ultimo standard commerciale per le comunicazioni mobili che offre collegamenti a 100Mbps su più di 5km, con capacità di cella fino a 200 utenti [o]. Lo standard WiFi (IEEE 802.11) è il più maturo dei tre, ha un costo molto basso e un dispiegamento molto semplice. Offre velocità di connessione condivisa compresa in 11-54Mbps in funzione dello standard preso in riferimento (IEEE 802.11 a/b/g). L’ultima versione, IEEE 802.11n, supporta fino a 600Mbps con copertura tra i 100-200m. Inoltre il WiFi opera su frequenze non licenziate e può lavorare sia in modalità infrastructure che in modalità ad hoc. Nella prima modalità, la rete è gestita da un access point (AP) mentre nella modalità ad hoc, i terminali d’utente si autogestiscono [12]. Le reti wireless di tipo mesh (WMN, wireless mesh network) sono idonee per estendere la copertura delle reti WiFi domestiche, permettendo un miglioramento del rapporto costoefficienza. Tipicamente una WMN è costituita da più gateway per l’accesso ad internet, un gruppo di router wireless e un gruppo di mesh client [13]. 121 S. Di Bartolo , V. Attanasio , S. Penna, D. Del Buono A prescindere dalla particolare tecnologia scelta, I sistemi ibridi fibra-radio sono perfetti per combinare l’alta capacità di trasporto della fibra e la possibilità di fornire un accesso ubiquito delle reti wireless. In [14], è stato proposto un backhauling ottico, costituito da una WDM/TDM PON, unito ad un front-end wireless di tipo WiFi in architettura WMN. In particolare si è analizzata la scalabilità della PON in termini del numero AP supportati e la copertura offerta. Altri lavori si basano sullo studio della collocazione ottimale delle ONU, sugli algoritmi di routing o sulla riconfigurazione delle PON in funzione della specifica tecnologia di accesso di tipo wireless presa in considerazione [15][16]. In [17], gli autori presentano un tool per la pianificazione della rete per decidere in modo efficiente la posizione del front-end wireless della rete d’accesso ibrida, prendendo in considerazione anche tecnologie wireless miste come per esempio PON-LTE-WiFi. L’ibrido fibra-FSO Un altro fattore chiave delle reti ibride è la minore difficoltà della messa in opera rispetto ad una soluzione completamente cablata, da cui derivano anche minori costi di dispiegamento. Le tecnologie wireless sono indicate per la copertura di zone difficili da cablare, per aree poco vantaggiose da un punto di vista economico se raggiunte con cavo o per quelle situazioni in cui è fortemente sconsigliato lo scavo per posa di cavi come per esempio nelle aree di interesse storico. A prescindere dalla particolare tecnologia wireless considerata, l’interfacciamento della rete radio con la fibra ottica prevede una conversione ottica elettrica, che rappresenta il collo di bottiglia della rete rispetto alle velocità raggiungibili sulla rete di distribuzione ottica. Un modo per ridurre l’area da coprire in modalità radio e mantenere il vantaggio di semplice dispiegamento della rete, anche dove il cablaggio è di fatto un limite, è quello di integrare fibra e wireless attraverso collegamenti wireless di tipo ottico, detti FSO (Free Space Optics). I collegamenti FSO sono link su lunghezze d’onda ottiche che viaggiano in spazio libero e ad alta velocità. Un sistema FSO tradizionale è di tipo attivo, ossia 122 La Comunicazione N.R.& N. Applicazione dell’ibrido fibra-FSO per collegamenti bidirezionali passivi su reti d’accesso ad alta velocità Integrated photonic technologies: devices and applications composto da front-end alimentati. Questi sistemi sono composti da ricevitori e trasmettitori ottici che permettono di far propagare i segnali luminosi provenienti da una fibra ottica su canale atmosferico e viceversa per realizzare canali trasmissivi bidirezionali. Tipicamente, il trasmettitore ottico è costituto da un diodo laser (LD), mentre il ricevitore è costituito da un fotodiodo (PD). Le conversioni O-E-O all’interfaccia fibra-FSO permettono di limitare il power budget sul canale FSO, ma rendono anche il sistema più complesso e costoso. Gli attuali sistemi commerciali utilizzano tale configurazione ed arrivano a bit rate massimi di 10Gbps. Tra i vantaggi dei sistemi FSO rispetto a quelli a RF ci sono le ridotte dimensioni del front end e i minori consumi energetici. Le frequenze ottiche su cui lavorano non sono licenziate; i link sono immuni da interferenze elettromagnetiche e sono sicuri da un punto di vista informatico grazie alla elevata direttività del fascio laser. Tra gli svantaggi invece la necessità di linea di vista LOS tra trasmettitore e ricevitore e la dipendenza dalle condizioni climatiche. Una soluzione alternativa e a basso costo si basa sull’utilizzo di testine FSO passive, costituite da un sistema di lenti. I collegamenti ottici in canale atmosferico che utilizzano tali interfacce fibra-aria sono caratterizzati dalla assenza di elementi attivi, come LD e PD e quindi non è necessaria nessuna conversione O-E-O del flusso informativo. In questo articolo il termine “attivo” e “passivo” è legato esclusivamente al trattamento del segnale informativo. Infatti, il sistema passivo potrebbe necessitare di alimentazione per alimentare il sistema di allineamento automatico che permette di compensare disallineamenti meccanici e termici [18] tra ricevitore e trasmettitore. 123 S. Di Bartolo , V. Attanasio , S. Penna, D. Del Buono a) b) Perciò, in un sistema ibrido fibra-FSO di tipo passivo il segnale viene generato da un diodo laser posto in una sorgente remota. Tale segnale si propaga in fibra ottica fino a giungere al terminale FSO passivo dove, attraverso un sistema di lenti collimatrici, si propaga in atmosfera fino a raggiungere il terminale FSO di ricezione. Un sistema di lenti permette di focalizzare e riaccoppiare il segnale ottico in fibra per raggiungere il terminale di ricezione remoto. L’accoppiamento passivo fibra-FSO rende il sistema semplice ed economico rispetto ai sistemi attivi tradizionali e soprattutto permette di trattare in modo trasparente il segnale ottico a prescindere dal formato di modulazione e dalla velocità di linea utilizzata nella rete in fibra ottica. Questa caratteristica di trasparenza del FSO è molto importante perché permette di ottenere un sistema di trasmissione fibra-aria trasparente sull’intero collegamento ottico[19]. La configurazione passiva dei link FSO impone delle restrizioni sul power budget del link, che devono essere propriamente dimensionate e eventualmente compensate per avere una percentuale di disponibilità del servizio il più alta possibile[20]. La soluzione passiva per i sistemi FSO è efficiente dal punto di visto energetico poiché non necessita di alimentazione per il funzionamento dei relativi front-end. Inoltre, nel contesto PON lo scenario passivo della rete di distribuzione viene preservato. In letteratura sono presenti diversi lavori che illustrano la fattibilità dell’ibrido fibra-FSO nel contesto PON. In [21], un esempio di PON ibrida ad alta capacità è stato sperimentalmente dimostrato. Per validare il concetto di utilizzo della tecnologia FSO come parte del sistema PON, un link passivo 124 Figura 2. Sistema FSO tradizionale (a) e sistema passivo di nuova generazione (b) [20] La Comunicazione N.R.& N. Applicazione dell’ibrido fibra-FSO per collegamenti bidirezionali passivi su reti d’accesso ad alta velocità Integrated photonic technologies: devices and applications di tipo FSO lungo 6m in scenario indoor è stato inserito nella rete di distribuzione passiva. Lo studio riguarda l’analisi di una rete PON ibrida flessibile e ad alta capacità in cui coesistono sistemi di trasmissione tradizionali e segnali video, e la valutazione di diversi formati di modulazione. Nel lavoro [22], un link FSO è stato inserito in un sistema PON attraverso una sperimentazione di laboratorio ottenuta utilizzando degli apparati di rete commerciali; il link FSO copre una distanza di 2,3m e si dimostra che il sistema FSO non riduce la qualità del segnale GPON. Le perdite inserite dal link FSO possono essere compensate attraverso l’uso di amplificatori ottici e in caso di propagazione in aria pulita non vi sono altre degradazioni aggiunte dal link atmosferico. In [23], viene sperimentalmente realizzato un link FSO passivo su 56m in ambiente esterno. Set up sperimentale di un link ibrido fibra-FSO in contesto PON Nei laboratori dell’Istituto Superiore delle Comunicazioni e delle Tecnologie dell’Informazione, ISCTI sono in atto delle sperimentazioni per lo studio di sistemi FSO passivi in contesto di rete d’accesso passiva con l’obiettivo di coprire la tratta dal cabinet al building in tecnologia ottica. Gli esperimenti sono in fase di studio preliminare e sono incentrati sulla stabilizzazione del link ottico al fine di poterne analizzare il comportamento in diverse condizioni climatiche. Obiettivo finale della ricerca è lo studio dell’affidabilità del collegamento rispetto ai requisiti impostati dalla rete d’accesso stessa. Di seguito sono illustrate le varie fasi sperimentali che hanno portato alla realizzazione del sistema ibrido fibra-FSO sotto studio. La prima fase ha riguardato la dimostrazione del concetto attraverso prove condotte in laboratorio in configurazione back to back. In tale fase si è investigata la fattibilità di utilizzo del sistema FSO per estendere la copertura di un ramo passivo di una rete di distribuzione PON. Per preservare la natura passiva della PON il link FSO è stato realizzato passivo e bidirezionale. 125 S. Di Bartolo , V. Attanasio , S. Penna, D. Del Buono Il primo passo è stato quello di cercare le lenti opportune per permettere il passaggio del segnale ottico da fibra a canale atmosferico. In riferimento alla figura 3, il segnale generato dall’apparato di rete di centrale (OLT) a 1490nm propaga in fibra singolo modo fino al punto A nel quale, tramite un sistema di lenti che collimano il fascio riducendo la naturale divergenza in uscita dalla fibra ottica, è lasciato propagare in spazio libero. Dopo essersi propagato per circa 80m il link FSO viene focalizzato e accoppiato di nuovo in fibra nel punto B (Fig.3) in modo da raggiungere il ricevitore ottico posto nella ONU. Lo stesso sistema di lenti permette al segnale in upstream generato dalla ONU di seguire lo stesso percorso e giungere all’apparato di centrale rendendo il sistema bidirezionale. Il sistema FSO così realizzato, oltre ad essere energy free è economico poiché composto da sole lenti. La configurazione back to back (Fig.4) è stata montata su banco ottico, utilizzando degli specchi per porre in linea di vista trasmettitore e ricevitore. 126 Figura 3. Link FSO tra apparati di una rete PON Figura 4. Set up sperimentale per misure back to back La Comunicazione N.R.& N. Applicazione dell’ibrido fibra-FSO per collegamenti bidirezionali passivi su reti d’accesso ad alta velocità Integrated photonic technologies: devices and applications Il comportamento della rete PON è stato caratterizzato in termini di rate dati ricevuto rispetto la potenza ottica ricevuta. Il comportamento del sistema PON è stato analizzato sia in presenza che assenza del FSO tra OLT e ONU. Queste misure sono state condotte sia al ricevitore della ONU che della OLT per analizzare la comunicazione full duplex. Un analizzatore di traffico (Data Analyzer Fig.4) è stato usato per generare un flusso binario pseudo casuale a 100Mbps. Tale flusso viene inviato alla porta Ethernet dell’OLT che converte in flusso binario da elettrico a ottico raggiungendo ‘il ricevitore della ONU attraverso la rete di distribuzione. Nella ONU il segnale di downstream viene riportato nel dominio elettrico ed analizzato dal Data Analyzer, che confronta bit a bit la sequenza originaria e quella ricevuta. Lo stesso processo è stato implementato sul segnale di upstream. La potenza di ingresso all’ONU è stata modificata grazie all’utilizzo di un attenuatore variabile (VOA, Variable Optical Attenuator) ed impostata leggendone il valore tramite analizzatore di spettro ottico (OSA, Optical Spectrum Analyzer). Considerando un link tra OLT e ONU interamente in fibra ottica, è possibile osservare un comportamento della rete a soglia. In un intervallo specifico di potenza ricevuta, il rate di ricezione della ONU rimane costante al 100%. Al di fuori dello specifico intervallo di potenza la connessione tra trasmettitore e ricevitore decade portando il rate di ricezione a zero. Dal lato del ricevitore della OLT si verifica un comportamento simile. In questo caso il rate ricevuto, prima di crollare a zero, degrada al 90%. Questa differenza (vedi Fig.5 a e b) dipende probabilmente dalla qualità dei trasmettitori presenti nella OLT e nell’ONU. Nel primo caso si tratta di un laser singolo modo stabile in potenza, mentre nel caso dell’ONU si tratta di laser multimodale non stabilizzato che fluttua nel tempo sia spettralmente che in potenza. 127 S. Di Bartolo , V. Attanasio , S. Penna, D. Del Buono Le misure del rate ricevuto al variare della potenza di ingresso sono state realizzate comparando l’effetto della connessione tra ONU ed OLT realizzata sia in fibra (Fig.5,a-b) che in fibra+FSO (Fig.5,c-d). Come si può osservare dai grafici riportati in Fig. 5, il link FSO è totalmente trasparente per la rete poiché si ottengono gli stessi risultati ottenuti con link interamente in fibra. L’unica degradazione aggiunta dal link FSO è una attenuazione di 4dB che in laboratorio non permette di avere potenze di ricezione maggiore di -5dBm. Inoltre, con lo scopo di dimostrare l’uso potenziale della tecnologia FSO per fornire accesso multiplo a servizi differenti sulla stessa infrastruttura di rete, un segnale DVB-T modulato su portante ottica a 1558nm con tecnica Radio over Fiber è stato accoppiato in fibra insieme al segnale di centrale 1490nm ed inviato ad una ONU equipaggiata con interfaccia RF (radio frequency) per la trasmissione del segnale televisivo su cavo coassiale. Il segnale RF è stato captato da un’antenna posta sul tetto dell’edificio del MISE, sede dei laboratori in cui sono state effettuate le misure descritte nel presente lavoro, ed è stato convertito nel dominio ottico grazie ad un modulatore elettroottico di tipo Mach Zehnder. In ricezione la ONU provvede a separare tramite un filtro ottico la lunghezza d’onda a 1558nm e 128 Figura 5. Bit rate ricevuto da OLT (a,c) e ONU (b,d) in fiber link (a,b) or in fiber+FSO link (c,d) La Comunicazione N.R.& N. Applicazione dell’ibrido fibra-FSO per collegamenti bidirezionali passivi su reti d’accesso ad alta velocità Integrated photonic technologies: devices and applications a riconvertire nel dominio elettrico tramite un fotodiodo il segnale RF il quale è trasmesso su cavo coassiale ad una TV commerciale munita di decoder per demodulare e decodificare il segnale DVB-T ricevuto. Il numero di canali che il decoder è in grado di ricevere è stato misurato tramite scansioni paragonando il link in fibra a quello ibrido fibra-FSO. Dopo aver dimostrato la fattibilità del collegamento OLTONU di una rete passiva in tecnologia ibrida fibra-FSO in ambiente indoor, si è montato il sistema in modo da avere un link FSO in outdoor. La struttura dell’edificio a “U” (Fig. 6) ha permesso di avere a disposizione due stanze in visibilità reciproca in cui installare il sistema FSO, mostrato in Fig. 7. In una sono stati posti trasmettitore e ricevitore con le lenti di accoppiamento fibra-aria mentre nell'altra è stato posizionato uno specchio per riflettere in segnale e mettere in linea di vista trasmettitore e ricevitore. Edificio del MISE dall'alto Stanza 1 al piano terra dell'ala B dell'edificio (B0028) Stanza 2 al piano terra dell'ala A dell'edificio (A0043) Figura 6. Edificio MISE-ISCTI in cui sono in atto le sperimentazioni descritte nel presente lavoro 129 S. Di Bartolo , V. Attanasio , S. Penna, D. Del Buono Sistema di Lenti OLT Specchi GRIN Il link è bidirezionale Specchio a 40m Sistema di Lenti ONU GRIN Specchi Il sistema realizzato subisce un’attenuazione complessiva di 13dB di cui 6 dovuti all’attenuazione dei vetri delle finestre delle stanze attraverso cui passa il segnale ottico e i restanti 7 dB dovuti alla somma dei contributi di attenuazione degli specchi e delle lenti. In conclusione, si è dimostrato che l’ibrido fibra-FSO è utile per coprire il tratto tra cabinet e building [24], mantenendo le velocità di accesso della rete in fibra senza necessità di scavi. Il sistema è attualmente sotto osservazione per caratterizzare il comportamento della rete al variare delle condizioni climatiche che possono degradare il canale atmosferico. Infatti, monitorando la potenza ricevuta in prossimità della ONU si sono osservati un andamento ciclico legato alla variazione periodica di temperatura giorno/notte e una degradazione più accentuata in concomitanza di intense precipitazioni. La caratterizzazione di questi aspetti, ancora allo stadio iniziale, richiederà notevoli sforzi e risulta di fondamentale importanza per garantire l’affidabilità del sistema. Per contrastare le instabilità del link FSO legate alle condizioni climatiche e quindi garantire la disponibilità del servizio all’utente finale può essere utilizzato il link in rame attualmente presente tra cabinet e building, considerando che se pur a più basso bit rate il link può essere mantenuto attivo in qualsiasi condizione climatica [25]. 130 Figura 7 Sistema FSO passivo realizzato nei laboratori di Comunicazioni Ottiche dell’ISCTI La Comunicazione N.R.& N. Applicazione dell’ibrido fibra-FSO per collegamenti bidirezionali passivi su reti d’accesso ad alta velocità Integrated photonic technologies: devices and applications Reference [1] Fiorani, M.; Tombaz, S.; Monti, P.; Casoni, M.; Wosinska, L., "Green backhauling for rural areas," Optical Network Design and Modeling, 2014 International Conference on , vol., no., pp.114,119, 1922 May 2014 [2] Koonen, T., "Fiber to the Home/Fiber to the Premises: What, Where, and When?," Proceedings of the IEEE , vol.94, no.5, pp.911,934, May 2006 [3] Chang-Hee Lee; Sorin, W.V.; Byoung Yoon Kim, "Fiber to the Home Using a PON Infrastructure," Lightwave Technology, Journal of , vol.24, no.12, pp.4568,4583, Dec. 2006 [4] A. Banerjee et al., Wavelength-division multiplexed passive optical network (WDM-PON) echnologies for broadband access: A review, J. Opt. Netw., vol. 4, pp. 737758, 2005 [5] Hui, Rongqing; Benyuan Zhu; Renxing Huang; Allen, C.T.; Demarest, K.; Richards, D., "Subcarrier multiplexing for high-speed optical transmission," Lightwave Technology, Journal of , vol.20, no.3 [6] Kamijoh, T.; Kashima, M.; Tamai, H.; Sarashina, M.; Iwamura, H.; Gupta, G.C., "CDM-technologies for next generation optical access networks," Optical Fiber Communication - incudes post deadline papers, 2009. OFC 2009. Conference on , vol., no., pp.1,3, 22-26 March 2009 [7] Silva, J.A.L.; Coura, D.J.C.; Barbero, A.P.L.; Segatto, M.E.V., "A passive optical network based on centralized wavelength and bandwidth scalable OFDM signals," Transparent Optical Networks, 2009 [8] Sarashina, M.; Tamai, H.; Furusawa, S.; Suzuki, A.; Kashima, M.; Mukojima, T.; Kaneko, S.; Yoshida, T.; Kimura, S.; Yoshimoto, N., "First demonstration of a wavelength swept discovery process for λ-tunable WDM/TDM-PON system," Optical Fiber Communications Conference and Exhibition (OFC), 2014 , vol., no., pp.1,3, 9-13 March 2014 [9] Zhaowen Xu; Xiaofei Cheng; Yong-Kee Yeo; Luying Zhou; Xu Shao; Hongguang Zhang, "1.24-Tb/s hybrid SCM/WDM passive optical networks," Optical Communication (ECOC), 2011 37th European [10] G. Donaldson and D. Jones, BCable television broadband network architectures, IEEE Commun. Mag., vol. 39, no. 6, pp. 122–126, Jun. 2001. [11] Mohammad, A.B.; Shaddad, R.Q.; Al-Gailani, S.A., "Enabling optical and wireless broadband access technologies," Photonics (ICP), 2012 IEEE 3rd International Conference on , vol., no., pp.135,139, 1-3 [12] Shaddad, R.Q.; bin Mohammad, A.B., "Performance assessment of a 2 Gb/s hybrid optical-wireless access network," Photonics (ICP), 2010 International Conference on , vol., no., pp.1,5, 5-7 July 2010 [13] Zeyu Zheng; Jianping Wang; Jin Wang, "A Study of Network Throughput Gain in Optical-Wireless (FiWi) Networks Subject to Peerto-Peer Communications," Communications, 2009. ICC '09. IEEE 131 S. Di Bartolo , V. Attanasio , S. Penna, D. Del Buono [14] Shaddad, R.Q.; Mohammad, A.B.; Al-Gailani, S.A.; Aon, E.F., "Scalability analysis of hybrid optical wireless access network (HOWAN)," Signal Processing & its Applications (CSPA), 2014 IEEE 10th International Colloquium on , vol., no., pp.48,52, 7-9 March 2014 [15] Wei-Tao Shaw, ”Hybrid Architecture and Integrated Routing in a Scalable Optical Wireless Access Network”, JOURNAL OF LIGHTWAVE TECHNOLOGY, Vol. 25, No. 11, Nov. 2007, pp.3443-3451. [16] P. Gupta, P. R. Kumar, ”The capacity of wireless networks”, IEEE Transactions on Information Theory, Vol. 46(2000), pp. 388-404. [17] Chowdhury, R.; Shami, A.; Almustafa, K., "Designing of nextgeneration hybrid optical-wireless access network," Innovations for Community Services (I4CS), 2014 14th International Conference on , vol., no., pp. 9, 15, 4-6 June 2014 [18] Gupta, A.; Anand, P.; Khajuria, R.; Bhagat, S.; and Kumar Jha, R.. "A Survey of Free Space Optical Communication Network Channel over Optical Fiber Cable Communication", International Journal of Computer Applications 105, (10), 32-36, November 2014 [19] Matsumoto, M. ; Kazaura, K. ; Dat, Pham ; Shah, Alam ; Omae, K. ; Suzuki, T. ; Wakamori, K. ; Higashino, T. ;Tsukamoto, K. ; Komaki, S., "Innovations in NGN: Future Network and Services", 2008. K-INGN 2008. First ITU-T Kaleidoscope Academic Conference, 221-228, May 2008 [20] Matsumoto, M., "Next Generation Free-space Optical System by System Design Optimization and Performance Enhancement", PIERS Proceedings, Malaysia, 2012 [21] Teixeira, A.; Parca, G.; Shahpari, A.; Reis, J.D.; Ferreira, R.; Abdalla, A.; Lima, M.; Carrozzo, V.; Tosi Beleffi, G., "Ultra high capacity PON systems," Transparent Optical Networks (ICTON), 2013 15th International Conference on , vol., no., pp.1,4, 23-27 June 2013 [22] Parca, G.; Tavares, A.; Shahpari, A.; Teixeira, A.; Carrozzo, V.; Tosi Beleffi, G., "FSO for broadband multi service delivery in futu1re networks," Optical Wireless Communications (IWOW), 2013 2nd International Workshop on , vol., no., pp.67,70, 21-21 Oct. 2013 [23] Teixeira, A.; Shahpari, A.; Reis, J.D.; Ferreira, R., "Flexible access networks," Transparent Optical Networks (ICTON), 2014 16th International Conference on , vol., no., pp.1,3, 6-10 July 2014 [24] Di Bartolo, S.; Pizzoleo, A.; Penna, S.; Beleffi, G.M.T.; Matera, F.; Pompei, S., "Experimental demonstration of a GPON free space optical link for full duplex communications," Photonics Technologies, 2014 Fotonica AEIT Italian Conference on, vol., no., pp.1,3, 12-14 May 2014 [25] Bloom, S.; Hartley, S.," The last-mile solution: hybrid FSO radio", AirFiber Inc., White Paper, available at: http://morse.uml.edu/Activities.d/Summer-05/PAPERS/KC/AirFiberHFR.pdf [26] Tripaldi, G.; Di Bartolo, S.; Betti, S.; Pizzoleo, A.; Matera, F., "Experimental investigation on DVB-T over CATV-RoF constraints in long haul Passive Optical Networks," Transparent Optical Networks (ICTON), 2014 16th International Conference on , vol., no., pp.1,4, 6-10 July 2014 132 La Comunicazione N.R.& N. La Comunicazione N.R.&N. Silvio Abrate Riccardo Scopigno Istituto Superiore Mario Boella Torino Roberto Gaudino Politecnico di Torino Lo stato della banda larga in Italia: opportunità, ostacoli, tendenze Status of broad-band in Italy: opportunities, threats, trends Sommario - Questo articolo intende riportare brevemente sul simposio intitolato “Sviluppo dell’ultra-broadband in Italia” tenutosi a Torino nell’ambito di Fotonica 2015, convegno italiano di riferimento per le tecnologie ottiche, in maggio. Sarà inoltre analizzato lo stato di definizione delle reti ottiche di accesso di nuova generazione, con un’accenno alle tendenze per le tecnologie non cablate, nell’ottica delle reti convergenti. Abstract - This paper will give a summary of the symposium titled “Ultra-broadband deployment in Italy”, held in Turin within Fotonica 2015, national conference on photonic technologies, in May. In addition, we will briefly analyse the status of the definition of the Next Generation Optical Access Networks, and an insight on the trends of wireless technologies, towards the paradigm of converged networking. Introduzione Discutere ancora oggi sui vantaggi che potrebbe portare una diffusione della banda larga sul territorio italiano risulta essenzialmente superato, essendo oramai universalmente accettato ed accertato, con esempi provenienti da più parti del mondo, quanto i vantaggi in termini di qualità della vita, produttività, sostenibilità ecologica, etc. siano più che evidenti. Altrettanto superato, vista la maturità delle tecnologie sia per le reti di back-bone, sia per le reti di accesso, dovrebbe essere il discorso riguardo il “come” ed il “quando” provvedere ad una massiccia opera di “connessione” dei cittadini italiani; purtroppo, la situazione dello Stivale risulta ancora piuttosto arretrata da questo punto di vista, ed a dispetto di un inizio pionieristico nella diffusione del Fiber-To-The-Home (FTTH), prevalentemente a cura di FastWeb, che ha portato l’Italia ad inizio degli anni 2000 ad essere uno dei primi paesi al mondo ad avere oltre l’1% di cittadini connessi in fibra, gli investimenti infrastrutturali sembrano bloccati e un aggiornamento dei modelli di business ha portato ad adottare massicciamente tecniche radio, quali Wi-Max, 3G ed LTE, per l’ultimo miglio, garantendo sì un facile ed economico raggiungimento di una vasta platea di clienti, ma allo stesso tempo limitando fortemente le 133 S.Abate, R.Scopigno, R.Gaudino prestazioni, al punto che ancora nel 2010 la percentuale era ferma al 1,56% (sorgente: FTTH Council Europe). In Figura 1 è indicata una rappresentazione quantitativa della penetrazione del FTTH per vari paesi, ed il confronto con il Giappone, prossimo al raggiungimento di 20 milioni di case, risulta impietoso; il raffronto diventa ancor più desolante se si considera la Figura 2, dove la penetrazione del FTTH è rappresentata in percentuale sulla popolazione, in cui l’Italia non compare tra i primi 13 paesi. Nonostante un lieve incremento della diffusione della fibra ottica dopo il 2011, appare particolarmente sfidante l’obiettivo del piano nazionale per la banda larga, che prevede 30 Mbit/s per tutti e 100 Mb/s per il 50% delle famiglie entro il 2020: a giugno 2014, secondo i dati OCSE, solo il 22% (28° posto) degli utenti fissi italiani era raggiunto da una connessione ad almeno 10 Mb/s, mentre si sale al 67% (19° posto OCSE) per gli utenti mobili. Obiettivo dei prossimi paragrafi sarà portare l’opinione di produttori, utenti e istituzioni così come rappresentato dal simposio “Sviluppo dell’Ultra Broadband in Italia”, tenutosi in occasione del convegno Fotonica 2015, per procedere ad uno sguardo alla tecnologia analizzando lo stato della standardizzazione per le reti ottiche passive di nuova generazione (NG-PON2) e delle più recenti tecnologie radio. Sviluppo dell’Ultra Broadband in Italia – Simposio a Fotonica 2015 Il 6 maggio 2015 si è tenuto a Torino, nell’ambito della conferenza nazionale Fotonica 2015, un simposio intitolato “Sviluppo dell’Ultra Broadband in Italia”, organizzato e moderato da Giovanni Colombo, direttore dell’Istituto Superiore Mario Boella, già direttore di Telecom Italia Lab e membro del governing board del European Institute of Technology; ad animare il simposio, sono intervenuti Stefano Pileri, AD di Italtel e già direttore generale di Telecom Italia, Raffaele Tiscar, della vicepresidenza al Consiglio dei Ministri, e Maurizio Gattiglio, di Prima Electro e presidente della piattaforma tecnologica EFFRA. L’intervento di Stefano Pileri, AD di Italtel e profondo conoscitore della rete italiana visti i suoi trascorsi in Telecom Italia, è stato di natura prettamente tecnologica, a meno di un piccolo accenno alla recente inversione di tendenza, in senso positivo, avvenuta negli ultimi anni nei bilanci di Italtel. Una prima indicazione di natura quantitativa ha riguardato l’occupazione del traffico voce sulle attuali reti: inferiore al 10%, e con un trend in ulteriore discesa; questo significa che le nostre reti, ancora largamente pensate per tale tipo di traffico, vanno pesantemente riviste con un investimento sull’ottica. Ad occupare maggiormente la banda sono, attualmente, servizi ti tipo video: filmati, immagini, film ad alta o ultra-alta definizione; tutto questo inoltre deve tener conto del fatto che, sebbene non abbia più senso parlare di reti fisse o mobili ma bensì di reti convergenti, il servizio deve essere ubiquo. Dal punto di vista degli utilizzatori, risultano al momento 6 miliardi di 134 La Comunicazione N.R.& N. Lo stato della banda larga in Italia: opportunità, ostacoli, tendenze Status of broad-band in Italy: opportunities, threats, trends smart-phone e telefonini convenzionali, con una tendenza ovviamente ad incrementare la percentuale dei primi rispetto ai secondi; accanto a questo tipo di utilizzo, ci sono altrettanti oggetti connessi alla rete, del tipo sensori di varia natura, on-boards unit di veicoli, telecamere di sorveglianza, etc. Complessivamente, si stima per al 2020 25 miliardi di oggetti di vario tipo saranno connessi alla rete richiedendo e trasmettendo dati; il tutto richiede, parallelamente allo sviluppo delle reti wireless o wired convenzionali, dove spesso il wired serve principalmente come back-hauling per il wired, lo sviluppo di reti a bassa frequenza per tutti gli smart-objects che vanno via via diffondendosi, e che necessitano di consumare meno energia possibile. Ad oggi, le stime di consumo parlano di 40*1018 byte al mese, con una previsione di un aumento a 140*1018 byte al mese nel 2018. Questa premessa e questi dati servono per far capire come le reti debbano reagire, secondo quattro direzioni principali: 1. Evoluzione dell’accesso, con passaggio necessario alla fibra ottica, senza pensare ad un pay-back time di breve termine (15 anni come minimo per gli investimenti necessari ad una rete sufficientemente future-proof). 2. Continuo sviluppo sui back-bone delle reti, necessari a supportare la capacità erogata dagli accessi, ma anche finalizzata a contenere la latenza, che si deve mantenere al di sotto dei 10ms per una effettiva connessione a 100Mb/s end-to-end; obiettivo di Italtel è portarla a 1 ms nl 2020. 3. Cloud computing, cui vanno demandate molte delle funzioni di intelligenza delle reti anziché lasciarle su hardware embedded dedicato, in funzione di un utilizzo più articolato che nasce dall’Internet of Things. 4. Semplificazione della rete, allo scopo di ridurre il costo per unità di traffico, per ridurre il tempo di ritorno dell’investimento; diventa necessario quindi sviluppare il backbone ad un solo layer, senza più separazione tra layer ottico e layer IP, per ridurre gli elementi di rete. Il ruolo pubblico diventa fondamentale come garante della universalità, in termini di copertura e di offerta di servizi, dei progetti di diffusione del broadband, ed in tal senso si colloca l’invito a Raffaele Tiscar. Dal punto di vista dell’infrastruttura, la partecipazione dello stato nella posa di nuova fibra ottica è fondamentale in quanto il 70% dei costi di posa è da imputarsi ad opere civili; inoltre, un indirizzo pubblico è essenziale per recuperare una politica industriale che in questi anni è stata spesso assente, laddove non abbia addirittura portato ad uno smantellamento delle industrie italiane del settore, inteso in senso vasto includendo tutti i fornitori di servizi digitali. La mano pubblica è pertanto essenziale sia per generare il volano economico che dia finalmente inizio al processo, sia in termini di indirizzamento per il medio/lungo periodo. E’ proprio di maggio, pochi 135 S.Abate, R.Scopigno, R.Gaudino giorni prima dello svolgimento del simposio, l’annuncio da parte del governo dell’intenzione di contribuire con 6 miliardi di euro per supportare lo sviluppo della larga banda, a supporto di un modello in cui la Cassa Depositi e Prestiti tramite Metroweb proceda al cablaggio di grandi città in collaborazione con operatori privati, come a Milano con Fastweb; contestualmente, inoltre, Telecom Italia ha annunciato l’intenzione di intervenire su 40 grandi città, seppur già sia proprietaria della capillare rete in rame. L’intervento di Raffaele Tiscar si è aperto con due osservazioni di natura prettamente politica: la prima ha fatto notare come l’attuale governo sta operando nel campo delle telecomunicazioni, in particolare dal punto di vista normativo, con una visione di lungo respiro, che travalica la durata del mandato elettorale; la seconda ha viceversa evidenziato come la situazione delle reti italiane stia ancora scontando una privatizzazione in toto di Telecom Italia, senza separare infrastruttura e servizi come invece è stato più sapientemente fatto per, ad esempio, il sistema di distribuzione dell’energia elettrica. A questo modo, l’operatore si è trovato fortemente indebitato per acquisire anche la rete, ed pertanto impossibilitato ad adeguarla negli anni. Negli anni successivi alla privatizzazione di Telecom Italia, anche per questioni di conflitto di interessi, non è poi stato fatto alcun intervento significativo (economico o normativo) di natura pubblica sulle infrastrutture per telecomunicazioni, e la somma di tutti questi fattori porta l’Italia al suo attuale imbarazzante ranking a livello mondiale per quanto riguarda lo sviluppo della rete. In un contesto a livello mondiale in cui ovunque il detentore della rete è principalmente pubblico, l’Italia è andata in controtendenza pagandone le conseguenza, poiché l’orizzonte temporale su cui ragiona un operatore privato non è compatibile con investimenti di miliardi di Euro; è interessante notare come sia l’intervento tecnologico di Pileri, sia quello politico di Tiscar, abbiano fortemente messo l’accento su questo argomento. Avendo consapevolezza del fatto che la partita si gioca non sul raggiungimento degli obiettivi al 2020 ma richiede una strategia molto più future-proof poiché il digital-divide è una barriera mobile, a livello centrale è stata stimata la necessità di un investimento di circa 12 miliardi di Euro per un aggiornamento di carattere prospettico sulla infrastruttura (sostanzialmente sostituendo l’intera rete in rame con una rete in fibra ottica), mentre gli obiettivi al 2020 potrebbero probabilmente essere raggiunti con investimento molto più contenuto sulla tecnologia. E’ questo il vero volano dello sviluppo economico, senza il quale non ci sarà alcuna ricaduta industriale; il governo ha pertanto scelto di investire 2 miliardi dai fondi strutturali europei e 5 miliardi dai fondi di sviluppo e coesione per l’infrastruttura in fibra ottica, il tutto avendo cura di non introdurre alcuna turbativa di mercato in un settore liberalizzato. Altre azioni mirate, in corso, sono: 136 La Comunicazione N.R.& N. Lo stato della banda larga in Italia: opportunità, ostacoli, tendenze Status of broad-band in Italy: opportunities, threats, trends • • • accurata analisi del territorio, diviso in 94000 aree, di cui è necessario conoscere il numero di unità abitative e lo stato dell’infrastruttura, per poter calibrare in modo ottimale gli investimenti; realizzazione del catasto delle infrastrutture; semplificazione degli iter autorizzativi e modalità di realizzazione delle reti (micro-trincee, posa aerea e fronte edifici, etc.). Maurizio Gattiglio, in quanto presidente di EFFRA e quindi come rappresentante di grosse aziende manifatturiere europee, non ha portato il punto di vista di un esperto piuttosto che di un attore attivo del settore, bensì quello di potenziali utilizzatori della banda ultra-larga che potrebbero trarre notevoli benefici in termini di innovazione nel loro processo produttivo, a patto ovviamente di sapersi innovare e non solo limitarsi a connettersi al servizio. Una vera banda ultra-larga è vista come fattore abilitante per dare luce ad un nuovo paradigma produttivo, che vede non più lo spostamento di prodotti finiti, ma lo spostamento, se necessario, delle materie prime e la trasmissione di progetti/indicazioni/istruzioni/controlli per trasformare tali materie in prodotti quanto più vicino possibile all’acquirente finale, con una evidente ottimizzazione di costi e tempi, e riduzione di inquinamento. Sarà veramente questa la manifattura 2.0? Reti ottiche di standardizzazione accesso: stato della tecnologia e della In questa sezione si presenterà una classificazione delle soluzioni tecnologiche che sono ad oggi disponibili per implementare reti di accesso basate su fibra ottica, e successivamente si proporrà una breve discussione dei principali pregi e difetti di ciascuna delle soluzioni. Una prima importante classificazione è relativa al punto in cui viene terminata la connessione della fibra ottica dal lato dell’utente finale. A livello mondiale, sono utilizzate in larga scala, con ad oggi milioni di installazioni per ciascuna delle possibilità, le seguenti soluzioni: • FTTH (Fiber to the Home): si tratta di soluzioni in cui la fibra ottica è portata direttamente all’unità abitativa dell’utente finale, sostituendo completamente il tradizionale collegamento su doppino telefonico in rame. In sostanza, la fibra ottica viene terminata all’interno dell’appartamento di ciascun utente in un apposito Modem con ingresso ottico, che sostituisce completamente l’attuale modem ADSL. Le soluzioni trasmissive FTTH possono già oggi arrivare a bit rate per utente estremamente elevate, dell’ordine di 1 Gbit/s per utente. In generale, nei paesi dove le soluzioni FTTH sono già implementate il bit rate massimo è limitato ad oggi da questioni 137 S.Abate, R.Scopigno, R.Gaudino • commerciali, ma la banda potenzialmente disponibile sulla fibra è intrinsecamente estremamente elevata (sino a decine di Gbit/s per fibra) Soluzioni ibride fibra+rame in cui il tradizionale collegamento in doppino telefonico in rame che parte dalla centrale viene sostituito dalla fibra ottica sino ad un punto intermedio. In questo modo, grazie al fatto che il collegamento che rimane in rame è molto più corto rispetto alle attuali reti di accesso tradizionali, i massimi bit rate ottenibili sono più alti rispetto a quelli degli attuali modem ADSL su rete tradizionale. Le performance trasmissive che si possono ottenere dipendono fortemente dalla tecnologia utilizzata sulla tratta residua in rame e dalla sua lunghezza, ma tipicamente oggi le reti ibride possono dare bit rate per utente dai 30 Mbit/s fino ai 100 Mbit/s. Tipicamente le soluzioni ibride sono implementate secondo le seguenti architetture: o o FTTCab (Fiber to the Cabinet): il collegamento in fibra ottica che parte dalla centrale è terminato nei cosiddetti “armadi di strada” (Street Cabinet), all’interno dei quali opportune schede elettroniche interfacciano il collegamento in fibra ottica con tutti i pre-esistenti doppini telefonici, che dunque non vengono ad essere rimossi ed anzi continuano ad essere parte integrante della rete di accesso. FTTB (Fiber to the Building): soluzioni analoghe alla precedente, in cui però la fibra viene portata sino agli edifici, e il punto di conversione da ottico ad elettrico è tipicamente posto in un armadietto nelle cantine dei palazzi. Le soluzioni ibride permettono di riutilizzare parte dell’infrastruttura esistente in rame con il conseguente principale vantaggio di non dover implementare nessuna opera edile all’interno dei palazzi, operazione solitamente molto onerosa in termini economici, ma anche dal punto di vista degli accordi con i proprietari degli edifici stessi, in particolare nelle realtà europee caratterizzate da condomini con un numero molto elevato di proprietari. Di conseguenza, le soluzioni ibride FTTCab (e similari) hanno un costo iniziale inferiore alle soluzioni ottiche “pure”, cioè all’FTTH, in tutte le soluzioni in cui si deve sostituire la rete in rame già esistente (diverso il discorso per eventuali costruzioni ex-novo di nuovi quartieri, dove la differenza di costo iniziale tra soluzioni ibride e soluzioni FTTH è marginale). Le soluzioni ibride presentano tuttavia due principali svantaggi rispetto dalla soluzione FTTH. In primo luogo, il bit rate massimo che si può ottenere nelle soluzioni FTTH è molto più elevato rispetto a quello 138 La Comunicazione N.R.& N. Lo stato della banda larga in Italia: opportunità, ostacoli, tendenze Status of broad-band in Italy: opportunities, threats, trends delle soluzioni ibride (parecchi Gbit/s nel caso FTTH da confrontarsi con 30-100 Mbit/s nelle soluzioni ibride). Questo è un punto fondamentale: si consideri infatti che le reti di accesso fisse hanno un tempo di vita lunghissimo. Ad esempio l’attuale rete in rame è sostanzialmente la stessa da almeno 70 anni; sarebbe dunque auspicabile che il passaggio ad una nuova rete ottica abbia un tempo di vita simile, visto il notevolissimo costo di questo tipo di “rivoluzione” tecnologica. Tuttavia, su archi temporali così lunghi, i 30100 Mbit/s per utente forniti delle attuali soluzioni ibride potrebbero risultare non più sufficienti mentre le decine di Gbit/s per utente potenzialmente disponibili nelle soluzioni FTTH sembrano invece essere assolutamente soddisfacenti anche nel lunghissimo termine. Un altro svantaggio delle soluzioni ibride rispetto alle soluzioni FTTH è quello di richiedere il posizionamento di apparati optoelettronici sofisticati nei Cabinet (di strada o di edificio) cioè in luoghi non particolarmente protetti da agenti atmosferici o vandalici. Per completare questa panoramica architetturale, si segnala ancora che per le soluzioni FTTH è spesso utilizzata la tecnologia delle “Passive Optical Networks” (PON) la cui configurazione è riportata in figura 3. In sostanza, un gruppo di utenti (tipicamente da 32 a 64) è collegato ad una struttura ottica ad albero che parte dalla centrale con una singola fibra, la quale viene poi suddivisa in un numero adeguato di collegamenti terminali da uno o più componenti ottici denominati “optical splitters” (completamente passivi, da cui il nome di “Passive Optical Networks”). Le architetture PON sono solitamente considerate vantaggiose nelle soluzioni FTTH implementate su larga scala in quanto consentono di ridurre notevolmente il numero di terminazioni ottiche in centrale (di un fattore che dipende dal numero di utenti per ogni PON, e dunque tipicamente per il sopracitato valore da 32 a 64) rispetto alle soluzioni (denominate solitamente P2P, da point-to-point) in cui ci sia una fibra dedicata per ciascun utente finale. Le soluzioni PON sono oggi installate in milioni di “pezzi” all’anno in alcune nazioni, quali in particolare in US, Giappone, Cina e Korea. La diffusione delle soluzioni PON ha spinto una evoluzione tecnologica massiccia in questo settore: ad oggi, sono tipicamente installate le soluzioni degli standard ITU-T GPON o IEEE EPON (in grado di fornire fino a 2.5 Gbit/s su ciascuna PON), ma sono già commerciali le soluzioni in standard ITU-T XGPON e IEEE 10GE-PON (fino a 10 Gbit/s su ciascuna PON) e sono in fase di standardizzazione le cosiddette soluzioni NG-PON2, che permetteranno di aumentare ulteriormente il bit rate per PON (oltre a 40 Gbit/s per PON). 139 S.Abate, R.Scopigno, R.Gaudino L’accesso radio a banda larga: 2000-2015 Le tecnologie a radio frequenze sono andate incontro ad un processo esplosivo - persino disordinato - in questi anni. Per capire quanto la situazione sia fluida, può essere utile iniziare con il guardare retrospettivamente ai primi anni 2000: in Italia e non solo, le tecnologie radio venivano utilizzate in modo estremamente ridotto e semplicistico rispetto ad oggi. Si annoveravano le seguenti forme di accesso radio. • • • GSM e, in Italia solo dopo la gara pubblica del 2000, tecnologie UMTS (licenze costate circa 2.300 M€ ad ogni gestore). Inizialmente UMTS, prima dell’avvento di HSxPA, erogava connessioni inferiori al Mb/s. Tecnologie radio per l’accesso ma non verso l’utente finale (per esempio tecnologie punto-multipunto per interconnettere aree disagiate o per dare connettività di altro tipo a complessi urbani e industriali, ovvero contro il digital divide. WiFi, inizialmente in Italia nella sola frequenza portante a 2.4 GHz, banda ISM non soggetta a licenza ma congestionata. Per giunta, lo standard allora usato era IEEE 802.11b, in grado di erogare non più di 11 Mb/s half-duplex (da condividere tra tutti gli utenti, al lordo delle inefficienze di protocollo). Inoltre le reti IEEE 802.11 erano pensate per solo uso privato. Le tre tecnologie, molto diverse tra loro, rivelano comunque la realtà di quegli anni: in primis il concetto stesso di banda larga non si sposava molto lo stato dell’arte di allora del wireless; si puntava ancora molto sulle tecnologie in cavo di rame (xDSL) che permettevano di raggiungere l’utente finale con una larghezza di banda difficilmente eguagliabile (grazie ai concetti di multicast in quegli anni arrivava in Italia la televisione su ADSL). Inoltre l’erogazione di servizi wireless all’utente finale era una prerogativa delle tecnologie licensed. Infine, tutte le tecnologie wireless – a partire da UMTS (rispetto al GSM) – stavano tacitamente migrando verso i paradigmi di connessione dati (reti all-IP con capacità di erogazione di servizi voce e non più il contrario). Da allora sono passati solo 15 anni da allora e sia tecnologicamente, sia normativamente, si è realizzato un salto che può essere riassunto nei seguenti fatti, ancora una volta solo apparentemente frammentari: • Il numero di soluzioni tecnologiche per la connettività wireless è letteralmente esploso. o 140 UMTS è stato realizzato appieno, pervenendo alla successiva generazione mobile (LTE) e all’introduzione di pico e femto-celle. La Comunicazione N.R.& N. Lo stato della banda larga in Italia: opportunità, ostacoli, tendenze Status of broad-band in Italy: opportunities, threats, trends o o o o o • Molte delle tecnologie wireless sono pensate per uso privato – praticamente tutte, ad eccezione di LTE, WiMax e White Space. Questo implica che una fotografia del wireless in Italia non possa esimersi dallo stimare le innumerevoli reti private che sono presenti sul territorio. o o • Per la connettività su area regionale è stato introdotto il WiMax (IEEE 802.16). Il Wi-Fi è stato liberalizzato sia nella banda a 2.4 GHz che a 5 GHz, con soluzioni dapprima a 54 Mb/s e poi (grazie al MIMO, ovvero alle antenne multiple) fino ad oltre 5 Gb/s (IEEE 802.11ac). Nelle bande libere sono state proposte anche soluzioni molto eterogenee per reti di sensori (ZigBee e simili – IEEE 802.15.4) e per la connessione di dispositivi a banda larga (Bluetooth, IEEE 802.15.1 con varianti low energy). Si sta razionalizzando lo spettro lasciato libero con lo switch-over della televisione da analogica a digitale: vi sono soluzioni basate su WiFi per bande elevate in aree non ampie (IEEE 802.11af, noto anche come White-Fi) o soluzioni alternative, come da IEEE 802.22 (pensate per fornire alcuni Mb/s di connessione fino a 30 km di distanza dalla base station). Infine stanno emergendo nuove soluzioni nelle microonde (IEEE 802.11ad e IEEE 802.11ay) e con l’impiego di nuove portanti (significativo il caso di Li-Fi o Light-Fidelity – IEEE 802.15.7 - che impiega la modulazione di luce per erogare accesso a corto raggio). Inoltre il confine stesso tra rete licensed e unlicensed è sfumato: gli operatori stanno studiando soluzioni per l’autenticazione unica tra Mobile e Wi-Fi (come nel caso di Passpoint o Hotspot 2.0). Tali soluzioni offrono la possibilità di scaricare (off-load) parte del traffico cellulare su rete Wi-Fi, il che risulta particolarmente utile in termini di risparmio per i Mobile Virtual Network Operator che affittino la Radio Access Network. Per quanto riguarda l’accesso Wi-Fi è spesso offerto non a pagamento ma come commodity. Anche in Italia, dopo il “Decreto del Fare”, è venuto meno l’obbligo di identificazione degli utenti da parte degli esercizi commerciali che offrano il servizio gratuito di navigazione. Infine, da una prospettiva meno tecnologica, stanno emergendo nuove tendenze di servizio che moltiplicano esponenzialmente l’esigenza di connessione. Ricordiamo: 141 S.Abate, R.Scopigno, R.Gaudino o o o Esplosione dei Social Networks e, per contro, dei terminali mobili che offrono molteplici interfacce radio e applicazioni (app) specifiche per la connettività sociale o per l’e-commerceo per soddisfare il dilagante modello di archiviazione in cloud (che garantisce il back-up dei contenuti del terminale ma implica traffico aggiuntivo). Paradigma di Internet delle Cose (Internet of Things o IoT): tutti gli oggetti possono essere connessi, virtualizzati e controllati da remoto. Il tipo di connettività (Wi-Fi, WiMax, LTE) sta diventando sempre più trasparente all’utente che, semplicemente, risulta connesso e, auspicabilmente, in modo ubiquo. Allo stesso modo le reti che condividono la stessa banda (per esempio gli white space), stanno acquisendo la capacità di auto-configurarsi per limitare l’interferenza. Ovvero: le reti wireless stanno diventando più flessibili (cognitive). Queste sono le tendenze generali che, per lo più, l’Italia condivide con il resto di Europa. Poi ci sono le peculiarità di sviluppo del singolo stato: siccome la situazione è molto fluida, possiamo fornire alcune istantanee attraverso fatti concreti che riguardano il nostro Paese. • In Italia, circa 2.200 M€ (+22% rispetto al 2013) derivano dalla vendita di smartphone e telefoni cellulari, a detta dell’associazione italiana retailer elettrodomestici specializzati (AIRES - report sul mercato nel 2014). o o • Il numero di Access Points WI-Fi (AP) disponibili in Italia è difficile da stimare ma ci sono due fatti da menzionare: o 142 Secondo il sito wearesocial.it, in Italia, su una popolazione di quasi 61 milioni, gli utenti Internet attivi sono 36.6 mil., gli account social attivi 28 mil., di cui 22 attivi su mobile; le connessioni mobili sono oltre 82 mil. (più di un dispositivo a testa, come è noto, e oltre 2.5 volte la media mondiale). Inoltre, il tempo medio speso su Internet tramite telefonino è di oltre 2 ore, contro le 4 ore spese tra PC e tablet (quindi circa metà in wireless considerando laptop e tablets). Anche circa la metà dell’e-commerce si attesta su dispositivo mobile. Ovvero: gli Italiani sono voraci di connettività e di servizi elettronici… purché funzionino. Sempre più utenti acquisiscono un AP e lo configurano autonomamente per costruirsi la propria rete in grado di erogare servizi integrati in casa propria. La Comunicazione N.R.& N. Lo stato della banda larga in Italia: opportunità, ostacoli, tendenze Status of broad-band in Italy: opportunities, threats, trends o • Ci sono diverse iniziative che stanno cavalcando il “decreto del fare” per fornire connettività libera Wi-Fi sul territorio nazionale (giusto per citare alcuni esempi www.freeitaliawifi.it con provincia di Roma, Regione Sardegna e Venezia; retegratuita.it che sta crescendo con hotspot presso commercianti in Liguria). Rete mobile: non è facile avere statistiche elaborate ma basta navigare sul sito crowd-sourced opensignal.com per osservare i dati di copertura 2G, 3G e 4G di ogni posizione. Quello che si vede è che lo sviluppo di rete mobile è costante: ormai le grandi città sono coperte in LTE e la connettività UMTS ha raggiunto la quasi totalità delle aree abitate. o o Ha avuto meno fortuna, in Italia, il WiMax. La rete è stata sviluppata ma senza mai decollare completamente; degno di nota il fatto che la stessa Linkem (già Megabeam), dopo aver coperto il 40% del territorio nazionale e aver vinto la gara WiMax in 13 regioni, abbia intrapreso l'attivazione LTE su frequenze 3.5 GHz (frequenze proprietarie) con una campagna di sostituzione delle antenne WiMax Outdoor. Per quanto concerne le tecnologie White Space… è ancora una scommessa. 143 S.Abate, R.Scopigno, R.Gaudino In breve: si sta scommettendo molto in Italia sull’accesso radio e questo trova conforto nei dati di sviluppo di rete e di vendita dei dispositivi. Sono stati corretti alcuni errori del passato – come per l’accesso Wi-Fi - e questo sta ulteriormente agevolando la “Internet-reattività” degli Italiani. Questo non significa che tutti i tipi di connettività siano destinati al successo: alcune reti non hanno rispettato le aspettative e il mercato ha decretato un parziale flop. Per il futuro varrà la pena continuare a monitorare le nuove soluzioni, soprattutto in termini di loro vantaggi rispetto alle soluzioni esistenti e in termini di servizi erogati all’utente finale – non solo in termini di competitività (si possono prefigurare casi molto diversi: per esempio l’uso di white spaces per smart metering e per la connessione id oggetti IoT senza richiedere nuove SIM; oppure l’impiego di architetture mobile per la connettività seamless e sicura alle proprie “cose” IoT). Conclusioni La diffusione della banda larga in Italia è drammaticamente in ritardo rispetto alle buone premesse di inizio secolo; tale ritardo è sicuramente penalizzante dal punto di vista della crescita sia in termini economici, sia in termini sociali. Tuttavia, un programma massiccio di investimenti sotto impulso pubblico, in termini normativi, di visione e di incentivi, visto lo stato attuale della tecnologia, potrebbe portare, ad avere una rete realmente future-proof, a patto di non limitarsi a puntare agli obiettivi del 2020 ma ragionando su un ritorno dell’investimento con una tempistica anche decennale. 144 La Comunicazione N.R.& N. Lo stato della banda larga in Italia: opportunità, ostacoli, tendenze Status of broad-band in Italy: opportunities, threats, trends Figura 1. Numero di case connesse in fibra ottica, per paese, a fine 2011. Sorgente: FTTH Council. Figura 2. Percentuale di utenti connessi in fibra ottica, per paese, a fine 2011. Sorgente: FTTH Council. 145 S.Abate, R.Scopigno, R.Gaudino Optical modem Optical modem Optical Splitter Centrale Fibra ottica condivisa tra N utenti Optical modem Optical modem Figura 3. Esempio di architettura PON Figura 4. Adattamento delle tecnologie radio ai nuovi servizi. 146 La Comunicazione N.R.& N. La Comunicazione N.R.&N. Roberto Marani Anna Gina Perri Dipartimento di Ingegneria Elettrica e dell’Informazione, Laboratorio di Dispositivi Elettronici, Politecnico di Bari Una introduzione alla tecnologia RFID An introduction to RFID technology Sommario: In questo articolo, dopo una descrizione del principio di funzionamento e della struttura base della tecnologia RFID, vengono esaminate alcune tra le principali applicazioni di tale tecnologia, con riferimento alle attuali ricerche riguardanti ulteriori realizzazioni ed ai problemi ad esse connessi. Abstract: In this paper, after a description of the operating principle and basic structure of RFID technology, we present some of the main applications of this technology, with reference to the current research regarding further applications and problems related to them. 1. Introduzione L’acronimo RFID (Radio Frequency Identification) sta ad indicare la funzione di identificazione di oggetti, persone, ecc. attraverso una trasmissione di segnali a radiofrequenza. L’identificazione implica l’assegnazione di un’identità univoca ad un oggetto che consenta di distinguerlo in modo non ambiguo. Il fine principale di questa tecnologia, pertanto, è quello di assumere, da parte di un “identificatore”, varie informazioni su oggetti, animali o persone, per mezzo di piccoli apparati radio, associati ai medesimi. L’assunzione di informazioni è relativa ad operazioni di ricerca, identificazione, selezione, localizzazione spaziale e tracciamento. Identificatore ed identificato comunicano mediante segnali a radiofrequenza, quindi senza necessità di contatto fisico (a differenza, ad esempio, delle carte a banda magnetica) e senza che gli apparati siano né visibili (a differenza, ad esempio, dei codici a barre), né in visibilità reciproca (non-line-of-sight). 147 R. Marani, A. G. Perri L’antenato degli RFID è comunemente riconosciuto nei sistemi “Identification Friend or Foe (IFF)”, sviluppati in Inghilterra durante la seconda guerra mondiale. Il sistema IFF a bordo degli aerei alleati, rispondeva, se interrogato, identificando così gli aerei alleati e distinguendoli da quelli nemici. Negli ultimi anni invece sono passati dall’essere una tecnologia quasi sconosciuta ad essere una delle soluzioni più diffuse data la grande varietà di applicazioni a cui si prestano [1]. A differenza dei più comuni codici a barre, le etichette RFID (tag) supportano un ben più grande set di ID unici rispetto ai codici a barre. Inoltre possono memorizzare informazioni aggiuntive come il “produttore” o il “tipo di prodotto” oltre a poter misurare fattori esterni che indicano lo stato dell’oggetto come la temperatura o l’acidità [2]. Come mai allora questa tecnologia ha impiegato più di 50 anni per giungere a questo livello di diffusione? Il motivo principale è stato il costo, avendo dovuto competere con il più consolidato ed economico metodo dei codici stampati. Attualmente esistono numerose soluzioni commerciali a costi contenuti. In questo articolo, dopo una descrizione del principio di funzionamento e della struttura base della tecnologia RFID, vengono esaminate alcune tra le principali applicazioni di tale tecnologia, con riferimento alle attuali ricerche riguardanti ulteriori realizzazioni ed ai problemi ad esse connessi. 2. La tecnologia RFID Un sistema RFID è composto da etichette denominate tag e lettori. Le informazioni sono memorizzate nei tag che le trasmettono poi al lettore. Ogni lettore è in grado di ricevere dati da differenti tag simultaneamente senza che tra loro ci sia un contatto visivo. Successivamente invia tali dati ad un server per essere processati e analizzati. Un tag RFID è un particolare microchip con un’antenna integrata per comunicazioni wireless. L’involucro è generalmente una lamina plastica ma spesso anche una capsula di vetro, come mostrato in Fig. 1. 148 La Comunicazione N.R.& N. Una introduzione alla tecnologia RFID An introduction to RFID technology Figura 1. Vari formati di etichetta RFID I diversi sistemi RFID sono classificati in due categorie: sistemi attivi e sistemi passivi. Quelli attivi richiedo una fonte di alimentazione, pertanto possono essere connessi a una rete che li alimenta, oppure possono utilizzare dell’energia immagazzinata in una batteria integrata. D’altra parte però, il tempo di vita di tali tag è limitato dalla quantità di energia immagazzinabile, in genere calcolata in base al numero di letture che il dispositivo deve sostenere. Un esempio di questo tipo di tag è proprio il transponder che si trova sugli aeroplani per l’identificazione della nazione d’origine. In ogni caso, è proprio la batteria ad incidere su costo, dimensioni e durata di questi dispositivi, rendendoli poco adatti al mercato di consumo. I sistemi RFID passivi risultano di maggior interesse in quanto non richiedono batterie e quindi manutenzione. Pertanto i tag godono di un indefinito tempo di vita e sono di dimensioni abbastanza ridotte da adattarsi a più pratiche etichette adesive. In generale questo tipo di tag è costituito da tre parti: un’antenna, un chip a semiconduttore connesso all’antenna, e qualche tipo di involucro o supporto. In questo caso è il lettore ad essere responsabile dell’alimentazione e della comunicazione con il tag. L’antenna cattura l’energia emessa dal lettore e risponde inviando l’ID del tag (il tutto coordinato dal chip). Esistono due differenti approcci progettuali per il trasferimento dell’energia dal lettore al tag: a induzione magnetica e ad onda elettromagnetica. Entrambe le tecniche si basano sulle proprietà elettromagnetiche associate a un’antenna RF. Esistono diverse tecniche di modulazione che sfruttano segnali di campo vicino o campo lontano per trasmettere 149 R. Marani, A. G. Perri e ricevere dati. Nel contempo entrambi i tipi di segnali possono trasferire sufficiente energia da sostenere queste operazioni, tipicamente tra i 10 μW e 1 mW, in base al tipo di tag [2]. 3. Struttura di un sistema RFID Un sistema RFID prevede l’interazione di tre elementi: uno o più tag RFID (detti anche transponder), un lettore, un sistema di backend (sistema per l’elaborazione dei dati), così come mostrato in Fig. 2 [3]. Il sistema di backend può essere costituito sia da un vero e proprio PC sia da un microcontrollore programmato per operazioni specifiche. Il lettore invece comprende un apparato per la ricezione e l’invio dei segnali da e verso il tag, e un microcontrollore che legge e verifica le informazioni trasmesse. Tutti i dati sono poi memorizzati in un database. I tag passivi si differenziano in base alla banda di frequenze in cui lavorano. I tag a bassa frequenza (124 KHz ÷ 135 KHz) presentano un raggio di azione fino ad 1 metro, quelli ad alta frequenza (13.56 MHz) presentano un raggio di azione più ampio ma ancora limitato rispetto ai tag UHF (860 MHz ÷ 960 MHz), che hanno il maggior raggio di azione potendo operare fino a 10 metri. Un lettore RFID è un dispositivo attivo, portatile o fisso, in grado di connettersi con uno o più tag contemporaneamente, e di trasferire le 150 Figura 2. Schema base di un sistema RFID La Comunicazione N.R.& N. Una introduzione alla tecnologia RFID An introduction to RFID technology informazioni ad un server. Esso è costituito da un’unità di controllo, un modulo a radiofrequenza e un’unità di accoppiamento con i tag. Dopo aver attivato il tag inviando un segnale di richiesta, e di alimentazione per i tag passivi, modulano un segnale con i dati da inviare al tag e demodulano quello con i dati ricevuti dal tag. Un tag RFID generalmente è diviso in due sezioni: la prima, che provvede alla comunicazione con il lettore, e la seconda, che memorizza l’ID e altri tipi di informazioni. Quando il tag passa attraverso il raggio d’azione del lettore, questo rileva il segnale di risposta generato dal tag, invia così un impulso di sincronizzazione, che assicura l’alimentazione per un tag passivo e la connessione tra lettore e tag, ed infine elabora le informazioni trasmesse. Caratteristiche come potenza e larghezza di banda, variano da paese a paese in base alle normative vigenti. Spesso, per la loro natura omnidirezionale, vengono largamente utilizzati tag con antenne a mezza lunghezza d’onda. La Fig. 3 rappresenta la tipica struttura di una etichetta RFID su substrato plastico e antenna a bobina planare. Figura 3. Tipica struttura di una etichetta RFID Tutte queste componenti base di un sistema RFID sono combinate in maniera differente, con qualche piccola differenza, in tutte quelle applicazioni che prevedono il tracciamento di un oggetto e, in base alla tipologia, si sceglie se utilizzare un tag passivo, semi-passivo o attivo. 151 R. Marani, A. G. Perri Per quanto riguarda i lettori il processo è simile, data la tipologia dell’applicazione per cui si sta realizzando il sistema, si decide se è meglio l’uso di lettori fissi, come per esempio il caso di un controllo di accessi, o di lettori portatili, come nel caso dell’organizzazione di un inventario. Se si opta per una zona di azione con lettori fissi si tiene conto anche di fattori quali potenza di segnale necessaria e tipo di antenna utilizzata sia per il lettore sia per il tag. Certamente il processo di realizzazione di tag passivi è molto economico. Tuttavia questo si scontra con la necessità di un segnale molto più potente e ad alta frequenza rispetto all’uso di tag di tipo attivo. [1] 4. Principali applicazioni dei sistemi RFID I campi di applicazione dei sistemi RFID sono numerosi, molti dei quali si sono sviluppati negli ultimi anni [1]. Qui ci limitiamo a descrivere le applicazioni più diffuse. Nelle catene di montaggio [4] i sistemi RFID possono essere utilizzati per una rapida localizzazione di veicoli in un impianto di assemblaggio di automobili (cfr. Fig. 4). In tal modo si ottiene un netto miglioramento del rendimento. Nella produzione [4] il sistemi RFID può essere utilizzato in aziende di confezionamento in combinazione con la pianificazione delle risorse aziendali. I tag RFID vengono collocati su ciascun prodotto, in modo tale da averne il controllo durante ogni fase e analizzare facilmente ogni situazione (cfr. Fig. 5). 152 Figura 4. Tipica struttura di una etichetta RFID La Comunicazione N.R.& N. Una introduzione alla tecnologia RFID An introduction to RFID technology Nei sistemi di tele-pedaggio [3] (cfr. Fig. 6) ai veicoli, dotati di un tag RFID, che attraversano il casello, i lettori RFID fissi addebitano automaticamente il costo del pedaggio senza così rallentare il traffico. Figura 5. Sistema RFID in produzione Figura 6. Sistema RFID per il tele-pedaggio Nel servizio sanitario [3-5] la tecnologia RFID può far risparmiare risorse migliorando l'efficienza del sistema ospedaliero. Le attrezzature mediche e le cartelle dei pazienti possono essere corredate di un tag RFID, consentendo la loro rintracciabilità. In aziende lattiero-casearie [5] si possono utilizzare tag RFID per tenere sotto controllo il bestiame (cfr. Fig. 7) ma anche più semplicemente per la gestione dell’inventario e dei prodotti. 153 R. Marani, A. G. Perri Nel controllo e nella sicurezza [6] i tag RFID (cfr. Fig. 8) possono essere collegati a carte di identità e veicoli. In questo modo, si possono creare delle zone protette a cui è consentito accedere al solo personale autorizzato o ad un veicolo di entrare ed uscire. I sistemi RFID possono essere impiegati nel controllo della temperatura [7], così come, per la prima volta, è avvenuto in Cile, durante il trasporto di casse di mirtilli (cfr. Fig. 9) sulla rotta per Miami via nave e aereo. I tag RFID erano stati inseriti fra i mirtilli e la lettura della temperatura avveniva ogni 5 minuti. Figura 7. Sistema RFID per il controllo del bestiame. Figura 8. Sistema RFID per il controllo e la sicurezza. Figura 9. Sistema RFID per il controllo della temperatura 154 La Comunicazione N.R.& N. Una introduzione alla tecnologia RFID An introduction to RFID technology Nella tracciatura dei prodotti [8] nelle catene di distribuzione (cfr. Fig. 10), costituite da una serie di passaggi, i tag sono controllati da "lettori di controllo", che interagiscono con i tag garantendo che venga seguito il giusto percorso. Nel monitoraggio e trasporto di container [9] la tecnologia RFID è considerata attualmente la migliore alternativa alle tecnologie tradizionali quali codici a barre e sistemi di riconoscimento delle immagini. Tag RFID vengono inseriti nei container per ottimizzarne l’organizzazione. Nell’antitaccheggio [10] si può sfruttare la tracciabilità del RFID per permettere ai negozianti di tener traccia degli spostamenti dei prodotti, incluso la possibilità di far scattare un allarme in caso di furti (cfr. Fig. 11). Figura 10. Sistema RFID per la tracciatura dei prodotti. Figura 11. Sistema RFID per l’antitaccheggio Nell’anticontraffazione [10] i tag RFID possono tenere sotto controllo il contenuto di un carico, ad esempio, di medicinali. Difatti, in caso di contraffazione, il tag registra la modifica delle proprietà del 155 R. Marani, A. G. Perri contenuto trasmettendola quando, giunto a destinazione, viene scansionato. Nella sicurezza nazionale [10] tag attivi possono tenere traccia sia degli eventuali spostamenti non autorizzati che verificare che siano rispettati tutti i parametri di sicurezza. In biblioteca [11], con tag RFID attaccati ai libri o contenuti nelle tessere dei clienti, si può implementare un sistema efficiente di tracciatura dei libri e di gestione degli iscritti (cfr. Fig. 12). Nel passaporto elettronico [4], già abbastanza diffuso, al suo interno è presente un chip RFID che contiene tutti i dati anagrafici, ed eventualmente biometrici, del possessore (cfr. Fig. 13). Inoltre è possibile memorizzare anche tutti gli spostamenti effettuati, allo scopo di ridurre le truffe, rendere più rapido il controllo dell’immigrazione, migliorando di conseguenza il livello di sicurezza. Figura 12. Sistema RFID per la tracciatura dei libri. Figura 13. Passaporto elettronico 156 La Comunicazione N.R.& N. Una introduzione alla tecnologia RFID An introduction to RFID technology Per lo smistamento dei bagagli [6] ormai molti aeroporti utilizzano la tecnologia RFID per rendere tale processo più dinamico e sicuro (cfr. Fig. 14). Nelle applicazioni biomedicali [12], con particolari tag attivi, si possono progettare apparati RFID con funzioni di monitoraggio, identificazione, cura di patologie legate all’uomo. Per ottenere questi risultati, la ricerca ha orientato i propri sforzi verso la progettazione di vere e proprie capsule di dimensioni ridottissime con funzionalità RFID, dotate di caratteristiche tecnologiche e di compatibilità elettromagnetica che le rendono perfettamente compatibili all’impianto all’interno dell’organismo umano. La tecnologia RFID orientata alle applicazioni all’interno del corpo umano si basa generalmente su dispositivi passivi (batteryless) e permette di raggiungere distanze di lettura molto brevi, di solito 10 cm o meno. Figura 14. Sistema RFID per lo smistamento dei bagagli Per le applicazioni biomedicali è previsto anche lo sviluppo di dispositivi RFID impiantabili per trasmettere vari parametri biologici o chimici misurati all'interno del corpo. Tali dispositivi possono essere utilizzati da chi soffre di diabete: una unità di allarme wireless, impiantato nella regione addominale del paziente, legge continuamente i dati di un chip sensore sensibile alla concentrazione di glucosio nei fluidi circostanti. Recentemente si è utilizzata la tecnologia degli RFID impiantabili per la raccolta di dati in vivo e la trasmissione wireless di elettroencefalogrammi, acquisiti durante la registrazione su animali. 157 R. Marani, A. G. Perri Dal punto di vista delle applicazioni terapeutiche, sono previsti dispositivi RFID da impianto per il monitoraggio e la manipolazione dell’attività biologica o funzioni fisiologiche del corpo umano. Un esempio è costituito dal monitoraggio delle funzioni cerebrali mediante sonde impiantate, in grado di comunicare tramite un transponder incorporato all'interno del cranio. Una serie di 16 microelettrodi di iridio attivati (5-6 mm di lunghezza all'interno di un cluster di circa 1,8 mm di diametro), adatti per l'impianto a lungo termine nel cervello, registra il segnale di singoli neuroni e fornisce inoltre una microstimolazione localizzata. Questi microelettrodi possono anche essere utilizzati terapeuticamente. Tuttavia tali applicazioni di impianti RFID sono ancora in fase di “proof of concept”, nel senso che i benefici di tale tecnologia in termini di miglioramento della qualità di vita o di cura del paziente, devono ancora essere dimostrati. Ciononostante, l’avanzamento attuale della tecnologia è realisticamente in grado di consentire il monitoraggio remoto delle funzioni biologiche in un essere umano. Secondo recenti studi [12], un sistema radio a singolo chip (comprendente l’antenna) con sensori montati a bordo di dimensioni complessive di 100 x 100 x 1 µm3 sembra essere fattibile con la tecnologia disponibile. Conseguentemente, la comunicazione wireless con piccoli impianti RFID all’interno dell’organismo per l’acquisizione di informazioni circa la presenza di sostanze chimiche o l’entità di determinate grandezze fisiche nei sistemi biologici o anche la attivazione/disattivazione remota dell’attività biochimica all’interno di una singola cellula vivente, sembrano essere obiettivi raggiungibili. Inoltre, utilizzando le nanotecnologie, è stato realizzato un apparato radio FM usando un singolo nanotubo (CNT) di lunghezza 1µm e 10 nm di larghezza [12]. Questo apparato potrebbe essere inserito all’interno di cellule umane e costituire una interfaccia di controllo subcellulare in real-time. Tale risultato di miniaturizzazione dei radio-chip potrebbe anche trovare applicazione nella fabbricazione di smartdusts, cioè di piccoli oggetti con capacità di rilevamento e comunicazione, che possono essere massicciamente distribuiti su una certa zona per il controllo remoto a livello biomolecolare, il cui studio di fattibilità è stato riportato in [13]. In particolare il controllo della ibridazione delle molecole di DNA è stato realizzato attraverso il monitoraggio del riscaldamento di nano- 158 La Comunicazione N.R.& N. Una introduzione alla tecnologia RFID An introduction to RFID technology particelle di oro legate al DNA [13]. Il riscaldamento locale controllato, ottenuto per accoppiamento elettromagnetico alla frequenza di 1 GHz, induce la ibridazione/de-ibridazione reversibile del DNA, lasciando relativamente inalterate le molecole circostanti. Sebbene gli effetti fisici del riscaldamento di particelle di dimensioni nano-metriche siano stati ancora poco esplorati e saranno sicuramente oggetto di studi futuri, questo esperimento dimostra, per la prima volta, il controllo diretto, per mezzo di segnali a radiofrequenza, di reazioni biomolecolari in modo specifico e pienamente reversibile. Il controllo remoto su tale scala sembrerebbe non alterare eventi biomolecolari, che hanno luogo nel mezzo circostante. 5. Conclusioni e sviluppi futuri In questo articolo, dopo una descrizione del principio di funzionamento e della struttura base della tecnologia RFID, sono state esaminate alcune tra le principali applicazioni di tale tecnologia. Attualmente si stanno conducendo diverse ricerche riguardanti ulteriori applicazioni di tale tecnologia, soprattutto in campo meccanico e biomedico È allo studio, ad esempio, la realizzazione di un sensore di deformazione superficiale wireless [14-15], che vede congiungersi due innovativi campi dell’elettronica: la tecnologia RFID e quella dei nanotubi di carbonio. Come è noto, i comuni estensimetri basati su materiali metallici sono in grado di misurare deformazioni della struttura superficiale di un oggetto; tuttavia, necessitando collegamenti fisici con l’elettronica di lettura, risultano sconvenienti per alcune applicazioni, come ad esempio la misurazione di vibrazioni. Quindi è sorta la necessità di sviluppare sensori wireless che possano lavorare in ambienti ostili e aiutino a rilevare le deformazioni anche a distanza senza la necessità di collegarsi fisicamente al sensore. Sulla base di questa idea, un film di CNT può essere usato come estensimetro, in quanto si è osservata [14] una relazione lineare tra la sollecitazione applicata e la variazione della resistenza elettrica del film indotta dalla deformazione, ottenendo così un prototipo di sensore di deformazione wireless passivo a film sottile per deformazioni localizzate. 159 R. Marani, A. G. Perri Bibliografia e webgrafia di riferimento [1] K. Singh; G. Kaur: “Radio Frequency Identification: Applications and Security Issues”; Nature, vol. 354(56), 1991, pp. 56-58. [2] R. Want: "An introduction to RFID technology", IEEE Pervasive Computing, vol. 5(1), 2006, pp. 25-33. [3] Q. Xiao, T. Gibbsons, H. Lebrun, "RFID Technology, Security Vulnerabilities, and Countermeasures”, 19.mo capitolo del libro Supply Chain the Way toFlat Organisation, Edito da Y.Huo e F. Jia, Intech, ISBN 978-953-7619-35-0, 2009, pp. 357-382. 4] Arun M. Nambiar: "RFID Technology: A Review of its Applications”, Proceedings of World Congress on Engineering and Computer Science, 2009, pp. 1-7. [5] S.F. Wamba, A. Wicks: "RFID deployment and use in the dairy value chain: Applications, current issues and future research directions”, in Technology and Society (ISTAS), 2010 IEEE International Symposium on, 2010, pp. 172-179. [6] K. Ahsan, H. Shah, P. Kingston: "RFID Applications: An Introductory and Exploratory Study”, International Journal of Computer Science Issues, vol. 7(3), 2010, pp.1. [7] R. Mockler, J. Hayes, M. Gartenfield: "RFID and its Applications in Management”. Proceedings of E-Leader Budapest, 2010, pp. 1 17. [8] K. Ouafi, S. Vaudenay: "Pathchecker: An Application for Training Products in supply Chains”, in Workshop on RFID Security, 2009, pp. 1-14. [9] Z. Cheng, C. Wensheng: "A Study on Application of RFID to Container Transportation System”, in 2007 International Conference on Management Science and Engineering, 2007. [10]A. Rida, R. Vyas, T. Wu, RongLin Li, M.M. Tentzeris: "Development and Implementation of Novel UHF Paper-Based RFID Designs for Anti-counterfeiting and Security Applications”, in Anti counterfeiting, Security, Identification, 2007 IEEE International Workshop, pp. 52-56. [11] AP. Renold, R.R. Josh: "An internet based RFID library 160 La Comunicazione N.R.& N. Una introduzione alla tecnologia RFID An introduction to RFID technology management system”, in Information & Communication Technologies (ICT), 2013 IEEE Conference, pp. 932-936. [12] H. Aubert: “RFID Technology for Human Implant Devices”, Comptes rendus a l'Académie des Sciences, 2011, Special issue on nanosciences/nanotechnologies, pp.1-19. [13] K. Hamad-Schifferli, J.J. Schwartz, A.T. Santos, S. Zhang, J.M. Jacobson: "Remote electronic control of DNA hybridization through inductive coupling to an attached metal nanocrystal antenna”, Nature, 2002, 415, pp. 152-155. [14] A. Benchirouf, E Sowade, A Al-Hamry, T Blaudeck, O Kanoun, R Baumann: "Investigation of RFID passive strain sensors based on carbon nanotubes using inkjet printing technology”, in Systems, Signals and Devices (SSD), 9th International Multi-Conference, 2012, pp. 1-6. [15] A.G. Perri “Dispositivi Elettronici Avanzati”; Edizioni Progedit, Bari, II Ed., 2015, ISBN 978-88-6194-081-9. 161 R. Marani, A. G. Perri Roberto Marani, nato a Trani il 27 marzo 1985, ha conseguito la Laurea Specialistica in Ingegneria Elettronica l’8 ottobre 2008, con la votazione di 110/110 e lode, presso il Politecnico di Bari.Dal 1° gennaio 2009 al 31 dicembre 2011 ha frequentato il corso di Dottorato di Ricerca presso il Dipartimento di Elettrotecnica ed Elettronica del Politecnico di Bari, conseguendo il titolo di Dottore di Ricerca. Nel dicembre 2009 è risultato vincitore della borsa di studio "Piccoli scienziati nel PoliBA" nell’ambito del Progetto Arianna per l’attività di ricerca svolta. Dal marzo 2010 ad ottobre 2012 ha collaborato con il gruppo di Nanofotonica ed Elettromagnetismo (nanoPhotonics and Electromagnetics Group, nPEG), coordinato dalla Prof. A. D’Orazio del Politecnico di Bari, occupandosi di metodi numerici per l’elettromagnetismo e di strutture plasmoniche per applicazioni nei campi della biosensoristica, delle energie rinnovabili e delle tecnologie dell’informazione e della comunicazione (ICT). Dal Febbraio 2011 ad Ottobre 2011 ha svolto un periodo di formazione nell’ambito del corso di Dottorato di Ricerca presso il Departamento di Física Teórica de la Materia Condensada dell’Universidad Autónoma de Madrid, Spagna, dove ha svolto attività di ricerca relativa all’analisi e al progetto di sistemi risonanti attivi sotto la guida del Prof. Francisco J. García-Vidal. Attualmente è Ricercatore III livello del CNR (Consiglio Nazionale delle Ricerche), sede di Bari. Il Dr. Marani è autore e co-autore di oltre 100 articoli, apparsi su Riviste Internazionali e presentati a Congressi Internazionali. Anna Gina Perri è Professore Ordinario di Elettronica presso il Politecnico di Bari, dove insegna Fondamenti di Dispositivi Elettronici e Dispositivi Elettronici Avanzati nell’ambito dei corsi di Laurea in Ingegneria Elettronica e delle Telecomunicazioni e Laurea Magistrale in Ingegneria Elettronica, rispettivamente. I suoi interessi scientifici hanno riguardato lo studio e progetto di sistemi ottici di telecomunicazioni, il progetto automatico di amplificatori a microonde a basso rumore, il “modelling” dei dispositivi elettronici e la caratterizzazione degli effetti termici, lo studio di dispositivi optoelettronici basati su strutture PBG (Photonic BandGap) ed il progetto di microrisonatori su PBG per acceleratori di particelle in adroterapia dei tumori. Attualmente è impegnata nello studio e caratterizzazione di dispositivi elettronici nanometrici, FET su nanotubi di carbonio, dispositivi quantistici e per il quantum computing. Dal 2000 la Prof. Perri, in qualità di consulente, collabora con l’ALENIA SPAZIO di Roma. E’ Revisore di prestigiose Riviste Internazionali quali IEEE Transaction on Electron Devices, IEEE Transaction on Microwave and Wireless Components Letters, Solid State Electronics, IEEE Electronic Letters e Current Nanoscience. E’ la Responsabile Scientifica del Laboratorio di Ricerca di "Dispositivi Elettronici" presso il Dipartimento di Ingegneria Elettrica e dell’Informazione del Politecnico di Bari. E’ autrice di 9 libri riguardanti la teoria, le applicazioni, il progetto automatico di dispositivi micro e nanoelettronici e di circuiti integrati per la microelettronica, di 2 libri internazionali e di circa 250 articoli, apparsi su riviste internazionali e presentati a Congressi Internazionali. 162 La Comunicazione N.R.& N. La Comunicazione N.R.&N. Francesco Matera Fondazione Ugo Bordoni Riduzione dei consumi energetici nelle reti core ottimizzando le prestazioni dei sistemi ottici WDM Energy consumption reduction in core networks optimizing WDM optical system performance Sommario: Questo lavoro riporta una serie di studi fatti sul risparmio energetico nelle reti core ed in particolare è mostrato un semplice modello analitico per valutare le prestazioni dei sistemi WDM, che permette di studiare il problema energetico nella metodologia dell’instradamento e dell’assegnazione delle lunghezze d’onda (Routing and Wavelength Assignment) in reti WDM con rigenerazione del segnale. E’ mostrato come considerare gli effetti di degradazione che subiscono i segnali nella trasmissione in fibra ottica e quando effettuare la rigenerazione 3R, proponendo un metodo per assegnare efficacemente l'insieme delle connessioni ottiche, assumendo diversi bit rate e formati di modulazione, con lo scopo di minimizzare la potenza totale consumata nella rete. Abstract: A simple analytical model to evaluate the WDM system performance, verified by means of numerical simulations, has been applied to study the energy-efficient RWA (Routing and Wavelength Assignment) problem in translucent networks, analyzing the consequent need for signal regeneration. We show that taking into account physical layer impairments and the consequent possible regeneration is mandatory to achieve satisfactory energy efficiency in RWA algorithms. Then, we asses the energy efficiency achievable with different modulation formats. The case of mixed line-rate networks is also considered and a heuristic method is proposed to efficiently decide the set of connections, at different bit rates, to be assigned to each traffic demand with the goal of minimizing the total consumed power. 1. Introduzione La crescita del traffico nella rete di accesso, che prevede nei prossimi anni per l’utenza capacità anche superiori ai 100 Mb/s, rischia di far esplodere i consumi energetici nelle reti di telecomunicazioni. Occorre tuttavia fare una distinzione tra la parte di accesso e quella core della rete, in quanto nel segmento di accesso l’introduzione delle architetture in fibra ottica dovrebbe portare ad un miglioramento del 163 F. Matera risparmio energetico rispetto alle architetture in rame, come è stato ampiamente dimostrato nei laboratori ISCOM [1]. Viceversa l’aumento del traffico nella rete di accesso, garantito dalle infrastrutture FTTx (dove x sta per curb, building e home), renderà assai più pesante il funzionamento della parte core dove i router saranno chiamati ad instradare traffici con bit rate superiori ai Tb/s, con importanti ripercussioni sui consumi energetici [2]. Come già mostrato in molti studi, la parte più critica dal punto di vista del consumo energetico è il processo che porta, a ogni nodo, alla conversione del segnale da ottico ad elettrico, al successivo instradamento a livello IP e poi alla nuova conversione del segnale da elettrico ad ottico. Quindi nel futuro bisognerà puntare a tecniche di instradamento che evitino il più possibile questa doppia conversione ottica-elettricoottica con relativo routing IP, cercando di aggregare il traffico già a livello ottico nelle parti Edge della rete con un percorso ottico che punti direttamente all’insieme di utenze connesse in un altro punto della rete EDGE. Perciò il routing IP a livello core andrebbe sostituito il più possibile con un routing fatto a livello EDGE e sfruttando le enormi capacità permesse dalle fibre ottiche, in particolare con le tecniche WDM che permettono il trasporto di tantissime lunghezze d’onda (canali) anche con bit rate e formati di modulazione diversi. Il tema dell'efficienza energetica nelle reti core WDM è già stato studiato in diversi contributi proponendo diverse metodologie che operano sia a livello di elettronica (IP) [2] e ottica (WDM) [3-6]. Uno dei principali principi utilizzati per l’efficienza energetica in reti WDM è quello basato sul metodo del Routing Power-Aware e Wavelength Assegnazione (PA-RWA) che consiste nell’aggregazione dei percorsi ottici (lightpath) su un numero ridotto di collegamenti in fibra in modo da minimizzare il numero di amplificatori ottici e riducendo così il consumo di energetico della rete. Sebbene siano stati proposti vari algoritmi tipo PA-RWA per ridurre significativamente il consumo di potenza nei collegamenti ottici, tutti assumono una rete ottica trasparente trascurando perciò le degradazioni che i segnali possono avere a livello fisico e in particolare quelle dovute al segnale nella sua propagazione in fibra che risulta molto forte su lunghe distanze tipiche delle reti operanti su lunghe distanze. Il PA-RWA può portare ad una notevole riduzione dei costi e risparmi energetici perché riesce ad evitare l’utilizzo di percorsi ottici che consumano energia a causa delle tante apparecchiature di elaborazione elettronica. Tuttavia, i dispositivi ottici inducono diversi disturbi sul segnale ottico che limitano la portata massima della trasmissione, riducendo così la dimensione della rete “ trasparente”. E’ quindi necessario l’utilizzo della rigenerazione 3R per portare la qualità del segnale ad un livello accettabile. In questo contesto, le reti cosiddette “traslucide” 164 La Comunicazione N.R.& N. Riduzione dei consumi energetici nelle reti core ottimizzando le prestazioni dei sistemi ottici WDM Energy consumption reduction in core networks optimizing WDM optical system performance (cioè senza blocchi ma con rigenerazione), sembrano essere l'unica architettura realizzabile per reti core operanti su vaste aree geografiche come quelle nazionali e continentali [7]. Quindi gli algoritmi PA-RWA, finora presentati [4-5], generalmente producono un aumento della lunghezza dei percorsi e ciò solleva la questione se il risparmio energetico derivante da un uso più limitato del numero delle connessioni può essere parzialmente o totalmente annullato dalla crescita del consumo energetico derivante dalla introduzione della rigenerazione 3R. Questo problema è stato studiato per la prima volta in [8], dove è stato preso in considerazione un modello per la valutazione delle prestazioni dei sistemi WDM, che ha permesso il calcolo della distanza massima di trasmissione trasparente considerando la degradazione derivante dalla fibra in condizioni di propagazione sia lineare che non lineare. Per mezzo di questo modello le prestazioni del sistema WDM possono essere calcolate e quindi l'impatto della rigenerazione elettronica sul consumo energetico della rete è stato analizzato quando viene utilizzato un algoritmo PA-RWA. In questo lavoro applichiamo questo metodo, dedicando particolare interesse al caso dei sistemi WDM con bit rate e formati di modulazione diversi (MIxed Line Rate). Il lavoro è organizzato nel modo seguente. Dopo questa introduzione nella Sez. II si descrive il modello per il calcolo delle prestazioni dei sistemi WDM, nella Sez. III riportiamo una breve panoramica sugli strumenti per valutare l'efficienza energetica delle reti core, nella Sez. IV descriviamo alcuni dei principi base dei metodi per ottenere risparmi energetici, con cenni agli algoritmi utilizzati. Nella Sez. V riportiamo i principali risultati sul risparmio energetico nelle reti a grande estensione geografica, mentre le conclusioni sono riportate nella Sez. VI. 2. Il Modello WDM Recentemente diversi approcci analitici sono stati presentati che permettono di valutare le prestazioni dei sistemi WDM tenendo conto della interazione non lineare tra i canali e consentendo il calcolo del fattore Q anche con elevata precisione [13-16]. In particolare tra gli approcci analitici WDM uno dei più importanti è quello che è stato ottenuto nel contesto di un approccio nel dominio della frequenza, che è noto come Gaussian Noise (GN) [13]. In tale approccio il rumore può essere ipotizzato approssimativamente come gaussiano e additivo. D'altra parte, adottando un approccio perturbativo nel dominio del tempo è possibile utilizzare un altro modello per sistemi WDM di tipo semplice che ha dimostrato di essere affidabile nella maggior parte delle reti WDM attuali e future [11]. In particolare in [11] il comportamento non lineare a canale singolo è stato studiato con 165 F. Matera l'introduzione della lunghezza di interazione non lineare, , che tiene conto della interazione non lineare di tipo Kerr tra gli impulsi. Tale parametro può essere valutato analiticamente seguendo l'approccio descritto in [12] [18] per segnali modulati sia in ampiezza che in fase. Tale modello è stata verificato per diversi sistemi WDM [11], anche nel contesto di sistemi di linea con bit rate e formati di modulazione diversi [11]. Quindi per ottenere l'assegnazione delle lunghezze d'onda tenendo in conto dei limiti indotti dalla propagazione non lineare abbiamo adottato il calcolo del fattore Q riportato in [11] in cui: PAv Q= ξRb N ASE N + ργ 2 PAv3 L2NLI N ϑ + 4γ 2 PAv3 L2A S B N χ β 2 Rb2 Nel denominatore possiamo distinguere 3 diversi contributi di 2 rumore; σ ASE = ξRb N ASE N è il rumore ASE emesso dagli amplificatori 3 2 ottici supposti con un guadagno G, ργ 2 PAv LNLI N ϑ è il rumore dovuto alla interazione nonlineare di tipo Kerr per il canale sotto osservazione 2 e σ WDM = 4γ 2 PAv3 LA S B N χ è l’interazione di tipo Kerr tra canali. PAV è β 2 Rb2 la Potenza media del segnale in ingresso e N ASE = ω 0 (G − 1)n sp è la densità spettrale del rumore ASE per unità di banda che è aggiunto da ciascun amplificatore di linea , è la costante ridotta di Plank, ω0 la frequenza centrale e nsp il fattore di emissione spontanea. ξ è un valore che dipende dal formato di modulazione e rivelazione, Rb è il symbol rate. γ è il coefficiente nonlineare. Il contributo di rumore dovuto alla interazione nonlinerare tra segnali ortogonali in polarizzazione [9][19] è tenuto in conto mediante il fattore ρ ed in particolare ρ =1 in assenza di multiplazione di polarizzazione, mentre assume un valore maggiore di 1 nel caso di sistemi POLMUX; inoltre tale parametro dipende anche dalla sovrapposizione temporale che hanno gli impulsi [20] e quando sono perfettamente sovrapposti temporalmente ρ =1.7 [9], mentre quando la sovrapposizione è minima ρ si riduce a 1.07. Il termine ϑ dipende dal tipo di compensazione della dispersione cromatica e varia tra 1 e 2. In particolare nel caso di compensazione periodica in-line ϑ =2, mentre nel caso di compensazione tutta alla fine ϑ tende ad assumere valori più bassi e nei casi trattati in questo lavoro ϑ ≈ 1.4. S B prende in considerazione l'interazione tra gli m canali WDM e nel caso di molti canali (m>>1), per il canale centrale si può assumere S B ≈ κRb [ln(m / 2) + 0.57] , dove ∆f è la spaziatura in π∆f frequenza tra canali adiacenti e κ dipende dal tipo di modulazione e 166 La Comunicazione N.R.& N. Riduzione dei consumi energetici nelle reti core ottimizzando le prestazioni dei sistemi ottici WDM Energy consumption reduction in core networks optimizing WDM optical system performance per i nostri casi vale sempre 0.21 tranne che 0.36 per l’8QAM. L'eq, (1) può anche essere estesa ai sistemi aventi canali con bit rate diversi come riportato in [11]. La rete che consideriamo in questo lavoro è costituita da fibre G.652 con collegamenti costituiti da N tratte con lunghezza LA =80 km, che corrisponde alla spaziatura tra gli amplificatori ottici. La dispersione cromatica è 16 ps/nm/km, le perdite 0.25 dB/km e il coefficiente nonlineare 1.3 W-1km-1 [8]. Il guadagno degli amplificatori ottici è di 20 dB e n sp =2. Nella tabella 1 riportiamo i parametri espressi nella eq. (1) per i diversi sistemi utilizzati in questo lavoro. Modulationdetection scheme Bit-rate (Gbit(s)) T ( (ps) ξ L NLI Nmax W=40W=80 NRZ-IMDD 10 100 2 0.5 95 90 RZ-DQPSK 40 14 2 0.77 30 29 8QAM 100 7.5 2 3.4 18 17 PM-QPSK 100 12 1.5 0.83 28 27 3. Modello della Rete Core e consumi energetici Tabella 1. Parametri dei sistemi utilizzati in questo lavoro. NRZ Non Return to Zero, RZ Return to Zero, IMDD Intensity modulation with Direct Detection, DQPSK Differential Quadrature Phase Shift Keying, QAM Quadrature Amplitude Modulation, PM Polarization Multiplexing. T è la durata degli impulsi. L'architettura tipica di una rete core è generalmente composta da due strati, come illustrato in Fig. 1. Lo strato superiore è una rete IP i cui nodi sono router IP, mentre quello inferiore è una rete ottica WDM a commutazione di circuito, i cui nodi sono Optical Cross Connect (OXC). I collegamenti tra gli OXC sono costituiti da fibre ottiche. Diversi canali (lunghezza d'onda diverse) sono multiplati nello stesso collegamento in fibra ottica mediante un multiplexer (MUX) e un de-multiplexer (DEMUX) all'altra estremità del collegamento. Un certo numero di amplificatori ottici (OA) sono disposti lungo ciascun collegamento in fibra ottica; ciascun OA amplifica tutte le lunghezze d'onda che si propagano in una fibra. Un collegamento tra due core router (rappresentato dalla linea tratteggiata in figura 1) è costituito quindi da un percorso ottico (lightpath) stabilito nella rete ottica mediante un canale WDM con un formato di modulazione e bit rate definito nell' ambito della rete. Chiaramente due router potranno essere anche connessi con diversi lightpaths. 167 F. Matera Il consumo energetico della rete core è dato dalla somma di diversi contributi che possono così essere riassunti per quanto riguarda la parte ottica [9] PmOXC = N mTR P TR + N mREG P REG (2) FL ILA ILA Pmn = N mn P + P BA + P PA + P DEMUX (3) OXC dove Pm è la potenza consumata dall' m-esimo OXC, , P e P REG sono le potenze consumate da ciascun transponder e rigeneratore 3R, mentre N mTR and N mREG sono il numero di transponder e rigeneratori 3R dell'm-esimo OXC. Per completare i contributi del consumo energetico per ogni nodo occorre tenere in conto il consumo, P R , dovuto alla elaborzione elettronica dei router per l'instradamento del traffico. In genere PR assume valori anche 10 volte maggiori rispetto a PmOXC . TR I termini nell'eq. (3) si riferiscono alla potenza del collegamento nella fibra (m e n sono i punti di terminazione della fibra), al numero e alla potenza degli amplificatori in linea (ILA) oltre alla potenza del buster, del preamplificatore e del DEMUX. Utilizzando i valori di consumi adottati in [3] abbiamo P ILA =40 W, P BA + P PA + P DEMUX = 240 W e per i trasponder assumiamo 50 W, 100 W, and 150 W rispettivamente per i sistemi a 10 Gbit/s, 40 Gbit/s, and 100 Gbit/s. Le eq. (2) e (3), insieme ai valori riportati ci fanno subito intuire che una diminuzione del consumo energetico nella rete avviene se limitiamo la conversione otticaelettrica-ottica e quindi l'utilizzo di transponder e elaborazione IP in pratica dobbiamo cercare di far propagare il segnale il più possibile a livello ottico, evitando l'utilizzo dei rigeneratori 3R, e quindi dobbiamo cercare di evitare connessioni troppe lunghe, dove l'effetto Kerr e l'ASE potrebbero dare una forte degradazioni del segnale. 168 Figura 1. Architettura di una rete core (backbone) di tipo IP over WDM . La Comunicazione N.R.& N. Riduzione dei consumi energetici nelle reti core ottimizzando le prestazioni dei sistemi ottici WDM Energy consumption reduction in core networks optimizing WDM optical system performance 4. Metodi per il risparmio energetico nelle reti core: gli algoritmi Finora, la maggior parte dei metodi per ridurre il consumo energetico nelle reti core si sono basati sull'aggregazione di lightpath su un insieme ridotto di collegamenti a fibre ottiche ed è stato mostrato l'importanza di questi algoritmi che adottavano questo principio e che sono stati denominati di Power Aware Routing e Wavelength Assignment (PA-RWA) [4], che comunque inducono un aumento delle massime distanze percorse dai lightpath, con conseguente degrado del segnale e con la necessità dell'introduzione di rigeneratori. Pertanto il comportamento della metodologia PA-RWA doveva essere rivisto tenendo conto delle limitazioni indotte dalla propagazione del segnale. Questa indagine è stata condotta per la prima volta, a nostra conoscenza in [8], dove è stata introdotta una formulazione di ottimizzazione della rete attraverso un modello di tipo Integer Linearing Problem ( ILP). Purtroppo modello ILP presentato in [8] porta a soluzioni che sono possibili solo nel caso di piccole reti. Tuttavia in [8] è stato proposto anche un algoritmo euristico per minimizzare i consumi energetici tenendo in conto i limiti della propagazione e l'uso dei rigeneratori 3R, anche nel caso di grandi reti. L'analisi e la descrizione di questi algoritmi è assai complessa e può comunque essere trovata in tutta la sua formulazione in [8]. In questo lavoro preferiamo soffermarci sui risultati e le consequenze sulla realizzazioni delle reti. 5. Analisi dei risultati In questa sezione presentiamo i risultati numerici ottenuti eseguendo simulazioni in diverse condizioni per la rete e per il traffico. Prima di tutto, si valuta il consumo energetico supponendo l'utilizzo del metodo PA-RWA, trascurando i limiti della propagazione in fibra e quindi l'utilizzo dei rigeneratori 3R. Successivamente si considerano i problemi della propagazione e l'incremento del consumo energetico dovuto alla necessità di introdurre i rigeneratori 3R. Infine, si valutano i consumi nel caso di reti MLR. Al fine di ricavare risultati validi in condizioni molto ampie, abbiamo generato topologie di reti fisiche in maniera casuale secondo il metodo descritto in [8]. In questo modo, possiamo considerare reti con diverse caratteristiche topologiche. Specificamente, topologie di rete vengono generate fissando il numero di nodi N e il grado di connessione media dei nodi K. I nodi sono distribuiti uniformemente in un'area quadrata di lato pari a L Km. Abbiamo preso in considerazione un numero di nodi N pari a 25 e diversi valori di K e L. Si assumono sistemi WDM che trasportano 80 lunghezze d'onda (cioè, W = 80). Per ogni combinazione dei precedenti parametri topologici vengono generati 20 diverse topologie e, per ciascuno di essi, sono considerati 20 diverse matrici che descrivono il traffico tra i nodi. 169 F. Matera a) Conseguenze dei limiti trasmissivi delle fibre ottiche per il risparmio energetico La prima serie di risultati, mostrati in Fig. 2, ha lo scopo di valutare, ai fini del risparmio energetico, i limiti imposti dalla propagazione in fibra vedendo come cambiano i consumi quando si applica un algoritmo RWA che punta al risparmio energetico semplicemente aggregando il traffico per spegnere i collegamenti in fibra con poco traffico. Come detto nel Capitolo III questo algoritmo porterebbe a considerare lightpath operanti su distanze molto lunghe, e quindi a causa delle limitazioni della fibra sarebbe necessaria l'introduzione di rigeneratori 3R, che aumenterebbero i consumi di potenza. I grafici in Fig. 2 mostrano il consumo energetico della rete senza rigenerazione e con rigenerazione 3R in funzione della quantità di traffico, espressa come traffico totale medio generato e terminato in ciascun nodo, supponendo sistemi WDM con solo canali a 40 Gbps e due differenti dimensioni di rete (1000 e 3000 km). Sono anche considerati due diversi gradi di connessione K. La fig. 2 mostra chiaramente che tenendo conto del deterioramento della trasmissione ottica è richiesto un consumo di energetico più elevato a causa della necessità di rigeneratori 3R. In particolare per L = 1000 km la differenza tra con e senza rigenerazione è piccola poiché i percorsi ottici di lunghezza superiore alla distanza massima di propagazione (vedere tabella 1) sono pochi. Considerando altri risultati riportati in [8] possiamo dire che il metodo PA-RWA, per L = 1000 km, porta sempre ad un risparmio energetico dell'ordine del 30% che è praticamente mantenuto pur tenendo in considerazione i limiti trasmissivi. Viceversa per L = 3000 km i cammini ottici, che presentano una lunghezza maggiore della massima permessa dalla trasmissione in fibra, sono diversi e richiedono quindi un sensibile uso di rigeneratori 3R, il che porta ad un maggiore consumo energetico. Quindi questa figura indica che il metodo PA-RWA deve essere modificato per fare una aggregazione del traffico che prenda in considerazione anche la massima distanza percorribile e questo verrà mostrato nelle due successive figure seguendo l'approccio riportato in [8]. La fig. 2 sottolinea anche l'importanza del grado K: infatti aumentando il numero di lightpath a disposizione per ogni nodo si produce una riduzione del consumo energetico. 170 La Comunicazione N.R.& N. Riduzione dei consumi energetici nelle reti core ottimizzando le prestazioni dei sistemi ottici WDM Energy consumption reduction in core networks optimizing WDM optical system performance Nelle stesse condizioni topologiche di fig. 2, esaminando i risultati per canali a 10 e 100 Gbps, che non riportiamo per brevità, possiamo riassumere che per 10 Gbps nessuna variazione può essere osservata anche per L = 3000 km perchè la massima distanza di propagazione supera i 3000 km (tabella 1). Viceversa nel caso di 100 Gbps una grossa differenza può essere osservata sia adottando la tecnica 8QAM o la PM-QPSK. In particolare il comportamento di 100 Gbps PM-QPSK, in termini di percentuale di rigenerazione 3R rispetto al senza 3R, è molto simile al caso 40 Gbps, viceversa un ampio aumento di 3R è mostrato nel caso di 8QAM, a causa della forte riduzione della distanza massima di propagazione per questo formato di modulazione. b) Efficienza dei diversi formati di modulazione Figura 2. Il consumo di energia senza rigenerazione 3R (linee tratteggiate) e con rigenerazione 3R (linee continue) in funzione del traffico totale medio generato e terminato in ogni nodo, supponendo canali a 40 Gbps. K è il grado di connessione media dei nodi . In questo paragrafo analizziamo la dipendenza dell'efficienza energetica della rete dal formato di modulazione (e il relativo bit-rate) . Fig. 3 mostra l'energia consumata dalla rete per ogni bit trasmesso in funzione del traffico medio totale per il nodo (Gbps). Chiaramente meno è il consumo energetico per bit e più efficiente è la rete dal punto di vista energetico. Come previsto, quando il traffico richiesto è basso, le modulazioni a minor bit rate (10 Gbps) portano a risultati migliori. Infatti utilizzando formati di modulazione con bit rate più alti non si ottiene una riduzione dei collegamenti, mentre la potenza assorbita da ciascuno di essi aumenta notevolmente a causa del maggior consumo dei transponder e del maggior numero di rigenerazioni richieste. Al contrario, quando il carico di traffico è elevato, adottando reti con canali a 40 e 100 Gbps (PM QPSK) il 171 F. Matera trasporto diventa sempre più efficiente. Viceversa i limiti del 8QAM in termini di massima distanza di propagazione non permettono alcun miglioramento in termini di efficienza energetica. Si può anche vedere che la gamma di convenienza dei sistemi a 40 Gbps rispetto ai 100 Gbts PM QPSK vale solo per basso traffico ed è comunque molto debole. Il 10 Gbps conviene nettamente per basso traffico mentre per altro traffico è molto conveniente il 100 Gbps con formato PM QPSK, mentre il 100 Gbps 8QAM non mostra alcuna convenienza rispetto agli altri sistemi di modulazione. C) Prestazioni per reti con Mixed Line Rate (MLR) . L'ultima analisi riguarda l'efficienza delle reti MLR utilizzando il meccanismo presentato in [8]. I risultati presentati in Fig. 4 mostrano la percentuale di risparmio energetico rispetto al miglior risultato ottenuto nelle reti utilizzando sempre lo stesso formato di modulazione, e cioè, 10, 40, o 100 Gbps (PM QPSK e 8QAM). Possiamo vedere che, sfruttando adeguatamente il paradigma MLR, si arriva a risparmiare fino al 25%.. Infatti lo schema proposto è in grado di scegliere la modulazione più efficace in funzione del carico di ogni richiesta traffico e la "distanza" tra ogni coppia di nodi specifica, ottenendo così un comportamento quasi ottimale fra i contributi del consumo di potenza descritti nel Par. III. Infine, il beneficio del meccanismo proposto è più evidente per reti molto estese, in cui più richieste di traffico possono essere realizzate in maniera efficace da connessioni a 10 Gbps specialmente nel caso di nodi molto distanti ma con basso traffico. 172 Figura 3. Efficienza energetica in funzione del traffico medio nel nodo considerando diversi formati di modulazione. La Comunicazione N.R.& N. Riduzione dei consumi energetici nelle reti core ottimizzando le prestazioni dei sistemi ottici WDM Energy consumption reduction in core networks optimizing WDM optical system performance Conclusioni Questo lavoro descrive una analisi sulla progettazione di reti core ottiche con l’obiettivo del risparmio energetico e tenendo in considerazione i vincoli dovuti alla propagazione dei collegamenti WDM e l'uso di rigeneratori 3R per aumentare la lunghezza dei cammini ottici del segnale. I risultati mostrati in questo documento dimostrano che con la forte crescita del traffico il risparmio energetico può essere efficientemente ottenuto aumentando il numero di lightpath (connessioni ottiche) tra i nodi e diminuendo quindi il routing IP elettronico, ed in particolare cercando di collegare direttamente la sorgente e la destinazione con un percorso ottico " trasparente", e cioè senza rigenerazione, e sfruttando quindi tutta la massima distanza di trasmissione permessa dallo schema di modulazione-rivelazione adottato. Un ulteriore vantaggio in termini di efficienza energetica sarà ottenuto con l'adozione di sistemi WDM con bit rate misti in cui ogni canale utilizza un bit rate che si adatta al carico da trasportare. Ringraziamenti Lavoro realizzato nell'ambito del progetto ATENA-RE sostenuto dal Ministero dello Sviluppo Economico. Si ringraziano il Prof. Marco Listanti e il Dott. Angelo Coiro per il supporto dato a questo lavoro. Figura 4. Risparmio di Potenza con la tecnica MLR valutato rispetto al miglior comportamento per reti con unico formato di modulazione: 10, 40 e 100 (PM QPAK e 8QAM) Gbps. 173 F. Matera Bibliografia [1] [2] [3] [4] [5] [6] [7] [8] [9] [10] [11] [12] [13] [14] [15] [16] [17] [18] [19] [20] [21] [22] A. Valenti, F. Matera, D. Del Buono, " ENERGY IMPACT OF THE FUTURE FIBRE OPTICS ACCESS NETWORKS: ECONOMIC PERSPECTIVES " Fotonica 2015, Torino 6-8 maggio 2015 Y. Zhang, P. Chowdhury, M. Tornatore, and B. Mukherjee, “Energy efficiency in telecom optical networks,” Communications Surveys Tutorials, IEEE, vol. 12, no. 4, pp. 441–458, Fourth 2010. H. Zang and J. P. Jue, “A review of routing and wavelength assignment approaches for wavelength-routed optical wdm networks,”Optical Networks Magazine, vol. 1, pp. 47– 60, 2000. Y. Wu, L. Chiaraviglio, M. Mellia, and F. Neri, “Power-aware routing and wavelength assignment in optical networks,” in Optical Communication, 2009. ECOC ’09. 35th European Conference on, sept. 2009, pp. 1 –2 A. Coiro, M. Listanti, and A. Valenti, “Dynamic power-aware routing and wavelength assignment for green wdm optical networks,” in Communications (ICC), 2011 IEEE International Conference on, 2011, pp. 1–6. A. Coiro, M. Listanti, and A. Valenti, “Impact of energy-aware topology design and adaptive routing at different layers in ip over wdm networks,” in Telecommunications Network Strategy and Planning Symposium (NETWORKS), 2012 XVth International. B. Ramamurthy, H. Feng, D. Datta, J. Heritage, and B. Mukherjee, “Transparent vs. opaque vs. translucent wavelength-routed optical networks,” in Optical Fiber Communication Conference, 1999. A. Coiro, M. Listanti, F. Matera, “Energy-Efficiency Routing and Wavelength Assignment in Translucent Optical Networks” in press on J. of Optical Communications and Networking, 2014. A. Coiro, M. Listanti, A. Valenti, and F. Matera, “Power-aware routing and wavelength assignment in multi-fiber optical networks,”Optical Communications and Networking, IEEE/OSA Journal of, vol. 3, no. 11, pp. 816 –829, november 2011 F. Matera, "Nonlinear performance limits in higly dispersive transmission systems" proc. ECOC 2013, London, September 21-24, P4.11, 2013 F. Matera “Mixed Line Rate WDM System Performance in Highly and Weakly Dispersive Regimes” in Xplore proc. Fotonica 2014, May 12-14, Naple (It), 2014. A. Mecozzi, "A Unified Theory of Intrachannel Nonlinearity in Pseudolinear Transmission" in "Impact of Nonlinearities on Fiber Optic Communications" pp. 253291, Springer New York 2011. P. Poggiolini "The GN model of Non-linear Propagation in Uncompensated Coherent Optical Systems" ”, J. of Lightwave Technolog, vol. 30, pp. 3857-3879, 2012. A. Mecozzi, E.-J. Essiambre, “Nonlinear Shannon Limit in Pseudolinear Coherent Systems”, J. of Lightwave Technolog, vol. 30, n. 12, pp. 2011-2024, 2012. M. Secondini, E. Forestieri, G. Prati, “Achievable information rate in nonlinear WDM fiber-optic system with arbitrary modulation formats and dispersion maps” J. of Lightwave Technolog, vol. 31, n. 23, pp. 3839-3852, 2013. R. Dar, M. Feder, A. Mecozzi, M. Shtaif, "Properties of nonlinear noise in long dispersion uncompensated fiber links" Optics Express vol. 21, pp.25685-25699, 2013. P. Poggiolini, G. Bosco, A. Carena, V. Curri, Y. Jiang, F. Forghieri “A Simple and Effective Closed-Form GN model Correction Formula Accounting for Signal Non-Gaussian Distribution” in Press on J. of Lightwave Technology. A. Mecozzi, M. Tabacchiera, F. Matera, M. Settembre, 2011. “Intra-channel nonlinearity in differentially phase-modulated transmission. Optics Express vol. 19, n. 5, pp. 33903395, 2011. A. Mecozzi, F. Matera, “Intrachannel nonlinearity enhancement in polarization multiplexed phase modulated systems with differential detection. Optics Letters, 36 (1): 3903-3905. 2011. A. Mecozzi, F. Matera, “Intrachannel nonlinearity enhancement in polarization multiplexed phase modulated systems with differential detection. Optics Letters, 36 (1): 3903-3905. 2011. N. Sambo, M. Secondini, F. Cugini, G. Bottari, P. Iovanna, F. Cavaliere, P. Castoldi, "Modelling and distribuited provisioning in 10-40-100 Gb/s multirate wavelength switched optical networks" J. Ligthwave Technology vol. 29, n. 9, pp. 1248-1257, 2011. A. Mecozzi, F. Matera, “Polarization scattering by intra-channel collisions” Optics Express, 20 ( 2): 1213-1218. 2012. 174 La Comunicazione N.R.& N. La Comunicazione N.R.&N. Agostino Giorgio Dipartimento di Ingegneria Elettrica e dell’Informazione Politecnico di Bari Dispositivo Medico per la Diagnosi Oggettiva di Patologie Psicosomatiche A Medical Device For The Instrumental Diagnosis Of Psychosomatic Disorders Sommario:. In questo articolo viene presentato un dispositivo innovativo dedicato alla diagnosi oggettiva delle malattie psicosomatiche, come ad esempio la depressione, tramite il rilevamento a lungo termine di eventuali asimmetrie esistenti fra i segnali provenienti dalla corteccia frontale dei due emisferi dell’encefalo, asimmetrie correlate ai disturbi psicosomatici. Il dispositivo è di ridotte dimensioni e consente di effettuare la diagnosi di malattie psicosomatiche anche a distanza e acquisendo tracciati a lungo termine in telemonitoraggio. Abstract: The purpose of this paper is to present a medical device for the reliable diagnosis of psychosomatic illnesses, such as depression, by using the electroencephalographic signal. The presented device allows detecting any asymmetries between the signals from the frontal cortex in both hemispheres. The device is small and easy to use so that it can also be used in medical studies of general practitioners. 1. Introduzione Il problema principale nella cura della depressione e delle malattie psicosomatiche in generale è quello di ottenere una diagnosi affidabile perché difficilmente oggettivabile. L'obiettivo di questo lavoro è di presentare un dispositivo finalizzato alla diagnosi scientificamente oggettiva e quindi affidabile delle malattie psicosomatiche che consenta una più rapida guarigione e di ridurre i costi di diagnosi sia di cura della malattia. 2. Metodo di diagnosi Il metodo implementato si basa sul rilevamento di asimmetrie in alcune onde elettroencefaliche [1]. Il range di frequenze di queste onde elettriche cerebrali si estende da 0.5 Hz a 100 Hz con un'ampiezza variabile fra 20 e 200 µV. In base alla frequenza, le onde cerebrali sono classificabili in 4 gruppi: Alpha (8-13 Hz), Beta (13-50 Hz), Theta (4-7 Hz) e Delta (0.5-4 Hz) [2]. R. Davidson [3] e B. Lithgow [4] hanno proposto i risultati di uno studio in base al quale i soggetti affetti da depressione presentano un'attivazione 175 A.Giorgio asimmetrica della corteccia frontale sinistra rispetto alla destra, rilevabile attraverso l’acquisizione delle onde Alpha. Sulla base di questa teoria si può sviluppare un metodo oggettivo di diagnosi per il quale è stato necessario progettare il dispositivo presentato di seguito. Per una diagnosi maggiormente affidabile, l’analisi delle onde Alpha viene effettuata su tracciati acquisiti a lungo termine per cui il dispositivo presenta anche un’interfaccia wireless per effettuare acquisizioni a lungo termine in tele monitoraggio senza particolare disagio per il paziente. 3. Progetto Il dispositivo deve essere in grado di rilevare la presenza di una netta e persistente differenza fra le ampiezze del segnale Alpha proveniente dai due lobi dell'encefalo. L’hardware deve essere quindi in grado di amplificare esclusivamente la differenza fra i due segnali prelevati sullo scalpo; un software appositamente sviluppato esegue il confronto della differenza dei due segnali con un valore di soglia. Infatti, il superamento di una soglia critica, di seguito meglio specificata, indica la presenza oggettiva di malattia psicosomatica. Il valore di ampiezza medio delle onde Alpha è compreso fra 40 e 50 µV e una differenza persistente in ampiezza del 50% a favore dell'emisfero dominante può essere considerata fisiologica. Prendendo come riferimento questo emisfero, una differenza del segnale proveniente dall'emisfero dominante rispetto al segnale proveniente dall'emisfero non dominante compresa fra il 50 - 70% indica una situazione di incertezza che necessita di approfondimento; una differenza superiore al 70% è considerata come sintomo oggettivo della presenza di una patologia psicosomatica. A. Specifiche di progetto Il dispositivo deve presentare: • banda passante compresa fra 8 -13 Hz. Il sistema di filtraggio deve eliminare la continua in uscita, aumentare il SNR ed evitare il problema dell'aliasing durante la fase di campionamento; • CMRR molto elevato e superiore a 100 dB, in modo da riuscire ad amplificare solo il segnale utile, reiettando il più possibile i segnali di modo comune; • fattore di amplificazione K tale da adattare il segnale proveniente dagli elettrodi alla dinamica di ingresso dell'ADC. Considerando, quindi, una differenza compresa fra 10 - 100 µV e una dinamica di 5V, otteniamo un valore di K compreso fra 50000 e 500000. Possiamo, quindi, stabilire degli intervalli di ampiezza del segnale per effettuare la diagnosi sul paziente, come in tabella I. 176 La Comunicazione N.R.& N. Dispositivo Medico per la Diagnosi Oggettiva di Patologie Psicosomatiche A Medical Device For The Instrumental Diagnosis Of Psychosomatic Disorders Differenza in % fra segnali 50% 70% Differenza in µV fra i segnali 16.7 20.6 Segnale differenza amplificato (V) 0.835 1.03 Tab. I B. Schema a Blocchi L'hardware è costituito fondamentalmente da una sezione di acquisizione costituita dai sensori, da un amplificatore da strumentazione ed alcuni filtri per il trattamento del segnale. Alla sezione di acquisizione segue la sezione di conversione analogico digitale e di elaborazione in tempo reale tramite un microcontrollore, che si preoccupa anche di gestire tutte le funzionalità del dispositivo. Segue una sezione di interfacciamento con un modulo bluetooth, per telemonitoraggio a corto raggio, oppure GPRS/UMTS/LTE per telemonitoraggio a lungo raggio. Nel seguito viene illustrata sommariamente la sezione di acquisizione, di delicata progettazione. B 1 . Elettrodi Il segnale proveniente dai due emisferi sarà prelevato da due elettrodi superficiali in posizione Fp1 e Fp2 (Sistema Internazionale 10-20), riferiti ad un terzo elettrodo posto sul lobo dell'orecchio. Gli elettrodi da utilizzare sono i comuni elettrodi superficiali Ag/AgCl posti sullo scalpo. B 2 . Amplificatore da Strumentazione L'amplificatore da strumentazione (IA - Instrumentation Amplifier) ha il compito di amplificare solo la differenza esistente fra i due segnali in ingresso. All'ingresso non invertente sarà posto l'elettrodo proveniente dall'emisfero non dominante e a quello invertente l'elettrodo collegato all'emisfero dominante. Il dispositivo usato in questo progetto è l'AD522 dell'Analog Devices che fornisce un elevato valore di CMRR superiore a 110 dB, amplificazione fino ad un fattore 1000 e un rumore massimo pari a 1.5 µV picco-picco a frequenze comprese fra 0.1 - 100 Hz. Gli stadi di amplificazione supplementare possono essere implementati impiegando lo stesso dispositivo opportunamente configurato. Tabella I. Soglie di diagnosi I B 3 . Filtro passa-banda Il filtro passa-banda ha il compito di eliminare tutte le componenti del segnale elettroencefalografico non utili alla diagnosi della malattia, ovvero le onde cerebrali che si trovano al di fuori della banda delle onde Alpha (813 Hz). Questo filtro è stato realizzato come la cascata di un filtro passabasso e di uno passa-alto di tipo Sallen-Key. Lo schema circuitale è riportato in fig. 1 e la risposta in frequenza in fig. 2 177 A.Giorgio C3 R2 14.067k 200n - 1Vac 0Vdc C1 C2 V11u 1u 0 OPAMP R3 R4 86.569k 86.569k + C4 U2 100n V 0 0 B 4 . Filtro passa-basso Il filtro passa-basso aumenta il SNR (Signal to Noise Ratio) attenuando le componenti di segnale indesiderato presenti ad alta frequenza come rumore ed eventuali componenti armoniche, ed elimina il problema dell'aliasing evitando che le repliche si vadano a sovrapporre. Si è scelto un filtro molto selettivo del quinto ordine formato dalla cascata di due filtri del secondo ordine di tipo Sallen-Key ed uno del primo (rete RC). La configurazione circuitale dell'intero filtro è mostrata in figura 3 imponendo una frequenza di taglio di 18 Hz; in figura 4 è mostrata la risposta in frequenza del filtro. 178 OUT OUT + U1 R1 28.135k OPAMP Figura 1. Schema circuitale filtro passa-banda Figura 2. Risposta in frequenza del filtro passabanda La Comunicazione N.R.& N. Dispositivo Medico per la Diagnosi Oggettiva di Patologie Psicosomatiche A Medical Device For The Instrumental Diagnosis Of Psychosomatic Disorders C. Convertitore A/D Il convertitore utilizzato in questo progetto è l’ADS1298 utilizzato in tutte le applicazioni mediche della Texas Instrument, caratterizzato da un CMRR pari a 115 dB di valore tipico e 105 dB di valore minimo e un SNR di 112 dB come valore tipico. 4. Figura 3. Schema circuitale del filtro passa-basso Figura 4. Risposta in frequenza del filtro passabanda Conclusioni e sviluppi futuri Il dispositivo presentato ha lo scopo di consentire una diagnosi oggettiva di malattie psicosomatiche, diagnosi altrimenti sovente legata alla perizia del medico ed alla sua valutazione soggettiva e quindi passibile di errore. Il dispositivo si basa su una teoria ormai accettata in ambito medico in base alla quale esiste una relazione oggettiva fra il segnale proveniente dalla corteccia prefrontale e la presenza di malattie psicosomatiche, in particolare la depressione. Il dispositivo proposto consente un monitoraggio a lungo termine, a corto o lungo raggio, dell’attività cerebrale maggiormente coinvolta dalla presenza di patologie psicosomatiche in modo da favorirne una diagnosi oggettiva. 179 A.Giorgio Il progetto del dispositivo adatto a tale diagnosi risulta semplice ed affidabile per cui rappresenta un incoraggiante punto di partenza procedere con la validazione e quindi la certificazione e immissione sul mercato di uno strumento che può rivelarsi molto utile per affrontare dal punto di vista medico ma anche sociale ed economico un problema la cui entità cresce esponenzialmente nel tempo qual è quello delle malattie psicosomatiche e in particolare della depressione. Bibliografia. [1] JOHN J. WEBSTER, Medical Instrumentation Application and Designed, John Wiley & Sons Inc., 2009 [2] M. J. AMINOFF, Electrodiagnosis in Clinical Neurology, Churchill Livingstone editore, 1999 [3] R. DAVIDSON, EEG Measures of Cerebral Asymmetry: Conceptual and Methodological Issues, International journal of neuroscience, vol. 39, pp. 71-89, 1988 [4] A.J. NIEMIEC, B. J. LITHGOW, Alpha-band characteristics in EEG spectrum indicate reliability of frontal brain asymmetry measures in diagnosis of depression, IEEE - Engineering in Medicine and Biology Society, pp. 7517-7520, 2005 180 La Comunicazione N.R.& N. La Comunicazione N.R.&N. Roberto Marani, Anna Gina Perri Dipartimento di Ingegneria Elettrica e dell’Informazione, Laboratorio di Dispositivi Elettronici, Politecnico di Bari Principali applicazioni sensoristiche dei Nanotubi di Carbonio Main Sensor applications of Carbon Nanotubes Sommario: In questo articolo, dopo una breve descrizione delle proprietà elettroniche dei NanoTubi di Carbonio (CNT), legate alla possibilità di esibire un comportamento metallico o semiconduttivo in relazione alla loro geometria, vengono esaminate alcune tra le principali applicazioni dei CNTs nel campo della sensoristica. Abstract: In this paper, after a brief review of electronic properties of Carbon NanoTubes (CNTs), we present some of the main applications of CNTs in the sensor field. 1. Introduzione La tecnologia può essere definita come l’insieme dei processi o fasi di lavorazione necessarie per fabbricare dispositivi e sistemi di complessità qualunque. All’avanzare della tecnologia si accompagna l’avanzare del progresso dove per progresso intendiamo tutto quanto i prodotti della tecnologia permettono di fare: dispositivi per mezzi di trasporto, domotica, applicazioni medicali, computazione, grafica, telecomunicazioni, creazione di nuovi strumenti per acquisire sapere (ricerca), educare, ecc. Lo stato di avanzamento della tecnologia si misura dalla dimensione minima che un dispositivo può avere perché alla riduzione delle dimensioni è legato un incremento delle potenzialità o performance (per esempio della velocità) e delle applicazioni. Man mano che la tecnologia avanza, le dimensioni minime si riducono e ci si avvicina sempre più all’ordine di grandezza del nanometro. Tuttavia, il passaggio dalle tecnologie micrometriche a quelle nanometriche (o nanotecnologie) non è banale bensì ricco di implicazioni. 181 R. Marani, A. G. Perri Le nanotecnologie, infatti, segnano non una evoluzione ma una rivoluzione tecnologica e rappresentano la soluzione possibile per non frenare il progresso. E’ chiaro, quindi, che hanno un ruolo determinante per il futuro dell’umanità e per questo sono oggetto di notevoli sforzi di ricerca in tutto il mondo. Le nanotecnologie, peraltro, riguardano dispositivi sia elettronici che optoelettronici ed interessano numerosissime discipline del sapere umano: • Biologia: costruire nanosensori e manipolatori di materia biologica (stessa scala di dimensioni); • Medicina: monitoraggio di marcatori per il cancro, rivelatori di proteine e di virus, somministrazione selettiva di farmaci, nuovi materiali per impianto di organi, ecc. • Scienza dei materiali: maggiore resistenza, elasticità, proprietà strutturali ed elettriche; • Informazione, computazione, comunicazione: miniaturizzazione dei dispositivi, memorie, microelaboratori, nuovi algoritmi di calcolo, display flessibili con LED organici. Passare dall’attuale tecnologia (microelettronica) alle nanotecnologie (nanoelettronica) significa cambiare: Architettura dei dispositivi elementari, ovvero passare dai tradizionali dispositivi a giunzione a semiconduttore ad altre tipologie completamente nuove; Algoritmi computazionali: i nuovi dispositivi nanometrici lavorano secondo le leggi della fisica quantistica e non della fisica classica oppure sono basati sui fenomeni di scambio molecolare per cui richiedono nuove procedure di calcolo; Materiali e processi di fabbricazione, ovvero utilizzare non più solo il silicio come materiale per la fabbricazione dei dispositivi e circuiti ma ricorrere ad altre strutture, quali, ad esempio, i nanotubi di carbonio. I nanotubi di carbonio, noti anche con l’acronimo di CNTs (Carbon NanoTubes), stanno infatti suscitando notevole interesse per le loro singolari proprietà elettroniche e meccaniche e la loro versatilità: essi sono pertanto oggetto di studio in un ampio ventaglio di discipline che spaziano dalla fisica dello stato solido, alla chimica e alla biologia, con confini non ben definiti. In questo articolo, dopo una descrizione delle proprietà elettroniche, legate alla possibilità di esibire un comportamento metallico o semiconduttivo in relazione alla loro geometria, vengono 182 La Comunicazione N.R.& N. Principali applicazioni sensoristiche dei Nanotubi di Carbonio Main Sensor applications of Carbon Nanotubes esaminate alcune tra le principali applicazioni dei CNT nel campo della sensoristica. 2. Tecnologie Il carbonio può esistere in natura sotto varie forme, dette forme allotropiche, tra cui le più famose sono il diamante e la grafite. Come è noto, un atomo di carbonio ha 4 elettroni di valenza sugli orbitali 2s e 2p, che possono facilmente interagire fra di loro a causa della piccola differenza di energia fra questi orbitali. Un elettrone dell’orbitale 2s può, cioè, combinarsi con uno, due, tre elettroni dell’orbitale 2p dando origine alle cosiddette ibridazioni sp, sp2 ed sp3. Nel caso del diamante, tutti e 4 gli elettroni sono regolarmente accoppiati con gli elettroni di altri atomi di carbonio, formando così una struttura tetraedrica (ibridazione sp3). Questo tipo di legame è molto forte, ed è per questo che il diamante è così duro. La grafite, invece, riesce ad accoppiare stabilmente solo tre elettroni su quattro (ibridazione sp2), e lascia il quarto elettrone libero. Ogni atomo di carbonio è legato ai tre atomi di carbonio adiacenti mediante legami covalenti di tipo σ (cioè localizzati lungo la direzione interatomica), che sono sullo stesso piano, con angoli tra loro di 120°. Tanti atomi tutti insieme danno origine pertanto ad una struttura planare, denominata grafene, riempita da esagoni i cui vertici sono, appunto, gli atomi di carbonio. Il quarto elettrone si trova nell’orbitale di tipo π (legame metallico tra i piani), che presenta lobi ortogonali al piano del foglio di grafene. Le proprietà elettroniche dei nanotubi possono essere studiate tenendo conto della relazione di dispersione dell’energia per gli elettroni degli orbitali π. Nella Fig. 1 è mostrato uno strato di grafite, con tutti gli atomi legati tra loro. Figura 1. Struttura planare della grafite. La grafite è formata da un'infinità di questi strati sovrapposti. Poiché tutti gli elettroni, che non si sono accoppiati, stanno tra uno 183 R. Marani, A. G. Perri strato e l'altro, i vari strati di grafite scivolano molto facilmente l'uno sull'altro, rendendo la grafite morbida e friabile. Fino al 1985 erano note solamente le due suddette forme di carbonio cristallino. Gli studi dello scienziato americano Richard Smalley hanno portato alla scoperta di una terza forma di arrangiamento regolare degli atomi di carbonio: quella dei fullereni, chiamati così in onore dell’architetto R. Buchminster-Fuller, le cui creazioni, chiamate “cupole geodetiche” ricordano la struttura dei fullereni. Difatti i fullereni sono delle “gabbie” approssimativamente sferiche formate da un arrangiamento ordinato di strutture esagonali e pentagonali di atomi di carbonio. Il primo fullerene scoperto è il C 60 (cfr. Fig. 2), che ha la stessa forma di un pallone da calcio ed è per questo noto anche con il nome di “buckyball”. La storia dei nanotubi di carbonio ha origine nel 1991, con la scoperta del giapponese Iijima [1] del laboratorio NEC di Tsunuba, della possibilità di legare dei fullereni per formare strutture a forma di tubi chiusi alle estremità, del diametro di pochi nanometri. Egli infatti osservò, casualmente, dei filamenti di dimensioni nanometriche in un residuo di fuliggine originato dalla vaporizzazione di grafite usata per la produzione di fullereni. Queste strutture lunghe e sottili furono chiamate nanotubi. I nanotubi di carbonio possono essere pensati come fogli di grafite arrotolati in forma cilindrica. La maggior parte dei nanotubi consiste di diversi cilindri concentrici indicati come nanotubi a parete multipla (Multi Wall Carbon NanoTubes, MWCNT, cfr. Fig. 3), ma esistono anche nanotubi formati da un singolo strato (Single Wall Carbon NanoTubes, SWCNT, cfr. Fig. 4), chiusi alle due estremità da due calotte emisferiche [2-3]. 184 Figura 2. Fullerene tipo C60. La Comunicazione N.R.& N. Principali applicazioni sensoristiche dei Nanotubi di Carbonio Main Sensor applications of Carbon Nanotubes La Fig. 5 mostra il reticolo ad alveare del foglio di grafene. Si sono scelti, come vettori del reticolo primitivo, a1 e a 2 che definiscono un parallelogramma costituente la cella unitaria primitiva. Un nanotubo di carbonio può essere costruito avvolgendo il foglio in modo tale che l’origine (0,0) coincida con uno dei siti equivalenti del reticolo (ad esempio il punto C della Fig. 5a). Il vettore chirale o di avvolgimento: C = n a 1 + ma 2 (1) è specificato dalla coppia di interi (n, m). Figura 3. Tipi di MWCNT Figura 4. Struttura di un SWCNT ideale Figura 5. Foglio di grafene con indicazione del vettore chirale e del vettore di traslazione 185 R. Marani, A. G. Perri L’avvolgimento lungo le linee tratteggiate dà origine a due particolari categorie di nanotubi: • • quelli di tipo armchair (n = m, φ = 0°) quelli del tipo zig-zag (m = 0, φ = 30°) L’angolo φ è detto angolo chirale e rappresenta l’angolo tra il vettore di traslazione T ortogonale al vettore chirale e il vettore H ortogonale alla direzione armchair. Per angoli chirali 0°< φ <30°, il nanotubo è indicato, più genericamente, come di tipo chirale. Le proprietà elettroniche dei nanotubi dipendono fortemente dalla chiralità del nanotubo, cioè dagli indici n ed m, con 0 ≤ m ≤ n per ragioni di simmetria legate al reticolo ad alveare: valori di m al di fuori di questo range forniscono valori già ottenuti [4-5]. Il vettore chirale è legato al diametro d del nanotubo dalla relazione: d= C a = n 2 + m 2 + nm π π (2) L’angolo chirale è determinabile attraverso la seguente relazione: cos ϕ = (n + m ) 3 2 n + m + nm 2 2 (3) I valori di n ed m determinano quindi la torsione del nanotubo che influenza la sua conduttanza, la densità, la struttura del reticolo ed altre proprietà. Un SWCNT è considerato metallico se il valore n-m è divisibile per tre. Altrimenti il nanotubo è considerato semiconduttore. Di conseguenza, quando i nanotubi sono caratterizzati da valori casuali di n ed m dovremmo aspettarci che due terzi del nanotubo saranno semiconduttori e l’altro terzo metallico. In Fig. 6 sono rappresentati i tre tipi di nanotubi descritti. Per studiare le proprietà elettroniche dei nanotubi, si rimanda ai testi proposti in bibliografia [4-6]. In particolare le proprietà di conducibilità della maggior parte dei solidi periodici possono essere espresse in base all’approssimazione dell’elettrone fortemente legato (tight binding approximation), in cui si parte dalla funzione d’onda per un elettrone in un atomo libero e si costruisce poi una funzione orbitale del cristallo, ossia una funzione di Bloch che descrive l’elettrone nel campo periodico dell’intero cristallo [7-10]. 186 La Comunicazione N.R.& N. Principali applicazioni sensoristiche dei Nanotubi di Carbonio Main Sensor applications of Carbon Nanotubes La Fig. 7a mostra la rappresentazione tridimensionale della cosiddetta equazione di dispersione relativa al foglio di grafene [7]. (a) (b) Come si può osservare, il suddetto grafico è formato da due grandi “tende”: la “tenda” superiore è un’immagine della banda di conduzione, quella inferiore rappresenta la banda di valenza. Figura 6. Schemi delle tre tipologie di nanotubi: dall'alto in basso armchair (n, n), a zig-zag (n, 0), e chirale (n, m). Figura 7. a) Diagramma della relazione di dispersione per il grafene; b) punti K Inoltre si rileva come, in corrispondenza dei vertici dell’esagono, le due bande si tocchino: tali punti sono noti con il nome di punti K e sono responsabili delle proprietà elettroniche del grafene (cfr. Fig. 7b). L’energia di Fermi E F è così ridotta a questi sei punti. Se le linee di quantizzazione relative al foglio di grafene avvolto a cilindro attraversano i punti K, il nanotubo presenterà un comportamento metallico, perché avrà bandgap nullo, altrimenti si comporterà come un semiconduttore [10]. 187 R. Marani, A. G. Perri In particolare, se: • n - m = 3l con l'intero, il nanotubo ha comportamento metallico; il nanotubo si comporta da • n - m ≠ 3l semiconduttore. L’analisi sperimentale delle proprietà elettroniche dei nanotubi viene condotta utilizzando il sistema mostrato in Fig. 8. Su un nanotubo vengono fatti accrescere due contatti metallici di oro o platino, che fungono da source e drain mentre il nanotubo da gate. 2.a Proprietà elettriche dei nano tubi metallici La resistenza di un SWCNT metallico a temperatura ambiente può variare in maniera significativa, oscillando da circa 6 KΩ a valori di diversi MΩ. La maggior parte di queste variazioni sono dovute alle variazioni della resistenza di contatto tra gli elettrodi ed il tubo. E’ stato notato che i valori di conduttanza si avvicinano al valore G = 4e2/h in cui e è la carica dell’elettrone e h è la costante di Planch. Sperimentalmente si è visto che, per bassi valori di V sd (tensione source-drain), la conduttanza è all’incirca 2e2/h, crescendo fino al valore 3.4e2/h quando la temperatura viene diminuita. Assumendo contatti perfetti, questo indica che il libero cammino medio è almeno ~ 1μm a temperatura ambiente e aumenta man mano che il dispositivo viene raffreddato. Questi valori corrispondono a quelli che si hanno con una resistività a temperatura ambiente pari a ρ ~ 10-6cm. La conducibilità di un nanotubo metallico può, quindi, essere pari, o persino più grande, a quella dei migliori metalli. 188 Figura 8. Sistema usato per l’analisi sperimentale delle proprietà elettriche dei CNT La Comunicazione N.R.& N. Principali applicazioni sensoristiche dei Nanotubi di Carbonio Main Sensor applications of Carbon Nanotubes 2.b Proprietà elettriche dei nanotubi semiconduttori La Fig. 9 mostra le misure della conduttanza di un SWCNT semiconduttore in funzione della tensione di gate V g applicata al substrato conduttore. Il nanotubo conduce per valori negativi di V g mentre è spento per valori positivi di V g . La resistenza cambia tra lo stato “on” ed “off” di diversi ordini di grandezza. Per elevate tensioni positive di V g , si è osservata talvolta una conduttanza di tipo n, specialmente nei nanotubi con grande diametro. La conduttanza nelle regioni di tipo n è inferiore a quella delle regioni di tipo p, dato il valore della funzione lavoro degli elettrodi in oro. Il livello di Fermi dell’oro si allinea con la banda di valenza del SWCNT, stabilizzando un contatto di tipo p con una barriera per l’iniezione degli elettroni. I nanotubi semiconduttori sono tipicamente di tipo p per V g = 0 a causa dei contatti e anche perché alcune specie chimiche, come l’ossigeno, vengono assorbite dal tubo ed agiscono come deboli droganti di tipo p. Figura 9. Valori della conduttanza G in funzione della tensione di Gate Vg Inoltre, dalla Fig. 9 si può notare come la conduttanza inizialmente aumenta linearmente con V g man mano che le lacune vengono iniettate nel nanotubo. Ad alti valori di V g , la conduttanza smette di aumentare ed assume un andamento costante. Questa saturazione 189 R. Marani, A. G. Perri nella conduttanza è dovuta sia al nanotubo sia alle resistenze di contatto tra gli elettrodi metallici e il nanotubo. A regime, quando la conducibilità G aumenta linearmente con V g , le proprietà del dispositivo possono essere descritte dalla relazione: G= µC 'g ( Vg − VT ) (4) L dove C 'g è la capacità per unità di lunghezza del tubo, V T è la tensione di soglia e è la mobilità. Usando questa relazione possiamo dedurre sperimentalmente la mobilità del nano tubo. 3. Alcune tra le principali applicazioni dei CNT nel campo della sensoristica 3.a Sensori chimici Dato che la conduttanza dei nanotubi dipende fortemente dalla struttura atomica, drogaggio chimico e condizioni ambientali, è possibile utilizzare i CNT come sensori chimici [11]. Infatti essi sono in grado di individuare piccole concentrazioni di molecole di gas come diossido di azoto (NO 2 ) e ammoniaca (NH 3 ) a temperatura ambiente. Si è rilevato che per un SWCNT semiconduttore esposto a 200 ppm di NO 2 la conduttanza elettrica può aumentare di tre ordini di grandezza in pochi secondi. Al contrario l’esposizione al 2 % di NH 3 provoca una diminuzione della conduttanza di circa due ordini di grandezza (cfr. Fig. 10). Misure su un SWCNT (10,0) in ambiente NO 2 hanno condotto alle seguenti considerazioni: le molecole di NO 2 si legano al nanotubo con trasferimento di carica dall’atomo di C alla molecola di NO 2 , che porta ad un drogaggio di tipo p del nanotubo semiconduttore. L’aumento delle lacune nel SWNT è responsabile dell’incremento della conduttanza rilevato. Per un sistema a SWCNT e NH 3 il trasferimento di carica è dal NH 3 al nanotubo e porta ad un drogaggio di tipo n corrispondente alla diminuzione della conduttanza mostrata in Fig. 10. 190 La Comunicazione N.R.& N. Principali applicazioni sensoristiche dei Nanotubi di Carbonio Main Sensor applications of Carbon Nanotubes Un risultato molto importante è stato trovato per l’H 2 O: la configurazione molecolare mostra un interazione repulsiva e nessun trasferimento di carica quando la molecola di acqua è vicina alla superficie del nanotubo. Questo risultato è consistente con l’osservazione sperimentale che la conduttanza del nanotubo non cambia significativamente quando esso è completamente immerso in acqua e questo dà l’importante possibilità di usare i SWCNT come sensori biochimici operanti in acqua a temperatura fisiologica. Figura 10. Variazioni della conduttanza del nanotubo quando esposta a NO2 e NH3 Una struttura EIS (Electrolyte Insulator Semiconductor) può essere usata per misurare le concentrazioni ed i tipi di ioni. In un tipico sensore EIS viene applicata una differenza di potenziale al back-gate del semiconduttore, il quale attira gli ioni presenti nell’elettrolita verso la superficie dell’ossido. La disposizione degli ioni in risposta ad una specifica V g è determinata dalle dimensioni e dalla carica degli ioni. Misurando la capacità di gate C g in funzione di V g si possono trovare sia la concentrazione che la specie dello ione. 191 R. Marani, A. G. Perri 3.b Eliminazione dei gas tossici I nanotubi, a differenza del carbonio attivo, permettono una maggiore interazione tra la loro superficie interna e le molecole di gas tossici che possono scorrere al loro interno [12]. Questa proprietà è importante per l’assorbimento dei gas di scarto nelle produzioni industriali come la diossina, sottoprodotto altamente inquinante per aria, terreno, acqua e tutta la catena alimentare. 3.c Applicazioni in acustica Alcuni ricercatori, nello sforzo di produrre un nuovo microfono più sensibile, hanno cercato di imitare la natura. E’ stato quindi sviluppato un dispositivo che può essere definito come una “coclea artificiale” [13]. In questo apparato vengono usati vettori di nanotubi come le cellule cigliate del nostro apparato uditivo. Il loro movimento e quindi le loro vibrazioni dovute all’urto delle onde sonore vengono trasformate in segnali elettrici. Lo stesso fenomeno è sfruttato nelle comuni membrane usate nei microfoni, ma esistono sostanziali differenze tra i due casi. Mentre le ultime più sono piccole, meno risentono delle onde sonore più lievi, le ciglia a nanotubi vibrano anche se sottoposte a suoni più gravi. Inoltre i nanotubi presentano una naturale direzionalità: essi si piegano allontanandosi dalla sorgente del suono. Questo è molto importante perché si può ottenere un’informazione direzionale con un solo sensore a differenza dei comuni dispositivi o dell’apparato uditivo umano, che ha bisogno necessariamente di due orecchi. Inoltre l’abilità dei nanotubi di operare in aria, a differenza di tutte le ciglia naturali che operano in un liquido, permette di eliminare ogni complesso apparato che simula l’interfaccia aria-liquido dei sistemi naturali. La stessa tecnologia può essere sfruttata per le applicazioni militari (costruzione di sensori per intercettare sottomarini) o per le applicazioni mediche (nuovi stetoscopi che possono navigare nel flusso sanguigno e riconoscere eventi biochimici non scopribili altrimenti). 3.d Applicazioni spaziali E’ noto che le navicelle spaziali nei loro viaggi nel cosmo sono sottoposti a probabili collisioni con micrometeoriti, che potrebbero danneggiare la loro struttura compromettendo la vita di chi è all’interno. 192 La Comunicazione N.R.& N. Principali applicazioni sensoristiche dei Nanotubi di Carbonio Main Sensor applications of Carbon Nanotubes Vi è inoltre la continua esposizione a radiazioni cosmiche altamente nocive per la salute e la presenza di ossigeno atomico altamente reattivo, che tende ad attirare atomi di carbonio, idrogeno e azoto (esso è capace, come è stato dimostrato, di distruggere oggetti in orbita delle dimensioni di un autobus). Sembra che l’uso dei nanotubi di carbonio possa sopperire a tutte queste difficoltà [14]: è possibile, infatti, equipaggiare le nuove astronavi con una fitta rete di nanotubi, attraverso i quali viaggiano messaggi che informano un computer centrale sullo stato di ogni piccola parte della struttura costituente la navicella. Sarebbe così possibile, allo stesso modo di una reazione epidermica, cicatrizzare le superfici se dovessero subire un danno. Questa rete, oltre ad alleggerire la struttura del mezzo, può essere utilizzata per contenere idrogeno liquido in uno spessore molto piccolo per schermare l’equipaggio dalle radiazioni cosmiche. 3.e Applicazioni nelle celle a combustibile Le eccezionali proprietà di adsorbimento dei nanotubi sono approfondite anche in vista di una eventuale applicazione nelle celle a combustibile per lo stoccaggio dell’idrogeno andando a rimpiazzare i comuni sistemi basati su bombole, idruri e carboni attivi, che richiedono alte pressioni e basse temperature per poter immagazzinare una sufficiente quantità di idrogeno. In questo caso verrebbero usati nanotubi drogati con litio e potassio dato il successo di alcuni esperimenti a differenza di altri, che non hanno avuto in seguito conferme, dai quali emergeva che l’adsorbimento di idrogeno arrivava fino al 30% del peso del carbonio adsorbente. 3.f Nanomolle e nanobilance Un gruppo di ricercatori è riuscito a costruire un MWCNT come se fosse un tubo telescopico: due nanotubi coassiali che riescono a scorrere l’uno dentro l’altro. Un nanotubo come questo può essere utilizzato come un nanoammortizzatore o nanomolla nelle nanomacchine, applicazione che ora potrebbe risultare fantascientifica. Inoltre, i nanotubi sono molto sensibili ai campi elettrici, sottoposti ai quali cominciano a vibrare e, controllando la frequenza di oscillazione, è possibile portarli in risonanza. Questa proprietà può essere sfruttata per la costruzione di nanobilance, utili nella misura di corpi con massa nell’ordine dei femtogrammi. 3.g Monitor a nanotubi di carbonio Dato che gli CNT si presentano inerti, essi possono essere più stabili e più pratici rispetto alle comuni sorgenti di immissione di elettroni 193 R. Marani, A. G. Perri (metalliche o inorganiche) per stimolare l’emissione di luce colorata sui pannelli sottili. Nei dispositivi reali, gas residui possono essere ionizzati e gli ioni derivanti possono bombardare la punta dell’emettitore di elettroni facendolo scoppiettare e rendendolo meno efficiente. I nanotubi, invece, resistono a questo tipo di fenomeno: in questo modo potremo avere dei monitor piatti molto più durevoli. 3.h Nanotubi come catodi negli apparecchi a raggi X I nanotubi di carbonio possono rimpiazzare i filamenti metallici utilizzati nei tradizionali apparecchi a raggi X, che necessariamente devono essere portati ad elevate temperature prima di essere sottoposti a campo elettrico [15]. I potenziali vantaggi di questa sostituzione sono numerosi: • • i nanotubi possono funzionare a temperatura ambiente le macchine possono essere fabbricate più piccole e persino portatili e possono essere più efficienti e meno costose. 3.i Nanotubi antibatterici È stata scoperta una classe di nanotubi che possono essere utilizzati come farmaci per combattere alcune infezioni batteriche dovute a batteri che hanno sviluppato una certa resistenza ai tradizionali antibatterici. Questi tubi sono avvolti da catene di aminoacidi che possono attaccare e crescere sulle pareti delle cellule e, pungendole, permettono di tirare fuori ogni loro componente critico. Essi, inoltre, possono essere anche generati in modo tale da attaccare e uccidere solo specifici agenti patogeni. In merito sono stati condotti con effetti positivi esperimenti su topi per curare una letale infezione da una razza di stafilococchi resistenti agli antibatterici. 3.l Muscoli artificiali La sintesi di nanotubi lunghi come un capello (8 cm) ha aperto le porte alla realizzazione di robusti azionatori per muscoli artificiali [1618]. 194 La Comunicazione N.R.& N. Principali applicazioni sensoristiche dei Nanotubi di Carbonio Main Sensor applications of Carbon Nanotubes I nuovi attuatori utilizzano fogli di SWCNT come elettrodi di un condensatore imbevuti di elettrolita (cfr. Fig. 11). Nella Fig. 11(A), un potenziale applicato inietta cariche opposte nei due elettrodi immersi in un elettrolita solido o liquido. Queste cariche vengono completamente bilanciate dagli ioni provenienti dall’elettrolita. Dipendentemente dal numero di nanotubi per elettrodo e da potenziale applicato, si possono avere deformazioni meccaniche in fase o fuori fase. La Fig. 11(B) mostra l’iniezione di cariche in un elettrodo a fascio di nanotubi. La Fig. 12 mostra un attuatore immerso in una soluzione acquosa di NaCl, costituito da due strisce di SWCNT tenute insieme da una striscia di scotch tape (zona bianca tra le due strisce grigie). Figura 11. Illustrazione schematica dell’iniezione di cariche in un attuatore elettromeccanico a nanotubi di carbonio Figura 12.Schematizzazione di un attuatore a trave a sbalzo 195 R. Marani, A. G. Perri Quando viene applicata una tensione, le due strisce si muovono verso destra o sinistra, rispetto alla fase di rilassamento, che è quella rappresentata al centro. La deformazione meccanica del CNT può essere descritta dal coefficiente di strain S v , definito come rapporto tra la variazione di tensione di deformazione e la variazione di potenziale applicato all’elettrodo [5]. Si è visto sperimentalmente che differenze di potenziale di pochi volt generano grandi deformazioni, rendendo questi nuovi attuatori più convenienti rispetto ai convenzionali attuatori ferroelettrici. 3.m SW-CNTFET per la riconoscimento di sequenze di DNA In generale un biosensore è un particolare trasduttore costituito da un elemento sensibile, biologicamente attivo (enzimi, cellule, anticorpi ecc.) e da una parte elettronica. Il principio di funzionamento è molto semplice: l'elemento biologico interagisce con il substrato da analizzare e un sistema di trasduzione (sensore) converte la risposta biochimica in un segnale elettrico. Le attuali tecniche di biomonitoraggio sono molto selettive e specifiche ma, al tempo stesso, difficili da miniaturizzare. Biosensori basati sui nanotubi formati da un singolo strato (SWCNTs) sono intrinsecamente portati alla miniaturizzazione, visto le peculiari caratteristiche strutturali e di conduzione dei nanotubi. Essi infatti manifestano un significativo cambio di conduttanza in risposta alla presenza di piccole biomolecole e proteine e per questo si considerano come versatili mezzi per la costruzione di biosensori. In particolare sono stati progettati biosensori, basati su SWCNTFET, molto promettenti per la rilevazione di varie specie biologiche come DNA, proteine e cellule. Infatti, nell’ambito della ricerca biomedica il riconoscimento di sequenze di DNA consente di stabilire la mappa genetica di un soggetto e, sulla base di questa, conoscere la propensione verso determinate malattie (utile a scopo preventivo), eventuali malattie latenti in atto, la reazione soggettiva ai farmaci (utilissima per effettuare un dosaggio personalizzato di qualunque farmaco), ecc. Come è noto [5], il transistore ad effetto di campo su nanotubo di carbonio, noto con l’acronimo di CNTFET (Carbon NanoTube Field Effect Transistor), ampiamente analizzato e caratterizzato [19-26], è un FET, che utilizza un singolo nanotubo di carbonio (SW) o una serie di 196 La Comunicazione N.R.& N. Principali applicazioni sensoristiche dei Nanotubi di Carbonio Main Sensor applications of Carbon Nanotubes nanotubi di carbonio (MW) come materiale del canale al posto del tradizionale silicio. Poiché le caratteristiche dei nanotubi di carbonio dipendono fortemente dalla loro chiralità, dal diametro e dal drogaggio, le caratteristiche dei CNTFET possono essere controllate scegliendo la morfologia appropriata del CNT. I nanotubi semiconduttori a singola parete sono i più impiegati per la realizzazione del canale del CNTFET, perché, in tal modo, le caratteristiche elettroniche del dispositivo non sono influenzate dalle pareti interne. Il funzionamento dei SWCNT-FET, come biosensori per la rilevazione del DNA, è basato sul fenomeno dell’ibridazione. Come è noto [27], l'ibridazione è l'appaiamento complementare di due filamenti di DNA oppure di un filamento di DNA e l'altro di acido ribonucleico (RNA) ed è una forma di riconoscimento molecolare estremamente specifica. Per mezzo dell’ibridazione si possono formare delle doppie eliche di DNA-DNA, DNA-RNA o RNA-RNA. La condizione fondamentale perché ciò avvenga è che in soluzione si mettano molecole con sequenza complementare (antiparallele). In particolare viene sfruttata la proprietà del DNA di dissociare e riassociare i due filamenti della doppia elica, insieme alla possibilità di sintetizzare molecole di DNA "marcate". All’interno di una miscela di DNA si può infatti identificare un frammento che porta una sequenza nota facendolo ibridare a un filamento di DNA marcato che abbia la sequenza complementare. Sulla base di queste considerazioni, in [28] è stato progettato un sensore SWNT-FET a DNA, in grado di rilevare campioni con concentrazioni pico o micromolari di DNA. In particolare è stato dimostrato [28] che il singolo filamento di DNA interagisce attraverso legami non covalenti con il SWCNT ed inoltre è in grado di formare un ibrido stabile con il singolo CNT avvolgendosi intorno ad esso (cfr. Fig.13). 197 R. Marani, A. G. Perri Figura 12. Schematizzazione di un attuatore a trave a sbalzo Più precisamente il meccanismo consiste in una fase di ibridazione tra il DNA assorbito sulla superficie del nanotubo e un DNA target, portando ad una riduzione della conduttanza del SWCNT-FET, poichè il filamento di DNA sul nanotubo, dopo l’ibridazione, genera carica nel SWCNT con conseguente variazione della conduttanza del FET. Conclusioni In questo articolo, dopo una breve descrizione delle proprietà elettroniche dei nanotubi di carbonio, sono state esaminate alcune tra le principali applicazioni dei CNT nel campo della sensoristica. Tra le varie applicazioni esaminate emergono i biosensori ed i muscoli artificiali (assemblaggi di vettori di miliardi di singoli nanoattuatori), che, se utilizzati per avvolgere il cuore di un paziente ammalato per supportare i muscoli cardiaci, potrebbero servire come ponte in un trapianto o per ovviare ad un necessario trapianto di cuore. 198 La Comunicazione N.R.& N. Principali applicazioni sensoristiche dei Nanotubi di Carbonio Main Sensor applications of Carbon Nanotubes Bibliografia e webgrafica di riferimento. [1] Ijima S.: “Helical microtubules of graphitic carbon”; Nature, vol. 354(56), 1991, pp. 56-58. [2] Avouris Ph.; Radosavljević M.; Wind S.J. Carbon Nanotube Electronics and Optoelectronics. In: Rotkin SV, Subramone S, editors. Applied Physics of Carbon Nanotubes: Fundamentals of Theory, Optics and Transport Devices, Berlin Heidelberg; SpringerVerlag; ISBN: 978-3-540-23110-3, 2005. [3] Datta S. Cambridge Studies in Semiconductor Physics and Microelectronic Engineering 3. Electronic Transport in Mesoscopic Systems, New York: Cambridge University Press; ISBN: 978-0-521599943-6, 1995. [4] Perri A.G.: “Fondamenti di Dispositivi Elettronici”; Ed. Progedit, 2010, ISBN 978-88-6194-080-2. [5] Perri A.G.: “Dispositivi Elettronici Avanzati”; Ed. Progedit, 2011, ISBN 978-88-6194-081-9. [6] Perri A.G.: “Modelling and Simulations in Electronic and Optoelectronic Engineering”; Ed. Research Signpost, 2011, ISBN 978-81-308-0450-7. [7] Marani R., Perri A.G.: “Modelling the Electronic Characteristics of Carbon Nanotube ”; 1st Transalp’Nano 2008 Conference, Lione, Francia, 27 – 29 Ottobre 2008. [8] Dohn S.: “Investigation of mechano-electrical properties of multiwalled carbon nanotubes”; Niels Bohr Institute and NanoScience Center, University of Copenaghen, 2003, pp.62. [9] Schonenberger C.: “Bandstructure of graphene and carbon nanotubes: an exercise in condensed matter physics”; University of Basilea, 15, 2000. [10]Marani R., Perri A.G.: “A Light Model To Evaluate The Dispersion Equation of Carbon Nanotubes ”; International Journal of Research and Reviews in Applied Sciences, Vol. 15(1), 2013, pp. 57-61. [11]Peng S., O'Keeffe J., Wei C., Cho K.: “Carbon Nanotube Chemical and Mechanical Sensors”, Proceedings of 3rd International Workshop on Structural Health Monitoring;, 2009, CA. [12] http://www.universonline.com. [13] http://www.hearinglossweb.com/Medical/cures/artcoch.htm. 199 R. Marani, A. G. Perri [14] http://www.espressoonline.it [15] http://www.nanoelectronicasplanet.com. [16] http://www.devicelink.com. [17] Baughman H. , Cui C.: “Carbon Nanotube Actuators”, Science, vol. 284, 1999. [18] http://eurekalert.org. [19] Marani R., Gelao G., Diana R., Perri A.G.: “A Semi-Empirical SPICE Model for n-type Conventional CNTFETs”; IEEE Transactions on Nanotechnology, Vol. 10(3), 2011, pp.506-512. [20]Marani R., Perri A.G.: “A DC Model of Carbon Nanotube Field Effect Transistor for CAD Applications”; International Journal of Electronics, Vol, 99(3), 2012, pp. 427 - 444. [21]Marani R., Gelao G., Perri A.G.: “Comparison of ABM SPICE library with Verilog-A for Compact CNTFET model implementation”, Current Nanoscience, Vol. 8(4), 2012, pp. 556-565. [22]Marani R., Gelao G., Perri A.G.: “Modelling of Carbon Nanotube Field Effect Transistors oriented to SPICE software for A/D circuit design”; Microelectronics Journal, Vol. 44(1), 2013, pp.33-39. [23]Marani R., Perri A.G.: “Modelling of CNTFETs for Computer Aided Design of A/D Electronic Circuits”, Current Nanoscience, Vol. 10(3), 2014, pp. 326-333. [24]Marani R., Perri A.G.: “Dc Thermal Modeling of CNTFETs Based on a Semi-Empirical Approach”, International Journal of Advances in Engineering & Technology (IJAET), VoL.8(2), 2015, pp. 38-45. [25]Gelao G., Marani R., Pizzulli L., Perri A.G.: “A Model to Improve Analysis of CNTFET Logic Gates in Verilog-A-Part I: Static Analysis ”, Current Nanoscience, Vol. 11(4), 2015, pp. 515-526. [26]Gelao G., Marani R., Pizzulli L., Perri A.G.: “A Model to Improve Analysis of CNTFET Logic Gates in Verilog-A-Part II: Dynamic Analysis ”, in corso di pubblicazione su Current Nanoscience. [27]Hagan M.F, Chakraborty A.K.: “Hybridization dynamics of surface immobilized DNA”, Journal of Chemical Physics, Vol. 120(10), 2004, pp. 4958-4968. [28]Hu P., Zhang J., Li L., Wang Z., O’Neill W., Estrela P.: "Carbon Nanostructure-Based Field-Effect Transistors for Label-Free Chemical/Biological Sensors”, Sensors, Vol. 10, 2010, pp. 51335159. 200 La Comunicazione N.R.& N. La Comunicazione N.R.&N. Giancarlo Butti Banco Popolare - Audit Conformità e presidi 231/2001 Alberto Piamonte ISACA Un modello per la valutazione dei rischi relativamente al trattamento dei dati personali nelle comunicazioni elettroniche A risk assessment model regarding the personal data processing in electronic communications Sommario: L'articolo si propone di illustrare un modello per condurre una “Privacy Impact Assessment (PIA)": valutazione dell'impatto-privacy (parte integrante di un approccio Privacy by Design), che costituisce uno dei requisiti contenuti nel nuovo Regolamento Privacy UE (previso per il 2016) e che sarà applicabile alle diverse modalità di comunicazione elettronica. Abstract: The purpose of this paper is to explain the principles which form the basis for a "Privacy Impact Assessment (PIA)" one of the requirements contained in the new EU Privacy Regulations (final approval expected for 2016) and will be applicable to various forms of electronic communication. and is an integral part of taking a Privacy by Design approach. INQUADRAMENTO NORMATIVO La proposta di regolamento del Parlamento europeo e del Consiglio concernente la tutela delle persone fisiche con riguardo al trattamento dei dati personali e la libera circolazione di tali dati (nuovo Regolamento UE sulla privacy) fra le varie novità introdotte richiede che il DATA CONTROLLER (tale termine nella versione italiana è tradotto come RESPONSABILE, ma in realtà corrisponde all’attuale TITOLARE di trattamento così come definito nel Dlgs 196/03) effettui nei casi di maggior rischio per la protezione dei dati personali una valutazione dell’impatto sulla protezione dei dati stessi (Data Protection impact Assessment). Articolo 33 - Valutazione d'impatto sulla protezione dei dati 1. Quando un tipo di trattamento, allorché prevede in particolare l'uso di nuove tecnologie, considerati la natura, l'oggetto, il contesto e le finalità del trattamento, può presentare un rischio elevato per i diritti e le libertà delle persone fisiche, ad esempio discriminazione, furto o usurpazione d'identità, perdite finanziarie, pregiudizio alla reputazione, decifratura non autorizzata della pseudonimizzazione, perdita di 201 G. Butti, A. Piamonte riservatezza dei dati protetti da segreto professionale o qualsiasi altro danno economico o sociale importante, il responsabile del trattamento (…) effettua, prima di procedere al trattamento, una valutazione dell'impatto delle operazioni di trattamento previste sulla protezione dei dati personali. (…). L’articolo 33 del Regolamento UE, oltre a declinare le modalità con cui effettuare la valutazione d’impatto: … 3. La valutazione contiene almeno una descrizione generale delle operazioni di trattamento previste, una valutazione del rischio di cui al paragrafo 1, le misure previste per affrontare il rischio, includendo le garanzie, le misure di sicurezza e i meccanismi per garantire la protezione dei dati personali e dimostrare la conformità al presente regolamento, tenuto conto dei diritti e dei legittimi interessi degli interessati e delle altre persone in questione. 3 bis. Nella valutazione della liceità e dell'impatto del trattamento compiuto dai relativi responsabili o incaricati si tiene debito conto del rispetto da parte di questi ultimi dei codici di condotta approvati di cui all'articolo 38, in particolare ai fini di una valutazione d'impatto sulla protezione dei dati. individua anche quelli che sono i casi (definito dall’autorità di controllo) nei quali tale valutazione è indispensabile. Indipendentemente dalla finalità del trattamento che si sta analizzando, appare evidente che le comunicazioni elettroniche, così come definite dal Dlgs 196/03: Art. 4. Definizioni 2. Ai fini del presente codice si intende, inoltre, per: a) "comunicazione elettronica", ogni informazione scambiata o trasmessa tra un numero finito di soggetti tramite un servizio di comunicazione elettronica accessibile al pubblico. Sono escluse le informazioni trasmesse al pubblico tramite una rete di comunicazione elettronica, come parte di un servizio di radiodiffusione, salvo che le stesse informazioni siano collegate ad un contraente o utente ricevente, identificato o identificabile; e) "servizio di comunicazione elettronica", i servizi consistenti esclusivamente o prevalentemente nella trasmissione di segnali su reti di comunicazioni elettroniche, compresi i servizi di telecomunicazioni e i servizi di trasmissione nelle reti utilizzate per la diffusione circolare radiotelevisiva, nei limiti previsti dall'articolo 2, lettera c), della direttiva 2002/21/CE del Parlamento europeo e del Consiglio, del 7 marzo 2002; sono trasversali a tutti gli scenari presenti e futuri individuati dalla normativa e che pertanto è necessario considerarli sempre nella valutazione dei rischi richiesta. Del resto l’importanza assunta dalle comunicazioni elettroniche ed il loro alto profilo di rischio è già evidente nell’attuale versione del Dlgs 196/03, 202 La Comunicazione N.R.& N. Un modello per la valutazione dei rischi relativamente al trattamento dei dati personali nelle comunicazioni elettroniche A risk assessment model regarding the personal data processing in electronic communications che con decreto legislativo 28 maggio 2012, n. 69 ha introdotto nel Codice per la protezione dei dati personali l’articolo 32-bis. Tale articolo, obbliga i titolari di trattamento, fornitori di servizi di comunicazione elettronica accessibili al pubblico, alla notifica di una violazione di dati personali, così come definita nell’Art. 4 dello stesso Codice. Art. 4. Definizioni 3. Ai fini del presente codice si intende, altresì, per: … g-bis) "violazione di dati personali": violazione della sicurezza che comporta anche accidentalmente la distruzione, la perdita, la modifica, la rivelazione non autorizzata o l'accesso ai dati personali trasmessi, memorizzati o comunque elaborati nel contesto della fornitura di un servizio di comunicazione accessibile al pubblico. Gli adempimenti richiesti al Titolare da parte di questo articolo sono molto onerosi e prevedono una comunicazione della violazione sia al Garante Art. 32-bis Adempimenti conseguenti ad una violazione di dati personali 1. In caso di violazione di dati personali, il fornitore di servizi di comunicazione elettronica accessibili al pubblico comunica senza indebiti ritardi detta violazione al Garante. sia ai singoli contraenti (termine più esteso dei semplici interessati in quanto comprende anche le persone giuridiche): In particolare quest’ultimo adempimento può essere estremamente costoso in termini di risorse tecniche ed economiche, considerando la potenziale numerosità di tali soggetti. In caso di mancata spontanea comunicazione ai contraenti da parte del Titolare è lo stesso Garante che può imporla. Un fattore esimente a tale comunicazione è descritto al comma 3 dello stesso articolo 32-bis. 3. La comunicazione di cui al comma 2 non è dovuta se il fornitore ha dimostrato al Garante di aver utilizzato misure tecnologiche di protezione che rendono i dati inintelligibili a chiunque non sia autorizzato ad accedervi e che tali misure erano state applicate ai dati oggetto della violazione L’obbligo di segnalazione di una violazione, pur essendo estremamente impegnativo, viene ripreso dallo stesso Garante per la protezione dei dati personali, ad esempio nel Provvedimento generale prescrittivo in tema di biometria del 12 novembre 2014 …prescrive, ai sensi dell'Art. 154, comma 1, lettera c) del Codice, che i titolari di trattamenti biometrici comunichino al Garante, entro 203 G. Butti, A. Piamonte ventiquattro ore dalla conoscenza del fatto, le violazioni dei dati biometrici secondo le modalità di cui al paragrafo 3; o, seppure in forma diversa, da altri enti quali Banca d’Italia nelle sue Nuove disposizioni di vigilanza prudenziale per le banche - Circolare n. 263 del 27 dicembre 2006 – 15° aggiornamento del 2 luglio 2013 …I gravi incidenti di sicurezza informatica sono comunicati tempestivamente alla Banca d’Italia, con l’invio di un rapporto sintetico recante una descrizione dell’incidente e dei disservizi provocati agli utenti interni e alla clientela nonché i seguenti dati, accertati o presunti: i) data e ora dell’accadimento o della manifestazione dell’incidente; ii) risorse e servizi coinvolti; iii) cause, tempi e modalità previsti per il pieno ripristino dei livelli di disponibilità e sicurezza definiti e per il completo accertamento dei fatti connessi; iv) descrizione delle azioni intraprese e dei risultati ottenuti; v) una valutazione dei danni delle perdite economiche o danni d’immagine. Tale obbligo inoltre viene esteso a tutti i data controller, indipendentemente dal tipo di trattamento effettuato, nella Proposta del nuovo Regolamento UE sulla privacy, che all’ Articolo 31 Notifica di una violazione dei dati personali all'autorità di controllo, così recita: 1. In caso di violazione dei dati personali suscettibile di presentare un rischio elevato per i diritti e le libertà delle persone fisiche, ad esempio discriminazione, furto o usurpazione d'identità, perdite finanziarie, decifratura non autorizzata della pseudonimizzazione, pregiudizio alla reputazione, perdita di riservatezza dei dati protetti da segreto professionale o qualsiasi altro danno economico o sociale importante, il responsabile del trattamento notifica la violazione all'autorità di controllo competente ai sensi dell'articolo 51 senza ritardo ingiustificato, ove possibile entro 72 ore dal momento in cui ne è venuto a conoscenza. Qualora non sia effettuata entro 72 ore, la notifica all'autorità di controllo è corredata di una giustificazione motivata. Anche in questo caso la comunicazione deve avvenire anche ni confronti dell’interessato: Articolo 32 Comunicazione di una violazione dei dati personali all'interessato. Per tornare alla valutazione di impatto, richiesta dal nuovo Regolamento UE, questa non appare in realtà del tutto nuova, essendo in parte paragonabile a quanto prescritto dall’Art. 31. Obblighi di sicurezza del Dlgs 196/03: 1. I dati personali oggetto di trattamento sono custoditi e controllati, anche in relazione alle conoscenze acquisite in base al progresso tecnico, alla natura dei dati e alle specifiche caratteristiche del trattamento, in modo da ridurre al minimo, mediante l'adozione di idonee e preventive misure di sicurezza, i rischi di distruzione o perdita, anche accidentale, dei 204 La Comunicazione N.R.& N. Un modello per la valutazione dei rischi relativamente al trattamento dei dati personali nelle comunicazioni elettroniche A risk assessment model regarding the personal data processing in electronic communications dati stessi, di accesso non autorizzato o di trattamento non consentito o non conforme alle finalità della raccolta. Anche in questo caso, il legislatore ha ritenuto che le comunicazioni elettroniche presenti dei profili di rischio più alti rispetto agli altri trattamenti, ed ha prescritto al riguardo uno specifico articolo Art. 32. Obblighi relativi ai fornitori di servizi di comunicazione elettronica accessibili al pubblico. La differenza più evidente fra il nuovo Regolamento UE e l’attuale Dlgs 196/03, riguarda la presenza in quest’ultimo, non solo di una generica autovalutazione da parte del DATA CONTROLLER del proprio livello di rischio rispetto ad uno o più trattamenti, ma anche la presenza, all’Art. 33 del Codice, di una serie di misure minime: 1 Nel quadro dei più generali obblighi di sicurezza di cui all'articolo 31, o previsti da speciali disposizioni, i titolari del trattamento sono comunque tenuti ad adottare le misure minime individuate nel presente capo o ai sensi dell'articolo 58, comma 3, volte ad assicurare un livello minimo di protezione dei dati personali. che costituiscono una sorta di check list alla quale i DATA CONTROLLER devono attenersi per essere quantomeno conformi con la normativa (l’omessa adozione delle misure minime è presidiata penalmente). La conseguenza negativa di questo tipo di approccio normativo, è stata la conseguente interpretazione dei DATA CONTROLLER, che hanno da sempre privilegiato la semplice conformità alla reale sicurezza (si è sicuri se si è conformi) così come richiesta dal già citato articolo 31 del Codice (e dall’articolo 32 per i fornitori di servizi di comunicazione elettronica accessibili al pubblico). I tentativi di semplificazioni successivamente introdotti dal legislatore non hanno fatto altro che rafforzare tale visione. Le misure minime (che nell’intenzione originale del legislatore avrebbero dovuto essere riviste periodicamente) hanno mostrato tutti i loro limiti, essendo applicate in forma indifferenziata sia per la micro azienda e libero professionista, sia per la grande banca o pubblica amministrazione. Di contro a tale approccio, il nuovo Regolamento UE ribalta il punto di vista: si è conformi se si è sicuri, ed è compito del DATA CONTROLER dimostrare di esserlo. Anche in questo caso non si tratta di una novità assoluta, considerando che il Dlgs 196/03 con l’ Art. 15. Danni cagionati per effetto del trattamento, equiparando il trattamento dei dati personali allo svolgimento di un’attività pericolosa prescrive proprio al DATA CONTROLLER l’onere di dimostrare il proprio livello di sicurezza. 205 G. Butti, A. Piamonte Art. 15. Danni cagionati per effetto del trattamento 1. Chiunque cagiona danno ad altri per effetto del trattamento di dati personali è tenuto al risarcimento ai sensi dell'articolo 2050 del codice civile. 2. Il danno non patrimoniale è risarcibile anche in caso di violazione dell'articolo 11. CODICE CIVILE Art. 2050 (Responsabilità per l'esercizio di attività pericolose) Chiunque cagiona danno ad altri nello svolgimento di un'attività pericolosa, per sua natura o per la natura dei mezzi adoperati, è tenuto al risarcimento, se non prova di avere adottato tutte le misure idonee a evitare il danno. La capacità di effettuare una adeguata analisi preliminare, o di dimostrare a posteriori il proprio livello di sicurezza (e quindi di conformità) è quindi una necessità che richiede l’uso di adeguati modelli di analisi e di gestione. Si passa quindi da una visione di “regole da rispettare” a quella di “quali obiettivi raggiungere”. Sempre più di frequente ci si rende conto che l’adozione “passiva” di soluzioni preconfezionate (one-size-fits-all) con l’obiettivo primario di ottenere un attestato di conformità, non fornisce sufficienti garanzie di efficacia: effettiva sicurezza IT , e di efficienza: costi spesso eccessivi e non proporzionati ai risultati raggiunti in termini di sicurezza La risposta è l’adozione di metodi basati sulla gestione proattiva del Rischio IT: si definisce in modo chiaro e trasparente il risultato che si vuole ottenere (rischio accettabile) e si pianifica di conseguenza una serie di azioni. Nella pratica si è rilevato che passare da un approccio “passivo” ad uno “proattivo” oltre che assegnare con maggiore chiarezza le responsabilità (accountability), porta ad un contenimento dei costi, a vantaggi competitivi ed, in generale, ad una maggior tempestività nella gestione delle nuove emergenti minacce. La domanda è quindi: “Come impostare / definire “ gli obiettivi da raggiungere ed, in base a questi, definire un piano di azione ? Esistono dei riferimenti autorevoli cui appoggiarsi ? FRAMEWORK DI SICUREZZA INFORMATICA: COME USARLI Sono stati sviluppati e oggi sono disponibili Frameworks che possono costituire la base per il processo sistematico di identificazione, valutazione e gestione dei rischi legati alla sicurezza informatica. Non si tratta quindi, in generale, di sostituire quanto già esiste, quanto piuttosto di disporre di una nuova chiave di lettura utilizzabile per determinare carenze e per sviluppare piani di miglioramento. L’utilizzo di Framework consente inoltre di individuare le attività più importanti per raggiungere specifici obiettivi ed assegnare le priorità in modo da garantire il massimo ritorno sugli investimenti. Definire chiaramente gli obiettivi consente anche di comunicarli con altrettanta chiarezza all’interno ed all’esterno dell’organizzazione, 206 La Comunicazione N.R.& N. Un modello per la valutazione dei rischi relativamente al trattamento dei dati personali nelle comunicazioni elettroniche A risk assessment model regarding the personal data processing in electronic communications assegnando responsabilità definite in termini del loro raggiungimento e non di “cosa è stato fatto“ (accountability) e di documentare programmi ed iniziative. Vediamo cosa suggeriscono i moderni Frameworks di Cybersecurity che affrontano “sistematicamente il problema” ( 1 Funzione Descrizione Individuare Individuare le possibili situazioni di rischio in termini di: • • • Proteggere tipo di violazione strutture organizzative e risorse coinvolte probabilità dell’evento e gravità delle conseguenze Adottare preventivamente le misure rivolte a: • evitare trattamenti non necessari • ridurre la probabilità di accadimento • ridurre le possibili conseguenze negative Rilevare Istituire un sistema di monitoraggio continuo in grado di segnalare tempestivamente eventi legati alla sicurezza informatica. Rispondere Predisporre, in caso di incidente, le azioni rivolte al contenimento delle conseguenze e ad evitare il ripetersi di problemi simili: • • Ripristinare Attività per raggiungere l’obiettivo ( da COBIT5, ISO 27001, ecc.) (2 informare gli interessati o l’autorità competente registrare ed analizzare l’incidente adottando le misure correttive ne evitino la ripetizione Predisporre I piani di ripristino della normale continuità operativa 1 La “nuova” protezione dei Dati Personali richiesta dal Nuovo Regolamento Europeo non è attività a se stante ma va inserita in un più ampio contesto della Cybersecurity aziendale. Il Framework ci aiuta in questo fornendoci una chiave di analisi ed implementazione univoca e condivisibile. 2 ENISA gave a presentation on cyber security incident reporting and security measures in the EU. Focus was on Art. 13a in the electronic communications framework directive which has logics in common with Art. 4 in the ePrivacy Directive, Art. 30-32 in the proposed Data Protection Reform, Art. 15 in the proposed regulation on eID and trust services and Art. 14 in the proposed Network and Information Security Directive. Article 13a talks about risk assessments, security measures and incident reporting. The provider providing public communications networks or publicly available electronic communications services shall take appropriate security measures to minimize impact of security incidents on users and interconnected networks and to guarantee network integrity, thus ensuring continuous supply of services over the networks. Providers shall report significant incidents with impact on operation of services to their Regulator (NRA). 207 G. Butti, A. Piamonte Partire quindi dagli standard, le linee guida e le pratiche suggerite dal Framework mette a disposizione delle organizzazioni tassonomia e meccanismi condivisi per: 1 Descrivere (e documentare) lo stato attuale; 2 Descrivere (e documentare) lo stato di destinazione al quali si vuole arrivare; 3 Identificare e concentrarsi sulle opportunità di miglioramento con processi continui e ripetibili; 4 Misurare i progressi verso lo stato desiderato; 5 Comunicare con gli stakeholder interni ed esterni. 6. STRUTTURA GENERALIZZATA DI UN FRAMEWORK DI GOVERNO Figura 1 Con riferimento allo schema rappresentato nella Figura 1, le componenti che costituiscono un Framework sono: • • • • 208 Definizione degli Obiettivi Individuazione degli interventi rivolti al loro ottenimento Tempificazione degli interventi (Ciclo di vita) Individuazione ed assegnazione di ruoli e responsabilità La Comunicazione N.R.& N. Un modello per la valutazione dei rischi relativamente al trattamento dei dati personali nelle comunicazioni elettroniche A risk assessment model regarding the personal data processing in electronic communications che sono brevemente descritte nei paragrafi successivi. Definizione degli Obiettivi Si parte definendo (comunicando e condividendo) gli obiettivi da ottenere che, in generale, individuano: • • • Benefici da ottenere Rischi da evitare Risorse da gestire in modo ottimale. Questo è anche il momento della comunicazione e del coinvolgimento: la condivisione di un obiettivo è uno degli elementi chiave del successo, ma spesso, lo si dimentica! Vanno coinvolti tutti coloro che in modo diretto od indiretto sono coinvolti nell’iniziativa o, semplicemente, ne verranno impattati dal risultato finale: successo o insuccesso che sia. È in genere utilizzato il termine inglese Stakeholder (Portatori di interessi) da non confondere con Shareholder che è tutt’altra cosa. Un altro concetto molto importante nella definizione degli obiettivi è quello del “bilanciamento”: non esiste la soluzione perfetta, ma piuttosto quella “bilanciata “ in modo ottimale tra esigenze tra loro discordanti. È molto diffuso l’utilizzo delle Balanced Scorecards (Nolan e Kaplan 1996) che aiutano a mediare tra esigenze strategiche o di mercato, attenzione alla clientela, ottimizzazione dei processi aziendali interni ed innovazione e competitività. Esse sono disponibili sia per organizzazioni private che per strutture pubbliche ( sanità, ecc.). Individuazione degli interventi Dove intervenire Per ottenere i risultati desiderati bisogna pianificare correttamente una serie di interventi. È necessario decidere innanzitutto dove intervenire; al riguardo risulta comodo utilizzare un elenco delle possibili aree intervento. Esse secondo l’attuale (2015) letteratura sono: • • • • • • • Processi / Pratiche /Attività da implementare o migliorare Principi o Policies da definire e comunicare Persone con le loro capacità ed esperienza Organizzazioni con specifici ruoli e responsabilità Cultura ed etica Informazioni di cui si necessita per operare correttamente ed efficacemente Strumenti e sistemi tecnologici (spesso ci si limita a questi con le prevedibili conseguenze!) 209 G. Butti, A. Piamonte Il termine divenuto di moda: olistico, indica appunto la necessità di prendere in considerazione tutte e sette le possibili aree di intervento. Come intervenire Qui, se possibile, è meglio evitare i fai da te: si corrono solo rischi inutili. Per ogni cosa da fare esistono ormai Buone pratiche, Standards e linee guida che raccolgono in modo sistematico il meglio delle varie tematiche, dalla gestione della sicurezza a quella delle risorse umane, dalla continuità di servizio alla scelta dei fornitori… Sono in genere dettagliate, aggiornate ed autorevoli e . . . . stuoli di consulenti in grado di assistervi nella loro scelta ed utilizzo. Un caveat: l’adozione di uno standard deve rimanere un “mezzo” per raggiungere gli obiettivi di cui al punto precedente, spesso ci si concentra invece eccessivamente sullo standard in quanto tale e la certificazione, il bollino blu diventano il fine. Il ciclo di vita Dopo aver definito cosa si desidera e cosa si deve fare (o non fare) per ottenerlo, si pone il quesito se fare tutto e subito oppure se esiste un ordine logico ottimale. Il Framework ci aiuta anche in questo identificando i vari momenti nel ciclo di vita di un’iniziativa: 1. Valutare, indirizzare e controllare (Governance!) 2. Interpretare gli indirizzi, Pianificare e organizzare 3. Analizzare e costruire le soluzioni 4. Erogare servizio o supporto 5. Monitorare e misurare Sembra ovvio ma quanto volte si erogano servizi senza prima averli pianificati con i diretti interessati ?! Attori Al termine del processo, ma fondamentale per il successo finale, è la fase di assegnazione dei ruoli e delle responsabilità. Anche qui il Framework aiuta con un elenco di possibili ruoli. Accountable (non esiste una traduzione, ma si tratta di chi ha la responsabilità del risultato finale (Obiettivi al punto 1 !) Responsible: colui (o colei) che guida gli interventi e ne è responsabile Consultend: che va sentito prima di operare Informed: cui va comunicato la disponibilità di nuovi servizi, ecc. Questo completa la nostra struttura che ora è possibile utilizzare leggendola “verticalmente” per analizzare il nostro problema con 210 La Comunicazione N.R.& N. Un modello per la valutazione dei rischi relativamente al trattamento dei dati personali nelle comunicazioni elettroniche A risk assessment model regarding the personal data processing in electronic communications crescente livello di dettaglio, oppure “orizzontalmente” (come indicato in figura con i collegamenti in colore verde) per scoprire le relazioni causaeffetto. Conclusione Per concludere si ricorda che uno schema così strutturato ed articolato può: 1. Essere specializzato per uno specifico problema • Sicurezza informatica • Conformità ad una specifica legge o regolamento • Soluzione di casi specifici quali: • Gestione dei Fornitori • Gestione delle problematiche BYOD, Cluod, ecc. 2. Essere utilizzato per stendere guide all’implementazione 3. Ospitare strumenti di valutazione della Capability di Processo • Che forniscono la possibilità di valutare a priori la probabilità che il Processo fornisca i risultati attesi (Data Protection by Design !!!) controllando e dimostrando sistematicamente quanto è stato fatto. 211 G. Butti, A. Piamonte APPENDICE 1 - PRIVACY FRAMEWORK Perché intervenire Proposta Regolamento EU Protezione Dati Personali Art. 5, Art. 22, Art. 25, Art. 35, Art. 36, Art. 37 Art. 5, Art. 9, Art. 28, Art. 34, Art. 42, Art. 44, Art. 81, Art. 83 Art. 7, Art. 8, Art. 20, Art. 83 Art. 22 Art. 30 Art. 24, Art. 26 Art. 27, Art. 43 Art. 11, Art. 14, Art. 36 Art. 12, Art. 13, Art. 15, Art. 16, Art. 17, Art. 18, Art. 19 Art. 22, Art. 23, Art. 33 Art. 31, Art. 32 Art. 22 212 Governo Gestione Interpretare, indirizzare e monitorare 1. Definire e Mantenere una Struttura di Governo della Data Protection 2. Mantenere un Inventario dei Dati Personali e dei flussi che li interessano 3. Policy di Personal Data Protection 4. Includere (embed) la Data Privacy nei trattamenti 5. Programmi di formazione e sensibilizzazione 6. Gestire il Rischi di Sicurezza informatica 7. Gestire i rischi derivanti da terze parti 8. Dare “visibilità” agli obiettivi ed alle iniziative di Data Protection 9. Attivare procedure per rispondere a richieste e lamentele 10. Monitorare novità o modifiche nei Processi e nelle Procedure 11. Definire un programma di gestione dei Data Privacy Breach 12. Monitorare le modalità (pratiche) di trattamento dei Dati Personali Interventi • • Principi Organizzazione • Informazioni • Policy • Processi • • • Processi Persone Cultura • • Processi Sistemi • Processi • • • Processi Persone Cultura • Processi • Processi • • Processi Policy • Processi • • • Attività Sequenze Ruoli La Comunicazione N.R.& N. Un modello per la valutazione dei rischi relativamente al trattamento dei dati personali nelle comunicazioni elettroniche A risk assessment model regarding the personal data processing in electronic communications La tabella della pagina precedente esemplifica i passi preliminari all’utilizzo di un Framework di Governo IT per il “governo” e la “gestione” del Nuovo Regolamento Europeo sulla protezione dei Dati Personali. Si parte dalla decisione di “adottare” il nuovo Regolamento per ottenere i benefici (immagine aziendale) e per evitare i possibili rischi legati ad eventuali non conformità (contenzioso, penali, ecc.). Il Nuovo Regolamento va quindi interpretato, calandolo nella propria realtà aziendale, e dall’analisi devono scaturire indirizzi – linee guida di alto livello. È questo, a nostro avviso, un passaggio fondamentale “non delegabile”. Una delega a questo livello porterebbe infatti ad approcci “generalizzati” inefficaci e costosi. Data Protection by design parte infatti da una chiara e maturata volontà aziendale di proteggere i Dati Personali custoditi ed utilizzati e di cui è responsabile. La conformità deve essere una, e non la sola, conseguenza e non può certo costituire l’unico punto di partenza ! Questo vale in generale, ed in particolare per le attività legate alla valutazione della PIA (Valutazione Impatto Privacy) il cui obiettivo deve andare ben oltre l’ottenimento di una semplice conformità soltanto “formale”.. Le linee guida, che esprimono gli indirizzi e gli obiettivi di governo, andranno messi in pratica con una serie di interventi, i cui risultati potranno venire nel tempo misurati a fronte degli obiettivi. Il Framework, nella sua parte rivolta a management e alla gestione, ci consentirà di collocare i vari interventi nei tempi e con le sequenze opportune fornendo, agli attori coinvolti, una visione completa e condivisa delle proprie ed altrui responsabilità. APPENDICE 2 – RIFERIMENTI NORMATIVI Proposta di regolamento del Parlamento europeo e del Consiglio concernente la tutela delle persone fisiche con riguardo al trattamento dei dati personali e la libera circolazione di tali dati (regolamento generale sulla protezione dei dati) Articolo 31 Notifica di una violazione dei dati personali all'autorità di controllo 1. In caso di violazione dei dati personali suscettibile di presentare un rischio elevato per i diritti e le libertà delle persone fisiche, ad esempio discriminazione, furto o usurpazione d'identità, perdite finanziarie, decifratura non autorizzata della pseudonimizzazione, pregiudizio alla 213 G. Butti, A. Piamonte reputazione, perdita di riservatezza dei dati protetti da segreto professionale o qualsiasi altro danno economico o sociale importante, il responsabile del trattamento notifica la violazione all'autorità di controllo competente ai sensi dell'articolo 51 senza ritardo ingiustificato, ove possibile entro 72 ore dal momento in cui ne è venuto a conoscenza. Qualora non sia effettuata entro 72 ore, la notifica all'autorità di controllo è corredata di una giustificazione motivata. 1 bis. La notifica prevista al paragrafo 1 non è richiesta se, ai sensi dell'articolo 32, paragrafo 3, lettere a) e b), non è richiesta una comunicazione all'interessato. 2. (…) L'incaricato del trattamento informa il responsabile del trattamento senza ingiustificato ritardo dopo aver accertato la violazione dei dati personali. 3. La notifica di cui al paragrafo 1 deve come minimo: a) descrivere la natura della violazione dei dati personali compresi, ove possibile e appropriato, le categorie e il numero di interessati approssimativi in questione nonché le categorie e il numero approssimativo di registrazioni dei dati in questione; b) indicare l’identità e le coordinate di contatto del responsabile della protezione dei dati o di altro punto di contatto presso cui ottenere più informazioni; c) (…) d) descrivere le possibili conseguenze della violazione dei dati personali individuate dal responsabile del trattamento; e) descrivere le misure adottate o di cui si propone l'adozione da parte del responsabile del trattamento per porre rimedio alla violazione dei dati personali; e f) ove opportuno, indicare le misure intese ad attenuare i possibili effetti pregiudizievoli della violazione dei dati personali. 3 bis. Qualora e nella misura in cui non sia possibile fornire le informazioni di cui al paragrafo 3, lettere d), e) ed f), contestualmente alle informazioni di cui ai punti a) e b), il responsabile del trattamento trasmette dette informazioni senza ulteriore ingiustificato ritardo. 4. Il responsabile del trattamento documenta la violazione dei dati personali di cui ai paragrafi 1 e 2, incluse le circostanze in cui si è verificata, le sue conseguenze e i provvedimenti adottati per porvi rimedio. La documentazione deve consentire all’autorità di controllo di verificare il rispetto del presente articolo. (…). 5. (…) 6. (…) Articolo 32 Comunicazione di una violazione dei dati personali all'interessato 1. Quando la violazione dei dati personali è suscettibile di presentare un rischio elevato per i diritti e le libertà delle persone fisiche, ad esempio discriminazione, furto o usurpazione d'identità, perdite finanziarie, pregiudizio alla reputazione, decifratura non autorizzata della pseudonimizzazione, perdita di riservatezza dei dati protetti da segreto professionale o qualsiasi altro danno economico o sociale importante, il 214 La Comunicazione N.R.& N. Un modello per la valutazione dei rischi relativamente al trattamento dei dati personali nelle comunicazioni elettroniche A risk assessment model regarding the personal data processing in electronic communications responsabile del trattamento (…) comunica la violazione all'interessato senza ingiustificato ritardo. 2. La comunicazione all'interessato di cui al paragrafo 1 descrive la natura della violazione dei dati personali e contiene almeno le informazioni e le raccomandazioni di cui all'articolo 31, paragrafo 3, lettere b), e) ed f). 3. Non è richiesta la comunicazione (…) all'interessato ai sensi del paragrafo 1 se: a. il responsabile del trattamento (…) ha utilizzato le opportune misure tecnologiche ed organizzative di protezione e tali misure erano state applicate ai dati personali oggetto della violazione, in particolare quelle destinate a rendere i dati incomprensibili a chiunque non sia autorizzato ad accedervi, quali la cifratura; oppure b. il responsabile del trattamento ha successivamente adottato misure atte a scongiurare il sopraggiungere di un rischio elevato per i diritti e le libertà degli interessati di cui al paragrafo 1; c. detta comunicazione richiederebbe sforzi sproporzionati, in particolare a motivo del numero di casi in questione. In una simile circostanza, si procede invece a una comunicazione pubblica o a una misura simile, tramite la quale gli interessati sono informati con analoga efficacia; d. avrebbe ripercussioni negative su un interesse pubblico rilevante. 4. (…) 5. (…) 6. (…) Articolo 33 Valutazione d'impatto sulla protezione dei dati 1. Quando un tipo di trattamento, allorché prevede in particolare l'uso di nuove tecnologie, considerati la natura, l'oggetto, il contesto e le finalità del trattamento, può presentare un rischio elevato per i diritti e le libertà delle persone fisiche, ad esempio discriminazione, furto o usurpazione d'identità, perdite finanziarie, pregiudizio alla reputazione, decifratura non autorizzata della pseudonimizzazione, perdita di riservatezza dei dati protetti da segreto professionale o qualsiasi altro danno economico o sociale importante, il responsabile del trattamento (…) effettua, prima di procedere al trattamento, una valutazione dell'impatto delle operazioni di trattamento previste sulla protezione dei dati personali. (…). (…). 1 bis. Il responsabile del trattamento, allorquando svolge una valutazione d'impatto sulla protezione dei dati, chiede un parere al responsabile della protezione dei dati, qualora ne sia designato uno. 2. La valutazione d'impatto sulla protezione dei dati di cui al paragrafo 1 è richiesta in particolare nei seguenti casi: a) una valutazione sistematica e globale (…) di aspetti della personalità (…) degli interessati (…), basata sulla profilazione e da cui discendono decisioni che hanno effetti giuridici sugli interessati o incidono gravemente sugli interessati; b) il trattamento di categorie particolari di dati personali ai sensi dell'articolo 9, paragrafo 1 (…), dati biometrici o dati relativi a condanne penali e reati o a connesse misure di sicurezza, qualora i dati siano trattati per prendere decisioni su larga scala riguardanti persone fisiche; c) la sorveglianza di zone accessibili al pubblico su larga scala, in particolare se effettuata mediante dispositivi ottico-elettronici (…); d) (…); 215 G. Butti, A. Piamonte e) (…). 2 bis. L'autorità di controllo redige e rende pubblico un elenco delle tipologie di operazioni di trattamento soggette al requisito di una valutazione d'impatto sulla protezione dei dati ai sensi del paragrafo 1. L'autorità di controllo comunica tali elenchi al comitato europeo per la protezione dei dati. 2 ter. L'autorità di controllo può inoltre redigere e rendere pubblico un elenco delle tipologie di operazioni di trattamento per le quali non è richiesta una valutazione d'impatto sulla protezione dei dati. L'autorità di controllo comunica tali elenchi al comitato europeo per la protezione dei dati. 2 quater. Prima di adottare gli elenchi di cui ai paragrafi 2 bis e 2 ter, l'autorità di controllo competente applica il meccanismo di coerenza di cui all'articolo 57 se tali elenchi comprendono attività di trattamento finalizzate all'offerta di beni o servizi a interessati o al controllo del loro comportamento in più Stati membri, o attività di trattamento che possono incidere significativamente sulla libera circolazione dei dati personali all'interno dell'Unione. 3. La valutazione contiene almeno una descrizione generale delle operazioni di trattamento previste, una valutazione del rischio di cui al paragrafo 1, le misure previste per affrontare il rischio, includendo le garanzie, le misure di sicurezza e i meccanismi per garantire la protezione dei dati personali e dimostrare la conformità al presente regolamento, tenuto conto dei diritti e dei legittimi interessi degli interessati e delle altre persone in questione. 3 bis. Nella valutazione della liceità e dell'impatto del trattamento compiuto dai relativi responsabili o incaricati si tiene debito conto del rispetto da parte di questi ultimi dei codici di condotta approvati di cui all'articolo 38, in particolare ai fini di una valutazione d'impatto sulla protezione dei dati. 4. Il responsabile del trattamento raccoglie le opinioni degli interessati o dei loro rappresentanti sul trattamento previsto, fatta salva la tutela degli interessi commerciali o pubblici o la sicurezza delle operazioni di trattamento (…). 5. (...) Qualora il trattamento effettuato ai sensi dell'articolo 6, paragrafo 1, lettere c) o e), trovi nel diritto dell'Unione o nel diritto dello Stato membro cui il responsabile del trattamento è soggetto un fondamento giuridico attraverso un atto legislativo che disciplina l'operazione di trattamento specifica o l'insieme di operazioni in questione, i paragrafi 1, 2 e 3 non si applicano, salvo che gli Stati membri ritengano necessario effettuare tale valutazione prima di procedere alle attività di trattamento. 6. (…) 7. (…) 216 La Comunicazione N.R.& N. Un modello per la valutazione dei rischi relativamente al trattamento dei dati personali nelle comunicazioni elettroniche A risk assessment model regarding the personal data processing in electronic communications Decreto legislativo 30 giugno 2003, n. 196 CODICE IN MATERIA DI PROTEZIONE DEI DATI PERSONALI Art. 31. Obblighi di sicurezza 1. I dati personali oggetto di trattamento sono custoditi e controllati, anche in relazione alle conoscenze acquisite in base al progresso tecnico, alla natura dei dati e alle specifiche caratteristiche del trattamento, in modo da ridurre al minimo, mediante l'adozione di idonee e preventive misure di sicurezza, i rischi di distruzione o perdita, anche accidentale, dei dati stessi, di accesso non autorizzato o di trattamento non consentito o non conforme alle finalità della raccolta. Art. 32. Obblighi relativi ai fornitori di servizi di comunicazione elettronica accessibili al pubblico* (1) 1. Il fornitore di un servizio di comunicazione elettronica accessibile al pubblico adotta, ai sensi dell'articolo 31, anche attraverso altri soggetti a cui sia affidata l'erogazione del predetto servizio, misure tecniche e organizzative adeguate al rischio esistente, per salvaguardare la sicurezza dei suoi servizi e per gli adempimenti di cui all'articolo 32-bis. (2) 1-bis. Ferma restando l'osservanza degli obblighi di cui agli articoli 30 e 31, i soggetti che operano sulle reti di comunicazione elettronica garantiscono che i dati personali siano accessibili soltanto al personale autorizzato per fini legalmente autorizzati. (3) 1-ter. Le misure di cui ai commi 1 e 1-bis garantiscono la protezione dei dati relativi al traffico ed all'ubicazione e degli altri dati personali archiviati o trasmessi dalla distruzione anche accidentale, da perdita o alterazione anche accidentale e da archiviazione, trattamento, accesso o divulgazione non autorizzati o illeciti, nonché assicurano l'attuazione di una politica di sicurezza. (3) 2. Quando la sicurezza del servizio o dei dati personali richiede anche l'adozione di misure che riguardano la rete, il fornitore del servizio di comunicazione elettronica accessibile al pubblico adotta tali misure congiuntamente con il fornitore della rete pubblica di comunicazioni. In caso di mancato accordo, su richiesta di uno dei fornitori, la controversia è definita dall'Autorità per le garanzie nelle comunicazioni secondo le modalità previste dalla normativa vigente. 3. Il fornitore di un servizio di comunicazione elettronica accessibile al pubblico informa i contraenti e, ove possibile, gli utenti, se sussiste un particolare rischio di violazione della sicurezza della rete, indicando, quando il rischio è al di fuori dell'ambito di applicazione delle misure che il fornitore stesso è tenuto ad adottare ai sensi dei commi 1, 1-bis e 2, tutti i possibili rimedi e i relativi costi presumibili. Analoga informativa è resa al Garante e all'Autorità per le garanzie nelle comunicazioni. (4) Art. 32-bis Adempimenti conseguenti ad una violazione di dati personali (1) 1. In caso di violazione di dati personali, il fornitore di servizi di comunicazione elettronica accessibili al pubblico comunica senza indebiti ritardi detta violazione al Garante. 217 G. Butti, A. Piamonte 2. Quando la violazione di dati personali rischia di arrecare pregiudizio ai dati personali o alla riservatezza del contraente o di altra persona, il fornitore comunica anche agli stessi senza ritardo l'avvenuta violazione. 3. La comunicazione di cui al comma 2 non è dovuta se il fornitore ha dimostrato al Garante di aver utilizzato misure tecnologiche di protezione che rendono i dati inintelligibili a chiunque non sia autorizzato ad accedervi e che tali misure erano state applicate ai dati oggetto della violazione. 4. Ove il fornitore non vi abbia già provveduto, il Garante può, considerate le presumibili ripercussioni negative della violazione, obbligare lo stesso a comunicare al contraente o ad altra persona l'avvenuta violazione. 5. La comunicazione al contraente o ad altra persona contiene almeno una descrizione della natura della violazione di dati personali e i punti di contatto presso cui si possono ottenere maggiori informazioni ed elenca le misure raccomandate per attenuare i possibili effetti pregiudizievoli della violazione di dati personali. La comunicazione al Garante descrive, inoltre, le conseguenze della violazione di dati personali e le misure proposte o adottate dal fornitore per porvi rimedio. 6. Il Garante può emanare, con proprio provvedimento, orientamenti e istruzioni in relazione alle circostanze in cui il fornitore ha l'obbligo di comunicare le violazioni di dati personali, al formato applicabile a tale comunicazione, nonché alle relative modalità di effettuazione, tenuto conto delle eventuali misure tecniche di attuazione adottate dalla Commissione europea ai sensi dell'articolo 4, paragrafo 5, della direttiva 2002/58/CE, come modificata dalla direttiva 2009/136/CE. 7. I fornitori tengono un aggiornato inventario delle violazioni di dati personali, ivi incluse le circostanze in cui si sono verificate, le loro conseguenze e i provvedimenti adottati per porvi rimedio, in modo da consentire al Garante di verificare il rispetto delle disposizioni del presente articolo. Nell'inventario figurano unicamente le informazioni necessarie a tal fine. 8. Nel caso in cui il fornitore di un servizio di comunicazione elettronica accessibile al pubblico affidi l'erogazione del predetto servizio ad altri soggetti, gli stessi sono tenuti a comunicare al fornitore senza indebito ritardo tutti gli eventi e le informazioni necessarie a consentire a quest'ultimo di effettuare gli adempimenti di cui al presente articolo. Art. 32-bis Adempimenti conseguenti ad una violazione di dati personali (1) 1. In caso di violazione di dati personali, il fornitore di servizi di comunicazione elettronica accessibili al pubblico comunica senza indebiti ritardi detta violazione al Garante. 2. Quando la violazione di dati personali rischia di arrecare pregiudizio ai dati personali o alla riservatezza del contraente o di altra persona, il fornitore comunica anche agli stessi senza ritardo l'avvenuta violazione. 3. La comunicazione di cui al comma 2 non è dovuta se il fornitore ha dimostrato al Garante di aver utilizzato misure tecnologiche di protezione che rendono i dati inintelligibili a chiunque non sia autorizzato ad 218 La Comunicazione N.R.& N. Un modello per la valutazione dei rischi relativamente al trattamento dei dati personali nelle comunicazioni elettroniche A risk assessment model regarding the personal data processing in electronic communications accedervi e che tali misure erano state applicate ai dati oggetto della violazione. 4. Ove il fornitore non vi abbia già provveduto, il Garante può, considerate le presumibili ripercussioni negative della violazione, obbligare lo stesso a comunicare al contraente o ad altra persona l'avvenuta violazione. 5. La comunicazione al contraente o ad altra persona contiene almeno una descrizione della natura della violazione di dati personali e i punti di contatto presso cui si possono ottenere maggiori informazioni ed elenca le misure raccomandate per attenuare i possibili effetti pregiudizievoli della violazione di dati personali. La comunicazione al Garante descrive, inoltre, le conseguenze della violazione di dati personali e le misure proposte o adottate dal fornitore per porvi rimedio. 6. Il Garante può emanare, con proprio provvedimento, orientamenti e istruzioni in relazione alle circostanze in cui il fornitore ha l'obbligo di comunicare le violazioni di dati personali, al formato applicabile a tale comunicazione, nonché alle relative modalità di effettuazione, tenuto conto delle eventuali misure tecniche di attuazione adottate dalla Commissione europea ai sensi dell'articolo 4, paragrafo 5, della direttiva 2002/58/CE, come modificata dalla direttiva 2009/136/CE. 7. I fornitori tengono un aggiornato inventario delle violazioni di dati personali, ivi incluse le circostanze in cui si sono verificate, le loro conseguenze e i provvedimenti adottati per porvi rimedio, in modo da consentire al Garante di verificare il rispetto delle disposizioni del presente articolo. Nell'inventario figurano unicamente le informazioni necessarie a tal fine. 8. Nel caso in cui il fornitore di un servizio di comunicazione elettronica accessibile al pubblico affidi l'erogazione del predetto servizio ad altri soggetti, gli stessi sono tenuti a comunicare al fornitore senza indebito ritardo tutti gli eventi e le informazioni necessarie a consentire a quest'ultimo di effettuare gli adempimenti di cui al presente articolo. APPENDICE 3 - ESEMPIO DI APPROCCIO STRUTTURATO Il recente Cybersecurity Framework USA elaborato da NIST (2 / 2014) fornisce linee guida dettagliate per l’implementazione delle 5 funzionalità che quindi, anche tenendo conto della criticità del contesto, possono essere implementate con livelli differenti di “capacità ed efficacia” 219 G. Butti, A. Piamonte Capacità, efficacia documentabilità crescenti Livello 1 Function Category IDENTIFY (ID) Asset Management (ID.AM): The data, personnel, devices, systems, and facilities that enable the organization to achieve business purposes are identified and managed consistent with their relative importance to business objectives and the organization’s risk strategy. Business Environment (ID.BE): The organization’s mission, objectives, stakeholders, and activities are understood and prioritized; this information is used to inform cybersecurity roles, responsibilities, and risk management decisions. Governance (ID.GV): The policies, procedures, and 220 Livello 2 Subcategory Livello 3 Riferimento a Frameworks / Standards implementativi (COBIT5 / ISO 27001-2013) ID.AM-1: Physical devices and systems within the organization are inventoried ID.AM-2: Software platforms and applications within the organization are inventoried ID.AM-3: Organizational communication and data flows are mapped ID.AM-4: External information systems are catalogued ID.AM-5: Resources (e.g., hardware, devices, data, and software) are prioritized based on their classification, criticality, and business value ID.AM-6: Cybersecurity roles and responsibilities for the entire workforce and third-party stakeholders (e.g., suppliers, customers, partners) are established ID.BE-1: The organization’s role in the supply chain is identified and communicated ID.BE-2: The organization’s place in critical infrastructure and its industry sector is identified and communicated ID.BE-3: Priorities for organizational mission, objectives, and activities are established and communicated ID.BE-4: Dependencies and critical functions for delivery of critical services are established ID.BE-5: Resilience requirements to support delivery of critical services are established ID.GV-1: Organizational information security policy is established La Comunicazione N.R.& N. Un modello per la valutazione dei rischi relativamente al trattamento dei dati personali nelle comunicazioni elettroniche A risk assessment model regarding the personal data processing in electronic communications Livello 1 processes to manage and monitor the organization’s regulatory, legal, risk, environmental, and operational requirements are understood and inform the management of cybersecurity risk. Risk Assessment (ID.RA): The organization understands the cybersecurity risk to organizational operations (including mission, functions, image, or reputation), organizational assets, and individuals. Risk Management Strategy (ID.RM): The organization’s priorities, constraints, risk tolerances, and assumptions are established and used to support operational risk decisions. PROTECT (PR) Access Control (PR.AC): Access to assets and associated facilities is limited to authorized users, processes, or devices, and to authorized activities and transactions. Livello 2 ID.GV-2: Information security roles & responsibilities are coordinated and aligned with internal roles and external partners ID.GV-3: Legal and regulatory requirements regarding cybersecurity, including privacy and civil liberties obligations, are understood and managed ID.GV-4: Governance and risk management processes address cybersecurity risks ID.RA-1: Asset vulnerabilities are identified and documented ID.RA-2: Threat and vulnerability information is received from information sharing forums and sources ID.RA-3: Threats, both internal and external, are identified and documented ID.RA-4: Potential business impacts and likelihoods are identified ID.RA-5: Threats, vulnerabilities, likelihoods, and impacts are used to determine risk ID.RA-6: Risk responses are identified and prioritized ID.RM-1: Risk management processes are established, managed, and agreed to by organizational stakeholders ID.RM-2: Organizational risk tolerance is determined and clearly expressed ID.RM-3: The organization’s determination of risk tolerance is informed by its role in critical infrastructure and sector specific risk analysis PR.AC-1: Identities and credentials are managed for authorized devices and users PR.AC-2: Physical access to assets is managed and protected PR.AC-3: Remote access is managed PR.AC-4: Access permissions are managed, incorporating the principles of least privilege and separation of duties PR.AC-5: Network integrity is protected, incorporating network segregation where appropriate Livello 3 221 G. Butti, A. Piamonte Livello 1 Awareness and Training (PR.AT): The organization’s personnel and partners are provided cybersecurity awareness education and are adequately trained to perform their information securityrelated duties and responsibilities consistent with related policies, procedures, and agreements. Data Security (PR.DS): Information and records (data) are managed consistent with the organization’s risk strategy to protect the confidentiality, integrity, and availability of information. Information Protection Processes and Procedures (PR.IP): Security policies (that address purpose, scope, roles, responsibilities, management commitment, and coordination among organizational entities), processes, and procedures are maintained and used to manage protection of information systems and assets. 222 Livello 2 PR.AT-1: All users are informed and trained PR.AT-2: Privileged users understand roles & responsibilities PR.AT-3: Third-party stakeholders (e.g., suppliers, customers, partners) understand roles & responsibilities PR.AT-4: Senior executives understand roles & responsibilities PR.AT-5: Physical and information security personnel understand roles & responsibilities Livello 3 PR.DS-1: Data-at-rest is protected PR.DS-2: Data-in-transit is protected PR.DS-3: Assets are formally managed throughout removal, transfers, and disposition PR.DS-4: Adequate capacity to ensure availability is maintained PR.DS-5: Protections against data leaks are implemented PR.DS-6: Integrity checking mechanisms are used to verify software, firmware, and information integrity PR.DS-7: The development and testing environment(s) are separate from the production environment PR.IP-1: A baseline configuration of information technology/industrial control systems is created and maintained PR.IP-2: A System Development Life Cycle to manage systems is implemented PR.IP-3: Configuration change control processes are in place PR.IP-4: Backups of information are conducted, maintained, and tested periodically PR.IP-5: Policy and regulations regarding the physical operating environment for organizational assets are met PR.IP-6: Data is destroyed according to policy PR.IP-7: Protection processes are continuously improved PR.IP-8: Effectiveness of protection technologies is shared with appropriate parties La Comunicazione N.R.& N. Un modello per la valutazione dei rischi relativamente al trattamento dei dati personali nelle comunicazioni elettroniche A risk assessment model regarding the personal data processing in electronic communications Livello 1 Maintenance (PR.MA): Maintenance and repairs of industrial control and information system components is performed consistent with policies and procedures. Protective Technology (PR.PT): Technical security solutions are managed to ensure the security and resilience of systems and assets, consistent with related policies, procedures, and agreements. DETECT (DE) Anomalies and Events (DE.AE): Anomalous activity is detected in a timely manner and the potential impact of events is understood. Security Continuous Monitoring (DE.CM): The information system and assets are monitored at discrete intervals to identify Livello 2 PR.IP-9: Response plans (Incident Response and Business Continuity) and recovery plans (Incident Recovery and Disaster Recovery) are in place and managed PR.IP-10: Response and recovery plans are tested PR.IP-11: Cybersecurity is included in human resources practices (e.g., deprovisioning, personnel screening) PR.IP-12: A vulnerability management plan is developed and implemented PR.MA-1: Maintenance and repair of organizational assets is performed and logged in a timely manner, with approved and controlled tools PR.MA-2: Remote maintenance of organizational assets is approved, logged, and performed in a manner that prevents unauthorized access PR.PT-1: Audit/log records are determined, documented, implemented, and reviewed in accordance with policy PR.PT-2: Removable media is protected and its use restricted according to policy PR.PT-3: Access to systems and assets is controlled, incorporating the principle of least functionality PR.PT-4: Communications and control networks are protected DE.AE-1: A baseline of network operations and expected data flows for users and systems is established and managed DE.AE-2: Detected events are analyzed to understand attack targets and methods DE.AE-3: Event data are aggregated and correlated from multiple sources and sensors DE.AE-4: Impact of events is determined DE.AE-5: Incident alert thresholds are established DE.CM-1: The network is monitored to detect potential cybersecurity events DE.CM-2: The physical environment is monitored to detect potential cybersecurity events Livello 3 223 G. Butti, A. Piamonte Livello 1 cybersecurity events and verify the effectiveness of protective measures. Detection Processes (DE.DP): Detection processes and procedures are maintained and tested to ensure timely and adequate awareness of anomalous events. RESPOND (RS) Response Planning (RS.RP): Response processes and procedures are executed and maintained, to ensure timely response to detected cybersecurity events. Communications (RS.CO): Response activities are coordinated with internal and external stakeholders, as appropriate, to include external support from law enforcement agencies. Analysis (RS.AN): Analysis is conducted to ensure adequate response and support 224 Livello 2 DE.CM-3: Personnel activity is monitored to detect potential cybersecurity events DE.CM-4: Malicious code is detected DE.CM-5: Unauthorized mobile code is detected DE.CM-6: External service provider activity is monitored to detect potential cybersecurity events DE.CM-7: Monitoring for unauthorized personnel, connections, devices, and software is performed DE.CM-8: Vulnerability scans are performed DE.DP-1: Roles and responsibilities for detection are well defined to ensure accountability DE.DP-2: Detection activities comply with all applicable requirements DE.DP-3: Detection processes are tested DE.DP-4: Event detection information is communicated to appropriate parties DE.DP-5: Detection processes are continuously improved RS.RP-1: Response plan is executed during or after an event Livello 3 RS.CO-1: Personnel know their roles and order of operations when a response is needed RS.CO-2: Events are reported consistent with established criteria RS.CO-3: Information is shared consistent with response plans RS.CO-4: Coordination with stakeholders occurs consistent with response plans RS.CO-5: Voluntary information sharing occurs with external stakeholders to achieve broader cybersecurity situational awareness RS.AN-1: Notifications from detection systems are investigated RS.AN-2: The impact of the incident is understood La Comunicazione N.R.& N. Un modello per la valutazione dei rischi relativamente al trattamento dei dati personali nelle comunicazioni elettroniche A risk assessment model regarding the personal data processing in electronic communications Livello 1 recovery activities. RECOVER (RC) Mitigation (RS.MI): Activities are performed to prevent expansion of an event, mitigate its effects, and eradicate the incident. Improvements (RS.IM): Organizational response activities are improved by incorporating lessons learned from current and previous detection/response activities. Recovery Planning (RC.RP): Recovery processes and procedures are executed and maintained to ensure timely restoration of systems or assets affected by cybersecurity events. Improvements (RC.IM): Recovery planning and processes are improved by incorporating lessons learned into future activities. Communications (RC.CO): Restoration activities are coordinated with internal and external parties, such as coordinating centers, Internet Service Providers, owners of attacking systems, victims, other CSIRTs, and vendors. Livello 2 RS.AN-3: Forensics are performed RS.AN-4: Incidents are categorized consistent with response plans RS.MI-1: Incidents are contained RS.MI-2: Incidents are mitigated RS.MI-3: Newly identified vulnerabilities are mitigated or documented as accepted risks Livello 3 RS.IM-1: Response plans incorporate lessons learned RS.IM-2: Response strategies are updated RC.RP-1: Recovery plan is executed during or after an event RC.IM-1: Recovery plans incorporate lessons learned RC.IM-2: Recovery strategies are updated RC.CO-1: Public relations are managed RC.CO-2: Reputation after an event is repaired RC.CO-3: Recovery activities are communicated to internal stakeholders and executive and management teams 225