Sicurezza aziendale e continuità del business
Transcript
Sicurezza aziendale e continuità del business
La sicurezza e la continuità del business Sicurezza aziendale e continuità del business 1 La sicurezza e la continuità del business 2 La sicurezza e la continuità del business Avvertenze Pubblicato nel 2011 Tutti i marchi contenuti in questo libro sono registrati e di proprietà delle relative società. Tutti i diritti sono riservati. Va notato che le informazioni contenute possono cambiare senza preavviso; le informazioni contenute sono reputate essere corrette e affidabili anche se non sono garantite. La descrizione delle tecnologie non implica un suggerimento all’uso dell’una o dell’altra così come il parere espresso su alcuni argomenti da parte di Reportec è puramente personale. La vastità dell’argomento affrontato e la sua rapida evoluzione possono avere portato a inaccuratezze di cui Reportec non si ritiene responsabile, pur avendo espletato i possibili controlli sulla correttezza delle informazioni medesime; il libro non rappresenta una presa di posizione a favore di una o l’altra delle tecnologie, standard o prodotti ivi riportati né garantisce che le architetture, apparati, prodotti hardware e software siano stati personalmente verificati nelle funzionalità espresse; le descrizioni delle architetture, delle piattaforme, dei servizi e dei dati aziendali sono stati elaborati in base alle informazioni fornite dalle aziende, con le quali gli stessi sono stati analizzati e ridiscussi. Copyright Reportec – 2011 www.reportec.it 3 La sicurezza e la continuità del business PREFAZIONE 4 La sicurezza e la continuità del business 5 La sicurezza e la continuità del business INDICE Sommario PREFAZIONE ................................................................................................ 4 1 – Una strategia per la sicurezza e la continuità del business.................... 9 Opportunità e nuovi rischi con il Cloud Computing .............................. 11 Le nuove minacce e la sicurezza fisica ....................................................... 15 2 – La gestione del rischio aziendale e la compliance ............................... 17 Identificare le risorse ............................................................................ 19 Identificare le minacce .......................................................................... 20 Non investire in sicurezza costa ............................................................ 21 I Managed Security Service ................................................................... 22 Le policy di sicurezza ................................................................................. 26 Analisi e progettazione delle policy ...................................................... 28 La compliance alle normative ................................................................... 30 Il testo unico sulla privacy ..................................................................... 32 Il Payment Card Industry Data Security Standard ................................. 36 MiFID ..................................................................................................... 39 La firma digitale ........................................................................................ 40 Una normativa all’avanguardia ............................................................. 41 3 - Data Center: sicurezza e business continuity ...................................... 43 Ambiente, sicurezza e data center ........................................................ 46 Una sicurezza basata sulla business continuity e il disaster recovery ....... 50 La pianificazione alla base della sicurezza operativa ............................ 52 Scegliere la gerarchia di sicurezza e di ripristino: RTO e RPO ............... 55 Clustering e Disaster Recovery .............................................................. 58 L’aspetto economico della sicurezza ......................................................... 59 L’importanza del partner........................................................................... 62 6 La sicurezza e la continuità del business 4 - La sicurezza delle reti ......................................................................... 64 NAC: Network Access Control ................................................................... 66 Le soluzioni per controllare chi vuole entrare in rete ........................... 68 I livelli di protezione del firewall ............................................................... 72 Le tipologie di firewall ........................................................................... 76 La sicurezza dei dati con le VPN ................................................................ 79 Autenticazione ed encryption ................................................................... 83 L’autenticazione con lo standard IEEE 802.1x ...................................... 84 La sicurezza delle connessioni wireless ..................................................... 85 Le reti private virtuali wireless .............................................................. 88 La sicurezza del Wi-Fi ............................................................................ 90 La sicurezza del sistema di fonia ............................................................... 94 Le criticità di una rete convergente ...................................................... 95 Gestire la sicurezza del VoIP in ambienti SIP ........................................ 97 5 - Gestione delle minacce e data protection ......................................... 100 L’identity management ....................................................................... 104 Il primo passo è il Single Sign-On ........................................................ 106 User provisioning e identity management.......................................... 111 Internet e i cyber-criminali ...................................................................... 112 La gestione delle minacce ................................................................... 123 La protezione degli endpoint .............................................................. 124 Un approccio integrato e l’offerta di servizi ....................................... 126 6 - Il binomio sicurezza logica e sicurezza fisica ...................................... 129 L’evoluzione della videosorveglianza ...................................................... 130 Da analogico a digitale ........................................................................ 132 Una gestione semplificata................................................................... 136 Le opportunità del wireless nella videosorveglianza .......................... 138 7 - Uno sguardo alle soluzioni ............................................................... 141 ASTARO ................................................................................................. 142 BT........................................................................................................... 158 CHECKPOINT........................................................................................... 163 CISCO...................................................................................................... 179 EMERSON NETWORK POWER ................................................................. 195 HP NETWORKING.................................................................................... 200 IBM......................................................................................................... 216 7 JUNIPER.................................................................................................. 232 SONICWALL ............................................................................................ 248 TREND MICRO ........................................................................................ 264 La sicurezza e la continuità del business 8 La sicurezza e la continuità del business 1 – Una strategia per la sicurezza e la continuità del business I manager della medio-grande e grande azienda sempre più guardano alla sicurezza informatica con occhi diversi. Innanzitutto, anche se alcune compagnie stanno seriamente studiando polizze specifiche, al momento non esiste un’assicurazione che possa coprire i danni provocati da un attacco informatico. Chiaramente, poi, in alcuni settori come il finance o nelle utility, esiste da tempo una maggiore sensibilità alla sicurezza e anche alla continuità operativa. Per banche e operatori di telecomunicazione, infatti, un’interruzione di un servizio anche di pochi minuti significa perdita di business. In realtà, però, quello che si sta diffondendo è un approccio diverso alla sicurezza. Se, fino a ieri era prevalsa una logica protettiva, oggi si assume un atteggiamento orientato all’investimento. In passato, le imprese, pur consapevoli dell’importanza assunta da sicurezza e disponibilità, l’affrontavano comunque da un punto di vista reattivo e nell’ottica di intervento necessario per proteggere i propri asset. Diversi fattori hanno contribuito a cambiare il punto di vista e a considerare la sicurezza un vantaggio e, in taluni casi, addirittura un motore per il business. Il primo, dal punto di vista cronologico, di questi fattori è la mobility, cioè l’insieme di opportunità derivanti dall’utilizzo di strumenti wireless e dall’accesso alle risorse IT aziendali da remoto e in mobilità. L’utilizzo sempre più diffuso della posta elettronica mobile, in particolare, ha spinto molte azienda ad attivare una serie aggiuntiva di servizi usufruibili via telefonino o smartphone, a partire, ancora una volta, dalle telco e banche. È evidente che attività del genere presentano un prerequisito imprescindibile di sicurezza, per garantire la riservatezza delle transazioni, di qualunque natura esse siano. 9 La sicurezza e la continuità del business Un più recente fenomeno è quello del social software o delle applicazioni di social networking accessibili via Web. Sono sempre di più gli studi che testimoniano come, perlomeno in taluni ambiti funzionali (come il marketing) o settori industriali (anche, ma non solo, quelli dedicati al consumer), l’utilizzo oculato di Facebook, Youtube o altri strumenti analoghi, può essere utile per il business aziendale, non solo in termini di immagine. In ogni caso, esiste una spinta costante all’utilizzo di tali strumenti da parte dei dipendenti che già hanno account personali su tali siti. Si sono, al riguardo, anche verificati casi spiacevoli, con informazioni divulgate ingenuamente attraverso questi canali o, più banalmente, a causa di commenti sui colleghi postati online. In sintesi, l’estensione in rete dell’azienda, il successo di Internet, intranet ed extranet hanno favorito lo sviluppo di soluzioni e strumenti informatici, sia hardware sia software, che rispondono a esigenze di protezione differenti dal passato. Un mondo quindi completamente nuovo che coglie impreparate molte aziende, ma per il quale ci si può e si deve organizzare, anche perché le minacce hanno cambiato forma e obiettivi: il mondo virtuale della Rete sta diventando sempre più simile a quello reale, solo un po’ più “cattivo”, perché più distaccato. Globalizzazione e sicurezza Realizzare un’infrastruttura che sia in grado di garantire servizi a valore aggiunto a clienti magari distribuiti sul globo o, meno ambiziosamente, mettere a disposizione della propria clientela un contact center che soddisfi le esigenze di un dipartimento di customer care, non è comunque cosa da poco. D’altronde, l’evoluzione stessa delle tecnologie sta portando verso l’implementazione di architetture di rete convergenti e all’emergere delle soluzioni di Virtual Private Network (VPN) adatte anche all’utilizzo da parte dell’utente consumer, senza dover intervenire sul client con il quale si collega. Altre tendenze, quali la server e la storage consolidation, che portano al raggruppamento delle risorse in data center e alla riorganizzazione delle strutture aziendali, si sommano a quanto descritto, ponendo seri problemi in termini di management. Aspetti che non devono agire come un freno, ma portare a un ripensamento complessivo della 10 La sicurezza e la continuità del business propria infrastruttura e ad adottare strategie architetturali e di piattaforma che tengano conto di fenomeni che sono in buona parte prevedibili e che, quindi, è opportuno far entrare nell’equazione progettuale. È noto che le problematiche di gestione sono quelle che più di altre innalzano il cosiddetto total cost of ownership, ma risultano costi inevitabili quelli di gestione dell’informazione, elemento sempre più centrale e vero asset aziendale. Un’ottimizzazione in questo campo viene fornita anche dai sistemi di sicurezza. Un approccio globale al problema, infatti, prevede la realizzazione di policy molto precise e piuttosto rigide che consentono di aumentare il controllo su tutto il sistema e di aumentare l’efficienza oltre che la sicurezza delle informazioni. Una qualsiasi azienda con più di una sede si trova a dover affrontare il problema della comunicazione intra-aziendale. Fino a qualche anno fa, l’unica alternativa era quella di rivolgersi a un carrier (solo Telecom Italia fino al 1994) per affittare una linea dedicata. Certamente una scelta sicura, ma anche costosa. Oggi, con Internet, esistono alternative molto più vantaggiose, ma che pongono un problema di sicurezza: ecco un primo esempio di trade-off tra investimento in sicurezza e risparmio, con la possibilità di conseguire un vantaggio competitivo. Soprattutto con le VPN, l’evoluzione delle reti ha sostanzialmente modificato il rapporto tra rete trasmissiva e sicurezza. Inoltre, essa ha contribuito a esaltare i concetti di qualità del servizio, che di per sé è già un elemento di sicurezza, e a modificare l’architettura delle reti con l’affermazione di dispositivi specializzati, o appliance, volti ad accelerare le prestazioni all’interno della rete, e di apparati di comunicazione, i gateway, tesi a racchiudere la rete in una sorta di capsula che ingloba all’interno tutte le complessità architetturali e tecnologiche e semplifica l’interazione con l’esterno. Opportunità e nuovi rischi con il Cloud Computing Il bisogno di infrastrutture IT flessibili e facili da gestire sembra potrà essere soddisfatto dal nuovo paradigma architetturale del Cloud Computing. Un concetto che sta affascinando le imprese, dopo il 11 La sicurezza e la continuità del business successo della virtualizzazione. Quest’ultima, infatti, rappresenta senz’altro la base fondante del Cloud Computing, anche se rimane uno dei componenti tecnologici necessari. . Innanzitutto, è opportuno distinguere almeno tra l’ambito privato (internal cloud, private cloud o cloud on premise, che dir si voglia) e quello pubblico (public cloud). In sintesi, il private cloud significa impostare il proprio IT come un elemento di servizio per il resto dell’azienda, utilizzando la virtualizzazione e altre nuove tecnologie per realizzare un’architettura estremamente flessibile, agile, più efficiente in termini di consumi e sfruttamento delle risorse e, infine, meno costosa da gestire. Il public cloud, invece, significa aver accesso a servizi esterni: in altre parole, la possibilità di acquistare presso provider esterni i servizi IT di cui si ha bisogno, siano essi di tipo applicativo o di tipo elaborativo, di storage e finanche di sicurezza. È intuitivo comprendere che un modello “as a service” porta vantaggi economici anche immediati: basti pensare ai benefici fiscali di un noleggio rispetto a quelli di un possesso. Dal punto di vista operativo, si tratta di un’evoluzione che velocizza il time-to-market, riduce i rischi e la necessità di massicci investimenti infrastrutturali. Dal punto di vista della sicurezza aziendale e continuità del business, si deve registrare la presenza sul mercato di servizi che consentono, per esempio, di esternalizzare la gestione di alcuni aspetti o di interi processi. Non si tratta semplicemente dell’evoluzione dei Managed Security Service, anche se, da un punto di vista concettuale, il risultato per l’azienda è lo stesso. Gli attori (utilizzatori interni, clienti, partner industriali, fornitori) devono poter utilizzare le risorse informative e le infrastrutture IT in modo “trusted” e cioè con l’assoluta certezza che i dati richiesti, siano essi applicativi o di una conferenza su IP, trasmessi in rete, modificati, memorizzati nei silos informativi, possano essere acceduti esclusivamente da persone abilitate ed essere disponibili a loro e alle applicazioni per il loro intero ciclo di vita. Inoltre, dovranno essere certi anche che, quando non saranno più necessari per il business, continueranno a essere disponibili in sistemi di vaulting per altri decenni, per fini storici o per rispondere alle normative di legge o per esigenze forensi. 12 La sicurezza e la continuità del business Sono bisogni cui rispondono servizi di sicurezza fruibili a livello enterprise, sia accedendo ad ambienti Cloud sia mediante la connessione diretta a service provider specializzati, e che, a secondo della dimensione e del portafoglio di servizi, permettono di usufruire in outsourcing o on-demand di servizi inerenti la protezione dei dati o della loro riservatezza, la business continuity e la gestione. La sicurezza del business deriva da un’adeguata combinazione di infrastrutture sicure, security service e un supporto operativo h24 (fonte BT rielaborata) Dal punto di vista della sicurezza, il Cloud introduce alcuni elementi “nuovi”, che fanno essenzialmente riferimento al concetto di “fiducia”: chiaramente sono logiche note da tempo e relative a qualsiasi processo di esternalizzazione. Sia che si tratti della produzione o di elementi del processo produttivo o di vendita, è necessario stabilire un contratto con un fornitore di servizi e sarà compito dell’ufficio legale verificare tutti i presupposti perché un tale passaggio non metta a repentaglio il business aziendale. In altre 13 La sicurezza e la continuità del business parole, sarà fondamentale impostare il rapporto in modo che il rischio aziendale diminuisca e non il contrario. Sul fronte delle opportunità, va considerato che molte delle problematiche di sicurezza sono in parte da affrontare in ogni caso, nel momento in cui si voglia adottare un approccio aperto. In questo scenario si cala l’interesse per servizi di sicurezza erogati tramite Cloud da service provider specializzati nel fornire tanto soluzioni di sicurezza a livello applicativo quanto infrastrutturale, in grado di proteggere i dati sia quando vengono trasmessi o fruiti dalle applicazioni sia quando sono memorizzati in silos informativi o elaborate dai server. “Security as a Service” è, in pratica, un termine che si riferisce alla fruizione di servizi di sicurezza tramite reti private o pubbliche ed erogati da un service provider, su base contrattuale fissa o on-demand, sia che si tratti di un centro servizi aziendale (Enterprise/Internal Cloud) che di un fornitore terzo specializzato che lo eroga tramite un Public Cloud. Quello che è caratteristico di servizi di sicurezza fruibili tramite Cloud è che le applicazioni rese disponibili dai provider sono state in ogni caso pensate per essere fruite tramite Web e comprendono classi di funzioni e applicazioni che rispondono alla necessità di disporre di: • Aggiornamento continuo, come per gli antivirus, le firme dei virus e così via. • Un elevato grado di esperienza che raramente è disponibile in ambito aziendale, ad esempio applicazioni di scansione dei sistemi informative per rilevare minacce, la gestione delle patch, la gestione di soluzioni di business continuity e altri. • Il controllo di applicazioni che usano intensamente risorse e che può risultare più economico se dato in outsourcing. Un esempio è la gestione degli asset, il log di attività ed eventi che richiedono infrastrutture fisiche di supporto, servizi di autenticazione nell’accesso alle applicazioni e altri ancora. • Sicurezza in termini di continuità operativa e di disponibilità dei dati, come centri da cui prelevare in caso di disastro capacità elaborativa, salvare backup o fruire di client virtuali. 14 La sicurezza e la continuità del business Si tratta di servizi che in ambito Cloud, a seconda della complessità specificità settoriale, possono essere fruiti su base contrattuale o richiesti su base on-demand. Le nuove minacce e la sicurezza fisica A parte il Cloud Computing, ulteriori tendenze evolutive che portano significativi cambiamenti per quanto riguarda la sicurezza e la continuità operativa riguardano l’evoluzione delle minacce all’Information Security e la protezione fisica degli asset. Recenti analisi concordano nell’evidenziare che non sono più i virus a preoccupare, ma minacce più sofisticate quali phishing, adware, spyware e botnet. Denominatore comune di questi termini, oggi alla ribalta, è il fatto che si tratta di azioni illegali orchestrate non più dai cosiddetti “script kid”, giovani in cerca di notorietà che si pongono obiettivi ambiziosi per mettere alla prova le proprie capacità, ma organizzazioni criminali vere e proprie, che utilizzano i “ragazzi”, spesso all’oscuro del disegno complessivo, come braccio armato per le loro malefatte. In realtà, esistono veri e propri programmatori esperti o organizzazioni che, per arrotondare, hanno sviluppato tool di hacking e li mettono in vendita.. Ma c’è di più. Chi scrive malware oggi condivide informazioni con i “colleghi”, mentre prima non accadeva o, almeno, non con le stesse modalità. In pratica vengono seguite le stesse fasi di sviluppo del software normale, secondo il modello opensource, con il rilascio successivo di diverse versioni, il debug e via dicendo. Da recenti analisi, inoltre, si evince che sta aumentando notevolmente l’utilizzo del social engineering come base per il phishing. Traducendo: il furto di credenziali elettroniche con le quale perpetrare frodi informatiche avviene sempre più facilmente attraverso attacchi non informatici. In passato, era sempre possibile avvicinare un dipendente per carpire informazioni riservate, con tecniche di spionaggio tradizionale, ma era costoso e possibile solo su obiettivi mirati con interventi diretti. Oggi, grazie ai siti di social networking, è possibile reperire quantità enormi di informazioni private senza neanche incontrare il o i potenziali target. 15 La sicurezza e la continuità del business Le vulnerabilità indotte dal comportamento dei dipendenti rappresentano poi un punto debole per tutte le imprese. Le tecnologie possono aiutare anche in questi casi, ma i risultati migliori si ottengono combinando tecniche per l’Information Security, in particolare per la Web security e l’application security, con quelle di sicurezza fisica, incrociando, per esempio, i dati di identificazione personale con quelli per la registrazione delle presenze a fini amministrativi e con i controlli dei varchi d’ingresso nelle aree degli edifici e uffici. La sicurezza fisica, inoltre, è un aspetto da non trascurare sempre relativamente al controllo del rischio operativo: avere un sistema di business continuity e uno di disaster recovery efficacissimo ed efficientissimo, significa aver previsto che oltre a essere pronti tutti i servizi informatici nel tempo necessario, lo è anche un personale addestrato. 16 La sicurezza e la continuità del business 2 – La gestione del rischio aziendale e la compliance Il “rischio” è il punto di partenza di ogni considerazione sulla sicurezza, ma la complessità delle tecnologie rende il manager incapace di comprendere quali siano le reali minacce e, quindi, di valutare correttamente quali asset aziendali siano in pericolo, nonché quanto sia grande tale pericolo. Questo, però, non deve rimanere l’unico approccio alla sicurezza, altrimenti potrebbe limitare le scelte e le considerazioni all’ambito del threat management, cioè a proteggere l’azienda dalle minacce, esterne o interne, ma non consentirebbe di sfruttare alcuni elementi abilitanti della sicurezza. Le soluzioni di CRM (Customer Relationship Management) o di SCM (Supply Chain Management), per esempio, sono un chiaro esempio di come si possano introdurre in azienda nuove tecnologie per estendere e ottimizzare i processi di business. Queste attività, peraltro, richiedono necessariamente l’impiego di tool di sicurezza al fine di garantire l’autenticità e l’integrità delle transazioni con clienti e partner. Anche qui esiste, in effetti, un rischio: per esempio, che un cliente non riconosca un ordine. Esistono vincoli legali che vanno rispettati, ma il governo italiano da tempo ha emesso leggi che consentono l’uso di strumenti informatici per autenticare le transazioni elettroniche. Solo considerando tutti gli aspetti della sicurezza e, quindi, i rischi e le opportunità che un’azienda deve fronteggiare, è possibile valutare correttamente quali soluzioni sono indispensabili, quali utili e quali probabilmente inutili. In ogni caso, è buona norma di business misurare il più accuratamente possibile il ROI (Return On Investment) della sicurezza, come di ogni altra spesa, assumendo, pertanto, che si tratti di investimenti e non di meri costi. Ogni azienda deve quindi valutare le proprie esigenze in termini di sicurezza, identificando le 17 La sicurezza e la continuità del business aree di interesse e gli ambiti nei quali sarà opportuno adottare opportuni strumenti. È necessario studiare le infrastrutture utilizzate, le applicazioni e i processi aziendali, al fine di comprendere quali investimenti conviene effettuare. L’analisi del rischio relativo alla sicurezza delle informazioni è, come evidenziato, il punto di partenza per impostare un processo di pianificazione volto alla realizzazione di un sistema per l’Information Security Management aziendale. Prima di descrivere le fasi con cui si arriva alla sua valutazione, occorre, però, non confondere il concetto di rischio con quello di pericolo e avere invece ben presente che il rischio è una misura del danno che consegue a un evento pericoloso, in funzione della probabilità che questo si verifichi effettivamente. Solo una corretta valutazione del rischio permette a un’azienda di stabilire quale piano di intervento sia opportuno implementare al suo interno. Tale analisi, inoltre, va ripetuta periodicamente perché l’entità dei danni dovuti a un attacco informatico segue la dinamicità dell’azienda. In altre parole, quest’ultima, nel corso della propria esistenza, evolvendo, modifica le proprie risorse e le esigenze di business (per esempio attraverso fusioni o acquisizioni aziendali) e di conseguenza anche quelle di sicurezza. Le tre origini del rischio 18 La sicurezza e la continuità del business Per quanto concerne le minacce queste sono tipicamente classificate in tre categorie: calamità naturali, minacce intenzionali e minacce involontarie. L’analisi del rischio può invece essere scomposto nelle seguenti fasi: • identificazione o classificazione delle risorse da proteggere; • identificazione delle minacce cui sono soggette le risorse (insieme e singolarmente); • identificazione delle vulnerabilità (o vulnerability assessment, come è più comunemente indicata usando il termine inglese); • valutazione del rischio. Identificare le risorse La prima fase consiste nella realizzazione di un inventario delle risorse informative. Vanno considerate, in questa analisi, sia tutte le informazioni che vengono prodotte in azienda, con qualsivoglia strumento, sia tutti i mezzi dell’infrastruttura IT (dai server alle workstation, dalle reti alla loro banda, fino ai dischi, ai nastri di backup, ai cavi e così via). Per ciascuna risorsa, quindi, deve esserne calcolato il valore. In particolare, per quanto riguarda le informazioni, queste andranno confrontate con gli obiettivi primari della sicurezza, vale a dire confidenzialità, integrità e disponibilità. Ulteriori elementi che è opportuno considerare nella valutazione della specifica risorsa o tipologie di risorse sono i costi per la perdita o il suo danneggiamento, in termini di profitto, tempo perso ed esborso per eventuali riparazioni. Un inventario dovrebbe definire, per ciascuna risorsa, le seguenti classi di dati: • tipo di risorsa (se si tratta di dati, hardware, software o altro); • criticità (se è un sistema generico o mission critical); • proprietà delle informazioni; • posizione fisica o logica della risorsa; • numero di inventario (nel caso sia disponibile); • informazioni relative ai contratti di manutenzione in essere per la risorsa (in termini di livelli di servizio, garanzie, contatti, processo di sostituzione e così via). 19 La sicurezza e la continuità del business Identificare le minacce Le minacce possono essere di diversi tipi, che devono essere considerati in relazione con le caratteristiche dell’azienda. Queste vanno esaminate e valutate sia in termini di locazione geografica, sia (e soprattutto) in riferimento alle attività e al modello di business. Può essere abbastanza logico, per esempio, che una banca sia maggiormente esposta a minacce di tipo volontario di quanto non lo sia una catena di ristoranti. Peraltro, in alcuni casi, possono entrare in gioco considerazioni di carattere socio-politico che influenzano la valutazione della minaccia. L’assessment delle vulnerabilità Le minacce possono essere di tipo imprevedibile, spesso riferite in letteratura anche come minacce “naturali”. In questi casi le tecniche adottabili per la protezione delle informazioni sono quelle tipiche del disaster recovery. La tipologia di minacce che invece sono generalmente indicate come di origine umana, ma riferibili in senso più ampio come “prevedibili”, in quanto vi rientrano anche guasti del software o dell’hardware, possono essere suddivise in “volontarie” (o “dolose”) e “involontarie” (o “non dolose”). Le minacce considerate involontarie sono, generalmente, quelle derivanti da un errore di un dipendente o alla sua ignoranza. Possono essere molto gravi, e causare danni ingenti direttamente (con l’eliminazione o la modifica di dati conseguente a un uso maldestro delle applicazioni) oppure indirettamente (con l’apertura di una falla nel sistema di sicurezza a causa del mancato adempimento delle policy per negligenza o disattenzione). Per ridurre il rischio di queste minacce è opportuno, innanzi tutto, condurre una campagna di sensibilizzazione interna alla sicurezza. È essenziale, in particolare, che i dipendenti siano a conoscenza delle conseguenze del loro comportamento scorretto non solo sul piano pratico ed economico, per quanto concerne l’azienda, ma anche su quello legale, che li potrebbe coinvolgere direttamente. Tra le minacce involontarie rientrano anche i guasti dell’hardware o i difetti del software, la cui probabilità di accadimento può essere calcolata, in funzione delle 20 La sicurezza e la continuità del business caratteristiche di partenza delle risorse (un server fault tolerance fornisce garanzie di affidabilità e disponibilità, come pure uno storage con supporto RAID e via dicendo) e misurata, con un controllo periodico del loro stato. Le minacce volontarie o dolose sono certamente da considerare le più pericolose. Esse sono di natura umana e derivano da un attacco mirato che può provenire tanto dall’esterno quanto dall’interno dell’azienda. Considerando le varie minacce (che peraltro possono essere anche di tipo misto), è possibile determinare quali vulnerabilità possono essere sfruttate. Le vulnerabilità sono, in generale, dovute a errori o trascuratezze di gestione: una configurazione superficiale, un bug del software, una versione non aggiornata dell’antivirus e così via. Valutare il rischio Una volta ultimate le tre fasi precedentemente illustrate, occorre un lavoro di sintesi che porti alla valutazione del rischio. Per questo è possibile operare in diversi modi, con scuole metodologiche diverse. I risultati possono essere classificati con un maggior o minor livello di dettaglio e la valutazione può essere sia di tipo qualitativo sia quantitativo, includendo, per esempio, valori numerici del rischio espressi in percentuali del fatturato. Una linea guida che sta assumendo un ruolo di standard nel settore è rappresentata, ad esempio, dalla normativa ISO17799/BS7799. Non investire in sicurezza costa Dato per scontato che la sicurezza assoluta non esiste, per quanto si investa, una corretta strategia per l’enterprise security prevede un processo ciclico che alterna: vulnerability assessment, analisi del rischio, definizione di un piano di contenimento del rischio, realizzazione di tale piano. Le tecnologie che andranno implementate sono di volta in volta dipendenti dalle condizioni al contorno, oltre che dalle esigenze delle specifiche imprese. Il problema è tipicamente fare i conti con il budget a disposizione, che troppo spesso risulta insufficiente a realizzare il sistema di sicurezza idealmente definito dal piano. Del resto, i costi per quest’ultimo 21 La sicurezza e la continuità del business continuano a lievitare, mentre i budget IT si contraggono drasticamente ed è sempre più difficile giustificare spese senza presentare un valore previsto di ROI (Return on Investiment). Ma se è già difficile calcolare il ritorno di un investimento infrastrutturale, qual è tipicamente quello in Information e Communication Technology, come è possibile quantificare il valore di una soluzione di sicurezza, quando, se tutto va bene, non succede niente? Come si accennava precedentemente, il valore (e il budget da attribuire) di un sistema di sicurezza deve essere correlato al livello di rischio accettabile per un’impresa e per valutarlo correttamente, correlandolo alle dinamiche e logiche di business, è necessario coinvolgere il management aziendale a vari livelli. È importante osservare che in molti casi il prezzo di acquisto di un prodotto è solo il primo elemento di spesa: in ambito sicurezza, non vanno trascurati i costi dei servizi di aggiornamento, senza i quali le soluzioni diventano presto (praticamente immediatamente) obsolete e inutili. Un piano della sicurezza ben dettagliato è utile per confrontarlo con un modello del rischio. Mettendo in una sorta di matrice la spesa necessaria per “tappare una potenziale falla” e il rischio economico che la “falla” lasciata aperta potrebbe causare (eventualmente ipotizzando più eventi correlati a tale vulnerabilità trascurata), si ottiene uno strumento di immediato raffronto. All’atto pratico, una soluzione di sicurezza deve raggiungere almeno uno dei seguenti obiettivi per poter dimostrare di avere un ROI sostenibile: ridurre i costi correnti, ridurre i costi futuri, ridurre il rischio finanziario, aumentare la produttività, aumentare il fatturato. I Managed Security Service In uno scenario di mercato caratterizzato da modelli di business basati sulla condivisione di informazioni, sulla collaborazione tra gruppi di lavoro, e sull’utilizzo dell’e-commerce, la sicurezza diventa un elemento integrante del business, da organizzare e gestire nel modo migliore. Una gestione interna della sicurezza si deve confrontare, tuttavia, con una serie di ostacoli che possono indurre le aziende a considerare la possibilità di affidare questi compiti a fornitori esterni. 22 La sicurezza e la continuità del business Le difficoltà che si trovano ad affrontare le aziende per una gestione efficace delle sicurezza IT riguardano aspetti quali la mancanza di personale qualificato, di tempo da dedicare alle attività che non rientrano nel core business o la presenza di un’infrastruttura non adeguata a garantire la sicurezza e l’integrità dei dati. Altri aspetti da considerare riguardano la mancanza di una specifica cultura aziendale in grado di applicare in modo effettivo ed efficace le procedure di sicurezza approntate, magari esemplarmente messe a punto. Queste difficoltà sono esaltate dal fatto che garantire la sicurezza delle risorse informatiche rappresenta un compito tecnicamente sempre più difficile e in continua e rapida evoluzione. Tali aspetti inducono le aziende a considerare la possibilità di affidare in outsourcing la gestione dei servizi di sicurezza a quelli che vengono definiti MSSP, acronimo per Managed Security Services Provider. La gestione dei servizi di sicurezza riguarda le operazioni di gestione e controllo dei sistemi di sicurezza in outsourcing e rappresenta attualmente uno dei segmenti in più rapida crescita tra i servizi di sicurezza IT. Alle ragioni tipiche che inducono le aziende a scegliere l’outsourcing, rappresentate dalla possibilità di concentrare le risorse verso gli ambiti “core” aziendali, se ne aggiungono altre più specifiche dell’ambito della Security. Sebbene, infatti, la sicurezza possa non rientrare nelle competenze “core” di un’azienda, certamente rientra nei requisiti “core”. Il concetto stesso di sicurezza e protezione dei dati, infatti, si è notevolmente evoluto negli ultimi anni, superando l’idea di protezione dei dati come qualcosa da tenere al di fuori della portata di tutti e custodita segretamente, rispetto a quella di un accesso regolamentato e strutturato degli stessi, basato sulle qualifiche e sui compiti aziendali. Le società non sono solo guidate dal desiderio di protezione dei dati e degli asset, ma anche dall’esigenza di assicurare la produttività degli impiegati. Diventa più preponderante l’utilizzo di forza lavoro mobile, di telecomunicazione e di pratiche di remote computing, che creano nuove esigenze di sicurezza. Nel contempo, mano a mano che si sviluppa l’accesso remoto all’azienda, cresce l’esigenza di protezione nella trasmissione delle informazioni 23 tra punti distribuiti La sicurezza e la continuità del business geograficamente. Quest’approccio richiede, pertanto, una metodologia non banale, basata su procedure amministrative. I problemi che una società si trova ad affrontare nella gestione in house della sicurezza riguardano la necessità di tenere costantemente sotto controllo ogni piccola variazione nello stato della rete, disporre di risorse limitate e di personale con competenze non adeguate, per esempio, a distinguere tra minacce reali e attacchi non intenzionali. Gli esperti della sicurezza rappresentano, anche per queste ragioni, figure professionali molto richieste e, pertanto, costose, difficili da trovare e da trattenere all’interno dell’azienda. La questione del costo rappresenta, come prevedibile, uno degli aspetti critici, anche in considerazione del fatto che è difficile una stima precisa del TCO richiesto per la gestione in house di una soluzione di sicurezza, possibile solo dopo anni. I costi interessati vanno da quelli degli apparati quali server e dispositivi periferici (per esempio firewall hardware), ma anche software applicativo e database. In relazione al software, vanno considerate le spese delle licenze e la manutenzione, ragionevolmente stimabile nel 20% del costo ogni anno. Va poi considerato il costo del personale, compreso quello per il suo addestramento e aggiornamento e l’impossibilità, per la maggior parte delle aziende, di realizzare facility dedicate alla garanzia della sicurezza. I vantaggi dei servizi di sicurezza gestiti In considerazione di quanto illustrato è possibile riassumere brevemente i possibili vantaggi associati alla gestione della sicurezza attraverso il ricorso a MSSP: • Delegare i costi necessari per organizzare, gestire e mantenere un programma efficiente e aggiornato di sicurezza. • La garanzia di una protezione assicurata 24 ore su 24, sette giorni su sette, che si dimostra particolarmente importante per i business con requisiti “always on”. • La disponibilità delle più recenti tecniche di sicurezza. • La possibilità di appoggiarsi a una società la cui mission/core business è dedicata alla sicurezza con un team di esperti che 24 La sicurezza e la continuità del business hanno grande esperienza e familiarità su come affrontare i possibili attacchi. • La possibilità di sfruttare in modo pieno e corretto le risorse di sicurezza hardware e software presenti in azienda. • Poter fare affidamento su Service Level Agreement che forniscono obblighi contrattuali sulle modalità e i tempi di risposta agli attacchi. • Trasformare i costi associati al personale in costi variabili e prevedere e gestire con maggiore sicurezza il budget per la sicurezza, grazie a costi distribuiti su base periodica. I managed security service non possono essere considerati alla stessa stregua dei tradizionali servizi di outsourcing. È facile immaginare perché, data la sensibilità delle aziende nei confronti della problematica sicurezza. Un managed security service provider, in altre parole, diventa un partner che, a tutti gli effetti, può essere assimilato a una divisione stessa dell’impresa. Questa, di fatto, non demanderebbe mai tutta la gestione della sicurezza, mantenendone quantomeno il controllo a livello centrale. Tipicamente, inoltre, a questo si aggiunge la definizione delle policy e, in generale, delle procedure di sicurezza e delle strategia a essa correlate. Mentre tutto quanto attiene alla gestione ordinaria e operativa (in pratica, gli aspetti più ordinariamente riferiti alla manutenzione) può essere esternalizzato e affidato a un provider esterno. Oltre a facilitare il reperimento di competenze, questo approccio permette anche di appoggiarsi a SOC (Security Operations Center) esterni, con conseguenti miglioramenti per la sicurezza. Da un lato, infatti, soprattutto le medie imprese, potranno utilizzare strumenti avanzati che, in passato, erano appannaggio esclusivo delle grandi imprese, dotate di grandi budget. In secondo luogo, come per tutti i casi di remotizzazione, si accresce l’affidabilità del sistema, potendo anche attuare politiche di disaster recovery. Il successo degli MSS è anche favorito dalla disponibilità di appliance all in one, installabili presso l’utente finale e gestibili da remoto. Talune appliance, inoltre, possono operare direttamente da remoto per fornire protezione perimetrale e interna. 25 La sicurezza e la continuità del business Un impulso al ricorso a servizi MSS arriva anche dalle leggi recentemente entrate in vigore, che obbligano l’impresa ad attuare misure di sicurezza. Con scelte di questo tipo si cerca di delegare almeno in parte la responsabilità. La valutazione di un’eventuale MSSP deve tenere conto di diversi aspetti che spaziano dall’esperienza alle modalità di implementazione, la disponibilità di SOC (Security Operation Center) dedicati e le tecnologie usate. Ma data la sensibilità del compito che viene gestito in outsourcing, andrebbero fatte valutazioni più ampie possibile, che tengano in considerazione anche aspetti quali i modi con cui viene assicurata la confidenzialità o il modo in cui il personale dell’MSSP viene retribuito. Le policy di sicurezza L’analisi del rischio è il processo che apre la strada a quello di una pianificazione più attiva delle misure di sicurezza, che ne preveda l’organizzazione attraverso controlli continui e lo sviluppo dei criteri (o policy) di protezione da adottare. Anche la soluzione di sicurezza tecnologicamente più avanzata è, infatti, destinata a fallire se non è coadiuvata da regole implementate sulla base della specifica realtà e, quindi, tali da soddisfare gli obiettivi aziendali e i requisiti di applicabilità e idoneità. Stabilire una politica di sicurezza significa prevedere tutte le possibili violazioni alla sicurezza e il modo per proteggersi da esse, formalizzandole anche in un documento. Rendere disponibile un riferimento scritto e unificato all’interno di un impresa è un modo per testimoniare il consenso relativo alla sicurezza interno all’azienda e per fornire una guida per la realizzazione delle pratiche corrette, evidenziando, nel contempo, le specifiche responsabilità per ogni compito di protezione. Le policy di sicurezza riguardano questioni quali l’impostazione del livello di sicurezza relativo ai singoli apparati e alle soluzioni informatiche, la gestione del rischio di perdite finanziarie associato a intrusioni e le modalità comportamentali degli impiegati. Esse richiedono un aggiornamento continuo, per la continua evoluzione 26 La sicurezza e la continuità del business tecnologica e l’affacciarsi di nuove vulnerabilità e devono trarre esperienza dagli avvenimenti occorsi. Questo perché, di fatto, ogni soluzione di sicurezza è un processo in continua evoluzione costituito da esperienze, competenze e regole che coinvolgono persone, processi e tecnologie. Come ogni processo, quindi, una soluzione di sicurezza richiede non solo di essere progettata e implementata, ma anche di essere gestita e continuamente analizzata per verificare le costante rispondenza agli obiettivi di business aziendali e alle esigenze del mercato. L’introduzione di policy all’interno dell’azienda va, quindi, considerata un’attività ciclica, che parte da una fase di assessment, in base alla quale progettare e costruire le policy. S egue poi una fase di implementazione e distribuzione, che richiede successivamente un’attività di gestione e supporto. La fase di gestione deve prevedere un continuo aggiornamento, basato sulla verifica di ogni nuova attività o risorsa che possa modificare l’assessment iniziale, su cui sono state realizzate le policy stesse. Per esempio, l’introduzione all’interno del sistema informativo di una sottorete wireless, deve indurre a rivedere il ciclo di sicurezza legato alle policy. Il ciclo di sicurezza legato alle policy 27 La sicurezza e la continuità del business Analisi e progettazione delle policy Le istruzioni specificate dalle policy possono essere di tipo generale, oppure suddivise per tipologia di risorse aziendali o per aree di responsabilità. In ogni caso la progettazione di una policy deve recepire le indicazioni provenienti dall’analisi del rischio in merito alle risorse da considerare importanti e deve definire opportunamente gli step da seguire per la loro protezione. La messa a punto di una policy aziendale deve essere fatta in modo da favorire il suo effettivo utilizzo, evitando di trasformarsi in un documento formale per clienti o revisori, ma di nessuna utilità pratica. Spesso questo aspetto è legato alla presenza, in molte realtà aziendali, di criteri poco significativi, che restano troppo generici e non danno indicazioni precise sulle azioni da intraprendere. Per superare questi inconvenienti un criterio aziendale dovrebbe rispondere a requisiti di flessibilità, chiarezza negli obiettivi, applicabilità. Inoltre i criteri per la sicurezza dovrebbero essere introdotti in modo da evidenziare il sostegno incondizionato da parte della direzione dell'azienda e coinvolgere, per quanto possibile, i diretti interessati. Implementare le policy Se non correttamente organizzato, paradossalmente, un criterio di sicurezza può determinare una riduzione del livello di protezione. Non è infrequente che policy troppo restrittive finiscano con l’essere ignorate perché ostacolano l’attività lavorativa. Per esempio, l’utilizzo di password troppo lunghe o complesse e, pertanto, difficili da ricordare, può indurre gli impiegati a scriverle e lasciarle più facilmente in balia di possibili malintenzionati. Per essere efficace un criterio di sicurezza deve essere diffuso e applicato; ci si deve assicurare che tutti gli impiegati conoscano le relative policy di sicurezza e che ne possano disporre prontamente e in qualunque momento e va garantita la pronta comunicazione di ogni loro eventuale cambiamento. Per la diffusione efficace di ogni criterio è opportuno mettere a punto un insieme di regole scritte, che definiscono le responsabilità 28 La sicurezza e la continuità del business relativamente a chi progetta le policy, chi le garantisce, le implementa e la fa rispettare e le relative conseguenze a seguito di eventuali violazioni. Infine, è buona pratica coinvolgere gli utenti influenzati dalle policy di sicurezza nel loro processo di sviluppo o almeno di revisione. Le aree interessate Per ogni area del sistema informativo o dei processi aziendali è possibile definire dei criteri specifici. Nel seguito sono descritte alcune tipologie di criteri di protezione: • Criteri per le password - Vanno configurati in base alle specifiche esigenze aziendali prevedendo in modo opportuno la loro sostituzione periodica. Per le password è possibile, per esempio, richiedere una lunghezza minima o assegnargli un tempo minimo e massimo di validità. L'amministratore deve farsi carico della sicurezza legata alla generazione e assegnazione della password iniziale di ogni utente. L’utente, a sua volta, deve assumersi la responsabilità di mantenere la riservatezza della password assegnatagli e di segnalare ogni eventuale modifica del proprio stato di utente. • Criteri per la posta elettronica - Data l'importanza dell’e-mail per la normale conduzione del lavoro, è essenziale predisporre a riguardo opportuni criteri. Questi devono essere rivolti a un’adeguata e sicura configurazione dei programmi di posta elettronica, ma anche a un corretto utilizzo di questa risorsa, per ridurre eventuali rischi di carattere intenzionale o involontario e per assicurare la corretta gestione delle registrazioni ufficiali. Alcuni esempi che si possono evidenziare riguardano la manutenzione periodica delle proprie cartelle di posta e la gestione e archiviazione dei messaggi, che altrimenti possono crescere fino ad arrivare a bloccare il sistema di posta. O ancora un uso a scopo privato della posta, che espone l’azienda a rischi non necessari. • Criteri per Internet - Dal lato browser è possibile configurare varie impostazioni a garanzia della sicurezza (esecuzione script, 29 La sicurezza e la continuità del business cookies, accettazione di aggiornamenti non certificati e così via). I server Web prevedono diverse aree da proteggere, che vanno dal sistema operativo sottostante, al software del server Web, agli script del server. Opportune regole vanno predisposte a livello firewall, per una configurazione appropriata dei router del protocollo IP, così da evitare attacchi DoS. • Criteri di protezione IP - I criteri di protezione relativi all’IP possono riguardare gli indirizzi IP da esaminare, l’impostazione di opportuni filtri per analizzare il traffico o le modalità di cifratura dei pacchetti. • Criteri per il backup e il ripristino - Il backup va organizzato pianificando interventi a intervalli regolari, stabilendo la priorità dei dati da duplicare, il tipo di backup (normale, differenziale e così via) e di supporto da utilizzare e prevedendo l’archiviazione, sia all’interno dell’edificio aziendale sia fuori sede. Vanno considerate policy per la realizzazione di procedure di ripristino veloci, in grado di riportare i sistemi e/o le applicazioni alla loro piena funzionalità. Altri criteri possono riguardare l’accounting e le condizioni per un eventuale suo blocco, le regole di configurazione degli apparati hardware e quelle comportamentali da parte degli utenti. La compliance alle normative A fronte di una crescita senza sosta dei dati prodotti e trattati, la capacità delle organizzazioni di fruire delle informazioni a loro disposizione rappresenta uno dei principali requisiti per il raggiungimento degli obiettivi di business. L’esigenza di protezione di questo vero e proprio asset strategico ha alimentato lo sviluppo di tecnologie e standard e tra i driver che, negli ultimi anni, stanno maggiormente apportando un contributo in tal senso vi è la crescente esigenza di “compliance” ovvero di predisporre processi e modalità per la gestione delle informazioni durante il loro ciclo di vita, che siano allineati con i requisiti di riservatezza, tracciabilità e protezione richiesti non solo delle normative, ma anche da regolamenti e norme 30 La sicurezza e la continuità del business interne aziendali. Le aziende stanno, infatti, cominciando a considerare l’utilizzo di regole dedicate alla sicurezza come un’opportunità per alimentare la cultura interna in materia di protezione e impostare processi strutturati intrinsecamente sicuri. Restringendo l’attenzione alle esigenze di compliance alle normative, si può osservare come gli aspetti del trattamento dei dati di valore critico si presentino molteplici e diversificati. Nell’ambito finanziario esistono normative indirizzate a garantire la tutela delle informazioni privilegiate, la trasparenza e a fare in modo che non si creino abusi nel mercato. La normativa comunitaria in materia di Market Abuse ha determinato in Italia la nuova disciplina in materia di “internal dealing” (entrata in vigore il primo aprile 2006) che regola la trasparenza sulle operazioni aventi come oggetto azioni di società quotate e strumenti finanziari a esse collegati compiute da esponenti aziendali delle società medesime e da persone a questi ultimi strettamente legate. Sempre in ambito finanziario, gli accordi di Basilea II hanno profondamente modificato i meccanismi con cui gli organismi finanziari effettuano il controllo e la valutazione dei rischi derivanti dai crediti concessi, imponendo alle banche di modificare radicalmente i propri processi per conformarsi ai nuovi requisiti. Non sono trascurati neppure i contenuti trasmessi tramite telefono e Internet, a cui sono riconducibili il Decreto Gentiloni (Legge per il filtraggio di Internet) e il Decreto Pisanu, che rientra nelle misure per contrastare il terrorismo internazionale. Altre esigenze di compliance indirizzate a garantire l’integrità dei dati derivano dalle “Nuove norme a tutela del diritto d’ autore” (Legge 18 Agosto 2000 N. 248) e dal Decreto Urbani sulle applicazioni Peer to Peer, che affrontano la spinosa questione di regolamentare questa difficile materia in un contesto, come quello di Internet, apparentemente incontrollabile. Alla garanzia di integrità dei dati si indirizza anche il Testo Unico sulla Privacy (D.Lgs 196/2003) che ha introdotto importanti novità tra cui l’obbligo di creare una catena di comando formalizzata, dedicata alla garanzia della privacy, in cui vengono definiti ruoli specifici (Titolare del trattamento, Responsabile, 31 Incaricato) a cui La sicurezza e la continuità del business corrispondono compiti e responsabilità altrettanto definiti. La norma prevede che il rappresentante legale della società diventa un soggetto perseguibile anche penalmente. Il testo unico sulla privacy Il 1 gennaio 2004 ha segnato, per l’Italia, un tappa di chiarificazione, con l’entrata in vigore del nuovo testo unico sulla privacy (Codice in materia di protezione dei dati personali, varato il 30 giugno 2003), che riunisce tutti i provvedimenti normativi finora ratificati connessi alla protezione dei dati personali. Il nuovo testo unico introduce (nell’allegato B) un Disciplinare Tecnico in materia di misure minime di sicurezza, che sostituisce il regolamento precedente (DPR 318/99). Una prima distinzione fondamentale rispetto al regolamento precedente riguarda i trattamenti con e senza l’ausilio di strumenti elettronici, che elimina il concetto di elaboratore connesso ad altri elaboratori attraverso reti di telecomunicazioni disponibili al pubblico, che aveva generato interpretazioni discordanti. In particolare, nell’articolo 34 (relativo al Trattamento con strumenti elettronici), vengono definite, nei modi previsti dal disciplinare tecnico, le seguenti misure minime di sicurezza: • autenticazione informatica; • adozione di procedure di gestione delle credenziali di autenticazione; • utilizzazione di un sistema di autorizzazione; • aggiornamento periodico dell’individuazione dell’ambito del trattamento consentito ai singoli incaricati e addetti alla gestione o alla manutenzione degli strumenti elettronici; • protezione degli strumenti elettronici e dei dati rispetto a trattamenti illeciti di dati, ad accessi non consentiti e a determinati programmi informatici; • adozione di procedure per la custodia di copie di sicurezza, il • tenuta di un aggiornato documento programmatico sulla ripristino della disponibilità dei dati e dei sistemi; sicurezza; 32 La sicurezza e la continuità del business • adozione di tecniche di cifratura o di codici identificativi per determinati trattamenti di dati idonei a rivelare lo stato di salute o la vita sessuale effettuati da organismi sanitari. Una questione fondamentale riguarda l’attribuzione di responsabilità per la sicurezza nell’accesso a dati e applicazioni. Va evidenziato che a differenza del DPR 318/99, nell’allegato B del testo unico non si parla più di “amministratore di sistema” ma ci si riferisce al “preposto alla custodia delle parole chiave” previsto nel caso in cui l’accesso sia sottoposto a procedure di autenticazione. Di fatto, poiché la questione ha risvolti sia penali sia amministrativi, il responsabile diventa il rappresentante legale della società. Nel nuovo codice continua a restare l’obbligo per il titolare di adottare sistemi antivirus, mentre viene introdotto anche il tema del disaster recovery poiché il disciplinare, obbliga ad “adottare idonee misure per garantire il ripristino dell’accesso ai dati in caso di danneggiamento degli stessi o degli strumento elettronici, in tempi certi compatibili con i diritti degli interessati e non superiori a sette giorni”. È nuovo anche l’obbligo di prevedere regole per il salvataggio dei dati con cadenza almeno settimanale. Un processo per la privacy Gli obblighi dell’azienda in merito alla privacy non si esauriscono con l’applicazione della normativa ordinaria poiché devono anche tenere in considerazione una serie di provvedimenti specifici del Garante della Privacy differenzianti in base alla tipologia di mercato. Questo richiede all’azienda una capacità di rispondere in modo rapido e puntuale e, implicitamente, le impone di disporre di un’infrastruttura tecnologica continuamente aggiornata e flessibile che consenta di mantenerla ”privacy compliant” nel tempo. Alcuni dei recenti provvedimenti intrapresi da Garante della privacy evidenziano ulteriormente requisiti che non possono essere affrontati senza prevedere un’infrastruttura tecnologica adeguata. La richiesta che il trattamento dei dati sia consentito esclusivamente a uno specifico incaricato obbliga a mettere a punto un processo autorizzativo per l’assegnazione dei privilegi che preveda un 33 La sicurezza e la continuità del business controllo sicuro dell’identità e dei privilegi di chi accede al dato. Il fatto poi che, anche a fronte di procedure automatizzate, la responsabilità per il trattamento dei dati resti assegnata individualmente significa predisporre meccanismi per determinare in modo dichiarato e certo l’ownership non solo dei dati, ma anche dei sistemi che li elaborano. A ciò si affianca un’esigenza di identificazione certa degli incaricati di ciascun trattamento quando questi accedono ai sistemi elaborativi e ai dati. Un corollario di ciò è quello di prevedere un processo per l’assegnazione dei privilegi minimi per gli operatori che hanno l’esigenza di operare sui soli dati, per le sole operazioni consentite dal proprio ruolo aziendale e necessarie per lo svolgimento delle proprie mansioni. Infine, il requisito di poter attribuire in modo inequivocabile le azioni compiute su un dato critico al suo effettivo autore obbliga a prevedere un sistema completo di tracciamento, non ripudiabile, che intervenga a ogni livello di operazione compiuta su un dato critico, compresa la sola visualizzazione. Le tipologie di dati rilevanti dal punto di vista della privacy, suddivise per tipologia di settore (Fonte: VP Tech) 34 La sicurezza e la continuità del business Il controllo sull’operato degli Amministratori di sistema Il Garante della Privacy ha precisato che gli "amministratori di sistema" sono figure essenziali per la sicurezza delle banche dati e la corretta gestione delle reti telematiche. Sono, infatti, esperti chiamati a svolgere delicate funzioni che comportano la concreta capacità di accedere a tutti i dati che transitano sulle reti aziendali e istituzionali. a essi viene affidato spesso anche il compito di vigilare sul corretto utilizzo dei sistemi informatici di un'azienda o di una Pubblica Amministrazione. Le ispezioni effettuate negli ultimi anni dall'Autorità hanno permesso di mettere in luce in diversi casi una scarsa consapevolezza da parte di organizzazioni grandi e piccole del ruolo svolto dagli amministratori di sistema. I gravi casi verificatisi negli ultimi anni hanno evidenziato una preoccupante sottovalutazione dei rischi che possono derivare quando l'attività di questi esperti sia svolta senza il necessario controllo. Per questo motivo il Garante ha deciso di richiamare l'attenzione di enti, amministrazioni, società private sulla figura professionale dell'amministratore di sistema prescrivendo l'adozione di specifiche misure tecniche e organizzative che agevolino la verifica sulla sua attività da parte di chi ha la titolarità delle banche dati e dei sistemi informatici. Secondo il Garante, con la definizione di «amministratore di sistema» si individuano generalmente, in ambito informatico, figure professionali finalizzate alla gestione e alla manutenzione di un impianto di elaborazione o di sue componenti. Ai fini del provvedimento vengono però considerate tali anche altre figure equiparabili dal punto di vista dei rischi relativi alla protezione dei dati, quali gli amministratori di basi di dati, gli amministratori di reti e di apparati di sicurezza e gli amministratori di sistemi software complessi. In particolare, attività tecniche quali per esempio il salvataggio dei dati (backup/recovery), l'organizzazione dei flussi di rete, la gestione dei supporti di memorizzazione e la manutenzione hardware vanno considerata a tutti gli effetti alla stregua di un trattamento di dati personali, anche quando l'amministratore non consulti «in chiaro» le informazioni medesime. 35 La sicurezza e la continuità del business Rispetto al campo di applicazione e casi di esclusione va ricordato che: “le prescrizioni del presente provvedimento si applicano a tutti i titolari dei trattamenti di dati personali effettuati con strumenti elettronici, esclusi, allo stato, quelli effettuati in ambito pubblico e privato a fini amministrativo-contabili che, ponendo minori rischi per gli interessati, sono stati oggetto delle recenti misure di semplificazione (art. 29 della legge 133/2008, di conversione del decreto-legge 112/2008, laddove si riferisce ai soggetti che trattano dati personali unicamente per correnti finalità amministrative e contabili, in particolare presso liberi professionisti, artigiani e piccole e medie imprese)” L'operato degli amministratori di sistema deve essere oggetto, con cadenza almeno annuale, di un'attività di verifica da parte dei titolari del trattamento, in modo da controllare la sua rispondenza alle misure organizzative, tecniche e di sicurezza riguardanti i trattamenti dei dati personali previste dalle norme vigenti. Inoltre devono essere adottati sistemi idonei alla registrazione degli accessi logici ai sistemi di elaborazione e agli archivi elettronici da parte degli amministratori di sistema. Ciascuna azienda o soggetto pubblico dovrà inserire nel documento programmatico della sicurezza o in un documento interno (disponibile in caso di accertamenti da parte del Garante) gli estremi identificativi degli amministratori di sistema e l'elenco delle funzioni loro attribuite. Dovranno infine essere valutate con attenzione esperienza, capacità, e affidabilità della persona chiamata a ricoprire il ruolo di amministratore di sistema, che deve essere in grado di garantire il pieno rispetto della normativa in materia di protezione dei dati personali, compreso il profilo della sicurezza. Il Payment Card Industry Data Security Standard Il sistema di pagamento di riferimento è ancora legato al denaro contante e agli assegni che producono costi elevati per le banche. Per far crescere la diffusione e l’adozione delle carte magnetiche o intelligenti, come sistema alternativo, le soluzioni che ne utilizzano e conservano i dati sensibili da esse contenuti devono però essere assolutamente sicure e protette contro tentativi di effrazione o lettura 36 La sicurezza e la continuità del business di tali dati. L’utilizzo fraudolento apporta danni economici diretti consistenti sia al proprietario sia all’ente emittente e ancora più consistenti risultano essere i danni per l’immagine aziendale dell’istituto finanziario coinvolto. Il rischio primario, infatti, è la perdita di fiducia e confidenza con il cliente, che può essere portarlo a rivolgersi ad altri enti finanziari. Con il rischio di emulazione da parte anche di altri proprietari del medesimo tipo di card. Gli attacchi alla sicurezza nell’utilizzo delle carte credito si stanno poi moltiplicando ed espandendo, per esempio anche a seguito della progressiva diffusione di negozi online e della familiarità con cui si utilizza Internet. Il settore finanziario ha così finito, nel corso degli anni, con l’emettere continuamente normative regolamentari sempre più severe per quanto concerne le modalità di realizzazione e di protezione dei sistemi di pagamento e delle card che vengono utilizzate nell’ambito dei diversi circuiti di pagamento. Tra questi, lo standard Payment Card Industry (PCI) Data Security Standard (DSS) ha un ruolo molto importante e ha visto l’adesione di tutte le principali società di carte di credito. Contrariamente ad altri casi, la richiesta di conformità alle norme stabilite dallo standard è particolarmente severa ed è del tipo tutto o niente. Non è prevista un’adesione parziale o il rispetto esclusivamente di alcune sue parti. Le entità e le persone interessate a soluzioni compliant con lo standard PCI DSS sono raggruppabili in due diversi insiemi: • Industrie: società che svolgono attività commerciale, mercantile o service provider che immagazzinano, elaborano o trasmettono in qualsiasi modo i dati delle persone che possiedono una regolare carta di pagamento e utilizzano un software che supporta il commercio elettronico. È un gruppo molto ampio che comprende, solo per citare alcuni esempi, società del retail, dell’hospitality (ristoranti, hotel e così via), dei trasporti (linee aeree, car rental, ferrovie), dei servizi finanziari (banche, gestori carte di credito, broker, assicurazioni), Ospedali, utility pubbliche. • Responsabili: spaziano dai CIO agli IT manager sino ai manager responsabili della compliance. 37 La sicurezza e la continuità del business Le entità coinvolte nel processo di autenticazione di una transazione effettuata mediante carta di credito/debito A entrambe le categorie lo standard PCI mette a disposizione un insieme di regole che aiutano adeguatamente nell’implementare una politica per la sicurezza dei dati inerenti i proprietari di carte di pagamento. Il perché di uno standard aggiuntivo a quanto stabilito già dall’ISO deriva dalle esigenze specifiche del settore del finance e del pagamento tramite carte di credito/debito, che mette in gioco enormi aspetti economici e rischi altrettanto elevati per il sistema economico stesso e per le entità coinvolte. Inoltre, per un ente pubblico e privato poteva verificarsi il caso di essere aderenti a quanto stabilito dall’ISO ma non esserlo poi ai fini della trafugabilità di dati sensibili relativi ai sistemi di pagamento elettronico ed essere quindi soggetti a risvolti penali e civili anche molto onerosi. Un esempio lo si ha se si considera un comune apparato POS, che, in quanto tale, è soggetto a guasti. In questi casi, la procedura normale prevede l’intervento di un tecnico, che accede all’apparato, esegue il tracking delle operazioni, verifica il software, può entrare nella sua memoria e nei suoi registri, accedere a informazioni riservate e da qui in poi il rischio è evidente. 38 La sicurezza e la continuità del business A questo e ad altri aspetti si propone proprio di porre rimedio lo standard PCI DSS, stabilendo requisiti che in parte incorporano e in parte estendono quanto previsto dall’ISO in modo che meglio risponda alle esigenze specifiche di chi gestisce, tratta, archivia o trasmette in qualsiasi maniera i dati relativi ai proprietari di carte di MiFID Il 21 aprile 2004 il parlamento europeo ha determinato l’adozione della Markets in Financial Instruments Directive (in sigla Mi- FID), una direttiva che rappresenta un importante momento di discontinuità nella legislazione che regola il mercato finanziario europeo. Questa direttiva, dopo una serie di rinvii, è entrata in vigore a partire da novembre 2007 e richiede l’adeguamento obbligatorio da parte di tutte le realtà che operano nel mercato finanziario. Le nuove regole introdotte con il MiFID sono indirizzate a regolare gli scambi in ambito finanziario con l’obiettivo di aumentare la trasparenza dei mercati, proteggere gli investitori e creare una maggiore armonizzazione delle legislazioni europee e dell’integrazione dei capitali. In sintesi, questa direttiva introduce cinque temi fondamentali. Innanzitutto stabilisce una serie di standard di alto livello relativi alla parte organizzativa e alla conduzione del business, applicabili a tutte le società di investimento. Questi standard riguardano temi quali il conflitto di interessi, le modalità di esecuzione, la classificazione degli investitori e il loro livello di affidabilità. Inoltre, sancisce una serie di regole indirizzate al mercato regolamentato degli scambi azionari e ad altri settori di negoziazione non regolamentati. Imposta, poi, una serie di regole per garantire la trasparenza dei prezzi prima e dopo la contrattazione. Il MiFID espande anche lo spettro dei servizi di investimento che richiedono un’autorizzazione e il range di prodotti che ricadono all’interno di un sistema di regole definendo, tra l’altro, criteri specifici da applicare alla consulenza sull’investimento e alle attività relative agli strumenti derivati su merci. Introduce, infine, una sorta di 39 La sicurezza e la continuità del business “passaporto” per l’Unione Europea per le aziende di investimento che hanno ricevuto un’autorizzazione da parte del loro governo a condurre attività e offrire servizi finanziari al di fuori dei propri confini, negli stati membri dell’UE. Sebbene MiFID sia una direttiva specifica per la regolamentazione dei mercati finanziari, essa comprende alcune norme che hanno un impatto diretto sull’IT e sulla gestione delle informazioni. La firma digitale La firma digitale è una concreta e reale opportunità per le aziende nel rivedere i propri processi di scambio certificato di documenti sia di lavoro (per esempio mail) che amministrativi (per esempio fatture), inserendoli in un contesto più ampio di azienda estesa al fine di razionalizzarne la gestione e il trattamento in sicurezza. Uno degli indotti a maggior potenziale sono la riduzione della carta circolante, la possibilità di disporre automaticamente di copie di documenti perfettamente simili all’originale e non deteriorabili, la possibilità di porre in atto politiche di salvaguardia dei documenti stessi e il poter far riferimento a enti certificatori autorizzati che tengono traccia degli scambi di documenti effettuati e che possono agire da terze parti in caso di contestazioni sulla ricezione o meno di documenti. Per dispiegare tutti i suoi benefici l’adozione della firma digitale richiede però che la stessa sia adottata come elemento di base e parte integrante del workflow dei processi aziendali con la conseguente necessità di trasporre in formato elettronico su base endto-end (e gestire in modo sicuro) i processi esistenti. L’integrazione delle tecnologie citate con i processi aziendali permette di ottenere benefici sia di natura economica che qualitativa quali, per esempio: • un elevato grado di sicurezza, autenticità e integrità dei documenti; • la progressiva riduzione (se non la totale eliminazione) dell’utilizzo di documenti cartacei; • un utilizzo semplice. 40 La sicurezza e la continuità del business Il processo che porta all’adozione della firma digitale e allo scambio elettronico dei documenti interessa applicazioni ed esigenze diverse (Mail Secure, Web Secure, Autenticazione a livello di portali, Firma Digitale, integrazione con Archiviazione Ottica, apposizione di Time Stamp certificati, Secure Storage, VPN, Librerie di sicurezza, eccetera) che consentono di firmare digitalmente i documenti elettronici, di trasmetterli come posta elettronica in modo sicuro e di dialogare in modo altrettanto protetto in ambito Web. L’approccio necessario, più che puntuale, è però globale e richiede, in quanto tale, un esame dettagliato delle procedure, delle applicazioni e delle piattaforme software presenti in azienda, da cui partire per identificare le tecnologie da adottare. Tra gli elementi che appaiono sempre più qualificanti sono la standardizzazione e l’adozione di un concetto di “openess”. Per fortuna (per l’utilizzatore aziendale e per il responsabile alla sicurezza che deve decidere) entrano in gioco enti terzi che sono stati creati a livello internazionale e nazionale per certificare la corrispondenza di un erogatore di servizi di PKI ai requisiti minimi necessari per poter operare e garantire l’aderenza agli standard internazionali. Una normativa all’avanguardia L’Italia è stata tra le prime nazioni al mondo nel dotarsi di una normativa specifica in materia di firma digitale ed è tra gli stati che hanno il maggior numero di certificatori accreditati di operazioni su documenti che possono essere siglati con la firma elettronica. I criteri e le modalità per la formazione, l’archiviazione e la trasmissione di documenti informatici e telematici sono stati recepiti nell’ordinamento giuridico italiano nel 1997 con il D.P.R. 513. A questo primo decreto sono seguiti una serie di circolari e decreti e oggi, grazie al testo unico in materia, la firma digitale da oggetto di studio è diventata una soluzione concreta e applicabile. Un aiuto a far chiarezza è derivato anche dalle attività livello comunitario, che hanno precisato la differenza tra Firma Elettronica e Firma Digitale Qualificata. La Firma Digitale Qualificata è riferibile a un contesto di documento informatico e differisce dalla Firma Elettronica (il cui 41 La sicurezza e la continuità del business ambito applicativo è relegato a applicazioni di commercio elettronico) e deve essere generata e apposta tramite un dispositivo di firma sicuro, rilasciato da un ente certificatore accreditato. Ciò non impedisce l’adozione di altre forme di firma elettronica, ma queste hanno una validità esclusivamente interna all’organizzazione in cui sono utilizzate e non possono avere validità giuridica. A livello comunitario è stata anche recentemente stabilita la modalità di adozione della direttiva che prevede l’accettazione di documenti elettronici firmati come le fatture. 42 La sicurezza e la continuità del business 3 - Data Center: sicurezza e business continuity Per essere in grado di supportare applicazioni che, con la proiezione di un’azienda nel più ampio contesto Internet, devono essere attive 24 ore su 24, l’IT aziendale si è dovuto trasformare profondamente e l’insieme delle apparecchiature che lo costituisce sta necessariamente incorporando caratteristiche di tipo enterprise class, ovvero in grado di assicurare un livello di funzionamento continuo del 99,999%. Sottosistema storage, server, network e infrastruttura, compreso impianto di alimentazione e raffreddamento, è necessario e in ogni caso auspicabile, che adottino il medesimo approccio implementativo, scalabile, modulare, ridondato e con componenti sostituibili a caldo in caso di guasto. Resta da valutare se le soluzioni pratiche per un tale approccio sono disponibili e realizzabili concretamente. La risposta a questo dubbio è positiva. Soluzioni recentemente introdotte sul mercato stanno effettivamente aprendo la strada alla realizzazione di data center di nuova generazione, in cui i diversi sottosistemi operano con caratteristiche omogenee. L’architettura per la realizzazione delle infrastrutture che ne è risultata è basata su armadi standard che comprendono gli apparati attivi, le batterie di backup, le componenti elettriche, il cablaggio e così via. In sostanza, si può realizzare un’infrastruttura distribuita e modulare che può arrivare a disporre, nelle configurazioni maggiori, di un livello di ridondanza basata su array (e cioè un insieme distribuito di moduli base) che può garantire una disponibilità statistica superiore al 99,9999%, pari a un fuori servizio di pochi secondi annui. Nel far funzionare correttamente gli apparati di un data center un ruolo fondamentale lo gioca l’ambiente e l’infrastruttura di supporto e, in sostanza, quanto attinente al condizionamento ambientale e 43 La sicurezza e la continuità del business all’alimentazione indispensabile energetica. perché il La sistema loro nel qualità suo è insieme l’elemento funzioni correttamente e risulti sicuro. Sono svariati i problemi connessi all’infrastruttura e, in primis,quello energetico e quello ingegneristico. I costi per il consumo energetico rappresentano una quota in costante e rapido aumento del Total Cost of Ownership delle sale CED (Centro Elaborazioni Dati) o data center. Il problema costituito dal contenimento dei consumi energetici interessa poi sia aspetti legati alle caratteristiche degli apparati IT sia all’infrastruttura fisica. Distribuzione dei consumi energetici in un data center tipico Un primo elemento riguarda il dimensionamento dell’infrastruttura. Le apparecchiature IT utilizzano, infatti, solo una parte dell'elettricità complessiva immessa nel CED. Di solito questa percentuale corrisponde a circa il 50% mentre il restante 50% dell’elettricità è utilizzato dai sistemi di raffreddamento, dagli UPS, dai sistemi di condizionamento, dalle unità di distribuzione dell'alimentazione e da altri componenti vari. Questo significa che un punto importante da cui partire per risparmiare energia (e quindi ridurre i costi operativi) coinvolge la 44 La sicurezza e la continuità del business parte infrastrutturale che, da sola, utilizza perlomeno la metà dell'alimentazione richiesta per il funzionamento di un data center e delle apparecchiature IT che contiene. L’attenzione all’efficienza va riposta anche ai sistemi di continuità elettrica, il cui contributo può essere considerato trascurabile nel caso di ambienti con pochi sistemi, ma rappresenta un costo significativo nel caso di ambienti ad alta densità con carichi che possono superare gli 1 MW, dove un risparmio di qualche punto percentuale determina un consistente risparmio economico. Anche utilizzare un'architettura e un sistema di condizionamento dell'aria più efficiente diventa essenziale all’interno del data center. Diverse sono le modalità per ottenere questo risultato. Alcune opzioni possono consistere nell’utilizzare una serie di unità di raffreddamento anziché un sistema di raffreddamento unico per l’intera sala CED. Questo approccio può risultare particolarmente efficace negli ambienti ad alta densità. Peraltro, si sta rivelando molto utile anche la nuova generazione di soluzioni per il raffreddamento ad acqua, che permette di intervenire esattamente dove serve dissipare il calore prodotto senza essere costretti a condizionare costosamente un intero ambiente. Va poi osservato che adottare soluzioni recenti permette anche di fruire delle migliori qualità progettuali e di una architettura modulare che permette di ridurre il rischio di guasto totale di un impianto e migliorare la sicurezza complessiva del sistema informativo dal punto di vista funzionale. Alimentazione energetica più efficiente Anche se è difficile dire se a livello industriale l’ottimizzazione dei sistemi IT e dei consumi energetici derivi più da un amore reale per l’ambiente o da una maggior attenzione ai costi strutturali, una cosa è certa, il primo congresso mondiale sul cambiamento climatico si è svolto circa trent’anni fa e da allora è passato molto tempo. Nel frattempo si è di molto sviluppata la consapevolezza di eco sostenibilità e di rispetto ambientale e i consumatori sono in modo crescente attivamente coinvolti nel tentativo di ridurre l’impatto sull’ambiente derivante dal costante sviluppo economico e dei consumi nonché dalla progressiva antropizzazione del territorio. 45 La sicurezza e la continuità del business La conseguenza è che, sia per ridurre i consumi che per mitigare l’impatto ambientale (riferito in letteratura, soprattutto anglosassone, come la carbon foot print) anche il mercato si sta sempre più orientando verso prodotti rispettosi dell’ambiente. La necessità di soluzioni a basso consumo ed ecocompatibili deriva anche dalle normative in vigore, che interessano e coinvolgono nel processo di rinnovamento tecnologico anche quelle società che, per vari motivi, sono potenzialmente sono meno attente a questo trend evolutivo. Particolarmente significativa è la direttiva Europea 02/91 del Dicembre 2002, EPBD (acronimo che sta per Performance Energetiche di Edifici) in quanto si pone l’obiettivo di migliorare l’efficienza energetica degli edifici. La direttiva ha introdotto regolamentazioni concernenti, nello specifico, le seguenti aree: • metodologia per calcolare l’efficienza energetica negli edifici. • requisiti minimi per l’efficienza energetica negli edifici. • requisiti minimi per l’efficienza energetica nella ristrutturazione di grandi edifici. • certificazione energetica degli edifici. • periodica ispezione delle caldaie e dei sistemi di aria condizionata. In sintesi, quello che queste normative, regolamenti, eccetera si prefiggono, è di favorire la conservazione dell’energia utilizzandone una minor quantità per raggiungere lo stesso risultato, e di conseguenza avere un impatto positivo sull’ambiente, sulla sicurezza personale e per quanto concerne il comfort delle persone. Ambiente, sicurezza e data center Uno degli ambienti che maggiormente possono essere interessati dalle normative, oltre che dall’interesse a ridurre i consumi anche per motivi di budget, è proprio quello dei data center. Va osservato che minori consumi espongono anche a minori rischi per quanto concerne la mancanza di energia necessaria al funzionamento, implicano l’uso di macchine meno esigenti dal punto di vista dimensionale e in 46 La sicurezza e la continuità del business sostanza quello che ne deriva sono strutture che risultano meno critiche e più sicure. Grazie alle nuove soluzioni l’impatto è significativo sia per quanto concerne data center di grossa dimensioni che, soprattutto, per quelli di medie e piccole dimensioni, che meglio corrispondono alla realtà del tessuto industriale italiano. In sostanza, con le soluzioni ora disponibili sul mercato è possibile ridurre i costi energetici fino al 50% senza per questo impattare su affidabilità e performance. Struttura e disposizione tipica di un data center In genere, ridurre i consumi e ridurre la produzione di calore ha invece un impatto positivo sulla durata delle macchine e quindi sulla sicurezza di poter continuare a godere delle applicazioni IT. Più sicurezza e meno consumi Ma come fare per ottenere se non il massimo dei benefici che i produttori comprensibilmente evidenziano ed enfatizzano come possibili, perlomeno una parte significativa di questi? Un insieme di regole comportamentale può essere in questo di aiuto. Per esempio: • Utilizzare processori di ultima generazione a basso consumo. • Adottare alimentatori per gli apparati IT ad alta efficienza. 47 La sicurezza e la continuità del business • Avere una gestione attiva delle alimentazioni. • Realizzare ambienti server e storage virtualizzati. • Adottare Blade Server, che possono essere singolarmente disattivati quando non utilizzati e che aumentano la sicurezza complessiva perché nativamente ad alta ridondanza. • Ottimizzare le unità per il condizionamento (per esempio adottando condizionatori a resa variabile). • Optare, quando possibile, per soluzioni ad alta densità. • Monitorare in modo attivo i sistemi di condizionamento. L’importanza per la sicurezza e per l’ambiente che deriva da una elevata efficienza di un data center ha fatto si che associazioni di settore, consulenti e venditori abbiano promosso delle best practice a cui si può fare riferimento per migliorare l’efficienza energetica di un data center. Si tratta di regole che prendono in considerazione diversi aspetti quali, per esempio, il tipo di illuminazione o il sistema di raffreddamento e che offrono alle aziende, qualora adottati, la possibilità di invertire o perlomeno rallentare il gradiente di incremento del consumo energetico del proprio data center. Ottimizzare la climatizzazione e ridurre i costi La diffusione di server ad alta densità di processori ha aperto la strada alla virtualizzazione delle risorse e al forte incremento della sicurezza per quanto concerne la continuità operativa. Esiste però l’altra faccia della medaglia. La necessità energetica e il corrispondente carico termico che in passato si trovava in un intero Data Center viene ora a trovarsi concentrato in un solo armadio. Una spinta in tale direzione è stata data dalla disponibilità di tecnologie server a blade, ovverossia delle schede che possono essere inserite in un rack con una elevata densità e che possono alloggiare un numero elevato di processori multicore. La capacità di calcolo concentrata in una sola scheda è enorme, ma altrettanto lo diventa l’esigenza di energia per funzionare e il calore prodotto nonostante l’adozione di processori a basso consumo di ultimissima generazione. Quello che ne deriva è che si creano delle zone ad alta densità di calore che necessitano non solo di sistemi di alimentazione più potenti 48 La sicurezza e la continuità del business ma soprattutto di un tipo di condizionamento specifico, perché quelli usuali richiederebbero uno spazio di molti metri quadrati. In sostanza, ci si deve spostare da sistemi di tipo tradizionale (a 3kW per rack) ad ambienti che possano supportare densità molto più alte di fino a 30 kW o oltre. Ciò ha richiesto ai produttori un approccio nuovo, per esempio con unità centrali e supplementari che possano essere installate direttamente sopra o a fianco degli armadi che alloggiano gli apparati che costituiscono la sorgente del carico termico. Posizionamento del condizionamento e flussi d’aria Secondo dati dei costruttori, queste unità supplementari, confrontate con i sistemi tradizionali, permettono di ottenere una riduzione anche del 30% dei costi per la climatizzazione. In sintesi, il risparmio deriva dal fatto che erogando la potenza termica dove è necessaria è possibile ridurre la potenza elettrica dei ventilatori che movimentano la portata 49 La sicurezza e la continuità del business d’aria in gioco. La mossa dei produttori è consistita quindi nello sviluppo di unità di nuova generazione molto compatte che possono essere anche montate a soffitto e riprendono l’aria dai corridoi caldi e mandano aria fredda nei corridoi freddi dove sono installate. Si tratta di soluzioni che abilitano un forte risparmio energetico e non occupano spazio utile per l’installazione di altri armadi di apparati server o storage. Altre soluzioni prevedono invece l’utilizzo di moduli che possono essere posti in linea con gli armadi. In questi casi l’aria che proviene da un corridoio caldo entra nella parte posteriore dell’unità, viene trattata e mandata nel corridoio freddo. Una sicurezza basata sulla business continuity e il disaster recovery Il problema della sicurezza di funzionamento, e cioè la continuità operativa e la disponibilità dei dati, oltre che su un impianto infrastrutturale adeguato si basa anche su una architettura informatica che permetta di salvare in modo sicuro i dati e ripristinarli quando necessario e, a causa di un disastro naturale o di un semplice errore, siano andati persi. Correlato alla continuità di funzionamento vi è quindi il problema di come far fronte a disastri che minino in parte o in toto la disponibilità dei dati aziendali e la continuità di un’elaborazione degli stessi. Ovviamente la sicurezza di un’azienda non sempre, per fortuna, viene messa a dura prova e la maggior parte delle minacce si manifesta su una scala di gravità bassa. Per esempio, sotto forma di guasti hardware, di errori nelle applicazioni o di errori operativi da parte degli addetti che causano il crash dei sistemi e la conseguente indisponibilità delle informazioni. Poiché questi eventi non possono essere del tutto evitati, la capacità di un’azienda di contenere queste minacce dipende essenzialmente dal suo stato di preparazione, in quanto buona parte dei potenziali malfunzionamenti derivanti da un evento catastrofico possono essere evitati con un’adeguata pianificazione, implementazione sperimentazione di un adeguato piano di emergenza. 50 e La sicurezza e la continuità del business Un piano accurato del tipo “what if” può assicurare la continuità operativa (Business Continuity Plan, in sigla BCP). In sostanza, un BCP consiste in un’analisi sull’impatto sulle proprie attività (in inglese BIA, acronimo di Business Impact Analysis) e nella elaborazione di adeguati piani di disaster recovery. Un tale approccio permette a una azienda di incrementare la garanzia della continuità operativa al verificarsi di eventi critici, che possano porre in forse servizi o intere infrastrutture. A prescindere dalle sue dimensioni, un’azienda che abbia predisposto degli interventi significativi per assicurare la continuità operativa è pronta ad affrontare eventuali eventi calamitosi, grandi o piccoli che siano. Va però osservato che, anche se sono le catastrofi maggiori che attirano l’attenzione dei media, tra gli eventi potenzialmente rischiosi vanno annoverati sia i guasti minori dell’hardware quanto gli errori umani dalle conseguenze gravi. Peraltro, eventi qualificabili come catastrofi sono usualmente l’eccezione mentre generalmente i motivi di un fermo di sistemi e applicazioni sono, nell’ordine: • errori operativi (40%); • errori hardware (40%); • malfunzionamenti applicativi (12 %); • disastri (5 %); • altre cause ambientali (3 %). L’esperienza sul campo indica in circa un ottanta per cento i fermi macchina provocati da malfunzionamenti dell’hardware o da interruzioni operative dovute a errori umani, anche se non ne deriva che il relativo impatto sull’azienda sia meno devastante. Impatto economico del fermo di un’applicazione I costi riportati in tabella relativi ai fermi applicativi danno un’indicazione concreta dell’importanza di un’applicazione ai fini della sopravvivenza di un’impresa investita da un disastro e quindi dell’importanza connessa alla sicurezza nell’erogazione di un’applicazione. Un esame più analitico permette poi di distinguere due componenti, il software infrastrutturale e i dati correnti. In linea di massima, può non essere difficile rimpiazzare 51 La sicurezza e la continuità del business il software applicativo anche se non va sottovalutato l’insieme delle attività tecnico sistemistiche necessarie per l’eventuale personalizzazione dello stesso, prima che possa diventare eseguibile. Discorso analogo vale poi anche per quanto riguarda i sistemi operativi e il software che gira sui server. I costi di un fermo del sistema informativo per settore industriale (Fonte: Contingency Planning Research) Se si prescinde dalla vita umana, che ovviamente non ha prezzo, sono i dati il patrimonio più prezioso di un’azienda e, a seconda del livello di criticità di un’applicazione, cresce parimenti l’importanza di disporre di dati che siano aggiornati, vecchi anche di alcuni giorni in alcuni casi (piuttosto che non disporne affatto!) o, per applicazioni fortemente critiche, aggiornati in tempo reale. La pianificazione alla base della sicurezza operativa Un elemento fondamentale per la sicurezza operativa è rappresentato dalla pianificazione. Spesso però i termini stessi del problema sono confusi e, per esempio, non sono pochi coloro che utilizzano i termini di Business Continuity Plan (BCP), Business Impact Analysis (BIA) e Disaster Recovery come dei sinonimi, quando invece tra essi le differenze sono fondamentali. Il Business Continuity Plan, riferito a volte anche come Contingency Plan, interessa l’intero spettro di attività a partire dall’individuazione 52 La sicurezza e la continuità del business e dalla valutazione dei rischi per l’impresa, fino alla pianificazione degli interventi risolutivi o assicurativi individuati come necessari. Interessati sono anche i meccanismi che consentano all’azienda di essere operativa (in pratica di continuare a esistere in quanto tale) sia nella fase di recovery sia durante il ripristino dell’operatività vera e propria conseguente al verificarsi di un disastro. È nel piano di continuità che un’azienda valuta tanto la probabilità dei diversi scenari, quanto il livello di tolleranza nei confronti dei costi relativi agli interventi pianificati. La Business Impact Analysis è invece un elemento chiave all’interno del Business Continuity Plan che prende in considerazione le diverse tipologie di eventi distruttivi, in modo da quantificare e qualificare quello che si ritiene necessario fare per evitarli. Il Disaster Recovery è un ulteriore elemento in gioco al fine di assicurare l’operatività aziendale e consiste in un piano operativo quanto più dettagliato possibile che illustra come reagire in presenza di un disastro e come procedere nel ripristino dei sistemi critici, privilegiando aspetti quali la rapidità, l’efficienza e l’economicità. Il Business Continuity Plan La realizzazione del Business Continuity Plan (BCP) è una attività che può essere gestita internamente in azienda oppure affidata a consulenti esterni che siano esperti nella pianificazione. In entrambi i casi coinvolge in modo esteso hardware, software, dati, infrastrutture, personale e applicazioni. Il punto di partenza consiste nell’analisi dettagliata dell’asset aziendale al fine di individuare i processi critici per l’operatività aziendale stessa e cioè, in sostanza, i processi da ripristinare prioritariamente entro un intervallo di tempo molto breve, per esempio le quattro ore. La selezione ha l’obiettivo di consentire la classificazione di applicazioni e processi sotto il profilo della loro priorità a seconda dell’urgenza con cui devono essere ripristinati nonché di contenere i costi stessi del ripristino. Un ripristino immediato, ovviamente costoso, riguarda in genere le applicazioni contenenti dati che servono a erogare servizi ai clienti 53 La sicurezza e la continuità del business esterni, come per esempio avviene in ambienti bancari per quanto riguarda operazioni di sportello o applicazioni connesse al pagamento mediante carte di credito e terminali Eft-Pos e ATM. Il BCP deve considerare anche quanto connesso ai sistemi trasmissivi, alle strutture alternative, per arrivare sino alla sicurezza dei dipendenti. Definire un piano ottimale è però solo il primo passo, necessario ma non sufficiente. La garanzia (ragionevole) di una sua riuscita richiede che lo stesso sia noto e accettato da tutto il personale coinvolto. Gli elementi che ne determinano il successo possono essere riassunti nei seguenti punti: • Presa visione e accettazione da parte del Management • Analisi e riduzione dei rischi • Valutazione di minacce, risorse e alternative potenziali • Business Impact Analysis con la quantificazione degli impatti operativi, finanziari, legali e normativi • Strategie di ripristino (dispiegamento delle risorse atte a garantire la continuazione delle funzioni aziendali in caso di disastro; elaborazione e documentazione di un piano; identificazione della sfera di influenza; individuazione della linea di comando; istituzione delle procedure necessarie). • Opera di sensibilizzazione, addestramento, implementazione e aggiornamento periodico La Business Impact Analysis La Business Impact Analysis è il primo step nella definizione di un piano di continuità e consiste in un processo che consente all’azienda di definire, quantificare e classificare le proprie esigenze in base all’importanza che rivestono per la strategia di business continuity. L’analisi che viene realizzata consiste, in essenza, nel porre delle domande e trovare delle risposte. Nel caso dell’IT, l’analisi ha l’obiettivo di valutare i rischi relativi ad apparecchiature, applicazioni e dati e di rispondere a domande quali: • • Quali sono le funzioni aziendali veramente critiche? Quale è il costo di ogni ora in cui viene meno una determinata funzione aziendale? • Quant’è il peso dell’e-commerce per l’impresa? 54 La sicurezza e la continuità del business • Qual è il suo attuale stato di preparazione? • Con quale rapidità e in quale ordine devono essere ripristinati i vari sistemi? L’elenco, non esaustivo, serve a stabilire quali sono le attività critiche, quelle importanti e quelle che possono essere procrastinate senza pregiudicare l’operatività aziendale. In pratica ciò vuol dire identificare le aree dove concentrare, inizialmente, le risorse umane e finanziarie. Una tale attività, proprio per il tipo di risorse che coinvolge, nel momento in cui sono definite le priorità, richiede il coinvolgimento del top management e questo non solo per gli aspetti connessi ai budget da allocare da parte delle diverse divisioni, ma anche per assicurare il sostegno di tutta l’azienda a tutti i livelli, che è opportuno non dare per scontato. Scegliere la gerarchia di sicurezza e di ripristino: RTO e RPO Nel ripristino di sistemi e applicazioni è di estrema importanza definire una gerarchia ben precisa. Una tale gerarchia può essere costruita analizzando la quantità, il tipo e il valore del software e dei dati presenti in impresa, classificando ogni componente in ordine d’importanza e tenendo conto del potenziale impatto finanziario che la indisponibilità di un elemento o di un insieme di elementi (dati, apparati, eccetera) finirebbe con l’avere sull’organizzazione. In questa costruzione gerarchica e in presenza di una realtà operativa permeata da Internet, alcune applicazioni e dati devono essere costantemente disponibili, cosa che implica maggiori complessità, un maggior dispiego di risorse e, di conseguenza, maggiori costi. In generale, più pressante è l’urgenza più elevato è il costo di un ripristino. Uno schema di classificazione di applicazioni, dati, funzioni e processi in ordine di priorità può per esempio basarsi su un’esigenza di disponibilità temporale. Per esempio, con insiemi di processi per cui si richiede una disponibilità: • immediata, • entro le 4 ore 55 La sicurezza e la continuità del business • in giornata o entro le 8 ore • entro le 24 ore • entro le 72 ore • oltre le 72 ore In pratica, si tratta di definire un parametro noto come Recovery Time Objective (RTO), cioè entro quanto tempo un determinato servizio di business deve essere ripristinato. Non si può effettuare un calcolo approssimativo, perché anche solo un millesimo o un centesimo percentuale di disponibilità corrisponde a una differenza dell’ordine di centinaia di migliaia di euro. Modalità di protezione dei dati Una classificazione può poi essere fatta anche raggruppando i dati per categoria d’appartenenza suddividendoli in insiemi comprendenti: • Dati critici: funzioni appartenenti al livello più costoso che comprendono sistemi, applicazioni e dati cruciali per l’operatività aziendale, utilizzati nei processi strategici chiave oppure obbligatori per legge. • Dati vitali: è meno oneroso rispetto ai dati critici ed è un gruppo che include dati e/o applicazioni senza i quali l’azienda è in grado di operare per brevi periodi di tempo. In questa categoria rientrano i dati utilizzati nei processi aziendali standard o che rappresentano un investimento significativo e sono difficili da ricostruire. • Dati nevralgici: sono considerati nevralgici i dati utilizzati nelle operazioni quotidiane per i quali esistono, tuttavia, delle fonti alternative, così come quelli ricostruibili con una certa facilità. • Dati non critici: sono dati ricostruibili a un costo molto basso e includono gli elementi già duplicati che hanno bassi requisiti di sicurezza. Un’analisi efficace permette di identificare le risorse necessarie a gestire le funzioni critiche sia nel breve che nel lungo periodo, individuando le risorse necessarie per far passare l’azienda dalla fase di ripristino a quella di normale attività. 56 La sicurezza e la continuità del business Si tratta di definire un parametro normalmente indicato come RPO (Recovery Point Objective): identificare, in sintesi, quali punti del sistema informativo sono più critici, quali servizi più importanti per il business. Determinata la portata della propria vulnerabilità, un’azienda può decidere di adottare dei provvedimenti atti a farvi fronte. Approcci tattici di tal genere ne sono stati sviluppati diversi e sono alla base degli interventi da parte di società specializzate nei sistemi operativi o in settori pesantemente coinvolti nella sicurezza aziendale dei dati, come quello dello storage, dove alcune società hanno già maturato una consistente esperienza in proposito. Il piano deve contemplare la conservazione di copie multiple dei dati in diverse località geografiche a una certa distanza di sicurezza dalla sede principale, da stabilire in base alle probabilità di un sinistro; per esempio, le misure da adottare in previsione di un incendio non richiederanno la stessa distribuzione geografica necessaria per un sisma o un uragano. Altrettanto critica è la sostituzione dell’infrastruttura informatica primaria. Le copie dei dati critici sono di ben poco valore, se poi non esistono apparecchiature su cui utilizzarle: server, storage, reti e configurazioni devono essere disponibili entro un lasso di tempo ragionevole. Una volta disponibile l’infrastruttura IT, si devono ripristinare i processi critici del business per consentire la ripresa del servizio alla clientela. Ma quali sono gli elementi di un recovery? Applicazioni ad alta criticità, come i database, possono richiedere un hot site dotato di energia elettrica, apparecchiature e funzionalità di comunicazione. A questo scopo alcune aziende preferiscono utilizzare delle strutture secondarie predisposte in maniera pressoché identica al CED principale, con i dati che vengono trasferiti elettronicamente dal centro primario a quello ridondante con metodi diversi. In alcuni casi i locali secondari ospitano delle applicazioni attive in un’ottica di load sharing dove i dati, come quelli transazionali, vengono spostati dinamicamente dal centro primario a quello ridondante. Sotto questo aspetto, la sicurezza dei dati ha visto di recente affermarsi due meccanismi per proteggere i dati in un sottosistema a dischi: lo shadowing e il mirroring. 57 La sicurezza e la continuità del business Lo shadowing è un processo di natura asincrona che mantiene una replica dei database e dei file system (che definiscono il metodo per archiviare e recuperare i dati) rilevando in continuo eventuali modifiche che verranno successivamente applicate alla copia presente nel centro di recovery. I tempi del ripristino si riducono notevolmente, tipicamente fino a uno/otto ore, a seconda del tempo richiesto per l’applicazione dei file di log. Il mirroring mantiene, invece, una replica dei database e dei file system applicando eventuali modifiche al centro di backup in modo sincrono rispetto a quelle apportate presso il centro principale. In questo caso, un’operazione di I/O si considera completata non appena viene aggiornata la copia primaria, mentre la copia secondaria può anche essere aggiornata in un secondo tempo. Ne risulta una riduzione dei tempi di recovery compresa tra 20 minuti e alcune ore, mentre il ripristino dai file di log si limita alla sola perdita delle transazioni non portate a termine. Il mirroring richiede una banda trasmissiva significativamente più ampia rispetto allo shadowing; se l’ampiezza di banda è troppo esigua o le latenze troppo elevate, la performance dei sistemi di produzione risulta degradata. Questo è il motivo per cui in genere non si utilizza il mirroring per ambienti caratterizzati da alti volumi di transazioni. Il “trucco” sta nel sapere qual è il meccanismo più adatto in ogni situazione. Se la ripresa dei processi elaborativi può essere rimandata di un giorno o due, è probabilmente sufficiente un cold site in cui installare e configurare le apparecchiature solo dopo la messa in opera del piano di ripristino. Pur essendo decisamente meno costoso da manutenere rispetto a un hot site, un cold site può richiedere accordi sulla consegna delle apparecchiature con i principali fornitori dove il fattore tempo svolge un ruolo fondamentale. Clustering e Disaster Recovery Come evidenziato, in un numero sempre maggiore di aziende anche un piccolo down time dei sistemi, sia imprevisto che pianificato, rappresenta un evento in grado di avere impatto sul business in termini di fatturato o di immagine. Per queste ragioni, alta 58 La sicurezza e la continuità del business disponibilità e disaster recovery rappresentano ormai due concetti di importanza fondamentale e che si fondono l’uno nell’altro. La scelta dell’architettura più adatta per implementare una soluzione di disaster recovery va valutata in base alla tipologia di business e di servizio erogato e cercando di conciliare le esigenze di protezione dei dati con quelle dei costi di implementazione e dell’infrastruttura disponibile La continuità delle operazioni e il ripristino dei dati in una situazione di disaster recovery possono essere garantiti attraverso architetture di clustering implementate a livello locale, metropolitano o geografico. I differenti approcci architetturali di clustering per il disaster recovery, restano caratterizzati da specifici vantaggi e svantaggi, in relazione alla capacità infrastrutturale preesistente, ai fondi disponibili, alla quantità di dati che è ammissibile perdere e alle pianificazioni future. L’aspetto economico della sicurezza Fondamentale, in quanto connesso alla sicurezza operativa, è l’aspetto economico. Oggigiorno, la maggior parte delle attività informatiche necessita di una soluzione equilibrata che supporti una molteplicità di applicazioni mission-critical e ausiliarie. Per soddisfare nel modo ottimale i fabbisogni finanziari e i requisiti di trasferimento e riduzione dei rischi è quindi indispensabile prendere in considerazione un insieme di alternative che vanno dai servizi di outsourcing a quelli di gestione remota . Il ruolo della tecnologia Le applicazioni mission-critical a impatto elevato e i database che richiedono installazioni hot site ricavano un consistente beneficio da funzioni di mirroring elettronico in tempo reale. Le soluzioni di virtualizzazione storage che si sono diffuse sul mercato negli ultimi tempi e che utilizzano il meccanismo PPRC (Peer-to-Peer Remote Copy) sono, per esempio, in grado di soddisfare i requisiti di piani di ripristino mission-critical in hot site, soprattutto per la loro capacità di eseguire il mirroring dei dati compressi e ridurre gli overhead quali i dati sullo spazio libero occorrente. 59 La sicurezza e la continuità del business Nastri per contenere i costi Le soluzioni costituite da nastroteche automatizzate sono un altro metodo molto conveniente per archiviare grandi quantitativi di dati nel raggio di una vasta area geografica. Rimovibili e trasportabili, le soluzioni basate su nastri sono disponibili sul mercato per ogni livello di esigenza, a partire dalla fascia bassa fino a nastroteche dal mirroring completo con capacità pressoché illimitata. Le nastroteche possono anche avvalersi di soluzioni di virtual storage management usate per creare unità a nastri virtuali, cosa che permette di risparmiare sui costi, ridurre i tempi e semplificare la gestione. Nel caso di applicazioni con minore impatto sul business si può poi optare per soluzioni quali gli Automated Cartridge System, che assicurano la ridondanza dei dati a prezzi molto convenienti. In caso di interruzione, le copie su nastro sono subito disponibili presso il centro di recovery, cosa che elimina la necessità di farsi inviare le copie da un centro gestito da terze parti. Funzioni ora disponibili, quali la migrazione automatica dei dati dai dischi ai nastri, consentono anche di eseguire in modo economico il backup articolandolo su diverse generazioni. Va infatti considerato, quando si parla di dati, che nel caso dei dischi gli errori o i problemi di corruzione dei dati primari vengono automaticamente riprodotti nelle copie remote, per cui gli utenti possono essere costretti a risalire di diverse generazioni, prima di trovare una copia integra dei dati. Con i nastri, invece, le copie multigenerazionali sono poco costose e si recuperano rapidamente. Software di gestione In caso di un evento catastrofico che porti alla perdita di dati, il software svolge un ruolo sempre più chiave nel trasferimento rapido dei file, perché consente di ripristinare anche file di grandi dimensioni nel giro di pochi minuti. Recenti rilasci sfruttano in modo intensivo gli sviluppi che si sono avuti nella virtualizzazione dello storage per automatizzare la gestione e il recupero dei dati all’interno della gerarchia di storage. Il tutto si basa su apposite policy definite dagli utenti per scaricare i dati dalla cache su disco ai nastri in modo da 60 La sicurezza e la continuità del business creare copie multiple per il centro primario, il “caveau” e l’archiviazione in remoto. Le esigenze di backup Il backup dei dati rappresenta una delle applicazioni principali delle risorse di storage. L’importanza di effettuare copie dei dati per la loro protezione e archiviazione è evidente e non richiede ulteriori commenti. Le tecnologie a nastro rappresentano ancora quelle preferite e più economiche per questo tipo di applicazione, anche se il modo di effettuare il backup su nastro è cambiato profondamente con l’avvento dei concetti di SAN e NAS. In precedenza, le risorse di storage erano connesse direttamente a un server e l’unico modo per effettuare il backup su nastro all’interno della rete prevedeva che i dati venissero trasferiti all’unità di backup attraverso la LAN. Questo tipo di approccio presenta diversi inconvenienti. Innanzitutto, dato che il traffico di backup transita sulla LAN, ne compromette le prestazioni generali occupando banda, tanto più nei casi in cui vi sono limitate finestre temporali libere per le attività di backup e ci si trova a dovere effettuate operazioni di trasferimento di grandi quantità di dati. Inoltre, in questo approccio al backup, il server è collocato direttamente nel percorso dei dati e si consumano perciò risorse server in termini di lavoro della CPU, bus di sistema e utilizzo della memoria. A questo si aggiungono gli inconvenienti, già evidenziati precedentemente, in relazione alla connessione diretta tra server e storage (DAS). Data Center remoti e backup in outsourcing La tendenza ad affidarsi a servizi esterni per quanto riguarda applicazioni anche critiche, come il backup, discende dalla complessità di gestione e, soprattutto, dalla maggiore efficacia che una soluzione appoggiata al data center di un provider remoto può garantire. La crescente dipendenza dai sistemi informativi delle imprese, del resto, rende fondamentale l’efficienza della protezione: backup e restore non possono essere trascurati, come troppo spesso si 61 La sicurezza e la continuità del business faceva in passato, né, per molte realtà, risultano accettabili tempi lunghi. Fino a non molti anni fa, le finestre notturne erano sufficienti a coprire le esigenze di backup della maggior parte se non totalità delle imprese. Oggi, la crescita smodata dei dati in azienda ha finito con il rendere obsolete molte architetture e strumenti per il salvataggio dei dati. Dall’altro lato, tempi di ripristino lunghi, anche se non portano necessariamente al fallimento di un’impresa, certamente ne condizionano la produttività e rappresentano un importante spreco di risorse. Se a questo si abbina l’opportunità d’integrare il backup con politiche di disaster recovery, che sono del resto imposte anche da precise normative di legge, ecco che si comprende il successo di un mercato emergente quale quello dei servizi di backup e disaster recovery appunto. L’importanza del partner Naturalmente, le imprese possono scegliere di ricorrere a un partner esterno anche solo per l’hosting di propri apparati e soluzioni, ma in ogni caso, il fornitore prescelto dovrà rispondere a precisi requisiti. A parte il gioco di parole, è evidente che per garantire l’affidabilità di soluzioni e servizi dovrà essere affidabile, ma, nel caso si richiedano anche servizi di system integration, è necessario valutare attentamente anche l’esperienza maturata nell’implementazione di soluzioni dedicate alla gestione e al salvataggio dei dati in ambienti eterogenei. Una tale esperienza è comunque opportuna, anche solo considerando che, come per il resto del l’IT, è fondamentale gestire consolidamento, pianificazione e ottimizzazione degli ambienti di backup. Per questo, peraltro, è importante che il provider abbia una precisa esperienza nel monitoraggio e controllo del backup: dalla pianificazione (capacity planning) alla gestione della robotica e dei dispositivi (Device Management). In funzione del livello di disponibilità che ci si vuole garantire, potrà essere opportuno, oltre al valore tecnico e all’esperienza, cercare in un partner la capacità di fornire risorse e servizi dedicati, organizzazione locale, supporto 24 ore su 24 per 7 giorni la settimana e 365 giorni l’anno. 62 La sicurezza e la continuità del business Va considerato che le soluzioni di backup e restore devono comprendere tutte le estensioni della rete, le piattaforme, i sistemi operativi e i database, oltre che i sistemi di storage e le funzionalità software in esse integrate, garantendo in tal modo il salvataggio di tutti i dati presenti in azienda. La protezione deve essere dettata da una politica unificata, schedulazioni automatiche e policy di protezione dinamiche. È determinante quindi il pieno supporto per i più diffusi database e applicativi presenti in commercio: tra cui, Oracle, Informix, Sybase, IBM DB2, Microsoft SQL Server, SAP R/3, Lotus Notes, Microsoft Exchange Server. Oltre che dei file system più importanti quali: Windows, Linux, NetWare, MacOS, Irix, OpenVMS, Solaris, AIX, HPUX. Per la gestione, è poi opportuno che la programmazione del backup sia gestita da un’interfaccia grafica intuitiva e flessibile. Considerata anche la dinamicità del mercato, proprio per non dover cambiare architettura di backup alla rincorsa delle ultime tecnologie, è opportuno ricercare l’efficienza già nella scelta di un sistema di backup in grado di garantire flessibilità e affidabilità nel tempo. In questo senso la soluzione scelta è opportuno che sia sufficientemente diffusa sul mercato perché garantisca una certa longevità e, al tempo stesso, una relativamente facile reperibilità di partner e tecnici esperti nella sua operatività. Inoltre, è opportuno che sia indipendente, in grado cioè di garantire anche il supporto di dispositivi e applicazioni terze e la piena compatibilità con un ampio numero di piattaforme e sistemi operativi. Indipendente, ma ovviamente abilitata a utilizzare prodotti certificati e supportati dalle più importanti società del settore. Infine, è importante che la soluzione sia basata su standard e sufficientemente aperta per consentire di sfruttare sistemi e programmi sviluppati da terze parti di riferimento per il mercato del mass storage e archiviazione dati, quali applicazioni dedicate all’ottimizzazione dei processi di backup (specie in ambienti complessi) e di gestione e controllo delle attività e dell’impatto economico che l’ambiente di backup ha nel contesto complessivo aziendale. 63 La sicurezza e la continuità del business 4 - La sicurezza delle reti Il problema di come impostare una strategia per l’infrastruttura di rete aziendale si abbina, in una buona parte delle realizzazioni, al modo di predisporre la migrazione e la sostituzione partendo dalla situazione preesistente, trovando il modo più adatto per perseguire una trasformazione che determini il minor impatto possibile. Da questa esigenza specifica, ma basilare nel contesto di un’operatività aziendale che non può subire interruzioni, non possono prescindere i fornitori di piattaforme, che si trovano a dover predisporre modelli architetturali in grado di adattarsi da subito alle nuove esigenze e requisiti di business, integrando l’esistente, elevando le prestazioni e mantenendosi aperti per un’evoluzione scalabile. I requisiti sono sempre di più: sicurezza, convergenza, gestione unificata fisso-mobile, virtualizzazione e così via. Tutto ciò contribuisce a delineare un’evoluzione tecnologica e una strategia di trasformazione delle reti in una direzione ben identificata in grado di dare agli utilizzatori (aziende e operatori) una risposta alle loro necessità. Il legame tra requisiti applicativi caratteristiche dell’infrastruttura di rete e un progressivo orientamento verso un modello orientato ai servizi ha portato l’approccio al networking sempre più vicino a quello dell’IT. Il passaggio da una visione centrata sulla parte “tecnica” di una rete a quella “applicativa” ha profonde implicazioni anche a livello aziendale, in quanto coinvolge nel processo decisionale e di cambiamento un insieme di figure e aree di responsabilità aziendale, che per molto tempo sono state sostanzialmente non interessate a quanto era ritenuto di esclusiva competenza del reparto IT. Per questa ragione perseguire un approccio che punti semplicemente alle prestazioni può rappresentare, ora più che mai, una scelta miope. Per esempio l’aspetto della semplicità e dell’unificazione gestionale 64 La sicurezza e la continuità del business diventa sempre più importante. Per le aziende semplificare le reti significa poter ridurre sostanzialmente i costi di manutenzione, incrementare i servizi esistenti offrendone altri multimediali e integrati, incrementare l’affidabilità e il controllo. Ciò che a volte si sottovaluta è quanto questi aspetti, si pensi per esempio alla semplificazione, contribuiscano anche in modo significativo ad aumentare il controllo del rischio e a garantire un maggiore livello di sicurezza. Più in generale la capacità di garantire un elevato livello di sicurezza nell’erogazione di servizi complessi costituisce un indicatore fondamentale da temere in considerazione in relazione a ogni decisione che coinvolga l’infrastruttura di rete. Se pensiamo, per esempio, a come i contenuti multimediali siano sottoposti più di altri a minacce di vario tipo, si comprende come uno dei punti essenziali in un processo di protezione che parte dalla rete sia di poter attribuire a ogni utente specifici privilegi e modalità di utilizzo di un servizio e della sottostante infrastruttura di rete. A livello di sicurezza, la crescente sofisticazione degli attacchi e il fatto che questi avvengano tramite una rete trasmissiva obbligano il manager dei sistemi informativi a considerare quali possono essere le soluzioni al problema in termini progettuali, le strategie da attuare e la localizzazione più adatta degli strumenti e delle applicazioni che a questi attacchi si devono opporre. In pratica, sia che si tratti della rete di un carrier, di una rete virtuale privata (VPN) o di una rete aziendale, il problema consiste nel come abbinare le funzioni di sicurezza con quelle di trasporto della rete in modo che le stesse risultino sinergiche ed efficaci, idealmente massimizzando i livelli sia di protezione sia di servizio. Un primo elemento che emerge è che sicurezza e rete sono due cose che è sempre più opportuno siano pensate e sviluppate in modo parallelo sin dall’inizio di un’implementazione progettuale, in modo che la sicurezza risulti pervasiva all’interno della rete aziendale stessa e non un qualche cosa che funzionalmente vi viene sovrapposto successivamente, come un ulteriore livello applicativo, con strumenti diversi, evoluzione non organica e difficoltà d’integrazione. 65 La sicurezza e la continuità del business Si tratta del punto di arrivo di un processo di convergenza tra security e networking che parte da lontano: quando gli switch hanno cominciato a fare i router e questi ultimi hanno iniziato a controllare gli accessi tramite le ACL (Access Control List). I firewall, gli intrusion detection system, da un lato, e gli analyzer e i multilayer switch, dall’altro, hanno continuato il percorso di avvicinamento, che, in un certo senso, si è completato con gli intrusion prevention system (che combinano funzioni di analisi e filtering del traffico con la capacità di controllo della rete). Una tale sinergia appare poi tanto più necessaria quanto più la rete agisce come integratore e come base per applicazioni convergenti e per ‘erogazione di servizi. La fornitura di servizi personalizzati implica che sia disponibile una modalità e un software che permetta lo svolgimento di due attività essenziali, il controllo e il “billing”. Quanto più un servizio di rete è abbinato a servizi di tariffazione tanto più è poi possibile accentuare la trasformazione dell’ICT aziendale da un concetto di centro di costo a quello di utility. Un ulteriore elemento in grado di caratterizzare il modello architetturale e condizionare l’efficacia di una rete a supportare innovativi modelli di business è la capacità di implementare un livello di intelligenza e di distribuirlo in base agli specifici requisiti di business. Per questo motivi, sempre più spesso, le funzioni di sicurezza sono affidate a dispositivi posti sulla rete e integrati con quelli preposti a realizzare le funzioni di switching e routing. A tale riguardo non si può fare a meno di notare la proliferazione di appliance dedicate, pronte a integrare all’interno di quelli che in passato erano semplici switch (anche periferici) una serie di funzionalità in costante evoluzione. NAC: Network Access Control A monte di qualsiasi progetto per la sicurezza è necessario effettuare un’operazione culturale. Errare humanum est e appunto sfruttando l’ingenuità, l’ignoranza o comportamenti irresponsabili dipendenti, gli “attacker” penetrano nei sistemi e reti aziendali. 66 dei La sicurezza e la continuità del business Negli anni sono aumentati gli attacchi perpetrati attraverso il social engineering. È facile credere a una mail che arriva apparentemente da un dirigente aziendale con un tono minaccioso e quindi cascare in trappole tese da un hacker che era riuscito a impossessarsi di un paio di informazioni, magari raccolte su un sito di social networking, dove in molti si confessano liberamente. Il phishing, in particolare, è nato proprio con il concetto di sfruttare l’ingenuità delle persone e, utilizzando tecniche di spamming, colpisce sempre più facilmente nel segno. Statisticamente, inviando centinaia di migliaia di email, c’è certamente qualcuno che crede a messaggi sempre più plausibili e clicca sul link-esca. Le logiche dei grandi numeri fanno il resto: se “abbocca” l’1% dei destinatari (è una percentuale stimata da diversi security advisor), significa migliaia di identità elettroniche, numeri di carta di credito, password o altre informazioni rubate. Anche percentuali inferiori portano a risultati interessanti, che spesso rappresentano solo la base di partenza per ulteriori crimini. Conoscenza e consapevolezza riducono il rischio, ma, soprattutto nelle grandi imprese, non è facile diffondere una cultura sulla sicurezza a tutti i dipendenti. Senza contare che combattere la pigrizia e la debolezza della natura umana è una battaglia persa in partenza. Allora la guerra va combattuta e vinta su altri terreni e, vista la sofisticazione e la crescente rapidità degli attacchi, l’unica strategia possibile consiste nell’applicare strumenti automatici. Un esempio può aiutare a comprendere le dimensioni del problema. A partire dalla seconda metà del 2007, si è assistito all’affermazione di una tecnica preoccupante: “l’infezione” di siti insospettabili. Su home page e pagine interne di Web facenti capo a enti governativi, università, aziende anche note sono stati inseriti link che attivano il download di codici maligni. È evidente che qui non c’entra la cultura e solo un software di protezione può impedire all’utente ignavo di scaricare malware. Peraltro, il sistema di sicurezza deve essere sofisticato e aggiornato in tempo reale: in altre parole, automatico. Altrimenti non può essere efficace. Basta infatti considerare che viene pubblicata una pagina infetta ogni 5 secondi e una percentuale sempre più alta di tali pagine appartiene a siti “innocenti”. Siti che non 67 La sicurezza e la continuità del business ricevono alcun danno e, quindi, difficilmente possono percepire che c’è qualcosa di sbagliato, almeno non in tempi rapidi. Il punto è che queste azioni sono rapidissime: viene pubblicata la pagina infetta, contestualmente vengono mandate centomila email utilizzando pc “puliti” all’insaputa del proprietario (questo sì colpevole di scarsa protezione). Nel giro di pochi minuti, se non secondi, circa mille malcapitati (l’1% dei destinatari) avranno cliccato sul link trappola. Oggi, esistono soluzioni che proteggono da tecniche come queste, ma non tutti ne dispongono. La sicurezza del futuro non potrà essere un elemento aggiuntivo del sistema informativo o dell’infrastruttura aziendale, ma deve essere un componente integrato di entrambi, come pure di tutti gli elementi tecnologici, anche non IT, in azienda. Dei passi in questa direzione sono stati compiuti con le soluzioni NAC (Network Access Control) o altri sistemi analoghi che consentono di verificare il livello di sicurezza dei client prima di concedere loro l’accesso alla rete aziendale. Ma è solo un inizio, perché si tratta di soluzioni ancora in massima parte proprietarie. Inoltre, resta il problema di accelerare l’aggiornamento dei sistemi aziendali, con tutti i limiti che questo comporta quando si tratta di diffondere la protezione a ogni loro endpoint. Le incognite maggiori riguardano evidentemente i client mobili. Un’ipotesi plausibile vede la crescita della sicurezza gestita da servizi esterni: la progressiva diffusione di larga banda e del concetto di always on, può favorire la centralizzazione dei controlli di sicurezza. Un ulteriore elemento a supporto di questa visione viene dall’affermazione della virtualizzazione, in grado di abilitare il cosiddetto cloud computing. Bisognerà lavorare perché siano “nuvole” sicure. Le soluzioni per controllare chi vuole entrare in rete Uno dei primi problemi che si sono poste le soluzioni per la sicurezza su Internet è stato proprio il controllo degli accessi. Anzi, prima ancora, ci si è posti il problema degli accessi alla rete aziendale, per il quale sono stati sviluppati protocolli di autenticazione, di cui 68 La sicurezza e la continuità del business brevemente si accennerà più avanti. È stato però subito evidente che dalla Rete potevano arrivare sul sistema e sul Web aziendale dei malintenzionati. Inizialmente, si temeva più che creassero danni per gioco, mentre oggi si sa che vogliono colpire in maniera mirata. Sono nati i firewall, che si preoccupavano di “chiudere” alcune porte della rete, permettendo il passaggio solo di “traffico giusto”. Ben presto, il traffico “cattivo” ha imparato a mascherarsi e i firewall a farsi più furbi e a intensificare i controlli. L’escalation tra tecniche d’intrusione e sistemi per rilevarle e bloccarle è storia. Non che la rincorsa non continui ancora, ma i modi di fronteggiarsi tra “smanettoni” buoni e “smanettoni” cattivi (tra hacker “ethical” e hacker “evil”) ha cambiato i ritmi: da entrambe le parti si adottano sistemi più automatici. Il NAC nasce dalla consapevolezza che qualsiasi connessione chiede alla rete aziendale di entrare, potrebbe trattarsi di traffico maligno. Qualunque utente e qualsiasi sistema dovesse chiedere accesso alla rete, è necessario controllare chi sia e cosa vuole fare. Si abbandona, pertanto, il concetto di perimetro, perché lo stesso ha assunto contorni “nebbiosi”, ma anche se adesso la connessione può avvenire praticamente in qualsiasi punto (si pensi al partner che chiede di collegarsi da un indirizzo interno, perché si è attaccato alla porta di una sala riunioni), avrà comunque un capo e una coda: una transazione o un’operazione da compiere e sarà riconducibile a una macchina. Questa macchina rappresenterà dunque l’elemento da controllare. Uno dei noccioli della questione è che nelle reti informatiche, i punti terminali sono da sempre un pregiato oggetto di attacco. Oggi più che in passato, perché molte delle tecniche emergenti, oltre a tentare di sfruttare l’ignoranza o la disattenzione dell’utilizzatore, sono state sviluppate proprio per agganciare un “endpoint” e usarlo come chiave d’accesso al sistema aziendale. Il tutto all’oscuro del proprietario del “mezzo”, cui si cerca di dare meno fastidio possibile. Per questo, l’approccio al controllo degli accessi è profondamente cambiato nel giro di pochi anni e, se in passato appariva sufficiente controllare l’identità di chi chiedeva l’accesso, oggi risulta sempre più importante verificare anche le condizioni del sistema utilizzato per il 69 La sicurezza e la continuità del business collegamento. In altre parole è opportuno capire se il computer con cui un utente si vuole connettere è dotato di quei requisiti di sicurezza che si ritengono necessari. Questo controllo è importante tanto per il pc dell’utente occasionale (il partner, il fornitore, il cliente) quanto, anzi di più, per quello del dipendente. Non è più pensabile affidarsi alle policy aziendali, che vengono sistematicamente disattese (troppi utenti, per esempio, disattivano l’antivirus o la suite di sicurezza perché rallenta troppo le applicazioni, ancora oggi che le soluzioni sono decisamente più performanti di un tempo). Non è caso che negli anni si è assistito a un proliferare delle caratteristiche di “enforcement” all’interno delle soluzioni per la protezione del pc: questi sono necessari per obbligare l’utente a mantenere adeguato il livello di sicurezza della propria macchina. La probabilità dell’attacco e la rapidità dello stesso, infatti, non consentono di avere un pc “scoperto”. Le soluzioni NAC sono quelle che più di altre sembrano aver risolto (o quantomeno mitigato) il problema del fattore umano. L’errore dell’utente, dolente o nolente, è statisticamente tra le principali cause di problemi per la sicurezza ed è ovvio che i malintenzionati cercheranno sempre di approfittarne. Per quanto importante e utile sia diffondere una certa cultura in azienda, è evidente che l’adozione di automatismi riduce il rischio connesso al fattore umano. La sicurezza del terminale è diventata però cruciale con la diffusione di minacce “nascoste”, che si annidano sul terminale per poi trasferirsi all’interno del sistema aziendale una volta che il pc si connette alla rete. Anche senza dolo, l’utilizzatore potrebbe essere il punto debole attraverso il quale viene sferrato un attacco. Il problema ha assunto un ulteriore carattere d’urgenza, con il proliferare di sistemi portatili, spesso impiegati anche per attività personali e frequentemente collegati a reti e sistemi di terze parti, sulla cui sicurezza l’azienda non può avere controllo. Ma anche perché è sempre più necessario e frequente far entrare anche utenti “occasionali”, come partner e fornitori. La risposta alle problematiche su esposte viene fornita dai sistemi cosiddetti NAC o di Network Access Control. Dietro questa generica denominazione, in passato già impiegata per descrivere protocolli 70 La sicurezza e la continuità del business come l’IEEE 802.1x per l’autenticazione alla rete, si trovano molte soluzioni, anche parecchio differenti tra loro. Di fatto, l’elemento comune è lo scopo: impedire l’accesso alla rete ai dispositivi non conformi ai requisiti di sicurezza prevista dalle politiche aziendali. Le caratteristiche principali che un sistema NAC dovrebbe possedere sono tre: controllo, quarantena, remediation. In pratica, quando una macchina chiede accesso alla rete, mentre vengono verificate le credenziali dell’utilizzatore per procedere all’usuale authentication e authorization, un sistema di monitoraggio si preoccupa di controllare la presenza e lo stato di aggiornamento delle soluzioni per la sicurezza, secondo criteri predefiniti. Effettuato il controllo di conformità si aprono due possibili scenari: nel caso fosse tutto a posto, evidentemente viene concesso l’accesso con i privilegi che a ogni utilizzatore sono stati pre-assegnati. Se, invece, si presenta un problema l’accesso viene negato e la richiesta parcheggiata in quarantena. A questo punto si può attivare la fase di remediation, che tipicamente “corregge” il problema, per esempio, effettuando l’update dell’antivirus, e ripete il controllo con l’obiettivo di arrivare a concedere l’accesso. Le funzioni caratterizzanti Come accennato, le differenze tra le diverse soluzioni in commercio sono notevoli. Innanzitutto, esiste una prima distinzione tra le soluzioni che impongono l’installazione di un agente sul client e quelle che operano attraverso plug-in temporanei o altri meccanismi agentless. Ci sono pro e contro in entrambi gli approcci e sta a ciascun’impresa valutare la scelta più opportuna per le proprie esigenze. Un altro aspetto di base riguarda la tecnologia d’ispezione in sé, che tipicamente richiede versioni compatibili delle soluzioni adottate. In particolare, accade che alcuni software di protezione gratuitamente disponibili online possano non essere riconosciuti dal motore NAC. In generale, comunque, anche i principali vendor tendono ad allungare il più possibile l’elenco di prodotti compatibili per aumentare l’applicabilità della propria soluzione. Meno significativo può essere il metodo utilizzato per la quarantena, a patto, ovviamente che sia efficace. In generale, può essere usata la 71 La sicurezza e la continuità del business porta dello switch oppure il server DHCP o, ancora, un’integrazione dei due. Un elemento di differenziazione è il modo in cui viene notificata la quarantena all’utente e il modo in cui questa può essere personalizzata. L’ideale è avere l’estrema flessibilità di adottare stili diversi a seconda dei casi: se, in particolare, quello che viene rilevato è, di fatto, un tentativo d’intrusione potrebbe addirittura essere opportuno non notificare affatto la quarantena e deviare il malintenzionato verso un honey-pot. È evidente che qui si presuppone la possibilità d’integrazione con altri sistemi, oltre al NAC. Laddove si registrano ulteriori differenze, che è bene valutare attentamente in fase di scelta, è nel cosiddetto processo di remediation, cioè nella fase in cui è necessario intervenire sul client per apportare le modifiche necessarie a conferirgli la “patente” di conformità. Chiaramente, è opportuno poter distinguere tra le tipologie di utente. Un dipendente che è soggetto alle policy aziendali dovrà passivamente accettare tutte le modifiche necessarie, ma sul computer di un ospite sarà quasi certamente impossibile intervenire. In questi casi, la stessa quarantena è inadeguata, perché o si nega del tutto l’accesso o si confina il “guest” in una DMZ, fornendogli minimi privilegi e, in genere, solo l’uscita verso Internet. Sono molte le soluzioni giunte sul mercato, con sostanziali differenze di approccio, ma in molti casi si tratta di sistemi “tradizionali”, che effettuano il controllo degli accessi senza però garantire le flessibilità necessarie per “gestire” l’accesso e difficilmente integrandosi con i sistemi di identity e access management. La scelta può dunque essere difficile, ma, a parte le valutazioni sull’affidabilità del fornitore è impossibile dare indicazioni generiche senza calarle nel contesto in cui opera ciascuna azienda. I livelli di protezione del firewall I firewall rappresentano, insieme agli antivirus, la soluzione di sicurezza più nota e diffusa. Troppo spesso, anzi, costituiscono l’unica protezione aziendale, mentre è sempre più necessario adottare un approccio più ampio e integrato, che parta da un’analisi dei rischi e 72 La sicurezza e la continuità del business delle esigenze aziendali per disegnare un’architettura completa e definire le corrette e opportune politiche di sicurezza. Ciononostante, a meno che la propria rete aziendale non sia totalmente isolata e non connessa a nessuna rete pubblica o privata esterna, il firewall è il primo indispensabile elemento di sicurezza da attivare. La questione, pertanto, non è se esso sia utile o meno, ma, piuttosto, quale firewall possa essere più opportuno, trovando un giusto equilibrio tra le caratteristiche e le funzioni atte a garantire il richiesto livello di protezione dell’azienda e i costi di ownership dello stesso. Senza trascurare in questo le problematiche della gestione. Anche il più economico dei firewall permette, in ogni caso, di proteggere la propria rete dagli attacchi più o meno casuali di hacker improvvisati. Una categoria, quest’ultima, che è cresciuta notevolmente con l’aumentare della disponibilità on-line di tool automatici di hacking. Per molte imprese, questi non rappresentano un grande pericolo, poiché le informazioni che potrebbero rubare probabilmente non sarebbero loro di alcuna utilità. Rappresentano in ogni caso una minaccia in quanto, banalmente, potrebbero causare danni anche involontari, spostando o duplicando file o cancellandoli. Anche il tempo necessario a ripristinare dati di cui, fortunatamente o volutamente, è disponibile un backup aggiornato, costituisce ovviamente un impegno economico. Si osservi, inoltre, che, nel caso in cui informazioni sensibili su clienti, partner o impiegati dovessero venire rubate e/o divulgate, il soggetto interessato potrebbe, in virtù delle leggi esistenti sulla privacy, intentare una causa all’azienda. Senza contare, infine, le situazioni in cui le informazioni sottratte costituiscono una proprietà intellettuale alla base della competitività aziendale. Nessuna azienda, di fatto, si può considerare sicura al 100%, né immune da rischi. Con il rischio, dunque, si deve imparare a convivere, adottando le opportune misure per ridurlo a un grado tollerabile. In questo, il firewall svolge una funzione di barriera protettiva all’ingresso, fornendo un primo livello di protezione, ma le attuali soluzioni presenti in commercio, in realtà, offrono molte 73 La sicurezza e la continuità del business funzionalità “aggiuntive”. Di fatto, il firewall è diventato uno strumento molto potente che arriva a fornire più livelli di protezione. Nei successivi paragrafi, sono esaminati i principali tipi di firewall e le loro caratteristiche, ed analizzate alcune tra le funzionalità distintive, in genere opzionali, che risultano più diffuse e utili in un contesto di sicurezza. Si possono dare diverse definizioni di un firewall, ma di base è un sistema utilizzato per la protezione di una rete di cui ci si può fidare da una di cui non ci si può fidare. Con un linguaggio più “esperto”, si può affermare che un firewall realizza una politica di controllo degli accessi tra due reti: tipicamente la rete aziendale e Internet. O, ancora, in altri termini, il firewall stabilisce a quali servizi interni all’azienda è possibile accedere dall’esterno e viceversa. Il firewall filtra il traffico tra una rete esterna e quella interna all’azienda Di fatto, data questa definizione, le funzioni base di un firewall sono due: una serve a bloccare il traffico, l’altra a lasciarlo passare. Esistono diverse modalità con cui questo può essere ottenuto ma quello che emerge è che un firewall rappresenta un unico punto in cui è possibile imporre dei controlli di sicurezza e un auditing di rete. Il network manager può ottenere dati sul tipo di traffico e sulla quantità dello stesso che ha attraverso tale punto, quindi che è entrato e uscito dalla rete. Può essere informato di quanti tentativi di ingresso non autorizzato sono stati effettuati e così via. A questo proposito, le capacità di reportistica di un firewall costituiscono una caratteristica fondamentale, che è opportuno considerare in tutti gli aspetti correlati. Nel caso questo sistema rappresenti l’unica barriera protettiva, è ovvio che le statistiche e i dati, quali quelli menzionati, 74 La sicurezza e la continuità del business devono essere i più dettagliati e accurati possibile, perché rappresentano forse l’unico strumento di supporto alle decisioni del security/network manager in materia di policy da implementare. Una corretta valutazione dei rischi, in questi casi, può realizzarsi solo con uno strumento che fornisca le informazioni opportune. D’altro canto, è importante che tali informazioni siano anche intelligibili. Per questo è necessario che siano organizzate o organizzabili secondo viste idonee a comprendere la situazione e a prendere le decisioni che meglio sposino le policy di sicurezza con i rischi e le esigenze di business dell’impresa. Nel caso, invece, di firewall parte di un sistema di sicurezza completo e integrato o, in ogni modo, nel caso in cui sia prevista un’interazione del firewall con altre applicazioni di security, allora risulta fondamentale valutare non solo l’effettiva interoperabilità degli strumenti, ma anche l’interfacciamento delle applicazioni stesse. In altre parole, assume un’importanza basilare l’esistenza di “connettori” tra i diversi sistemi. Si consideri, per esempio, un sistema di intrusion detection che abbia rilevato un’attività scorretta sulla rete. In un sistema completo ed efficiente, tale IDS dovrà o direttamente bloccare l’attività in questione o interagire con il firewall affinché sia lui a inibire il traffico relativo. In ogni caso, l’IDS dovrà comunicare con il firewall per eventualmente modificare in automatico determinate policy di sicurezza. Allo stesso modo dovrebbe essere il firewall a segnalare anomalie all’altra applicazione. Può essere l’intrusion detection system, ma un discorso analogo si può fare per un antivirus. Si consideri, ad esempio in un contesto di minacce effettuate tramite Internet, che i cosiddetti attacchi assumono sempre più una connotazione mista. Storicamente, le funzioni di base di un firewall sono riassumibili in: filtraggio del traffico entrante e uscente e traduzione/occultamento degli indirizzi Internet o NAT (Network Address Translation). 75 La sicurezza e la continuità del business Le tipologie di firewall Esistono tre tipologie di firewall che sono riconosciute dall’ICSA (International Computer Security Association): packet filtering, proxy server e stateful packet inspection firewall. Packet filtering firewall I packet filtering firewall sono quelli più semplici e normalmente vengono integrati in router, modem a banda larga, switch o altri dispositivi di tipo server appliance (quali traffic shaper, load balancer e così via). In effetti, sono semplici da realizzare, richiedono un impegno ridotto della CPU e causano un modesto overhead della memoria. Il meccanismo prevede l’analisi di un pacchetto alla volta, senza conservare informazioni sui pacchetti precedenti. Ognuno di essi, singolarmente, viene messo a confronto con un insieme di regole. In generale, tali regole sono basate su indirizzo e numero della porta della sorgente o della destinazione. Alcuni packet filtering firewall si spingono a osservare le flag TCP, come i pacchetti SYN, ma spesso con funzionalità non completamente automatiche che ne impediscono una reale implementazione. Di fatto, si tratta di un’analisi statica dei pacchetti, che può essere utile per un’immediata scrematura di alcuni tipi di traffico molto specifico, quale, per esempio, quello SNMP o NetBIOS, che può sottintendere azioni di management. Se non è prevista una gestione da remoto, questo tipo di traffico non è normale che debba attraversare un firewall. Questa tipologia di filtraggio dei pacchetti presenta alcune debolezze significative in termini di sicurezza. In particolare, sono vulnerabili all’IP spoofing, non possono osservare una sequenza di numeri TCP e, quella che è probabilmente la cosa peggiore, non possono generalmente determinare se la connessione è stata realizzata dall’interno o dall’esterno della rete. Per esempio, qualcuno dall’esterno potrebbe mandare dei pacchetti su una porta del firewall comunemente aperta (come la 53 per il DNS o l’80 per l’HTTP) ed effettuare una scansione dell’intera rete interna. 76 La sicurezza e la continuità del business Proxy server firewall I firewall di tipo proxy sono spesso considerati quelli più sicuri, ma certamente sono anche quelli più intrinsecamente lenti. Ci sono due tipi di proxy firewall: quelli cosiddetti generici e gli application specific (o anche application level) proxy firewall. Quelli generici, tipicamente, proteggono contro attacchi IP, quali la frammentazione o lo spoofing, ma non possono fare molto rispetto agli attacchi di protocollo. Il proxy si pone tra client e server, che non vengono così ad avere una connessione diretta, e agisce da client per il server e viceversa. Gli application level proxy firewall, invece, possono ispezionare il traffico per protocollo (per esempio HTTP o SMTP). Così facendo possono controllare la validità di alcune destinazioni (per esempio, confrontando le richieste con un elenco di HTTP autorizzati nelle connessioni al Web) e cercare di rilevare gli exploit, come i buffer overflow. Non tutti gli application proxy firewall sono uguali: anche se alcuni portano l’analisi fino al Layer 7 della pila OSI, tipicamente essi operano solo a livello di protocollo. Se il proxy controlla solo la sintassi di protocollo, allora non può essere in grado di bloccare pacchetti i cui il campo dati fosse distruttivo. Molti proxy firewall, inoltre, sono dedicati e supportano solo alcuni specifici protocolli. Ogni applicazione nuova che si volesse controllare richiede l’installazione e la configurazione di un nuovo application proxy. I proxy server preposti a facilitare il traffico da e per Internet, inoltre, potrebbero richiedere una riconfigurazione dei parametri di rete per ogni nuova installazione di application proxy. Ne deriva un impegno amministrativo non indifferente. Per questo, spesso gli application specific proxy firewall vengono implementati solo per controllare alcuni tipi di traffico specifici (tipicamente, flussi HTTP e FTP), mentre la barriera d’ingresso viene realizzata con uno stateful packet inspection firewall. Stateful packet inspection firewall Gli stateful packet inspection firewall, anche riferiti come dynamic packet filtering firewall, effettuano appunto un filtraggio dinamico 77 La sicurezza e la continuità del business dei pacchetti. Questo consiste in un filtraggio a livello di rete che, a differenza del filtraggio dei pacchetti statico (che, va ricordato, esamina un pacchetto per volta basandosi sulle informazioni contenute nel suo header), effettua il tracking di ogni singola connessione, verificandone la validità. I firewall stateful inspection, infatti, operando a livello di applicazione, ispezionano anche il contenuto del pacchetto e non solamente le informazioni relative all’origine e alla destinazione. Essi, inoltre, conservano una tabella che contiene le informazioni di stato di ogni connessione e, quindi, possono controllare quando una connessione è iniziata e finita, così come se ha uno svolgimento regolare. Alcuni esempi di informazioni relative a stato e contesto di una connessione che dovrebbero essere analizzate e memorizzate da un firewall che realizza un’ispezione stateful sono: • Informazioni contenute nell’header del pacchetto (indirizzo di sorgente e destinazione, protocollo, numero di porta di sorgente e destinazione, lunghezza del pacchetto). • Informazioni di stato della connessione (quale porta è stata aperta per quale connessione). • Dati TCP e sulla frammentazione IP (per esempio, il sequence number o il fragment number). • Tipo di applicazione (per esempio a quale sessione appartiene il pacchetto, per verificare che il contenuto sia conforme al contesto). • Interfaccia di ingresso e uscita dal firewall con riferimento a data e ora del passaggio. • Informazioni di Layer 2 (come l’identificativo di una VLAN). Grazie a questo filtraggio accurato, a differenza, come accennato, dei semplici packet filtering firewall, quelli di tipo stateful inspection possono proteggere la rete da connessioni con pacchetti non appartenenti alla sequenza e dall’IP spoofing. Lo spoofing è una tecnica adoperata dagli hacker per mascherare il proprio indirizzo IP. Spesso, sostituiscono il proprio indirizzo sorgente con uno appartenente alla rete privata dell’azienda che vogliono attaccare. In questo modo, non viene riconosciuto dal 78 La sicurezza e la continuità del business semplice packet filtering, per il quale, l’indirizzo è autorizzato a passare, ma viene invece rilevata un’anomalia dalla stateful packet inspection, poiché il pacchetto proviene dall’esterno, pur risultando generato all’interno. Un attacker non può neanche tentare di far passare pacchetti facendoli apparire appartenenti a una connessione esistente, perché ne viene verificata la consistenza con il resto della connessione (in taluni casi, come detto, anche esaminando i payload dei pacchetti). Nel caso non fossero del tutto previste connessioni TCP provenienti dall’esterno, si possono definire regole che bloccano tutte le richieste SYN, limitando se non eliminando il rischio di scansione della rete dall’esterno. I firewall stateful packet inspection richiedono, per operare, una grande quantità di memoria e un grande impegno della CPU. Il che può porre problemi in termini di scalabilità. Non basta guardare, dunque, le prestazioni in termini di throughput, ma bisogna verificare queste performance in condizioni di intenso traffico. Le caratteristiche del filtering dinamico, però, consentono di implementare molte funzionalità a livello hardware, così come di accelerare le analisi con architetture dedicate. Non è un caso, quindi, che molti firewall di questo tipo siano disponibili preinstallati su apposite appliance di rete. La sicurezza dei dati con le VPN In parallelo alla diffusione del protocollo IP, proposto come infrastruttura di trasporto multiservizio, e dell’affermazione in azienda dell’approccio VoIP e di rete convergente (e relative architetture), si è assistito alla riformulazione in chiave IP di un concetto esistente da tempo, quello delle reti private virtuali, sia ritagliate all’interno di una rete di backbone di un carrier sia fornite da service provider specializzati. Anche in questo caso, l’utilizzo di un concetto noto in un contesto di servizi e di protocolli innovativi porta inevitabilmente a esaminare i problemi connessi all’utilizzo di una VPN come substrato per le comunicazioni aziendali e agli standard che si sono consolidati per una trasmissione sicura delle informazioni su un tale substrato. 79 La sicurezza e la continuità del business L’affermazione delle IP VPN, in realtà, è legata al presupposto di realizzazione a basso costo di una rete privata che sfrutti la “gratuità” di Internet. Con IP e VPN viene a svanire la modalità di sviluppo differenziato tra applicazioni LAN e WAN, sostituita da un approccio che considera come base il mondo Internet in un contesto end-to-end di accesso remoto tramite VPN, Web come architettura di base e una comunicazione (email e fax) sempre più in formato elettronico e sempre meno cartacea. Considerazione analoga si applica al campo della sicurezza. Una VPN utilizza un’infrastruttura condivisa per la connessione delle sedi aziendali Una VPN è virtualmente privata, proprio perché utilizza infrastrutture di rete condivise anche da altri utenti. Internet, poi, è una classica rete "aperta", quindi, in linea di massima, aperta lo è anche una VPN. Per questo è necessario che siano implementati opportuni criteri sia da parte del fornitore sia dell’utilizzatore della VPN stessa. I dati immessi in rete nel punto di origine, per arrivare al punto di destinazione, attraversano nodi appartenenti a sottoreti diverse, che assicurano come funzione di base la commutazione o routing dei pacchetti IP verso il nodo di destinazione. Proprio questa "multiproprietà" apre la strada ad attacchi dall'esterno che possono 80 La sicurezza e la continuità del business avere impatti fortemente negativi sugli utilizzatori. La sicurezza necessariamente connessa a buona parte delle applicazioni che possono basarsi su Internet ha fatto, quindi, emergere quello della protezione dei dati come uno degli aspetti di base nello sviluppo di reti private virtuali ritagliate su backbone IP. In sostanza, chi si appresta a utilizzare una VPN, ha la necessità di essere protetto dall'accesso ai suoi dati da parte di persone non autorizzate. Come dato di fatto, esistono oggi risposte concrete a queste esigenze di cui alcune sviluppate proprio per l’ambito IP, come l’IPSec (Internet Protocol Security), uno standard specifico per Internet e applicazioni di commercio elettronico su Internet. L’architettura IPSec Il protocollo che si è affermato nella comunità Internet per la realizzazione di funzioni di sicurezza è IPSec, che rappresenta uno standard di fatto per la sicurezza del livello di rete. IPSec prevede la realizzazione di due diverse modalità di protezione dei dati. La prima permette di autenticare i dati inviati, la seconda aggiunge a questo anche la cifratura degli stessi. IPSec costituisce una vera e propria architettura aperta per la realizzazione di reti sicure ed è stato sviluppato da un gruppo di lavoro dell’IETF. Il concetto di architettura aperta dipende dal fatto che nel suo ambito architetturale possono essere inseriti nuovi metodi di cifratura man mano che vengono sviluppati o che i sistemi utilizzabili per attaccare i dati si perfezionano. Le aree che sono state affrontare nella definizione del protocollo sono: • Autenticazione dei dati di origine per verificare che gli stessi siano stati inviati effettivamente dal mittente. • Protezione dal rischio che i dati possano essere intercettati e ritrasmessi in un momento successivo. • Integrità dei dati per verificare che quanto inserito nei datagrammi non sia stato alterato. • Gestione automatica delle chiavi di cifratura in modo da poter stabilire una politica di rete che non richieda continui interventi manuali. 81 La sicurezza e la continuità del business In questo ambito, i principali protocolli della suite IPSec sono tre. Il primo è denominato IP Authentication Header (AH) e si preoccupa di autenticare i dati di origine, la loro integrità e la protezione da ripetizioni abusive. Il secondo è denominato IP Encapsulating Security Payload (ESP) e si occupa della confidenzialità dei dati, dell'autenticazione del mittente e dell’integrità dei dati. Il terzo è riferito come Internet Security Association and Key Management Protocol (ISAKMP) e fornisce un metodo per realizzare automaticamente associazioni sicure e gestire le relative chiavi di cifratura. I protocolli per la sicurezza del livello di rete, quindi nello specifico l'IPSec, hanno nell'insieme la funzione di assicurare ai protocolli dei livelli superiori la protezione delle informazioni trasportate nel campo dati, riferito come payload, di un datagramma IP. IPSec e L2TP sono due protocolli fatti per lavorare assieme. Un tunnel L2TP viene realizzato incapsulando una trama L2TP all'interno di un pacchetto UDP, a sua volta incapsulato all'interno di un pacchetto IP. UDP è il protocollo del livello di trasporto, mentre IP è il protocollo di rete ed è nel pacchetto IP che sono compresi gli indirizzi della sorgente e della destinazione del pacchetto che definiscono i punti terminali di un tunnel. Essendo IP il protocollo che incapsula tutti gli altri, le funzioni previste da IPSec per il livello di rete finiscono con l'essere applicate a questo pacchetto composito e quindi proteggono i dati che fluiscono all'interno del tunnel L2TP. I protocolli per il tunneling di livello 2 rappresentano un modo per realizzare accessi remoti cost effective con il trasporto multiprotocollo e l'accesso remoto a LAN. Poiché però non forniscono funzioni di sicurezza, diventa praticamente obbligato utilizzarli in abbinamento a IPSec, qualora si voglia fornire un accesso remoto sicuro. Realizzare una VPN permette, quindi, di ottenere benefici economici notevoli, ma richiede un approccio progettuale ben preciso che deve necessariamente partire con il rendere sicuro l'accesso aziendale, individuare le tecnologie da utilizzare o il service provider a cui rivolgersi, passare attraverso una fase di definizione del Service Level 82 La sicurezza e la continuità del business Agreement e concludersi (prudenzialmente) con un adeguato impianto pilota. Autenticazione ed encryption L’architettura IPSec prevede la possibilità di inserire diversi protocolli e meccanismi di autenticazione e di crittografia, quando questi fossero disponibili. Attualmente gli standard più diffusi sono il DES e il 3DES, pur soggetti a limitazioni di esportazione da parte del governo Usa, ma circolanti pressoché liberamente sul mercato italiano. Va osservato che il loro impiego può essere indicato anche per le reti virtuali private di tipo wireless. Le tecnologie di autenticazione possono anche utilizzare elementi esterni, come i token, ma tali meccanismi rimangono esterni all’architettura VPN propriamente detta. Così come lo è il protocollo tipicamente usato nelle reti attuali per la realizzazione di una sessione sicura, cioè il Secure Socket Layer (SSL). Questo protocollo è nato per l’impiego su Internet e, in particolare, la sua diffusione è stata propagandata per la realizzazione di siti di ecommerce. Sebbene il commercio elettronico abbia avuto uno scarso successo, la sua esplosione è probabilmente solo rimandata e, in ogni caso, è destinato a diventare un canale di commercio imprescindibile. Per preparasi a integrarlo in azienda è opportuno, come è stato in parte spiegato, adeguare la propria infrastruttura a quelle caratteristiche minime che lo facilitano. Tra queste figurano anche le architetture di VPN, che probabilmente molte aziende saranno costrette a implementare, in funzione dell’estensione della propria supply chain. La sempre maggiore diffusione di router e gateway di piccole dimensioni, va anche nella direzione di favorire l’adozione di VPN da parte di piccole e medie imprese che devono collegarsi a un partner più grande o di telelavoratori, per i quali è necessario garantire e mantenere adeguate policy di sicurezza. Più complicata potrebbe essere l’implementazione di adeguate tecnologie di crittografia, senza vedere penalizzate le prestazioni dei propri sistemi. 83 La sicurezza e la continuità del business L’autenticazione con lo standard IEEE 802.1x Nato in seno al gruppo di studio per lo standard 802.1 relativo alle reti locali di tipo cablato, il protocollo 802.1x deve il suo successo applicativo soprattutto all’utilizzo come metodo di autenticazione a supporto del WEP nelle reti di tipo wireless LAN Wi-Fi. Un fenomeno che non stupisce, se confrontato con uno scenario generale che per la connessione di un utente remoto a una LAN aziendale vede sì ancora predominante l’accesso tramite rete fissa, ma registra contemporaneamente una forte accentuazione dell’interesse per una modalità di accesso wireless, che appare più confacente alla crescente mobilità degli utilizzatori. In pratica, con questa evoluzione tecnologica derivata dalla famiglia di standard IEEE 802, progressivamente interessante accessi di tipo mobile, viene a cadere l’abbinamento tra porta e utente che sino a ora era possibile fare per i livello 2 di una rete LAN. Ne consegue l’esigenza di identificare chi sta accedendo a una certa porta di rete ed è proprio in questo quadro di esigenze che si viene a calare lo standard 802.1x. Gli elementi dello standard 802.1x L’802.1x è stato sviluppato con l’obiettivo di definire un protocollo di autenticazione operante in un ambito LAN riferito come Extensible Authentication Protocol (EAP), che, per quanto concerne l’ambito LAN, è ulteriormente esteso con l’acronimo EAPOL. Come tutti gli 84 La sicurezza e la continuità del business standard, non è qualche cosa di completamente nuovo ma include studi sviluppati in precedenza e contiene molto del protocollo EAP che è stato sviluppato per l’autenticazione di utenti dial-up utilizzanti il Point-to-Point Protocol (PPP). In essenza, l’802.1x provvede a incapsulare i pacchetti EAP e definisce dei messaggi EAPOL che permettono di convogliare le informazioni che devono essere condivise relative alle chiavi di cifratura che servono per garantire la sicurezza della LAN. L’aspetto interessante è che l’EAP prescinde dal media fisico usato, Ethernet, Token Ring o wireless LAN, ed è caratterizzato da una struttura funzionale che prevede un numero limitato di elementi base costituiti da: • Richiedente: è il client software remoto che richiede l’accesso alla rete locale dell’azienda. • Autenticatore: è l’access point costituito da un server o da uno • Archivio di autenticazione: è l’authentication server RADIUS switch funzionalmente equivalente. (Remote Authentication Dial-In User Service) o similare, situato sulla rete aziendale cui l’utente remoto desidera accedere. Questi tre elementi operano congiuntamente nella fase di verifica del client e si scambiano messaggi in base a quanto previsto dal protocollo EAP ed EAPOL. La sicurezza delle connessioni wireless In un Paese che, tra quelli industrializzati, non è tra i primissimi posti per innovazione tecnologica ma al primo per diffusione di telefoni cellulari, l’interesse verso il mondo del wireless e della mobilità in generale non può che essere elevatissimo. In Italia, più che in altre nazioni, si guarda al mobile come a una delle leve per la diffusione di nuove tecnologie. Del resto, a fronte di un più difficile controllo di un parco informatico distribuito e di un’architettura dell’infrastruttura aziendale che si estende verso il wireless, le imprese hanno cominciato ad apprezzare i vantaggi dello sviluppo della mobilità, come i possibili risparmi su alcuni costi infrastrutturali (il cablaggio degli uffici, per esempio, o la riduzione delle scrivanie negli stessi) e, 85 La sicurezza e la continuità del business soprattutto, l’aumento della produttività dei cosiddetti lavoratori mobili (o mobile workers, con dizione inglese). PAN LAN (Personal Tecnologie Area (Local WAN Area (Wide Area Network) Network) Network) Bluetooth WLAN 802.11b, GSM, GPRS e 802.11a, 802.11g UMTS e HyperLAN2 Banda fino a 1 Mbps da 2 a 54 Mbps da a 384 Kbps e oltre Applicazioni Connessione 10 di Comunicazione Servizi voce e a notebook, pc e tra computer e valore aggiunto telefonini con accesso periferiche Internet a (trasmissione dati e accesso a (stampanti, Internet) tastiere, telefoni e PDA auricolari) per o anche comunicazione tra dispositivi Copertura Corta distanza Media distanza Lunga distanza Le tecnologie wireless La natura di fondo delle problematiche di security connesse con le reti e le interfacce wireless non sono molto diverse da quelle delle infrastrutture wired, cioè basate su cavi. Di fatto, si tratta di garantire la confidenzialità e l’integrità delle informazioni e l’autenticità del mittente delle stesse. In riferimento al particolare mezzo trasmissivo, invece, si determinano delle differenze. Infatti, mentre una rete cablata si ritiene sostanzialmente sicura quando non è aperta verso l’esterno, in quanto non è fisicamente semplice intercettare i dati, con una rete wireless, che impiega la trasmissione radio, è semplice captare la comunicazione. Diversi esempi si sono registrati, negli passati, in tema di intercettazione telefonica nelle comunicazioni via telefonino. Analogo 86 La sicurezza e la continuità del business il caso delle prime generazioni di apparecchi cordless per uso essenzialmente domestico, con sconosciuti che impiegavano allegramente la linea telefonica di ignari abbonati che, nel caso non avessero posseduto un terminale omologato, non potevano neanche richiedere un rimborso. Di recente, con la diffusione delle reti WLAN in azienda e la realizzazione di alcune reti pubbliche, si è assistito al curioso fenomeno di “auscultatori mobili”, cioè individui muniti di notebook e scheda wireless alla ricerca di una connessione con cui collegarsi “a scrocco” a Internet. È il fenomeno normalmente indicato con il termine di War-driving o War Chalking. Ovviamente l’obiettivo principale può apparire innocuo, ma è facile immaginare le possibili conseguenze una volta stabilita con successo una connessione su una LAN aziendale, soprattutto quando l’access point viene installato all’interno del perimetro protetto dal firewall. Sono esempi che testimoniano, da un lato, l’esistenza di problematiche peculiari di sicurezza non ancora del tutto superate (se non dagli apparati di ultima generazione), ma, soprattutto, l’importanza, ancora una volta, di un’impostazione globale dell’approccio alla sicurezza e delle politiche e procedure aziendali relative alla stessa. È fondamentale, da questo punto di vista, riconoscere che, prima delle tecnologie, anche nell’ambito wireless come in quello wired, quando si parla di sicurezza, si deve considerare il processo. In altre parole, è importante innanzitutto stabilire, con un approccio globale, quale infrastruttura di sicurezza si può e si deve implementare nella propria azienda e, successivamente, identificare le soluzioni che è necessario utilizzare per ottenere la protezione desiderata. In molti casi le vulnerabilità dell’infrastruttura wireless sono, in realtà, dovute a una mancanza da parte dell’utente che non segue una corretta strategia. La tipologia di soluzioni che servono per proteggere una connessione wireless sono dunque le stesse che si trovano applicate in ambito wired. Per prevenire l’accesso da parte di utenti non autorizzati alle risorse è necessario implementare tecniche di controllo degli accessi e di encryption. 87 La sicurezza e la continuità del business In particolare, è opportuno utilizzare un livello alquanto alto di crittografia, ricordando che il rischio di intercettazione dei dati durante la trasmissione è molto elevato. Authentication e authorization sono da implementare anche al fine di assicurare l’autenticità dei messaggi e per estendere le security policy agli utenti connessi alla rete aziendale via, per esempio, WLAN. Firewall e intrusion detection system servono per controllare gli accessi e per prevenire gli attacchi. Da questo punto di vista, è bene considerare anche l’impiego di VPN. Sul fronte della telefonia mobile, che presenta solo alcune analogie con le WLAN in termini di approccio complessivo alle problematiche della sicurezza in ambito wireless, quello che emerge sullo scenario nazionale è lo sviluppo di tecniche che salvaguardano soprattutto il servizio voce. Questo è ancora quello maggiormente utilizzato, anche se è cominciata un’inversione di tendenza, dapprima con l’avvento degli SMS e adesso degli MMS. A questo proposito, peraltro, è necessario considerare che le architetture delle reti geografiche mobili di nuova generazione dispongono di caratteristiche di sicurezza intrinseche che forniscono di per se stesse un elevato livello di protezione. Le reti private virtuali wireless I recenti sviluppi nella terminalistica portatile stanno esportando le esigenze di sicurezza in uno scenario più esteso, costituito non più dai semplici computer portatili ma da tutta una nuova gamma di apparati di dimensioni ridotte, dai telefonini dotati di funzioni dati sino agli oramai comuni palmari. Questi dispositivi e quelli in arrivo di prossima generazione abbinano funzioni di telefonia cellulare alle classiche applicazioni di ufficio e permettono di disporre di servizi di posta elettronica o di accesso a Internet, oltre che di applicazioni comuni quali quelle di office automation. In un quadro sempre più orientato alla mobilità, gli utenti che si devono connettere a una applicazione realizzano un tunnel che, nel caso del protocollo IPSec, si estende dall’interno del proprio terminale palmare sino al gateway IPSec, tramite una connessione wireless quale quella realizzabile 88 La sicurezza e la continuità del business tramite una rete di connessione mobile GSM (acronimo di Global System for Mobile Communications), GPRS (General Packet Radio Service) oppure tramite una LAN wireless. In sostanza, un tunnel VPN di tipo wireless permette all’utenza mobile di accedere in modo sicuro a servizi come quelli di mail disponibili sulla propria rete aziendale. Come per le VPN su rete fissa, le VPN per reti mobili hanno la funzione di creare delle connessioni trasparenti per quanto concerne l’accesso alle applicazioni e di tipo sicuro tra l’utilizzatore e i servizi erogati dai sistemi centrali. Essenzialmente, le caratteristiche di una VPN wireless (o Mobile VPN nella dizione anglosassone) sono concettualmente le medesime di una soluzione che preveda l’accesso remoto a un’infrastruttura VPN su rete fissa. Gli utenti mobili, dal punto di vista dell’applicazione, accedono alla rete aziendale da remoto con le stesse modalità con cui vi accedono localmente, anche se con caratteristiche di velocità che non sono necessariamente le medesime. Per disporre effettivamente di un tale livello di trasparenza però, i parametri caratteristici della rete, quali indirizzo di rete, DNS e così via, devono essere preventivamente negoziati con il client remoto. Accesso di un utente remoto alla rete aziendale tramite una rete mobile 89 La sicurezza e la continuità del business L’utente mobile avvia così una connessione IPSec verso il gateway dell’azienda e, dopo essere stato positivamente riconosciuto, può accedere alla rete aziendale e disporre dello stesso livello di sicurezza garantito all’utente che da remoto vi accede tramite una rete VPN. In questo contesto la sicurezza del terminale rappresenta uno degli aspetti più critici di un’applicazione in ambito enterprise, in quanto una VPN permette di scambiare dati sensibili tra terminale e rete aziendale. Ne consegue che tecnologie, quali quelle per la cifratura dei file, è opportuno siano attive quando dati sensibili sono memorizzati sul dispositivo mobile. Parimenti, ma su una scala di esigenza superiore rispetto a quanto avviene nella configurazione di terminali di reti fisse, anche per i terminali mobili è necessario definire a livello centrale politiche specifiche (per esempio le caratteristiche da configurare), definire certificati o definire le coppie di chiavi pubbliche/private che poi devono essere distribuite. La sicurezza del Wi-Fi Buona parte del lavoro che si sta svolgendo per aumentare la sicurezza delle reti wireless è dovuto al Wi-Fi. In qualità di alleanza di produttori, in effetti, il Wi-Fi ha un potere per certi versi maggiore di quello di un ente di standardizzazione. In ogni caso, si tratta di trovare un compromesso tra le soluzioni sviluppate e implementate dai diversi vendor e quelli che fanno riferimento a un marchio commerciale hanno senz’altro un peso non indifferente. Enti come IEEE o IETF, del resto, spesso devono svolgere un ruolo di mediatori e di organizzatori di quelle che sono le specifiche sviluppate aziendalmente. È indubbio che la Wi-Fi Alliance, i cui membri sono comunque presenti nei task group dell’IEEE, ha grandi meriti nell’affermazione delle wireless LAN. Si deve, quindi, in buona parte a tale alleanza il lavoro svolto e quello che si sta portando avanti per lo sviluppo di soluzioni di sicurezza che possano sopperire alle lacune di quanto finora realizzato. L’unica soluzione finora prevista dallo standard 802.11 rimane il WEP (Wired Equivalent Privacy). 90 La sicurezza e la continuità del business Le raccomandazioni della alleanza Wi-Fi partono comunque con il consiglio di non utilizzare mai il WEP come unico sistema di sicurezza, a causa delle vulnerabilità causate da una scorretta gestione delle chiavi. Viene poi raccomandato l’uso dello standard 802.1x, che risolve buona parte delle suddette problematicità del WEP, interessando sia gli access sia i client e consentendo una crescita flessibile. A questo va affiancato l’uso del protocollo EAP (Extensible Authentication Protocol) per l’introduzione di un sistema di autenticazione basato su password. Oltre a queste soluzioni (e a quelle in fase di studio che presto sostituiranno il WEP), esistono tutta una serie di soluzioni di sicurezza, buone anche per ambiti di applicazione diversi dal wireless, che possono essere impiegate profittevolmente per proteggere una WLAN. In particolare, l’uso di una virtual private network è caldamente consigliato per le applicazioni aziendali. L’utente mobile, in questo caso, anche quando fisicamente si trova all’interno dell’ufficio, si collegherebbe alla rete aziendale come da remoto, con tutte le protezioni del caso. Una simile soluzione consente alle WLAN di essere trattate alla stessa stregua di altre risorse aziendali, rientrando nel sistema di sicurezza complessivo che si dovesse decidere di realizzare. Le caratteristiche del WEP Il protocollo Wired Equivalent Privacy (WEP) è stato formulato, come suggerisce il nome, per fornire lo stesso grado di riservatezza di una rete cablata. Il riferimento è a quanto già osservato circa la maggior facilità di captare un segnale nell’etere. Già nella dichiarazione d’intenti, dunque, il WEP non nasce come soluzione di sicurezza end to end. In questo senso, il sistema presenta delle lacune, ma soddisfa gli scopi per il quale è nato, cioè soprattutto prevenire e proteggere da “intrusioni casuali”, strettamente correlate con la trasmissione in radiofrequenza. Infatti, le insicurezze prevedono comunque un attacco mirato, per il quale, come nelle infrastrutture cablate, è bene seguire un approccio globale alla sicurezza. 91 La sicurezza e la continuità del business Di fatto, lo standard fornisce un sistema di cifratura e autenticazione e di comunicazione crittografata tra client e access point. La prima (e al momento unica) versione delle specifiche utilizza una chiave a 40 bit oppure una da 128 bit (il supporto è opzionale, per cui non tutte le implementazioni la prevedono). La chiave è comunque di tipo statico e deve essere gestita manualmente per ciascun client e punto di accesso, rivelando immediatamente la natura della vulnerabilità. Di fatto, è impossibile modificare una chiave statica manualmente in modo da renderne inutile l’intercettazione, come avviene, invece, per le chiavi dinamiche “usa e getta”. Ma in nessun caso si può ipotizzare di applicare un “normale” ciclo di vita di una chiave che si misura in “minuti” e non certo in giorni. Inoltre, rispettivamente tutti i client e gli access point di una rete condividono la stessa chiave (che a causa dell’impegno gestionale spesso non viene mai modificata), per cui basta individuarne una per aprire le porte di tutta la rete. La semplicità del meccanismo è spiegata dalle iniziali intenzioni di realizzare un sistema che potesse adattarsi a molteplici installazioni, con lo scopo di promuovere una tecnologia allora agli inizi. Di fatto, il WEP è nato prima della ratifica definitiva dello standard 802.11, per il quale si è dimostrato poi insufficiente. Il fine primo, del resto, era crittografare le comunicazioni, in modo che non si potesse decodificarne il contenuto una volta captato il segnale radio. Per questo, il WEP adotta l’algoritmo di encryption simmetrico RC4, che è ampiamente diffuso e supportato da molte applicazioni e servizi di rete, tra cui SSL. Tale algoritmo opera a livello 2 della pila OSI. Oltre a RC4, il WEP adotta anche un meccanismo di challenge/response/challenge (CRC), crittografato all’interno del payload, per proteggere l’accesso alla rete, e un vettore di inizializzazione (Initializing Vector – IV) di soli 24 bit. Lo standard non affronta, però, le modalità con cui la chiave condivisa viene definita e, in pratica, nella maggior parte delle installazioni viene utilizzata una singola chiave condivisa tra tutte le stazioni mobili e gli access point. Quando vengono trasmessi messaggi con un inizio comune (per esempio “from” seguito da un indirizzo, per gli email) la parte iniziale del “payload” cifrato sarà uguale se viene usata 92 La sicurezza e la continuità del business la stessa chiave. La vulnerabilità del WEP è dunque legata alla dimensione limitata del vettore di inizializzazione e al fatto che la chiave resta statica. Con soli 24 bit a disposizione, infatti, il WEP alla fine si trova a dover utilizzare lo stesso IV per differenti pacchetti dati e, nel caso di grosse reti, questa ricorrenza può avvenire entro tempi di solo un’ora circa. Ne consegue la trasmissione, in intervalli di tempo breve, di frame con keystream troppo simili, che possono consentire di individuare la chiave segreta comune, conducendo alla decifrazione di qualsiasi frame 802.11 trasmesso. Il problema principale del WEP, dunque, appare essere la condivisione della chiave, perché al crescere del numero di utenti della rete, aumenta esponenzialmente la possibilità che venga trafugata, persa o abusata tale chiave. Del resto, anche se superata dall’esplosione degli attacchi virus e di altro tipo provenienti da Internet, la percentuale di violazioni alla sicurezza provenienti dall’interno dell’azienda è ancora molto alta. Peraltro, una più sicura implementazione del WEP richiederebbe un carico di lavoro manuale insostenibile in una realtà anche di medio piccole dimensioni e ovviamente impraticabile in grandi imprese. Per non parlare di applicazioni pubbliche, dove è impensabile che il client venga configurato centralmente. WPA, WPA2 e 802.11i Lo sforzo di creare uno standard in grado di fornire migliori caratteristiche di sicurezza per le reti wireless ha originato l’avvio del progetto IEEE 802.11i, uno standard indirizzato a definire funzioni di sicurezza più stringenti per le WLAN. Tuttavia l’evoluzione di questo standard è proceduta con estrema lentezza e, anche per questa ragione, la Wi-Fi Alliance nel 2002 creò il Wi-Fi Protected Access (WPA) come alternativa al WEP. Il WPA utilizza lo stesso algoritmo di cifratura del WEP (RC 4) ma adotta uno schema di gestione più forte delle chiavi implementando il Temporal Key Integrity Protocol (TKIP). Il TKIP usa un vettore di inizializzazione a 48 bit anziché a 24 bit e provvede a modificare automaticamente e in modo trasparente per l’utente, le chiavi di cifratura e il valore dell’IV, impedendo il riutilizzo dello stesso 93 La sicurezza e la continuità del business keystream. Il WPA ha costituito un subset del 802.11i, rappresentando una sorta di standard di sicurezza ad interim in attesa del suo rilascio definitivo avvenuto il luglio scorso. Con la ratifica dell’802.11i è arrivato anche il rilascio da parte della Wi-Fi Alliance della seconda versione del WPA, siglata semplicemente WPA2.. La principale differenza tra WPA e WPA2 è che quest’ultimo utilizza una tecnica di cifratura più sofisticata denominata AES (Advanced Encryption Standard), che risulta anche compatibile con i requisiti governativi di sicurezza FIPS140-2. Questo algoritmo fornisce non solo una cifratura più resistente, con capacità di negoziazione crittografica, ma anche l’uso di chiavi dinamiche, che vengono generate per ogni sessione. Tutti i prodotti certificati Wi-Fi per WPA2 sono basati sullo standard IEEE 802.11i e mantengono l’interoperabilità con quelli certificati WPA. In particolare, alcuni prodotti WPA potrebbero essere aggiornati a WPA2 mediante software, mentre altri potrebbero richiedere un cambiamento dell’hardware, a causa dell’elevata richiesta elaborativa associata al sistema di cifratura AES. La seconda versione del WPA, come la precedente, utilizza per l’autenticazione i protocolli 802.1X ed EAP (Extensible Authentication Protocol). Analogamente a quando accadeva per il WPA, inoltre, i prodotti che utilizzano la modalità WPA2 non sono in grado di supportare contemporaneamente i dispositivi WEP. Per ora, in ogni caso, il WEP resta un elemento base per i test di interoperabilità per tutti i prodotti certificati Wi-Fi. Con il tempo, la Wi-Fi Alliance ha fatto sapere che potrebbe abbandonare il WEP come requisito per la certificazione Wi-Fi. La sicurezza del sistema di fonia Se consideriamo la realtà esistente, quello che si nota è che si è in presenza di una larga parte delle reti aziendali che è ancora di tipo tradizionale e cioè con la rete di fonia e la rete dati sostanzialmente separate in termini fisici o funzionali, ognuna con le sue linee dedicate e i suoi apparati. A questa situazione di fatto, si sta sostituendo progressivamente una realtà costituita da reti convergenti che 94 La sicurezza e la continuità del business gestiscono sulle stesse infrastrutture fisiche e con i medesimi apparati nodali sia le applicazioni di fonia (voce, video, contact center e così via) sia le applicazioni dati afferenti al sistema IT. Questo però appare essere solo un passo intermedio. Il punto di arrivo è costituito da infrastrutture di comunicazione convergente che vengono a creare una realtà “federata” di reti di diversa proprietà e caratteristiche, dedite alla realizzazione di una comunicazione aperta e multimediale tra applicazioni e persone comunque distribuite a livello territoriale, di utenti fissi o mobili. L’esigenza di sicurezza già presente in una rete tradizionale, ancora più necessaria in una rete convergente, diventa, in questo contesto una condizione irrinunciabile. Le criticità di una rete convergente La sovrapposizione a una rete dati di un’applicazione voce espone le relative applicazioni (dalla semplice fonia alle applicazioni CRM più evolute) ai problemi di sicurezza già ampiamente noti per ciò che riguarda le applicazioni dati, per esempio la riservatezza delle comunicazioni, l’integrità dei dati trattati o l’impossibilità di erogare il servizio stesso. Tre sono le aree di base coinvolte nel processo volto a rendere sicura l’infrastruttura di rete: • l’infrastruttura aziendale; • le applicazioni di comunicazione interessanti la rete convergente; • gli accessi per manutenzione e servizi. Tutti elementi dove entrano in gioco sia gli aspetti funzionali degli elementi di una rete sia le loro caratteristiche in termini di flessibilità costruttiva e livello prestazionale. La difesa dell’infrastruttura aziendale può avvenire adottando un modello logico affermatosi nel tempo consistente nel realizzare più livelli concentrici di protezione, per esempio, livelli dedicati alla protezione delle risorse aziendali, al controllo dell’accesso alle risorse mediante procedure di validazione degli user, la protezione perimetrale di controllo dell’accesso alla rete aziendale e la protezione perimetrale estesa, intendendo con questo la protezione dell’accesso anche da punti esterni alla rete in senso stretto e remoti rispetto al perimetro fisico della rete. Un tale approccio logico 95 La sicurezza e la continuità del business presenta il vantaggio di permettere una razionalizzazione nella definizione della sicurezza ma, soprattutto, di permettere in fase progettuale di razionalizzare le funzioni che servono e rendere più facile e schematica la valutazione delle funzionalità comprese nella soluzione di rete proposta dai diversi fornitori presenti sul mercato. La definizione e l’identificazione del perimetro sono ovviamente gli elementi base per identificare i punti dove intervenire o dove porre gli apparati o le funzioni atte a proteggerlo. Per perimetro si intende generalmente l’insieme di tutti i circuiti di rete o i nodi che ne controllano l’accesso. In una rete convergente connessa al mondo esterno però il discorso è più ampio e finisce con il coinvolgere non solo i circuiti dati della rete convergente ma anche tutto l’insieme di circuiti commutati esterni tramite i quali si permette a una utenza remota l’accesso a servizi IT tramite il transito sui circuiti logici della rete convergente aziendale, per esempio tramite il classico modem o la rete Internet. A questo livello, la politica di protezione può basarsi sull’utilizzo di appliance di controllo dell’accesso, di firewall dipartimentali, di firewall distribuiti, nella definizione di domini riservati, ognuno con i suoi strumenti di sicurezza e nella definizione di VLAN sicure, con una attenzione particolare alle Wireless Lan. Queste ultime costituiscono uno degli elementi critici di un sistema di rete aziendale, perché gli utenti che ne fanno parte sono, per definizione, liberi di spostarsi da un’area all’altra della rete, travalicare domini (o essere abilitati in più domini) o spostarsi all’interno di aree fisiche protette al contorno ma non all’interno, per esempio i Data Center. I modi per proteggersi esistono ma richiedono che a livello di rete (e cioè nei nodi che la costituiscono) siano disponibili le relative funzionalità. Tra queste, per esempio: • la possibilità di disporre di chiavi variabili sessione per sessione e per singolo user; • la disponibilità di filtri di controllo dell’accesso; • la disponibilità di strumenti WEP o WEP 128; • la disponibilità dell’Extensible Authentication Protocol (EAP) abbinato a un livello di trasporto sicuro (Tunneled Transport Layer Security); • server di autenticazione di back-end RADIUS. 96 La sicurezza e la continuità del business Suddivisioni perimetrali di una rete e funzioni di sicurezza Se dal perimetro aziendale si passa al perimetro esteso, la metodologia tipica di protezione consiste nella realizzazione (con la relativa disponibilità della funzione sugli apparati di rete) di sessioni VPN sicure, generalmente basate sull’adozione dello standard IPSec. La disponibilità di funzioni VPN e IPSec permette di attivare e abilitare gli accessi remoti ma è però opportuno si abbini alla disponibilità di strumenti di gestione che permettano di operare non solo a livello di singolo utente ma che con un buon grado di scalabilità, idealmente dal singolo accesso SOHO sino alla fascia del carrier, dove serve per esempio, poter operare con profili per gruppi di utenti in base alle loro caratteristiche di utilizzo. La protezione della rete convergente non è però tutto. Vanno protette anche le applicazioni. Per ciò che concerne, per esempio, la telefonia, esistono già metodi classici di logging delle sessioni e di auditing che permettono di impedire intrusioni indesiderate. Discorso diverso è però con la fonia su IP, dove la conversazione viene trasformata in pacchetti e quindi soggetta alle stesse criticità di una applicazione dati. Gestire la sicurezza del VoIP in ambienti SIP Il Session Initiation Protocol (in sigla SIP) si è ormai conquistato un posto di primato come standard di segnalazione per il voice over IP 97 La sicurezza e la continuità del business (VoIP), l’IP video e la collaborazione in tempo reale. L’affermazione di questo protocollo alimenta, da parte del mercato, la richiesta della disponibilità di servizi in tempo reale di classe business e questo significa garantire la sicurezza. Le soluzioni utilizzate per proteggere applicazioni di tipo tradizionale, quali e-mail e browser Web, possono fornire una protezione solo parziale nel caso in cui vengano applicate alle applicazioni SIP. Le minacce possono comprendere attacchi di Denial of Service (DoS) che prevedono l’invio di pacchetti per sovraccaricare il servizio e impedirgli di elaborare le richieste legittime. Nel caso di un ambiente SIP gli attacchi DoS possono essere portati sia a livello di trasporto (per esempio rispetto alla connessione TCP) sia di applicazione indirizzandosi al canale di segnalazione (SIP) e a quello media (RTP). Altre minacce provengono dalla possibilità di intercettazione, dato che la maggior parte del traffico VoIP viene trasmesso senza prevedere alcun tipo di cifratura, dallo spoofing (in cui una persona o un programma si maschera per sembrare quello che non è), dal furto di servizio in cui si usufruisce di un servizio evitando di pagare il corrispettivo dovuto. Altre vulnerabilità riguardano gli attacchi indirizzati a compromettere l’integrità della comunicazione, intercettando in tempo reale i pacchetti e modificandoli in vario modo. Non da ultimo vanno ricordati i virus che possono compromettere la configurazione dei telefoni VoIP e danneggiare i server VoIP che, per la maggior parte, poggiano su sistemi operativi comuni. Tutti questi tipi di minacce sono caratteristici dei servizi basati su IP e non specifici del protocollo SIP. Tuttavia esistono almeno due caratteristiche specifiche di questo protocollo che rendono particolarmente complesso garantirne la sicurezza. La prima è che i servizi VoIP e quelli in tempo reale sono molto più sensibili alla latenza, ai fenomeni di jitter e alla perdita di pacchetti rispetto ad altre applicazioni IP. Se un ritardo di qualche secondo può non essere avvertito in applicazioni di e-mail o Web browsing, nel caso del VoIP anche un piccolo ritardo distrugge la qualità della chiamata. I meccanismi di sicurezza possono addirittura incrementare il rischio di ottenere prestazioni non accettabili poiché introducono un ritardo nel flusso di pacchetti: tanto maggiore il livello di sicurezza 98 La sicurezza e la continuità del business tanto maggiore il ritardo introdotto. La seconda caratteristica è la natura dell’architettura a doppio percorso del SIP. A differenza della maggior parte delle applicazioni in cui il traffico per il controllo e quello dei dati condividono un singolo protocollo (per esempio HTTP per il Web o SMTP per l’e-mail) e un singolo percorso di rete end-toend, le applicazioni SIP coinvolgono almeno due percorsi e due protocolli (il SIP per la segnalazione e RTP per il media). Per queste ragioni, le soluzioni di sicurezza per gli ambienti SIP devono mantenere una visione coordinata di entrambi i flussi di traffico. Inoltre, va ricordato che le soluzioni che difendono il VoIP e le altre applicazioni da attacchi che operano a basso livello non fermano gli attacchi a livello applicativo mentre, parallelamente, le misure che intervengono a livello di applicazione che sono in grado di proteggere protocolli quali HTTP e SMTP sono irrilevanti per il VoIP. 99 La sicurezza e la continuità del business 5 - Gestione delle minacce e data protection È pratica consueta riferirsi all’insieme delle tecniche di autenticazione, autorizzazione e accounting come alle “3A”. Il motivo di questo accostamento non risiede semplicemente nella condivisione della lettera iniziale, nonostante il forte gusto statunitense per il gioco degli acronimi, ma piuttosto nel ruolo coordinato e sinergico che questi tre aspetti della sicurezza IT rivestono all’interno del processo di protezione dei dati e dei servizi aziendali. Questi concetti riassumono le procedure e le funzioni necessarie per lo svolgimento di molti dei processi di sicurezza che avvengono sul Web. In un contesto di accesso geograficamente distribuito alle risorse informatiche è indispensabile, infatti, trovare dei metodi e delle regole in grado di garantire e proteggere il corretto svolgimento delle operazioni tra le parti che scambiano informazioni. Le 3A sovrintendono proprio a questo tipo di funzioni. Più in particolare l’autenticazione è il processo per garantire in modo univoco l’identità di chi si appresta ad accedere alle risorse, l’autorizzazione definisce i privilegi di cui dispone questo utente, mentre l’accounting si riferisce all’analisi e alla registrazione sistematica delle transazioni associate a un’attività di business sul Web. La sicurezza di questi processi viene assicurata da una serie di tecnologie e procedure che si appoggiano su protocolli e standard e che costituiscono l’argomento di questo capitolo. Implementare un sistema di autenticazione I trend che alimentano il mercato delle tecnologie di autenticazione sono molteplici. Innanzitutto va considerata la continua espansione dell’accessibilità alle informazioni, legata alle nuove categorie di lavoratori mobili e da remoto nonché alla progressiva apertura del 100 La sicurezza e la continuità del business network delle grandi aziende verso partner e clienti. Inoltre cresce il numero di informazioni critiche e, conseguentemente, delle misure necessarie per controllare il loro accesso. A questi va aggiunta quella che si potrebbe definire come la “crisi delle password” ormai definitivamente abbandonate da tutti i principali fornitori di tecnologie in cerca di soluzioni più affidabili e meglio gestibili. A controbilanciare questi argomenti concorrono aspetti quali i lunghi tempi di implementazione (trattandosi spesso di soluzioni che coinvolgono un grandissimo numero di utenti), i costi associati alla realizzazione di infrastrutture dedicate, ma anche la giustificazione dell’investimento rispetto ad altri ambiti tecnologici e di business, in un momento in cui i budget scarseggiano. Resta in ogni caso il dilemma della scelta del sistema e della tecnologia da adottare tra i molti possibili e disponibili sul mercato, che variano dall’adozione di certificati digitali, alle smart card, ai token di vario tipo, alle credenziali virtuali o alle password, fino ad arrivare ai sistemi biometrici. La risposta a quest’esigenza risiede nella valutazione di una serie di motivazioni che devono tenere in considerazione gli aspetti specifici di ogni azienda e dei suoi processi di business. Come sempre non esistono ricette uniche ma, di seguito, cercheremo di fornire alcuni spunti metodologici per orientarsi meglio in questo processo decisionale. Il primo e fondamentale punto è quello di riconoscere che l’individuazione di una soluzione di autenticazione rappresenta un compromesso tra costi, sicurezza e praticità d’uso e che, pertanto, ogni decisione in merito dovrebbe essere presa come risultato di un’analisi di questi tre aspetti. La cosa è complicata dal fatto che si tratta di parametri generalmente antagonisti fra loro: incrementare il livello di sicurezza determina costi proporzionalmente crescenti e una riduzione della flessibilità e semplicità d’uso perchè richiede l’adozione di strumenti, procedure e tecnologie. Un approccio metodologico dovrebbe partire da una metrica correlata a tali aspetti, inizialmente da un punto di vista qualitativo delle implicazioni e, se possibile, successivamente 101 anche di tipo La sicurezza e la continuità del business quantitativo. Per esempio è possibile individuare tutti gli aspetti significativi e correlarli attribuendo loro un indice numerico. Anche se a qualcuno potrebbe sembrare un esercizio un po’ accademico, l’adozione di una metodologia di questo tipo (o di altro analogo) permette di chiarirsi le idee su domande di difficile risposta quali: di quanta sicurezza ho effettivamente bisogno? Non da ultimo, permette di facilitare la comprensione di determinate scelte tecnologiche anche da parte di chi mastica più il linguaggio del budget che quello tecnologico. Affrontare l’aspetto dei costi significa, ovviamente, considerare il Total Cost of Ownership della soluzione, che comprende non solo i costi di acquisizione, ma anche e soprattutto quelli di deployment e operativi, che vanno associati alle tecnologie, al personale, ai processi e alla struttura. Eseguire un’analisi degli aspetti di sicurezza e praticità è, invece, il risultato di una valutazione strategica difficilmente ingabbiabile in regole. Tuttavia è possibile almeno separare gli aspetti legati al valore di una soluzione di autenticazione rispetto agli utenti e all’azienda. La praticità e la semplicità d’uso, per esempio, dipendono, in generale, dalla tipologia di utenti che si stanno considerando e cambiano a secondo che si tratti di partner, dipendenti o clienti. Accanto alla complessità di apprendimento va considerata anche la praticità di utilizzo, che può inibire il suo impiego. Anche gli aspetti legati alla trasportabilità della soluzione di autenticazione (indice importante della sua flessibilità) possono essere sensibilmente differenti in funzione della tipologia di utente e sono spesso legati a doppio filo con i costi. Per esempio, l’adozione di soluzioni che richiedono la presenza di un software sul lato client possono limitare l’accessibilità da aree esterne quali le filiali aziendali, un hotel o un chiosco pubblico. Un altro esempio può essere quello di soluzioni di autenticazione che sfruttano dispositivi mobili e che possono essere condizionate dall’area di copertura del servizio. Un ulteriore valore per l’utente può essere la versatilità. A volte il sistema di autenticazione può essere costituito da un dispositivo specifico, ma in altri casi può combinare in un unico dispositivo una pluralità di funzioni: sistema 102 La sicurezza e la continuità del business di autenticazione, documento di identità dotato di foto, strumento di memorizzazione di dati e così via. Dal punto di vista della valenza strategica per l’azienda l’elemento primario da considerare è la sicurezza relativa, che deve tenere conto del livello di protezione offerto dal sistema di autenticazione, della sicurezza della sua implementazione, dall’adeguatezza a proteggere la tipologia di informazioni per cui lo si vuole utilizzare e anche della garanzia di compatibilità con la normativa. A ciò va aggiunta la possibilità di integrazione all’interno dell’infrastruttura esistente e l’interoperabilità con i sistemi di back-end. In una valutazione non va, infine, trascurata la possibilità di lasciarsi aperte opzioni per le future evoluzioni tecnologiche. La crittografia La crittografia è la scienza che si occupa di studiare e mettere a punto una serie di strumenti che hanno lo scopo di mantenere la segretezza di dati che non si intende diffondere pubblicamente, impedendo la loro divulgazione al di fuori di una schiera ristretta di persone. La crittografia rappresenta uno strumento efficace per proteggere i messaggi scambiati durante una comunicazione, sia per evitare possibili intercettazioni da parte di un intruso (minacce passive) sia per proteggere i dati da possibili modifiche (minacce attive). Da un punto di vista del business le funzioni di sicurezza garantite dalla crittografia contribuiscono in modo significativo a estendere il livello di protezione nel processo di gestione degli accessi, intervenendo nei seguenti ambiti: • Autenticazione, che assicura che il mittente e il destinatario di un messaggio siano quelli che affermano di essere; • Confidenzialità, che fa in modo che le informazioni siano accessibili solo da chi è preposto a farlo; • Integrità, garantendo la non alterazione delle informazioni da parte di persone non autorizzate; • Non ripudiabilità, impedendo a utenti di negare la paternità delle informazioni trasmesse; • Identità, verificando l’associazione tra uno specifico individuo e una risorsa o un’informazione; 103 La sicurezza e la continuità del business • Autorizzazione, che definisce i privilegi e le azioni permesse rispetto a una specifica risorsa. L’operazione che permette di celare le informazioni viene detta cifratura o criptazione e la sua operazione inversa decifrazione, mentre si distingue tra testo “in chiaro” (plain text) e “cifrato” (ciphertext) per descrivere la condizione dei dati durante le due fasi crittografiche. Le tecniche di crittografia delle informazioni utilizzano sofisticati algoritmi di tipo matematico per rendere incomprensibili i dati a un utente non autorizzato e fornire nel contempo, a chi è autorizzato a farlo, la possibilità di ricostruire le informazioni in un formato comprensibile riconvertendo il testo cifrato in testo in chiaro. Lo strumento alla base del processo di cifratura/decifrazione delle informazioni è detto chiave. I più antichi sistemi di cifratura si basavano sulla trasposizione delle lettere dell’alfabeto. La crittografia moderna si basa ancora sui sistemi di sostituzione e trasposizione, ma la sicurezza non è più affidata alla segretezza dell’algoritmo di cifratura (i sistemi di crittografia moderni sono, infatti, rilasciati con i codici sorgenti), ma a quella di una chiave esterna. L’identity management La diffusione attraverso il Web o le reti aziendali di dati ad alto valore, collegata a transazioni, all’accesso ad applicazioni e a processi di business che prevedono il trasferimento di informazioni sensibili, ha accresciuto l’importanza di possedere un’identità digitale sicura. Disporre di un’identità digitale significa possedere credenziali che consentono lo svolgimento di determinati compiti, abilitano l’accesso a informazioni e servizi e permettono l’utilizzo di determinate applicazioni. Il parallelo tra l’identità all’interno di un concetto di rete enterprise virtuale e il mondo reale è fin troppo ovvio. Appare quindi immediatamente chiaro che una specifica identità digitale deve essere associata a un unico utente; è inoltre auspicabile che uno specifico 104 La sicurezza e la continuità del business utente possa disporre di un unico set di credenziali per accedere a ogni tipo di servizio ed è altrettanto importante che un utente possa disporre delle credenziali ogni volta che gli vengano richieste. In questi processi la sicurezza rappresenta un requisito fondamentale. Resta però il fatto che, in un mondo digitale caratterizzato dalla distribuzione delle informazioni, dalla loro accessibilità virtualmente da qualsiasi terminale connesso in rete, in uno scenario di sistemi informativi eterogenei per tecnologia, protocolli e regole, gestire un’identità digitale in modo da realizzare i requisiti di sicurezza, unicità e affidabilità appena espressi, rappresenta un compito tutt’altro che banale. La prima osservazione che si può fare è che la gestione di un grande numero di persone, sistemi, policy e privilegi differenti introduce possibili cause di inefficienza, errori o compromissione della sicurezza. Si deve poi considerare il fatto che soluzioni quali, per esempio, CRM, ERP o la posta elettronica si sono spesso diffuse all’interno delle aziende in relazione a specifiche esigenze e, dunque, in modo separato le une dalle altre per quanto riguarda la gestione del loro accesso. Pertanto le informazioni relative all’identità sono spesso frammentate e distribuite attraverso molteplici sistemi. Infine ci si deve confrontare con l’esigenza, da parte di diverse funzioni aziendali (quali l’IT, la gestione delle risorse umane e la sicurezza), di mantenere un certo grado di controllo e visibilità rispetto ad alcune informazioni relative all’identità di un utente, quali il tipo di attività svolta, i privilegi di accesso o l’indirizzo di posta elettronica. L’affermazione del concetto di Identity Management e delle tecnologie a suo supporto nascono proprio da questa esigenza di gestione efficace dell’accesso e di autenticazione mediante un’identità digitale univoca. L’interesse per questa tematica è alimentato (e alimenta a sua volta) dalla presenza in formato digitale di informazioni critiche per il successo di un’azienda, dalla progressiva affermazione dei Web service come modalità di erogazione di servizi on-demand e dalla proliferazione di identità replicate. Si capisce dunque che occuparsi di identity management non significa parlare di un prodotto, ma di una serie di modalità, regole, processi 105 La sicurezza e la continuità del business che si appoggiano su tecnologie e architetture specifiche e su un’infrastruttura di supporto per la creazione, il mantenimento e l’utilizzo di identità digitali. Pertanto, un unico tool o una singola suite di strumenti non è in grado di risolvere tutti i problemi di gestione dell’identità e dell’accesso. Nella relazione che intercorre tra utente e fornitore di servizio all’interno di un processo di Identity Management, l’utente deve essere garantito in termini di sicurezza, affidabilità e tutela della privacy. Da parte sua, il fornitore dei servizi deve predisporre un sistema di autenticazione che consenta di potersi fidare dell’identità dell’utente, deve esercitare un controllo costante attraverso sistemi di gestione dell’accesso basati su regole ed effettuare un’attività continua di verifica per assicurarsi che le regole vengano applicate in modo corretto. Il primo passo è il Single Sign-On Va detto che nella sua accezione più completa, una soluzione di identity management si adatta in modo particolare alle esigenze di una grande azienda, in cui i vantaggi forniti possono essere valorizzati e bilanciare i costi di implementazione. In aziende con un grande numero di addetti, una soluzione di questo tipo permette, per esempio, di mettere immediatamente a disposizione di un nuovo impiegato tutte le risorse a cui ha necessità di accedere per il suo lavoro in modo rapido e attraverso una gestione centralizzata nonché di aggiornare o rimuovere immediatamente i criteri e i privilegi di un utente che fuoriesce dalla azienda o che cambia mansioni. Il primo passo verso la realizzazione di una soluzione di Identity Management è rappresentato dalla disponibilità di Single Sign-On (SSO) che realizza la possibilità di accedere, con un unico set di credenziali, a tutte le applicazioni e i servizi a cui si ha diritto all’interno di un dominio, nel pieno mantenimento dei criteri di sicurezza e, per quanto possibile, in modo trasparente, delegando al sistema la gestione di tutto il sistema di protezione. L'idea di base è di spostare la complessità dell'architettura di sicurezza verso il servizio di SSO, liberando così altre parti del sistema 106 La sicurezza e la continuità del business da determinati obblighi di sicurezza. Nell'architettura di SSO, tutti gli algoritmi di sicurezza vengono spostati all’interno di un server SSO che agisce da unico punto di autenticazione per un determinato dominio. Quindi un utente deve autenticarsi soltanto una volta, anche se interagisce con una molteplicità di elementi sicuri presenti all'interno dello stesso dominio. Uno schema essenziale del processo di Single Sign-On Il server SSO, che può essere anche un Web service, in un certo senso, “avvolge” l’infrastruttura di sicurezza che sovrintende alla funzione di autenticazione e autorizzazione. Nello scenario più semplice l’utente contatta il server SSO e richiede il token di autenticazione che lo identifica in quel particolare dominio. Per ottenere il token deve prima fornire le corrette credenziali di autenticazione e lo può fare in diversi modi, per esempio tramite username e password, un certificato o altri metodi. Il server SSO convalida le credenziali dell’utente utilizzando l'infrastruttura di sicurezza disponibile e quindi invia il token che l'applicazione di chiamata usa per autenticarsi rispetto ad altre applicazioni. In questo esempio, il token rappresenta semplicemente il mezzo di identificazione univoca dell'utente, valido per un certo tempo, all’interno di un determinato ambiente e non trasporta alcuna specifica informazione sull’utente stesso. Dopo che l'applicazione 107 La sicurezza e la continuità del business invocata riceve il token, lo convalida inviandolo al server SSO che provvede a effettuare i controlli necessari. La possibilità di incapsulare le funzioni di autenticazione all’interno del server SSO semplifica l’implementazione, il deployment e la manutenzione della soluzione di sicurezza ed evita a tutti i componenti del sistema distribuito di implementare singolarmente i meccanismi e le funzionalità necessarie all’autenticazione. Inoltre migliora la sicurezza poiché evita la distribuzione delle credenziali, che vengono inviate unicamente al server SSO. Nel caso in cui si stabiliscano accordi federati, l’autenticazione può essere estesa al di fuori del singolo dominio, mentre le credenziali restano all’interno di quel particolare dominio di sicurezza. Verso un modello federato di gestione dell’identità Da un punto di vista funzionale una soluzione di Identity Management prevede una fase di autenticazione attraverso un portale, un Web server o un application server. Questo deve dialogare in modo opportuno con un server di tipo amministrativo che accede al database delle identità contenente le informazioni utili per una corretta gestione dell’utente. Schema funzionale di un’infrastruttura di identity management Gestire un’identità digitale attraverso le applicazioni distribuite in Internet richiede una struttura di certificazione e una logica di gestione delle credenziali dell’utente. La tendenza che si sta affermando per affrontare tale 108 questione è di evolvere La sicurezza e la continuità del business progressivamente da un modello di tipo centralizzato verso uno di tipo federato, in cui ogni struttura contiene il controllo sui dati dei propri utenti e concorda di riconoscere come valide le credenziali dalle strutture con cui decide di federarsi. In un modello federato si stabilisce una relazione di partnership tra diverse organizzazioni; ognuna di queste mantiene il controllo delle informazioni di identità e delle preferenze dei propri utenti e concorda di riconoscere come valide le credenziali di utenti prodotte o autenticate dagli altri partner. Si crea, pertanto, un accordo di fiducia tra diversi enti (che gli anglosassoni chiamano circle of trust) che permette a un utente che dispone di credenziali ritenute valide da una struttura, di utilizzarle in modo inalterato anche per l’accesso a ogni applicazione resa disponibile dagli enti con essa federati. In altre parole, in un modello federato del mondo, l'identità della persona on line, il suo profilo personale, le configurazioni on line personalizzate, le abitudini e la storia di acquisto e le preferenze di shopping sono amministrati dagli utenti, tuttavia condivisi in modo sicuro con le organizzazioni di loro scelta. Gli utenti eliminano così lo svantaggio di accedere a siti Web, portali o servizi, rivestendo, di volta in volta, ruoli differenti (impiegato, cliente, membro di Comunità e così via) e con metodi differenti. Le aziende possono contare su un processo efficiente, sicuro, per ridurre la complessità, realizzare nuovi modelli di business e disporre di nuove opportunità. Richiede, tuttavia, tra le aziende federate, una stretta attività di collaborazione e l’adesione a “best practice” comuni. Un esempio di questo tipo è quello realizzato da Microsoft attraverso il suo programma .NET Passport. Nell’ottica di un’interazione più slegata dal singolo fornitore, si inquadra invece il lavoro di Liberty Alliance, un’organizzazione multi vendor che si propone di promuovere modalità e specifiche per l’implementazione di soluzioni di gestione dell’identità basate su un modello federato. Identity management nei servizi mobili La diffusione della tecnologia wireless, la disponibilità di nuovi dispositivi trasportabili e miniaturizzati, caratterizzati da schermi a colori e prestazioni elevate, lascia prevedere un prossimo sviluppo di 109 La sicurezza e la continuità del business servizi basati sul “mobile browsing” e, di conseguenza, di sistemi di profilazione dell’utente agevoli e sicuri. Un sistema di identity management può essere utilizzato su dispositivi mobili attraverso un tradizionale client “browser based”. In questo caso il service provider che eroga il servizio non riesce però ad avere la visibilità del fornitore di identità utilizzato dal client e deve richiedere il suo inserimento in modo manuale oppure la sua scelta all’interno di una lista. Nel caso, per esempio, in cui l’accesso ai servizi avvenga all’interno dell’intranet aziendale e sia l’azienda stessa l’identity provider, questa soluzione rappresenta una scelta efficiente. Se si considera la possibilità di erogazione di servizi verso un mercato consumer allargato, è possibile utilizzare altre soluzioni. Per esempio, nel caso in cui venga utilizzata un’architettura compatibile con le specifiche messe a punto dalla Liberty Alliance, l’utente può utilizzare un Liberty Enabled Client. In queste condizioni il sistema riconosce che la richiesta di accesso al servizio proviene da un client abilitato e il service provider è in grado di richiedere l’identità direttamente al client che, a sua volta, reindirizza la richiesta all’opportuno identity provider. Il software client compatibile può essere implementato direttamente all’interno del dispositivo mobile oppure all’interno di un elemento della rete quale un HTTP Proxy o un gateway WAP. Chiaramente quest’ultima modalità permette di implementare il servizio di identity management in modo più agevole e veloce, ma in tal caso non è possibile utilizzare le connessioni sicure TLS (TLS è la più recente versione di SSL) o mantenere lo stesso profilo nei servizi di prossimità a cui si accede, per esempio, attraverso una connessione bluetooth. È anche possibile che l’uso di un browser tradizionale non sia in grado di trattare URL che diventano troppo lunghi a causa dei molteplici reindirizzamenti. Il profilo dell’utente deve risiedere, comunque, parzialmente nel dispositivo e parzialmente nella rete e quindi questi due profili devono essere sincronizzati. È solo nel network, infatti, che possono essere inclusi dati relativi alla presenza o alla localizzazione. 110 La sicurezza e la continuità del business User provisioning e identity management Nell’ambito dei servizi di directory la questione con cui devono fare i conti le aziende è quella della presenza di un insieme di directory frammentate e il consolidamento, in tal senso, rappresenta un passo importante verso la creazione di sorgenti di dati affidabili. La questione del provisioning si dovrà confrontare con una serie di aspetti di tipo “politico” e legati all’integrazione su larga scala. Sarà necessario confrontarsi con la disponibilità di soluzioni software pacchettizzate a fronte della presenza di molte applicazioni specifiche messe a punto internamente. Attualmente i sistemi di provisioning non sono interoperabili e resta l’incognita di come gestire l’identità al di fuori dei propri confini. Sul versante dell’amministrazione delle identità, se è vero che la disponibilità di tool per implementare funzioni di self-service e di amministrazione delegata rappresentano un importante supporto, è anche vero che l’amministrazione delegata è limitata in termini di scalabilità e che, di fatto, non rappresenta una risposta ai problemi, ma solo un loro trasferimento. In questo senso si dovrà attendere lo sviluppo e la diffusione dei nuovi standard per la federazione e le asserzioni di sicurezza. La gestione dell’accesso richiede poi l’utilizzo di policy sempre più efficienti e che siano, per quanto possibile, portabili. La definizione dei ruoli, sebbene sia già a un buon livello, quando richiede maggiore granularità diventa complessa e costosa da garantire. Inoltre la questione della gestione dei diritti digitali e della salvaguardia della privacy diventerà un aspetto sempre più importante e imprescindibile che introdurrà ulteriori fattori di complicazione. Un ulteriore aspetto che va affrontato è legato al fatto che la maggior parte di queste tecnologie vengono fornite da diversi vendor e si preannuncia, pertanto, una sovrapposizione di prodotti e approcci, che trasferiranno sull’utente l’inconveniente di provvedere a una corretta integrazione. Al di là di queste considerazioni, appare chiaro che il mercato si sta muovendo verso la ricerca di soluzioni di Identity Management e che vi sia una progressiva focalizzazione verso l’interoperabilità e la 111 La sicurezza e la continuità del business federazione. Tra le questioni in sospeso resta da vedere il grado di interscambio delle diverse suite e la ricettività delle soluzioni di Single Sign-On anche da parte di aziende di dimensione contenuta. Internet e i cyber-criminali Una volta c’erano gli hacker e il loro spirito goliardico. Lo stesso termine “to hack”, nato negli anni Cinquanta al MIT di Boston indicava un’innocua pratica illegale: sfidare i divieti di accesso ad aree riservate per sfruttare i tunnel sotterranei come scorciatoie tra i padiglioni del campus universitario. Uno spirito goliardico testimoniato dalle firme nascoste nel codice e lasciate per acquisire “gloria” quantomeno negli ambienti underground. Dall’iniziale obiettivo di mostrare il proprio valore penetrando in sistemi considerati inviolabili, il passaggio a un’attività criminale vera e propria non è stato breve, ma si è ormai compiuto. È così cambiato completamente il modo di approcciare la gestione delle minacce. In passato a ogni nuovo codice maligno, a ogni nuova tecnica di attacco, a ogni vulnerabilità veniva contrapposto un nuovo sistema di difesa, ma si è infine compreso che l’escalation, quando ormai si era arrivati agli “0 day attack”(la registrazione di un attacco il giorno stesso in cui veniva annunciata una vulnerabilità), avrebbe solo fatto lievitare i costi. Poi è entrata in gioco la criminalità organizzata e ha cambiato le regole: i professionisti del cyber-crime non divulgano le vulnerabilità senza averle prima averle sfruttate, mentre gli attacchi sono diventati sempre più “silenziosi” e spesso mirati. Le tecniche, ormai di tipo completamente ibrido, combinano sviluppo di codice con servizi di hacking (anche in modalità cloud) e con attività di social engineering. Le contromisure diventano altrettanto sofisticate, smettendo di limitarsi a rincorrere i “cattivi” e attuando una massiccia prevenzione. L’emergenza di nuove minacce nell’era del Web 2.0 Correva l’anno 2004 quando si iniziò a parlare di Web 2.0 durante una sessione di brainstorming tra O’Reilly e la MediaLive International, in 112 La sicurezza e la continuità del business cui Dale Dougherty, pioniere del Web e vice presidente di O’Reilly, coniò questo termine per sottolineare l’evoluzione sempre più marcata che stava prendendo piede nel Web con il proliferare continuo di nuovi siti e applicazioni. Da allora il termine Web 2.0 è stato accettato e il suo utilizzo si è diffuso a macchia d’olio, facendolo diventare popolare tra i frequentatori del World Wide Web, nonostante non esista una sua definizione univoca e ben definita ma piuttosto un insieme di possibili applicazioni e aspetti caratterizzanti. Ciò che è certo è che il Web negli ultimi anni si è evoluto e ha assunto un nuovo ruolo per i suoi utenti rispetto al passato, passando da una certa staticità a una maggiore dinamicità, che deriva dalle sue capacità di strumento di collaborazione, condivisione, scambio, interazione, comunicazione, partecipazione collettiva. Il Web è diventato il terreno di incontro tra tutti gli abitanti del pianeta che hanno la possibilità di collegarsi in Rete attraverso un computer o altri dispositivi che lo permettono. Nel Web è possibile informarsi (Wiki), socializzare (social networking), scambiare file (P2P networking), creare pagine di opinioni personali (blog) e così via. Il Web è diventato un mondo senza confini e aperto a chiunque voglia parteciparvi per portare il proprio contributo. Purtroppo proprio questa apertura totale lo rende un’attrattiva interessante per chi ha ben altri scopi, non del tutto leciti, come gli hacker e chi, con metodi diversi ,cerca di compiere frodi a danno degli utenti, spesso inconsapevoli dei pericoli che corrono. Un aspetto di cui si continua a discutere riguarda la sicurezza dei dati sensibili, non soltanto quelli degli utenti privati che condividono e scambiano informazioni nel Web, ma anche a livello di aziende e organizzazioni. Queste ultime potrebbero a loro insaputa subire fughe di dati diffusi ingenuamente o inconsapevolmente dai propri dipendenti, che spesso utilizzano il computer aziendale (magari un notebook) anche per scopo personale di intrattenimento. Navigando nei blog e nei siti di social networking gli utenti si espongono a diversi pericoli. Per esempio un tipo di minaccia legata inizialmente al mondo delle email, ma che ha trovato ampio terreno nel Web 2.0, sono gli attacchi di phishing, che inducono gli utenti a inviare informazioni confidenziali e password all’interno di una riproduzione fedele ma illegittima di un 113 La sicurezza e la continuità del business sito Web. Questi siti di phishing, creati facilmente utilizzando le Rich Internet Application (RIA), arrivano a trarre in inganno anche gli utilizzatori più esperti. L’utilizzo delle RIA si è rivelato da un lato estremamente vantaggioso, poiché rende più veloce l’esecuzione di programmi attraverso il Web e sposta la maggior parte dei compiti di elaborazione a livello di client. La presenza di un client eseguibile, tuttavia può diventare facilmente un vettore per il trasferimento di codici maligni e, in particolare, le RIA che utilizzano plug-in basati su ActiveX risultano particolarmente vulnerabili. Non solo le false riproduzioni di pagine Web possono rappresentare una minaccia per l’utente, ma anche i siti legittimi possono diventare pericolosi poiché in essi è possibile che malintenzionati inseriscano malware all’interno di eseguibili XML, come è già successo per esempio nel popolare sito di My Space o sull’home page del Superbowl statunitense di qualche anno fa. Un altro pericolo arriva dal video streaming. Attraverso la fruizione di video on-line, per esempio dal sito di YouTube, è possibile che un inconsapevole utente scarichi sul suo computer trojan horse, ovvero programmi che potrebbero contenere codice dannoso in grado di sottrarre dati confidenziali. Un altro elemento di rischio può essere posto dai siti Web che utilizzano la cifratura SLL (Secure Socket Layer). Infatti, molti sistemi di sicurezza non esaminano il “tunnel SSL” all’interno del quale vengono trasportati in modalità punto-a-punto i dati criptati, rendendo il traffico SLL un possibile vettore da sfruttare per predisporre azioni indirizzate alla sottrazione dei dati. L’utilizzo del protocollo SSL in Web server predisposti da malintenzionati può anche diventare un veicolo con cui trasportare trojan e bot al di là della protezione del firewall e farli penetrare nella rete aziendale protetta. Una volta installati i bot sono in grado di costruire reti di collegamento tra computer che sfruttano analoghe sessioni SLL per far fuoriuscire informazioni dall’azienda o per introdurre virus informatici e trojan. Da ultimo, ma non per importanza, va citato l’emergere dei botnet (termine derivato da Robot), universalmente considerati una delle principali minacce del momento. Si tratta di una rete di computer che 114 La sicurezza e la continuità del business vengono di fatto “controllati” da un hacker, che li può utilizzare per inviare un attacco o uno spam su grande scala, senza che l’utente del computer si accorga di niente. Il fenomeno è in espansione e si prevede che in futuro le botnet, e chi le governa, assumeranno il ruolo di centrali distribuite di comando e controllo. In realtà, già oggi esistono botnet disponibili a noleggio, come altri servizi di hacking a pagamento. Il calo dei virus e l’aumento dello spam La riduzione del numero di virus in circolazione è sotto gli occhi di qualunque utente di email. Se da un lato, come accennato, questo calo si deve allo spostamento delle energie degli hacker verso attività più redditizie, dall’altro non va dimenticato che ormai quasi tutti i pc sono protetti da antivirus costantemente aggiornati, che riducono significativamente le preoccupazioni e i danni. In effetti, sono oltre 200mila le varianti di virus attualmente in circolazione, ma i tool per l’individuazione e la rimozione sono diventati accurati e largamente disponibili. Cresce invece lo spam, che secondo alcune fonti raggiungerebbe oggi una percentuale pari all’80-90% del totale delle mail in circolazione. Il costo associato è notevolissimo, sia in termini di tempo perso per cancellare le mail sia perché lo spam rallenta i sistemi, intasando le reti trasmissive. Lo spam deve il suo nome a una scenetta comica del noto gruppo inglese Monty Python, ambientata in un pub equivoco dove ogni pietanza era a base di “spice ham” (un prosciutto di pessima qualità speziato per aggiustarne il sapore, in gergo appunto “spam”), di cui veniva verbalmente sommersa una coppia di malcapitati avventori. Anche in questo caso, mentre inizialmente la maggior parte dell’attività di spamming era costituita da email fastidiose ma innocue, il cui scopo era un successo commerciale basato sulla legge dei grandi numeri, oggi molti di questi messaggi sono veicolo di codici maligni o contengono link a siti infetti o, comunque, fanno parte di attacchi concatenati. Per non essere individuati, gli spammer ricorrono a trucchi come quello di utilizzare domini poco noti, cambiandoli con una rapidità 115 La sicurezza e la continuità del business impressionante. Le tradizionali blacklist degli anti spam impiegano circa 20 minuti per bloccare un sito, ma spesso il ritmo tenuto dagli spammer nel modificare l’URL di invio è più rapido. Dato che registrare un dominio costa pochi dollari, il vantaggio economico è comunque notevole. Inoltre, utilizzano i nomi di dominio di piccole isole, come quella di Man o quella minuscola di Tokelau, nel Pacifico, un fenomeno noto come “spam-island hopping”. Senza contare che esistono molti siti o reti poco protette di cui il sender di spam prende possesso. Sono reti dormienti, che vengono utilizzate all’occorrenza. Proprio l’Italia risulta tra i primi paesi per invio di messaggi spam, ma in realtà sono appunto server zombie utilizzati da remoto finché non vengono bloccati. Il Phishing Lo spam è dunque molto utilizzato per il phishing, termine con la medesima pronuncia, ma storpiato nell’ortografia, dell'inglese "fishing", pescare. Si tratta di un sistema indirizzato a carpire dati personali e, tipicamente, numeri di carta di credito, grazie alla collaborazione, in buona fede, delle vittime della frode. Il sistema è, concettualmente, molto semplice e perlopiù condotto via e-mail; il bersaglio si vede recapitato un e-mail da parte di un’organizzazione o di una banca nota, in cui lo si informa che, a causa di inconvenienti di vario tipo, si sono verificati problemi relativi al suo conto oppure che un acquisto da lui effettuato mediante la carta di credito non è potuto andare a buon fine. L’utente viene, quindi, invitato a collegarsi a un sito in cui inserire nuovamente i suoi dati, cliccando su un link contenuto all’interno del messaggio di posta elettronica che, apparentemente, corrisponde a quello del mittente del messaggio. Il sito è, ovviamente, fasullo, ma replica in modo perfetto quello originario, in modo da carpire le informazioni che è lo stesso utente a inserire. L’e-mail, apparentemente, ha tutte le caratteristiche di un messaggio “ufficiale” riportando logo, informazioni di copyright, slogan e messaggi di marketing identici a quelli utilizzati tipicamente dalle presunte aziende o banche mittenti. Spesso sono contenuti dati personali carpiti magari attraverso siti di social networking, dando 116 La sicurezza e la continuità del business l’impressione che effettivamente ci si trovi davanti a un messaggio reale. I principali target di questo tipo di attacchi sono le banche e i siti finanziari e, tra le organizzazioni prese di mira, vi è anche la casa d’aste on line e-bay, che ha prontamente avvisato i propri utenti che l’invio di messaggi di questo tipo non rientra nelle proprie modalità operative. Il contenuto delle mail può far riferimento alla necessità di inserire nuovamente i propri dati per una verifica del proprio conto, al fine di prevenire possibili frodi o di verificare che presunte violazioni che hanno interessato l’organizzazione finanziaria non abbiano arrecato danni allo specifico utente. Il tono può essere minimale, invitando a eseguire operazioni che vengono descritte come di routine, oppure più allarmista, sottolineando l’importanza e l’urgenza di collegarsi al sito e reinserire i dati; è anche possibile che inviti l’utente a scaricare e installare “security update” presenti in allegato al messaggio e contenenti codice maligno. Sebbene, apparentemente, possa sembrare un approccio ingenuo, il successo che ottiene questa tecnica è sorprendente. Secondo i dati dell’Anti-Phishing Working Group, organizzazione fondata nel Novembre 2003 che raccoglie oltre 400 membri in rappresentanza di 250 società, questo tipo di iniziativa riscuote un consenso pari al 5% dei messaggi inviati. Trattandosi di email inviate in modo massiccio con modalità di spamming, si tratta di un numero estremamente elevato. Il phishing è in forte aumento e risulta tra le tipologie di attacchi più sviluppati negli ultimi anni con tecniche che si affinano molto. Le tecniche di social engineering, spesso adottate in abbinamento al phishing, hanno visto aumentare la loro efficacia con la diffusione del Web 2.0. Al successo di questo fenomeno si accompagna, secondo gli addetti ai lavori, un aumento delle problematiche di sicurezza, prima fra tutte il furto di identità: gli utenti si sentono fiduciosi e pubblicano in rete non solo i propri dati anagrafici, ma anche svariate informazioni sulla propria vita privata, tutti dati utili per truffe mirate. Peraltro, oggi i tool necessari per attività di spamming e phishing sono pubblicamente disponibili su Internet e strumenti più sofisticati sono comunque in vendita online, mentre è possibile acquistare 117 La sicurezza e la continuità del business elenchi di indirizzi validi con milioni di nominativi per poche decine di euro. Il successo dello spamming è dovuto proprio ai grandi numeri: gli spammer vengono pagati pochi centesimi per ogni click registrato su un sito da loro indirizzato, ma pochi centesimi per decine di milioni di messaggi spediti fanno un sacco di soldi, pur considerando basse percentuali di messaggi andati a buon fine. Esistono anche varianti del phishing, come il “pharming” (che fa riferimento alla manipolazione delle informazioni Domain Name Server per reindirizzare l’utente in modo inconsapevole su siti Web falsi), lo “spear phishing” (utilizzato per indicare attacchi indirizzati in modo molto mirato a specifici target), lo “smishing” (che fa riferimento ad attacchi portati sfruttando i servizi SMS disponibili sui telefoni cellulari) e il “vishing” o “voice phishing (che sfrutta la messaggistica vocale e, in particolare, il Voice over IP (VoIP), il cui vantaggio per gli attacker è che offre garanzie ai truffatori di non essere individuati poiché molti servizi telefonici via IP non prevedono un preciso punto di partenza della chiamata). Il social engineering Può sembrare strano, ma uno degli strumenti più efficaci nella compromissione della sicurezza informatica è condotto senza l’utilizzo di strumenti informatici. Si tratta del cosiddetto “social engineering”, una tipologia di attacco indirizzata a carpire informazioni sensibili attraverso l’uso del contatto umano, utilizzando come complici inconsapevoli gli stessi obiettivi dell’attacco. Di fronte a sistemi evoluti progettati per analizzare traffico sulle porte, signature o anomalie di protocollo, il social engineering sfrutta una delle principali vulnerabilità nella sicurezza informatica di un’azienda: l’elemento umano. Le motivazioni che inducono gli hacker all’utilizzo di tecniche di social engineering sono molteplici. Innanzitutto si tratta di un metodo più semplice rispetto alla violazione di un sistema e che non richiede costi elevati o tool sofisticati. Permette, inoltre, di aggirare sistemi di intrusion detection e non è influenzato dalla piattaforma operativa utilizzata all’interno dell’azienda target. 118 La sicurezza e la continuità del business I bersagli tipici sono rappresentati dal personale di help desk, dagli addetti al customer service, da assistenti amministrativi, personale vendite, sistemisti o tecnici. Questo perché, da un punto di vista generale, i soggetti sono tanto più disponibili a fornire informazioni, quanto meno sono direttamente coinvolti o interessati dalla richiesta. Spesso, alle vittime di tali attacchi manca la consapevolezza del rischio o anche solo l’interesse a discutere o esaminare le motivazioni alla base di richieste che non sono direttamente pertinenti ai loro compiti specifici. Un attacco giunto a buon fine può fornire numeri di dial-in o procedure di accesso remoto, permettere di creare un account o modificare privilegi o diritti di accesso fino a determinare l’esecuzione di programmi potenzialmente dannosi quali trojan horse. Questo tipo di attacco può anche essere indirizzato a carpire informazioni quali, per esempio, liste di clienti, dati finanziari, offerte associate a contratti o informazioni riservate sui processi produttivi.I metodi utilizzati per carpire informazioni sono vari e dipendono solo dalla fantasia dell’attaccante. Una tecnica è quella di raccogliere preventivamente una serie di informazioni che possano fornire un pretesto credibile per la costruzione di un attacco e permettano di guadagnare la fiducia di chi subisce l’attacco. Tipicamente, infatti, il social engineering è una tecnica preparata e costruita in step successivi e basata su una precisa strategia, che preveda anche contro-argomenti in caso di possibili obiezioni e vie di uscita ragionevoli per non bruciarsi il “lavoro” svolto. Va poi ricordato che, a differenza di un firewall informatico, l’essere umano tendenzialmente è portato a fidarsi degli altri o ad avere illusione che certe cose a lui non possano capitare. Spesso accade anche che venga sottostimato il valore dell’informazione o si abbia poca consapevolezza dalle conseguenze di azioni apparentemente innocue. Altre tecniche sono indirizzate a costruire un rapporto di fiducia attraverso una serie di contatti ripetuti completamente innocui. Un metodo molto efficace è quello di raccogliere una serie di piccole informazioni che, singolarmente, non hanno utilizzo pratico ma che, 119 La sicurezza e la continuità del business se considerate nel loro complesso, possono rappresentare una fonte di informazione di valore elevato. Frammenti di informazione utili a tal fine possono essere facilmente recuperabili da un hacker tramite i siti Web, l’organigramma aziendale, attraverso newsletter o anche documenti di marketing. Altre informazioni di carattere personale possono essere ricavate da siti Web che contengono nomi di parenti o di interessi specifici, a cui spesso un utente si ispira per elaborare le proprie password. Inoltre, poiché l’uomo è naturalmente curioso, altri “trucchi” sono di lasciare supporti quali CD ROM o floppy contenenti codici maligni presso specifiche postazioni sperando che vengano aperti ed esaminati oppure inviare e-mail che invitano a visitare siti Web potenzialmente dannosi. Un esempio di attacco di social engineering può partire dall’individuazione, da un documento di marketing, del nominativo di una persona che ricopre una specifica carica aziendale. Telefonando al centralino e chiedendo di essere messo in comunicazione con quella persona (citando nome e cognome) è facile che si venga passati al suo numero interno. Se la telefonata avviene in un giorno in cui questa persona non è sicuramente in ufficio, per esempio perché dal sito Web viene annunciata la sua partecipazione a un evento o a una conferenza, non è infrequente poter recuperare il numero dell’interno dal sistema di risposta automatica che invita a lasciare un messaggio. A questo punto si dispone già di un numero di informazioni utili a lanciare un attacco. Con un po’ di astuzia è possibile, per esempio, ricavare informazioni riservate da un collega, ottenendo la sua fiducia adducendo motivazioni di urgenza, la stretta conoscenza del contatto “sfortunatamente” mancato e supportando le proprie affermazioni con i dati in proprio possesso. Spesso basta conoscere anche solo poche informazioni personali di un individuo per lasciare presupporre a qualcun altro una sua conoscenza approfondita. Un’ulteriore fonte di informazioni è rappresentata dai rifiuti. Documenti, bozze, annotazioni o anche nomi di piani e di progetti, trovano spazio su documenti cartacei che vengono gettati nell’immondizia. Ancora più rischioso è gettare supporti di memorizzazione danneggiati quali hard disk o sistemi removibili da 120 La sicurezza e la continuità del business cui è sempre possibile ricavare informazioni parziali. Inoltre, l’appropriazione dei rifiuti altrui non è, di per se stessa, una pratica illegale. Gli aspetti psicologici sono un elemento essenziale nel social engineering. In generale un attaccante che utilizza queste tecniche può essere individuato dal fatto che fa richieste fuori dall’ordinario o adotta comportamenti anomali, quali manifestare estrema urgenza in modo immotivato, utilizzare toni autoritari o intimidatori, offrire aiuto per risolvere un problema sconosciuto o citare il management come ente autorizzatore della richiesta. Particolari condizioni lavorative possono aumentare il rischio associato a tali attacchi. Per esempio, una forte pressione a svolgere i lavori in tempi rapidi, la presenza di uffici distribuiti in varie località o l’utilizzo di personale esterno all’azienda, sono tutti elementi che possono contribuire a facilitare le condizioni affinché un attacco di social engineering abbia successo. L’unico sistema per proteggersi efficacemente è quello di aumentare la cultura della sicurezza in azienda, in modo che questa non sia percepita come una perdita di tempo o un ostacolo all’attività lavorativa, predisponendo procedure apposite per la gestione delle informazioni e la loro classificazione e mettendo a punto policy per la “pulizia” della postazione di lavoro. La contromisura più efficace resta quella di attivare sessioni di addestramento indirizzate alla consapevolezza dell’importanza della sicurezza e dei possibili rischi associati a comportamenti superficiali. Il furto di identità La cronaca, a onor del vero, dà maggior risalto a fenomeni di massa, come i vari worm o pseudo tali che di tanto in tanto riescono a perforare le difese diffondendosi in tutto il mondo, ma le attività realmente criminali si concentrano su altri fronti: primo fra tutti il furto di identità. Rubare l’identità di qualcun altro significa riuscire a raccogliere sufficienti informazioni al fine di spacciarsi per lo stesso, ad esempio, per commettere frodi, aprire conti correnti, navigare su siti pornografici, carpire dati aziendali riservati o quant’altro. Alle volte lo 121 La sicurezza e la continuità del business scopo è indiretto, come nel caso dei database costituiti illegalmente tramite strumenti di spamming. Un’identità può essere utilizzata per sferrare attacchi contro terzi o frodarli, con il rischio di dover anche affrontare spese legali per dimostrare la propria innocenza. Oltre al phishing, un metodo molto in voga per reperire/rubare informazioni è collegato all’utilizzo di programmi cosiddetti spyware, il cui scopo è quello di registrare il comportamento di navigazione, esplorare il disco rigido, esportare dati raccolti, intercettare posta elettronica o file, catturare dati immessi in sistemi Web (per esempio con i keylogger, che memorizzano i tasti premuti) e altro ancora. Con uno o più strumenti del genere è possibile “assemblare” sufficienti dati per mettere insieme l’identità di un individuo. Verso il Web 3.0 Ancora molti devono capire cos’è il Web 2.0 e si parla già della terza ondata: il Web 3.0. Secondo la definizione di taluni, questo sarà caratterizzato dall’interazione tra macchina e macchina. Non è un futuro poi così lontano, già oggi esistono, per esempio, sistemi di controllo di impianti industriali collegati a sensori che rilevano determinati parametri. Quando questi ultimi superano una soglia parte un allarme e il sistema di controllo genera un’azione corrispondente. La possibilità di utilizzare la rete IP e Internet in particolare per attuare una soluzione del genere è già stata presa in considerazione. Ancora una volta, sono le problematiche di sicurezza che faranno la differenza. Quali saranno le sfide del futuro per le aziende che si occupano di sicurezza, una cosa è certa: non possono continuare a giocare a nascondino con i “ragazzi cattivi”. Un rincorsa senza sosta da una minaccia a un nuovo rimedio non ha senso. È necessario modificare le regole del gioco: cambiare approccio e anticipare le mosse dell’avversario, scendendo sul suo stesso terreno e partendo dagli obiettivi che si pone. 122 La sicurezza e la continuità del business La gestione delle minacce Se ogni volta che si entra nel Web e si utilizzano applicazioni Webbased si corrono dei rischi, ci si domanda come possano difendersi le aziende senza eliminare del tutto l’accesso in rete, che sembrerebbe una soluzione alquanto limitativa per non dire paradossale in quest’epoca. Senza contare la necessità d’interazione e collaborazione con sempre nuovi e sofisticati strumenti. Tutte le aziende attualmente utilizzano filtri anti-virus, anti-spam, firewall o soluzioni più complesse e unificate di protezione dalle minacce, ma, oltre a queste, è necessario che i professionisti IT stabiliscano policy di controllo per gli utenti che siano allo stesso tempo di vasta portata ma granulari. È altresì importante che gli addetti alla sicurezza IT esercitino un attento controllo a livello di protocollo su applicazioni RTSP (Real Time Streaming Protocol), MMS (Multimedia Messaging Service), IM (Instant Messaging), SSL e P2P (Peer to Peer) per identificare e bloccare le minacce. È anche necessario un aggiornamento continuo sulle più attuali tecniche di phishing e l’impegno a diffondere tra i dipendenti una cultura sulla sicurezza e, quindi, sulle principali modalità di attacco in cui possono incorrere, così che si rendano consapevoli dei rischi che possono arrecare all’azienda ogni volta che, per esempio, accedono al Web o si collegano a un link inviato da email sospette al proprio indirizzo di posta. Non va però dimenticato che spesso l’utente poco consapevole non è in grado di discriminare tra le diverse tipologie di malware. Un “adware”, sebbene a tutti gli effetti costituito da codice che esegue compiti non richiesti, ha come unica conseguenza di proporre (a volte in modo insistente) messaggi pubblicitari e non è sullo stesso piano di pericolosità di uno “spyware” che raccoglie informazioni sul numero di carta di credito. Il risultato è che, spesso, l’utente fa fatica a trovare un compromesso tra le prestazioni del suo computer (magari eccessivamente vecchio) e il livello di sicurezza e rischia di effettuare troppi oppure troppo pochi controlli. Affidarsi esclusivamente alle pre-configurazioni proposte dai software è un approccio possibile che però non risolve il problema, per i limiti intrinseci legati alle 123 La sicurezza e la continuità del business prestazioni e alla tecnologia della macchina su cui è installato. Per esempio, il numero di “firme” per l’individuazione di malware che possono essere ospitati nel database di un tool locale non può superare cinque o seicentomila a fronte di un numero complessivo di codici dannosi individuati che si aggira, attualmente, a un milione e ottocentomila. Per queste ragioni anche per il mercato consumer, accanto ai prodotti antivirus e firewall, cominciano a fare capolino soluzioni per la prevenzione delle intrusioni e servizi di scansione effettuati attraverso Internet. Esistono oggi strumenti basati sui dati che provengono da tutto il mondo ai laboratori di ricerca e che consentono di effettuare rilevazione dei codici maligni sfruttando nuove tecnologie di individuazione quali l’analisi dei comportamenti. La protezione degli endpoint L’avvento di nuovi modelli di business che aprono le aziende verso clienti, partner e fornitori, ha reso progressivamente più complicato riuscire a definire in modo netto il perimetro della rete aziendale. Inoltre, sotto la spinta del mobile computing, sono aumentati notevolmente il numero di utenti remoti, le piattaforme e metodologie di accesso, il numero e la varietà dei terminali per la connettività (laptop, desktop, PDA, smart phone e così via). Una delle immediate conseguenze di questo processo è il fatto che i manager e gli amministratori IT si trovano sempre più spesso impegnati a rispondere alla sfida di mantenere sicuri gli endpoint spostando la loro attenzione dalla protezione del perimetro dagli attacchi esterni realizzata attraverso, principalmente, soluzioni firewall o di IPS. La presenza di endpoint insicuri costituisce un grosso elemento di vulnerabilità tanto che, in molti casi, gli utenti con accesso autorizzato pongono più rischi di quelli che devono compromettere un firewall per entrare in rete. In modo un po’ provocatorio, ma non troppo distante dal vero, si può dire che gli endpoint si trovano “sempre” in condizioni di vulnerabilità ed esposti a infezioni. 124 La sicurezza e la continuità del business Tra i problemi che contribuiscono a rendere insicuri gli endpoint vi sono la mancanza di aggiornamento alle patch critiche del sistema operativo o delle applicazioni, la presenza di “signature” scadute per il riconoscimento di virus, la mancanza di un firewall software o una sua cattiva configurazione. Inoltre, le nuove tattiche di attacco sono ormai in grado di infettare la rete senza alcun coinvolgimento da parte dell’utente. Succede, perciò, che anche un laptop solo occasionalmente connesso e compromesso con un worm è in grado di arrecare danni alla rete interna non appena si collega così come un dispositivo mobile di un dipendente che si connette attraverso una porta Ethernet della rete corporate è in grado di infettare l’intero network. Prevenire questo tipo di rischi richiede l’utilizzo di strumenti automatici per garantire il rispetto delle regole aziendali; altri temi da affrontare per predisporre una protezione adeguata rispetto a questo tipo di minacce sono la messa a punto di meccanismi di tutela nel caso di furto del pc. Le tecnologie utilizzate solitamente prevedono un controllo e successivamente un blocco della connessione al network nel caso in cui vengano individuate, attraverso un opportuno sistema di scansione, carenze nel’applicazioni delle regole di protezione. Tuttavia, se le indicazioni del sistema di scansione giungono dopo che è già stata stabilita una piena connessione, questo tipo di rimedio arriva troppo tardi e gli endpoint compromessi sono in grado di infettare in pochi minuti i pc interni e i server vulnerabili con un worm. Per questa ragione, è opportuno prendere in considerazione sistemi di protezione in grado di intervenire in modo preventivo e di effettuare questo tipo di controllo prima di consentire la connessione dell’endpoint al network e alla periferia della rete. Diversi vendor stanno perciò proponendo sistemi di controllo di accesso al network (NAC) implementati come software o appliance. Attraverso questo processo di controllo viene valutato lo stato di sicurezza di un sistema o di un utente non appena questo si connette e sono immediatamente implementate le opportune policy di sicurezza che possono includere (ma non solo) livelli di aggiornamento software, definizione dell’antivirus, configurazioni specifiche, individuazione dell’apertura o chiusura di porte, impostazioni del 125 La sicurezza e la continuità del business firewall. In base al confronto effettuato, il NAC provvede quindi a determinare se concedere, negare o limitare l’accesso, in funzione del sistema, degli orari di connessione, della località da cui l’utente accede e della verifica dell’identità e dei privilegi associati. Inoltre fornisce solitamente all’utente le informazioni sulle azioni opportune da attivare per porre rimedio alle eventuali limitazioni incontrate. Un approccio integrato e l’offerta di servizi Per poter realizzare l’integrazione delle soluzioni di sicurezza, tanto più quanto maggiore si vuole che sia il livello d’integrazione, è opportuno adottare un approccio sistemico, che abbracci l’insieme delle problematiche della sicurezza partendo dalle esigenze aziendali e traducendo le stesse in policy di sicurezza. Queste andranno poi opportunamente adattate e implementate nei vari sistemi in maniera consistente. Si ottiene, così, un sistema robusto in cui tutte le soluzioni collaborano alla protezione e alla prevenzione. Un tale sistema, peraltro, non consiste solo in un insieme integrato di applicazioni, più o meno automatiche. Come già evidenziato, la sicurezza è anche una questione organizzativa. Poco o nulla servono le precauzioni se, poi, nessuno le adotta. Le policy oltre che definite devono essere implementate. Molte di queste, però, non sono automatiche o, comunque, possono essere disattese dagli utenti, anche senza intenzioni dolose, ma semplicemente per accelerare il proprio lavoro (quanti hanno “voglia” o si ricordano di lanciare il backup periodicamente?). Le policy diventano procedure e una certa attenzione è richiesta, come, per esempio, quella di non lasciare appuntate le password su foglietti (tipico il post-it giallo sotto la tastiera). A caratterizzare più di ogni altra cosa un approccio sistemico, peraltro, è la visione della sicurezza come processo continuo. Si è detto che il punto di partenza deve essere il rischio: comprendere quali sono le informazioni e le risorse che hanno bisogno di protezione e, soprattutto, quali sono i danni che si conseguirebbero in caso di perdita delle stesse. Si ottiene, così, una misura degli investimenti che sarà opportuno realizzare. Una volta progettato di 126 La sicurezza e la continuità del business conseguenza il sistema di sicurezza, questo va implementato con tutte le implicazioni di carattere organizzativo cui si è accennato, anche in termini di definizione di policy aziendali. Il passo successivo è quello del controllo e della manutenzione del sistema. Questo, però, implica il continuo aggiornamento delle soluzioni, perché stiano al passo con l’evoluzione delle minacce, ma anche l’adeguamento di tutta l’architettura del sistema alle variazioni dello scenario complessivo. È la stessa azienda soggetta a cambiamenti: si pensi alle acquisizioni, all’istituzione di una nuova business unit e a tutte quelle dinamicità che testimoniano il buon stato di salute di un’impresa. Periodicamente, dunque, è necessario rimettere tutto in discussione, a partire dal rischio stesso cui è soggetta l’impresa, mantenendo sotto controllo il sistema di sicurezza per verificarne la robustezza (per esempio, con tecniche di vulnerability assessment) e l’adeguatezza. Un sistema del genere deve essere gestito sia nell’operatività di tutti i giorni sia nella sua pianificazione complessiva. Entrambe sono fasi delicate, che richiedono un impegno crescente all’aumentare delle dimensioni aziendali, delle risorse messe sotto controllo e, ovviamente, delle soluzioni implementate. La complessità che ne emerge, unitamente all’importanza dei sistemi di sicurezza, suggerisce la definizione di responsabilità ben precise, con la nomina di un responsabile della sicurezza. In Italia, alcune normative impongono la presenza di un responsabile della sicurezza IT in azienda (da non confondere con quello imposto dalla legge 626, che riguarda la sicurezza del posto di lavoro). Il security manager, come viene spesso indicato con dizione inglese, è preposto alla gestione del sistema di sicurezza e può essere perseguito anche penalmente (come prevede il DPR 318) in caso di danni causati da inadempienze alla sicurezza da parte dell’azienda. Il ricorso a un provider esterno La complessità dei molti sistemi che vanno implementati, le difficoltà e i costi di gestione degli stessi, hanno portato a una crescita costante dei Managed Security Service. L’aspetto più strettamente tecnologico di protezione dalle specifiche minacce può essere affrontato 127 La sicurezza e la continuità del business affidandosi a un provider fidato che con un misto di appliance installate on premise e con una console di gestione di remota o con modalità completamente o quasi in outsourcing è in grado di fornire i livelli di sicurezza adeguati a ogni struttura aziendale. Fondamentale, è l’attività di consulenza e, in particolare, la verifica accurata dei punti deboli di tutto il sistema. Le aziende sono sempre più esposte al rischio di vedere i propri sistemi informatici compromessi, di essere vittime di furti di dati e intromissioni nei sistemi, per poi essere ricattate o diffamate, o ancora di rimanere senza collegamenti Internet o accesso Web perché sotto attacco. La politica dello “struzzo”, ovvero fare finta di niente e non dare attenzione al problema, è davvero pericolosa. Molto meglio prepararsi, piuttosto che sperare che non succeda niente. L’approccio vincente, secondo gli esperti, è quello di predisporre un piano d’azione, ragionando sul cosa fare “quando” (e non “se”) si apre una breccia nel sistema informatico. E questo perché pianificare un intervento e preparare una strategia di reazione può fare la differenza fra un disastro informatico e un evento sotto controllo. Una delle attività più utili in tal senso è il “penetration test”, che consiste nella simulazione di un attacco reale contro una rete o un’applicazione, con modalità differenti. Fra queste, la simulazione di una minaccia proveniente dall’interno dell’azienda o di un attacco esterno, con informazioni di partenza più o meno significative. Si può anche ipotizzare che lo staff IT si accorga subito o dopo un certo periodo di tempo di quanto sta accadendo e che sia in grado di reagire oppure no. Tipicamente, il penetration test viene svolto da società esterne specializzate con strumenti ad hoc (alcuni tool open source sono molto diffusi e facilmente reperibili in rete) e serve a verificare il livello di sicurezza di sistemi critici per il business aziendale, oppure per controllare se il Service Level Agreement garantito dal fornitore di servizio esterno (per esempio per i servizi managed di intrusion detection) è rispettato. In ogni caso, è importante avere un chiaro obiettivo prima di avviare il test, per esempio focalizzandosi nella valutazione del rischio che un attacker esterno possa compromettere un determinato asset critico o uno specifico servizio di business. 128 La sicurezza e la continuità del business 6 - Il binomio sicurezza logica e sicurezza fisica L’Information Security è stata storicamente separata dalla sicurezza fisica, intesa come impianti antincendio, sistemi antifurto, barriere all’ingresso. Di fatto si tratta di una distinzione che non ha più senso. Innanzitutto i due mondi sono sempre meno disgiunti, considerando la pervasività dell’IT. In secondo luogo ci sono sempre più contatti, tanto che si parla ormai apertamente della convergenza tra sicurezza fisica e sicurezza logica. Se ne parla soprattutto in termini di protezione più efficace e contributo a valore, derivante dall’integrazione delle soluzioni. Ci sono poi aspetti legali che dovrebbero spingere in questa direzione. In particolare, basti pensare che la legge sulla Privacy è oggi considerata la legge principale in materia di sicurezza IT. Eppure il responsabile della privacy in azienda è normalmente una figura dirigenziale che si occupa di tutt’altro che informatica: tipicamente il direttore del personale. La maggior parte dei dati sensibili in azienda, infatti, sono quelli relativi ai dipendenti. Purtroppo, risorse umane e IT raramente seggono allo stesso tavolo per discutere di progetti collegati alla sicurezza. Ci sono anche ambiti tecnologici in cui la convergenza è forte, per esempio, quello del controllo degli accessi o delle presenze in azienda, oggi sempre più attuato con badge elettronici direttamente connessi con i sistemi ERP aziendali, oppure mediante lettura di dati biometrici digitalizzati. Altro ambito in forte sviluppo è quello della videosorveglianza integrata su IT, dove si aprono interessanti scenari sul fronte della digitalizzazione di immagini e video. Tutte queste soluzioni hanno una componente informatica e sono relative alla protezione degli asset aziendali. È pertanto evidente che 129 La sicurezza e la continuità del business la correlazione tra gli eventi che vengono registrati dall’una e dall’altra parte porta benefici in termini di efficacia della protezione. L’evoluzione della videosorveglianza La videosorveglianza è storicamente caratterizzata da sistemi di videocamere collegate in circuito chiuso. Questa soluzione è stata adottata al fine di evitare che il sistema possa essere manomesso. Peraltro, l’installazione e la manutenzione di questo tipo di soluzioni risultano costose e presentano un limite di copertura. Tali sistemi, infatti, adottano cavi video che non possono trasportare il segnale proveniente dalle telecamere su lunghe distanze. In passato lo sviluppo di tecnologie in fibra ottica e di architetture di rete ottimizzate per il trasporto di dati digitali multimediali (per esempio, le reti ATM – Asynchronous Transfer Mode, SONET/SDH) hanno permesso di estendere gli ambiti applicativi di queste soluzioni, senza però abbassarne gli elevati costi di utilizzo. È stato, invece, l’avvento di Internet e delle cosiddette Web Cam a portare un nuovo impulso nel settore. La qualità del video su Internet è limitata, ma una struttura basata su una rete IP privata è sicuramente più performante ed economica di altre strutture. L’utilizzo di del protocollo IP su reti VPN per la trasmissione su lunga distanza, invece, permette di risparmiare sui costi e di gestire il controllo di più luoghi tramite una console centralizzata. Anche le telecamere adottate per questo tipo di riprese risultano essere molto più convenienti. Si sono abbassati, dunque, i costi di questi dispositivi. Ma un ulteriore vantaggio deriva dallo sviluppo delle tecnologie di rete senza fili. Le telecamere, infatti, possono essere dotate di schede Pc Card Wi-Fi, che consentono un collegamento in banda larga (oltre 100 Mbps con le più recenti tecnologie) a un access point, in grado di servirne diverse contemporaneamente. Questo consente l’installazione di sistemi di videosorveglianza anche in luoghi con vincoli ambientali o architettonici (per esempio, negli edifici storici, dove la cablatura non è consentita) oppure in 130 La sicurezza e la continuità del business installazioni a carattere temporaneo (per esempio, una mostra d’arte organizzata in locali normalmente non attrezzati per la videosorveglianza, oppure un congresso). Attualmente si è arrivati a parlare di videosorveglianza di quarta generazione, basata su un’architettura di rete IP, conforme agli standard, operante su un sistema network-centrico, in cui la rete stessa costituisce la matrice video per il trasporto delle immagini. È indubbio che realizzare architetture di videosorveglianza all’avanguardia permette di ottenere maggiore affidabilità, un livello più elevato di disponibilità del sistema e, al contempo, più versatilità e interoperabilità tra tecnologie e soluzioni proprietarie che sino a ieri non potevano colloquiare tra di loro. La possibilità di far confluire le funzioni di switching video all’interno di un ambiente IP preesistente, permette poi di ridurre la complessità dell’infrastruttura e, di conseguenza, i costi di installazione di un sistema di videosorveglianza, seppur mantenendo l’investimento pregresso e le competenze umane a esso associate. Per queste ragioni, la trasformazione di un servizio che sino a ieri era segregato su una sua rete proprietaria (ottico-coassiale), privata e parallela, verso l’IP, trasforma la videosorveglianza in un’altra applicazione, valorizzando gli asset generati dalla stessa e creando un serie di altri servizi che sino a ieri erano impensabili. Si pensi, per esempio, alla correlazione tra gli eventi di sicurezza fisica e sicurezza ICT logica, alla possibilità di analizzare il video registrato in tempo reale per ridurre i tempi d’investigazione, alla possibilità di aggiungere e scalare una soluzione di videosorveglianza in modo immediato poiché ogni punto rete IP è, praticamente, un punto telecamera. A oggi, considerando il livello di diffusione delle reti a larga banda in molte realtà pubbliche, la videosorveglianza di quarta generazione è una realtà perseguibile. L’elemento strategico ovvero la rete IP, agisce in qualità di matrice video per un sistema di sicurezza fisica che virtualmente può abbracciare qualsiasi punto toccato dalla rete stessa e gestito da diversi enti competenti, sino ad arrivare a un unico centro per la sicurezza. Una piattaforma di videosorveglianza “networkcentrica” del tipo descritto permette di effettuare le operazioni di 131 La sicurezza e la continuità del business monitoraggio attraverso stazioni pc o Video Wall e di accedere in maniera sicura, in qualsiasi luogo, in tempo reale e in base al verificarsi di specifici eventi. Da parte loro, gli operatori hanno la possibilità di controllare la rete da qualsiasi terminale IP e di gestire la raccolta di flussi video provenienti da differenti siti. Inoltre è possibile predisporre soluzioni tecnologiche interoperabili con telecamere e sistemi analogici di tipo legacy. L’affermazione di queste nuove tecnologie si traduce in un mercato delle soluzioni di videosorveglianza su IP che cresce costantemente a due cifre delineando un mercato stimato valere ogni anno oltre 8 miliardi di dollari. Da analogico a digitale La progressiva affermazione del protocollo IP e la contestuale disponibilità di ampiezza d banda sempre più elevata sta aprendo le porte a un vero è proprio “rinascimento” della videosorveglianza all’insegna della migrazione dalle tecnologie analogiche a quelle digitali e alla loro distribuzione attraverso Internet. Le ragioni che inducono a questa evoluzione sono molteplici e significative. Innanzitutto, ogni telecamera analogica necessita di un cavo di connessione dedicato, che la collega al convertitore del segnale in flussi digitali per la memorizzazione dei dati. La conseguenza è che architetture di questo tipo risultano poco flessibili e inefficienti in caso di trasmissioni su lunghe distanze o di gestione da remoto. Altra caratteristica delle telecamere IP è la loro maggiore flessibilità e interoperabilità che deriva dalla possibilità, in caso di necessità, di riposizionamento delle telecamere in nuove aree senza troppe difficoltà e in tempi molto più rapidi rispetto ai dispositivi di tipo analogico. Dal punto di vista della memorizzazione dei dati consentono l’utilizzo di dischi rigidi o di qualsiasi altro dispositivo di memorizzazione di massa, mentre la gestione da remoto è possibile grazie alla disponibilità di un Web server integrato all’interno delle telecamere che garantisce la visualizzazione delle immagini direttamente da un browser. In più le telecamere analogiche non possono offrire una serie 132 La sicurezza e la continuità del business di funzionalità avanzate molto utili presenti sulle telecamere IP, grazie ai sistemi di image processing di cui sono dotate e alla qualità delle immagini che sono in grado di offrire. Se, per molti anni la videosorveglianza analogica aveva abituato l’utente a una gestione della sicurezza basata essenzialmente sulla registrazione degli eventi nel loro complesso, l’alta risoluzione offerta dalle tecnologie digitali attuali ha aperto nuove opportunità di estendere il livello di controllo e di modificare la tipologia di applicazioni di videosorveglianza grazie alla possibilità di visualizzare dettagli funzionali all’identificazione di persone e oggetti o di espandere l’area da visualizzare. Si pensi, per esempio, alle nuove applicazioni di video motion detection, che permettono di catturare immagini in movimento. Oppure l’object detection, che consiste nel rilevamento di elementi estranei all’immagine rispetto alla condizione di normalità, ossia quando non ci sono movimenti nell’immagine fissa, che potrebbero richiedere una maggiore attenzione. I sensori digitali grazie all’elevata risoluzione ottenibile permettono, per esempio, di individuare e leggere dettagli di interesse e di effettuare, per esempio, il riconoscimento delle targhe delle autovetture o il conteggio del numero di persone che transitano all’interno di un edificio fino a spingersi al riconoscimento delle persone. Il fatto poi che la telecamera acquisisca le immagini già in formato digitale apre la strada a una serie di funzioni di elaborazione sempre più sofisticate. La gestione dell’immagine viene effettuata in modo sempre più intelligente ed è anche possibile effettuare uno zoom di tipo digitale direttamente per incrementare ulteriormente la dimensione dell’immagine dopo che lo zoom di tipo ottico ha raggiunto la sua massima estensione. Cambia la qualità video Nei video analogici l’immagine è organizzata per linee TV in accordo con l’evoluzione del formato televisivo mentre le immagini digitali sono formate da punti (pixel). Passando ai numeri, possiamo ricordare come il formato CIF (Common Intermediate Format) per la registrazione delle immagini, 133 La sicurezza e la continuità del business noto anche come FCIF (Full Common Intermediate Format) ha offerto per molto tempo un standard per la risoluzione orizzontale e verticale di sequenze video con una risoluzione di 352 × 288 punti adatta per le trasmissioni basate sullo standard televisivo PAL (Phase Alternation by Line), caratterizzato a sua volta da una risoluzione di 576 linee e una velocità di aggiornamento di 25 fotogrammi al secondo o per e lo standard NTSC comunemente utilizzato in Nord America e Giappone che prevede una risoluzione di 480 linee. Formato di Numero di megapixel Risoluzione in pixel SXGA 1.3 megapixel 1280x1024 SXGA+(EXGA) 1.4 megapixel 1400x1050 UXGA 1.9 megapixel 1600x1200 WUXGA 2.3 megapixel 1920x1200 QXGA 3.1 megapixel 2048x1536 WQXGA 4.1 megapixel 2560x1600 QSXGA 5.2 megapixel 2560x2048 visualizzazione Le sigle che caratterizzano le differenti risoluzioni video Il CIF è essenzialmente un formato derivato dal mezzo televisivo e alcune telecamere di rete oggi disponibili utilizzano questo formato poiché sfruttano un blocco telecamera progettato per telecamere analogiche. Ricordando che la qualità ottenibile attraverso l’operazione di digitalizzazione di un video analogico dipende dal numero di linee TV disponibili, la dimensione massima di un’immagine digitalizzata (di solito indicata con la sigla D1) corrisponde a una risoluzione di 720x480 pixel per NTSC o di 720x576 pixel per il PAL. Lo sviluppo di sistemi completamente digitali ha, invece, messo a disposizione risoluzioni elevate che hanno potuto beneficiare del continuo sviluppo derivato dall’industria informatica. L’affermazione dello standard VGA ha messo inizialmente a disposizione una 134 La sicurezza e la continuità del business risoluzione di 640x480 pixel che è quella solitamente utilizzata nelle telecamere di rete, ma sono ormai disponibili telecamere con risoluzione nell’ordine del megapixel ovvero in grado di fornire un’immagine contenente un milione o più pixel. Il confronto è presto fatto. A fronte dalla massima risoluzione offerta da una telecamera analogica convenzionale dopo la digitalizzazione D1 corrispondente a un massimo di 0,4 megapixel (414.720 pixel), un sistema digitale con un formato di 1,3 megapixel (1280x1024 pixel) offre una risoluzione superiore di otre il 3. Se si considera che la prossima disponibilità di telecamere di rete con risoluzioni da 2 o 3 megapixel e, in futuro, ancora superiori si comprende il distacco incolmabile tra le differenti tecnologie. La nuova frontiera è, infatti, rappresentata dallo standard HDTV (High-definition television) che fornisce risoluzioni fino a cinque volte superiori alle TV analogiche standard. Ricordiamo per esempio gli standard SMPTE 296M (HDTV 720P) con una risoluzione di 1280x720 pixel e lo standard SMPTE 274M (HDTV 1080) che definisce una risoluzione di 1920x1080 pixel . Inoltre, lo standard HDTV si basa su pixel quadrati e questo rende ottimale la visualizzazione dei video HDTV anche su monitor di computer standard evitando così i possibili effetti di distorsione di un video analogico tradizionale digitalizzato quando questo viene visualizzato sul monitor di un pc. Cambiano i player Il passaggio verso le nuove tecnologie di videosorveglianza rappresenta anche un passaggio fondamentale di cambiamento nei referenti aziendali per questo tipo di applicazioni. Le responsabilità cessano di essere appannaggio del facility manager per estendersi anche all’IT manager che in deve essere coinvolto poiché l’infrastruttura di rete utilizzata per la videosorveglianza è la medesima utilizzata per le applicazioni IT. Dal punto di vista della realizzazione, inoltre, la sorveglianza analogica era implementata tipicamente da elettricisti e impiantisti elettrici, mentre oggi questo compito si sposta verso i system integrator. Le conseguenze di questo trend sono uno spostamento nel mercato sia dal punto di vista 135 La sicurezza e la continuità del business dell’interlocutore a cui devono indirizzarsi i vendor che si traduce in un canale più qualificato, sia del referente interno al cliente che, come detto, risulta essere una figura all’interno del dipartimento IT. Una gestione semplificata La videosorveglianza analogica si basa su un cavo coassiale connesso a un digital recorder e un monitor. Le funzionalità offerta da una soluzione di questo tipo si limitano alla visualizzazione in tempo reale e alla possibilità di registrazione. Inoltre la tecnologia coassiale presente una serie di limiti intrinseci quali, per esempio, la limitazione della lunghezza del cavo. Con l’avvento della tecnologia digitale le telecamere possono essere monitorate in rete sfruttando gli strumenti esistenti per la gestione di reti Ethernet, e si interfacciano con l’infrastruttura preesistente per l’IT. La fase di registrazione viene sostituita da apparati di video network recorder. Tutto ciò si realizza su protocollo di comunicazione TCP/IP. Possibilità di definizione di aree sensibili al movimento in un impianto di videosorveglianza (Fonte: D-Link) L’adozione della tecnologia digitale su IP, pertanto, semplifica notevolmente l’installazione di una rete di videosorveglianza. Una rete analogica richiede che ogni telecamera sia collegata a un concentratore con un cavo coassiale e questo rappresenta un problema all’interno di ambienti estesi per la richiesta di rigenerazione necessaria in ambito analogico. Nell’ambito dell’IP è possibile trovare 136 La sicurezza e la continuità del business molto più facilmente una connessione ed è possibile anche sfruttare le connessioni di rete wireless. Un altro aspetto caratteristiche della videosorveglianza su IP riguarda la centralizzazione della gestione che rappresenta un’opportunità “naturale” per questo tipo di prodotti in grado di avvalersi del livello di flessibilità offerto da un modello di rete gestibile da postazione centrale e remota in ogni momento e ovunque: diventa molto semplice decidere a Milano come controllare e spostare una telecamera di sorveglianza in Cina e anche comandare queste operazioni tramite dispositivi portatili quali smartphone. Il supporto delle funzionalità Pan/Tilt/Zoom (PTZ) permette, infatti, di gestire facilmente lo spostamento su diversi assi della telecamera e di effettuare uno zoom. Un ulteriore elemento di flessibilità è rappresentato dal supporto della tecnologia Power over Ethernet (PoE) che consente di sfruttare la connessione Ethernet oltre che per il trasferimento delle informazioni anche per alimentare apparti che, difficilmente, potrebbero essere collegati a un alimentatore esterno. Come detto, la disponibilità di un maggior numero di dettagli abilita l’applicabilità di tecnologie per l’analisi intelligente delle informazioni. Tra le funzionalità di questo tipo possiamo ricordare per esempio la possibilità di impostare azioni in base al rilevamento di un movimento non solo davanti allo spazio visivo della telecamera ma restringere la condizione a specifiche porzioni o insiemi dell’immagine così da poter discriminare il movimento all’interno di un’area del parcheggio da quello delle foglie degli alberi mosse dal vento. Le azioni basata su eventi legati al posizionamento possono essere incrociate attraverso opportuni software di gestione con condizioni legate al periodo in cui avvengono le azioni in grado di attivare un allarme, la durata, a ripetitività e la persistenza delle azioni stesse. Anche in questo casi il raggiungimento dell’obiettivo è il risultato dell’interazione tra la tecnologia digitale e la gestibilità offerta dalla tecnologia IP. Sistemi di questo tipo permettono di considerare nuove opzioni per applicare modalità di sorveglianza differente e più efficaci: basti pensare alla possibilità di sostituire un sistema di ronda effettuato a 137 La sicurezza e la continuità del business intervalli di tempo più o meno lunghi, con un sistema di videosorveglianza che opera con continuità ed è in grado di segnalare automaticamente a uno più strutture di competenza un eventuale pericolo per la sicurezza. Le telecamere hanno poi funzioni di protezione intrinseca con la possibilità di inviare allarmi e/o attivare azioni in caso di possibili manomissioni alla telecamera stessa. Le telecamere su IP possono ospitare anche sistemi audio che ne estendono ulteriormente la flessibilità d’uso spingendole verso i limiti di un sistema interattivo a distanza in grado di abilitare l’interlocuzione tra chi si trova nei pressi della telecamera di sorveglianza e che la sta gestendo da remoto. Le opportunità del wireless nella videosorveglianza Lo sviluppo della connessione di rete wireless ha ampliato maggiormente le caratteristiche di flessibilità dei dispositivi di videosorveglianza digitale. L’arrivo del wireless nella videosorveglianza ha portato una serie di ulteriori benefici allargandone il raggio di utilizzo anche dove la tecnologia analogica o le reti DSL non potevano arrivare. C on le tecnologie wireless è possibile superare le barriere che hanno frenato l’adozione di sistemi di videosorveglianza in aree geografiche remote, che non sono ancora adeguatamente servite dai servizi di collegamento tramite fibra ottica. Ma è soprattutto la possibilità di posizionamento delle telecamere in aree solitamente poco favorevoli e la facilità e velocità con cui possono essere disinstallate e reinstallate in altre postazioni a conferire la massima versatilità ai sistemi wireless. I settori che possono beneficiare dell’adozione di tecnologie di videosorveglianza wireless vanno da quello della sicurezza pubblica a quello industriale fino al privato. In particolare nella Pubblica Amministrazione locale si sta assistendo alla diffusione di sistemi di videosorveglianza che garantiscono maggiore sicurezza ai cittadini e agli edifici storici nelle aree urbane ma anche nelle stazioni di treni e metropolitana, nei musei e nei centri storici e così via. Altre applicazioni di videosorveglianza wireless possono riguardare 138 La sicurezza e la continuità del business l’ambito industriale: per esempio per migliorare il controllo in tempo reale dei processi di produzione, sia a vantaggio dell’azienda sia per una maggiore sicurezza dei dipendenti oppure nell’attività di logistica e magazzino per controllare i flussi in entrata e uscita di merci, mezzi e persone. Un altro settore in cui si sta valutando l’adozione di sistemi di videosorveglianza è quello del monitoraggio in fase di smaltimento e riciclaggio dei rifiuti, per evitare che si verifichino attività in contrasto con le norme che ne stabiliscono le procedure nei limiti della legalità. Esistono più tipologie di connessione wireless che possono essere adottate nel settore della videosorveglianza in considerazione di diversi fattori quali le distanze da coprire, le caratteristiche morfologiche e climatiche dell’ambiente o l’area geografica in cui serve localizzarle. Le tecnologie Wi-Fi basano sullo standard EEE 802.11 b/g e hanno una frequenza di banda di 2,4 GHz con una velocità di trasmissione dati dai 11Mbit/s (nel caso dello standard b) a 54 Mbit/s (g). Hanno una potenza debole e coprono aree di qualche centinaio di metri ma sono frequenze libere che possono essere utilizzate senza licenze. Il Wi-Fi, a causa della maggiore sensibilità alle interferenze e per le distanze limitate che copre, risulta perciò poco adatto e affidabile per applicazioni di videosorveglianza wireless in aree esterne estese ma resta una soluzione possibile in ambienti chiusi e più ristretti. Per estendere ulteriormente la portata è necessario indirizzarsi verso altri standard come l’emergente 802.11n o le tecnologie che operano a frequenza più elevata (oltre i 5 GHz) come l’802.11a oppure lo standard di derivazione europea Hiperlan (High Performance Radio LAN) che è in grado di coprire distanze di oltre una decina di km. Anche il Wi-Max, che utilizza una banda di 3,5 GHz, copre distanze fino a venti km. Richiede una licenza e le bande sono state assegnate dal Ministero delle Comunicazioni e si dividono in tre blocchi: due a uso nazionale e uno regionale. Per l’implementazione di telecamere nei centri urbani è necessario che i dispositivi siano resistenti a interferenze elettromagnetiche e utilizzino frequenze libere per la connessione. Pertanto l’Hiperlan, grazie alle sue caratteristiche, si rende estremamente adatto a 139 La sicurezza e la continuità del business connettere dispositivi di videosorveglianza in aree urbane estese come pure in siti remoti. Anche la tecnologia Wi-Max che è quella tipicamente usata dagli operatori di telecomunicazioni ha una potenza di segnale che ben si adatta a un utilizzo in aree urbane. Prevede architetture point-tomultipoint, con una stazione base che connette il flusso di più telecamere localizzate in una determinata area. La necessità di licenza può risultare un ostacolo ma anche una garanzia della non interferenza delle frequenze. 140 La sicurezza e la continuità del business ŝȱȬȱȱȱȱ£ I capitoli seguenti sono un esempio di come alcune primarie società del settore hanno affrontato i problemi analizzati nel presente volume e sviluppato una strategia di prodotto e soluzioni volte ad affrontare il problema della sicurezza aziendale . Non rappresenta una presa di posizione degli autori del volume e quanto illustrato deriva dall’analisi di documentazione liberamente disponibile o fornita dalle società medesime. 141 Sicurezza aziendale e continuità del business 2011 ASTARO Le strategie e le architetture Astaro si è da subito presentata sul mercato con un approccio chiaro, impostata sul concetto di "tutto in uno", diventando uno dei fornitori più autorevoli nella produzione di soluzioni Unified Threat Management (UTM). Rispetto ad analoghe proposte concorrenti, la casa nata in Germania nel 2000 si distingue per il design della propria soluzione, nata intrinsecamente come UTM e non mutuata, come in altri casi, da un firewall o altro tipo di sistema e, conseguentemente, predisposta per adattarsi molto rapidamente alle evoluzioni della sicurezza, a detta dei suoi stessi responsabili. Astaro Security Gateway, certificato ICSA e Common Criteria, comprende quindi l'integrazione di molteplici applicazioni di sicurezza integrate in un unico apparato. È comunque possibile installare un'appliance per svolgere una sola funzione (come la network security o la mail security, per esempio). Più precisamente, la "natura" della protezione è software, essendo infatti disponibile sia sulle macchine targate Astaro sia come puro codice che può essere installato su un server del cliente o, anche, come licenza virtuale, cioè come applicazione da inserire in un'infrastruttura virtualizzata (a tal riguardo, Astaro Security Gateway dispone della certificazione VMware Ready). Più in dettaglio, osserviamo che la versione software comprende il sistema operativo e tutte le applicazioni di sicurezza in bundle, in un singolo file immagine software. Gli "apparati software", come li chiamano in Astaro, possono essere installati su hardware scelto dal cliente, cui viene lasciata così una flessibilità d'implementazione. L'installazione e la configurazione, come sottolineano i responsabili tecnici di Astaro, sono semplici e rapide, perché, rispetto alle tradizionali applicazioni software, non richiedono una precedente installazione del sistema operativo. 1 ASTARO Analogamente, gli "apparati virtuali" consistono in software, preinstallato e preconfigurato per gli ambienti VMware, che permette di realizzare una soluzione di sicurezza all in one per ambienti virtualizzati. Le funzioni disponibili includono network security, mail security, Web security e Web Application security. In tutti i casi si tratta della stessa unica soluzione, con tutte le funzionalità, così come la stessa soluzione è installata su tutte le macchine, che si differenziano per prestazioni e caratteristiche hardware, dal più piccolo modello da 10 utenti sino al grande da diverse migliaia di utenti. In altre parole, Astaro fornisce lo stesso livello di protezione al mondo enterprise come alla piccola e media impresa. Il beneficio, peraltro, è anche per i partner di Astaro (sono 2500 nel mondo), che devono investire nella formazione su un unico prodotto, con enormi risparmi sul training e sul fronte commerciale, essendo il listino unico e semplificato. Tale unica soluzione permette di facilitare la protezione della rete. In particolare, le aziende di piccole e medie dimensioni possono modellare un ambiente di rete più comodo ed efficace, proteggendosi dal furto di dati, dai virus, dallo spyware e dallo spam, come sarà analizzato più in dettaglio in seguito. Il portafoglio di Astaro è poi completato da strutture di reporting e gestione, che supportano anche il modello MMS (Managed Security Service). Un'architettura open Sono cinque le aree per una protezione estesa contemplate dalla soluzione Astaro Security Gateway: network security, Web security , mail security, WiFi, Web e firewall application. La sintesi utilizzata non deve banalizzare l'approccio che Astaro ha affinato sin dalla fondazione per opera di Gert Hansen, Jan Hichert e Markus Hennig, tre esperti di sicurezza provenienti dal mondo Open Source. Con questo ambiente tuttora viene mantenuto un ottimo rapporto, condividendone in linea di massima la filosofia, anche se oggi la tecnologia è ormai in gran parte proprietaria. Più precisamente, la società applica tuttora una forte condivisione delle informazioni. Astaro è inoltre uno dei principali player nei progetti open source di sicurezza e parecchi dei suoi sviluppatori sono anche attivi su famosi prodotti di sicurezza open source. In base alla collaudata qualità della piattaforma Linux, Astaro combina i maggiori prodotti commerciali e open source per la sicurezza per creare un appliance UTM in grado di fornire un'avanzata protezione per la rete, 2 Sicurezza aziendale e continuità del business 2011 integrando quest'ultima con i filtri Web e la protezione della posta elettronica in un'interfaccia utente basata sul Web, intuitiva e di facile uso. La tecnologia di base, come accennato, si sviluppa su cinque aree per una protezione estesa. La network security La network security riguarda tutto quello che è sicurezza perimetrale e che riguarda la rete, per cui una copertura che va dal firewall all'Intrusion Prevention System (IPS). Più precisamente, le funzionalità fornite in quest'ambito da Astaro comprendono: firewall, intrusion prevention, DoS protection, bandwidth control, VPN IPSec e VPN SSL, accesso remoto native Windows, autenticazione basata su molteplici sistemi di tipo directory (Active Directory, Edirectory, standard LAP ecc.) e la funzionalità UserPortal. Senza entrare nel dettaglio di ogni funzione, si osservi che il firewall, per cominciare, è di tipo a oggetti, quindi permette di risparmiare molto tempo nella configurazione perché è sufficiente definire un oggetto, come una workstation o un web server, e riutilizzare gli stessi dati associati a tale oggetto nell'intera configurazione. In pratica, cambiando una caratteristica di un oggetto (per esempio l'indirizzo di un Web server) tutte le policy e i servizi che usano questo oggetto saranno automaticamente aggiornati in base alla modifica effettuata. Nel caso del Web server, l'indirizzo dovrà essere modificato una sola volta, e tutte le regole che includono tale "server web" come oggetto verranno aggiornate istantaneamente in modo automatico. Si risparmiano ore di lavoro e si minimizzano le possibilità di errore umano rispetto ai metodi tradizionali, che correggono tutte le regole manualmente. Tutte le operazioni sono gestite tramite un’intuitiva interfaccia Web, sviluppata con le più moderne tecnologie software. Grazie a questa interfaccia, l’amministratore è in grado da remoto di gestire completamente e in un modo molto semplice tutte le funzionalità dell’appliance, eseguendo analisi dettagliate e approfondite grazie anche all’estesa reportistica integrata. Grazie a questo gli amministratori della sicurezza possono eseguire analisi dettagliate e approfondite, in base alle loro reali necessità. Il packet filter di Astaro, infine, è impostato di default su un blocco totale, anche qui accelerando i tempi di configurazione, la quale non richiede uno studio dei "blocchi di protezione": si tratta di "liberare" quanto occorre. 3 ASTARO L'IPS di Astaro analizza nel dettaglio i pacchetti in linea, bloccando quelli con contenuti "maligni". Questi vengono rilevati grazie a una serie di regole selezionabili tra oltre 8000 pattern differenti di un elenco che viene aggiornato a intervalli di pochi minuti. In questo modo, agisce praticamente in tempo reale, molto prima che possano essere eliminate le vulnerabilità installando le patch e, talvolta, prima ancora che le patch siano disponibili, proteggendo il sistema dalle nuove minacce, non appena queste vengono identificate e iniziano a diffondersi. Una funzione molto utile è quella per l'assegnazione e il controllo della banda (Quality of Service), che nel caso di Astaro risulta particolarmente semplice: basta infatti specificare la larghezza di banda totale fornita dal provider e automaticamente vengono generate da un motore "intelligente" le regole per ottimizzare l'uso della stessa. La suddivisione e la prioritizzazione dei pacchetti di piccole dimensioni vengono eseguite automaticamente. Per gli utenti più esigenti, è possibile definire regole specifiche da associare a specifici pattern di traffico o a porte predefinite, assegnando una banda minima e una banda massima. L'utente può determinare quali applicazioni o utenti avranno accesso a Internet, con la possibilità di controllare anche in che modo una data risorsa fissa viene utilizzata in condizioni differenti. Questo funzionamento si presta particolamente per il controllo dei software P2P e IM, noti per il consumo e abuso della banda. Le possibilità di accesso remoto sono molteplici, con l'utilizzo di VPN basate su protocolli standard, come IPSec o SSL, o con soluzioni a basso costo incluse in Windows, per le cui funzioni Astaro Security Gateway può fungere da terminazione del tunnel. Da segnalare la disponibilità di un DNS dinamico (DynDNS). Inoltre, vale la pena evidenziare che la procedura di installazione e connessione di accesso remoto SSL Astaro non richiede alcuna conoscenza o esperienza tecnica. Il client VPN SSL di Astaro è disponibile gratuitamente, e consente l'accesso a questo tipo di connessione a un numero illimitato di utenti. Un ulteriore elemento che contraddistingue Astaro per la sua elevata capacità di integrazione con ambienti esistenti è l'autenticazione. La soluzione Astaro è in grado di interfacciarsi con vari tipi di server di autenticazione e dispone di specifiche funzioni di integrazione con Active Directory, eDirector, Radius, Tacas+ e Ldap. È dunque possibile "appoggiarsi" alle directory già presenti in azienda, che contengono tutte le informazioni relative a singoli utenti e gruppi, incluse le combinazioni di accesso con nome utente e password, e riutilizzare tali dati per la creazione delle nuove regole di accesso e sicurezza. Tale soluzione consente agli utenti 4 Sicurezza aziendale e continuità del business 2011 di navigare in rete, visualizzare i messaggi e-mail in quarantena e connettersi alla rete VPN, utilizzando sempre la medesima combinazione di nome utente e password esistente. Gli amministratori potranno poi generare rapporti dettagliati in base ai nominativi dei singoli utenti. Una caratteristica peculiare di Astaro è quella di poter supportare più server di autenticazione contemporaneamente, utilizzando sempre lo stesso protocollo di autenticazione. Una videata di Astaro UserPortal Infine, una menzione merita anche Astaro UserPortal, che pure consente risparmi di tempo importanti per lo staff IT. All'atto pratico, applica una formula self-service che consente al personale aziendale di gestire alcune funzionalità essenziali in totale autonomia. Mettendo a disposizione numerose funzionalità di personalizzazione, il portale permette, per esempio, all'utente di creare la propria white list per lo spamming, oppure consultare l'elenco dei messaggi classificati spam in quarantena per reperire i messaggi desiderati. La consultazione della posta può essere effettuata anche in remoto, da qualsiasi luogo, perché, una volta effettuato l'accesso, gli utenti potranno scaricare il loro client SSL VPN, istituendo una connessione sicura alle risorse protette dalle soluzioni Astaro. 5 ASTARO Astaro UserPortal, inoltre, fornisce un log di posta completamente personalizzabile. Pertanto, se un messaggio viene ricevuto e poi cancellato a causa di un virus oppure rispedito al mittente perché il suo contenuto corrisponde alle parole chiave di una data black list, l'utente sarà ancora in grado di determinare con esattezza cosa è accaduto al suo messaggio, anche quando il messaggio non è stato ricevuto o salvato nella cartella di quarantena. La Mail security Astaro Mail Security si occupa di fornire le soluzioni per la protezione della posta elettronica, che rappresenta un'importante fonte di pericolo a causa di minacce, quali virus, spam, phishing o violazioni della privacy. La protezione dai virus fornita da Astaro impiega un doppio sistema di scansione per file, messaggi e-mail e oggetti contenuti nei siti web, utilizzando due motori differenti che operano parallelamente. In questo modo il rischio di un ritardo nel riconoscimento di un virus per un mancato aggiornamento è molto ridotto. Il sistema, inoltre, emette una pagina di notifica per informare gli utenti, che dovessero trovarsi davanti a un virus durante la navigazione su Internet o durante il download di file, di quanto accaduto e del perché la connessione o il download sia stato bloccato. Si evitano così confusioni e relative chiamate all'help desk. Analogamente, i messaggi e-mail contenenti virus possono essere messi in quarantena per poi essere visualizzati, oppure vengono eliminati immediatamente, mentre un report integrato provvede a informare l'utente dell'evento. Per quanto riguarda lo spam, il toolkit di Mail Filtering di Astaro dispone di un motore di scansione primario che utilizza una tecnologia basata su un pattern globali e sul fingerprinting, per bloccare lo spamming e tenere pulita la casella di posta degli utenti. L'identificazione dei messaggi di spamming avviene mediante la comunicazione in tempo reale tra l'applicazione antispamming e una rete composta da milioni di analizzatori e partecipanti attivi che effettuano la scansione elettronica dei messaggi, scambiandosi le fingerprint dei messaggi e-mail ricevuti. Un approccio proattivo che consente di ottenere le notifiche delle nuove minacce di spamming in pochi secondi, per cui Astaro è in grado di classificare i messaggi come spam o come validi in tempo reale, senza curarsi della lingua in cui il messaggio è stato scritto o del suo contenuto interno. Infatti, come spiegano i responsabili della società, l'antispam di Astaro effettua la tracciatura e l'identificazione 6 Sicurezza aziendale e continuità del business 2011 dello spamming fin dal momento del lancio e della diffusione, eseguendo la scansione in tempi molto più rapidi e con maggiore accuratezza rispetto alle tradizionali soluzioni che analizzano nel dettaglio i messaggi in base a un gruppo prefissato di regole predefinite. Astaro antispamming Un altro problema collegato con la posta elettronica è la sua trasparenza. Per ridurre il rischio di violazioni della privacy, Astaro Email Encryption permette di crittografare i messaggi. Come sottolineato dai responsabili della società, la soluzione si distingue per la semplicità, che elimina i costi, spesso molto elevati, di formazione sull'implementazione e utilizzo di una tecnologia d'encryption. In particolare, il sistema Astaro s'integra in modo trasparente nei gateway, crittografando e decrittografando automaticamente i messaggi, con la possibilità per gli amministratori IT di gestire tutte le operazioni da un pannello di controllo centralizzato. Una volta abilitato, il motore di encryption della posta può essere preconfigurato con una serie di chiavi di crittografia PGP o S/MIME dei mittenti e dei destinatari potenziali. La soluzione Astaro è anche in grado di “estrapolare” le chiavi contenute nei messaggi. Questo facilita la comunicazione con utenti esterni che usano mail crittografato. La prima volta che uno di essi invierà un messaggio e-mail contenente la sua chiave o la firma elettronica a un dipendente dell'azienda che usa il sistema di 7 ASTARO encryption Astaro, questo rileverà la presenza di tali dati, memorizzandoli. Da quel momento in poi, tutte le e-mail inviate a quell'utente verranno crittografate automaticamente, mentre egli potrà decrittografarle con il sistema da lui normalmente utilizzato. Per l'accesso alla posta da remoto è poi disponibile il già citato Astaro UserPortal. La Web security La Web security concerne tutto quanto ruota attorno al Web, ivi compreso le chat e il peer to peer. In altre parole, ambienti Internet in cui si annidano molte e variegate minacce. Un primo livello di protezione è fornito dalla scansione antivirus, come già accennato nel precedente paragrafo. A questo si aggiungono altre funzionalità, a partire dall'URL filtering per arrivare a spyware protection, HTTPS scanning e al controllo di peer-to-peer e istant messaging. L'URL Filtering di Astaro permette alle aziende di proteggere gli utenti durante la navigazione Web, potendo bloccare o consentire qualunque tipo di contenuto, dal singolo URL fino a intere categorie o tipologie di URL. Grazie alle funzioni di reporting integrate sarà possibile determinare quali utenti hanno visitato determinati siti, quando lo hanno fatto e per quante volte, unitamente alle statistiche relative all'utilizzo della banda passante, che permettono di dettagliare gli eventuali abusi. Anche in questo caso, la soluzione proposta da Astaro si distingue per la semplificazione della configurazione. Come spiegano i tecnici della società, infatti, è sufficiente abilitare il filtro URL e quindi selezionare i contenuti da bloccare e gli utenti a cui devono essere applicate le restrizioni. È possibile creare profili multipli, da assegnare a diverse tipologie di utenti o dispositivi. Per esempio, è possibile applicare forti restrizioni alla LAN wireless degli account ospiti utilizzati da visitatori esterni all'azienda lasciando al contempo maggiore libertà di azione alle postazioni del personale interno. La granularità nel controllo dei contenuti accessibili è rappresentata dalle 95 categorie di classificazione, mentre l'utilizzo congiunto con una directory d'autenticazione aziendale consente di definire regole per gli utenti e i gruppi esistenti. Report dettagliati illustrano l'efficacia delle security policy adottate e l'eventuale necessità di apportare azioni correttive. La funzione antispyware, invece, si avvale di un database aggiornato in tempo reale contenente miliardi di URL classificati come spyware che, in 8 Sicurezza aziendale e continuità del business 2011 caso di accesso da parte dell'utente, vengono bloccati, inviando all'utente un messaggio di notifica. Il filtro antispyware Astaro, come spiegato dalla stessa società, è in grado di apportare benefici anche nei casi in cui lo spyware riuscisse a penetrare all'interno della rete mediante un mezzo fisico, come un disco esterno o una chiavetta USB. Per ovviare ai rischi rappresentato dal falso senso di sicurezza indotto dal protocollo HTTPS (sui siti che lo usano, infatti, possono essere annidati comunque codici maligni), Astaro propone un filtro in grado di esaminare i flussi di pacchetti crittografati dall'interno, utilizzando un avanzato approccio di tipo man-in-the-middle, per consentire un controllo completo e approfondito. Sugli apparati Astaro è presente un certificato CA dedicato, che può essere scaricato direttamente dal portale utenti, oppure essere implementato mediante Microsoft Access Directory, in modo tale che sul client non venga visualizzato alcun avviso di sicurezza o di sito non fidato L'URL filtering può essere eseguito su tutti i siti ai quali si accede e il filtro HTTPS Astaro è anche in grado di effettuare la scansione approfondita del flusso dati, identificando virus, spyware e contenuti maligni che tentano di accedere alla rete attraverso la connessione HTTPS. Videata di Astaro User Reporting Per quanto riguarda, invece, IM e P2P, Astaro utilizza una tecnologia basata sul riconoscimento, che permette d'identificare efficacemente queste 9 ASTARO tipologie di software, consentendo agli amministratori IT d'implementare regole singole mirate a bloccare tali programmi. Gli amministratori possono monitorare le modalità di utilizzo di questo tipo di programmi da parte degli utenti, bloccandone anche le funzioni di invio e ricezione file. Il sistema, inoltre, non si lascia ingannare dalle "maschere" a volte adottate da queste applicazioni, grazie a un riconoscimento approfondito. Tutte le operazioni sono registrate e report dettagliati mostrano il tipo di utilizzo che viene fatto di Internet e della banda passante. I rapporti sono presentati a livello aggregato, consentendo una successiva navigazione vieppiù approfondita. La Wireless Security Più specifica, poi, la sicurezza dell'accesso wireless, per la quale Astaro ha sviluppato la Wireless security, con soluzioni avanzate per i propri access point. In pratica, come spiegano i responsabili Astaro, con gli access point Astaro AP 10 e AP 30, si realizza rapidamente una rete wireless sicura. Più precisamente, è possibile sia creare una rete Wi-Fi completamente nuova, sia estenderne una esistente, realizzando un bridging sul punto in cui l'access point è collegato fisicamente. Gli apparati d'accesso wireless Astaro, in particolare, non richiedono alcuna configurazione, in quanto le funzioni intelligenti dell'access point sono state limitate al minimo indispensabile, per essere centralizzate sul controller wireless. A fungere da quest'ultimo è di fatto l'Astaro Security Gateway. Tutte le procedure di configurazione, registrazione e individuazione e risoluzione problemi, dunque, vengono eseguite direttamente dalla postazione in cui è installato l'apparato Astaro Security Gateway. Le funzioni di reporting integrate di Astaro visualizzano tutte le informazioni sui client wireless connessi, senza richiedere l'uso di tool esterni di altri produttori. Con questo approccio, come sottolineato dai responsabili Astaro, si riducono notevolmente i costi di gestione totali delle LAN wireless, grazie ai ridotti costi richiesti per gli upgrade e alla maggiore semplicità di migrazione verso le tecnologie future. L'application Security Infine, un'area di crescente criticità è quella dell'application security, che comprende sistemi di Web server firewalling per proteggere le applicazioni da attacchi SQL injection, URL disrupting e così via. 10 Sicurezza aziendale e continuità del business 2011 In particolare, la soluzione impiega tecniche di reverse proxy, oltre a un Web application firewall e al già citato antivirus a doppia scansione. Grazie alla tecnologia di reverse proxy di Astaro, l'amministratore può controllare il traffico in ingresso sui server, proteggendolo con le opzioni di scansione e di sicurezza desiderate. Semplificata, inoltre, la configurazione rispetto a soluzioni analoghe: è possibile, infatti, specificare manualmente il server interno (o i server se più di uno) che si desidera proteggere, oppure è possibile eseguire una scansione automatica che consente di identificare le macchine che attualmente dispongono di servizi HTTP e HTTPS interni attivi. Successivamente, sarà sufficiente definire quale tipo di interfaccia o quale alias di indirizzo IP utilizzare per consentire l'accesso ai server selezionati dalla rete Internet pubblica e infine applicare i profili di protezione definiti in base alle esigenze specifiche dell'amministratore. Astaro Application Control, inoltre, permette agli amministratori di monitorare quali applicazioni vengono utilizzate e da chi, aggiungendo funzionalità firewall di nuova generazione che forniscono visibilità sull’utilizzo di Internet, per bloccare applicazioni indesiderate come Facebook, per esempio, e a fissare le priorità nell’utilizzo della larghezza di banda Internet. Si può così limitare l’uso di applicazioni che abbassano la produttività permettendo invece l’accesso a quelle necessarie ai dipendenti per adempiere alle proprie responsabilità. La funzione di reverse proxy consente inoltre di alleggerire il carico del traffico dati crittografato mediante protocollo HTTPS in transito sui server Web. Mentre i visitatori eseguono la connessione al sito aziendale direttamente su protocollo HTTPS, infatti, la soluzione Astaro Security Gateway provvede alla decriptazione del traffico dati, che viene poi inoltrato ai server interni come traffico HTTP standard. In alternativa, se la situazione lo richiede, i visitatori possono effettuare l'accesso direttamente con protocollo HTTP, per poi eseguire il passaggio al protocollo criptato HTTPS durante l'intero tragitto che dalla rete interna porta ai server di destinazione. Come spiegato dalla società, grazie al supporto ai certificati di produttori terzi e all'estrema semplicità di esecuzione dell'intero processo, gestibile da interfaccia grafica in modo chiaro e accurato, Astaro Security Gateway consente di garantire la massima sicurezza al traffico dati, senza alcuna necessità di utilizzare personale specializzato per l'esecuzione delle operazioni richieste. URL hardening e cookie protection completano le funzionalità disponibili per estendere l'utilizzo sicuro delle applicazioni Web. 11 ASTARO La gestione con Astaro Command Center Astaro Command Center è un sistema per la gestione centralizzata delle applicazioni dedicate alla sicurezza. Consente, dunque, di avere una visione chiara della situazione e dei trend sulla sicurezza, monitorando la stessa senza dover guardare una miriade sparsa di dati. Tramite un semplice login, si può amministrare anche tutti i prodotti Astaro, attraverso intuitivi report sull'hardware in tempo reale, potendo operare monitoraggio e gestione di tutti i dispositivi in modo efficiente e produttivo. Tramite Astaro Command Center è inoltre possibile creare, in pochi passaggi, tunnel VPN IPSec, implementando regole per postazioni multiple. Soluzioni e servizi Oltre all'architettura aperta e completa, Astaro Security Gateway presenta tecnologie innovative per un elevato livello di protezione. A parte il firewall di tipo stateful e l'IPS in grado di bloccare oltre 8mila tipi di attacco, vanno evidenziate, per esempio, la dotazione di due motori indipendenti per la scansione dei virus e quella di una crittografia trasparente (con tecnologie TLS, OpenPGP o S/MIME), che appone una firma univoca e codifica i messaggi di posta, senza bisogno di installare un client dedicato. Le appliance Astaro Security Gateway Per quanto riguarda la versione appliance, va sottolineata l'ampiezza dell'offerta hardware, che parte da un modello entry level (limitato a 10 utenti ma che può arrivare a 80), per salire a 300, 800, 1500, 3500 e 5000, con una scalabilità destinata a crescere. Il throughput dipende dai livelli di sicurezza attivi, ma, secondo dati forniti del costruttore parte, per quanto riguarda l'UTM da 35 Mbps sul modello da 10 utenti, fino a 350 Mbps per il più grande. Astaro Mail Archiving Altra soluzione innovativa è Astaro Mail Archiving, una soluzione per l'archiviazione sicura e conforme alle normative vigenti della posta 12 Sicurezza aziendale e continuità del business 2011 elettronica. Molteplici i vantaggi, che, a detta dei responsabili, derivano in buona parte dalla semplicità della soluzione. In pochi minuti e click è possibile configurare gli archivi, dopodiché si ha la garanzia di un'archiviazione continua abbinata a una capacità di ricerca rapida, fornita da Outlook Archive Search. Un'estensione con una "App" gratuita nell'Apple Store consente di accedere alla propria posta da ovunque tramite iPhone. Architettura di Astaro Mail Archiving RED (Remote Ethernet Device) Lo sviluppo di tecnologie innovative, insieme alla filosofia di condivisione informativa mutuata dall'open source, contribuisce a conferire all'azienda tedesca, che vanta circa 40mila clienti, la fama di visionaria. A tal riguardo, merita una menzione speciale una soluzione che pone nuovi riferimenti nell'ambito delle connessioni in VPN (Virtual Private Network). Si tratta di RED (Remote Ethernet Device), una "scatoletta" che consente di collegare in VPN sedi o utenti remoti in modo assolutamente sicuro e plug and play: come se si "estendesse" il cavo Ethernet dall'azienda all'utente. Ma non è un semplice "tunnel": RED fornisce la stessa sicurezza UTM completa che si ha nella sede centrale, anche ai più piccoli uffici remoti o home office (interessante per il telelavoro crescente, per esempio). L'intero traffico dati fra la filiale e Internet, infatti, viene instradato attraverso un tunnel criptato verso l'Astaro Security Gateway centrale e qui viene eseguito il rilevamento di virus, spam e programmi maligni. Elevata anche la semplicità d'installazione: le appliance RED dovranno solo essere spedite presso le sedi remote, dove basta collegarle al router Internet e accederle (senza che siano richieste 13 competenze). La configurazione, invece, viene effettuata ASTARO centralmente presso la sede aziendale tramite Astaro Security Gateway e viene poi distribuita automaticamente a tutte le appliance RED collegate. Stando a quanto comunicato dalla società, RED è utile anche per collegare dispositivi in remoto, come le telecamere di videosorveglianza. Architettura di Astaro RED Servizio di Mail Archiving In termini di vision, non poteva mancare, ovviamente, una predisposizione verso il cloud: Astaro, infatti, sta sempre più spingendo in una logica di Security as a Service. Il primo a essere stato reso disponibile, partendo ovviamente dalla relativa soluzione disponibile come applicazione, è un servizio di Mail Archiving in the cloud, con la possibilità di attivare solo le funzionalità che occorrono, pagando un abbonamento annuale: se non si rinnova, si spegne il servizio. Astaro Log Management Astaro Log Management consente agli utenti dell’Astaro Security Gateway di memorizzare e analizzare centralmente i dati di log provenienti da tutti i sistemi e le applicazioni. Grazie al suo error tracking, alla politica di protezione e agli alert automatici, si può ridurre il tempo di risoluzione dei problemi fino al 80%, secondo dati dichiarati da Astaro, aiutando al tempo stesso le aziende a conformarsi allo standard PCI e ad altri regolamenti. 14 Sicurezza aziendale e continuità del business 2011 Astaro Endpoint Security Astaro Endpoint Security aggiunge Data Leakage Prevention che consente di controllare l'utilizzo delle porte USB, lettori DVD e altri dispositivi periferici. Gestiti da un Astaro Security Gateway (ASG) centralizzato, gli agenti di sicurezza possono essere facilmente attivati su ogni dispositivo della vostra rete locale come anche su dispositivi remoti. Questa funzione include ampie caratteristiche di reporting che consentono agli amministratori IT di analizzare l'utilizzo del dispositivo e tenere traccia della posizione di ogni macchina in caso di furto o smarrimento. La società Con oltre 56.000 installazioni, Astaro protegge reti aziendali, scolastiche e governative dalle minacce alla sicurezza IT. Il pluri-premiato Astaro Security Gateway, che ha ricevuto le certificazioni ICSA e Common Criteria, combina tecnologie avanzate in un'unica interfaccia, fornendo una soluzione completa per sedi aziendali, data center e uffici periferici. Astaro, con sedi principali a Wilmington, negli Stati Uniti e a Karlsruhe, in Germania, consente di effettuare download gratuiti dei propri prodotti su www.astaro.com. Sullo stesso sito si possono trovare ulteriori informazioni. 15 Sicurezza aziendale e continuità del business 2011 BT Un elemento fondamentale nella sicurezza aziendale e nelle soluzioni che la implementano, evidenzia Bruce Schneier, Chief Security Technology Officier di BT ed uno dei maggiori esperti mondiali nel settore della sicurezza, è che sia possibile stabilire una relazione di fiducia, trusted, tra le entità che entrano in relazione di business, siano essi dispositivi informatici, applicazioni o dipendenti aziendali, e questo sia che si operi da postazioni fisse che mobili. Il concetto, che si applica in un contesto di infrastruttura IT aziendale, assume ancor maggior valenza nel cloud computing, dove spesso non è possibile sapere dove si trovino i server che elaborano le applicazioni fruite o, cosa ancor più critica per la sicurezza, dove si trova lo storage fisico su cui sono memorizzate le informazioni aziendali. L’evoluzione verso il cloud computing obbliga in sostanza, evidenzia BT, a vedere in modo nuovo l’intero concetto di sicurezza e considerare nell’equazione non solo algoritmi o meccanismi di protezione, ma tutto quanto concerne a far si che sia possibile stabilire relazioni di fiducia tra le entità coinvolte in un processo di business. Il problema è che la sicurezza ha oggi una valenza molto diversa anche da soli pochi anni fa e la protezione dalle minacce esterne è solo uno degli aspetti. Altri, parimenti importanti, riguardano la sicurezza del business, la disponibilità delle informazioni, l’adeguamento delle infrastrutture e dei processi aziendali. In pratica, se il “dato” aziendale, come asset, deve essere protetto, un’azienda, come entità, deve essere resa sicura nei confronti del 1 BT mercato, e deve essere in grado di stabilire relazioni trusted con i propri partner e i propri clienti. Soluzioni per un IT sicuro e trusted Per rispondere ad un’esigenza di sicurezza globale in uno scenario in forte evoluzione BT ha sviluppato modelli di servizi che prendono atto del fatto che il CIO ha il problema di reperire non solo il budget ma anche le relative competenze. Infatti, se l’adozione di tecnologie aperte in un mercato globale è una concreta opportunità di business, gli strumenti che si usano per operare nel market place possono risultare molto rischiosi. In assenza delle corrette tecnologie e capacità gestionali atte a mitigare i rischi l’impatto economico potrebbe essere molto pesante. Per permettere alle aziende di ottimizzare il ROI, pur in uno scenario di limitata disponibilità di budget e per abilitare la riduzione di spese in conto capitale, BT ha sviluppato un’offerta che prevede la fruizione di risorse ICT e la fornitura sia di servizi di sicurezza che di governance con un approccio aderente al modello di Cloud Computing, che permette di pagare le risorse usate in base al consumo e alle effettive necessità. In pratica, è possibile disporre rapidamente di soluzioni IT per la sicurezza e la protezione dei dati senza doversi preoccupare di conoscenze specifiche o di ottenere tutta la serie di certificazioni richieste dalle severe normative in vigore e neppure di doversi occupare di mantenere in futuro la compliance, perché del tutto si occupa BT. L’approccio sviluppato è stato adottato da BT sia per quanto concerne la sua offerta di Virtual Data Center che per quanto concerne l’offerta di Sicurezza, che abbraccia tematiche che vanno dalla classica sicurezza perimetrale all’intrusion prevention, dalla consulenza normativa alla Governance totale dell’IT. 2 Sicurezza aziendale e continuità del business 2011 I servizi IT In campo IT e in particolare per quanto concerne la sicurezza e la protezione dei dati aziendali, BT Italia ha sviluppato un portfolio di soluzioni molto ampio, che ora comprende “Managed IT Services” e soluzioni di Business Continuity, Security e Governance, erogate tramite infrastrutture di proprietà (data center di ultima generazione) e di competenze riconosciutole dal mercato. L’offerta di BT ha l’obiettivo di assicurare la massima disponibilità e sicurezza alle applicazioni e ai sistemi delle aziende. Si basa su infrastrutture (rete e datacenter) che adottano le tecnologie best of breed e le architetture più recenti, con processi e competenze in grado di supportare la gestione (ordinaria e non) e la prevenzione di eventuali problemi. A partire dal 2008, per rispondere in modo specifico alle esigenze di sicurezza e flessibilità, ha realizzato il Business Continuity Control Center, un centro di controllo integrato per la gestione delle problematiche relative ai servizi ed alle infrastrutture (rete, sistemi, sicurezza e applicazioni). E’ operativo h24, costituisce per le aziende un unico punto di contatto presso cui è possibile trovare tecnici specializzati ed è organizzato secondo le best practices ITIL (Information Technology Infrastructure Library), per la gestione di incident, service request e variazioni sui servizi IT erogati. Tramite i servizi e il centro, BT ha realizzato numerosi progetti a supporto della business continuity delle aziende ed ha accumulato una forte esperienza in field nel campo del Disaster Recovery, corollario indispensabile per la sicurezza del business. A questi servizi si aggiunge la tematica di rilievo per le aziende del SAP Management, che BT propone in due modalità, Remote Administration o Full Outsourcing, attraverso ERPTech (società 100% BT, certificata SAP Partner Hosting) e i Servizi Professionali, questo anche a seguito dell’integrazione delle competenze apportate in BT Italia dalle sue 3 BT acquisizioni (in particolare INS, focalizzata nell’assistenza nella progettazione, realizzazione, protezione e gestione di reti di natura businesscritical e Counterpane, operante nel campo della sicurezza digitale). Rete e data center di eccellenza Tre gli elementi chiave nella piattaforma dei servizi BT: la rete, le business factory e il business continuity center. BT Italia ha una rete di proprietà in fibra ottica, di oltre 14.000 chilometri, estesa su tutto il territorio nazionale e connessa alla rete paneuropea e mondiale di BT. La rete eroga servizi in più di 170 Paesi ed è stata progettata e realizzata in aderenza ad elevati livelli di sicurezza, flessibilità, scalabilità e affidabilità. Alla rete IP nazionale e a quella globale sono connessi a Milano e Roma i data center che erogano servizi business critical alla clientela o all’utenza interna distribuita sul territorio, le architetture di disaster recovery ed anche le infrastrutture necessarie alla gestione h24 di reti, sistemi e applicazioni. Sono stati progettati per costituire le infrastrutture abilitanti per la realizzazione di progetti nei quali siano un requisito fondamentale elevati livelli di sicurezza logica e fisica, disponibilità e affidabilità dei servizi, prestazioni e capacità di gestione e personalizzazione. Terzo elemento chiave è, come accennato, il Business Continuity Control Center. E’ stato sviluppato da BT per far convergere in un unico centro tutte le capacità BT di monitoraggio e gestione di reti, sistemi, applicazioni e sicurezza. Il centro dispone di risorse tecniche specialistiche, processi e procedure operative dedicate alla gestione e alla erogazione centralizzata dei servizi. E’ stato strutturato e dimensionato per assicurare un funzionamento h24 di tutti i servizi erogati alle aziende. 4 Sicurezza aziendale e continuità del business 2011 CHECK POINT Check Point Software Technologies ha maturato negli anni una visione completa della sicurezza, avendone seguito l’evoluzione sin dal 1993, anno della sua fondazione. Ma oggi appare molto diversa rispetto agli esordi, quando proponeva un firewall avanzato e subito dopo introduceva le Virtual Private Network, posizionandosi come best of breed nel proprio ambito. Negli anni, l'offerta è stata ampliata con vari tasselli, sempre nella logica di perseguire l'eccellenza, Ma oggi, secondo la strategia della società, la sicurezza non può più essere una mera collezione di tecnologie puntuali, pur ottime e potenti, perché i bisogni delle aziende in termini di sicurezza e l'approccio verso quest'ultima sono cambiati. Un nuovo approccio che rappresenta il primo forte elemento di discontinuità rispetto al passato, cui corrisponde una nuova strategia basata sulla visione "3D Security" di Check Point. Secondo tale visione, la sicurezza va considerata quale un processo aziendale come altri, fortemente decisivo per i destini dell'azienda. Come tale deve essere funzionale innanzitutto agli obiettivi di business. È partendo da questi, in altre parole, che ogni azienda deve definire i requisiti della sicurezza, in base ai quali si devono definire al meglio le policy. Queste ultime, peraltro, rappresentano "soltanto" la prima delle tre dimensioni in cui va articolata la sicurezza: policy, appunto, persone ed enforcement. 1 CHECK POINT SOFTWARE TECHNOLOGIES La 3D Security Secondo quanto spiegato dai responsabili di Check Point, la 3D Security permette alle imprese d'implementare un concetto di sicurezza che va oltre la tecnologia, interpretandolo come processo di business e razionalizzando al contempo investimenti e attività operative per garantire l'integrità di tutte le informazioni. In altre parole, il giusto livello di sicurezza per conseguire gli obiettivi di business prefissati. Questo è possibile attraverso le tre dimensioni: Policy - La sicurezza parte da policy ben definite e ampiamente condivise che ricalcano esigenze e strategie organizzative. La definizione delle policy è da sempre il punto di partenza di un sistema per l'ICT sicurezza, ma la maggior parte delle aziende moderne, secondo quanto affermato dai manager di Check Point, oggi non dispone di tali policy, affidandosi a liste di controllo "system-level" e a un insieme di varie tecnologie. Rispetto a tali sistemi "tradizionali", tipicamente rigidi nel descrivere al firewall i parametri per sorgente, destinazione, servizio e azione, le nuove soluzioni di Check Point consentono di supportare più da vicino i bisogni del business. Per esempio, la sorgente non è un indirizzo IP o un segmento di rete, ma un gruppo di utenti o anche un singolo utente. Non si descrive un protocollo, ma un servizio specifico e in maniera anche granulare, tanto che è possibile definire una policy che, per esempio, consente al gruppo del marketing di accedere a Facebook, ma inibendo l'accesso ai servizi di "svago" forniti dal noto sito di social networking e permettendo solo quanto necessario per aggiornare la pagina aziendale. In questo modo è possibile supportare un utilizzo anche professionale delle molte opportunità offerte dal Web 2.0. Le persone/utenti - Gli utilizzatore dei sistemi IT rappresentano una parte critica del processo di sicurezza. Anche senza dolo, succede spesso, infatti, che commettano errori, provochino infezioni da malware e causino fuga di informazioni. Secondo Check Point le persone devono essere coinvolte, mentre in passato le tecnologie venivano calate dall'alto e non spiegate, con il rischio concreto che il comportamento dell'utilizzatore ne inficiasse 2 Sicurezza aziendale e continuità del business 2011 l'efficacia. È un problema di cultura che spesso viene trascurato in azienda, anche perché risulta difficile far cambiare abitudini. Basta, però, anche solo informare gli utenti, perché questi diventino parte attiva e non sviluppino comportamenti che possano mettere a repentaglio la sicurezza quando navigano su Internet o condividono dati sensibili. Al tempo stesso, la sicurezza dovrebbe essere più semplice e trasparente possibile e non dovrebbe modificare il modo di lavorare degli utenti. Enforcement – L'enforcement rappresenta l'insieme di tecnologie e applicazioni che permettono di realizzare le policy e favoriscono il comportamento corretto degli utenti. Secondo Check Point,: sicurezza significa ottenere un migliore controllo sui diversi strati di protezione. Impiegando prodotti disparati, ciascuno con un proprio linguaggio per le policy e ognuno focalizzato su un singolo aspetto, purtroppo le aziende rischiano di perdere questa capacità di controllo. In alcuni casi, per esempio, i sistemi di sicurezza generano report che avvisano di una violazione in atto, ma non applicano le policy di risposta. Le aziende devono e possono raggiungere un più alto livello di visibilità e di controllo consolidando la propria infrastruttura di sicurezza e utilizzando sistemi che prevengono gli incidenti piuttosto che limitarsi a rilevarli. Le soluzioni per la 3D Security di Check Point prevedono automatismi, che accelerano le risposte agli eventi di sicurezza, e meccanismi che consentono di applicare le policy precedentemente definite e che mantengono consapevole e informato l'utente finale, aiutando anche quest'ultimo a rispettare le policy. Questa visione rimarrebbe un approccio teorico se non fosse supportata da un unico sistema per la gestione e correlazione degli eventi di sicurezza, che conferisce dinamicità e flessibilità, favorendo la consistenza delle policy e la loro applicazione. L'architettura in una release Check Point ha rilasciato la R75, prima release del sistema per la sicurezza di rete che consente di implementare gli elementi di questo approccio multidimensionale, sulla base della software blade architecture, già introdotta da un paio d'anni circa. Non è facile, però, educare e coinvolgere gli utenti; così 3 CHECK POINT SOFTWARE TECHNOLOGIES come è difficile "imporre" la sicurezza e l'applicazione delle policy senza automatismi. Questi ultimi, peraltro, non possono apparire come un vincolo troppo ristrettivo o addirittura un ostacolo. Ecco che la società israeliana ha ulteriormente affinato la soluzione di User Check, già introdotta da qualche tempo con la prima versione del DLP, per un enforcement "informato". Di fatto tutte le attività sono registrate, mentre automatismi avvisano l'utente degli eventuali comportamenti non consentiti o non consigliati: è possibile bloccarli o permettere una sorta di "autocertificazione". Questo a più livelli: per esempio per l'accesso al Web o altre risorse (application control), oppure per l'invio di documenti riservati (DLP). In questo modo, si limita il rischio di "errori" dovuti all'ingenuità dell'utente. Ovviamente c'è molta granularità, dando privilegi automatici o blocchi definitivi (per esempio, per alcuni documenti si può stabilire che non sono ammesse eccezioni). Con la release R75 del sistema per la sicurezza di rete vengono aggiunte le funzionalità necessarie a completare la vision della 3D Security L'inserimento all'interno della R75, delle blade Application Control, ID Awareness e Mobile Access, hanno consentito di completare il quadro della 3D Security, cioè di realizzare il sistema unico di gestione unificata che permette di definire le policy, coinvolgere le persone e applicare la sicurezza e le sue policy. La granularità nella definizione delle policy, in particolare, è resa possibile dall'altrettanto elevata granularità nell'identificazione delle persone fisiche. Le funzionalità fornite da ID Awareness software blade 4 Sicurezza aziendale e continuità del business 2011 sono, quindi, fondamentali per garantire una corretta assegnazione dei privilegi e concretizzare l'applicazione delle policy stesse. L'Application Control software blade, da parte propria, estende la protezione e il controllo a tutte le applicazioni Web, ai siti di social networking e ai vari servizi che sono accessibili sulla Rete. La soluzione consente di definire policy di security e di utilizzo. Più precisamente, è possibile rilevare e controllare l'uso delle applicazioni in maniera granulare, grazie alla sofisticata definizione degli utenti: per esempio, Mario Rossi dalla macchina 1234 può accedere alle seguenti applicazioni. Mobile Access Software Blade risponde al crescente bisogno di protezione per i dispositivi e le connessioni mobili. La soluzione, a detta dei responsabili di Check Point, garantisce una connettività sicura e protegge i dati con una cifratura molto consolidata. Si tratta di ambienti che non sono ancora inquadrati in un contesto di sicurezza aziendale adeguato e in cui i rischi sono crescenti. L'architettura Software Blade Check Point ha sviluppato la Software Blade Architecture per superare il concetto di Unified Threat Management, permettendo alle aziende di racchiudere in un unico sistema tutte le soluzioni necessarie per raggiungere il corretto livello di sicurezza per la propria azienda. In maniera efficiente è possibile costruire una soluzione su misura a gestione centralizzata che riduce complessità e impegno operativo. Per software blade, s'intende un elemento di sicurezza logico indipendente. Tali applicazioni modulari possono essere acquistate singolarmente e inserite nel sistema. All'occorrenza si possono rapidamente abilitare e configurare, all'emergere di una nuova minaccia o di nuove esigenze di business, massimizzando l'efficienza del sistema nell'espansione dei servizi per la sicurezza. Il consolidamento dell'hardware impiegato, l'unificazione della gestione e la modalità di attivazione solo a necessità sono tutti fattori che contribuiscono a ridurre il costo totale di possesso (TCO). 5 CHECK POINT SOFTWARE TECHNOLOGIES Le software blade della famiglia security gateway Alla flessibilità e alla gestibilità si aggiunge anche il vantaggio del sistema unico, in grado di coprire le esigenze di sicurezza a 360 gradi, permettendo di raggiungere il livello di sicurezza adeguato per le esigenze di business e di rafforzare tutti i punti sensibili e i livelli della rete aziendale. L'idea delle software blade è nata partendo da una serie di attività congiunte con partner e grossi clienti, con i quali Check Point, come ci hanno spiegato i responsabili della società, hanno condiviso esigenze e idee. Il punto di partenza è stato il bisogno di acquistare solo quello che serve quando serve, salvaguardando gli investimenti. L'altra esigenza fortemente sentita era quella della semplicità di gestione in una soluzione integrata. Molte e varie le software blade disponibili, divise in "lame" per la gateway/network security, l'endpoint security e per il security management: Security gateway software Blade – Firewall; IPSEC VPN; Mobile Access; Identity Awareness; Application Control; IPS; DLP; Web Security; URL Filtering; Antivirus & Anti-Malware; Anti-Spam & Email Security; Advanced Networking; Acceleration & Clustering; Voice over IP (VoIP); Security Gateway Virtual Edition. Endpoint software blade - Full Disk Encryption; Media Encryption; Remote Access; Anti-Malware / Program Control; Check Point WebCheck; Firewall / Compliance Check. Security Management software blade - Network Policy Management; Endpoint Policy Management; Logging & Status; SmartWorkflow; 6 Sicurezza aziendale e continuità del business 2011 Monitoring; Management Portal; User Directory; SmartProvisioning; SmartReporter; SmartEvent; Multi-Domain Security Management. Interessante, in particolare, è la logica delle blade applicata al concetto di gestione. L'approccio è lo stesso: se il proprio sistema di sicurezza prevede pochi firewall o gateway perimetrali con solo funzioni base, è possibile partire con un sistema di management semplice. Nel momento in cui crescono le esigenze e il sistema di sicurezza con loro, analogamente si può ampliare la componente di amministrazione della sicurezza. Potrebbero altresì nascere nuove esigenze al variare di condizioni esterne, tipicamente le normative da rispettare, per cui diventa necessaria la parte di reportistica, la correlazione degli eventi, il change management e così via. In tutti i casi, Check Point garantisce l'elevato livello di gestione e controllo fornito dai propri sistemi di management, in particolare, con Smart Event, che fornisce una visualizzazione di alto livello sulla rete, permettendo di avere un immediato quadro della situazione e vedere a colpo d'occhio se c'è qualche evento da controllare. L'architettura prevede che le blade software vengano installate su un gateway, tipicamente un appliance Check Point UTM-1, Power-1 o IP (di derivazione Nokia), ma è possibile anche utilizzare un open server, pure in ambiente virtuale. Le diverse blade possono essere aggiunte facilmente e in maniera dinamica, abilitando le funzionalità, senza bisogno di acquistare hardware aggiuntivo o di installare firmware o driver ulteriori. L'architettura permette di aggiungere funzionalità integrandole direttamente in sistemi magari già presenti in azienda, come il firewall. A detta dei responsabili Check Point, si ottengono risparmi significativi, oltre che in termini di formazione, anche per quanto riguarda la semplificazione dell'infrastruttura hardware e, conseguentemente, sul fronte del consumo energetico e dello spazio rack. Inoltre, si apre la possibilità di attivare funzionalità avanzate, come l'IPS, anche presso sedi remote, laddove non si giustificherebbe l'acquisto di una costosa appliance dedicata. La flessibilità, come spiegano i responsabili di Check Point, consiste anche nell'intercambiabilità delle soluzioni: in pratica, è possibile spostare le funzionalità da una macchina a un'altra, a seconda delle necessità. Il tutto è 7 CHECK POINT SOFTWARE TECHNOLOGIES molto semplice perché la gestione è centralizzata. Per esempio: in una grande azienda i gateway di controllo del traffico Internet potrebbero essere a Roma e lì viene abilitato l'Application Control software blade. Successivamente l'architettura di rete viene modificata e l'accesso è gestito da Milano: basterà "spegnere" la funzionalità a Roma e "accenderla" a Milano, mantenendo inalterate policy e rimanenti configurazioni. Come accennato, Check Point Software Technologies ha comunque mantenuto nel tempo un alto livello di servizio per le proprie soluzioni. L'intrusion prevention system, per esempio, è risultato recentemente secondo in un test condotto dalla società indipendente NSS. Analogamente, per ogni aspetto, Check Point ha curato la ricerca e sviluppo di soluzioni che potessero essere classificate best of breed, anche ricorrendo a partnership con terze parti, laddove lo ha ritenuto opportuno. Nel seguito analizzeremo più in dettaglio le blade più recenti a supporto della 3D Security. Soluzioni e servizi Le soluzioni per la 3D Security Come accennato, le principali soluzioni per la sicurezza di Check Point Software Technologies sono fornite sotto forma di software blade. Di seguito esaminiamo un po' più in dettaglio le ultime e più importanti novità, che hanno permesso di concretizzare la visione della 3D Security. Mobile Access software blade La Mobile Access software blade garantisce una connettività sicura per iPhone e iPad, nonché altri tipi di smartphone e tablet Android (la lista di compatibilità è in continuo aggiornamento), proteggendo i dati con una consolidata tecnologia di cifratura. Ideale per i lavoratori mobili che utilizzano dispositivi gestiti o non gestiti, questa applicazione è facile da installare e da utilizzare, in particolare, con la Check Point Mobile application, una App attualmente disponibile presso l’App Store. 8 Sicurezza aziendale e continuità del business 2011 La blade fornisce un accesso remoto di classe enterprise, come sottolineano i manager del fornitore, utilizzando una connessione SSL VPN basata su client o su Web, consentendo una consultazione semplice e sicura di posta elettronica, agenda rubrica o altre applicazioni aziendali. All'occorrenza, la sicurezza di accesso si può aumentare con un certificato digitale che riguarda il dispositivo, per cui le credenziali ID e password dell'utente saranno validate solo se digitate dal particolare dispositivo associato a quell'utente. Completamente integrata nel sistema di gestione Check Point, Mobile Access software blade fornisce, inoltre, la protezione dei dati sui dispositivi persi o rubati, grazie a meccanismi di blocco dell'apparato (device-lock) o di cancellazione da remoto. DLP software blade La software blade per la Data Loss Prevention (DLP) protegge in maniera proattiva le informazioni sensibili, in modo da prevenirne la perdita o la fuoriuscita dall'azienda. Con la suite DLP Check Point ha introdotto la funzionalità "User Check", che permette di educare gli utilizzatori al rispetto delle policy, informandoli se tengono un comportamento scorretto: per esempio, se un file classificato come confidenziale viene allegato a una mail in uscita dall'azienda, il sistema DLP lo bloccherà e, tramite UserCheck, informerà l'utente dell'accaduto, sottolineandone i motivi. La potenza della soluzione sta nella granularità con cui possono definirsi le policy In particolare, i meccanismi possibili sono: permettere, bloccare, chiedere. A ogni singolo utente sono assegnati privilegi per cui potrebbe essergli consentito di compiere determinate azioni, oppure potrà essergli chiesta conferma, qualora effettui un'operazione non consentita, ma che, in quell'occasione, costituisca un'eccezione. Quando si verifica una violazione, in altre parole, la tecnologia UserCheck aprirà una finestra pop-up (o spedirà una mail, se non è necessario operare in real time), con cui sarà veicolato l'allarme sulla violazione e saranno date le eventualmente previste concessioni. 9 CHECK POINT SOFTWARE TECHNOLOGIES Per controllare i "comportamenti", Check Point ha sviluppato la tecnologia MultiSpect. Questa consiste in un motore per la classificazione di dati multipli (per esempio dati personali, dati su cui pendono diritti di proprietà intellettuale, dati segnalati all'interno di normative e così via), che ispeziona i flussi di traffico e correla utenti, tipologia di dati e processi. In tal modo riesce a rilevare violazioni alle polici predefinite. Ai meccanismi automatici che consentono alla soluzione DLP di bloccare la fuoriuscita di dati prima che nascono problemi di sicurezza, Check Point ha, come accennato, accostato un sistema che abilita il "fattore umano" a rimediare alle potenziali violazioni in tempo reale. UserCheck può essere configurato in maniera molto accurata, fornendo ai processi di business la flessibilità necessaria. Nell'impostazione "ask", per esempio, l'utente, cui è stato concesso questo privilegio, può autocertificare l'eccezione, ma è consapevole che l'operazione è tracciata e registrata, per cui è chiamato ad assumersi la propria responsabilità. Per aiutare le organizzazioni nella definizione delle policy e nella configurazione della soluzione, eliminando molte delle complessità tipiche di questi processi, Check Point ha raccolto e messo a disposizione oltre 250 best practice e regole predefinite, che prevengono l'esposizione al rischio dei dati aziendali riservati e di quelli sensibili sottoposti ai vincoli di compliance. Le policy, inoltre, sono gestibili all'interno del sistema centralizzato di gestione Check Point Security Management, favorendo la consistenza con le altre policy aziendali e fornendo il conforto di un ambiente già noto. ID Awareness software blade ID Awareness consente alle organizzazioni di gestire le policy di sicurezza in base agli utenti e ai gruppi, ma anche le macchine vengono identificate con precisione. In questo modo, le imprese possono ottenere un controllo avanzato di applicazioni e accessi attraverso la creazione di policy accurate basate sull’identità. Il livello di granularità raggiungibile è uno dei principali elementi distintivi della soluzione. 10 Sicurezza aziendale e continuità del business 2011 La stretta integrazione di Identity Awareness con Active Directory consente un’implementazione semplice e rapida, mentre il management centralizzato e le funzioni di monitoraggio permettono la gestione di tutte le policy da un'unica console. La soluzione mette in grado di distinguere facilmente tra utenti interni ed esterni, come ospiti o partner, applicando metodi multipli per riconoscere le identità, tra cui sistemi clientless (integrazione con le Active Directory), captive portal (tramite compilazione di un form via Web) e identity agent (installati sull'endpoint dell'utente). I dati d'identità sono poi forniti alle software blade in modo che siano applicate con efficacia ed eventualmente "imposte" le policy. Application Control software blade Le imprese si trovano a fronteggiare il proliferare delle applicazioni Web 2.0 in azienda. Attività di collaboration o strumenti innovativi del marketing rendono necessario e vantaggioso l'impiego di tali applicazioni, ma il rischio di abuso da parte dei dipendenti, che ne approfittano, per esempio, per aggiornare la propria pagina Facebook, invece di quella aziendale, è alto. Sempre rimanendo nei termini di legge, la soluzione di Check Point garantisce la sicurezza e permette di gestire l’utilizzo di migliaia di applicazioni Web 2.0. In particolare, l'utilizzo della già citata tecnologia UserCheck consente di applicare politiche "morbide", coinvolgendo l'utente nel processo decisionale e permettendo agli amministratori IT di personalizzare le policy per l'utilizzo delle applicazioni in maniera molto dettagliata. La compatibilità con le directory e l'eventuale supporto di ID Awareness consentono all'Application Control software blade di differenziare in profondità tale utilizzo. Per una migliore gestione, inoltre, Check Point garantisce una "visibilità" applicativa molto accurata: il sistema è infatti in grado di individuare e controllare il traffico di un numero molto alto di applicazioni, attraverso Check Point AppWiki, una grande libreria di applicazioni e widget, in continua crescita, distinguendo tra migliaia di siti di collaboration, social networking, messaggistica istantanea, media streaming e così via. In questo 11 CHECK POINT SOFTWARE TECHNOLOGIES modo, la soluzione consente un approccio innovativo al controllo delle applicazioni, fornendo una combinazione di tecnologia e consapevolezza degli utenti. Le appliance Check Point e il progetto Gaia Check Point fornisce diverse tipologie di appliance, da quelle di fascia bassa della serie Safe@Office destinate al mondo Soho e della piccola impresa, a quelle delle linee UTM-1, Power-1 e IP, con caratteristiche relative a densità di porte e prestazioni via via più elevate, fino ai 30 Gbps di throughput per le esigenze di classe enterprise. Un'appliance della linea Power-1 Le piattaforme sono dunque in grado di soddisfare qualsiasi bisogno e, attualmente, sono disponibili su sistemi operativi SecurePlatform e Ipso. Check Point, però, ha avviato da qualche tempo il progetto Gaia, che si premura di prendere il meglio dei due ambienti, per realizzare un sistema unificato per tutte le macchine, installate e future. Secondo i piani, il primo frutto del progetto dovrebbe vedere la luce per fine anno, in seguito sarà proposta una roadmap di migrazione graduale. Come accennato, le software blade possono essere installate su dispositivi open server o altri, magari già presenti presso le aziende, anche se, per ovviare a problemi di certificazione, e per ragioni di semplicità e vendor consolidation, molti clienti preferiscono scegliere appliance Check Point. 12 Sicurezza aziendale e continuità del business 2011 L'endpoint security e Check Point Abra La "consumerization" è quel fenomeno in base al quale l'avanzata tecnologia a disposizione del consumatore viene da questi portata e utilizzata in azienda. Il conseguente proliferare di endpoint personali che sfuggono al controllo dell'IT aziendale rappresenta un crescente problema di sicurezza. Per soddisfare le crescenti esigenze di endpoint security, Check Point, come accennato, ha sviluppato diverse software blade dedicate a quest'ambito. La copertura è piuttosto vasta, con soluzioni che vanno dalla protezione dei laptop, con il personal firewall o l'antivirus, alla mappatura del disco con piena cifratura dell'intero volume, alla protezione e alla gestione dei dispositivi USB, passando da soluzioni coperte da Mobile Access software blade e sistemi di accesso remoto innovativi come Check Point Abra. A seconda delle necessità si possono impostare e imporre policy per prevenire la fuoriuscita dei dati: per esempio, è possibile imporre che tutte le memory key USB debbano essere cifrate. Grazie alla tecnologia Check Point, la decifratura è possibile solo da un pc aziendale: in realtà i file cifrati non sono visibili su un pc "straniero". Può inoltre essere bloccata la copia di contenuti non cifrati. Ovviamente, sono previste diverse possibilità di assegnare permessi di lettura e scrittura sulle chiavette di memoria. Una menzione a parte merita la soluzione Check Point Abra: si tratta di una soluzione installata su una chiave USB, che contiene tutto il necessario per creare, su qualsiasi pc, un ambiente virtuale sicuro. Di fatto, viene aperto un virtual workspace in cui un utente può operare come se fosse sul suo desktop, avendo eventualmente accesso a tutte le risorse della propria azienda via Web (per esempio, a un'infrastruttura VDI e quindi direttamente al suo pc), grazie al client VPN integrato in Abra. Non solo il tutto è criptato, ma una volta staccata la chiave dalla porta USB, sul pc "ospite" non rimane la pur minina traccia in nessun registro o porzione di memoria. In altre parole, viene creata una "bolla" di sicurezza sulla macchina ospite, all'interno della quale sono garantite le policy previste dall'azienda e dove è possibile svolgere determinate attività, come accedere alla posta elettronica o lavorare su file contenuti sulla chiavetta di Abra stessa. Tutte le operazioni e 13 CHECK POINT SOFTWARE TECHNOLOGIES file relativi vengono registrate su spazio disco temporaneo in maniera cifrata: se manca la corrente o Abra non viene chiuso correttamente, questi file, anche se si è bravi a trovarli, risultano comunque illeggibili, se, invece, viene chiusa correttamente la sessione con Abra, vengono immediatamente e completamente cancellati, senza lasciare alcuna traccia, né in memoria né sul disco (per esempio, il file non comparirà tra i recenti utilizzati dall'applicazione). È inoltre possibile inibire alcune funzioni sul pc locale, come copia/incolla o stampa. Check Point Abra è una soluzione prevaricata su una memory key USB, che permette di realizzare un ambiente virtuale sicuro su un qualsiasi pc ospite La soluzione nasce per fornire un accesso remoto sicuro agli utenti cui sarebbe poco giustificabile fornire un più costoso dispositivo mobile (come uno smartphone o un notebook, con relative complessità di sicurezza), ma viene impiegata anche in altre forme di applicazione. Per esempio, in alcune organizzazioni, Abra viene impiegata per dare accesso a file riservati a consulenti esterni. La soluzione, infatti, consente al consulente di svolgere sul file il lavoro che gli viene chiesto, ma non può trasferirlo al di fuori della chiavetta Abra, né stamparlo. È quindi impossibilitato a consegnarlo a terze parti. Risulta quindi estremamente più semplice e più economico che realizzare un sistema di accesso da remoto sofisticato e sicuro. Si tratta di una soluzione che può essere molto utile laddove occorrano sistemi di DRM (Digital Right Management) o di tutela di segreti industriali e proprietà intellettuali e non si vogliono gestire troppe complessità. 14 Sicurezza aziendale e continuità del business 2011 La società Check Point Software Technologies si definisce leader mondiale della sicurezza su Internet e unico vendor in grado di offrire "Sicurezza Totale" a reti, dati ed endpoint, unificata in una singola infrastruttura di gestione. Check Point fornisce ai clienti protezione senza compromessi da ogni tipo di minacce, diminuisce la complessità e riduce i costi totali di possesso. Grazie a FireWall-1 e alla tecnologia Stateful Inspection, Check Point può essere definito il pioniere nel settore della sicurezza. Check Point continua a innovare con lo sviluppo dell’architettura Software Blade grazie alla quale è in grado di offrire soluzioni sicure, semplici e flessibili che possono essere completamente personalizzate per rispondere alle specifiche esigenze di sicurezza di ogni organizzazione o ambiente. Tra i clienti Check Point vi sono tutte le aziende della lista Fortune 100 e decine di migliaia di organizzazioni di ogni dimensione. In aggiunta, la nota linea di soluzioni ZoneAlarm protegge milioni di utenti individuali da hacker, spyware e furti di identità. Per ulteriori informazioni: www.checkpoint.com 15 Sicurezza aziendale e continuità del business 2011 CISCO Le strategie e le architetture Cisco è da sempre una delle principali promotrici della convergenza, che, dal trasporto, ha esteso dapprima ai servizi e successivamente alle applicazioni. Oggi, Cisco guida la transizione della rete da mezzo di connessione e trasporto verso il “network as the platform”, attraverso tecnologie che fanno riferimento a tre architetture principali: Borderless Network, Collaboration, Data Center Virtualization. Da semplice “tubo” per Internet e la connettività, la rete sta evolvendo, secondo la visione di Cisco, in una piattaforma che “abilita esperienze” e facilita “la transizione verso un modo di lavorare che consente la diffusione di nuovi modelli di business basati sulla collaborazione, sostenuti dall’offerta di servizi e applicazioni che trasformano la Rete in una human network su cui comunicare, lavorare in team e produrre innovazione senza vincoli di luogo, spazio e tempo”. Con rete e servizi application aware i sistemi diventano più veloci e affidabili, grazie all’aumento degli automatismi e della comunicazione diretta tra le applicazioni stesse. In questo scenario, se la rete è il fattore abilitante del nuovo modo di vivere le relazioni sociali e di lavorare, la sicurezza è, secondo la visione di Cisco, il fattore abilitante della rete stessa, da un lato, e di tutte le innovazioni nell’ambito dell’IT e non solo, dall’altro. Mobility, Unified Communication, Business Collaboration, Cloud Computing, solo per citare le più recenti tendenze tecnologiche, non potrebbero esistere senza una rete sicura. Non a caso, la sicurezza è da sempre parte integrante delle strategie di Cisco per lo sviluppo del networking passato e dell’ICT futura. 1 CISCO Più che mai la sicurezza è da intendersi come elemento abilitante del business e le imprese, secondo la società statunitense, cominciano a comprenderlo spinte come sono all’adozione di nuove tecnologie per la comunicazione e la collaborazione, ma anche di nuovi modelli di business quali il Cloud o dalle esigenze di virtualizzazione e di mobilità degli utenti. Queste portano flessibilità operativa, produttività e competitività, ma richiedono appunto sicurezza. Anzi sono frutto di progetti che nascono direttamente con la sicurezza. Senza contare la necessità di rispondere alle leggi. Anche nello sviluppo delle architetture per il data center e per l'Unified Communication e Business Collaboration, Cisco ha predisposto soluzioni che facilitano la diffusione integrata della sicurezza. In particolare, l'architettura del network Data Center Cisco permette di creare un ambiente ideale per la protezione delle applicazioni, dei servizi, delle informazioni e delle infrastrutture. Aiuta a garantire il rispetto delle normative e delle policy aziendali, e consente di usufruire di un'infrastruttura di rete affidabile dotata di caratteristiche di sicurezza, disponibilità, prestazioni e business continuity. Grazie alla segmentazione degli ambienti rete, server e storage e ai servizi che ottimizzano la gestione delle applicazioni, è possibile ottenere benefici immediati anche a livello di Service-Level Agreement (SLA). Inoltre, l'estensione o la replica a livello geografico degli ambienti server, storage e applicativo per il Data Center garantisce la continuità dei servizi anche nel caso di incidenti. Lo sviluppo di ASA (form factor appliance of firewall balde) particolarmente performanti e molto adatti al contesto del Datacenter (capacità di gestire molte sessioni concorrrenti e throughput importanti) rendono sempre più sicuro l’infrastruttura di Datacenter di Cisco sia esso basato sulla piattaforma Nexus o su Catalyst Serie 6XXX. Analogamente integrato è anche l'approccio alla sicurezza nell'ambito della Unified Communication e Collaboration. L’utilizzo di tecnologie VOIP e comunicazione unificata pone importanti considerazioni legate alla sicurezza, che vanno viste alla luce del livello di sicurezza che appartiene alla infrastruttura di rete sulla quale il sistema di telefonia si appoggia. Cisco suggerisce di mantenere logicamente separate le reti voce e dati sfruttando uno schema architetturale ridondato (tramite clustering e caratteristiche di 2 Sicurezza aziendale e continuità del business 2011 backup quali SRST - Survivable Remote Site Telephony). Quest'approccio consente anche di ridurre il rischio di intercettazione delle telefonate, che in determinate implementazioni è opportuno cifrare -senza perdere di vista le esigenze di Qualità del servizio (QoS) end to end. Cisco risponde a questa esigenza con la soluzione Voice and Video over VPN (V3PN), potenziando nel contempo i sistemi Cisco ASA e IOS Firewall, affinché trattino il traffico voce fornendo il giusto supporto per le esigenze particolari di bassissima latenza. Fra gli altri accorgimenti, per proteggere il server di Unified Communications, Cisco fornisce software con funzionalità di host intrusion protection, personal firewall e anomaly detection da installare sul server stesso. La sicurezza context-aware e Cisco Secure X La sicurezza deve essere dunque sempre più integrata ed esserlo sotto tutti i punti di vista: da un lato, adottando un approccio olistico ed end to end, dall’altro, diventando un elemento pervasivo intrinseco nei servizi ICT di nuova generazione. La risposta all’evoluzione delle minacce e all’inasprirsi degli attacchi sempre più mirati deve essere talmente sofisticata da diventare praticamente trasparente all’utilizzatore. D’altro canto, il “vecchio” perimetro aziendale, delimitato dalla LAN, si è evoluto e, pertanto, Cisco ha elaborato la Secure Borderless Network alla quale oggi si aggiunge la funzionalità di sicurezza context-aware, disponibile su tutti i prodotti, che fa compiere compie un ulteriore passo avanti al concetto di sicurezza aziendale. L’architettura si focalizza su quattro aspetti critici: gli endpoint aziendali (mobili o fissi), l’edge Internet, il data center e le policy in funzione dei contenuti e del luogo in cui si opera. La nuova architettura di sicurezza, altamente distribuita e context-aware, è in grado di gestire gli elementi che applicano la scansione della sicurezza, quali firewall, Web proxy e sensori di intrusion prevention, attraverso un linguaggio delle policy molto avanzato. È il concetto di context-aware che risponde a precise esigenze tramite elementi innovativi per la scansione completamente indipendenti dall'infrastruttura fisica e che possono essere 3 CISCO installati come appliance, moduli e servizi cloud. Questi, in particolare, sono in grado di comprendere chi sia l’utente, qual è il suo ruolo nell'organizzazione e se l'utente abbia o meno e quali diritti di accesso. Tali elementi, quindi, risultano essere gli strumenti più idonei per affrontare le sfide poste alla sicurezza oggi. L'architettura di sicurezza Cisco Cisco SecureX è l'insieme degli elementi per una sicurezza context-aware di nuova generazione e, più precisamente, comprende: Elementi di applicazione della sicurezza context-aware indipendenti dall’infrastruttura fisica che possono essere implementati in un modo altamente distribuito. Un nuovo linguaggio di policy context-aware, che consente di gestire gli elementi di enforcement context-aware. Cisco AnyConnect che si collega a qualsiasi dispositivo, in qualsiasi momento e da qualsiasi luogo, per l’applicazione delle specifiche policy di sicurezza. Piattaforme cloud e virtuali che si connettono alle funzionalità di switching dei data center virtuali di Cisco. Cisco Security Intelligence Operations, che fornisce un contesto globale e l’intelligence sulle minacce. 4 Sicurezza aziendale e continuità del business 2011 Apertura e disponibilità delle API che permettono ai sistemi di gestione di Cisco e dei partner di creare un ecosistema condiviso della sicurezza. L'architettura Cisco Secure X, inoltre, prevede: Funzionalità di Context-Aware per Cisco Adaptive Security Appliance (ASA): Cisco ASA è il primo a elemento ad applicare le policy e il firewalling completamente context-aware. Grazie all’utilizzo congiunto del contesto locale di Cisco TrustSec, del contesto globale di Cisco SIO e l’analisi mobile di AnyConnect, Cisco ASA fornisce alle aziende piena visibilità delle proprie infrastrutture di rete, fornendo una maggiore sicurezza e creando policy semplificate in linea con le regole aziendali. Utenti, applicazioni, dati, reputazione, dispositivi, comportamenti, minacce, destinazioni, fonti e luoghi sono alcune delle componenti del contesto pluri-sfaccettato che Cisco ASA sarà in grado di indirizzare. Tutto ciò permetterà di estendere le infrastrutture firewall esistenti per renderle coerenti con le esigenze di flessibilità delle organizzazioni e del personale. Il Client AnyConnect, caposaldo della sicurezza in mobilità e di telemetria per Cisco Security Intelligence Operations (SIO): AnyConnect 3.0 integra in Cisco SIO una funzionalità di telemetria delle minacce in tempo reale basata su client per sostenere un totale di oltre 700mila dispositivi di rete e di appliance di content security. La telemetria dagli attuali servizi di sicurezza Cisco, per e-mail, Web, prevenzione delle intrusioni, firewall e servizi di sicurezza cloud, consente di disporre di un contesto globale e intelligence delle minacce sempre più efficace, garantendo una protezione rapida e precisa contro una vasta gamma di attività sospette. A fronte di un installato di oltre 150 milioni di client AnyConnect e VPN tradizionali, questo rappresenta un passo avanti nella visibilità e nell’intelligence delle minacce che Cisco SIO può fornire. Enforcement ibrido: AnyConnect 3.0 supporta i servizi di sicurezza Web forniti da Cisco IronPort Web Security Appliance e Cisco ScanSafe, i servizi di sicurezza cloud leader del settore. I clienti Cisco ora possono abilitare l'enforcement ibrido della sicurezza in mobilità, in modo che, per implementare le policy di sicurezza aziendale, possano essere utilizzate le soluzioni on-premises o quelle basate su cloud, a seconda delle necessità. 5 CISCO Dettagli sulla funzionalità SecureX La strategia di Cisco prevede che le aziende intraprendano un percorso evolutivo verso soluzioni più sofisticate di security, senza dover buttare al vento gli investimenti tecnologici eventualmente già effettuati. Anzi, la protezione e la valorizzazione degli investimenti passati e futuri è uno dei capisaldi nella strategia di Cisco: infatti, molte delle soluzioni attuali di sicurezza avanzata, come per esempio l’Identity Services Engine (ISE) contengono in sé la possibilità di realizzare architetture di sicurezza più sofisticate, basandosi tuttavia su elementi tecnologici e componenti che un’azienda potrebbe aver già acquisito nel passato, quali gli antivirus o i sistemi d’autenticazione. La componente innovativa dell’approccio consiste proprio nel fare collaborare in maniera coordinata e autenticamente sistemica molte componenti pre-esistenti eventualmente insieme a nuove tecnologie all’avanguardia. Tale visione interpreta come necessaria la completa integrazione della sicurezza nelle reti intelligenti di nuova generazione, secondo una strategia che comprende: protezione end to end; elementi di rete con funzionalità intrinseche di sicurezza; automatizzazione delle tecniche di difesa; gestione potente, semplice e flessibile del sistema di sicurezza; supporto dei servizi più avanzati d’infrastruttura. 6 Sicurezza aziendale e continuità del business 2011 Il servizio di rete Cisco Trusted Security (TrustSec) Guardando sempre avanti, Cisco ha tracciato il percorso evolutivo della sicurezza, partendo da uno scenario attuale in cui le reti sono progettate da un punto di vista “topologico” e si trovano a fronteggiare le richieste di accesso da diversi tipi di utenti, interni o esterni all’organizzazione, essenzialmente sapendo poco o nulla di chi siano e di quanto la varietà di strumenti con cui accedono alle risorse sia conforme alle policy aziendali. L’obiettivo di Cisco è portare la rete a un’impostazione basata sul ruolo dell’utilizzatore. Per questo la società statunitense ha sviluppato Cisco Trusted Security (TrustSec), frutto di un’evoluzione tecnologica che parte dal controllo degli accessi network based, come quello basato sulle ACL (Access Control List), e include i servizi di rete per l’autenticazione identity based (vedi il protocollo 802.1X) e per la compliance dell’endpoint per andare oltre e integrare misure di sicurezza basate sul riconoscimento dell’identità e dei ruoli ricoperti dagli utenti e per essere implementata in modo pervasivo su tutta la rete aziendale. Cisco TrustSec, attualmente alla versione 2.0, risponde alle crescenti esigenze di conformità alle policy (compliance) necessarie alla gestione di una forza lavoro che opera a livello globale e in mobilità, conferendo maggiore agilità e sicurezza all’infrastruttura. Centralizzazione delle policy con ISE Per migliorare la sicurezza, aumentare la soddisfazione degli impiegati e ridurre il tempo per rilasciare i servizi IT, Cisco ha sviluppato un motore di policy centralizzato "sensibile al contesto" che abilita un accesso sicuro di ogni dispositivo utente alla rete: l’Identity Services Engine (ISE). Insieme a TrustSec 2.0 permette alle organizzazioni di approntare e rilasciare applicazioni e servizi di rete "cross-domini" in maniera dinamica, flessibile ed efficiente, garantendo contemporaneamente la conformità alle normative. ISE agisce come singola "fonte" delle identità: unico punto fidato nelle organizzazioni, semplificando la definizioni di policy rilevanti per il business, assicurando l'applicazione di policy context-aware ed estendendo la visibilità e il controllo a livello di rete, dati e applicazioni. 7 CISCO Cisco TrustSec 2.0 con l’ISE La prima versione di ISE si focalizza sull'abilitazione di TrustSec per le reti borderless. Per questo costruisce e "impone" le politiche di accesso basate sull'identità per utenti e dispositivi, mentre vengono protetti i dati attraverso la rete. Cisco ISE fornisce, in una sola piattaforma sotto forma di appliance, tutti i servizi necessari, a detta di Cisco: profilazione, postura e gestione degli ospiti. In futuro, questa stessa piattaforma potrà essere usata per propagare servizi consistenti con le policy attraverso le reti borderless, da qualsiasi endpoint fino al data center, in ambiti quali video, applicazioni, prestazioni, risparmio energetico, cloud computing, come spiegano in Cisco. TrustSec 2.0 permette di scalare le capacità di policy enforcement sul portfolio di switch Cisco Catalyst switching portfolio. I Catalyst, inoltre, supportano anche la crittografia MACSec switch-to-switch. Per fare questo, Cisco TrustSec utilizza gli switch, i router e i controller Cisco Unified Wireless Network per autenticare gli utenti, assegnare ruoli, applicare le policy di accesso e garantire integrità e confidenzialità al traffico di rete. Il controllo della sicurezza in funzione del ruolo permette di applicare le policy di sicurezza basate sull’identificazione in modo pervasivo, a prescindere dal tipo di connessione (fissa o mobile) e dal dispositivo. Questo è anche facilitato dalla creazione di un framework convergente e unificato per le policy, poiché i differenti metodi di 8 Sicurezza aziendale e continuità del business 2011 autenticazione convergono in un unico “policy engine” centrale, che comunica in modo dinamico con tutta l’infrastruttura switch. Cisco TrustSec aiuta a proteggere l’integrità e la confidenzialità dei dati in transito sui vari punti della rete. Questo difende l’azienda dalla perdita di dati, permette di adeguarsi alle norme in materia e accresce i livelli di protezione del network stesso. L'integrazione nativa della sicurezza nei servizi IP Le funzionalità di sicurezza di Cisco nascono già integrate nel sistema operativo dei router e dei dispositivi di rete. Più precisamente, in Cisco IOS sono disponibili funzionalità di trasporto sicuro del traffico, firewalling, intrusion protection, caching, content filtering, validazione dei profili di sicurezza dei client, assieme all'IP routing avanzato. Cisco, inoltre, impiega diverse tecnologie fra loro complementari, per aumentare il livello di protezione, per consentire l'integrazione di soluzioni di terze parti e, infine, per implementare un modello di sicurezza di rete globale. In particolare, per quanto riguarda la network security, Cisco fornisce sistemi di prevenzione delle intrusioni basate su pluralità di tecnologie quali confronto con signature, analisi comportamentale e analisi delle vulnerabilità. La sicurezza delle reti wireless L'architettura WLAN Cisco è contraddistinta da un elevato livello di sicurezza, implementato dal pacchetto software Cisco Wireless Security Suite, che aggiunge alla codifica WEP a 40 e 128 bit, l'autenticazione basata sul protocollo standard 802.1x e quella del protocollo TKIP, il supporto dello standard 802.11i e quello del Wi-Fi Protected Access 2. Inoltre Cisco Prime for Enterprise, che assicura una gestione unificata delle reti wired e wireless riducendo la complessità operativa e che è composto da vari moduli, s'interfaccia anche con l’ISE citato in precedenza. L’architettura per una sicurezza di rete adattativa L’evoluzione delle minacce è continua e rapida. I controlli basati sui protocolli di rete o su strumenti come i firewall, pur necessari, non sono 9 CISCO sufficienti a rispondere agli attacchi ibridi di nuova generazione. È evidente il bisogno di strumenti in grado di adattarsi praticamente in tempo reale alle mutate condizioni. Uno degli ambiti in cui le minacce sono maggiormente cresciute negli ultimi anni è quello dei contenuti: posta elettronica e Web, infatti, sono i veicoli privilegiati per la diffusione di malware e per gli attacchi mirati di phishing. Per questo, Cisco ha acquisito IronPort, le cui soluzioni bloccano le minacce via email e Web in ingresso sulla rete e controllano, inoltre, i contenuti in uscita. Analogamente importante è la protezione a livello applicativo, anche questo costantemente sotto attacco. Crescono anche gli attacchi che mirano ad applicazioni custom, ancora una volta soprattutto in ambito Web e su codice XML. L’attacco a software proprietari apre nuovi scenari altamente dinamici: diventa impossibile codificare sistemi di protezione “universali” che non siano adattativi. Altra complicazione: le minacce in questi casi sono spesso interne. Per questo, Cisco ha sviluppato funzionalità di application firewall e capacità d’ispezione dei Layer 4-7 per Cisco ACE Application Control Engine Module, Cisco AXG (ACE XML Gateway) e WAF (Web Application Firewall), che consentono di proteggere traffico Web, comunicazioni tra applicazioni e transazioni business to business. La convergenza tra sicurezza logica e fisica Un’ulteriore frontiera già esplorata da Cisco riguarda la convergenza tra sicurezza logica e fisica. In particolare, Cisco ha sviluppato una piattaforma per la videosorveglianza su IP, il cui server è integrato su una rete che garantisce l’adeguata quality of service. Nel futuro, Cisco vede lo sviluppo di molte sinergie che permettono di aumentare la sicurezza su entrambi i fronti: soprattutto con l’integrazione tra sistemi di controllo di accesso fisico, come il badge per la registrazione delle presenze, e quelli per l’accesso alle risorse, che possono incrociare le informazioni per verificare, per esempio, se chi chiede l’accesso a un server riservato sia entrato in azienda o non sia invece un impostore o un dipendente infedele. Ma anche, più banalmente, si può pensare ai sistemi di 10 Sicurezza aziendale e continuità del business 2011 allarme che possono sfruttare la rete dati per reagire a un’intrusione, per esempio bloccando i computer quando è in atto una rapina. Da subito, in ogni caso, le soluzioni proposte da Cisco e i suoi partner sono state progettate per salvaguardare gli investimenti del passato, potendo, per esempio, integrare telecamere analogiche e altre apparecchiature, cominciando a portare vantaggi con elevate capacità d’integrazione, digitalizzazione delle immagini e servizi di consulenza per l’analisi di costi e benefici. La piattaforma Cisco Video Surveillance Cisco ha anche sviluppato una propria offerta di prodotti per la videosorveglianza, incluse telecamere su IP. La Content Security di Cisco IronPort L’ampia gamma di appliance Cisco IronPort consistono in gateway specificatamente progettati per la sicurezza delle applicazioni di posta elettronica, Web, instant messaging e VOIP, che condividono un database di dati sulla sicurezza e una piattaforma di gestione. Elemento centrale dell’architettura di protezione IronPort è il Common Security Database, denominato SenderBase, che viene alimentato dalla ricerca e dalle capacità di analisi del Threat Operations Center di IronPort 11 CISCO cui fa capo. SenderBase contiene oltre 150 parametri per la reputation, tenendo conto della dinamicità con cui evolvono gli scenari e con cui agiscono i criminali informatici. Di fatto, secondo la visione di Cisco IronPort, non è praticamente possibile parlare di black o white list, perché tutto sulla rete è “grigio”. Per questo, il lavoro degli esperti di IronPort consiste nell’analizzare con strumenti automatici una gran mole di dati sui “sender” (gli indirizzi da cui provengono attacchi o gli invii di spam) e sui siti, per assegnare a ciascuno un punteggio di reputazione. I dati raccolti provengono da oltre 120mila reti nel mondo che veicolano circa il 25% del traffico email e Internet mondiale. L’architettura della content security Cisco IronPort A questo si aggiungono altre tecnologie best of breed, sviluppate internamente o frutto di partnership. Content Security as a Service Cisco, che già in altri settori ha avviato una politica di differenziazione della propria offerta in un’ottica Software as a Service (SaaS) e "in the cloud", fornisce servizi per la protezione dei contenuti e della posta in tale modalità. Tra le ultime novità, grazie all’acquisizione Scansafe, Cisco fornisce in 12 Sicurezza aziendale e continuità del business 2011 modalità as a Service l’ispezione del traffico e della posta elettronica, dialogando con l’appliance Ironport e l’ASA inserito nella rete stessa attraverso il Router periferico. Data Loss Prevention e Data Leakage Prevention Cisco sta investendo nello sviluppo di soluzioni che possano prevenire la perdita e la fuoriuscita di dati e proteggerne la confidenzialità. In particolare, grazie a un accordo con Rsa, la Security Division di Emc, Cisco ha aggiunto il motore di classificazione di quest’ultima al proprio Cisco Security Agent. In questo modo vengono ampliati i controlli dell’ISE che può quindi facilmente definire se un dato, un file, un documento è confidenziale, pubblico o comunque presenta limitazioni all’accesso. Attraverso la tecnologia Cisco, è possibile evitare che possa essere spostato, copiato su una memoria USB, inviato via mail o in qualche modo ne venga fatto un abuso rispetto alla sua classificazione. Un controllo che si va a integrare con la sicurezza dell’endpoint, ma che, nella visione Cisco, si abbina anche ai controlli sui contenuti effettuati dai gateway Cisco IronPort. PCI Compliance Un ulteriore recente sforzo da parte di Cisco riguarda la creazione di linee guida e l’ultimazione di un programma destinato ad alcuni propri partner di canale per la direttiva PCI DSS (Payment Card Industry Data Security Standard) che deve entrare in vigore nel 2009. Il programma ha permesso di pubblicare una “Architectural design guidance and audit review” fornita da PCI Qualified Security Assessor e da partner di Cisco specializzati nella remediation. Inoltre, i responsabili della società statunitense rimarcano che l’offerta end to end di Cisco è in grado di coprire esaustivamente i requisiti previsti dalla normativa. 13 CISCO Le soluzioni e i servizi Tra le molte soluzioni Cisco per la sicurezza, nel seguito ne saranno brevemente analizzate solo alcune tra le più significative o recenti. Consulenza e servizi avanzati Cisco Security Intelligence Operations Cisco Security Intelligence Operations (SIO) fornisce informazioni in tempo reale su minacce e rischi per la sicurezza. Analisi, tendenze, sistemi di valutazione della criticità e impatto contestualizzano le informazioni, suggerendo agli utilizzatori del Cisco Security Center quali strategie adottare per minimizzare l’impatto delle minacce sul proprio sistema informativo, grazie anche a bollettini sintetici rilasciati in tempo reale. Tra i contenuti del portale figura Cisco Security IntelliShield Alert Manager che gestisce con intelligenza gli eventi IPS, consentendo di velocizzare la risoluzione di potenziali attacchi. Cisco Secure Consulting Services (CSCS) Cisco fornisce servizi avanzati per la Network Security, sia per singolo progetto sia con formula di sottoscrizione annuale, che comprendono pianificazione, progettazione, implementazione di sistemi di sicurezza, analisi delle architetture di sicurezza già realizzate, analisi completa e approfondita del livello di sicurezza e di vulnerabilità di una rete (SPA Security Posture Assessment) e verifiche di progetti in base ai dettami delle più aggiornate best practice. Il Critical Infrastructure Assurance Group (CIAG) Il CIAG mette a disposizione linee guida per migliorare la sicurezza di infrastrutture globali critiche. Il CIAG è impegnato ad aiutare le organizzazioni di tutto il mondo a implementare strategie di sicurezza, fornendo direttamente ricerca e sviluppo di policy, training, formazione, best practice e standard. 14 Sicurezza aziendale e continuità del business 2011 Cisco Certified Security Professional (CCSP) Cisco fornisce accreditate certificazioni professionali nell’ambito della Network Security, il cui curriculum spazia dalle competenze sulle tecnologie a quelle su un approccio architetturale alle soluzioni allineato alle esigenze di business. La società Fondata nel 1984, Cisco è presente in Italia dal 1994 ed è guidata da David Bevilacqua, Amministratore Delegato di Cisco Italia e Vice President, Cisco. La filiale italiana conta circa 700 dipendenti nella sede principale di Vimercate (MI), a Roma, Torino, Padova e Monza, dove ha sede il laboratorio di Ricerca e Sviluppo sulla fotonica. Cisco Italia partecipa attivamente allo sviluppo tecnologico del nostro Paese, per esempio con l’attenzione rivolta allo sviluppo di talenti e competenze, attraverso l’investimento per la formazione di figure professionali. A tale proposito, l’azienda ha lanciato fin dal 1997 anche in Italia Cisco Networking Academy, un programma di studi teorico/pratici destinato a studenti, organizzazioni ed enti non profit Per ulteriori informazioni: http://www.cisco.com/go/security, http://cisco.com/security www.cisco.com. 15 Sicurezza aziendale e continuità del business 2011 EMERSON NETWORK POWER La divisione del gruppo Emerson fornisce soluzioni per la Business Critical Continuity e per il Data Center Infrastructure Management. Grazie a una gamma completa, per esempio attraverso i marchi Liebert, Knurr e Chloride, la società fornisce tutto quello che occorre per l'infrastruttura dei centri dati: "dal chip al grid di alimentazione elettrica". In particolare, le soluzioni, i prodotti e i servizi a marchio Liebert per la protezione dell’alimentazione elettrica, il condizionamento di precisione e il monitoraggio sono volti a supportare le organizzazioni nell’ottimizzazione dei propri data center e infrastrutture IT, nella riduzione dei costi e nell’assicurare elevata disponibilità e flessibilità. Per fronteggiare la crescita delle potenze di calcolo negli ambienti di elaborazione e il conseguente aumento di calore generato, Emerson Network Power ha sviluppato una strategia per l'efficienza energetica, arrivando a definire indicatori atti a misurarla in maniera puntuale. Massimizzando il risparmio, Emerson Network Power consente di mantenere elevato il grado di disponibilità delle risorse, riducendo il rischio di malfunzionamenti dovuti al surriscaldamento e garantendo la continuità elettrica con le proprie soluzioni UPS. Soluzioni avanzate Emerson Network Power da diversi anni ha sviluppato una strategia d’offerta basata su soluzioni, cioè insiemi integrati di tecnologie, in grado di risolvere le problematiche all’interno dei data center, creando infrastrutture “intelligenti”, i cui elementi, comunicando tra loro, prevengono disservizi e massimizzano l’efficienza e i consumi energetici. 1 EMERSON NETWORK POWER Basate su prodotti e tecnologie d’avanguardia, tali soluzioni si rivolgono alle esigenze di grandi, piccole e medie imprese: dal mondo SOHO a quello degli operatori di telecomunicazioni e service provider. Senza entrare nel dettaglio, analizziamo alcune delle soluzioni più recenti e innovative per il mondo dei data center e della business continuity. Data Center Infrastructure in un container Per ridurre i tempi di progettazione e installazione di un data center, così come per semplificare l'espansione degli impianti esistenti, Emerson Network Power ha realizzato degli scenari applicativi pre-configurati e testati che offre ai propri clienti anche nella configurazione "containerized". Si tratta di una soluzione unica adatta a più esigenze: per chi ha problemi di spazio e ha bisogno di espandere il proprio data center in tempi molto rapidi; per consentire una manutenzione straordinaria in un sito esistente; per installazioni temporanee come nel caso di riprese cinematografiche (laddove si vuole immediatamente avere a disposizione l’infrastruttura per un primo intervento di post-produzione), eventi sportivi, soccorso, esercitazioni militari, protezione civile eccetera. All’interno della Data Center Infrastructure mobile di Emerson Network Power trovano posto soluzioni innovative: dai rack Knurr MiracellPlus ai gruppi di continuità Liebert GXT, Liebert PSI e il nuovo Liebert APM, dalle rack PDU Liebert MPX alle unità di condizionamento di precisione come Liebert CRV. Una soluzione all in one come il Containerized Data Center Infrastructure risolve diversi problemi di configurazione, trovandosi a essere pronta all’uso. Resta comunque la possibilità di espandere e rivedere l’impostazione iniziale. La tecnologia messa a disposizione dai dispositivi di Emerson Network Power permette di realizzare una struttura altamente efficiente (per esempio, gli UPS hanno un’efficienza pari al 96% e il condizionameto di precisione è modulante con efficienze energetiche estremamente elevate rispetto a soluzioni analoghe), grazie al controllo dei consumi e alla regolazione dinamica degli stessi, in funzione del carico di lavoro. In altre parole, viene mantenuto l’allineamento all’effettivo utilizzo della capacità di calcolo impiegata o, più in generale, degli sforzi richiesti alle risorse IT, siano esse server, storage o dispositivi di rete. 2 Sicurezza aziendale e continuità del business 2011 Liebert APM per piccoli e medi data center Liebert APM è invece un recente e innovativo UPS compatto da 30kVA a 150kVA, che a detta dei responsabili di Emerson Network Power presenta, in una strutture modulare, massima efficienza e "il footprint più ridotto della categoria" (in effetti, ha a bordo già il set di batterie per un autonomia di trenta minuti, senza bisogno di soluzioni esterne che richiedono ulteriore spazio). Il sistema è testato e collaudato per gestire la flessibilità delle infrastrutture IT. L’UPS è infatti basato su una struttura in cui è possibile aggiungere o rimuovere moduli, in base ai consumi reali necessari. Si otterrebbe così, un ROI elevato, poiché vengono meno tutti i costi legati alla riconfigurazione del sito, con un investimento che cresce progressivamente, in relazione alla richiesta di maggiore potenza. Liebert APM La sostituzione a caldo dei moduli, inoltre, contribuisce a facilitare la manutenzione preventiva, aumentando il grado di disponibilità. 3 EMERSON NETWORK POWER Il sistema è stato progettato selezionando componenti di potenza dell’ultima generazione e migliorando la topologia dei circuiti di conversione, per permetterne uno sfruttamento ottimizzato. In questo modo, Liebert APM arriva a un’efficienza energetica più del 95% del totale per carichi di potenza tra il 30 e il 100%, secondo dati del costruttore. Efficienza che, insieme a un livello controllato d'inquinamento sonoro, riduce l'impatto ambientale della soluzione, in linea con la filosofia Green IT di Emerson Network Power. Più potenza in meno spazio con gli UPS Liebert GXT3 La crescente richiesta di capacità di elaborazione in applicazioni all’interno dei rack e di sistemi e soluzioni IT in grado di sostenere le prestazioni è un fattore critico in relazione alla disponibilità di spazi nei data center. Per questa ragione, Emerson Network Power ha introdotto nuovi sistemi nella gamma Liebert GXT3. Con tagli da 5 a 10 KVA, la serie di UPS online a doppia conversione permette di aumentare la capacità di calcolo racchiusa in spazi più ridotti. Più precisamente, i modelli della gamma Liebert GXT3 da 5 kVA e da 6kVA occupano 5U di spazio, mentre il 10 kVA 6U. I battery cabinet esterni opzionali occupano da 3U a 4U di spazio nei rack e forniscono del runtime aggiuntivo grazie a connessioni plug-and-play nella parte posteriore dell’UPS. Installabili in configurazione rack o tower, i Liebert GXT3 hanno un display LED orientabile e sono, inoltre, dotati di batterie interne hot swap che garantiscono oltre 3 minuti di runtime a pieno carico e tempi di backup maggiori in condizioni di carico normali. Gli UPS Liebert GXT3 sono dotati di Liebert IntelliSlot Web Card e supportano il protocollo SNMP per garantire un continuo monitoraggio e controllo del sistema via Web. Inoltre, il programma di configurazione basato sulla piattaforma Windows consente la regolazione dei parametri operativi e la programmazione temporale dei test. Infine, la connessione USB integrata utilizzata in combinazione con Liebert MultiLink consente di monitorare l’UPS e le comunicazioni del server per uno shutdown corretto di quest'ultimo in caso di necessità. I contatti puliti incorporati forniscono una notifica immediata in caso di batteria in esaurimento o di shutdown in modalità batteria. 4 Sicurezza aziendale e continuità del business 2011 HP NETWORKING Le strategie e le architetture L'offerta HP Networking (HPN) è sorretta da un modello tecnologico e da un portafoglio completo di soluzioni di rete, sviluppate per creare un "network fabric" all'insegna di riduzione della complessità, flessibilità e sicurezza, per consentire alle aziende di sfruttare le opportunità di convergenza e ridurre i costi di gestione. Il tema della sicurezza è centrale nella strategia di HP e, in particolare, in quella per il networking perché la garanzia di un network protetto è il primo passo per garantire gli asset aziendali e assicurare un business affidabile e conforme ai requisiti normativi. La sicurezza intrinseca del networking HP costituisce uno degli aspetti differenzianti delle proprie soluzioni che concorre a ridurre i costi: un obiettivo al cui conseguimento contribuiscono anche caratteristiche quali aggiornamenti gratuiti del software, ridotto consumo di energia elettrica e copertura in garanzia a vita di molti prodotti (inclusi anche apparati per la parte "core" della rete solitamente esclusi da questo tipo di condizione). Un altro punto fondamentale nella strategia di HP Networking rivolta alla riduzione del TCO è quello di fornire un'architettura di rete basata su standard aperti. Questo approccio tecnologico, sostiene HP, evita che molte aziende restino bloccate in architetture di rete proprietarie che possono limitare la scelta e la flessibilità, rendere i cambiamenti difficili e costosi e frenare la progettazione di infrastruttura di rete più innovative a supporto delle nuove esigenze di business e del vantaggio competitivo. Sulla base del suo approccio strategico orientato agli standard HP ha costruito il programma di partnership Alliance Open Network 1 HP NETWORKING Ecosystem (ONE) che prevede la collaborazione con fornitori di applicazioni leader di mercato (incluse molte orientate alla sicurezza), per offrire ai propri clienti la possibilità di scegliere soluzioni applicative di terze parti best-in-class, certificate e integrate nell'infrastruttura di rete HP. Semplificazione del network e ritorno sull'investimento Il tema della semplificazione rappresenta il tipico esempio dei costi nascosti associati all'infrastruttura di rete, in grado di avere un forte peso sull'economia globale associata al network. Nel network la semplificazione si traduce a diversi livelli: gestione, installazione, configurazione, riparazione, aggiornamento, utilizzo. Riducendo le complessità associate alla rete, HP punta a favorire la riduzione delle spese operative e a migliorare il ritorno sull'investimento (ROI). Gestire reti indipendenti, con soluzioni software in sovrapposizione, non solo è costoso, ma anche molto inefficiente. HP riduce significativamente i costi amministrativi e operativi su tutti gli switch fornendo un soluzione di rete end-to-end basata su un'interfaccia di gestione coerente su tutte le reti. La disponibilità anche di una soluzione unificata per le reti locali fisso-wireless evita di moltiplicare i costi legati al personale, semplifica le operazioni e la manutenzione, riduce lo spazio occupato e il consumo energetico, aumenta l'affidabilità, diminuisce i rischi per la sicurezza e semplifica il rilascio di servizi basati su IP. Un'offerta di sicurezza ampliata con l'acquisizione di 3Com L'acquisizione di 3Com ha segnato una tappa importante per le soluzioni di networking di HP, determinando l'abbandono del brand ProCurve e una riorganizzazione dell'offerta sulla base di soluzioni orizzontali, adatte alle differenti esigenze degli utenti: networking per il data center, sicurezza end-to-end, switch per le LAN, routing di livello enterprise, soluzioni per gli uffici distaccati, mobilità e unified communication. All'interno dell'offerta HPN confluiscono sia le soluzioni a marchio 3Com sia quelle delle società precedentemente acquisite da 3Com. Tra queste vanno ricordate H3C, che porta in eredità a HP una gamma di prodotti di classe enterprise per il networking e la comunicazione, oltre che una serie di importanti centri di Ricerca e 2 Sicurezza aziendale e continuità del business 2011 Sviluppo e TippingPoint, con la gamma completa di soluzioni per l’Intrusion Prevention che affiancano e rafforzano le tecnologie integrate all'interno degli apparti di rete HP. Nel nuovo scenario competitivo che si delinea, HPN punta, pertanto, a far valere i vantaggi dell'estensione della propria offerta e dell'integrazione, proponendosi come fornitore in grado di offrire una gestione integrata e una piattaforma comune che si estendono dalla parte "core" della rete fino alla periferia. HP Converged Infrastructure Questo ampliamento del portafoglio prodotti ha ulteriormente rafforzato la strategia HP Converged Infrastructure indirizzata a favorire una maggiore interoperabilità all'interno del data center, eliminando la separazione tra i silos server, storage e networking in favore della creazione di pool virtuali di risorse in grado di far funzionare in modo ottimale i servizi di business. Infatti, una delle principali sfide che il data center si trova a dover fronteggiare è legata alla proliferazione di macchine virtuali, che rende più frequenti le modifiche alle configurazioni di rete, incrementa la richiesta della larghezza di banda e aumenta il numero di connessioni da gestire (complice anche la proliferazione di server in formato blade). I disegni tradizionali di rete gerarchica stentano a fornire il livello di scalabilità, prestazioni e qualità di servizio richiesto da un data center virtualizzato e, per questo, il mercato richiede infrastrutture di rete più flessibili e agili, senza però penalizzare stabilità, disponibilità e sicurezza. L'architettura modulare HP Converged Infrastructure risponde a queste esigenze poiché punta a ottimizzare le risorse virtuali, ridurre il TCO, soddisfare i requisiti di business e incrementare il tempo di servizio. A livello di infrastruttura di rete il modello architetturale di HP punta a semplificare il data center, attraverso una connettività senza interruzioni e un modello di network in grado di sostenere la crescita e l'innovazione necessarie per la competitività aziendale e di garantire la flessibilità necessaria per adattarsi ai cambiamenti. HPN supporta questa strategia attraverso un portfolio di soluzioni di rete sicure core-to-edge che unifica l'infrastruttura, la gestione e il supporto e aumenta la semplicità. 3 HP NETWORKING Soluzioni e tecnologie per la sicurezza di rete Le soluzioni e la gamma di prodotti HP Networking sono stati sviluppati per affrontare le continue trasformazioni che hanno interessato i network aziendali negli ultimi anni rendendo sempre più stringenti i requisiti infrastrutturali. Il tema della sicurezza ricopre un ruolo centrale della nella strategia HP per il networking rivolta a favorire le condizioni per una "converged enterprise". Un obiettivo perseguito attraverso una gamma di funzionalità di sicurezza intrinseche, presenti negli apparati di rete, e con una strategia pensata per intervenire contemporaneamente sia sul versante preventivo, mediante sistemi per il controllo del traffico e la gestione dell'accesso, sia su quello reattivo con funzionalità in grado di gestire eventuali minacce. Una sicurezza che si estende anche a livello di data center in accordo alla visione HP Secure Network Fabric, per predisporre una protezione di rete unificata core-to-edge a protezione dei dati business critical, delle applicazioni e dell'infrastruttura. La possibilità di spostare l'intelligenza dal centro del network al suo bordo, prevista dal modello di rete HP, realizza anche le condizioni per un approccio che il vendor definisce di Identity Driven Management. L'adozione di un modello di questo tipo sposta il focus sull'individuo, anziché sul dispositivo tramite il quale si effettua la connessione, permettendo agli amministratori di rete di impostare in modo dinamico i dispositivi presenti sull'infrastruttura di rete in base all'utente, alla località, al tempo o ad altre variabili. Nella strategia per la sicurezza di HP, infatti, l'accesso è controllato nel primo punto di contatto tra un utente e la rete, mediante policy che possono tenere conto di un diverso numero di attributi quali la tipologia del dispositivo, l'identità dell'utente, l'ora del giorno, la località da cui si connette. Inoltre, è possibile tenere in considerazione anche lo stato del network, la revisione del software o la configurazione della terminazione di rete (endpoint) da cui avviene l'accesso. 4 Sicurezza aziendale e continuità del business 2011 Tecnologie per la protezione dalle minacce: Virus Throttling e sFlow Virus Throttling è una tecnologia software messa a punto negli HP Labs e indirizzata a proteggere la rete dalla diffusione di virus e worm e ridurre i danni che potrebbero essere causati durante un attacco. Virus Throttling adotta un approccio differente rispetto alle usuali soluzioni dedicate a controbattere gli effetti dei codici maligni. Infatti, non si preoccupa di effettuare scansioni in base alle "signature" note, ma si indirizza verso il rilevamento delle anomalie del traffico legate al comportamento, a rallentamenti o a variazioni improvvise del numero di connessioni. sFlow è una tecnologia standard per il monitoraggio del traffico di rete introdotta nei prodotti HP Networking a partire dal 2001 e utilizzata per campionare il traffico per effettuare analisi rivolte a individuare minacce. Fornisce una completa visibilità sulle informazioni Layer 2, 3, 4 e superiori, l'utilizzo dell'ampiezza di banda, i protocolli, le applicazioni e i "top talker". Consente di effettuare misurare da ogni switch e interfaccia ed è scalabile verso ogni porta fino alla velocità di 10Gbps. L'introduzione della tecnologia sFlow sulla piattaforma wireless di HP semplifica il monitoraggio delle risorse di rete, aumenta il livello complessivo di sicurezza e consente di individuare più velocemente i problemi legati alla trasmissione del segnale o alle prestazioni, con un maggior controllo del traffico sia sulla rete cablata, sia wireless. I componenti di sFlow 5 HP NETWORKING Le soluzioni e i servizi Il portafoglio d'offerta di HPN è organizzato in quattro famiglie in funzione del target di riferimento e delle sue esigenze. FAMIGLIA A Ambienti di grande dimensione e complessi dove servono tecnologie di rete avanzate con funzionalità complete FAMIGLIA E Per realtà che cercano tecnologia essenziale, affidabile, economicamente accessibile e di semplice utilizzo FAMIGLIA V Per utenti che cercano soluzioni di connettività affidabili e di facile uso FAMIGLIA S Per aziende che richiedono soluzioni di sicurezza di rete su scala globale L’organizzazione della gamma d’offerta di HP Networking La famiglia Security (S) A seguito dell'acquisizione di 3Com, HP ha potuto inserire all'interno del suo portafoglio di prodotti la gamma di Intrusion Prevention System (IPS) di TippingPoint, che sono stati riuniti all'interno della famiglia S di prodotti HP per la Security. Queste soluzioni sono indirizzate ad aziende che devono garantire un elevato livello di sicurezza per reti su scala globale e sono state progettate per ambienti enterprise e data center, inclusa la 6 Sicurezza aziendale e continuità del business 2011 protezione per ambienti virtuali. Prevedono l'interoperabilità con i prodotti HPN delle Serie A ed E. Le soluzioni di sicurezza HP Serie S sono state sviluppate presso gli importanti laboratori di ricerca DVLabs, all'interno dei quali operano oltre 30 ricercatori specializzati in tematiche di sicurezza, che individuano le nuove minacce avvalendosi del contributo fornito da più di mille ricercatori indipendenti aderenti alla HP TippingPoint Zero-Day Initiative e da oltre duemila clienti HP TippingPoint che partecipano al programma di monitoraggio ThreatLinQ. Una sinergia che nel 2010 ha portato all’individuazione di ben 319 nuove vulnerabilità. I vantaggi delle soluzioni IPS di HPN La piattaforma IPS HP TippingPoint è un semplice dispositivo di sicurezza che viene collocato sulla rete, riceve il traffico in ingresso e blocca i contenuti maligni, in modo che solo il traffico pulito possa transitare sul network. Questa soluzione è composta da tre componenti principali: • la piattaforma IPS HP TippingPoint • il dispositivo Security Management System, che gestisce le policy di sicurezza di una singola piattaforma IPS così come di centinaia di IPS distribuiti a livello globale. • l'organizzazione di ricerca per la sicurezza DVLabs che fornisce le informazioni intelligenti di sicurezza che alimentano le piattaforme IPS. Rispetto ai sistemi di Intrusion Detection che, per definizione, provvedono solo a rilevare il traffico indesiderato senza bloccarlo, l'IPS TippingPoint di HP opera in-line all'interno della rete, bloccando il traffico dannoso e indesiderato, pur consentendo al traffico legittimo di circolare senza problemi. Le soluzioni HP TippingPoint individuano le vulnerabilità presenti sulla rete e intervengono applicando delle “patch” virtuali che ne impediscono lo sfruttamento. Di fatto, il sistema IPS di HP ottimizza le prestazioni del traffico legittimo effettuando una continua pulizia della rete e assegnando la massima priorità alle applicazioni mission critical. Il cuore delle soluzioni IPS di HP TippingPoint è rappresentato da una gamma di pacchetti di filtri per la protezione, denominati Digital 7 HP NETWORKING Vaccine, che vengono sviluppati nei DVLabs e fomiti automaticamente all'utente finale su base settimanale. Questi filtri permettono di proteggere le reti dai diversi tipi di minacce quali vulnerabilità, virus, worm, Trojan, P2P, spyware, minacce miste, phishing, minacce VoIP, attacchi DoS e DDoS, backdoor, walk-in worm e altri. Il team di sicurezza dei DVLabs HP TippingPoint sviluppa costantemente nuovi filtri in grado di far fronte alle vulnerabilità e li incorporano all'interno dei Vaccini Digitali. Questi vaccini sono creati non solo per rispondere a specifici exploit, ma anche a potenziali permutazioni di attacco, estendendo così la protezione alle minacce Zero-Day. Per ottenere il massimo livello di protezione HP TippingPoint distribuisce una vasta gamma di filtri di sicurezza, inclusi filtri basati sul rilevamenti di anomalie del traffico e filtri basati sulle vulnerabilità. Nel caso di un virus, dove non è presente una vulnerabilità sottostante, HP TippingPoint rilascia firme di attacco. I Digital Vaccine sono fomiti agli utenti con frequenza almeno settimanale o immediatamente quando emergono vulnerabilità e minacce critiche e possono essere distribuiti automaticamente senza richiedere alcun intervento da parte dell'utente. HP TippingPoint mette a disposizione di propri utenti anche AppDV Web, una soluzione pensata per proteggere le applicazioni Web critiche che permette di identificare, monitorare, proteggere e controllare le applicazioni e il loro utilizzo. Attraverso una scansione personalizzata delle applicazioni Web, AppDV Web consente lo sviluppo di Vaccini Digitali specifici per l'utente. Reputation DV è un altro servizio offerto tramite i DVLabs, pensato per migliorare la protezione da botnet e minacce avanzate e persistenti. Permette di effettuare operazioni di blocco dell'accesso o di monitoraggio in base al valore di un indicatore di reputazione o di rischio fornito dai DVLabs e alla localizzazione geografica, attraverso un feed ricevuto quasi in tempo reale sui server e sui dispositivi infettati o ad alto rischio che sono presenti in Internet. Le elevate prestazioni dei sistemi IPS di HP e l'accuratezza della tecnologia di prevenzione delle intrusioni favoriscono la riduzione del costo legato alla sicurezza, eliminando patching "ad hoc" e la necessità di rispondere agli allarmi, favorendo simultaneamente 8 Sicurezza aziendale e continuità del business 2011 l'ottimizzazione della banda e la protezione delle applicazioni critiche. Tra i punti di forza di queste soluzioni vi sono le elevate prestazioni e una latenza estremamente bassa grazie a hardware sviluppato appositamente. Il processore ASIC dedicato - denominato Threat Suppression Engine (TSE) - è, infatti, la tecnologia sottostante abilitante per poter effettuare migliaia di controlli simultanei su ogni flusso di pacchetti che transita sulla rete. Questa gamma di soluzioni usufruisce del TippingPoint Secure Virtualization Framework (SVF) che estende la protezione agli ambienti data center virtualizzati. In sintesi, gli aspetti distintivi di queste soluzioni sono riconducibili ai seguenti: • un'architettura di sicurezza che si avvale delle più avanzate tecnologie di connessione, di elaborazione parallela e di risorse virtualizzate; • un'impostazione modulare che abilita un'elevata scalabilità; • gestione flessibile e granulare delle policy basta su molteplici criteri; • la completezza dei protocolli ispezionati. La gamma di offerta di sistemi IPS di HP TippingPoint è articolata in tre serie di prodotti che si differenziano per capacità e per il numero di segmenti simultanei che sono in grado di proteggere. Schema di funzionamento della piattaforma IPS HP TippingPoint 9 HP NETWORKING IPS HP TippingPoint S330, S110, S10 I prodotti HP S10, S110 e S330 sono apparati IPS per la protezione delle reti di uffici remoti, caratterizzati da un fattore di forma molto piccolo. Il modello S10 è ottimizzato per collegamenti a velocità inferiori a 20 Mbps, che sono predominanti nel business DSL e nei servizi Metro Ethernet. La soluzione può essere installata prima o successivamente al router remoto/firewall, proteggendo cosi’ la rete e le applicazioni dalle minacce in arrivo. Integra la funzionalità Zero Powerl High Availability che evita interruzioni sula rete in caso di sospensione dell 'alimentazione elettrica. I sistemi HP S110 e S330 sono indirizzati a preservare disponibilità, prestazioni e sicurezza per aziende enterprise e service provider. Questi IPS sono ottimizzati per prestazioni e affidabilità rispettivamente a 100 Mbps e 300 Mbps e prevedono un'installazione molto flessibile. Possono essere implementati davanti o dietro a un router/firewall per proteggere la rete e le applicazioni dalle minacce in entrata. La possibilità di realizzare zone di rete isolate protegge le aree sensibili da attacchi interni. La gamma di prodotti HP TippingPoint Serie S 10 Sicurezza aziendale e continuità del business 2011 HP TippingPoint IPS serie N All’interno della famiglia S, la serie N di appliance HP TippingPoint per la prevenzione delle intrusioni mette a disposizione delle aziende un elevato livello di protezione in-line e in tempo reale. Supporta molteplici "filter pack" di sicurezza e consente l’integrazione scalabile con le soluzioni di sicurezza sviluppate dai partner HP. La serie N comprende quattro modelli che si differenziano per prestazioni e capacità di filtro. I modelli HP S660N e HP S1400N sono dotati di 10 segmenti con interfaccia a 1 Gbps e supportano una IPS capacity Inspection rispettivamente di 750 Mbps e 1,5 Gbps. Alle esigenze di fascia superiore si indirizzano i modelli HP S2500N, S5100N e S6100N dotati di interfacce a 1 e 10 Gbps e adatti a un throughput consigliato rispettivamente di 3, 5 e 8 Gbps. Tutti i modelli prevedono il sistema di alimentazione ridondante e altre funzionalità per l'alta disponibilità quali Layer 2 Fallback e Stateful Redundancy. HP Core Controller Sotto la continua spinta del consolidamento a livello di data center, dell'high performance computing (HPC) e delle applicazioni a elevata richiesta di ampiezza di banda come il video on-demand e il file sharing, le reti "core" utilizzano sempre più spesso tecnologia di rete a 10 Gbps. Pertanto, l'esigenza di ispezionare il traffico e bloccare le minacce dannose presso i punti caratterizzati da elevato traffico di throughput senza compromettere il livello prestazionale diventa sempre più pressante. Per questo motivo i responsabili della rete e della sicurezza si preoccupano di predisporre sistemi IPS non solo presso il tradizionale perimetro WAN, ma anche tra i principali segmenti di rete all'interno delle reti "core" e dei data center. HP Core Controller è la soluzione che estende la protezione IPS basata su tecnologia TippingPoint ai collegamenti a 10 Gbps . Questa soluzione viene implementata inserendola come elemento di rete, adatto a supportare fino a 3 connessioni di rete a 10 Gbps. Il traffico che entra nel Core Controller viene bilanciato in modo intelligente verso una serie di IPS, mentre quello affidabile viene inviato nuovamente al Core Controller per la distribuzione verso gli 11 HP NETWORKING appropriati collegamenti a 10 Gbps. Le caratteristiche includono algoritmi automatici di bilanciamento e reindirizzamento flussi in caso di fault, policy parametriche configurabili, failover completo. HP Core Controller supporta array di sonde diverse tra loro, consentendo il riutilizzo dell'hardware esistente. HP Core Controller consente di proteggere link a 10 Gbps mediante soluzioni IPS TippingPoint introducendo una latenza minima HP Security Management System HP Security Management System (SMS) è un'appliance che fornisce una vista globale e la possibilità di amministrazione, configurazione, monitoraggio e reporting nelle situazioni di implementazioni su larga scala di molteplici IPS. Si tratta di un apparato installabile in rack, dotato di un'interfaccia sofisticata sul lato client. Una tipica distribuzione di IPS HP su tutta la rete è costituita da un client SMS (basato su Java), da un sistema centralizzato SMS e da molteplici IPS. L'SMS prevede livelli di controllo di accesso basati su privilegi di operatore (sola lettura), amministratore e supervisore. Fornisce una vista generale, con analisi sui trend, correlazione e grafici in tempo 12 Sicurezza aziendale e continuità del business 2011 reale, compresi report con statistiche sul traffico, attacchi filtrati, host di rete e servizi di inventario e stato di salute degli IPS. Le caratteristiche principali includono: • reporting e analisi dei trend a livello enterprise • cruscotto che fornisce una vista globale • configurazione e monitoraggio del dispositivo • reporting automatico • meccanismi di Automated Security Response • gestione basata su policy • gestione del Digital Vaccine • gestione e revisione degli eventi • risposta automatica a eventi e operazioni di rimedio • gestione degli user account e degli accessi. HP TippingPoint Secure Virtualization Framework HP ha introdotto il TippingPoint Secure Virtualization Framework nella primavera del 2010. Si tratta di una combinazione di prodotti progettati per garantire la sicurezza delle infrastrutture data center virtualizzate, che controlla e proteggere il traffico di macchine virtuali all'interno di server host fisici, offrendo piena capacità IPS. Si compone di tre diversi prodotti: la piattaforma fisica IPS e le soluzioni software virtual Controller (vController) e virtual Management Center (vMC). vController è il software che viene installato nella Service Virtual Machine d i ogni host virtualizzato e che si colloca all'interno dell'hypervisor VMware tramite l'API VMsafe. Una volta installato, vController può analizzare tutto il traffico proveniente da qualsiasi delle macchine virtuali applicative presenti sull'host virtualizzato e p e r m e t t e di applicare all’hypervisor una policy che opera in modo simile a un firewall eseguendo tre compiti: • verifica se il traffico è consentito o meno e decide se lasciarlo passare; • se il traffico non è consentito, lo blocca completamente a livello di • se il traffico è consentito offre la possibilità di ispezionarlo. hypervisor; Il vController indirizza il traffico attraverso una VLAN dedicata verso il dispositivo fisico IPS per l'analisi. L'IPS ispeziona il traffico, blocca qualsiasi contenuto dannoso e quindi passa il traffico ispezionato di nuovo al vController (sempre attraverso una VLAN) che inoltra il traffico verso la sua destinazione originaria. Questo meccanismo permette di controllare il 13 HP NETWORKING traffico in entrata e in uscita dal data center al perimetro, quello tra host fisici presenti nel data center, tra host fisici e VM e anche il traffico tra due macchine virtuali sullo stesso host virtualizzato, facendo rispettare le policy di sicurezza. Dato che ogni vController presente nel data center dispone di tutte le policy di reindirizzamento, viene garantita la medesima condizione di sicurezza per ogni macchina virtuale o applicazione, indipendentemente da dove venga collocata all'interno del data center, su un sistema fisico o virtuale. La soluzione vController è completamente gestita da virtual Management Center che è pienamente integrato con il Security System Management di HP TippingPoint abilitando, in tal modo, una gestione integrata e che mette sotto il controllo esclusivo del personale addetto alla sicurezza IT tutte le funzioni di gestione della protezione. HP Tipping Point Secure Virtualization Framework 14 Sicurezza aziendale e continuità del business 2011 vMC fornisce la piena visibilità del data center virtualizzato favorendo il controllo e la sicurezza delle VM. Per esempio, il vMC è utilizzato per individuare automaticamente tutte le VM presenti nel data center e per rilasciare il vController su ogni host fisico virtualizzato; inoltre rende semplice creare una lista di servizi che devono essere monitorati all’interno delle policy del vController o di zone all’interno del data center che possono essere considerate sicure. HP TippingPoint e VMware hanno avviato a una collaborazione strategica che prevede attività di sviluppo congiunto, la costruzione di API di sicurezza per gli ambienti cloud e la messa a punto di soluzioni di sicurezza con vController e vShield. La società Un costante e dinamico allineamento tra business e tecnologia rappresenta il punto centrale della strategia HP per rispondere alle necessità delle imprese e fornire ai clienti la soluzione più adatta e competitiva rispetto alle specifiche esigenze del settore. Elemento saliente della strategia aziendale è la standardizzazione, perché le consente di proporre ai clienti soluzioni basate su standard di mercato, flessibili e con un conveniente rapporto prezzo/prestazioni. HP ha, per questo motivo, adottato da molti anni un approccio open standard, come confermato dalle numerose collaborazioni con partner nella definizione e nello sviluppo di soluzioni. HP è poi costantemente impegnata nella realizzazione di tecnologie innovative e semplici da utilizzare. Grazie a un'ampia offerta che comprende infrastrutture IT, personal computer, software, prodotti e soluzioni per la stampa e 150mila professionisti che operano in oltre 170 Paesi, HP è fra le principali società di Information Technology del mondo. L'azienda vanta il polo di ricerca HP LABS, riconosciuto globalmente e costantemente impegnato nello sviluppo di nuove tecnologie, in grado di influenzare il mercato e favorire nuove possibilità di business. Ulteriori informazioni su HP sono http://www.hp.com www.hp.com/it/networking. 15 disponibili all'indirizzo: Sicurezza aziendale e continuità del business 2011 IBM Il progresso sta portando a un "pianeta più intelligente", secondo la visione di IBM: cioè a un mondo in cui tutti e tutto sono sempre più interconnessi. Proliferano sensori per il monitoraggio e il controllo, crescono reti per l'intrattenimento e per il business, aumentano i dati e la loro importanza. Per abilitare tale sviluppo innovativo è necessario garantire la sicurezza. Quest'ultima, dunque è, secondo IBM, un elemento abilitante per l'individuo, per i cittadini, per le aziende. In particolare, per il business è l’elemento che consente di cogliere le nuove opportunità gestendo i rischi associati. Risk Management e Compliance, del resto, sono tra le priorità delle imprese e l’offerta di servizi e soluzioni per la sicurezza e per la business continuity e il disaster recovery di IBM si pone essenzialmente in questo contesto. La flessibilità e la completezza della gamma di soluzioni IBM permettono a ogni cliente di selezionare il prodotto o il servizio maggiormente adatto alle proprie esigenze, scegliendo tra soluzioni gestite in house, in outsourcing, o entrambe le possibilità. Strategie e architetture per la sicurezza L'approccio di IBM alla sicurezza è a 360 gradi, ma ci sono almeno quattro ambiti in cui si stanno concentrando gli investimenti nel breve periodo: Il primo continua a riguardare la sicurezza "tradizionale", intesa come threat management o, in altre parole, il "keep bad guys out", con continui sforzi in ricerca e sviluppo, a partire dal team X-Force per arrivare alla realizzazione di sistemi sempre più sofisticati e performanti, come l'ultimo IPS GX7800, che aumenta la copertura degli attacchi bloccati e raddoppia la velocità rispetto ai modelli precedenti. 1 IBM Un altro ambito di attenzione per IBM riguarda le modalità di delivery della sicurezza ai circa 4000 clienti nel mondo, attraverso i nove security operation center. In particolare, è in chiave cloud che si registrano le principali novità, con soluzioni Software as a Service che si affiancano ai servizi gestiti già erogati da tempo. La terza area di investimento riguarda la gestione della sicurezza, che finalmente vede un'integrazione concreta con le soluzioni di system management, così come era stato annunciato da IBM già qualche tempo fa. Più precisamente, il rilascio di Tivoli Endpoint Management, basato sulla tecnologia acquisita con BigFix, rappresenta un esempio di tale integrazione, consentendo di identificare e gestire, con automatismi per patching e fixing, tutti gli endpoint sulla rete. Infine, IBM sta spingendo su un'estensione sempre maggiore del concetto di sicurezza aziendale, parlando di "sicurezza operativa". In sintesi significa assicurarsi che la security non solo sia affrontata con un approccio olistico, ma sia un elemento implicito in ogni pilastro operativo dell'organizzazione. Dalla gestione delle identità, alla rete, allo sviluppo delle applicazioni fino ai database e oltre, la sicurezza deve permeare l'azienda fino al consiglio esecutivo. Solo quando la sicurezza farà parte di ogni pilastro aziendale, si potrà, secondo la visione di IBM, cercare una sicurezza più sofisticata che attraversi ogni dominio, sia caratterizzata da una gestione più attiva, basata su sempre più automatismi e, soprattutto, fondata su analytics e modelli previsionali. Secondo la visione di IBM, dunque, per governare in modo efficace la sicurezza è necessario coniugare consolidate esperienze di IT con competenze specifiche sugli aspetti di architettura e di processo. Entrambi aree in cui IBM dispone di elevate e riconosciute competenze ed esperienze progettuali. L’ampiezza della strategia e la value proposition di IBM sono ben sintetizzate nell’Information Security Framework che integra i diversi temi della sicurezza, attraverso un portafoglio completo di servizi, soluzioni, architetture e prodotti specifici e integrati. Il framework per la sicurezza recepisce quanto previsto da standard internazionali, esperienze progettuali di IBM e best practice di settore, fornendo una visione di business e identificando le aree coinvolte nei processi di Security Governance, Risk Management e Compliance: Persone e Identità, Dati e informazioni, applicazioni e processi; applicazioni e processi; rete, server ed endpoint; infrastruttura fisica. Attraverso i professional service, i managed service e le proprie soluzioni hardware e software, 2 Sicurezza aziendale e continuità del business 2011 trasversali alle suddette aree, IBM, a detta dei suoi responsabili, copre tutte le esigenze di sicurezza Ibm Information Security Framework IBM ha inoltre creato modelli complementari per favorire la convergenza della prospettiva di business della sicurezza con quella tecnologica. Modelli complementari per la visione della sicurezza secondo IBM All’interno dell’IBM Security Blueprint, il Foundational Security Management Services descrive i principali servizi di gestione che sono necessari per raggiungere le funzionalità descritte nell’IBM Security Framework: viene così creato un collegamento tra il requisito di business, identificato nel framework e il servizio IT proposto a soddisfarlo. La 3 IBM Common Security Infrastructure, a sua volta, contiene gli elementi infrastrutturali e i servizi che sono utilizzati dai servizi di alto livello descritti tra i Foundational Security Management Services. Entrambi gli elementi della IBM Security Blueprint sono basati su standard e tecnologie aperte, che, insieme all’IBM Security Framework, possono essere utilizzate per progettare un’architettura che comprende piattaforme, componenti e configurazioni, basate su principi e pratiche aziendali per la sicurezza. L'offerta di prodotti e servizi a concretizzare l'IBM Security Framework Accanto all’offerta di servizi, IBM presenta un portafoglio di prodotti relativo alla sicurezza molto vasto e che comprende soluzioni specifiche per i propri sistemi server e storage, tra cui vanno ricordate le caratteristiche di security abbinati ai System z di IBM, soluzioni software e piattaforme IBM Tivoli e altre soluzioni specifiche che arricchiscono il portafoglio, come quelle per la videosorveglianza, e che danno ulteriore consistenza ai servizi e alla consulenza fornita dagli IBM Global Technology Services. La strategia IBM per la Security Governance Nel corso degli ultimi anni IBM ha effettuato significativi investimenti nell’area della sicurezza per la creazione di asset e metodologie a supporto della governance e del risk management, nonché per l’acquisizione di aziende leader nel mercato delle soluzioni e dei servizi di sicurezza. 4 Sicurezza aziendale e continuità del business 2011 Il risultato è un’offerta di prodotti e servizi che aiuta le aziende nel disegno e nella realizzazione di un sistema di governance per: monitorare in tempo reale gli impatti sul business dei rischi correlati alla Sicurezza delle Informazioni; controllare quest’ultima e fornire al management le metriche di governo; automatizzare le operazioni di controllo, migliorando l’efficienza e l’efficacia dell’organizzazione, riducendo i costi e liberando risorse per innovare i processi aziendali. Il sistema di governance, come rappresentato nell’Information Security Framework, è trasversale a tutte le aree della sicurezza e a tutti i “layer” dell’infrastruttura IT: rete, server, applicazioni, dati. Inoltre, deve sostituire il tradizionale approccio di tipo reattivo con tecnologie proattive, che evitano l’insorgere di problemi di sicurezza, individuando e rimuovendo le potenziali esposizioni ai rischi. L’offerta di IBM, ispirandosi alle best practice, garantisce: la confidenzialità e l’integrità delle informazioni attraverso le soluzioni Tivoli Storage Management, Filenet, Data Encryption; il controllo degli accessi e la gestione delle identità digitali, anche in ambienti federati, attraverso le soluzioni Tivoli Identity Manager, Tivoli Access Manager, Tivoli Federated Identity Manager; il controllo dell’infrastruttura, grazie ai prodotti e servizi gestiti di Internet Security Systems, al Tivoli Security Operation Manager, Tivoli Compliance Insight Manager; il controllo delle applicazioni, attraverso l’analisi delle vulnerabilità effettuata da Rational APPScan. Il supporto di IBM per la compliance Come già evidenziato, IBM ha messo a punto un’offerta articolata di servizi e soluzioni per la sicurezza integrata che coprono tutte le esigenze delle aziende e le supportano nello sviluppo e nell’attuazione del processo di Information Security Compliance Management, per il quale, negli anni, IBM ha sviluppato approcci metodologici e competenze professionali: individuazione e analisi degli obblighi e dei requisiti di Information Security derivanti dalle normative; analisi dei rischi, selezione delle misure di sicurezza di natura organizzativa, procedurale e tecnologica, atte a indirizzare i requisiti individuati; sviluppo del Piano di Information Security in linea con le best practice e gli standard di riferimento; sviluppo di politiche e procedure di Information Security specificamente orientate alla conformità normativa; disegno e implementazione degli aspetti di processo legati all’Information Security Compliance e alla gestione dei relativi indicatori 5 di conformità; disegno e implementazione di soluzioni IBM tecnologiche e architetture di Enterprise Security Management orientate alla conformità normativa e alle esigenze di monitoraggio; sviluppo ed erogazione di piani di formazione e sensibilizzazione in materia di Information Security. Le soluzioni elencate per l’IBM Security Framework coprono anche le esigenze tecnologiche d’Information Security Compliance. Inoltre, per queste problematiche IBM, ha sviluppato un approccio metodologico orientato allo sviluppo del Modello di Monitoraggio dell’Information Security nel suo complesso, che si avvale di soluzioni tecnologiche per la gestione degli eventi di sicurezza e dei molti dati da registrare, documentare e archiviare per la compliance. Il supporto per la PCI compliance IBM possiede sia le tecnologie sia le capacità di analisi e supporto che possono affiancare un’azienda nel percorso verso la completa aderenza allo standard PCI DSS (Payment Card Industry Data Security Standard). Il punto di partenza è una fase di consulenza che prevede tre diversi interventi: Assessment: è realizzato da esperti di IBM ISS (Internet Security Systems) o di IBM GBS (Global Business Services). Remediation: è realizzato da esperti di IBM ISS, GBS, GTS (Global Technology Services) o SWG (Software Group). Certification: è realizzato da esperti IBM ISS, che gode delle certificazioni sia QSA sia ASV. Le soluzioni IBM indirizzano l’intero insieme dei requirement stabiliti dallo standard PCI. IBM Security Solutions per il cloud IBM, oltre a essere essa stessa fornitrice di servizi cloud, è impegnata sulla sicurezza del cloud da almeno tre punti di vista: La consulenza sulla cloud security, per aiutare i i clienti a capire come proteggere un ambiente cloud, attraverso anche la fornitura di alcuni servizi. Tra cui, per esempio, il penetration testing, l’Information security assessment e lo sviluppo di policy e standard per la protezione. I prodotti per la sicurezza nel cloud, tra cui certamente l’ampio portafoglio di soluzioni che già oggi proteggono le infrastrutture di migliaia di aziende, cui si aggiungono funzionalità specifiche per ambienti cloud e ambienti virtualizzati in particolare, come Virtual 6 Sicurezza aziendale e continuità del business 2011 appliance e soluzioni per l’integrated virtualization security, compresa la recente Proventia Virtual Security Server, realizzata in collaborazione con VMware, che protegge a più livelli gli ambieti virtuali. Gli Smart Business Security Services, che, oltre a comprendere una vasta offerta di managed service, si possono, in taluni casi, connotare come Security as a Service. Tra questi, per esempio quelli relativi alla posta elettronica. Si tratta di servizi cloud che prevedono la pulizia o la sicurezza della posta, scalabili con SLA (Service Level Agreement) garantiti molto elevati, in termini sia di disponibilità sia di prestazioni nel blocco dello spam, per esempio. L’architettura di Identity e Access Management La gestione dell’identità è un processo che va affrontato e revisionato con continuità a livello operativo e strategico. Un obiettivo conseguibile solo attraverso una strategia unificata che adotti soluzioni di identity management e access control, come quelle che fornisce IBM e che consentono di: ridurre i rischi di frode o furto; favorire la collaborazione; ridurre i costi operativi per la gestione di identità e sicurezza; massimizzare l’utilizzo e la profittabilità per il business e i partner; semplificare i processi di audit e di compliance all’interno di ambienti eterogenei. IBM è in grado di supportare, attraverso le proprie soluzioni e servizi, più modelli architetturali per l’identity e access management, compreso un modello federato. L’architettura di un sistema integrato IBM Tivoli Identity manager, Tivoli Access Manager e WebSphere Portal si possono abbinare per realizzare un sistema integrato destinato alla gestione dell’identità e dell’accesso. Un sistema, cioè, che consente di combinare processi aziendali e tecnologie software per amministrare le identità del personale aziendale e l’accesso sicuro alle informazioni proprietarie all’interno dell’impresa. Dal punto di vista dell’architettura logica, il punto di partenza del processo è rappresentato dall’utente, che interagisce con il sistema di gestione dell’identità e dell’accesso attraverso il proprio pc, utilizzando un browser o un client di posta elettronica per accedere alle varie applicazioni Web che sono protette da IBM Tivoli Access Manager for e-business. 7 IBM L’architettura di un sistema federato Parlare di federazione significa considerare un gruppo di due o più business partner che lavorano insieme e che decidono di attivare un’aggregazione finalizzata a migliorare l’esperienza dei rispettivi clienti e/o contribuire a ridurre i costi. IBM Tivoli Federated Identity Manager sfrutta i principali standard di tipo federativo per garantire l’accesso degli utenti gestiti all’interno di un’organizzazione “trusted” in base alla loro identità e ruolo. Tivoli Federated Identity Manager permette di implementare funzioni di gestione dell’accesso sicuro ad applicazioni e servizi distribuiti come a mainframe, in ambienti SOA basati sull’utilizzo dei Web Service. I vantaggi offerti da Tivoli Federated Identity Manager interessano la riduzione dei costi associati alla business integration, all’help-desk e all’amministrazione della sicurezza grazie alla possibilità di predisporre rapidamente una soluzione semplice di SSO; inoltre, il suo uso contribuisce a minimizzare i costi necessari per creare e mantenere identità condivise attraverso molteplici business partner. Infine contribuisce a migliorare la compliance grazie alle funzionalità di tracciabilità e di auditing e permette di realizzare e condividere in modo molto rapido servizi Web-based con i propri business partner. Alle organizzazioni medie e piccole si indirizza, invece, IBM Tivoli Federated Identity Manager Business Gateway, che rappresenta una soluzione di tipo entry-point per cominciare a stabilire funzionalità federate di SSO su Web. L’application security Per rispondere alle esigenze applicative, di management e di sicurezza connesse a un ambiente SOA, IBM ha sviluppato un modello di riferimento. La sua definizione aiuta a indirizzare i requisiti e porta alla realizzazione di un’architettura logica e una fisica, in cui prodotti e tecnologie sono opportunamente mappati, per risolvere i problemi che si presentano nello sviluppo e nella gestione di applicazioni e processi applicativi. La security è applicabile a tutti i livelli di un modello SOA: infrastruttura, applicazioni, servizi di business, servizi di sviluppo. Dunque, il modello può essere visto come suddiviso in diversi livelli di astrazione e precisamente in quelli di: Business Security Service, IT Security Service e Security Policy Management, cui va aggiunto un ulteriore livello, il “Security Enablers”, che ha il compito di fornire le funzioni di sicurezza agli IT Security Service. 8 Sicurezza aziendale e continuità del business 2011 Il modello di riferimento IBM per la sicurezza in ambienti SOA Le aree principali che compongono il modello sono le seguenti: Business Security Service - è inerente alla gestione delle esigenze e delle richieste del business, come il riconoscimento sicuro, la gestione di identità e accessi, la protezione dei dati scambiati tra applicazioni e servizi, la non repudiabilità e la sicurezza dei sistemi e della rete. IT Security Service - descrive i blocchi di base per un’infrastruttura SOA e fornisce quanto è necessario al fine di rendere sicuri i servizi e soddisfare le esigenze di applicazioni e infrastrutture erogando le stesse funzioni di sicurezza come se si trattasse a loro volta di servizi. Questi servizi includono la certificazione dell’identità, l’autenticazione mediante metodi sofisticati, l’autorizzazione, così come la confidenzialità, l’integrità dei dati e servizi di audit. Security Enablers - comprendono tecnologie quali la crittografia, directory e le aree dove sono mantenute le chiavi di cifratura che sono utilizzate dagli IT Security Service per realizzare i propri compiti. Security Policy Management - articolazione, gestione, messa in atto e monitoraggio delle politiche di sicurezza. Questo include la capacità di definire policy per autenticare e autorizzare le entità che richiedono l’acceso a un particolare servizio, di propagare specifici contesti di sicurezza in base alle richieste dei richiedenti e alle caratteristiche del modello di credenziali adottato, effettuare l’audit degli eventi significativi e proteggere le informazioni. Governance e Risk Management - fornisce i meccanismi che implementano e permettono di attuare le policy di sicurezza a livello dell’intero ambiente esteso interessato da SOA. La Governance supporta nel gestire la SOA a livello dell’intera organizzazione aziendale. Il Risk management si occupa dei processi di valutazione e 9 IBM di assessing del rischio nell’ambiente SOA e dello sviluppo delle strategie più adatte alla gestione di questi rischi. Il modello di sicurezza per la SOA non è però astratto dal contesto di business aziendale, ma, all’interno dell’IBM SOA Reference Model, costituisce un sotto elemento della visione per l’IT Service Management. La sicurezza fisica L’ambito nel quale è più avanzata l’integrazione tra sicurezza logica e fisica è quello bancario, ma anche in altri ambienti enterprise, soprattutto dove è forte l’esigenza di protezione delle infrastrutture critiche come nel settore pubblico o dei trasporti, tale esigenza sta maturando con insistenza. L’evoluzione delle soluzioni di sicurezza fisica e delle tecnologie IT ha posto le basi per realizzare modelli innovativi di governance e controllo di agenzie bancarie e, più in generale, di ambienti aziendali con simili esigenze. Il framework sviluppato da IBM per una sicurezza fisica integrata IBM ha sviluppato un modello per abilitare un approccio integrato e omogeneo per la convergenza della sicurezza, che scala in orizzontale (per esempio, in numero di agenzie gestite e di sottosistemi fisici gestiti per ciascuna agenzia) e in verticale (per esempio, in numero di servizi e di funzionalità forniti). La soluzione IBM Smart Vision System La soluzione IBM Smart Vision System è un sistema avanzato di videoanalisi, 10 che fornisce non solo la possibilità di monitorare Sicurezza aziendale e continuità del business 2011 automaticamente una scena, ma anche di gestire i dati delle immagini registrate, effettuare il recupero dei dati sulla base degli eventi, ricevere allarmi in tempo reale attraverso Web, effettuare indagini investigative post evento ed estrarre modelli statistici di attività a lungo termine. Grazie alle sue funzioni di analisi comportamentale basate su video, di real time alert e controllo a eventi “pre-programmati”, aiuta a sviluppare strategie di sicurezza più intelligenti. Il sistema adotta un approccio object-oriented al video: capisce il video stream, scomponendolo in persone, oggetti e aree di interesse. Ha inoltre incorporato nella sua progettazione diversi modi per tutelare la privacy delle persone nello spazio controllato. La soluzione si basa su una tecnologia per la sicurezza innovativa, creata dai laboratori di ricerca IBM e basata su open standard, che permette di monitorare e analizzare eventi mediante sensori multipli, tra cui video camere, radar, sensori chimici o ingressi audio, integrandosi con le principali tecnologie sul mercato. IBM Smart Vision System permette di accedere in tempo reale alle informazioni critiche e di fare ricerche mirate per particolari attributi sulle immagini video registrate, fornendo diversi vantaggi rispetto ai sistemi di video sorveglianza tradizionali, tra cui il potenziamento delle funzioni di indagine scientifica, il recupero di video basato sui contenuti e la “consapevolezza della situazione”, questo, in particolare, attraverso l’identificazione congiunta di posizione, identità e attività degli oggetti nello spazio monitorato. Strategie e architetture per la business continuity IBM ha costituito la Business Continuity and Resiliency Services: una linea di prodotti e servizi che indirizzano un’esigenza ben specifica: quella appunto di “resilienza”. Per IBM la business resiliency consiste nella capacità di adattarsi rapidamente alle situazioni sia di rischio sia di opportunità. Più precisamente, IBM fornisce servizi di continuità operativa, che garantiscono alle aziende la capacità di continuare a erogare i servizi informativi in situazioni di emergenza anche grave, e servizi di sicurezza, che proteggono l’informazione in termini d’integrità, confidenzialità e disponibilità dei dati. Questo, in un’ottica di gestione e controllo del rischio operativo, significa fornire la capacità di reagire a situazioni avverse, ma 11 IBM anche la capacità di cogliere le opportunità, come saper gestire i picchi di domanda. Da questo punto di vista, IBM sposa la definizione di rischio operativo proposta da Basilea II, che parla di rischi derivanti dall’inadeguatezza di un’organizzazione a fronte di diverse minacce, non solo esterne. Per questo, i servizi di business continuity e resiliency di IBM non si limitano a garantire la tradizionale continuità operativa di business, ma includono anche servizi per la conformità alle normative di governo e di settore, servizi di alta affidabilità, servizi di protezione di dati e informazioni e i servizi per la gestione integrata del rischio operativo. I professionisti di IBM supportano le aziende in tutte le fasi di un progetto per la business continuity: dalla valutazione degli impatti sul business, alla pianificazione della strategia di business continuity, alla progettazione, fino all’implementazione e gestione. Un esempio di architettura IBM per un servizio di business continuity e resiliency Più precisamente, i servizi IBM di business continuity e resiliency sono raggruppati in quattro aree: IBM Resiliency Consulting Services – servizi di consulenza per il disegno di un’infrastruttura di resilienza adeguata alle esigenze d’ogni azienda. IBM Information Protection Services – servizi di protezione e recupero di dati e informazioni (backup e recovery dei dati). IBM Managed Resiliency Services – fornitura di un’infrastruttura resiliente con tempi di ripristino minimi. IBM Disaster Recovery Services – con ripristino del business, dell’infrastruttura e finanche degli impiegati in caso di disastro. 12 Sicurezza aziendale e continuità del business 2011 IBM è in grado di gestire il processo in completo outsourcing, installando le macchine necessarie a replicare l’infrastruttura che il cliente decide di proteggere (compresi quindi sistemi hardware di altri produttori) presso i propri centri di disaster recovery, fornendo facility e risorse umane e consentendo il ripristino di processi di business, informazioni e dati, applicazioni, tecnologie e strutture. IBM fornisce anche servizi di ripristino dei workplace, mettendo a disposizione postazioni dove il cliente può mandare le proprie persone. Altra possibilità sono ambienti particolari, per esempio, per le aziende che operano in borsa oppure le postazioni specializzate per i call center. Ancora, ci sono diversi servizi di housing e hosting: di fatto, ci sono tutte le possibilità dall’affitto di un’area fino all’outsourcing operativo o il più completo possibile. IBM Resiliency Consulting Services I servizi di consulenza sulla resilienza sono strutturati su tre livelli: governance, IT process e IT system/infrastructure. A livello di governo, l’obiettivo dei servizi è: definire i misuratori e le metriche per il controllo continuo delle prestazioni predeterminate, garantendo la compatibilità con requisiti normativi interni ed esterni; condurre un’analisi dei rischi; misurare il livello di resilienza dell’azienda. Rientrano in questa categoria di servizi gli studi di Business Impact Analysis, Risk Assessment, Resiliency Assessment e Security Compliance. A livello di IT process, l’obiettivo dei servizi consiste nello sviluppare i processi di disaster recovery e nel definire le interdipendenze con il sistema di gestione IT. Più precisamente, in quest’ambito, i servizi consulenziali sono finalizzati a progettare e sviluppare un sistema per la gestione della continuità operativa, specificandone le interrelazioni con altri processi. Rientrano in questa categoria i Business Continuity Plan, i piani di Disaster Recovery e quelli di Crisis Management, come definiti da standard e best practice internazionali, quali ITIL o COBIT. In questo contesto, risulta importante il valore aggiunto che discende dall’esperienza dei consulenti IBM, che conoscono le normative e sanno disegnare le architetture coerentemente ai requisiti. I piani di disaster recovery e quelli di business continuity, infatti, sono in continuo divenire: cambiano al cambiare dell’infrastruttura. Devono quindi sottostare a processi ciclici e comprendere, come previsto appunto dalle best practice o 13 IBM dagli standard citati, fasi precise, come l’escalation, il recovery, l’esercizio in emergenza e il rientro, oppure come i test e le simulazioni. Ci si augura di non dover mai fronteggiare un disastro, ma all’occorrenza bisogna essere pronti. Infine, a livello infrastrutturale, i servizi forniti dai consulenti e gli architetti IT di IBM hanno come obiettivo il disegno di soluzioni per il disaster recovery secondo una metodologia coerente con le best practice, quindi rispondente ai requisiti e ai livelli di servizio predefiniti, come i Recovery Time Objective e i Recovery Point Objective, che definiscono entro quanto tempo deve essere disponibile il recovery e quali sono gli “oggetti” che devono essere ripristinati. Con particolare attenzione alla fase di ripristino, che è quella più delicata e che deve essere gestita in maniera dinamica, perché ogni asset ha priorità diverse. IBM Information Protection Services IBM gestisce a livello centralizzato i backup a casa del cliente, immagazzinando nei propri data center ben 24 Petabyte di dati. Il cliente installa un agent che, secondo una pianificazione parametrizzata, salva quanto è stato identificato come dato critico dal cliente. In maniera automatico il dato viene memorizzato sulle librerie presso i Data Center di IBM. Il tutto può essere controllato ed eventualmente ripristinato dal cliente attraverso un portale Web sicuro, attraverso il quale si possono configurare tutti i parametri per il backup, secondo una logica cloud. In altre parole, i servizi di protezione dei dati possono essere realizzati sia on site sia da remoto, in modalità molto flessibili per venire incontro a diverse casistiche. Tra i servizi forniti: Fastprotect online, che fornisce backup e recovery continuo dei dati contenuti su desktop e notebook. Information Protection Services Remote Data Protection, per la protezione di dati distribuiti con un sistema altamente sicuro. Information Protection Services Managed Data Vault, che riduce il rischio di perdita dei dati attraverso un rapido sistema di backup e recovery in modalità cloud. Esistono poi alcuni servizi “confezionati” in modalità “Express”, che in IBM identifica servizi chiavi in mano tagliati sulle situazioni ed esigenze più 14 Sicurezza aziendale e continuità del business 2011 comuni. Tra questi, per esempio, l’Email management express, che fornisce supporto nella protezione della posta elettronica critica attraverso opzioni avanzate. Un partner d’esperienza La complessità delle discipline che devono essere implementate per realizzare i piani di business continuity o quelli di disaster recovery, nonché la loro quantità numerica rendono necessario affidarsi a un partner che possegga competenze di alto livello e, soprattutto, esperienza. Qualità che i responsabili rivendicano citando numeri importanti, come i 40 anni di esperienza nel settore, gli oltre 10mila clienti a livello mondiale, i 154 centri di resiliency sparsi per il Pianeta, 1600 persone (40 circa a livello italiano) o, soprattutto, gli oltre 750 sistemi ripristinati dopo un disastro. La società IBM è una società di innovazione al servizio di aziende e istituzioni che detiene primati in ogni area tecnologica, per lo sviluppo e la gestione di complesse infrastrutture informatiche; opera in 170 paesi con un organico di oltre 355.000 dipendenti e in Italia è presente dal 1927 contribuendo alla crescita economica e all’innovazione. Per ulteriori informazioni: http://www-935.ibm.com/services/it/gts/html/security_privacy.html http://www-935.ibm.com/services/it/gts/html/business.html www.ibm.com/it/it/ 15 Sicurezza aziendale e continuità del business 2011 JUNIPER NETWORKS Strategia e piattaforme Juniper Networks (in seguito Juniper) è una società di caratura internazionale che opera nel campo del networking e della sicurezza di rete. Il suo impegno è focalizzato nello sviluppo di una nuova vision della rete trasmissiva aziendale, sia per il mondo enterprise che dei carrier, nonché per reti fisse e mobili. Tra i suoi principali obiettivi negli sviluppi per il networking e la sicurezza vi è quello di assicurare il funzionamento dei data center di nuova generazione e abilitare in modo ottimale l’interazione degli elementi server, storage e client che lo costituiscono e che operano in modo sempre più virtuale e in ambienti cloud. A questo vanno anche aggiunte le forti esigenze di sicurezza, sia nella protezione dei dati durante il loro trasporto in rete e tra gli end-point che nel garantire la connettività e la continua disponibilità delle informazioni e dei sistemi interconnessi, tutti aspetti questi a cui Juniper ha inteso rispondere efficacemente con una nuova vision architetturale e una ampia dotazione di servizi di rete e per una gestione fortemente integrata. La considerazione di base di Juniper nello sviluppo di una nuova architettura di rete e dei prodotti (switch, router) che la concretizzano, nonché delle funzioni di sicurezza che li devono caratterizzare, è che i flussi dati di un dispositivo client non sono più strettamente correlati a un server fisico ma in un ambiente sempre più dinamico e virtuale possono fluire all’interno di una rete in modo complesso e non prevedibile. Questa deve essere quindi in grado di supportare il relativo traffico e adeguarsi in modo dinamico al variare dei flussi, del loro volume e delle esigenze di qualità del servizio di trasporto (che è diverso a secondo che si tratti di semplici transazioni, voce o video). In questo scenario dinamico la 1 JUNIPER NETWORKS sicurezza deve essere applicata a tutti i livelli di una rete, sia essa fissa o mobile, e garantire il corretto funzionamento dalla singola transazione o sessione di lavoro. Nella vision di Juniper l’infrastruttura di rete deve, in sintesi, essere in grado di abilitare e favorire la trasformazione dell’ambiente applicativo di una azienda e del suo Data Center, trasformazione che deve necessariamente prevedere le esigenze di consolidamento, di trasporto del video (sia come videoconferenze che videocontrollo ambientale), di mobilità dei client, di sicurezza, di compliance e di utilizzo di applicazioni in ambienti sia enterprise cloud che public cloud. Semplificare, Automatizzare, Proteggere Juniper ha identificato nella molteplicità dei tier di una infrastruttura di rete di un data center uno degli elementi più critici nel perseguire obiettivi di sicurezza nel funzionamento, flessibilità, gestibilità, dinamicità, ottimizzazione di Capex e Opex e riduzione di consumi energetici. In una rete legacy multi tier (tipicamente tre) quasi il 50% delle connessioni di rete servono esclusivamente per collegare tra loro gli switch dei diversi livelli che la costituiscono invece di essere utilizzate per la connessione dei server, dei mainframe o dei dispositivi di storage SAN e NAS. Ciò rende inoltre complesso e ‘time consuming’ procedere al riallineamento della rete mediante il protocollo spanning tree quando si verificano dei guasti e sia necessario isolare un nodo malfunzionante e provvedere alla ridefinizione dei percorsi di rete. Inoltre, l’alto numero delle connessioni rende meno sicuro il sistema globale che ne deriva perché aumenta la possibilità di guasti o di errori da parte del personale tecnico e di manutenzione. L’effetto combinato di questi molteplici, onerosi e critici elementi nel funzionamento della rete porta ad una riduzione della capacità di banda trasmissiva effettivamente disponibile ai server e allo storage che può risultare superiore anche al 50% di quella teorica. A questo spreco di risorse e di costi si aggiunge poi la maggiore complessità gestionale e la riduzione di affidabilità che deriva da connessioni in eccesso. La soluzione ideata da Juniper per eliminare questi problemi consiste in una ‘New Network’ le cui caratteristiche salienti sono la semplicità, la sicurezza e l’automazione. I tre obiettivi che Juniper ha inteso raggiungere con la sua vision architetturale sono: Semplificare, Automatizzare, Proteggere. 2 Sicurezza aziendale e continuità del business 2011 Semplificare è l’obiettivo primario quando si vogliono migliorare gli economics e le prestazioni di una infrastruttura. La nuova architettura di rete per data center “3-2-1” di Juniper ha come obiettivo primario quello di razionalizzare e semplificare le reti data center legacy grazie alla adozione massiva in tutti gli apparati di switch di nuova generazione della nuova tecnologia Virtual Chassis fabric, sviluppata per ridurre da tre a due i layer di rete, e successivamente a un solo layer, tramite la piattaforma fisica (fabric) del “Progetto Stratus” di Juniper. Peraltro, per favorire ulteriormente questa semplificazione Juniper ha adottato per tutti i suoi apparati di rete un unico sistema operativo (Junos), una modalità predefinita di rilascio delle nuove release del software, e piattaforme software caratterizzate da un elevato grado di flessibilità (Junos, Junos Space e Junos Pulse). Il secondo punto nella vision strategica di Juniper consiste nell’automatizzare. Garantire una elevata automazione, nella strategia della società è un compito assegnato alla sua soluzione Junos Space, che consiste in una piattaforma applicativa di rete in grado di automatizzare le funzioni di provisioning, gestione e supporto delle reti dei data center, in modo da ridurre i costi operativi e migliorare la user experience dell'utente finale. La piattaforma comprende applicazioni software basate su Junos Space e, in particolare, la soluzione Virtual Control per la gestione di sistemi fisici e virtuali da una piattaforma di orchestrazione condivisa. La protezione e la sicurezza dell’ambiente di rete costituisce il terzo elemento della strategia di Juniper. Le funzioni per la sicurezza di rete di livello world-class che Juniper ha implementato nelle sue soluzione hanno l’obiettivo di aiutare l’IT ad adattarsi ai comportamenti dei nuovi utenti e ai cambiamenti nei flussi di dati all'interno del data center determinati dalla crescita esplosiva della virtualizzazione di server, storage e client, dal Web 2.0 e dalle implementazioni di servizi cloud. Il "modello di sicurezza dinamica" di Juniper si concretizza tramite i Service Gateway Juniper SRX Series e funzionalità quali la AppTrack, che abilitano una elevata visibilità sul comportamento di applicazioni e utenti in modo da gestire in modo ottimale i flussi di dati e individuare in modo puntuale gli eventuali colli di bottiglia nei flussi di rete. Le funzionalità di protezione delle piattaforme Juniper permettono inoltre agli amministratori IT di gestire dinamicamente le identità, le applicazioni e le policy di rete a partire dai dispositivi di utente fino ai data center. 3 JUNIPER NETWORKS Affrontando queste tre tematiche, alla base dello sviluppo della sua ‘New Network’, Juniper si è posta l’obiettivo di abilitare una riduzione delle spese in conto capitale di sino al 30% (conseguenza da una parte di minori apparati da acquisire e dall’altra di un minor numero di connessioni da installare ed esercire) e contestualmente ridurre l’Opex (come conseguenza naturale di una gestione dell’infrastruttura che risulta più semplice, dei minori costi energetici che si devono sopportare, del forte aumento della affidabilità complessiva dell’infrastruttura). La strategia per una rete 3-2-1 L’obiettivo perseguito da Juniper per il mondo enterprise e carrier è, come accennato, la semplificazione e la sicurezza del data center e delle infrastrutture di rete, che passa necessariamente attraverso la semplificazione della sua infrastruttura per giungere poi, come punto di arrivo, ad una rete con un solo livello. Juniper riconosce però che questo obiettivo non può essere raggiunto in un unico passo e per permetterlo ha ideato una strategia evolutiva che porterà dalla attuale e diffusa architettura basata su tre tier (o livelli) ad una architettura di rete molto più sicura ed affidabile, costituita da un solo tier, che collegherà in modalità punto a punto tutti gli elementi di un Data Center passando attraverso una fase intermedia, già resa praticabile dalle sue soluzioni, basata su solo due tier. Il progetto Stratus incorpora nel fabric di rete tutte le funzioni, basate sul sistema operativo Junos, che permettono di realizzare un unico livello di switch e gestirlo come se fosse un unico apparato, riducendo i costi, semplificando l’intera infrastruttura e abilitando una forte sicurezza dell’intero sistema. 4 Sicurezza aziendale e continuità del business 2011 Quando sarà completata l’evoluzione, la possibilità di comunicazione puntopunto abiliterà enormi benefici prestazionale, del TCO, nella gestione e nella sicurezza. In sintesi, la nuova architettura “3-2-1” per le reti data center realizzata da Juniper abilita già il passaggio da tre a due livelli e, in futuro, a un solo livello tramite il citato "Progetto Stratus", che integrerà del tutto a livello di fabric le funzioni di rete di un data center. I benefici che ne risulteranno, rileva Juniper, sono molto forti perché le innovazioni derivanti da una tecnologia ‘fabric’, di virtualizzazione e di automatizzazione, possono ridurre fino al 50% i tempi richiesti per eseguire le operazioni e parimenti ridurre di fino al 35% le spese in conto capitale per le reti dei data center. Va osservato che il ‘Progetto Stratus’ è stato ideato al fine di abilitare la realizzazione di data center estremamente potenti che, di conseguenza, necessitano di una rete ad elevatissime prestazioni e affidabilità. Capacità elaborativa elevata e rete parimenti ad alte prestazioni sono anche due degli elementi che nella strategia di Juniper abiliteranno la diffusione e l’adozione di soluzioni di Cloud Computing sia di tipo enterprise che public. Nel progetto Stratus, in corso da tempo, sono confluite le esperienze e le innovazioni ingegneristiche e tecnologiche a livello hardware, software, ASIC e architetturali realizzate da Juniper, con l’obiettivo di fornire una soluzione ai maggiori problemi che si incontrano nell’esercizio di un data center. Tra questi, la necessità di una architettura a un solo livello, non bloccante e senza perdita di pacchetti, una scalabilità da decine di porte a decine di migliaia di porte operanti alla velocità 10 Gb Ethernet, la riduzione sino a un ordine di grandezza nella latenza rispetto ai data center esistenti in modo da supportare applicazioni massive in ambienti Cloud, l’esigenza di un livello di affidabilità di tipo carrier class e di una rete che non presenti singoli punti di guasto, la disponibilità di servizi evoluti di sicurezza integrati e virtualizzati nel fabric della rete. Non ultimo, la possibilità di gestire l’insieme di apparati di rete dell’unico livello come se fossero un unico grande switch basato sul sistema operativo Junos di Juniper. Ma se la riduzione a un livello promette enormi benefici, buon parte di questi benefici possono, come accennato, essere già ottenuti oggi con l’architettura di Juniper a due soli livelli, che ingloba molti dei principi della sua visione strategica globale quali la virtualizzazione e le funzionalità di rete a livello di fabric, e che riduce fortemente l’esigenza di aggiungere 5 JUNIPER NETWORKS continuamente nuovi apparati di rete e espandere esponenzialmente la complessità gestionale. La tecnologia Virtual Chassis di Juniper Uno degli elementi chiave della strategia Juniper nell’evoluzione verso una rete ‘flat’ costituita da un solo livello di apparati (elemento già disponibile nelle sue soluzioni attuali che abilitano la realizzazione di una rete a soli due livelli), è costituito dalla tecnologia brevettata ‘Virtual Chassis’. L’aspetto chiave è che in una configurazione di apparati dotati della tecnologia ‘Virtual Chassis’, tutti gli switch possono essere gestiti come un unico dispositivo, cosa che permette di separare la topologia fisica dal raggruppamento logico degli end-point ed avere un miglior utilizzo delle risorse. Inoltre, è possibile creare delle topologie di rete ad elevata resilienza utilizzando le porte di up-link a 1 Gb Ethernet o a 10 Gb Ethernet per estendere la configurazione Virtual Chassis in ambito geografico anche su lunghe distanze, su più wiring closet, piani o interi palazzi di campus. La tecnologia Virtual Chassis permette di distribuire gli switch in più uffici, piani, o sedi geografiche e di gestirli come un unico apparato fisico, suddiviso in più sottosistemi logici. Numerosi i benefici e la semplificazione che ne derivano. Ad esempio, l’implementazione della tecnologia Juniper Virtual Chassis nel layer di accesso, ha permesso a Juniper di eliminare i requisiti di aggregazione (che costituiscono una delle cause primarie di complessità per le reti degli attuali data center), con una riduzione di oltre il 90%, evidenzia Juniper, del numero di interazioni fra switch rispetto alle reti legacy a tre layer. Il risultato immediato è un forte incremento delle prestazioni e delle performance applicative che è conseguenza di un abbattimento della latenza rispetto alle reti legacy basate su tre layer. In base a test realizzati nei laboratori di ricerca di Juniper e a esperienze in field la riduzione può giungere fino al 77%. 6 Sicurezza aziendale e continuità del business 2011 Le soluzioni e i servizi Juniper ha una estesa offerta di switch e router adatti per la realizzazione di reti aziendali private o per l’erogazione di servizi da parte di carrier e operatori nazionali o sovranazionali. A questo insieme di prodotti aggiunge numerose famiglie di applicazioni software, servizi e applicazioni di management e un’ampia suite per la sicurezza aziendale e di rete. Continui sono anche gli aggiornamenti di prodotto ed i nuovi rilasci, soprattutto in chiave di Virtual Chassis, gestibilità e sicurezza. Oltre ai servizi e ai prodotti, nell’ambito di una strategia volta a massimizzare la sicurezza delle operazioni aziendali sia di rete fissa che mobile, ha aperto anche un apposito centro dedicato alla sicurezza delle applicazioni e dei dispositivi mobili che è a disposizione dei propri clienti. Applicazioni per la sicurezza delle reti dei data center Oltre ad un’ampia gamma di apparati per ambienti enterprise e carrier, Juniper ha reso disponibile un esteso insieme di strumenti software per l’amministrazione, la gestione, la sicurezza e la virtualizzazione di una rete aziendale. E’ una offerta finalizzata in particolare a migliorare significativamente le operazioni automatizzate di provisioning, gestione e di supporto delle reti dei data center in un contesto sempre più dinamico e virtualizzato. La suite di automazione delle reti di nuova generazione a due livelli 7 JUNIPER NETWORKS Le applicazioni si prefiggono anche di aiutare le imprese di qualsiasi dimensione nel ridurre sensibilmente i costi operativi del data center ottimizzando il delivery, l’affidabilità e la sicurezza dei servizi. Le applicazioni si basano sulla piattaforma Junos Space, ideata per facilitare lo sviluppo e il deployment delle applicazioni di rete. Junos Space è una soluzione aperta che permette di creare applicazioni specializzate capaci di semplificare le operazioni di rete, automatizzare gli interventi di assistenza e velocizzare il delivery dei servizi. Congiuntamente al sistema operativo Junos e al software client Junos Pulse, Junos Space costituisce una piattaforma software “cross-network” aperta che permette di ottenere un time-to-market più rapido per i nuovi servizi di rete. Applicazioni per orchestrare sicurezza e automazione Quattro le applicazioni software chiave della suite e che permettono agli IT manager di “orchestrare” l'automazione e la sicurezza delle reti con un'unica interfaccia di gestione user-oriented: • Juniper Virtual Control – E’ una applicazione aperta Web-based che velocizza i deployment di server virtuali e consente agli amministratori di rete di gestire da un'unica interfaccia di orchestrazione non solo le porte switch fisiche, ma anche quelle virtuali. In sostanza, permette di minimizzare gli errori, ridurre le complessità operative e ridurre i costi. Le fasi di come opera Junos Space Virtual Control, una applicazione sviluppata congiuntamente a VMware per l’orchestrazione sicura di reti virtuali Per l'implementazione di Virtual Control, Juniper si è basata su una forte collaborazione con VMware per sfruttare le sue API aperte e creare un unico framework per la definizione e la gestione degli elementi di rete 8 Sicurezza aziendale e continuità del business 2011 sia fisici che virtuali. In pratica, una volta che un vNetwork Distributed Switch (vDS) è stato creato da VMware e gestito dal sistema di gestione centralizzata vCenter, il software Junos Space Virtual Control comunica con vDS tramite le API di VMware in modo da orchestrare l’interazione tra rete fisica e rete virtuale nel modo più efficiente possibile. • Juniper Ethernet Design – E’ un'applicazione per la gestione Ethernet unificata che consente alle reti di campus e dei data center di adeguarsi alle esigenze di applicazioni e utenti. Abilita l'automazione delle operazioni di configurazione, visualizzazione, monitoraggio, amministrazione e protezione di reti di switch e router su vasta scala. Ethernet Design consente all'amministratore di implementare e gestire migliaia di dispositivi di rete come si trattasse di uno solo. • Juniper Security Design – E’ un’applicazione software che permette l'attivazione point-and-click di dispositivi e servizi di sicurezza (quali firewall, NAT e VPN) con un intervento operatore molto ridotto e rispettando i requisiti normativi. Le particolari tecniche di astrazione di policy comprese in Security Design fanno sì che gli amministratori di rete, non necessariamente esperti di sicurezza, possano gestire i set delle regole utente e implementare i servizi di sicurezza. • Juniper Service Insight – E’ una applicazione che fornisce funzioni proattive di rilevamento, diagnosi e risoluzione delle problematiche legate alle prestazioni della rete. L’obiettivo è quello di favorire la pianificazione e risoluzione rapida dei problemi, oltre a un abbattimento dei costi e dei tempi di intervento abilitato dalla eliminazione delle operazioni manuali. Oltre a queste quattro applicazioni, Junos Space viene fornito insieme ad altri tre prodotti Juniper: • Network Activate, per creare e attivare rapidamente i servizi, inclusa un'attivazione dei servizi VPN. • Route Insight, che fornisce la capacità di registrazione e riproduzione in stile DVR per pianificare, simulare e risolvere le problematiche delle reti MPLS. • Service Now, che velocizza la risoluzione di eventuali disservizi grazie all'intervento automatico di strumenti Juniper. 9 JUNIPER NETWORKS Applicazioni e servizi per la sicurezza della rete La strategia di rete 3-2-1 di Juniper orientata allo sviluppo di reti di un solo livello e ad elevate prestazioni si abbina ad un suo nuovo “modello di sicurezza dinamica” che ha sviluppato al fine di garantire una sicurezza di rete world-class ai data center di nuova generazione. Il modello di sicurezza dinamica ideato da Juniper ha l’obiettivo di permettere all'IT di adattarsi facilmente ai nuovi comportamenti degli utenti e ai cambiamenti dei flussi di dati derivanti dal deployment su larga scala di ambienti virtualizzati, Web 2.0 e servizi cloud sia di tipo public che enterprise. In particolare, i prodotti Juniper per la sicurezza del data center supportano le aziende e i service provider nel superare i limiti architetturali insiti nelle attuali soluzioni di sicurezza e a far proprio il paradigma del data center ad alte prestazioni identity-aware. Oltre che per questo, il modello è stato ideato per ridurre sensibilmente costi e complessità e migliorare la visibilità della applicazioni. I numerosi prodotti per la sicurezza del data center comprendono: • Il software Juniper Networks AppTrack che permette una elevata visibilità e possibilità di controllo a livello delle applicazioni nei Service Gateway Juniper SRX Series. • La disponibilità del software Juniper AppSecure che consente la protezione da attacchi del tipo distributed denial-of-service per le applicazioni sui prodotti SRX Series. • Il software Juniper Networks Junos Space Security Design, che aiuta a superare i limiti architetturali delle attuali soluzioni di sicurezza, e a evolvere verso il paradigma del data center ad alte prestazioni identity aware. • La disponibilità della versione OEM dei sistemi SRX Series per IBM. • Una maggiore protezione da malware derivante dalla partnership con FireEye. In particolare, il modello di sicurezza dinamica nei sistemi SRX Series, permette alle aziende di assegnare dinamicamente le risorse di sicurezza come firewall e IPS. Queste risorse mantengono piena funzionalità di protezione anche in presenza di forti variazioni e picchi nei flussi di traffico e consentono di scalare, secondo dati di targa, fino a oltre 120 Gbps in un unico sistema con gestione centralizzata unica. 10 Sicurezza aziendale e continuità del business 2011 Da sinistra i modelli SRX100, SRX340 e SRX580 (non in scala) Va osservato che nell’approccio Juniper il modello di implementazione delle policy applicative è attuato su vasta scala, ed estende ulteriormente le proprie capacità con la SRX Series grazie al software AppTrack, che amplia il controllo dei flussi dati e aggiunge informazioni di identificazione delle applicazioni nei log delle sessioni IPS. Juniper Networks Junos Pulse e Junos Space sono anch'essi parte integrante del modello Juniper per la sicurezza dinamica che fornisce all'IT la possibilità di gestire dinamicamente identità, applicazioni e policy. Tramite l’integrazione con SSL VPN, UAC e Application Acceleration gateway di Juniper, Junos Pulse favorisce una sicurezza identity-aware dinamica su vasta scala anche negli ambienti data center complessi di aziende o service provider. Una ‘new network” sicura anche per il mobile L’impegno per una rete di nuova generazione di Juniper non si è limitato alle reti fisse ma si estende anche a quelle mobili. Juniper ha osservato che la rete mobile attuale è stata sviluppata per i dispositivi voce e non per quelli a intenso utilizzo della banda oggi d'uso comune. Ritiene quindi che sia necessario disporre di una nuova rete mobile in grado di migliorare l'esperienza dell'utente finale, senza implicare per questo un aumento consistente dei costi. Per favorire questa evoluzione ha sviluppato una soluzione in grado di risolvere i due principali problemi della rete. Il primo è costituito dal come trasformare il core di una rete mobile. La risposta di Juniper a questa esigenza consiste in una soluzione tecnologica che ottimizza la rete mediante le funzioni di “Juniper Networks Traffic Direct” e “Juniper Networks Media Flow”, e consentendo con la soluzione “Juniper Networks Mobile Core Evolution” di rendere aperto il core mobile di una rete consentendone l'evoluzione. Il Secondo aspetto è costituito 11 JUNIPER NETWORKS dall’esigenza di una sicurezza mobile di tipo pervasivo e atta a garantire il traffico. Per questo Juniper ha sviluppato una soluzione, la “Juniper Networks Mobile Secure Solution”, che "immette" sicurezza in ogni touchpoint e integra la sicurezza nei dispositivi mobili, nelle applicazioni e nelle reti. Ciò permette ai provider di abilitare in modo efficace ed efficiente nuove applicazioni sui dispositivi mobili bloccando al tempo stesso il traffico indesiderato che degrada la user experience dell’utente finale. Junos Pulse Mobile Security Suite Ma il problema della sicurezza non interessa solo la componente rete bensì anche i dispositivi che ne fruiscono. Secondo Juniper infatti, i dispositivi mobili personali costituiscono il mezzo più usato per accedere alle reti aziendali, ma sono anche dei vulnerabili portali per l’accesso a informazioni individuali e professionali riservate. Secondo una ricerca commissionata da Juniper, poco meno del 4% degli utenti usa i dispositivi mobili per motivi esclusivamente professionali, mentre il 44% li utilizza sia per scopi lavorativi che personali. Quasi l'81% di questi utenti accede alla rete della propria azienda senza che questa ne sia consapevole e senza autorizzazione, e il 58% lo fa quotidianamente. Per questi apparati, che possono costituire un elevato rischio per l’intera azienda e porta di ingresso di pericolosi virus, Juniper ha rilasciato la suite Junos Pulse Mobile Security, un software di sicurezza che consente di proteggere i dispositivi mobili usati per scopi professionali e/o personali. Junos Pulse garantisce l’identità di un’ampia gamma di dispositivi mobili La suite fa parte della piattaforma Junos Pulse, ed è una soluzione integrata che comprende sia servizi di sicurezza dei dati che la protezione della connettività su praticamente tutti i dispositivi mobili. La suite software, che comprende antivirus, firewall personale, anti-spam, protezione contro smarrimento e furto, servizi di controllo e monitoraggio, 12 Sicurezza aziendale e continuità del business 2011 permette alle aziende di fornire agli utenti un accesso sicuro alle applicazioni e alla posta elettronica da qualsiasi dispositivo mobile tutelando la sicurezza di dati e reti enterprise. La soluzione permette inoltre ai service provider di garantire un'operatività senza preoccupazioni ai consumatori o alle aziende che salvano i propri dati sensibili sugli smartphone. Junos Pulse Mobile Security inoltre, permette ai genitori di proteggere i figli da contenuti violenti e diseducativi. Per il mondo aziendale, la suite per la sicurezza mobile consente alle divisioni IT di supportare con flessibilità qualsiasi dispositivo mobile personale indipendentemente dalla piattaforma utilizzata. La sicurezza della suite si basa sulla soluzione SSL VPN di Juniper, già implementata da decine di migliaia di aziende in tutto il mondo. La piattaforma Junos Pulse consente infine ai provider non solo di offrire un servizio cloud-based ai propri clienti, ma anche di sfruttare lo stesso investimento per proporre alle aziende la miglior soluzione SSL-VPN e per la sicurezza mobile. Molto ricca la dotazione funzionale del software della suite. Protegge smartphone e altri dispositivi mobili intelligenti da virus, malware, perdite, furti, danneggiamenti fisici e altre minacce. E’ inoltre dotata di tool per la gestione dei dispositivi da remoto e include antivirus, firewall personale, anti-spam, prevenzione da perdita e furto, e servizi di controllo e monitoraggio appositamente sviluppati per smart phone e altri dispositivi mobili “intelligenti”. La sicurezza è incrementata anche dalla possibilità di eseguire il backup e il ripristino di dati da remoto, di localizzare dispositivi in caso di perdita o furto, e di inviare messaggi di alert nel caso in cui una SIM venga rimossa, sostituita o modificata. Un Centro Juniper dedicato alla mobilità sicurezza Oltre a soluzioni direttamente utilizzabili dai clienti, Juniper ha rafforzato la sua strategia per la sicurezza tramite l'apertura del Juniper Global Threat Center, un centro che eroga servizi di monitoraggio 24 ore su 24 sulle minacce alla sicurezza mobile per utenti privati e aziende in tutto il mondo. Situata a Columbus, in Ohio, la struttura è dedicata all'identificazione, alla gestione e alla ricerca delle minacce che mettono a rischio i dispositivi mobili, quali virus, spyware e altre vulnerabilità che possono colpire informazioni confidenziali, personali e professionali di un utente. Nel corso del 2011 il Juniper Global Threat Center renderà disponibile lo studio “State of Mobile Security 2010”, che fornirà alle aziende un quadro 13 JUNIPER NETWORKS sullo stato della sicurezza mobile. I dati preliminari sull’attenzione che va posto al problema della sicurezza in ambito mobile sono significativi. Analisi su applicazioni in ambiente Android capaci di avviare attività pericolose hanno mostrato che un'applicazione su 20 ha richiesto permessi tali da consentire al programma stesso di effettuare una chiamata all'insaputa dell'utente. Una tra le società Fortune 15 ha scoperto che il 5% (ovvero 25.000) dei suoi dispositivi mobili era infetto da malware Il malware ha subito un incremento del 250% dal 2009 al 2010 mentre ben il 61% di tutte le segnalazioni di smart phone infettati è stato causato da spyware capaci di monitorare le comunicazioni del dispositivo. Infine, il 17% di tutte le segnalazioni di dispositivi infettati è stato causato da Trojan SMS che addebitano costi a carico dell'abbonato. Obiettivo del Juniper Global Threat Center è, in sostanza, quello di monitorare e contrastare le minacce ai dispositivi mobili in continua evoluzione, e di garantire ai clienti Juniper il massimo livello possibile di protezione su dispositivi di questo tipo. In particolare, il centro monitorerà e contrasterà le cinque principali tipologie di minacce e vulnerabilità: Malware : virus, worm, Trojan, spyware Attacchi diretti: attacchi alle interfacce dei dispositivi, exploit di browser, attacchi SMS. Danneggiamenti fisici: accesso fisico a un dispositivo (rubato o smarrito) e ai suoi dati. Intercettazione delle comunicazioni: l'intercettazione dei dati mentre vengono inviati e ricevuti. Exploit e uso illecito: comunicazioni inappropriate, sottrazione di dati, predatori online, bullismo, sexting. Ulteriori informazioni sul Juniper Global Mobility Threat Center sono disponibili sul sito della società (www.juniper.net/pulse) . Care Plus: il servizio enterprise per la protezione degli investimenti Care Plus è un portafoglio di servizi per ambienti enterprise ideato da Juniper per proteggere gli investimenti effettuati nelle reti ad alte prestazioni e allo stesso tempo aumentarne l'affidabilità, l'efficacia e ridurre i costi operativi. 14 Sicurezza aziendale e continuità del business 2011 Si basa sull'offerta di servizi Juniper Care per il supporto a livello di dispositivo, ed estende l'assistenza mission-critical per i clienti enterprise. Juniper Care Plus permette di mantenere la disponibilità della rete a livello ottimale, ottenuto mediante un supporto dedicato (Designated Service Manager), strumenti di automazione proattiva e servizi personalizzati che comprendono la formazione, la consulenza di rete e l’account. In particolare, il Designated Service Manager fornisce un supporto personalizzato attraverso un unico punto di contatto per tutte le attività, le problematiche e gli incidenti relativi al servizio. La società Juniper Networks è una società con una forte presenza internazionale che progetta e realizza prodotti e soluzioni di networking ideate per efficientare le reti, renderle più sicure, permettere di rendere dinamici e flessibili ambienti Data Center e sviluppare soluzioni di cloud computing, che rappresentano il nuovo paradigma dell’IT in grado di abilitare l’ottimizzazione di Capex e Opex e di rendere dinamici i processi di business e produttivi. Ha concentrato la sua vision anche su uno degli aspetti salienti nell’attuale scenario evolutivo aziendale e del business, quello del data center e delle esigenze di networking che lo caratterizzano. Ampio il suo settore di attività. E’ specializzata nella realizzazione di soluzioni di rete adatte per ambienti enterprise, PA, del Finance e dei servizi e con una forte presenza tra i carrier. La sue sedi in Italia sono a Milano e Roma. Per ulteriori informazioni www.juniper.net 15 Sicurezza aziendale e continuità del business 2011 SonicWall Le strategie e le architetture Fondata nel 1991, nonché una delle prime aziende a introdurre il concetto di security appliance e quello di Unified Threat Management, SonicWall ha continuato a evolvere, seguendo, a detta dei propri responsabili, i cambiamenti del mercato e delle esigenze aziendali. Tuttora l'azienda opera una costante attività di ricerca e sviluppo per realizzare nuove tecnologie volte a ridurre i costi e la complessità della sicurezza, a liberare risorse aziendali e ad aumentare la produttività. L'evoluzione delle minacce e degli attacchi, hanno portato SonicWall a modificare l'approccio alla sicurezza, variegando il portafoglio d'offerta sia dal punto di vista quantitativo sia da quello qualitativo, superando la logica, per certi versi limitativa del threat management, per estendersi al concetto più allargato di network e data protection. Non a caso, la strategia di SonicWall è oggi indirizzata a fornire soluzioni chiavi in mano in tre ambiti fondamentali: il Secure Networking (compreso l’accesso remoto sicuro), la Business Continuity/Data protection e il Secure Content Management; con il comun denominatore della gestione delle policy, elemento di partenza di ogni approccio serio alla sicurezza. Ma la ricerca di SonicWall è anche attenta all’evoluzione del mercato e delle sue esigenze, pertanto combina la network security con la garanzia delle prestazioni di rete di classe enterprise, che vengono mantenute, secondo i dati dichiarati dal costruttore, anche in situazioni di carico elevato. In particolare, in questa direzione vanno le ultime novità, per quanto riguarda la network security, annunciate dal fornitore, che ha sviluppato la linea SuperMassive, proprio per indirizzare le crescenti necessità in termini di throughput, che si spinge fino ai 40 Gbps, promettendo ulteriori imminenti passi in avanti, e scalabilità. Sul fronte della content security, invece, c'è da 1 SONICWALL registrare il rilascio, con la versione 5.8 del sistema operativo di firewalling, dell'innovativa funzionalità Application Intellingence, in grado di rendere sicuro l'utilizzo delle applicazioni per la collaboration e non solo, relative al mondo del Web 2.0. La disponibilità della versione 6.0 della propria piattaforma per la data protection completa il quadro delle novità più recenti. Peraltro, l'offerta di SonicWall già copriva esigenti molto sentite, come la mobilità sicura, per la quale la società statunitense fornisce soluzioni di connettività in larga banda, wireless e dial-up, abbinandovi supporto di VPN (Virtual Private Network) sia IPSec sia SSL. Punti di forza su cui si è impegnato il management della società sono qualità, semplicità, innovazione, scalabilità, costi contenuti. Costi intesi come acquisizione, installazione e gestione. Le aree d’intervento nella strategia di SonicWall Le appliance UTM rispondono all’esigenza di una sicurezza integrata, che combina più soluzioni di protezione e analisi accurate del traffico dal livello di rete a quello applicativo, con tecnologie all’avanguardia. SonicOS 5.8 L’approccio SonicWall si basa su più livelli: la Deep Inspection, che esplora ogni pacchetto alla ricerca delle tracce di attacchi, il Dynamic Threat Control, per una reazione immediata alle minacce più recenti, l'application control, 2 Sicurezza aziendale e continuità del business 2011 per verificare l'utilizzo delle applicazioni e prevenire le minacce che vi si possono annidare, il Distributed Enforcement, per garantire una protezione diffusa e distribuita. L’ispezione in profondità viene accompagnata da un’architettura appositamente progettata per rispondere alle esigenze di installazioni dimensionalmente significative, quindi interessate a caratteristiche di affidabilità e scalabilità. SonicWall ha dotato le proprie appliance di un sistema operativo specializzato e sviluppato appositamente per rispondere alle esigenze di continuità di servizio, flessibilità di configurazione e gestione delle reti complesse. Si tratta di SonicOS, che conferisce caratteristiche di sicurezza e networking superiori per sfruttare al meglio le potenzialità delle applicazioni SonicWall esistenti. Recentemente è stata rilasciata la nuova versione di SonicOS, che potenzia le funzionalità esistenti di controllo e acquisizione di informazioni sulle applicazioni attraverso una dashboard di visualizzazione delle applicazioni in tempo reale e strumenti di analisi. Ciò consente ai responsabili IT di visualizzare tutto il traffico applicativo e determinare il consumo di larghezza di banda delle applicazioni sulla base di informazioni real time. In questo modo si possono gestire le risorse in maniera tempestiva, controllandone l'utilizzo per favorire la produttività, bloccando o gestendo secondo policy opportune le attività inappropriate. Tutti i controlli agiscono su applicazioni specificatamente riconosciute e non si basano, come per i firewall tradizionali stateful inspection, su una porta o su protocolli generici. Application Intelligence, Control e Visualization Con la funzionalità Application Intellingence, Control and Visualization di SonicWall possono impostare policy relative al contesto, invece che semplicemente bloccare o consentire un accesso. Più precisamente, secondo quanto dichiarato a titolo d'esempio dai responsabili di SonicWall, è possibile impostare policy quali "Facebook ma non Farmville" e "Facebook utilizza solo meno del 10% delle connessioni e della larghezza di banda durante le ore di lavoro”. Si permette, così, di utilizzare questo tipo di applicazioni che, oltre a un uso tipicamente personale, possono svolgere una funzione anche di tipo aziendale. Per fare questo, la soluzione SonicWall Application Intelligence sfrutta un database in costante espansione e che si basa sulla tecnologia RFDPI (Reassembly-Free Deep Packet Inspection) di SonicWall. Quest'ultima permette di evitare il riassemblaggio dei pacchetti, consentendo di accelerare 3 SONICWALL notevolmente i processi di controllo, fornendo bassa latenza ed elevate prestazioni. Identificare, categorizzare e controllare le applicazioni sono le tre fasi dela funzionalità SonicWall Application Intelligence, Control e Visualization SonicOS 5.8 fornisce inoltre miglioramenti significativi delle funzionalità di sicurezza e protezione da malware esistenti del firewall di nuova generazione. A fronte della costante crescita del volume e della frequenza delle minacce sempre più sofisticate, i firewall di nuova generazione di SonicWall utilizzano informazioni provenienti da fonti esterne fra cui la rete GRID (Global Response Intelligent Defense), che fornisce capacità di adattamento in tempo reale alle minacce, riducendo l'esposizione al rischio. Grazie alle nuove funzionalità, SonicOS 5.8 permette di visualizzare tutto il traffico applicativo della rete, nonché come ogni singolo utente utilizza la larghezza di banda. In questo modo, consente di ottimizzare la gestione delle risorse e di mantenere elevato il livello di sicurezza. Tra le altre novità introdotte con la versione 5.8 di SonicOS sono da segnalare: Potenziamenti del sistema per il filtraggio dei contenuti. Gli amministratori hanno a disposizione policy sui contenuti più granulari, flessibili e potenti compresa la capacità di definire policy eterogenee di gestione della larghezza di banda delle applicazioni che 4 Sicurezza aziendale e continuità del business 2011 utilizzano sia la categorizzazione dei siti Web sia l’identificazione delle applicazioni NetFlow/IPFIX (Internet Protocol Flow Information Export). Protocollo di esportazione flessibile, estensibile e a flusso aperto che consente a qualsiasi soluzione di monitoraggio della rete di sfruttare le funzionalità di visualizzazione e identificazione delle applicazioni di SonicWall Aggregazione porte/Link redundancy. Combina più interfacce da un gigabit consentendo la visualizzazione e il controllo in implementazioni di molti gigabit Le appliance e le UTM per la sicurezza SonicWall SonicWall propone una gamma molto ampia di appliance per la sicurezza, molte delle quali svolgono funzioni dedicate, per esempio per la protezione dei contenuti, per la sicurezza della posta o per la gestione. A queste fanno da contraltare i sistemi avanzati per l'Unified Threat Management, che SonicWall identifica come firewall di ultima generazione e che sono dedicati in massima parte alla netowrk security nell'accezione allargata prima descritta. Nel seguito saranno analizzate le architetture delle principali linee. L'architettura SuperMassive SonicOs è ovviamente alla base della protezione di alto livello raggiungibile con le macchine della serie SuperMassive: firewall di ultima generazione, Application Intelligence, protezione dalle intrusioni sono solo alcune delle funzionalità garantite a velocità di throughput fino a 40 Gbps, senza che l'attivazione di tutti i controlli penalizzi le prestazioni della rete, stando ai dati dichiarati dallo stesso costruttore. Più precisamente, alla base delle performance dichiarate si trova tutto il meccanismo di controllo ad alta scalabilità targato SonicWall, a cominciare dalla già citata tecnologia d'ispezione profonda reassembly free (RF-DPI). A questo di aggiunge l'architettura dell'hardware, espressamente progettato per rispondere alle crescenti esigenze di sicurezza e controllo in tempo reale, in un'epoca sempre più dipendente dalla rete e dalle sue latenze. Comunicazioni Voip e video, consolidamento dei data center, virtualizzazione, applicazioni Web 2.0, rappresentano tecnologie per 5 SONICWALL migliorare la produttività della forza lavoro, la collaborazione aziendale e l’efficacia, ma è importante non compromettere prestazioni e sicurezza. SonicWall SuperMassive E10800 Il design delle macchine SuperMassive è caratterizzato da un’architettura multi-core su larga scala, basata su processori Octeon di Cavium Networks e implementata su uno chassis multi-blade di SonicWall. Grazie ai processori di nuova concezione, la piattaforma è dichiarata capace di raggiungere 1024 core, mentre test indipendenti dimostrerebbero che le prestazioni in contesti reali vanno oltre i 40 Gbps nominali L’architettura delle UTM serie E-class NSA La serie E-Class NSA (Network Security Appliance) di SonicWall è costituita da soluzioni di taglio enterprise, che a potenti tecnologie per la protezione aggiungono il supporto di elevate prestazioni, anche grazie al fatto che non viene usato il riassemblaggio dei pacchetti, garantendo affidabilità e business continuity. Punto di forza delle soluzioni NSA è l’architettura di elaborazione che, basata su un processore multicore, fornisce la potenza per filtrare accuratamente i pacchetti, ridurre al minimo la latenza sul flusso dei dati e supportare elevati volumi di traffico. Altresì interessante è l’insieme configurabile di policy del cosiddetto SonicWall Application Firewall, cui si sommano i controlli effettuati dai gateway antivirus e antispyware e dal sistema d’intrusion prevention. La serie NSA di classe E è stata concepita per una protezione a elevata velocità contro minacce interne ed esterne alla rete. La vastità dei controlli si 6 Sicurezza aziendale e continuità del business 2011 accompagna a servizi di prevenzione dinamica delle minacce. I filtri per i contenuti e gli applicativi vengono costantemente aggiornati automaticamente, aumentando il livello di sicurezza e riducendo i costi di gestione. Oltre all’update si evita anche di gestire server o workstation tramite patch dedicate. Il bilanciamento del carico per il controllo UTM s’integra con un motore di classificazione del traffico in tempo reale, che permette di ottimizzare le prestazioni ed evitare impatti significativi sui tempi di risposta e la scalabilità del sistema. Il motore di gestione unificata delle minacce, inoltre, non prevede che siano riassemblati i pacchetti per l’ispezione. Per quanto grandi siano file e contenuti, le prestazioni sono legate solo al flusso di pacchetti. Questo significa che non è necessaria una connessione proxy e, di fatto, si migliorano efficienza e affidabilità. Come accennato, le appliance NSA si distinguono anche per le caratteristiche di affidabilità, che comprendono il supporto di QoS (Quality of Service) e funzioni per assegnare priorità alle applicazioni di business. A questo si aggiungono alimentatore e ventole ridondanti, duplicazione delle connessioni WAN, load balancing del traffico e failover consistente di hardware e ISP. Tutte caratteristiche per un’elevata disponibilità. Le NSA classe E, inoltre, integrano funzioni VPN ad alte prestazioni, che le rendono idonee alla protezione di postazioni remote. Grazie all’innovativa tecnologia Clean VPN, i dispositivi di SonicWall bloccano eventuali vulnerabilità e codici maligni filtrando in tempo reale il traffico, prima che entri nella rete aziendale, senza alcuna necessità d’intervento da parte dell'utente. A livello desktop e server la serie NSA fornisce protezione mediante un client anti-virus e anti-spyware basato su analisi euristica avanzata. Le appliance virtuali SonicWall, nel corso dell'ultimo anno circa, ha sviluppato una linea di appliance virtuali, che, per esempio, indirizzano la protezione posta elettronica (SonicWall Email Security) o la gestione, come le appliance GMS (Global Management System) e ViewPoint o quelle per le SSL VPN. Tale linea di appliance virtuali combina, a detta dei responsabili di SonicWall, i vantaggi della virtualizzazione e delle appliance di sicurezza hardware. Più precisamente, i benefici di tali soluzioni consistono in: 7 SONICWALL ridurre la complessità, facilitare l’amministrazione, consolidare le risorse, rafforzare la sicurezza, ottimizzare le prestazioni e ridurre il TCO (Total Cost of Ownership); consentire risparmi diretti esponenziali alle grandi imprese distribuite attraverso l’utilizzo di economie di scala; incrementare la redditività degli MSP potenziando le efficienze; aumentare le opzioni per i modelli di business multi-tenant; semplificare la migrazione e ridurre al minimo i costi di implementazione; favorire il consolidamento delle risorse per ridurre i costi attraverso l’utilizzo di più sistemi operativi e più applicazioni. SonicWall intende proseguire su questa strada, rilasciando altre appliance virtuali, secondo un progetto volto a fornire sicurezza dinamica per la rete globale. La Continuous Data Protection di SonicWall SonicWall ha progettato una serie di soluzioni “all in one” che forniscono una protezione continua dei dati, basata su disco e operativa anche sui pc remoti. Si tratta della gamma SonicWall CDP (Continuous Data Protection), che fornisce funzioni per il salvataggio dei dati praticamente in tempo reale. La tecnologia adottata si basa sulla realizzazione di backup “puntuali”, che consentono di ripristinare il sistema in un qualsiasi momento precedente. Realizzata con un’architettura completamente nuova, SonicWALL CDP, giunta alla release 6.0, grazie al supporto di Windows, Linux e Mac OS, fornisce controlli granulari di policy implementate a livello globale su tutta l’attività di backup, supportando, inoltre, applicazioni Microsoft quali server SQL, Exchange e SharePoint, Active Directory e Small Business. L'elevata flessibilità permette agli amministratori IT di decidere quali siano le informazioni di cui effettuare il backup, quali da escludere e la modalità di mantenimento delle informazioni per soddisfare i requisiti di recovery e conformità. Nella versione 6.0, in particolare, spicca una nuova e sofisticata metodologia di backup dei fileset, combinata con la deduplicazione dei dati basata su agenti, che sposta e archivia solo blocchi unici di dati. Questo accelera il processo di backup e ottimizza l’utilizzo della larghezza di banda mantenendo, al contempo, la continuità completa delle informazioni e la capacità di ripristinare in modo flessibile molteplici revisioni. 8 Sicurezza aziendale e continuità del business 2011 SonicWall CDP opera in modalità automatica su server e pc, sia desktop che laptop. Risulta quindi molto comodo per chi è spesso fuori dell’azienda: appena si collega in modalità sicura alla propria rete, la soluzione effettua il backup. Il software installato sul pc, però, ha già preparato tutto, operando quando si accorge di non disturbare e trasmettendo solo le variazioni rispetto al precedente backup. In questo modo riduce di molto la quantità di dati da trasferire, che significa anche minimi impatti sulle di pc, server o rete. Altra funzionalità apprezzabile è quella del ripristino self service: una semplice interfaccia, in altre parole, consente a ogni utilizzatore in rete di recuperare qualsiasi versione temporale di un file. La rapidità è garantita, a detta dei tecnici SonicWall, anche nel caso si debba ripristinare un intero sistema, sia esso server o pc. Più precisamente, tale operazione può essere effettuata in pochi minuti tramite il software opzionale Bare Metal Recovery (BMR). Quest’ultimo, infatti, crea una copia immagine esatta della macchina, inclusi file di sistema, programmi, database e impostazioni del sistema operativo. Un vantaggio notevole in termini di produttività, perché si minimizzano i tempi di fermo. Il software BMR, inoltre, comprende funzionalità d’archiviazione locale, che consentono alle aziende di memorizzare “snapshot”, cioè una sorta di fotografia istantanea dei dati, per periodi prolungati, in conformità ai requisiti normativi e di settore. Inoltre, consentono di recuperare singoli file dagli archivi. conicWall CDP 6080 La gestione centralizzata e possibile da remoto permette di risparmiare sui costi di management, evita la necessità di avere personale specializzato presso sedi distaccate e consente di mantenere architetture di backup a isole separate unificando però la gestione. La tecnologia di backup “hands-free” permette di inviare dati critici selezionati a un data center remoto sicuro all’esterno dell’azienda, così da tutelarli in caso di disastri attraverso una protezione “offsite”. Questo è possibile anche grazie al servizio SonicWall CDP Offsite Data Backup Service. Inoltre, grazie al supporto per database e applicazioni di business, che non richiede l’installazione di altro software da 9 SONICWALL parte di terzi è possibile ottimizzare le operazioni di salvataggio per molte delle principali applicazioni del mercato. Tra le altre funzionalità più recenti, ricordiamo una fase di ripristino semplificata con diverse opzioni di disaster recovery. È possibile recuperare i dati completamente, anche nel caso in cui sia compromesso il sito principale ove essi risiedono. Le opzioni di recovery comprendono il servizio di backup dei dati off-site, il backup dei dati site-to-site e l’archiviazione in locale su un drive USB 2.0 locale in formato NTFS, che può essere trasportato fisicamente fuori sede. Inoltre, controllo e policy di backup granulari aiutano il dipartimento IT ad acquisire, filtrare e mantenere in modo efficiente i dati preziosi eliminando al contempo dati obsoleti e irrilevanti dal set di backup. Servizi centralizzati di controllo e policy consentono alla struttura IT di effettuare l’installazione di un agente silente, basato su Windows, su uno o più utenti remoti in una rete active directory e di preconfigurare tutti gli agenti per la connessione a qualsiasi dispositivo CDP disponibile, che trasmette nel medesimo dominio. Un agente di classe enterprise garantisce un'elevata scalabilità, permettendo di aggiungere rapidamente connessioni client e ampliare la copertura della piattaforma e delle applicazioni. CDP 6.0 è in grado di estendere il supporto delle applicazioni client e business più conosciute e protegge qualsiasi sistema informatico, da workstation singole a grandi server farm multipiattaforma, compresi i più recenti sistemi operativi Windows, Mac OS e Linux. Oltre a queste funzionalità, la nuova soluzione CDP 6.0 è stata concepita per aiutare la struttura IT a soddisfare i requisiti legali e di conformità, garantendo che i dati mission-critical di proprietà intellettuale e di conformità inclusi nei messaggi di posta elettronica, o che viaggiano nella rete, vengano automaticamente protetti da guasti irreparabili a livello di file, dispositivi e ubicazione che possono causare gravi perdite di dati. Le soluzioni e i servizi Le appliance SonicWall E-class NSA Dotati di un processore multicore e basati in primo luogo su un sofisticato firewall con deep packet inspection, i tre modelli NSA E7500, E6500 e E5500 sono caratterizzati da elevata scalabilità e idealmente indirizzati all’utilizzo in reti aziendali e universitarie, ambienti distribuiti e data center. 10 Sicurezza aziendale e continuità del business 2011 E-class NSA7500 NSA7500, grazie anche all’architettura multiprocessore che conta un totale di 16 core e alla disponibilità di 4 interfacce Ethernet 10/100/1000 in rame sulle quali viene bilanciato il traffico, realizza una deep packet inspection da 5,5 Gbps e fa registrare un throughput da 4 Gbps nella crittografia 3DES e AES. Complessivamente, un’ispezione completa di tipo UTM, quindi con tutti i controlli attivi, mantiene comunque una banda di 1 Gbps, secondo i dati del costruttore. Le appliance UTM della serie SonicWall NSA La serie SonicWall Network Security Appliance (NSA) integra una protezione UTM che combina il sistema di intrusion prevention, soluzioni antivirus e antispyware e il controllo a livello di applicazione garantito dal SonicWall Application Firewall. Grazie al routing avanzato, alla elevata disponibilità con verifica dello stato e alla tecnologia VPN ad alta velocità, la serie NSA fornisce sicurezza e affidabilità alle filiali e alle sedi centrali, risultando idonea nella realizzazione di reti distribuite per aziende di medie dimensioni. Tutti dotati di 6 porte Gigabit Ethernet, i 4 modelli disponibili, NSA 2400, 3500, 4500 e 5000, si differenziano per prestazioni e scalabilità. Per esempio, per il firewalling stateful si va da 450 Mbps a 1,8 Gbps di throughput, mentre le performance dichiarate per le VPN 3DES/AES vanno da 300 Mbps a 1,1 Gbps di throughput e da un minimo di 48mila connessioni gestite a un massimo di 600mila. Le appliance UTM della serie SonicWall Pro La serie SonicWall PRO rappresenta una piattaforma di sicurezza multiservizio per le aziende che necessitano di elevata protezione di rete e di supportare l’accesso remoto via VPN. Infatti, analizzando i dati della documentazione SonicWall, la serie in questione fornisce avanzati servizi di rete, routing, firewalling, protezione wireless, VPN IPSec, in un dispositivo facile da gestire. La serie PRO si basa sull'innovativa architettura di deep inspection SonicWall, che realizza rilevamento e protezione in tempo reale e a livello granulare contro numerosi attacchi alla rete e ai dati. Inoltre, questi 11 SONICWALL dispositivi supportano le VPN IPSec per la forza lavoro mobile e la protezione della rete wireless, estendenedo la protezione e la rete dell'azienda alle sedi remote. Le appliance UTM della serie SonicWall TZ Disponibile in più modelli e configurazioni, la TZ Series si basa sul sistema operativo SonicOS e integra deep packet inspection firewall, connettività 802.11b/g sicura (opzionale), antivirus, anti-spyware, intrusion prevention, content filtering, VPN IPSec, oltre che una disponibilità garantita da tecnologie di failover. Rivolte essenzialmente alle Pmi o alle sedi distaccate, le appliance TZ forniscono a queste strutture una protezione accurata contro tutti i tipi di minacce e codici maligni. I diversi modelli disponibili (famiglie TZ150, TZ170, TZ180 e TZ190) si distinguono essenzialmente per prestazioni e dimensionamento. SonicWall Content Security Manager Oltre ai pericoli indotti dalle nuove minacce che ogni giorno solcano Internet, l'accesso immediato alle informazioni comporta altri rischi per le imprese. In particolare, l’abuso della connessione per collegarsi possono esporre le aziende a responsabilità legali. In ogni caso minano la produttività degli impiegati. La serie SonicWall Content Security Manager (CSM) permette di filtrare i contenuti e protegge il server di accesso, integrando funzionalità gateway antivirus, antispyware e prevenzione delle intrusioni. Allo stesso tempo la soluzione aumenta la produttività, ottimizza l'utilizzo della rete e riduce i rischi di responsabilità legali, che vengono indotti dal comportamento dei dipendenti che si collegano a siti Web di contenuto discutibile, se non addirittura illegale, o utilizzano applicazioni di messaggistica istantanea (IM) e peer-to-peer (P2P). La soluzione, come spiegano i responsabili di SonicWall, viene posizionata senza problemi dietro qualsiasi firewall, consentendo alle aziende di aggiornare il sistema di protezione senza dover aggiornare il firewall. La gamma comprende i modelli SonicWall CSM 2200 e CSM 3200, che si distinguono essenzialmente per la scalabilità, essendo il primo in grado di gestire fino a 250 nodi, mentre il secondo giunge fino a 1000 nodi. 12 Sicurezza aziendale e continuità del business 2011 SonicWall Email Security Email Security protegge le aziende da ogni tipo di minaccia legata all’utilizzo della posta elettronica. La soluzione è disponibile in diverse versioni, sia software sia come appliance, anche virtuale, tutte caratterizzate da semplicità di installazione e di gestione. L’individuazione della posta indesiderata avviene filtrando i messaggi a livello di gateway SMTP sia in uscita sia in entrata, identificando, prima che entrino nella rete aziendale, i messaggi contenenti spam (con un’efficacia dichiarata del 98%), virus, spyware o phishing. La soluzione presenta funzionalità avanzate ed è stata inserita dalla casa americana nella gamma E di soluzioni di classe enteprise. Tra le caratteristiche, importante il monitoraggio in tempo reale del throughput della posta e dell’utilizzo della Cpu, che consente di mantenere sotto controllo lo stato del sistema. Alta la flessibilità delle funzionalità di controllo a disposizione dell’utente finale, anche grazie alla gestione avanzata degli elenchi personali di mittenti autorizzati e alle notifiche delle attività utente. Garantita l’affidabilità delle appliance, con Safemode, che fornisce la ridondanza per il ripristino del firmware, il monitoraggio e la riparazione RAID, una command line interface per un accesso tramite script, supporto SMTP e NTP e un’ulteriore serie di comandi opzionali, oltre al supporto per il monitoraggio del sistema basato su SNMP. La gamma di appliance di Email Security è piuttosto vasta, a coprire diverse tipologie di utenze. SonicWall Aventail SSL-VPN Cresce il bisogno di accesso remoto, ma le VPN basate su client possono risultare complesse da usare e gestire. Le soluzioni SSL VPN di classe E di SonicWall Aventail funzionano su diverse piattaforme, dal pc domestico ai chioschi Internet fino a PDA e dispositivi non gestiti, su reti sia wireless sia cablate. A tali sistemi forniscono un accesso trasparente alle risorse di rete attraverso un singolo gateway che garantisce le stesse caratteristiche di accesso a tutti gli ambienti operativi. La funzione SonicWall Aventail Smart Tunneling garantisce un accesso rapido a tutte le applicazioni (client/server, basate sul Web, su server o su host), attraverso un’architettura che combina il controllo SSL a livello di applicazione con la portata di un tunnel di livello 3. Questo anche per 13 SONICWALL applicazioni VOIP o altre bidirezionali “backconnect” tipo help desk remoto. La gestione unificata delle policy con SonicWall Aventail Unified Policy permette di semplificare l’amministrazione di utenti, gruppi, risorse e apparecchi attraverso funzioni di controllo granulare. Inoltre, gli accessi non autorizzati possono essere messi in quarantena, in attesa di una remediation. La soluzione è disponibile come appliance in più modelli. Soluzioni specifiche sono poi SonicWall Aventail SRA (Secure Remote Access) e SonicWall Aventail End Point Control (EPC). SonicWall SSL-VPN La suite di soluzioni VPN di SonicWall garantisce un accesso sicuro e affidabile alle risorse aziendali tramite connessioni a banda larga, wireless e dial-up da postazioni remote. La funzionalità VPN IPSec, integrata in tutte le appliance di sicurezza delle serie TZ e PRO, utilizza tecnologie di crittografia e autenticazione per instaurare connessioni site-to-site mediante un tunnel privato sicuro attraverso una rete IP. In alternativa, le aziende possono integrare una soluzione SonicWall SSL-VPN con il firewall esistente, per fornire ai lavoratori mobili un accesso remoto sicuro, utilizzabile con un normale browser e senza dover manutenere software client sulle macchine utente. Soluzioni per endpoint SonicWall fornisce due soluzioni per la protezione dei dispositivi endpoint. Più precisamente, una soluzione anti-virus e anti-spyware dall'aggiornamento continuo per una protezione automatica. Grazie all'integrazione con le applicazioni SonicWall di sicurezza di rete, SonicWall Enforced Client garantisce l'installazione e l’attivazione delle versioni più aggiornate del software anti-virus e anti-spyware in tutti gli endpoint. SonicWall Client/Server Anti-Virus Suite aggiunge una protezione supplementare per server di file, di stampa e di scambio basati su Windows. SonicWall Anti-Spam Desktop fornisce una protezione anti-spam e antiphishing basata su client per client di posta elettronica Outlook, Outlook Express o Windows Mail su computer desktop o notebook basati su Windows. 14 Sicurezza aziendale e continuità del business 2011 Le soluzioni di gestione e reporting di sicurezza Global Management System (GMS) è uno strumento flessibile, che permette ad aziende distribuite sul territorio e service provider di gestire l’ambiente di rete protetto dalle appliance (anche virtuali) SonicWall centralmente da una postazione anche remota. Il sistema gestisce e raccoglie informazioni dettagliate da varie applicazioni di sicurezza e permette una semplice configurazione e applicazione delle policy di sicurezza globale e VPN. A questo si aggiunge SonicWall ViewPoint, un tool di reporting grafico basato sul Web, e la Universal Management Appliance EM5000 che centralizza la sicurezza dei dispositivi SonicWall. Servizi di supporto dinamico SonicWall I servizi di supporto dinamico prevedono l’aggiornamento continuo delle soluzioni SonicWall e quindi dell’infrastruttura per la sicurezza dell’azienda, la quale viene messa in condizioni di reagire prontamente a qualsiasi problema. Il supporto va oltre la semplice riparazione o sostituzione dei dispositivi guasti, come spiegano i responsabili della società, poiché includono aggiornamenti e upgrade specifici per firmware e software, completi di nuove funzionalità. Per agevolare la ricerca e l’installazione degli aggiornamenti, i nostri servizi sono accessibili in qualsiasi momento, vengono supportati da tool elettronici avanzati e forniscono ampie informazioni. La società Fondata nel 1991, SonicWall progetta, sviluppa e produce soluzioni per la sicurezza di rete, l’accesso remoto sicuro, la gestione sicura dei contenuti e la protezione continua dei dati. Per ulteriori informazioni www.sonicwall.com 15 Sicurezza aziendale e continuità del business 2011 TREND MICRO Le architetture e le strategie La strategia di protezione proposta da Trend Micro punta a fornire alle aziende la possibilità di poter gestire le minacce “in the cloud” prima che queste raggiungano la rete e compromettano l’infrastruttura IT o la sicurezza delle informazioni. A tal fine il vendor propone una gamma di soluzioni per la protezione aziendale e personale inserite all’interno di una strategia integrata e pensate per semplificare le operazioni di sicurezza garantendo, nel contempo, la massima flessibilità e un costante aggiornamento delle tecnologie. La sicurezza diventa servizio La visione strategica di Trend Micro parte dal presupposto che la sicurezza aziendale vada affrontata secondo un’ottica di servizio personalizzato e inquadrato in una logica di processo, in accordo con le strategie e gli specifici obiettivi di business di ogni azienda. Il vendor dispone di una gamma molto amplia di soluzioni per la protezione dalle minacce e la data Loss Prevention, adatte per ogni tipologia di azienda e in grado di supportare i nuovi ambienti virtualizzati e cloud-based. Il vendor affianca le proprie soluzioni software con una gamma di servizi SaaS (Software as a Service), noti anche come servizi “in-the-cloud”, mediante i quali le aziende, invece di acquistare software e installarlo, possono usufruire della flessibilità di affittarlo su base mensile o annuale. Il SaaS fornisce, secondo Trend Micro, una risposta di protezione efficace alla crescente esigenza di sicurezza, che permette di delegare a un fornitore esterno esperto e competente, la manutenzione e il monitoraggio. Il fatto che il servizio (in tutto o in parte) venga gestito dal provider, elimina 1 TREND MICRO completamente i costi infrastrutturali e di hardware per l’utente e gli consente di disporre di funzionalità di sicurezza costantemente aggiornate. In questo modo la competenza del personale Trend Micro e i Service Level Agreement offerti diventano gli elementi a garanzia di elevata protezione e massime prestazioni. L’infrastruttura Smart Protection Network Alla base di un approccio verso la sicurezza come servizio Trend Micro pone la Smart Protection Network, un’infrastruttura di protezione dei contenuti progettata per tutelare gli utenti dalle minacce a fronte di un impatto ridotto su reti e sistemi. Abbinando tecnologie “in-the-cloud” a client leggeri, diventa possibile accedere alle più recenti misure di protezione ovunque e in qualsiasi modo ci si connetta: da casa, dalla rete aziendale o anche in viaggio. Trend Micro Smart Protection Network sfrutta un approccio di difesa intelligente, basato sulla reputazione di messaggi e-mail, Web, file e sulle conoscenze collettive dell’ampio e globale bacino dei clienti. La rete globale TrendLabs di centri di ricerca, assistenza e supporto predisposta da Trend Micro è impegnata nel costante monitoraggio delle minacce e nella prevenzione degli attacchi e fornisce misure di protezione in tempo reale progettate per individuare, prevenire ed eliminare gli attacchi. L’infrastruttura di sicurezza Trend Micro Smart Protection Network 2 Sicurezza aziendale e continuità del business 2011 Trend Micro Smart Protection Network gestisce più di cinque miliardi di URL, e-mail e query di file ogni giorno. Per poter definire il livello di reputazione di questo volume di informazioni e rispondere in tempo reale alle minacce, Trend Micro dispone di un’infrastruttura imponente, che prevede 5 data center completamente ridondati con oltre mille server da dove più di mille esperti di sicurezza specializzati elaborano oltre 1,2 Terabyte di dati ogni giorno dedicandosi unicamente all’analisi in tempo reale delle possibili minacce. I principali componenti della sicurezza SaaS di Trend Micro Smart Protection Network, che alimentano le soluzioni di protezione dei contenuti in sede e in hosting sono i seguenti. Reputazione Web Con uno dei più estesi database di reputazione dei domini al mondo, la tecnologia di reputazione Web di Trend Micro rileva la credibilità dei domini Web tramite l'assegnazione di un punteggio basato su fattori quali l'età del sito Web, le modifiche cronologiche all'ubicazione del sito e le indicazioni di attività sospette scoperte tramite l'analisi del comportamento delle minacce informatiche. Reputazione e-mail Trend Micro convalida gli indirizzi IP verificandoli a fronte di un database della reputazione di fonti di spam note e utilizzando un servizio dinamico capace di valutare la reputazione del mittente in tempo reale. Le classificazioni della reputazione vengono perfezionate tramite un'analisi continua del "comportamento" degli indirizzi IP, della portata dell'attività e della cronologia precedente. I messaggi e-mail dannosi vengono bloccati inthe-cloud in base all'indirizzo IP del mittente, impedendo così alle minacce di raggiungere la rete dell'utente. Reputazione dei file La tecnologia Trend Micro verifica la reputazione di ciascun file ospitato su un sito Web o allegato a un messaggio e-mail a fronte di un ampio database, prima di consentire l'accesso all'utente. Le reti di trasmissione dei contenuti a elevate prestazioni e i server di cache locale minimizzano la latenza. Le informazioni sulle minacce informatiche sono memorizzate in-the-cloud e quindi possono essere rese immediatamente disponibili a tutti gli utenti nella rete. 3 TREND MICRO Correlazione con l'analisi del comportamento La tecnologia di correlazione con l'analisi del comportamento mette in relazione tra loro diversi gruppi di attività per determinare se queste siano o meno dannose. Infatti, un'attività singola prodotta da una minaccia Web potrebbe apparire innocua, ma quando più attività vengono rilevate insieme, è più facile identificare la presenza di una minaccia reale. Aggiornando continuamente il proprio database delle minacce in base a questo tipo di analisi, Trend Micro abilita una reazione automatica che interviene in tempo reale per proteggere dalle minacce e-mail e Web. Cicli di feedback I cicli integrati di feedback forniscono una comunicazione continua tra i prodotti Trend Micro, le tecnologie e i centri di ricerca delle minacce attivi 24 ore su 24 e 7 giorni su 7. Ogni nuova minaccia identificata tramite una verifica di routine della reputazione di un singolo cliente aggiorna automaticamente tutti i database delle minacce di Trend Micro e blocca ogni successiva interazione del cliente e di tutti i clienti Trend Micro con una specifica minaccia. Poiché le informazioni raccolte sulle minacce sono basate sulla reputazione dell'origine della comunicazione e non sul contenuto della specifica comunicazione, la riservatezza delle informazioni personali o aziendali resta tutelata. Correlare gli eventi di sicurezza Stabilire il livello di reputazione prevede l’interazione tra due attività. La prima è la raccolta degli eventi di sicurezza che avviene in tempo reale a livello globale; la seconda è la correlazione di questi eventi, che costituisce uno degli elementi in cui Trend Micro rivendica la propria eccellenza tecnologica e che consente di intervenire in modo accurato e selettivo, garantendo un elevato livello di protezione senza penalizzare in modo inutile l’utente. Nel caso, per esempio, di situazioni in cui gli hacker riescono a compromettere specifiche pagine Web o aree di un sito perfettamente legittimo (situazione che attualmente si stima coinvolga oltre 14 milioni di siti Web completamente legittimi), grazie all’analisi correlata delle informazioni e delle segnalazioni provenienti da tutto il mondo, le soluzioni di Trend Micro sono in grado di intervenire immediatamente e segnalare all’utente il pericolo in corso, impedendo l’accesso alle pagine compromesse senza, tuttavia, inibire l’accesso all’interno dominio. Non appena il 4 Sicurezza aziendale e continuità del business 2011 proprietario del dominio riporta la situazione alla normalità, l’accessibilità alle pagine viene abilitata nuovamente in modo automatico. Un meccanismo analogo permette di bloccare o segnalare l’inaffidabilità di uno specifico mittente di un messaggio di posta elettronica. Parallelamente la soluzione Trend Micro è in grado di abilitare l’accesso innocuo al testo di un’e-mail proveniente da un mittente attendibile che contiene un allegato compromesso, bloccando unicamente l’accesso al file pericoloso. Il meccanismo virtuoso predisposto dal vendor realizza un ciclo di feedback alimentato dagli stessi utenti, in cui le informazioni fornite dagli oltre 20 milioni di utenti dei prodotti Trend Micro interagiscono in tempo reale con la Smart Protection Network migliorandola e potenziandola. Non appena si verifica un evento dannoso questo viene immediatamente segnalato a Trend Micro che estende in tempo reale la protezione a tutti gli altri utenti connessi alla rete di protezione, realizzando una transizione da un modello di protezione di tipo reattivo basato sul riconoscimento di “pattern” a uno di tipo proattivo. Data protection ad ampio spettro e in ogni ambiente La protezione dei dati è un argomento di crescente interesse per le imprese che cercano di districarsi fra complessità, costi ed esigenze di gestione. Per rispondere alle sfide della Data Protection Trend Micro ha predisposto un ampio portafoglio di prodotti che punta a garantire la totale sicurezza dei dati ovunque questi risiedano, dagli endpoint fino al cloud, mettendoli al riparo da incidenti casuali o volontari tramite soluzioni semplici ed economicamente convenienti. La gamma di soluzioni software per la protezione dei dati comprende Trend Micro Data Loss Prevention, Cloud Encryption, Port and Device Control, Messaging Security, Endpoint Security, Web Site Security, File Integrity Monitoring, Worry-Free Business Security e Data Backup. Si tratta di soluzioni che vengono vendute sia singolarmente sia come add-on ai tradizionali prodotti anti-malware di Trend Micro. Le soluzioni software di Trend Micro sono in grado anche di rispondere alle nuove esigenze di sicurezza che caratterizzano il progressivo percorso verso la virtualizzazione, che solitamente inizia con il consolidamento server, prosegue con la virtualizzazione estesa per server e desktop, per approdare infine al cloud (partendo dal private cloud per evolvere verso modelli ibridi e, successivamente, pubblici). 5 TREND MICRO La visione che guida la strategia di Trend Micro è che sia giunta a completamento la prima fase del percorso che prevede la messa in sicurezza dei workload dei server virtualizzati grazie a tecniche tradizionali per la protezione di rete e che l’immediato futuro sarà caratterizzato da un lavoro di ottimizzazione delle performance della sicurezza virtuale in uno sforzo teso a virtualizzare le applicazioni a più alto traffico. Sulla base di questo presupposto Trend Micro ha sviluppato una serie di tecnologie di sicurezza capaci di integrarsi con gli hypervisor delle macchine virtuali. I servizi di sicurezza hosted Trend Micro offre una gamma di servizi di sicurezza in modalità di servizio per aziende di piccole, medie e grandi dimensioni, oltre che per i propri partner, sia di canale sia fornitori di tecnologia e servizi. Le soluzioni di sicurezza SaaS di Trend Micro sfruttano la Smart Protection Network per proteggere immediatamente e automaticamente le informazioni contro le minacce più recenti, prima che queste raggiungano gli utenti e a prescindere dal luogo di connessione. La portata dei servizi SaaS offerti da Trend Micro è molto ampia e interessa dai componenti di supporto per applicazioni gateway, server o desktop alle offerte di servizi in hosting completo. Inoltre, i servizi in hosting consentono un’implementazione semplificata con messa a disposizione rapida di nuove funzioni e caratteristiche. I servizi SaaS sono gestiti dagli esperti della sicurezza Trend Micro che controllano tutte le operazioni e gli aggiornamenti di sistema e di manutenzione. Le soluzioni e i servizi Trend Micro Enterprise Security Trend Micro Enterprise Security è un’offerta altamente integrata di prodotti, servizi e soluzioni per la sicurezza dei contenuti, sviluppata per far fronte alle esigenze delle grandi aziende. 6 Sicurezza aziendale e continuità del business 2011 Per riuscire a fornire il miglior livello di difesa e una protezione proattiva, Trend Micro ritiene che si debbano affrontare due sfide critiche legate alle tempistiche. La prima sfida critica è di minimizzare il tempo necessario per proteggere l’azienda da minacce nuove e sconosciute, accelerando il periodo necessario per identificare le minacce, sviluppare una protezione e per renderla operativa. La seconda sfida riguarda la necessità di ridurre il tempo per gestire la sicurezza adottando una soluzione che sia in grado di minimizzare la complessità oltre che di fornire una protezione efficace. Trend Micro si propone di far fronte a entrambi questi requisiti per la sicurezza dei contenuti coniugando una protezione immediata capace di “chiudere” le finestra delle vulnerabilità con una sicurezza integrata che riduce la complessità e minimizza il tempo necessario per acquisire, rilasciare e gestire la sicurezza dei contenuti. Il binomio tra l’infrastruttura Smart Protection Network e le soluzioni Trend Micro Enterprise Security realizza una difesa unificata che si estende attraverso il Web, il messaging e gli endpoint. L’offerta Trend Micro Enterprise Security è organizzata in una gamma di servizi e in una serie di suite software per la protezione dell’azienda in grado di sfruttare in pieno i vantaggi offerti dalla Smart Protection Network. Enterprise Security Suite È una soluzione integrata di protezione centralizzata per gateway Internet, server di posta e file, desktop, portatili e dispositivi mobili. La sicurezza multilivello protegge contro virus, spyware, spam e minacce miste, compresi gli attacchi Web. Enterprise Security Suite risponde alle esigenze aziendali grazie a opzioni di configurazione flessibili, scalabilità e un largo supporto per piattaforme. Enterprise Security Suite sfrutta la tecnologia Smart Protection Network per esercitare una protezione dalle minacce basata sulla conoscenze distribuita in-the-cloud. Enterprise Security for Communication and Collaboration Questa suite offre protezione istantanea per e-mail, messaggi IM e sistemi di collaborazione Microsoft. Anche in questo caso le tecnologia Smart Protection Network definisce la reputazione delle e-mail, bloccando le minacce miste senza aggiornamenti delle definizioni, mentre la verifica della reputazione Web blocca i messaggi IM con collegamenti a siti dannosi prima 7 TREND MICRO che siano recapitati. Questi meccanismi di protezioni istantanea, uniti alla sicurezza convenzionale dei contenuti, impediscono il furto di dati, il propagarsi di infezioni e la violazione della conformità. Enterprise Security for Endpoints and Mail Servers È la soluzione integrata di protezione centralizzata e multilivello per server di posta e file, desktop, portatili e dispositivi mobili. Questa suite prevede il supporto di funzioni di sicurezza per ambienti virtualizzati e sfrutta la tecnologia di protezione dalle minacce Trend Micro Smart Protection Network. Enterprise Security for Endpoints È una soluzione unificata per la protezione di desktop, laptop, file server e smartphone dalle minacce provenienti sia dall'interno sia dall'esterno della rete aziendale, combinando protezione anti-malware e in-the-cloud. Il meccanismo di file reputation di OfficeScan sposta nel cloud il problema della gestione dei file di aggiornamento della sicurezza liberando i dispositivi terminali da questo compito di gestione. La Web reputation protegge gli endpoint bloccando l'accesso a siti dannosi. Grazie a un’architettura flessibile che prevede l’apporto di plug-in, al supporto opzionale dell’infrastruttura virtual desktop e a un sistema di Intrusion Prevention multilivello questa soluzione migliora il livello di sicurezza e flessibilità, riducendo i costi di gestione. Trend Micro Enterprise Security 8 Sicurezza aziendale e continuità del business 2011 Trend Micro Deep Security Trend Micro Deep Security è a soluzione software adatta a proteggere i sistemi virtualizzati. Include un ventaglio di differenti tecnologie di sicurezza specializzate come IDS/IPS, protezione delle applicazioni Web, firewall, monitoraggio dell'integrità e moduli di log inspection e si avvale di funzioni anti-malware di tipo agentless. Deep Security si integra perfettamente con VMware e le sue API vShield Endpoint e VMsafe, dando a Trend Micro la capacità di proporre una soluzione anti-intrusione e anti-malware completa per le Virtual Machine (VM) secondo un approccio che non richiede di dover installare un agent esterno su ogni macchina virtuale. Questo accorgimento si traduce in un minore consumo di risorse di sistema VMware vSphere e maggiori densità di VM. Con il recente rilascio di Trend Micro Deep Security 7.5 Update 1, sono stati introdotti diversi miglioramenti prestazionali grazie ai quali l'appliance virtuale Deep Security può garantire le funzioni agentless di prevenzione e rilevamento delle intrusioni mediante le API VMware VMsafe, in modo da ottenere superiori livelli di densità delle macchine virtuali. A oggi Trend Micro si conferma il primo vendor di soluzioni per la sicurezza in grado di proporre questo tipo di funzionalità anti-virus agentless progettate per la piattaforma VMware. Le soluzioni per la Data Loss Prevention Il portafoglio prodotti di Trend Micro per la Data Loss Protection fornisce un framework coerente per impostare policy di sicurezza livello di endpoint, server e gateway; inoltre mette a disposizione una serie di funzionalità dedicate all’automazione e al workflow che riducono il lavoro amministrativo. L’approccio di Trend Micro per la protezione dei dati si avvale, per molti dei propri prodotti, di specifici moduli di add-on che espandono in modo semplice e flessibile le funzionalità di protezione. A ciò si aggiungono template di uso immediato, policy pre-definite, integrazione con Active Directory e gestione delle chiavi basata su policy. La disponibilità di appliance virtuali permette anche di sfruttare l'infrastruttura già esistente senza dover acquistare nuovi dispositivi hardware. Un componente importante a supporto della DLP di Trend Micro è rappresentato dalla tecnologia brevettata DataDNA, che fornisce un elevato 9 TREND MICRO livello di precisione nella rilevazione di dati sensibili. Alla base di questa tecnologia vi sono sofisticati algoritmi che estraggono il "DNA" di dati sensibili come file, documenti, e-mail e altri contenuti e li memorizzano come firme. In modo analogo a quanto avviene per le impronte digitali, questo meccanismo crea una sequenza unica che definisce il DNA delle informazioni contenute nel documento; Di seguito sono descritti brevemente i componenti chiave della famiglia di prodotti Trend Micro per la DLP. Trend Micro DLP Management Server Disponibile come appliance hardware o virtuale, il server DLP fornisce un punto centrale per la visibilità, la configurazione delle policy e l'estrazione di caratteristiche distintive (“fingerprint”) dalle sorgenti di contenuto. Attraverso un’interfaccia Web-based è possibile gestire il flusso di lavoro amministrativo per l'individuazione, la classificazione e l'impostazione delle policy, il monitoraggio e il reporting. Trend Micro DLP Network Monitor Trend Micro DLP Network Monitor è la soluzione che ispeziona la rete in modalità 24x7, segnalando eventuali falle in concomitanza dei punti di ingresso al network e rilevando il malware specializzato nella sottrazione di informazioni. Grazie alla tecnologia Smart Protection Network, questa soluzione favorisce il rispetto della conformità normativa, permette di individuare i rischi per i processi di business e migliora le policy aziendali di utilizzo dei dati. Le funzioni sono gestite centralmente tramite la console DLP Management Trend Micro DLP Endpoint Trend Micro DLP for Endpoint favorisce il rispetto della conformità e educa gli utenti aziendali al rispetto delle policy d sicurezza grazie a una capacità di rilevamento del malware e delle minacce basata sull'infrastruttura Trend Micro Smart Protection Network. DLP for Endpoint rileva e impedisce le fuoriuscite non autorizzate di dati presso gli endpoint. Il client comunica con il DLP Management Server per ricevere gli aggiornamenti delle policy e le “impronte digitali”dei documenti e riferisce eventuali violazioni che avvengono presso il server. 10 Sicurezza aziendale e continuità del business 2011 Un driver installato sul terminale cliente permette di monitorare il traffico di rete, l’I/O e l’attività applicativa svolti presso gli endpoint mentre il software DLP for Endpoint blocca i dispositivi fisici e virtuali non conformi, impedendo la copia non autorizzata o lo spostamento di dati sensibili. Le operazioni di filtro avvengono tramite una serie di “engine” che sfruttano la tecnologia DataDNA, verificando la corrispondenza a livello di “fingerprint” dei documenti, di parole chiave e di metadati. Le soluzioni per la Data Loss Prevention di Trend Micro Trend Micro SecureCloud Trend Micro fornisce sicurezza “dal cloud” con l'infrastruttura Trend Micro Smart Protection Network e sicurezza “per il cloud” con server e tecnologie crittografiche. La società mette a disposizione anche una protezione multilivello per i dati che risiedono all'interno dei cloud pubblici o privati tramite SecureCloud, una soluzione che protegge i dati di livello enterprise all'interno degli ambienti cloud mediante l'uso di crittografia e di tecniche di key management basate su policy. Questa tecnologia permette di tutelare i dati del cloud e di favorire la flessibilità necessaria per rivolgersi a cloud provider differenti, senza essere vincolati al sistema crittografico di un unico vendor. SecureCloud consente di esercitare il controllo sulle modalità e sui punti di accesso alle informazioni per mezzo di funzioni che permettono di 11 TREND MICRO autenticare l'identità e l'integrità dei server che richiedono di accedere a volumi storage sicuri. Questa soluzione abilita il rilascio automatico delle chiavi di cifratura. Gli utenti possono gestire le loro chiavi crittografiche per ambienti Amazon EC2, Eucalyptus e VMware vCloud direttamente tramite il servizio hosted Trend Micro SecureCloud o da un key server SecureCloud installato all’interno dei loro data center fisici. Trend Micro SecureCloud è disponibile mediante abbonamento mensile o annuale, oppure tramite licenze software tradizionali. Soluzioni per le PMI Trend Micro Worry-Free Business Security Trend Micro ha sviluppato le soluzioni Worry-Free Business Security per consentire alle PMI di proteggere i propri asset, le informazioni dei propri client e la loro reputazione dal furto di identità, dai criminali informatici e da altre minacce veicolate dal Web prevenendo la perdita accidentale o consapevole dei dati tramite e-mail, drive USB e altri dispositivi connessi. Disponibili in versione Advanced e Standard questa soluzione si caratterizza per la semplicità gestionale e di utilizzo. La versione Advanced protegge i server Microsoft Exchange, Essential, Small Business ed Essential Business, nonché i server, i pc e i laptop Microsoft Windows. Blocca lo spam prima che raggiunga la rete grazie all’inclusione del servizio di protezione e-mail in hosting InterScan Messaging Hosted Security Standard. La versione Standard protegge i server, i pc e i laptop Microsoft Windows ma non comprende il servizio di protezione e-mail in hosting. Sicurezza della messaggistica InterScan Messaging Security Suite Questa suite mette a disposizione una serie completa di funzioni per la protezione da spam, phishing, malware e virus, oltre al filtraggio flessibile dei contenuti basato su policy e strumenti di semplice utilizzo che permettono il monitoraggio e il controllo del traffico SMTP e POP3 a livello di gateway dei messaggi. 12 Sicurezza aziendale e continuità del business 2011 Integrata con Trend Micro Email Encryption Gateway, la suite protegge dalla perdita di proprietà intellettuale e di informazioni confidenziali; inoltre minimizza la congestione del traffico sul server contribuendo alla maggiore produttività dei dipendenti. InterScan Messaging Security fa leva su Trend Micro Control Manager, uno strumento di gestione indipendente dalla piattaforma in grado di fornire aggiornamenti centralizzati, reporting consolidati e funzioni di configurazione da remoto. Questa tecnologia di protezione è disponibile anche in modalità Software as a Service. InterScan Messaging Security Virtual Appliance È una soluzione ibrida SaaS per la sicurezza dell’e-mail che integra una protezione proattiva in the cloud con il livello di privacy e controllo fornito da un’appliance virtuale collocata on premise. La sicurezza in-the-cloud riduce il volume di e-mail in ingresso fino al 90% (secondo quanto sostenuto da Trend Micro) bloccando lo spam e il malware all’esterno della rete aziendale. La sicurezza SaaS è integrata con l’appliance virtuale “VMware Ready” collocata presso il gateway, che consente un controllo flessibile sulle informazioni sensibili. Le funzioni di quarantena avvengono in locale garantendo che le e-mail restino private e nessun messaggio di posta elettronica venga memorizzato all’interno del cloud. La soluzione di sicurezza delle e-mail ibrida Interscan Messaging Virtual Appliance 13 TREND MICRO Sicurezza Web InterScan Web Security Suite Questa soluzione protegge dinamicamente dagli attacchi Web al gateway Internet con una protezione a più livelli contro minacce diverse. InterScan Web Security Suite utilizza informazioni di sicurezza sia locali sia in-the-cloud per proteggere il traffico HTTP e FTP. Una serie di funzioni di sicurezza multilivello che include antivirus, antispyware e Web reputation impediscono l'accesso a pagine o collegamenti pericolosi, bloccano i download di spyware e ne rilevano l'attività sui client, attivando una disinfezione senza dover ricorrere ad agent. Oltre al filtro URL, la versione Advanced garantisce un controllo flessibile e basato su criteri degli applet Java e dei controlli ActiveX. InterScan Web Security Virtual Appliance È una soluzione per la sicurezza Web a livello del gateway, a gestione centralizzata, che unisce scansione delle minacce informatiche, tecnologia di reputazione Web in tempo reale e funzioni di filtro URL. Rafforzando la protezione del gateway Web è possibile ridurre drasticamente il rischio, ridurre il carico sulla sicurezza degli endpoint e diminuire TCO. Trattandosi di un dispositivo software virtuale, InterScan Web Security Virtual Appliance è altamente scalabile e si adatta bene a seguire l’evoluzione IT verso esigenze future. L’implementazione con Trend Micro Advanced Reporting and Management assicura la visualizzazione istantanea dell’attività Internet e consente il ripristino on-the-spot. La società Fondata nel 1988, con sede centrale a Tokio e sedi operative in oltre 50 Paesi, Trend Micro fornisce a privati e aziende di ogni dimensione soluzioni di sicurezza intelligenti in grado di fornire protezione contro un’ampia gamma di minacce esterne e interne, quali attacchi informatici, spam, fuoriuscita dei dati nonché le più recenti minacce veicolate dal Web che compromettono la continuità operativa, le informazioni personali e la reputazione individuale o aziendale. 14 Sicurezza aziendale e continuità del business 2011 Trend Micro è un leader globale nella sicurezza dei contenuti Internet e nella gestione delle minacce. Società pioniere nell’ambito delle soluzioni antivirus, vanta un esperienza ventennale nella creazione di soluzioni per rendere più sicuro lo scambio di informazioni digitali sia per le aziende che per gli utenti privati. Trend Micro promuove lo sviluppo di una tecnologia per la gestione integrata delle minacce in grado di assicurare la continuità operativa e proteggere le informazioni personali e il patrimonio di risorse da malware, spam, fughe di dati e dalle più recenti minacce Web. Le soluzioni flessibili di Trend Micro, disponibili in diversi formati, sono supportate 24 ore su 24 e 7 giorni su 7 da ricercatori esperti nell’analisi delle minacce attivi in tutte le aree geografiche. La gran parte di queste soluzioni sono potenziate da Trend Micro Smart Protection Network, un’infrastruttura cloud-client di nuova generazione sviluppata per proteggere i clienti dalle minacce Web bloccando le minacce in-the-cloud, prima che queste raggiungano la rete o altri punti terminali. Trend Micro mantiene data center in cinque località nel mondo che elaborano oltre 1,2 Terabyte di dati ogni giorno e blocca quotidianamente da 8 a 10 milioni di infezioni. Trend Micro commercializza le proprie soluzioni di sicurezza attraverso una rete di business partner presenti in tutto il mondo. Per approfondimenti sulle minacce è possibile visitare l’osservatorio TrendWatch all’indirizzo www.trendmicro.com/go/trendwatch Per ulteriori informazioni e per ottenere copie di prova di tutti i prodotti e servizi Trend Micro, visitare il sito Web: it.trendmicro-europe.com 15 La sicurezza e la continuità del business La sicurezza e la continuità del business Copyright Reportec – 2010 279