networking
Transcript
networking
7 Direction Reportec - Volume II n.7 giugno-luglio 2004 bimestrale • Spedizione in A.P. - 45% - art. 2 comma 20/B legge 662/96 - Milano DOSSIER DI SOLUZIONI SERVIZI E TECNOLOGIE ICT NetworkiNg • In allegato l’edizione 2004 del report sul Business Networking • Ethernet si diffonde nell’accesso • Ripensare la rete in un’ottica orientata al servizio • Il wireless 802.11 dalla a alla n Server e Storage • Un futuro iSCSI per le SAN e lo storage aziendale • Recuperare competitività attraverso l’innovazione. I temi del IV Forum ICT • Sempre più diffuse le soluzioni per l’ILM Security • Il complesso equilibrio tra sicurezza e privacy • La sicurezza dei telefoni smart in cerca di standard commuNicatioN • Luci e ombre delle Tlc italiane • I trend del mercato della fonia • Sempre più utili in azienda gli strumenti di messaging Indice 2 컄 IT al servizio dell’azienda o azienda al servizio dell’IT? . . . .3 왘 Il Report: Business Networking 2004 . . . . . . . . . . . . . . . . . . . . .4 왘 Il Gigabit targato 3Com alla portata di tutti i desktop . . . . . .8 왘 Una “casa della comunicazione” da Alcatel . . . . . . . . . . . . . .10 왘 Ripensare la rete in un’ottica orientata al servizio . . . . . . . .12 왘 La rete sicura di Enterasys per l’Università Bicocca . . . . . . .14 왘 Ethernet si diffonde nell’accesso . . . . . . . . . . . . . . . . . . . . . . .16 왘 La dedizione enterprise di Hp Procurve Networking . . . . .18 왘 Il wireless 802.11 dalla a alla n . . . . . . . . . . . . . . . . . . . . . . . . .20 왘 Un router carrier class per Cisco Systems US Robotics per il wireless a 125 Mbps . . . . . . . . . . . . . . . . .21 왘 Un futuro iSCSI per le SAN e lo storage aziendale . . . . . . . .22 왘 Lo storage è più semplice con Acer Storage Centre Software . . . . . . . . . . . . . . . . . . . . . . . . . .24 왘 Apple abbassa il costo dello storage multipiattaforma . . . . .26 왘 Whirlpool Europe gestisce lo storage con BrighStor Srm di CA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .28 왘 Da DELL lo storage per le PMI e le realtà dipartimentali . .30 왘 EMC: una strategia centrata sull’ILM e sull’open software .32 왘 Recuperare competitività attraverso l’innovazione . . . . . . . .34 왘 Il wireless approda in corsia . . . . . . . . . . . . . . . . . . . . . . . . . . .36 왘 Da HP nuove soluzioni SAN per le PMI e per l’ILM . . . . . .38 왘 Ibm apre al mercato il Power5 e unifica la sua architettura 40 왘 L’utility computing per VERITAS si fa col software . . . . . . .42 왘 Sun e Fujitsu insieme per i server Unix Nuove soluzioni per le SAN di Brocade . . . . . . . . . . . . . . . . .44 컄 Dalla contrapposizione alla partnership competitiva . . . . . .45 왘 Protezione completa con la Web Intelligence di Check Point . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .46 왘 Il complesso equilibrio tra sicurezza e privacy . . . . . . . . . . .48 왘 ISS garantisce la protezione altrimenti paga i danni . . . . . . .50 왘 Rsa punta sull’autenticazione forte per l’accesso mobile . . .52 왘 La sicurezza dei telefoni smart in cerca di standard . . . . . . .54 왘 Symantec si rafforza nella lotta allo spam La roadmap di Novell per l’Identity Service punta sulla semplicità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .55 왘 Luci e ombre delle Tlc italiane . . . . . . . . . . . . . . . . . . . . . . . . .56 왘 Con SIP e l’instant messaging Avaya migliora il lavoro . . . .58 왘 I trend del mercato della fonia . . . . . . . . . . . . . . . . . . . . . . . . .60 왘 La “collaboration” di Microsoft rinnova l’information work . . . . . . . . . . . . . . . . . . . . . . . . . . . .62 왘 Da Nortel Networks una soluzione per la comunicazione multimediale Sempre più aperti i contact center di Genesys . . . . . . . . . . . .64 컄 Le minacce alla privacy delle etichette intelligenti RFID . . .65 Direction Reportec - Volume II numero 7; bimestrale giugno-luglio 2004; Editore: Reportec srl, via Gian Galeazzo 2 20136 Milano; Amministratore Unico Gabriella Gabet; Direttore Responsabile: Gaetano Di Blasio; Redazione: via A. Lazzati, 6 - 20154 Milano; [email protected]; fax 0234532428; Stampa: GRIFFE srl, via Frapolli 21 - 20133 Milano (sede legale); via G.B. Brocchi 11 - 20131 Milano (sede operativa); Iscrizione al tribunale di Milano n° 212 del 31 marzo 2003; Tiratura 10.000 copie; Tutti i diritti sono riservati; Tutti i marchi sono registrati e di proprietà delle relative società. IT al servizio dell’azienda o azienda al servizio dell’IT? L a domanda non è pleonastica ma rispecchia la realtà o perlomeno la sensazione che sia la macchina, nello specifico quella informatica, a guidare l'uomo e non il viceversa. Se nello scenario IT delle aziende si sta affermando il concetto dell'information technology come centro di profitto il problema è però come passare dalla teoria alla pratica e invertire quel processo che vede le aziende realizzare continui investimenti per mantenere in vita le stesse applicazioni a costi crescenti. Quello che si sta confermando come il punto di partenza per invertire la situazione e porre l'IT al servizio dell'azienda consiste nel capire esattamente cosa si ha e come interagisce l'insieme delle soluzioni, delle applicazioni e degli apparati che costituiscono il panorama ICT di un'azienda e che ne rappresentano oramai il tessuto strategico nell'interazione interna tra dipendenti ed applicazioni ed esterna verso clienti e fornitori. Ma esistono gli strumenti, le metodologie e, in definitiva, le soluzioni per trasformare in pratica questa maturazione nell'approccio da seguire? Sostanzialmente si anche se si sviluppano lungo due direttrici che solo marginalmente si sovrappongono e in buona parte possono agire in modo sinergico ai fini del contenimento del Capex e del miglioramento del Tco. La prima di queste direttrici è rappresentata da un approccio tecnologico e architetturale riferito come consolidamento delle infrastrutture di base, modo elegante per dire che si punta a fare le stesse cose con meno macchine utilizzandone meglio le risorse mediante anche nuove architetture di interconnessione in rete. Un corollario di questo approccio è poi, per quanto riguarda la componente storage, l'organizzazione dell'entità storage nel suo com- plesso in sottosistemi tarati sul ciclo di vita dei dati memorizzati, spostandoli da un supporto a più alto costo ad uno a più basso costo con il trascorrere del tempo per cui devono essere mantenuti disponibili. La seconda direttrice è in parte propedeutica al consolidamento, in parte coesiste, ma si muove però non sul piano delle tecnologie materiali ma su quello dell'immateriale. Consiste nell'utilizzo di metodologie e soluzioni software di analisi e di pianificazione che permettono da una parte di impostare correttamente il successivo consolidamento e dall'altra, una volta che l'ottimizzazione infrastrutturale è stata fatta, di farla operare al meglio per ciò che concerne la gestione delle applicazioni. Va osservato che strumenti di questo tipo sono generalmente disponibili all'interno di soluzioni evolute di management ma proprio per questo risultano spesso di complesso utilizzo e richiedono investimenti consistenti, sia economici che per la loro gestione. La novità sta nel fatto che di recente sono apparse sul mercato soluzioni software che comprendono applicazioni che permettono di controllare l'operato delle singole macchine di un sistema IT, come sono gestiti i flussi delle transazioni, come è distribuito il carico tra i diversi server, eccetera, e che quindi permettono di valutare il rendimento del sistema nel suo complesso nonché di pianificare a ragion veduta la fase di eventuale consolidamento delle risorse. Oppure di dimostrare al ragioniere dell'amministrazione che la richiesta di nuovi investimenti per l'IT è assolutamente motivata. L'aspetto interessante è che con investimenti economici tutto sommato contenuti non appare lontana la possibilità di diminuire i costi operativi anche del 15/20%. Il che, visti i v budget per l'IT, non è trascurabile. Giuseppe Saccardi dida da scrivere 3 IL RepoRt: Business Networking 2004 Dove va il networking? Lo illustra in oltre 500 pagine il report allegato, assieme a una approfondita analisi delle tecnologie di primari produttori I l 2003 e la prima parte del 2004 hanno visto continuare lo sviluppo di piattaforme di rete convergenti in senso lato, in grado di supportare applicazioni dati e voce in contesti di rete fissa e di rete mobile. I prodromi di una tale evoluzione si trovano nel forte rinnovamento tecnologico che ha interessato la visione architetturale e la strategia di prodotto dei principali fornitori di tecnologie di rete, evoluzione abbinata anche alla parallela diffusone di soluzioni di rete virtuale proposte dai principali carrier mondiali e nazionali. Se IP e Internet sono termini molto usati, e in alcuni casi abusati, la realtà del cambiamento consiste nella diffusione di architetture e standard di nuova generazione. La diffusione di reti geografiche ad altissima velocità e di reti urbane e metropolitane sempre più caratterizzate da standard atti a supportare il traffico Ethernet in modo nativo apre, infatti, molte prospettive e va incontro alle esigenze crescenti di multimedialità per ciò che compete le applicazioni e di miglioramento del TCO e del ROI per ciò che riguarda gli investimenti aziendali in tecnologia, nonché i costi da supportare per il loro mantenimento. Ma cosa serve per muoversi e investire in tecnologia alla luce di un tale scenario? Quello che appare fondamentale quando si devono pianificare nuove applicazioni o riorganizzarle nel modo più produttivo possibile è interpretare adeguatamente i fenomeni evolutivi e inquadrarli nel loro corretto ambito, in relazione alle specifiche esigenze aziendali. Il rapporto allegato di oltre 500 pagine ha l’obiettivo di coadiuvare nella miglior comprensione del processo evolutivo sotto il profilo delle 4 NetworkiNg tecnologie di rete e di cosa alcuni dei principali produttori e fornitori di servizi nei rispettivi settori hanno reso disponibile per far fronte alle esigenze odierne e future delle aziende per quanto concerne l’ICT. La prima parte del rapporto esamina l’evoluzione degli standard di rete, delle architetture ed i benefici aziendali derivanti dall’adozione di nuove tecnologie. La seconda parte analizza lo stato dell’arte dello sviluppo tecnologico nei diversi settori del networking così come è stato tradotto nel concreto da parte di primari fornitori di piattaforme e di soluzioni. • Alcatel Alcatel ha fatto confluire in una architettura aperta riferita come “Unified Interaction Management” (UIM) le sue soluzioni per l’esigenza delle aziende in termine di comunicazione, integrazione delle informazioni e di sicurezza. L’UIM si basa su un substrato di rete costituito da un livello di trasmissione dati e da un livello di telefonia IP, entrambi abilitanti l’erogazione di servizi IP su reti fisse e mobili. L’insieme di UIM e delle infrastrutture fonia/dati costituiscono nella strategia Alcatel, una “Casa della Comunicazione” che è volta a permettere l’interazione tra utenti ed applicazione in modo indipendente dal tipo di terminale utilizzato, dalla locazione geografica dell’utilizzatore e dalla infrastruttura di interconnessione. • Allied telesyn Nell’ambito del networking, Allied Telesyn International fornisce dispositivi e soluzioni per reti LAN, WAN e MAN, supportate da robuste garanzie e supporto (che vanno dalla garanzia a vita alla sostituzione del dispositivo). La società ha fatto della qualità l’elemento centrale della sua proposta e ha sviluppato un’architettura di core switching basata su evolute funzionalità di QoS e di commutazione dei pacchetti con analisi multilayer degli stessi, al fine di consentire lo sfruttamento di servizi e applicazioni IP per reti convergenti, secondo una logica multiservice. Particolare attenzione ha poi posto anche alle caratteristiche di sicurezza, in particolare per quanto riguarda le wireless LAN e la realizzazione di virtual private network. • Cisco Cisco Systems fornisce diverse soluzioni di rete per aziende di ogni dimensione, service provider e carrier. La strategia Cisco è focalizzata sulle tecnologie emergenti, quali wireless LAN, IP Telephony, content networking, video su IP, storage networking, security, network e system management. L’architettura AVVID (Architecture for Voice, Video and Integrated Data) è il framework per lo sviluppo di soluzioni che integrano tali tecnologie e le esigenze di business in un unico modello architetturale basato su standard. In altre parole, AVVID fornisce l’infrastruttura e i servizi di rete intelligente, essenziali, a detta dei responsabili della società statunitense, per l’utilizzo delle tecnologie emergenti e delle nuove soluzioni di Internet business. • Computer Associates Computer Associates è specializzata nella fornitura di soluzioni software e servizi per la gestione di ambienti informatici. In particolare, parte importante delle soluzioni di CA è l’enterprise management, nel cui ambito la società statunitense propone la nota suite modulare Unicenter. Questa permette una gestione multipiattaforma di reti e sistemi, l’automazione delle attività, il monitoraggio delle risorse critiche, il database management, il controllo delle infrastrutture Web e la gestione delle applicazioni. Inoltre, a partire dal 2003, Unicenter è diventato l’elemento centrale della strategia Managing On Demand Computing. Quest’ultima è stata lanciata da CA come tramite tra i processi di business e l’infrastruttura IT per massimizzare l’allineamento, l’efficienza e la prontezza di risposta. • D-Link D-Link propone una gamma di dispositivi adatti ai diversi segmenti del networking, puntando alla realizzazione di soluzioni semplici, veloci e caratterizzate da un interessante rapporto qualità/prezzo. La società si indirizza in modo particolare al settore SoHo/SMB e dispone, inoltre, di una gamma d’offerta per gli ambiente workgroup ed enterprise, indirizzandosi anche verso il settore retail, dei service provider, delle Telco e della Pubblica Amministrazione. L’azienda è specializzata in sistemi per le connessioni di rete a larga banda che includono dispositivi di trasmissioni Voice over IP, cable modem, router, switch gestiti e unmanaged. D-Link fornisce soluzioni per la realizzazione di LAN cablate e di Wireless LAN con velocità fino a 108 Mbps e dispone di un’offerta di soluzioni firewall e di apparati VPN per la protezione della rete. La società ha ottenuto le certificazioni di qualità ISO 9001, 9002 e 14001. • easynet Easynet è un operatore con una rete paneuropea e link intercontinentali. La rete si basa sugli elementi chiave dell’evoluzione tecnologica, il broadband e l’IP, accostati in una soluzione che risponde a esigenze aziendali in ter- 5 NetworkiNg mine di banda, architetture ridondanti, utilizzo di modalità di connessione (come il DSL) a basso costo e elevata capacità, il tutto integrato da una capacità progettuale e di supporto sperimentata in numerose realizzazioni in Italia e internazionali. Alla base della sua strategia architetturale e di servizi vi è l’MPLS, il metodo di realizzazione di reti virtuali oramai affermatosi per la realizzazione di soluzioni VPN, la possibilità di supportare servizi di fonia e dati e di inserirsi in modo trasparente sia in ambienti IP che SNA. • enterasys Networks Enterasys Networks ha sviluppato il concetto e le tecnologie di Secure Networks e ne ha fatto la propria missione aziendale, forte del fatto che anche in passato questo è stato l’elemento distintivo delle proprie reti. L’obiettivo è quello di disporre di una rete che integra la sicurezza in tutta l’infrastruttura aziendale, e punto di integrazione di tutte le tecnologie di sicurezza. Secondo la sua visione le Secure Networks, evolvendo dalla logica legata alla densità di porte, alle prestazioni e ai costi, si basano sulle “5 C”: controllo, contesto, conformità, consolidamento e continuità. I dispositivi di rete introdotti recentemente, dagli switch Matrix ai security router fino alle soluzioni Dragon, integrano le soluzioni di sicurezza e sono basati sull’architettura Secure Networks. • Hp HP, con le soluzioni Procurve Networking e mediante la strategia Adaptive EDGE, propone una visione di una rete articolata sui tre pilastri di sicurezza, mobilità e convergenza su IP, con l’obiettivo di portare fino al desktop il Gigabit Ethernet. L’architettura permette di realizzare reti miste cablate e wireless, ad alta disponibilità, con la possibilità di scalare in 6 NetworkiNg modo virtualmente illimitato in dimensioni e prestazioni. Per farlo prevede l’introduzione di nuove funzionalità di controllo alla periferia della rete attraverso switch layer 3 e 4. A queste funzionalità si abbina un comando centralizzato nella parte “core” del network, che consente di gestire la rete in modo da soddisfare le richieste di fruibilità anytime, anyway e anywhere. • Italtel Italtel ha una presenza pluridecennale nel settore delle Tlc, nella progettazione e nella fornitura di soluzioni per reti pubbliche voce e dati. Per le sue soluzioni ha adottato un approccio “carrier class” che l’ha portata alla definizione di un’architettura e alla realizzazione di un insieme di soluzioni e prodotti che permette una migrazione verso architetture evolute, basate su IP ma in grado di supportare anche le esistenti piattaforme TDM. Le soluzioni di rete che ha sviluppato possono, infatti, essere introdotte in modo graduale nella rete di un operatore, con la creazione di un portafoglio di prodotti concepiti come migrazione progressiva a partire dai prodotti esistenti, mantenendo però inalterate le funzionalità relative ai servizi tradizionali. • Marconi Marconi ha focalizzato la sua strategia su sviluppi atti a rendere disponibili reti di nuova generazione e multiservizio. L’approccio permette un'evoluzione graduale verso reti di nuova generazione mediante le quali sia possibile gestire sia telefonia tradizionale che applicazioni multimediali. La strategia della società si è concretizzata in un'ampia gamma di opzioni hardware e software. Le tecnologie sviluppate comprendono soluzioni di accesso a larga banda, routing e switching a banda larga, microwave radio, SoftSwitch multimediali, network management, reti ottiche. Nel complesso coprono svariate esigenze nel segmento delle reti mobili e fisse nonché le necessità connesse alla realizzazione e all’esercizio di reti metropolitane. • Microsoft Microsoft ha fatto di Windows Server 2003 l'infrastruttura software di rete per le organizzazioni che hanno l’esigenza di accrescere la produttività personale e favorire collaborazione e condivisione delle informazioni. Questo ambiente operativo, congiuntamente con Visual Studio .NET, Exchange Server 2003 e SQL Server, è la base per la realizzazione di un'infrastruttura integrata e interoperabile adatta a supportare lo sviluppo e l'utilizzo di nuove applicazioni e di Web Service. Elemento essenziale è la possibilità di accesso sicuro ai dati e alle risorse aziendali tramite dispositivi mobili di diverso tipo, realizzata mediante le funzioni della piattaforma Exchange Server 2003 e alle applicazioni client Outlook 2003 e Outlook Web Access. • Nortel L’evoluzione che coinvolge la realtà business aziendale sta apportando profondi cambiamenti alle esigenze in termine di infrastruttura di rete e di strategie per la gestione delle informazioni. Nortel Networks risponde a queste esigenze con un’architettura che rende possibile la convergenza tra voce, dati video e servizi multimediali su un’unica infrastruttura unificata. L’architettura, riferita come “Architecture for the Converged Enterprise”, è la concretizzazione della sua vision OneNetwork e comprende piattaforme, servizi ed applicazioni che definiscono un ambiente convergente il cui obiettivo è di eliminare i confini fisici tra le reti ed i confini logici tra i servizi erogati o trasportati a livello di rete. • RAD/CIe telematica RAD Data Communications, presente in Italia tramite CIE Telematica, si propone come riferimento tecnologico nella transizione verso reti di nuova generazione basate su IP. Nella sua strategia un ruolo crescente lo ha assunto un approccio volto a ridurre i costi operativi e infrastrutturali. Con le sue soluzioni è possibile effettuare l'upgrade verso infrastrutture convergenti e mantenere in esercizio servizi TDM, ad esempio di PBX convenzionali. Le sue soluzioni permettono di aggiungere ai servizi consolidati i benefici delle recenti tecnologie LAN e di protocolli quali l’IP e/o l’MPLS nonché dei servizi di nuova generazione. In Italia è rappresentata da CIE Telematica, una società di ingegneria con solide basi tecniche, presente sul mercato con apparati e soluzioni per reti pubbliche e private. • US Robotics U.S. Robotics è una società presente da anni sul mercato della connettività di rete con un’ampia gamma di soluzioni. A partire dal 2001 ha avviato una profonda riorganizzazione delle proprie strategie di prodotto orientandole verso la fornitura di soluzioni anche per il mercato business. Il suo mercato di riferimento si è spostato consistentemente da quello analogico a quello wireless e dalla connettività su linee in rame a quella in tecnologia Adsl. Nel corso del 2004 U.S. Robotics prevede di rafforzare ulteriormente la strategia e il posizionamento in ambito business, con un’evoluzione progressiva verso le tecnologie digitali, soluzioni per la connessione a larga banda su Adsl e la fornitura di sistemi wireless per il mondo enterprise. • 3CoM 3Com fornisce soluzioni per la realizzazione di reti locali e per l’accesso. Punto focale della sua strategia è l’architettura XRN (eXpandible Resilient Network) per reti sicure e applicazioni di business continuity. Supporterà XRN anche lo switch 7700, una soluzione per le esigenze delle grandi imprese. Simile ai commutatori carrier class deriva della collaborazione con la cinese Hua Wei. Stessa origine per la gamma di router, che adotta il medesimo software per tutti i prodotti mentre la dotazione hardware, a detta dei responsabili della società californiana, è tale da poter fare a meno di upgrade successivi all’acquisto per potenziare le performance. Completano il portafoglio 3Com le soluzioni di switching stackable, la gamma per la PMI OfficeConnect e le soluzioni wireless LAN. G.S. 7 NetworkiNg Il Gigabit targato 3Com alla portata di tutti i desktop Cresce la necessità di banda alla periferia della rete e la casa statunitense ne soddisfa il bisogno con la nuova linea SuperStack 3 Switch 3870. F Giulio Galetti, technical director di 3Com 8 NetworkiNg ino a poco tempo fa, sembrava improbabile che si arrivasse ad aver bisogno di una capacità gigabit al desktop, ma, del resto, fino a meno di dieci anni fa la massima velocità di connessione a Internet era rappresentata dai 64 Kbps di ISDN o dai 56 Kbps dei modem analogici V.90. Le cose cambiano e non deve stupire che 3Com abbia annunciato una nuova linea di switch stackable dotata di porte 10/100/1000 e uplink a 10 Gbps. Giulio Galetti, technical director di 3Com in Italia, ha affermato: "La crescente disponibilità di server e desktop in rete ad alta velocità con connettività 10/100/1000 Ethernet installata sulla scheda madre, sta favorendo una rapida crescita delle attività di business in rete". Gli fanno eco i principali analisti del settore, che si dicono convinti che il 70% del commercio businessto-business sarà "Internet-involved" entro i prossimi tre anni. È quindi del tutto naturale che, come ha dichiarato ancora Galetti, gli switch, attualmente attrezzati con porte 10/100 autosensing, scaleranno di una grandezza la velocità, inserendo il 10/100/1000 tra le opzioni a disposizione degli utilizzatori. Del resto, le reti, le attuali server farm, i data center e le altre risorse distribuite richiedono un naturale aggiornamento per implementare l'attuale connettività Ethernet e Fast Ethernet. Secondo Meta Group, inoltre, gli switch che aggregano Fast Ethernet e forniscono collegamenti Gigabit Ethernet alla dorsale di rete restano una componente critica dell'intera infrastruttura di rete, con le aziende che fanno sempre più affidamento sulla connettività ad alta velocità di desktop e risorse in rete. Gartner va oltre, ritenendo che entro il 2006 il 70% dei pc di nuova generazione monteranno PCI Express e che questo passaggio andrà di pari passo con l’introduzione di schede Gigabit on board. Un’indagine di InStat/MDR, poi, ha evidenziato che solo il 7,5% delle aziende intervistate (su un campione di 468 mediograndi imprese) non ritiene utile adottare il Gigabit Ethernet. Del rimanente, bel il 67,7% vede in questa tecnologia la risposta ai bisogni di banda del futuro. 3Com vuole seguire e favorire queste strategie di aggiornamento e crescita della rete, anche perché è certa, a detta dei suoi responsabili, che le imprese cercheranno vendor coerenti nell'offrire una strategia continua di rinnovamento, per fornire capacità di gestione delle nuove applicazioni multimediali con ampiezza di banda intensiva, che includono applicazioni voce, video e dati a vari livelli della rete: Internet, server e desktop. • Uno stack veramente “super” Uno strumento finalizzato a tale obiettivo è rappresentato dalla nuova linea SuperStack 3 Switch 3870 annunciata dalla casa statuniten- 3Com SuperStack 3200 per il Layer 3 in periferia 3Com ha anche presentato la nuova famiglia SuperStack 3 Switch 3200, con funzioni Layer 3 per la gestione della periferia delle reti, che consentono di dirigere il traffico dati attraverso segmenti di rete locale condivisa da gruppi di lavoro. Una delle caratteristiche peculiari riguarda il routing dinamico, che, come ha spiegato Galetti, semplifica la gestione in quanto “aggiorna automaticamente la rete Layer 3 senza l’intervento manuale dell’operatore”. Inoltre, la nuova serie favorisce la tendenza in atto. È sempre Galetti a parlare: “Con la compressione dei costi degli ASIC che implementano il Layer 3 switching, sempre più aziende stanno considerando l’opportunità di ottimizzare le prestazioni alla periferia della rete, garantendo sicurezza e continuità operativa”. Elevate le prestazioni, secondo il costruttore, che attesta capacità wire speed per il Layer con connessioni 10/100 e prioritarizzazione di pacchetto. Sono supportate fino a 2.000 e vengono supportati 802.1x, ACL, SSH e SSL. Due i modelli: SuperStack 3 Switch 3226, con 24 porte 10/100 e due porte Gigabit dual-personality rame/fibra (SFP), e SuperStack 3 Switch 3250, con 48 porte 10/100 e due porte Gigabit dual-personality rame/fibra (SFP). se. Questa si presenta con caratteristiche innovative, quantomeno inconsuete, finora, per dei dispositivi destinati a essere posizionati all’edge della rete. La nuova linea si posiziona tra lo Switch 3800, con capacità Gigabit ma standalone, e i SuperStack 3 Switch 4900, destinati alla server aggregation, e lo Switch 40X0, per il core di reti di medie dimensioni o a livello di building. I nuovi switch sono quindi rivolti a quella fascia alta del mercato, che già oggi possiede connettività Fast Ethernet e Layer 3 all’edge. Inoltre, poiché l’unico ostacolo sembrerebbe essere il prezzo, 3Com ha deciso di adottare una politica aggressiva, portando i 3870 sul mercato a un prezzo simile ai 10/100 di fascia alta. • Le caratteristiche Due i modelli disponibili inizialmente distinguibili per il numero di porte: rispettivamente 24 e 48. Entrambi possono essere equipaggiati con un modulo 10 Gigabit che consente il collegamento a un porta 10 Gigabit sul centro stella, rendendo possibile una connettività futura all’interno dell’impresa, mentre fino a oggi il 10 GE sembrava relegato ad applicazioni MAN. Altra caratteristica comune è la predisposizione hardware al passaggio allo swit- 3Com SuperStack 3 Switch 3250 ching di livello 3, che potrà essere successivamente abilitato con un upgrade software. Le prestazioni dichiarate dal fornitore sono di tutto rispetto e rappresentano un nuovo traguardo per 3Com. È, infatti, possibile impilare fino a 8 switch, in una configurazione che arriva a 384 porte Gigabit. Per ogni switch la banda di stacking è di ben 40 Gbps (a livello aggregato 320 Gbps, grazie alla stack wide link aggregation). A questo viene abbinata la robustezza garantita da una doppia porta di stacking per ciascuna unità e dalla configurazione loop back resilient. A parte la banda, il supporto di funzionalità QoS garantisce nei confronti degli investimenti futuri in reti e applicazioni convergenti. Più precisamente, gli switch 3870 supportano il piority queuing (WWR o Strict Priority) su 8 code, gli standard DiffServ (IP ToS) e 802.1D Cos VLAN priority, l’identificazione del numero di destination port TCP/UDP e la prioritarizzazione del traffico NBX. A questo si aggiunge anche la capacità di limitazione della banda su ogni porta. Le caratteristiche di sicurezza comprendono, tra l’altro, il login secondo lo standard 802.1X, l’autenticazione RADIUS, il filtering basato su porta e il supporto degli standard SSHv1/2 (DES) e SSL (HTTPS). G.D.B. 9 NetworkiNg Una “casa della comunicazione” da Alcatel La società ha definito una roadmap per l’Unified Interaction Management che si è già concretizzata nella suite OmniTouch Unified Communication L a diffusione di nuove tecnologie ha ampliato le possibilità delle aziende di scambiare le informazioni e di interagire con clienti e fornitori. Sono parimenti cresciute le esigenze di sicurezza, di qualità dei sistemi di comunicazione, di integrazione delle informazioni. Queste necessità sono alla base dell’approccio alla comunicazione di Alcatel, che ha fatto confluire in una visione architetturale unificata e aperta riferita come “Unified Interaction Management” (UIM) le sue soluzioni per l’azienda. L’UIM a sua volta si basa su un substrato di rete costituito da un livello di trasmissione dati e da un livello di telefonia IP. L’insieme di UIM e delle infrastrutture fonia/dati costituiscono nella strategia Alcatel, una “Casa della Comunicazione” volta a facilitare l’interazione tra utenti ed applicazione indipendentemente dal terminale utilizzato, dalla locazione geografica dell’utilizzatore e dalla infrastruttura di interconnessione. La suite di prodotti in cui si è concretizzata la sua strategia copre non solo le esigenze in termi- L’evoluzione dell’architettura Alcatel verso l’UIM 10 NetworkiNg ne di reti e servizi fonia/dati ma anche applicazioni di contact center, di messaggistica e di contatto. • L’architettura Unified Interaction Management L’UIM consiste di un’architettura specifiche e una road map evolutiva a partire da piattaforme e applicazioni esistenti, sia Alcatel che di terze parti. La roadmap ha già completato parte del suo percorso con lo sviluppo di soluzioni per l’interazione unificata tra user e applicazioni. UIM racchiude al suo interno soluzioni di messaggistica, applicazioni di comunicazione unificata e applicazioni contact center. Uno degli elementi portanti dell’architettura UIM e primo passo nel percorso verso un’interazione globale è OmniTouch Unified Communication, una soluzione che rende disponibili le informazioni voce e dati e, in generale, le informazioni residenti o accessibili tramite la rete aziendale fissa o mobile. Va osservato che Alcatel è approdata alla strategia concretizzatasi in UIM dopo un percorso evolutivo che l’ha vista affermarsi in settori quali i contact center e l’IP communication. E’ dalla fusione di queste due realtà che è infatti derivata UIM, volta ad ottenere per le aziende benefici concreti nella cooperazione, nell’interazione e nella realizzazione di attività collaborative, abbattendo in sostanza le barriere di spazio e di tempo connesse all’utilizzo di terminali, da quello telefonico al palmare, anche profondamente diversi. • Una casa aperta e basata su standard UIM racchiude al suo interno le funzioni che sino ad ora si è stati abituati a vedere su piattaforme e architetture separate, ma non solo. UIM ha infatti un nucleo centrale con funzioni e strumenti software che agisce da integrazione delle diverse tipologie di applicazioni e funzioni che eroga, non solo per quelle di proprietà Alcatel, ma anche per quelle di terze parti che aderiscano agli standard internazionali affermatisi. Questo strato software permette il dialogo tra applicazioni di fonia, di contatto o di messaggistica sia di Alcatel che di terze parti o di applicazioni quali il CRM o l’ERP. A questo aggiunge la gestione dei protocolli. L’ approccio rende possibile trasmettere e ricevere informazioni senza curarsi di dove si trova il destinatario, che tipo di terminale dati o voce usa, se si trova connesso ad una rete fissa o mobile. Quello che si deve fare è chiamare il numero di ufficio del destinatario. E’ il software UIM (e della sua componente OmniTouch) che si preoccupa di effettuare il reinstradamento della chiamata al chiamato in modo trasparente, in qualsiasi parte dell’azienda o del mondo si trovi. Sempre UIM si occupa di convertire il messaggio nel modo comprensibile al media del destinatario. Cosa che, ad esempio, permette di ascoltare una mail per telefono in linguaggio naturale. • Le funzionalità di OmniTouch Unified Communication Il principale cambiamento che Alcatel ritiene derivi dalla disponibilità di UIM consiste non solo nel concretizzare una società senza confini e limiti di spazio, ma nel modo di fruire e di disporre delle informazioni stesse. Studi recenti evidenziano che l’80% delle conoscen- ze risiede nella mente dei dipendenti e solo il 20% nei sistemi aziendali. Alcatel ritiene che UIM possa invertire queste percentuali, facilitando lo scambio di informazioni e mettendo a disposizione strumenti di condivisione delle informazioni. OmniTouch si abbina inoltre agli sviluppi di Alcatel nel segmento delle applicazioni di contatto, iniziati con l’acquisizione di Genesys, un leader internazionale nel settore dei Contact Center. La soluzione OmniTouch è costituita da una suite di quattro applicazioni che sono volte a permettere una razionale ed efficace comunicazione aziendale. Le applicazioni condividono una struttura comune basata su IP, sono interattive e possono essere abbinate. “My Assistant” svolge la funzione di “assistente on-line” che interpreta il flusso di telefonate, vede a chi sono dirette, le seleziona o le inoltra a terzi, il tutto tramite VoiceXML. Se viene integrato con Microsoft Exchange/Outlook e Lotus Domino/Notes permette a utenti fuori sede di rimanere in contatto con l’azienda. “My Messaging” è un’applicazione di messaggistica VoiceXML compatibile con Microsoft Exchange e Lotus Domino che consente di gestire, da un’unica mail box, il flusso di comunicazioni sia del server e-mail che di messaggistica vocale. “My Phone” è invece un’applicazione di telefonia su PC compatibile con Microsoft Exchange/Outlook e Lotus Domino/Notes. Permette di utilizzare svariati tipi di terminali telefonici analogici, digitali, cellulari, PDA e i PC (VoIP). “My teamwork” è un kit per il lavoro di gruppo, opera su Web e permette di condividere informazioni anche tramite sessioni multiple di videocomunicazione. La suite comprende anche applicazioni disponibili su richiesta. Ad esempio, Softphone trasforma il Pc in un server telefonico Alcatel OmniPCX, l’applicazione Multi Terminals permette di accedere alle applicazioni con dispositivi palmari o notebook e Voice Access permette di accedere ai servizi usando comandi vocali. G.S. 11 NetworkiNg Ripensare la rete in un’ottica orientata al servizio La definizione di un nuovo modello di IT richiede una revisione dell’architettura e dell’infrastruttura N ell’economia attuale, in cui il successo di un’azienda è governato dalla richiesta di time to market sempre più ridotto e dalla necessità di rispondere in modo dinamico e rapido ai capricci di un mercato in continua evoluzione, differenziarsi è diventato un compito complesso. Molte aziende perseguono, infatti, la strada della semplificazione e della massima riduzione dei costi, muovendosi su schemi di business consolidati e tradizionali. Si tratta di una tendenza trasversale, riscontrabile in settori quali quello finanziario, manifatturiero o dei servizi. L’informatica rappresenta uno dei fattori in grado di contribuire, più di altri, a una differenziazione del business, in grado di trasformarsi in un reale vantaggio competitivo per un’azienda. Il sistema informativo deve, quindi, essere in grado di far fronte in modo efficiente alle richieste di rapidi cambiamenti indotte dal mercato e questo induce a un suo ripensamento, anche in considerazione dell’attuale complessità tecnologica. Se ripercorriamo le macro tendenze che hanno caratterizzato l’IT negli ultimi 20 anni possiamo vedere come il suo ruolo si sia progressivamente evoluto e il suo valore sia progressivamente aumentato. Negli anni ottanta l’IT, attraverso i mainframe, rappresentava un elemento di supporto per il successo del business e la differenziazione; con gli anni novanta e l’arrivo dei sistemi distribuiti si è trasformato, invece, in un elemento di abilitazione del successo. In molti ritengono ora che la situazione tecnologica e di mercato abbiano determinato la condizioni per una nuova fase di transizione verso quello che viene definito Service Orien- 12 NetworkiNg ted Computing (SOC). Parlare di IT orientato al servizio significa considerare l’IT intrinsecamente legato alle modalità con cui viene effettuato il business. Si tratta di un modello che sposta l’attenzione sul servizio all’utente, indipendentemente dalle modalità o dai sistemi che consentono di erogarlo, in una logica in cui è importante focalizzarsi sul “cosa“ e non sul “come”. Indirizzarsi verso un modello di SOC significa anche realizzare le condizioni per muoversi da una situazione, come è quella attuale, in cui i livelli di servizio restano ancora per buona parte arbitrari (nonostante gli sforzi delle aziende a definire Service Level Agreement), verso una in cui i servizi vengono erogati come utility e, pertanto, in cui esiste un legame diretto tra costo e servizio erogato. Questo nuovo modello di computing interessa il network in ogni suo aspetto: in relazione alla logica infrastrutturale, alla collocazione e all’utilizzo dei server, all’implementazione delle reti dedicate alla memorizzazione dei dati e alle piattaforme software. Una delle principali sfide cha va affrontata dalle aziende che intendono muoversi in questa direzione è il superamento della complessità che la filosofia del “distributed computing” ha contribuito a determinare. Si tratta di una complessità dovuta alla proliferazione (a volte ingiustificata) di sistemi all’interno dell’azienda, alla difficoltà di farli interoperare e alla presenza di un grande numero di potenziali point of failure. A essa si aggiunge una complessità operativa, indotta da infrastrutture software complesse, poco interoperabili e raramente gestibili in modo unificato. • Implementare un’architettura e un’infrastruttura orientate al servizio L’attività dei vendor nella definizione di standard aperti, che ha caratterizzato gli ultimi anni, ha certamente portato un contributo positivo verso il superamento della complessità. Tuttavia il conseguimento di un modello di SOC richiede un approccio integrato all’intero stack dei servizi che implica, pertanto, un ripensamento dell’infrastruttura e dell’architettura. Alla base di una Service Oriented Architecture (SOA) risiede un ecosistema applicativo in grado di gestire il cambiamento, dotato di un framework indipendente di linguaggi e piattaforme che fornisca la base per il deployment, la gestione e l’implementazione del servizio. Un’architettura orientata al servizio si basa dunque, necessariamente, su standard aperti e in essa trovano spazio i Web Service. In una SOA si parla di gestione del livello del servizio e non di gestione dei sistemi e, a tale riguardo, diventa fondamentale l’implementazione di metodologie di monitoraggio delle prestazioni, di implementazione di funzioni di QoS e di analisi dei guasti, in modo da poter definire i servizi e il loro valore in relazione all’esperienza dell’utente. Il ruolo del network è centrale rispetto al concetto di SOA poiché la possibilità, per un’applicazione, di mettere insieme un set di servizi riutilizzabili presenti su diverse macchine è possibile solo se il servizio supporta un’interfaccia di rete. È possibile accedere a un servizio tramite un’interfaccia locale (anziché attraverso il network) ma solo se l’utente e il service provider sono sulla stessa macchina, mentre la rete consente al servizio di essere indipendente dalla sua collocazione fisica. Un Service Oriented Network si focalizza, dunque, sulle applicazioni e dovrebbe trasformarsi in modo da essere gestito come un sistema. Parallelamente, una Service Oriented Infrastructure (SOI) deve realizzare le condizioni di interoperabilità degli apparati in modo indipendente dal servizio applicativo che devono supportare. Gli elementi fondamenta- li di un’infrastruttura orientata al servizio sono perciò la virtualizzazione, la disponibilità di infrastrutture in grado di effettuare compiti in modo automatizzato (quali il “deployment” del software o il “provisioning” dell’hardware) e in grado di individuare in modo preventivo l’insorgenza di possibili guasti e avviare o segnalare le opportune contromisure prima che il servizio erogato all’utente possa esserne influenzato. Una volta assicurate queste condizioni, le prestazioni “del livello fisico” possono essere sorrette dall’utilizzo di hardware scelto con una logica del “best of breed”. Il modello di Service Oriented Computing, sfrutta quindi le caratteristiche di una SOA e di una SOI per realizzare la sincronizzazione delle architetture infrastrutturali e applicativa, determinando le condizioni per definire la gestione del livello di servizio e la trasparenza del business. Questo favorisce la possibilità di differenziare il business in base all’interoperabilità e di realizzare le necessarie condizioni di di controllo trasparente sugli asset IT. Questo processo può essere accompagnato da una politica indirizzata a esaltare la differenziazione anche a livello di prestazioni e ciò può essere fatto, oltre che utilizzando hardware di tipo best of breed, prendendo in considerazione la gestione dell’intero ciclo di vita del network, dell’ambiente di elaborazione e delle informazioni. R.F. Gli elementi fondamentali di un’infrastruttura orientata al servizio 13 NetworkiNg La rete sicura di Enterasys per l’Università Bicocca L’infrastruttura campus dell’ateneo milanese aumenta le prestazioni e la sicurezza grazie alle soluzioni della società statunitense L l’Università degli Studi Milano – Bicocca ha esteso la propria rete Enterasys a filiale italiana di Enterasys Networks ha completato con successo l’upgrade della rete campus dell’Università Bicocca di Milano. Questa aveva l’esigenza di incrementare la sicurezza e le prestazioni della propria infrastruttura, realizzata già a partire dal 1997 con apparati della casa americana, quando ancora si chiamava Cabletron. L’Università degli Studi di Milano-Bicocca, istituita ufficialmente nel 1998 e dal 1999 attiva con personale docente e tecnico-amministrativo tutto proveniente dall’Università degli Studi di Milano, è composta attualmente da otto facoltà (Economia, Psicologia, Sociologia, Scienze della Formazione, Giurisprudenza, Scienze Matematiche Fisiche e Naturali, Scienze Statistiche, Medicina e Chirurgia), con mol- dove si trova la facoltà di medicina. I servizi forniti all’utenza (personale e studenti) sono di fatto tutti quelli relativi alla didattica e alla ricerca, oltre a naturalmente quelli di tipo gestionale (contabilità, gestione personale, gestione segreterie studenti). Essendo un Ateneo nuovo, è ancora in fase di espansione sia per quanto riguarda le sedi sia il personale, gli studenti e i servizi a essi forniti. Peraltro, la rete dell’Università serve una comunità amplia e articolata, con esigenze di continua disponibilità di accesso, prestazioni elevate, affidabilità e sicurezza. Si pensi al tipico contrasto che si avverte in questi ambienti tra la necessità, ai fini della ricerca, di condividere il più possibile le informazioni con l’ambiente accademico internazionale e il bisogno di proteggere tale informazioni, al fine di salvaguardarne la proprietà intellettuale. • Il bisogno di espansione di un’università che cresce teplici corsi di laurea di vario livello, e conta un totale di 1.150 dipendenti, di cui 650 docenti. A questi si aggiungono circa 30mila studenti iscritti, molti dei quali accedono ad aule equipaggiate con pc o a calcolatori elettronici più potenti per attività varie. Ventitré sono i dipartimenti e gli istituti, presso i quali sono attivati numerosi dottorati di ricerca. Gli edifici universitari sono attualmente 10, di cui 9 dislocati nell’area Bicocca in un raggio di circa un chilometro e uno situato a Monza, 14 NetworkiNg In tutti gli edifici dell’Università è installata e funzionante una rete integrata dati/fonia di grandi dimensioni. Ogni edificio dispone, oltre che di uffici per il personale docente e tecnico-amministrativo, anche di aule, dotate di almeno due prese telematiche, e di aule e laboratori informatici attrezzati con cablaggio idoneo sui banchi, per gli studenti. I punti telematici nelle aule e nei laboratori informatici, distribuiti in locali di dimensioni e capienza variabile da un minimo di 10 postazioni telematiche fino a oltre 100, sono dell’ordine di qualche migliaio. La parte attiva della rete d’Ateneo (a larga banda con dorsali di edificio e di campus in GigabitEhernet e utenza in Fast Ethernet) è costituita da apparati di rete quali router, layer2 switch e layer 3/4 switch interamente di marca Enterasys. L’accesso a internet avviene per mezzo di un collegamento alla rete Garr (rete italiana della ricerca) a 34 Mbps. L’utenza universitaria può accedere alla rete anche da remoto tramite il servizio RAS. Dal 2001 è operativa, presso i Sistemi Informativi, la sala macchine di Ateneo che ospita, in ambiente opportunamente protetto, tutti i server dell’Università degli Studi di Milano - Bicocca. La sicurezza informatica è stata implementata tramite l’uso di un complesso sistema di firewalling e intrusion detection. Requisito fondamentale per la rete era la robustezza, le prestazioni e la possibilità di rapida crescita futura. Nel 2003, volendo migliorare il servizio percepito dagli utilizzatori finali, rendendolo omogeneo, l’ateneo ha deciso di aggiornare la parte utente della propria rete con l’adozione di nuovi sistemi Matrix Serie N di Enterasys, ottenendo anche di aumentare le prestazioni dei router nei centri stella principali, uniformare la gestione tecnica della rete e implementare su tutto il campus nuove politiche e protocolli di rete, come l’802.1x per l’autenticazione. "Enterasys è stata scelta per lo stesso motivo di sette anni fa – ha commentato Luisella Sironi, responsabile settore Telecomunicazioni e Sistemi di Rete dell’Università -. L’ottimo rapporto tra qualità, prezzo e prestazioni e il grande spirito di collaborazione del personale tecnico e progettuale". È stata realizzata un’infrastruttura che, tra router e switch L2 e L3/L4, conta oltre 300 apparati, più di 7.000 porte, circa 16.000 prese di rete per l’utenza (70% in rame, 30% in fibra ottica), oltre 6.000 sistemi in rete (server e workstation) e 30 linee analogiche/ISDN per accesso remoto tramite remote access server (a breve saranno ampliate a 60). Le soluzioni Secure Networks di Enterasys sono state scelte sulla base di diversi criteri, tutti importanti, quali l’economicità, garantita dalla struttura modulare che consente di far crescere gli apparati in base alle esigenze, l’uniformità di gestione e la solidità. "In oltre quattro anni di funzionamento a regime, compreso un massiccio aggiornamento architetturale della rete d’ateneo, gli apparati Enterasys si sono dimostrati ampiamente validi, sia dal punto di vista delle tecnologie hardware, sia per il firmware sia per quanto riguarda il rispetto degli standard così come il supporto e la manutenzione", ha osservato Stefano Moroni, responsabile Ufficio Rete Dati e Sicurezza dell’ateneo. Il responsabile ha proseguito: "I nostri piani per il futuro sono di continuare l’upgrade degli apparati esistenti, anche in modo graduale e continuativo, di implementare a regime il protocollo 802.1x per tutte le aule, di utilizzare nel tempo il multicast e di introdurre sperimentazioni wireless". Enterasys è ovviamente contenta di poter fornire con le proprie Secure Networks lo strumento per consentire la flessibilità di accesso e condivisione necessarie a una comunità attiva e dinamica come quelle universitaria, garantendo al tempo stesso la sicurezza. Per soddisfare appieno le esigenze dell’Università degli Studi Milano – Bicocca, Enterasys si è avvalsa della collaborazione di NAeS Consulting, società di consulenza nata dall’unione delle competenze di professionisti, formatisi sul campo in anni di lavoro ai più alti livelli. È proprio questa esperienza che permette a NAeS di individuare con precisione problemi e necessità e quindi integrare le soluzioni più idonee. Le attività della società di consulenza si concentrano soprattutto in ambito networking, cablaggio, software/collaborative computing e sicurezza. G.D.B. Switch Matrix N3 e N7 di Enterasys 15 NetworkiNg Ethernet si diffonde nell’accesso I trend evolutivi di Ethernet ne evidenziano un progressivo utilizzo per l’accesso diretto alle reti geografiche e metropolitane D opo aver assistito all’affermazione del protocollo IP come strumento universale per la comunicazione dati e voce si è ora in presenza di un trend analogo per quanto riguarda un altro degli elementi caratterizzanti il mondo Lan aziendale, la rete, o meglio, la tecnologia Ethernet, che ne è diventato quasi un assoluto sinonimo. Ethernet ha compiuto negli ultimi anni un enorme passo avanti per ciò che riguarda la velocità operativa e ha finito con lo smantellare le ultime isole di soluzioni alternative ancora esistenti a livello enterprise basate sulla tecnologia token ring. Il livello di capacità ora raggiunta, con il consolidarsi del gigabit come velocità di dorsale e dei 10 Gigabit come nuovo orizzonte evolutivo, le apre ora la strada anche di un’ultima isola da cui sembrava esclusa, quella dei data center, che vedono nel 10 Gigabit Ethernet una modalità per implementare politiche di back up locale e remoto. Iniziano infatti a concretizzarsi alternative all’utilizzo di soluzioni di tipo fibre channel costituite proprio da Ethernet, complice in questo la facilità, rispetto al fibre channel, con cui è possibile trovare personale specializzato nel supporto di soluzioni Ethernet e il caratteristico basso costo di quest’ultime rispetto al fibre channel. Se di questa espansione in quello che è il vero santuario dei dati aziendali si è solo agli inizi, dove invece la partita è già in gioco e aspramente combattuta è il settore dell’accesso alle reti geografiche, dove le soluzioni di recente apparse sul mercato stanno già ponendo le basi concrete per una rete su base end-to-end di tipo Ethernet. L’interesse in tal senso, viste le possibili e con- 16 NetworkiNg sistenti economie di scala, da parte degli operatori sono molto consistenti. • Il trend di Ethernet per l’accesso alla rete geografica Ma dove si sta rafforzando la presenza di Ethernet? Soprattutto in ciò che concerne i servizi erogati dai service provider e, tra questi, i più significativi sono: • l’accesso a Internet • i servizi Lan trasparenti • le VPN di livello 2 e 3 Se dal generale si scende nel particolare quello che si vede espandere è la presenza e l’interesse nell’adozione di Ethernet per l’accesso a reti Sdh/Sonet, complice in questo proprio l’alta velocità possibile e l’interesse delle aziende all’utilizzo di una tecnologia ampiamente conosciuta. Non va poi trascurato che trasportare traffico Ethernet permette automaticamente di trasferire nell’ambito geografico la medesima tecnologia su cui si basano le reti convergenti sviluppate internamente in un’azienda. Quello che si può prevedere come evoluzione nel breve e medio termine, che sono poi gli orizzonti di tempo che interessano per quanto concerne il ciclo di vita di una rete aziendale con una copertura geografica, è la progressiva affermazione di tecnologie che permettano la connessione diretta di Ethernet a canali ottici ad altissima capacità (DWDM: acronimo di Dense WDM, una tecnologia che permette di trasportare più colori ottici sulla medesima fibra moltiplicandone in proporzione la capacità di banda), una sua espansione nelle reti Sdh di prossima generazione, per approdare infine a soluzioni di rete completamente Ethernet. Gli sviluppi a livello di standard che si sono avuti per quanto concerne le reti ottiche metropolitane hanno poi già posto le basi normative e di standard per reti Ethernet di tipo any-to-any, in grado quindi, tramite reti metropolitane a larghissima banda, di offrire la realizzazione di una rete Ethernet aziendale che permetta di coprire sia i singoli ambiti locali che l’intera area geografica interessata dalle sedi aziendali. Quello dei servizi è un segmento di mercato su cui anche gli operatori non nascondono il loro forte interesse. Interesse che è più che giustificato, perlomeno in base alle previsioni fatte, ad esempio, dalla società di analisi Yankee Group che stima che i proventi globali derivanti dall’erogazione di servizi focalizzati sulla tecnologia Ethernet raggiungeranno, entro il non lontano 2007, la non trascurabile cifra di 7 miliardi di dollari su base mondiale. • Le alternative tecnologiche esistenti Quando si analizza la realtà in essere relativa ad una tecnologia, l’approccio si deve necessariamente muovere non solo sul piano degli standard, di per sé essenziali sia che si tratti di standard de jure che de facto, ma anche su quello della concretezza. In sostanza ci si deve chiedere quali sono le possibilità realmente praticabili che vedono gli standard esistenti concretizzati in soluzioni ed apparati utilizzabili per il passaggio dalla teoria alla pratica. Ebbene, sotto questo aspettto la situazione degli sviluppi di pattaforme vede impegnate un largo numero di società, anche se con una caratterizzazione diversa per ciò che concerne l’area di rete coperta e la tipologia degli apparati. Volendo semplificare al massimo l’approccio analitico, due sono comunque le aree in cui gli sviluppi e le tecnologie possono essere raggruppate. La prima è quella relativa ai servizi di interfaccia di reti Ethernet presso la locazione di utente, con apparati riferiti come CLE (acronimo di Customer Located Equipment, in pratica un box che viene installato presso la sede delll’utente finale). La seconda è quella relativa alle infrastrutture Ethernet per la rete di accesso e cioè tecnologie e apparati utilizzati per realizzare il trasporto di traffico Ethernet sul local loop in fibra, in rame, in Dsl o di tipo wireless o, infine, reti gigabit ethernet specifiche per l’ambito metropolitane. Nel loro insieme le tecnologie che sono già disponibili per applicazioni in queste due specifiche aree del networking pongono in concreto le basi per realizzare infrastrutture particolarmente innovative e ad alte prestazioni a commutazione di pacchetto, con una presenza di Ethernet sempre più diffusa ed uno spostamento progressivo del backbone verso protocolli quali l’IP e l’MPLS. G.S. Una presenza nutrita di produttori Come osservato nell’articolo, i produttori attivamente interessati o coinvolti nello sviluppo di soluzioni di rete o di semplici apparati basati su tecnologie Ethernet utilizzabili a livello di accesso sono numerosi e in progressiva crescita. Un’analisi fatta sempre dallo Yankee Group nel 2003, e quindi abbastanza recente, li raggruppa in tre aree, parzialmente sovrapposte, relative a tecnologie per: • Ethernet over Sonet/Sdh • Ethernet over fibre • Metro Ethernet Equipment Ovviamente la situazione reale dei produttori, soprattutto per i pricipali, non è semplicemente e schematicamente riconducibile ad una così netta suddivisione. Ad alcune società specializzate in una sola di queste aree si contrappongono, infatti, altre che sono presenti in modo trasversale in più segmenti di mercato e di aree di rete. Tra queste vi sono società quali Alcatel, Nortel, Cisco e l’israeliana RAD. Altre, come Lucent e Marconi, coprono le aree relative al trasporto di Ethernet su Sonet e su fibra. Infine, alcune, come Foundry, Riverstone ed Extreme, sono più presenti nel settore degli apparati per reti Ethernet metropolitane. Nel complesso quindi la situazione è in forte evoluzione, con tecnologie già disponibili e un coinvolgimento di produttori di primo e di secondo piano di tutto rispetto. Il che permette di affrontare il problema di che soluzione adottare a livello aziendale con qualche certezza e spazio di manovra in più. 17 NetworkiNg La dedizione enterprise di Hp Procurve Networking La società correda la propria offerta con nuovi servizi e software, per offrire soluzioni complete e garantite di sicurezza, mobilità e convergenza I risultati conseguiti negli ultimi anni da parte di Hewlett-Packard nell’ambito del networking, attraverso le soluzioni Hp Procurve, hanno proiettato la società americana tra i protagonisti assoluti del mercato delle reti. A fronte di una strategia improntata sui tre pilastri di sicurezza, mobilità e convergenza che resta invariata, la società ha ora avviato un processo indirizzato a completare la propria offerta corredando i propri prodotti di tutti gli elementi necessari alla definizione di soluzioni complete. «La divisione Hp Procurve sta ottenendo risultati in continua crescita - ha spiegato Andrea Scaietti, Country Business Manager per la divisione Procurve Networking Business - soprattutto nell’ambito dello Small and Medium Business, grazie anche al supporto dei nostri partner di canale. Abbiamo conquistato una posizione di rilevo in settori quali i prodotti di switching dove, nell’ultimo trimestre, ci siamo posizionati al secondo posto assoluto in Europa e Nord America per numero di porte spedite. Il nostro obiettivo è quello di rendere sempre più pervasiva la nostra presenza nell’ambito delle soluzioni di networking di classe enterprise e le nuove iniziative annunciate vanno in questa direzione». • Tutti i tasselli per la sicurezza in rete Hp ha, pertanto, deciso di ampliare il proprio portfolio affiancando ai propri dispositivi una nuova gamma di software, di accessori hardware e di servizi, proponendosi come fornitore unico per ogni esigenza associata alle soluzioni di sicurezza, mobilità e convergenza. 18 NetworkiNg «Ci stiamo muovendo nelle tre aree che abbiamo individuato come quelle con le maggiori prospettive due anni fa - ha continuato Scaietti - quando abbiamo definito l’architettura Adaptive EDGE. Oggi vogliamo crescere e indirizzarci verso il mercato enterprise e per fare questo è necessario poter fornire soluzioni complete. Non siamo lontani da coprire autonomamente ogni aspetto correlato a sicurezza, mobilità e convergenza». La prima soluzione resa disponibile è dedicata al mondo dell’IT Security ed è incentrata sul controllo di acceso alla rete da qualsiasi punto, sia wireless o wired. «Il punto di partenza è nell’ambito della sicurezza - ha proseguito Scaietti -. Attraverso le recenti iniziative si è deciso di implementare le soluzioni hardware dedicate a questo settore con servizi e software, in modo da fornire una soluzione di protezione a 360 gradi. Noi ci siamo sempre mossi nell’area dei prodotti dedicati alla sicurezza fornendo una gamma di feature particolari, ma per la costruzione di una soluzione completa mancavano ancora piccoli tasselli. Per esempio, nell’ambito delle soluzioni di accesso basate sul protocollo 802.1X, il client richiedeva il software supplicant che doveva essere fornito da altri vendor quali Microsoft. Grazie a questo nuovo annuncio, siamo ora in grado di fornire questo componente unitamente alle nostre macchine, con la garanzia e il supporto diretto Hp». Un altro nuovo elemento introdotto è quello della soluzione server RADIUS per l’autenticazione sicura, che dispone ora della garanzia e dell’assistenza di Hp. Il software per la sicurezza, allegato in boundle, è disponibile per gli ambienti Windows, Mac e Linux. Questa nuova iniziativa giunge in contemporanea con una rivisitazione delle modalità di erogazione del servizio, che prevede un nuovo programma indirizzato agli élite partner di Hp Procurve denominato Service Advantage Program. «Questo nuovo programma - ha spiegato Scaietti - prevede una forma di abilitazione all’erogazione del servizio da parte dei nostri partner. Una volta abilitati, questi potranno erogare servizi con il loro brand e il nostro supporto oppure come servizio a brand Hp. Vogliamo fare crescere questi partner, per noi importanti, in termini di skill e possibilità di erogare servizi di livello enterprise». • Le prossime novità nella mobilità e nella convergenza La prima soluzione annunciata riguarda la sicurezza, ma questo approccio si concretizzerà entro breve anche nell’ambito delle altre due aree che contribuiscono a definire il fulcro della strategia Hp Procurve, ovvero la mobilità e la convergenza. «La nostra roadmap prevede un nuovo annuncio a ottobre nell’ambito della mobilità - ha detto il manager di Hp - indirizzato alla realizzazione di una soluzione completa che includa, oltre all’hardware, il software di gestione, applicazioni, servizi e supporto. Nell’ambito hardware verrà anche rilasciata la nuova scheda per l’access point AP520 a standard 802.11g e una serie di nuove antenne. Per la parte di management verrà incluso il software Hp Procurve Manager Plus, in grado di operare in modalità standalone ma anche integrabile all’interno della piattaforma Open View». In ambito mobilità l’obiettivo di Hp è quello di mettere a disposizione un sistema centralizzato per la gestione contemporanea dell’infrastruttura wireless e wired, con una gestione anche delle WLAN multivendor. La società sta anche lavorando su applicazioni verticali in ambienti quali quello ospedaliero o dell’education, da coprire con soluzioni globali Hp. A livello applicativo Hp ha già reso disponibile interessanti funzioni per la mobilità quali il Vir- tual lobby, che consente di predisporre un’area di connettività wireless dedicata agli ospiti, slegata dalla rete aziendale. Un’altra funzione fondamentale riguarda la possibilità di disporre di roaming continuativo passando da una subnet IP a un’altra e anche da una tecnologia wired a una wireless. Hp sta lavorando su altre soluzioni di prossima disponibilità, che riguarderanno funzioni legate a e-mail, CRM e gestione del sales office automation. Infine, per le soluzioni nell’ambito dell’IP Telephony, Hp ha reso disponibili le schede Powerover-Ethernet per la serie 5000 e ha declinato una focalizzazione assoluta sullo standard PoE 802.3af. La soluzione di prossimo annuncio prevede, inoltre, anche l’implementazione di nuove feature avanzate di QoS. All’interno di una partnership con Mitel si inquadra, invece, la prossima integrazione di alcune caratteristiche di switching Hp sulle soluzioni della società e il supporto gestionale all’interno di Procurve Manager Plus. «Abbiamo con Mitel Networks un accordo tecnologico che non vincola nessuna delle due società - ha spiegato Scaietti -. Alcuni test comparati effettuati recentemente da Tolly Group hanno dimostrato che la qualità della voce offerta dalle soluzioni Mitel su infrastruttura Hp ProCurve è risultata la migliore. Il nostro obiettivo resta è quello di proporre una soluzione competitiva che possa essere interoperabile con soluzioni multivendor ed essere utilizzata da aziende che abbiano già fatto scelte precise nell’ambito delle soluzioni voce. L’infrastruttura alla base dei nostri switch ci permette di interoperare con altri vendor di telefonia e un altro test, effettuato sempre da Tolly Group, ha dimostrato l’interoperabilità dell’infrastruttura Hp ProCurve Networking anche con le soluzioni VoIP più diffuse di vendor quali 3Com, Avaya, Cisco, Nec e Nortel Networks». La soluzione Hp di IP telephony sarà sostenuta da una gamma di servizi, dal supporto di configurazione, installazione, manutenzione e assessment e, nella progettazione per reti VoIP, dai servizi per misurare la qualità della voce. R.F. Andrea Scaietti, Country Business Manager per la divisione Procurve Networking Business 19 NetworkiNg Il wireless 802.11 dalla a alla n Molte le varianti delle specifiche, contraddistinte da lettere dell’alfabeto. Alcune sono destinate a restare, mentre altre non sono mai decollate L a rapida diffusione delle tecnologie WLAN ha messo sotto pressione il gruppo di lavoro 802.11 dell’IEEE, che raccoglie circa 250 società e 650 membri attivi, per la definizione degli standard. Dalla pubblicazione del primo di essi molteplici sono state le varianti contraddistinte dalle diverse lettere dell’alfabeto. La variante denominata 802.11a è stata quella in grado di esaltare la velocità di banda portandola a 54 Mbps. Per ottenere questo risultato utilizza tuttavia la banda di frequenza a 5 GHz. L’802.11b è attualmente lo standard più diffuso e noto come Wi-Fi, definito dall’omonima associazione non profit indirizzata a certificare l’interoperabilità delle WLAN e che ora si riferisce anche agli standard 802.11g e 802.11a. Le specifiche 802.11d sono state messo a punto per rispondere alle normative nazionali di alcuni paesi. Le specifiche 802.11c, di fatto una modifica dell’802.1d, hanno rappresentato il tentativo di includere frame 802.11 nel MAC bridging per ottenere miglioramenti nell’ambito della QoS e delle capacità di filtro. S La variante è stata abbandonata, ma il tema della QoS per il livello MAC è stato ripreso in modo più soddisfacente con le specifiche 802.11e, pensate per introdurre nell’ambito wireless criteri di priorità indirizzati al traffico voce o video L’802.11f è la variante che definisce la capacità di roaming attraverso wireless LAN coperte mediante molteplici access point prodotti da vendor differenti mantenendo la connessione. Arriviamo così allo standard 802.11g, che attualmente sta riscuotendo grande successo. Le sue caratteristiche fondamentali sono la 20 NetworkiNg compatibilità verso il basso con l’802.11b, necessaria per la protezione degli investimenti sinora effettuati e l’implementazione di una velocità fino a 54 Mbps nel range a 2,4 GHz, grazie all’implementazione della modulazione utilizzata nello standard 802.11a. 802.11h aggiunge alcune funzioni all’802.11a per la gestione dei segnali radio a 5 GHz e la gestione di potenza per evitare interferenze con radar e satelliti nel rispetto delle normative europee. L’802.11h dispone di un “fratello gemello” siglato 802.11j adatto per la compatibilità con i regolamenti giapponesi. 802.11i rappresenta il prossimo passo nell’ambito delle garanzie di sicurezza della trasmissione wireless. Queste specifiche prevedono infatti aspetti per la gestione e distribuzione delle chiavi, la cifratura e l’autenticazione. Segnaliamo anche, in questo contesto riassuntivo, una variante pressoché sconosciuta e siglata 802.11 IR, per la comunicazione a infrarosso a 1 o 2 Mbps. Sebbene le LAN ottiche siano una realtà, seguono specifiche proprietari e non è mai stato rilasciato alcun prodotto basato su tale standard. Le specifiche 802.11k è un tentativo di uniformare le modalità con cui le versioni a, b e g riportano le condizioni della rete ad altre parti dello stack di rete e alle applicazioni, per migliorare gestione e individuazione dei guasti. Esiste anche un 802.11m, sigla con cui vengono raccolte rilasci di manutenzione per l’intera gamma 802.11 e utilizzato internamente all’IEEE. Nella rincorsa all’aumento delle prestazioni l’ultimo nato è l’802.11n pensato per portare il throughput (e non solo il data rate) fino a 100 Mbps e rendere le WLAN analoghe alle LAN switched Fast Ethernet. R.F. Un router carrier class per Cisco Systems P er festeggiare i vent’anni dalla sua fondazione, Cisco Systems ha rilasciato CRS-1 (Carrier Routing System), un nuovo router che Stefano Venturi, amministratore delegato di Cisco Systems Italy, non ha esitato a definire rivoluzionario. Lo è certamente nelle prestazioni, almeno stando ai dati forniti dal costruttore, che parlano di una capacità massima del sistema di 92 Tbps, ottenuta dalla possibilità di collegare fino a 72 scaffali, capaci di 1,2 Tbps ciascuno, con 8 switch fabric. Le prestazioni sono rese possibile dall’integrazione di processori multipli di nuova generazione, Cisco Silicon Racket Processor, realizzati in collaborazione con Ibm, ciascuno in grado di trattare 40 Gbps. Nell’occasione Venturi ha ricordato la strada percorsa in Italia, dove è presente da dieci anni e dove è diventata una realtà di circa 700 persone in cinque sedi, tra cui il laboratorio di competenza mondiale per la fotonica. Nato dalla collaborazione con i service provider, il nuovo apparato è stato dotato di un software di routing tutto nuovo, evoluzione dello storico Cisco IOS. Si tratta del Cisco IOS XR, che comprende capacità self-healing oltre che essere in grado di gestire tali volumi di traffico. Più precisamente, a detta di Cisco, il design modulare della macchina e del sotware fornisce funzionalità di contenimento e ripristino automatico degli errori, in modo che le attività del sistema possano essere attivate, interrotte e aggironate senza bisogno di un intervento manuale. Inoltre, le funzionalità di sicurezza e autodifesa riconoscono automaticamente le attività dannose, come per esempio attacchi DDoS. Secondo Cisco, il nuovo CRS-1 è stato progettato per fornire agli operatori di telecomunicazioni un sistema garantito nel tempo, in grado di conferire grande flessibilità nello sviluppo di servizi innovativi a valore aggiunto. Stefano Venturi, amministratore delegato di Cisco Systems Italy e vice president di Cisco Systems US Robotics per il wireless a 125 Mbps L e possibilità di realizzare reti wireless ad alta velocità, in cui il differenziale di prestazioni rispetto a quelle cablate risulti ulteriormente ridotto, ha fatto un consistente passo avanti con il rilascio da parte di US Robotics della versione a 125 Mbps dello standard 802.11g. Il software di upgrade dalla versione a 100 Mbps a quella a 125 Mbps è inoltre disponibile gratuitamente per chi ha acquistato versioni precedenti delle sue piattaforme wireless. “Questo annuncio è una prova concreta dell’impegno e delle ingenti risorse investite nella ricerca per fornire il meglio dei prodotti disponibili sul mercato” ha affermato commentando l’annuncio l’amministratore delegato di Us Robotics per l’Italia Maurizio Negri, che non ha nascosto come l’azienda statunitense voglia giocare un ruolo di rilievo nel mercato crescente delle reti wireless aziendali. Va osservato che la soluzione 802.11g nella nuova versione wireless Turbo è in grado di collegarsi sia con i dispositivi a 54 Mbps 802.11g che 802.11b a 22 e 11 Mbps. Peraltro, il potenziamento delle prestazioni, che permettono di ottimizzare il traffico nell’ambito di applicazioni di ufficio, si cala nella strategia di US Robotics di puntare sempre più sulle soluzioni per ambienti business, dove la velocità disponibile è uno degli elementi di scelta tra una soluzione LAN cablata ed una wireless. L’obiettivo dichiarato di US Robotics è quello di puntare sempre più sul segmento Enterprise, dopo aver raggiunto una posizione di rilevo nel segmento consumer, è confermato anche dal rilascio di un router (sigla USR8200) che ingloba funzioni di rete (routing e VPN), di firewall e di supporto di dispositivi di storage NAS tramite porte USB 2.0 e IEEE-1394 FireWire. Maurizio Negri, amministratore delegato Us Robotics in Italia 21 NetworkiNg Un futuro iSCSI per le SAN e lo storage aziendale La tecnologia si basa su IP e apre la strada alle PMI per soluzioni SAN e per un backup a basso costo basato su Ethernet e IP L Gli elementi dello stack iSCSI 22 Server e Storage a capillare diffusione di Ethernet è alla base dell’interesse di fornitori ed utilizzatori della fascia delle PMI per soluzioni SAN per Data Center basate su iSCSI. Dopo la impetuosa affermazione delle Storage Area Network (SAN) prima e delle NAS poi per la realizzazione di infrastrutture per lo storage aziendale e come substrato trasmissivo per Data Center, si intravede all’orizzonte, peraltro prossimo, una ulteriore evoluzione tecnologica, quella costituita da soluzioni basate su una comunicazione centrata sulla tecnologia iSCSI. Questo fenomeno è da osservare con molta attenzione perché potrebbe avere un impatto non trascurabile sulle modalità di realizzazione e di gestione di infrastrutture per ambienti ICT, sia sul piano delle modalità organizzative, che per quanto concerne i costi complessivi di un sistema informatico. In pratica, l’iSCSI è una soluzione di comunicazione tra dispositivi server e storage che abbina due tecnologie molto diffuse, quella basata sulla trasmissione IP e quella relativa alle interfacce SCSI. Poiché IP è oramai sinonimo (o quasi) di Lan Ethernet le potenzialità di un abbinamento tecnologico per cui lo standard SCSI utilizzi il protocollo IP per trasportare su rete Ethernet i dati da trasferire ambiente server e ambiente storage sono evidenti senza bisogno di ulteriori e approfondite spiegazioni. L’iSCSI (acronimo che sta per il chilometrico: Internet Small Computer Systems Interface), è un protocollo che permette di abbinare IP con il mondo dello storage facendo leva sulla velocità delle reti Ethernet e aprendo la strada a realizzazioni ad alta velocità, sino ad ora prerogativa assoluta di SAN basate su fibra ottica e standard Fibre Channel. L’iSCSI permette il trasporto di blocchi dati da utente finale a utente finale, e cioè da server a dispositivo di storage e viceversa. In sostanza è una specie di livello 4 (quello di trasporto) del mondo OSI, anche se è specializzato per l’ambiente IT. Quello che lo rende particolarmente interessante è però un fenomeno indotto da due fattori, e cioè l’alta velocità oramai ragApplicazioni giungibile con Ethernet, dove back-bone Sistema Operativo a più Gigabit cominComandi SCSI ciano ad essere diffusi e lo standard a 10 iSCSI Gigabit sta avendo una diffusione conTCP creta per la connessione a reti metroIP politane ottiche. • Verso lo storage IP È proprio l’alta velocità disponibile su Ethernet ne lascia ipotizzare nel concreto l’utilizzo a livello aziendale anche in ambienti Data Center dove le velocità richieste sono notevoli e sino ad ora soddisfabili con soluzioni SAN più classiche, ovvero quelle di tipo Fibre Channel. Ovviamente questo è solo un aspetto delle problematiche che interessano i dati aziendali. L’altro è quello della loro salvaguardia, del back up e del ripristino in caso di guasto. È qui che un approccio tecnologico basato su iSCSI potrebbe trovare un ulteriore elemento per la sua accettazione e diffusione. La disponibilità di portanti ottiche metropolitane a 10 Gigabit apre infatti la strada alla realizzazione di back-up remoti e di ripristino dei dati utilizzando infrastrutture pubbliche a costi accessibili, con prospettive concrete di economicità anche per la fascia delle medie e piccole aziende. Un terzo punto è che a livello aziendale verrebbe a cadere la distinzione sino ad ora esistente tra storage centralizzato SAN e storage distribuito NAS, che, a prescindere da altri aspetti, finirebbero con l’operare sulla medesima infrastruttura di rete di base, quella IP, locale o geografica che sia. In pratica, dalla interconnessione ad alta velocità a livello di Data Center sino alla unità di storage più remota si apre la strada ad utilizzare una soluzione di trasporto in rete praticamente universale, ben conosciuta e dove la disponibilità di personale di supporto è ampiamente diffusa in quasi tutte le aziende, perlomeno dove l’informatizzazione non è ai minimi termini. Storage IP (Lan, MAN, SAN) Storage • Protocollo iSCSI • Protocollo TcpIp • xxxxxxxxxxxxx Network • 1-XX Gigabit • gridline unificata della banda LAN-SAN • back up xxxxxx • Dalla rete al back-up L’aspetto del costo della rete e del livello di conoscenza (che è decisamente più diffuso per Ethernet ed IP che per il Fibre Channel) non deve però far trascurare la problematica connessa alla capacità elaborativa richiesta da applicazioni SAN e nell’ambito del back-up. La velocità che caratterizza tipicamente le SAN richiede infatti soluzioni di storage (e server) che siano in grado di gestire flussi elevatissimi di dati, cosa che implica una capacità di elaborazione che non si riscontra in soluzioni che sino ad ora non fossero specializzate e con un corrispondente elevato prezzo di entry point. In parole povere, disporre della possibilità di trasmettere su una rete Ethernet IP (a 10 Gigabit) se poi le piattaforme di information technology di cui si dispone non sono in grado di far fronte alle dimensioni del flusso trasmissivo necessario vuol dire gettare i propri investimenti o perlomeno usarli con un rendimento ridotto. E’ pur vero che le piattaforme per apparati di storage e di elaborazione stanno evolvendo verso soluzioni multiprocessore, ma queste soluzioni sono pensate per migliorare le caratteristiche applicative e non appare vantaggioso usarle per la gestione di un protocollo di rete. • Una transizione basata su schede Quella che si prospetta essere la soluzione che verrà (ed in alcuni casi lo è già) adottata è costituita dall’incorporazione su firmware delle funzioni corrispondenti a quanto previsto dallo standard iSCSi (per esempio incorporando la funzione sulla scheda di interfaccia), in modo da lasciare intatta o quasi la capacità elaborativa, che può così essere usata in toto per gestire l’applicazione e le funzioni di storage. In una seconda fase della sua diffusione è probabile che questo tipo di interfaccia finisca, come è già avvenuto per Ethernet o la connessione via modem), con l’essere incorporata nelle piattaforme IT in modo nativo. Quella che però appare la strada da subito percorribile è costituita da schede da inserire nei server e nei dispositivi storage , facendoli diventare a tutti gli effetti, degli end user iSCSI. Una soluzione che è già praticabile e che presenta il notevole vantaggio di permettere una prima migrazione della base installata e la realizzazione di impianti pilota che permettano di fare delle valutazioni reali prima di procedere sull’intero ambito della infrastruttura ICT aziendale. G.S. iSCSI come elemento integratore di storage e rete aziendale 23 Server e Storage Lo storage è più semplice con Acer Storage Centre Software La soluzione della casa taiwanese fornisce un insieme di funzionalità avanzate, dal backup alla virtualizzazione, per la gestione centralizzata Q uotidianamente, in azienda, si accede ai dati immagazzinati su un supporto mediatico, utilizzandoli per i più svariati scopi. Dietro questa semplice operazione si cela una complessità non indifferente, d’importanza vitale per l’azienda stessa. Acer fornisce l’hardware necessario, server e storage, per memorizzare i dati e renderli disponibili anche remotamente attraverso una rete, ma tutto questo sarebbe inutile senza i servizi di storage, che concretizzano tale disponibilità. Di più, secondo la multinazionale taiwanese, tutto lo storage networking deve la propria ragione d’essere agli storage service e, senza un’infrastruttura software solida, nessuna piattaforma di memorizzazione potrebbe esprimere il massimo del proprio potenziale. Acer, per questo, ha realizzato il sistema Acer Storage Centre equipaggiato con un potente software atto a erogare i vari servizi di storage che, di fatto, costituiscono la soluzione. La casa asiatica fornisce il sistema completo, ma Acer Storage Centre (ASC) Software è disponibile anche per l’installazione su un server. Il meglio di sé l’ASC lo fornisce in ambienti eterogenei (è indipendente dal sistema operativo e permette la gestione di SAN, NAS e traffico IP), dove può svolgere un ruolo fondamentale nell’ottimizzazione delle risorse storage. In altre parole, ASC Software risponde, stando alle dichiarazioni dei responsabili di Acer, alle esigenze delle imprese moderne che necessitano di alta disponibilità dei dati, gestione centralizzata dello storage, massimizzazione dello sfruttamento della capacità, miglioramento delle prestazioni di I/O, accelerazione dei backup e un recovery dei dati più veloce. 24 Server e Storage • Le sfide rivolte agli ambienti storage moderni Come hanno concluso i ricercatori Acer, gli attuali sistemi di storage devono fronteggiare una complessità di gestione crescente. Le difficoltà sorgono soprattutto a causa dell’eterogeneità degli ambienti, ma anche per via delle forti pressioni che arrivano dai vari dipartimenti aziendali, per i quali le informazioni sono vitali. Ma non basta che il dato non sia né perso né danneggiato, deve anche essere sempre disponibile. A questo si aggiungono problemi di non inferiore entità nelle aziende costrette, in particolare oggi, a contenere i costi. Malfunzionamenti, perdita dei dati, sottoutilizzo della capacità di memorizzazione, carico di lavoro eccessivo, mancanza di un piano di disaster recovery, vincoli proprietari sui prodotti, obsolescenza dell’hardware, limiti di connettività, mancanza di servizi storage, inadeguatezza delle prestazioni, finestre per il backup sempre più strette, sovradimensionamento degli acquisti di storage e, anche come conseguenza di tutto ciò unitamente alle difficoltà di gestione già menzionate, un alto total cost of ownership. Sono queste le sfide che gli IT manager sono costretti a raccogliere quotidianamente in termini di storage, secondo la sintesi messa a punto dalle indagini di Acer. A loro, quindi, la società taiwanese mette a disposizione le caratteristiche della versione 4.0 di Acer Storage Centre. ASC 4.0 è un insieme completo di soluzioni per l’infrastruttura di network storage, messe a punto dalla divisione software di Acer, che permette di eliminare la complessità e i costi di gestione dello storage, fornendo infrastrutture SAN e NAS e storage avanzato di classe enterprise, sia per ambienti storage in rete sia direct attached, sotto un sistema unificato di gestione per Fibre Channel e IP. Questa visione continua e integrata dello storage è resa possibile e ancora più semplice, grazie a un software di virtualizzazione, ma questo non è necessario. Laddove, l’utilizzatore volesse mantenere una maggior distinzione e, soprattutto, non volesse modificare nulla della propria struttura di dati e di file system, ASC consente di realizzare comunque una gestione centralizzata e integrata, tramite l’opzione Storage Service Enabler. • I benefici dell’ASC In termini generali, i benefici derivanti dall’utilizzo di ASC sono la business continuity (garantita da una protezione end-to-end dell’hardware e del software, che pone la dovuta attenzione alla “congiunzioni” critiche dei sistemi), il disaster recovery (con supporto di connessioni in Fibre Channel sia in remoto sia localmente), il consolidamento e l’accelerazione del backup, la storage consolidation e l’ottimizzazione delle prestazioni. Queste ultime sono migliorate grazie all’impiego di tecnologie, quali: multi-pathing, load balancing, caching, striping dei dischi e un accesso rapido ai dati più utilizzati. Molto importanti i miglioramenti che ASC fornisce in termini di prestazioni del backup, soprattutto svincolando lo stesso dall’esecuzione in finestre temporali fisse, che ormai rappresentano più un vincolo che un’opportunità. Si pensi, per esempio, a come si va estendendo sulle intere 24 ore l’operatività delle imprese, un po’ per la globalizzazione e un po’ per le naturali oggettività di business. ASC accelera il backup e il restore verso tutti i tipi di supporto (dischi e nastri o anche verso virtual tape su disco). Oltre a svincolare dalle finestre temporali il backup, Acer ha pensato bene di concentrarsi sui tempi di ripristino, che spesso fanno la differenza tra questi tipi di sistemi. • Il management abbassa i costi Secondo uno studio Acer, rispetto a una soluzione con direct attached storage e una basata su SAN, si può notare già una riduzione del TCO di oltre il 50%, ma è grazie all’adozione di ASC che si manifesta un ulteriore riduzione dei costi che complessivamente si attestato su un valore pari a un terzo della soluzione DAS. Questo consente ovviamente di migliorare significativamente il ROI di tale sistema, anche grazie all’ampio set di funzioni che vengono fornite, tra cui mirroring sincrono dei dati, replicazione remota, capacity on demand, time mark e altri. Per gestirle, gli sviluppatori Acer hanno realizzato una console unica di amministrazione, basata su un’interfaccia Java. Il consolidamento di server e risorse storage consente di ottimizzare notevolmente i costi, anche perché si ottimizza l’uso della capacità di memoria. Questa può facilmente essere estesa, grazie alle funzionalità che consentono di vedere tutti gli ambienti eterogenei come un unico sistema e di aggiungerne altri, siano essi pure SAN o NAS. Tra le altre caratteristiche, si segnalano anche: l’opzione SanBridge, che lega isole San separate in un univoco sistema IP, e la capacity on demand. Chi la sceglie potrà eliminare i malfunzionamenti attraverso uno storage provisioning automatico e policy based. GDB Acer Storage Centre centralizza la gestione di ambienti storage eterogenei 25 Server e Storage Apple abbassa il costo dello storage multipiattaforma Attraverso Xserve RAID, la società della mela propone una soluzione storage scalabile adatta per gli ambienti Mac, Windows, Linux e Novell L L’architettura del sistema storage a disco proposto da Apple 26 Server e Storage e esigenze nell’ambito delle soluzioni storage sono sempre più indirizzate verso la ricerca di un miglioramento del rapporto tra prezzo e prestazioni, nel rispetto della flessibilità e della garanzia di scalabilità. Attraverso Xserve RAID, Apple risponde a queste richieste proponendo una soluzione di storage a disco scalabile, adatta a far fronte alle esigenze di condivisione di documenti, stampa, gestione delle postazioni, Web e media streaming, nonché per il cluster computazionale. La soluzione Apple si indirizza ad aziende di diversa dimensione, grazie alla sue caratteristiche di scalabilità che consentono di disporre di una capacità storage di fino a 3,5 Tbyte all’interno di un unico sistema di dimensione estremamente contenute (3U), ottimizzato per il montaggio su rack. La possibilità di connettere tra loro diversi sistemi Xserve RAID, all’interno di un rack standard 42U, consente poi di arrivare a una capacità masssima complessiva per singolo rack di 49 Tbyte. Un’importante caratteristica del sistema storage realizzato da Apple è la sua capacità di adattarsi ad ambienti operativi eterogenei. È, infatti, in grado di operare con Mac OS X Server, ma anche con server basati su Windows, Linux e Novell aprendo interessanti opportunità rispetto all’aggiunta di dati Exchange o di archiviazione in cluster. • Un’architettura per alte prestazioni e basso costo Per la realizzazione di questo sistema storage, Apple ha deciso di allontanarsi dalla scelta tradizionale dei dischi rigidi Fiber Channel, seguendo una strada indirizzata a mantenere elevate prestazioni, ma costi particolarmente contenuti. Il sistema Apple adotta, pertanto, una nuova architettura di sistema multi-threaded basata sull’interazione tra le tecnologie Ultra ATA e Fiber Channel. All’interno dell’Apple Xserve RAID possono essere inseriti fino a 14 Apple Drive Module hot-swappable a 7200, rpm ognuno dei quail dispone di un canale Ultra ATA dedicato per la connessione a un midplane passivo, collegato a sua volta all’unità di elaborazione RAID. La presenza di questo canale ATA dedicato evita possibili congestioni del traffico dati ed elimina, inoltre, l’interdipendenza tra i dischi; in questo modo, nel caso in cui si verifichi un guasto su un disco, questo non determina alcuna influenza sull’accessibilità o le prestazione degli altri. Pertanto, l’aggiunta di nuove unità Apple Drive Module, espande non solo la capacità del sistema, ma anche le prestazioni. Xserve RAID comprende porte due porte indipendenti Fibre Channel a 2 Gbps per un trasporto dei dati ad alta velocità tra il siste- ma storage e l’host, ognuna delle quali garantisce un’ampiezza di banda di 200 Mbps per un throughput totale fino a 400 Mbps. Grazie a queste prestazioni il computer host è in grado di ricevere i dati alla medesima velocità con cui il sistema RAID li invia. Per la connettività a lunga distanza l’Xserve RAID si avvale di connettori SFP (Small Formfactor Pluggable) che garantiscono una maggiore flessibilità di deployment all’interno di infrastrutture in fibra ottica o in rame. Grazie a queste scelte tecnologiche, alla dispnibilità di servizi integrati, Xserve RAID realizza, secondo quanto dichiarato dalla società, il migliore rapporto qualità/prezzo nel panorama dell’archiviazione RAID esterna, fornendo 3,5 Tbyte di archiviazione a elevate prestazioni a poco più di $3 per Gbyte. Apple ne suggeruisce, pertanto, l’utilizzo anche come una possibile alternativa ai sistemi NAS (Network Attached Storage), in conbinazione con Xserve G5. • Le funzioni per l’affidabilità e la gestione Xserve RAID è studiato per operare in condizioni che richiedono alta disponibilità e, pertanto, adotta un design modulare caratterizzato da moduli di alimentazione e di raffreddamento hot-swappable e ridondanti. Il sistema storage di Apple supporta i livelli RAID 0, 1, 0+1, 3 e 5 utilizzando un processore hardware RAID, nonché i livelli 10, 30 e 50 combinando le funzionalità RAID hardware con il software RAID presente in Mac OS X. È anche possibile creare più volumi di archiviazione su Xserve RAID e utilizzare la funzionalità di mappatura LUN incorporata, per offrire archiviazione dedicata, fino ad un massimo di 36 sistemi diversi, a seconda della configurazione. Xserve RAID è fornito da Apple con il software di gestione RAID Admin che semplifica il setup e il monitoraggio dei volumi storage, per tutti i sistemi che supportano Java. Nel caso di guasto di un componente, il sistema di monitoraggio lo notifica immediatamente all’ammi- nistratore, rendendo rapidi i tempi di intervento e riparazione. Ciascun controller di Xserve RAID utilizza un coprocessore di gestione ambientale per monitorare e gestire le condizioni del set RAID e dello chassis, anche attraverso l’analisi automatica dei dati SMART (Self-Monitoring, Analysis, Reporting Technology) provenienti da ciascun disco rigido. Apple Xserve RAID Grazie all’utility RAID Admin è possibile utilizzare il coprocessore di gestione ambientale per creare all’istante diversi set RAID, senza attese dovute al processo di inizializzazione. L’applicazione RAID Admin è scritta interamente in Java e questo consente di monitorare e gestire il sistema RAID da qualsiasi computer (e quindi non necessariamente Mac) attraverso il protocollo TCP/IP. La gestione on-site è, invece, facilitata dalla presenza di una serie di indicatori luminosi collocati sul display frontale che permettono di controllare a colpo d’occhio lo stato del sistema di raffreddamento, dei controller RAID e della chiusura dello chassis. Il sistema prevede anche 48 led che mostrano i livelli di attività per ciascun canale host e di spie che indicano lo stato della connessione Fibre Channel. Il sistema Xserve RAID è supportato da Apple atraverso l’AppleCare Premium Service and Support Plan che fornisce consulenze telefoniche qualificate 24 ore su 24, 7 giorni su 7, e risposte ai quesiti via e-mail entro 30 minuti. L’assistenza hardware è garantita presso la sede dell’utente entro 4 ore dalla chiamata, se effettuata all’interno dell’orario lavorativo, oppure il giorno successivo nel caso in cui venga effettuata oltre tale orario. R.F. 27 Server e Storage Whirlpool Europe gestisce lo storage con BrighStor Srm di CA Grazie alla soluzione di Computer Associates il gigante degli elettrodomestici ha dimezzato i tempi di gestione di risorse e backup W hirlpool Europe ha scelto la soluzione BrighStor Storage Resource Manager di Computer Associates per ottimizzare la gestione delle risorse e del backup. Tra fabbriche, sedi distaccate e uffici commerciali, Whirlpool è presente in Europa con oltre 60 insediamenti, che potrebbero aumentare, vista la spinta propulsiva nell’Est del Vecchio Continente messa in atto dai vertici della società. Tutte le sedi di Whirlpool Europe, con l’eccezione degli uffici più recenti costituiti ancora da pochissime figure commerciali, sono collegate in rete attraverso un’infrastruttura Frame Relay. • Il consolidamento del Data Center Corporate Tradizionalmente molto oculata e attenta negli investimenti, Whirlpool ha avviato un processo di consolidamento delle attività di supporto infrastruttura nel Data Center Corporate. Questa attività, assieme alla necessità di standardizzare i processi di supporto e lo svincolarsi dalla locazione fisica dalla quale quest’ultimo viene erogata, ha creato la neces- 28 Server e Storage sità di implementare una soluzione che permetta di monitorare in modo semplice l’operatività di tutti i server (NT e Novell) implementati in Europa. Whirlpool Europe, dopo aver analizzato le diverse soluzioni disponibili sul mercato, ha deciso di implementare BrightStor SRM (Storage Resource Manager). In questo modo si sono protetti gli investimenti già fatti sul prodotto BrightStor ARCserve sempre di Computer Associates . Il primo requisito, infatti, "era quello di uniformare la gestione, in particolare del backup, sotto un’unica console, che si interfacciasse anche con il sistema TSM di IBM. Il tutto nell’ottica di ridurre al massimo i tempi", come ha dichiarato il Responsabile Shared Technology Services di Whirlpool Europe. • L’importanza della flessibilità di integrazione BrightStor SRM di CA è stata considerata la soluzione più indicata per conseguire gli obiettivi prefissati. Lo strumento, infatti, è in grado di raccogliere in un unico punto centrale le informazioni di storage provenienti da differenti sistemi. In particolare, la soluzione implementata si basa sull’opzione “SRM” di BrightStor per NetWare. L’elevata capacità d’integrazione della piattaforma è stata sfruttata dal team di CA che ha seguito Whirlpool nell’installazione e configurazione della soluzione. Il contratto prevedeva infatti 20 giorni-uomo per l’implementazione, ma le due società hanno ritenuto di dilungarli nell’arco di più mesi, per consentire allo staff Whirlpool di seguire le proprie esigenze di produzione. Una disponibilità e flessibilità molto apprezzata, che ha così potuto ottimizzare l’impegno delle proprie risorse umane e minimizzare l’impatto dell’introduzione del nuovo sistema in produzione. L’architettura di BrightStor SRM prevede, tra gli altri, tre componenti particolarmente importanti per il progetto in questione. Più precisamente, Application Server SRM è il manager del sistema che realizza tutte le funzioni di gestione e amministrazione e comprende l’interfaccia grafica, la console di monitoraggio e il database in cui vengono memorizzati i dati. Questi sono raccolti dall’Agent, che, all’occorrenza, viene attivato dall’Application Server per controllare l’occupazione di storage sulle macchine in osservazione. I dati raccolti, quindi, vengono elaborati, correlati, organizzati e aggregati dall’Application Manager attraverso i Launcher, che svolgono tali attività, chiamate job, a orari prefissati o ciclicamente, secondo una pianificazione programmabile dall’Application Server. • Dimezzati i tempi di gestione Le capacità di raccolta dati e di visualizzazione logica degli stessi in tempo reale permettono al gruppo Midrange di Whirpool di avere immediatamente sotto controllo tutte le risorse e tutti i processi di backup, ottimizzando soprattutto i tempi della gestione. "Di fatto riusciamo a risparmiare il 50% del tempo, grazie alle funzionalità automatiche della soluzione e all’unificazione degli strumenti di backup sotto un’unica console". Il responsabile del gruppo Midrange ha poi aggiunto: "Dedicando metà tempo all’analisi dei problemi ci si può dedicare al più importante lavoro sistemistico di progettazione e pianificazione". Particolarmente apprezzata, da questo punto di vista, anche la ricca capacità di reportistica che consente di utilizzare i dati raccolti anche per successive fasi di analisi. La soluzione di Computer Associates, inoltre, consente anche di ridurre i tempi di intervento del personale di Production Support. "Si tratta di addetti poco esperti di informatica, Un colosso degli elettrodomestici Whirlpool Corporation è uno specialista mondiale della produzione e vendita di elettrodomestici, con un giro di affari annuo di oltre 11 miliardi di dollari. La società conta circa 68.000 dipendenti a livello mondiale, di cui 14.000 in Europa, e approssimativamente 50 fabbriche e centri di ricerca e sviluppo nel mondo. Nella storica sede della Ignis a Comerio, in provincia di Varese, si trova il quartier generale europeo. Whirlpool Europe è diventata una società posseduta da Whirlpool Corporation nel luglio del 1991, dopo l’acquisizione da parte della casa madre del 100% della joint venture che era stata costituita nel 1989 con Philips. Attualmente la presenza nel Vecchio Continente, che serve anche il Medio Oriente, l’Africa e la regione Asia Pacific, si è consolidata portando Whirlpool al terzo posto del mercato di elettrodomestici, con un fatturato 2002 di 2,2 miliardi di dollari e un profitto operativo di 81 milioni di dollari, e portando il proprio marchio Whirlpool a essere il più diffuso in Europa. Undici le fabbriche nel Vecchio Continente, di cui cinque in Italia, comprese quelle di Cassinetta (Varese) che funge anche da centro logistico e da centro di competenza tecnologica per la refrigerazione e la cucina. Contando, peraltro, anche sedi distaccate e uffici commerciali, Whirlpool Europe arriva a contare oltre 60 insediamenti, manifestando una particolare spinta propulsiva nell’Est del Continente. Per gestire l’IT della società, Whirlpool ha costituito un’organizzazione mondiale che fa capo agli Stati Uniti. In Europa, tale organizzazione conta circa 120 persone (pari a un quinto del totale), di cui il 90% è situato a Comerio e il resto dislocato nelle varie sedi, per lo più presso i siti produttivi e gli uffici principali. responsabili 24 ore su 24 della produzione, che - grazie all’intuitività dell’interfaccia grafica - possono immediatamente verificare se ci sono problemi e intervenire rapidamente, evitando interruzioni dei processi". La capacità di sviluppo delle viste logiche è fortemente alimentata da quella d’integrazione dei mondi sottostanti. È proprio questa caratteristica che consente a Whirlpool di ottimizzare i tempi di gestione, potendo avere sotto controllo tutti i server, pur di ambienti diversi, in un’unica vista. Attualmente, il progetto è stato completato ed è in produzione, con BrightStor Storage Resource Manager installato in 22 sedi. Man mano, seguendo l’evoluzione della struttura di Whirlpool, in particolare con gli sviluppi nell’Est europeo, l’utilizzo del prodotto sarà esteso ad altre sedi. G.D.B. 29 Server e Storage Da DELL lo storage per le PMI e le realtà dipartimentali Dell ha aggiunto al suo portafoglio per lo storage una soluzione low entry per le piccole imprese. Il parere di Kevin Rollins, President di Dell L Kevin Rollins a soluzione, che espande verso il basso le caratteristiche della sua linea CX, è orientata a coprire le esigenze di storage di aziende di fascia medio/bassa, con un rapporto prezzo/prestazioni che al momento, ha affermato Kevin Rollins, President e Chief Operating Officer di Dell, non ha confronti sul mercato. Il rilascio si riferisce ad un nuovo array con una capacità di storage di sino a 3 TB che deriva dall’accordo con EMC e che è utilizzabile sia in configurazione DAS che SAN. A Kevin Rollins abbiamo chiesto quale è la situazione attuale ed il ruolo che il segmento Business ha assunto nei piani di espansione della società. Q: Dell ha visto crescere il volume dei prodotti consegnati nell’ultimo trimestre del 25% rispetto a quello dello scorso anno. Quanto di questo incremento deriva da prodotti consolidati , quali desktop e notebook, e quanto da soluzioni risultato di accordi con altri produttori come EMC? A: La maggior parte della crescita in volume è dovuta al segmento PC. Se consideriamo però la crescita in revenue e non in ter- 30 Server e Storage mini di unità questa è data dalle soluzioni Enterprise. Una considerazione da fare è dove vi sia più profitto e in tal senso il segmento consumer non presenta categorie che abbiano margini consistenti. Al contrario, il mercato delle istituzioni e del corporate è invece molto più interessante, e profittevole. Q:Tredici trimestri consecutivi di crescita o di tenuta in un periodo di criticità è un risultato notevole. Quali sono i motivi che ne stanno alla base? A: Penso che il modello di business di Dell sia realmente alla base di questi risultati, offrendo più valore a prezzi più bassi, miglior qualità, più contatti col cliente. Il modello diretto ci permette di avere un contatto quotidiano con i nostri clienti. Altri produttori vendono attraverso reseller o altre società. Questo può portare a minor efficienza e al fatto che l’informazione tra il cliente e il produttore viene intermediata. Con il nostro approccio noi recepiamo le esigenze del cliente molto rapidamente, cambiando l’offerta, adeguando i prodotti ed i prezzi quasi istantaneamente. La vicinanza al cliente è l’elemento chiave del modello diretto di Dell e ci permette di reagire molto rapidamente alle esigenze del mercato. Q: Nell’ultimo anno Dell ha accentuato lo spostamento dalla fornitura di prodotti a quella di soluzioni, specialmente per il segmento Enterprise. Che problemi avete dovuto affrontare consideran- do che è un approccio per voi tutto sommato non familiare? A:Tradizionalmente proporre soluzioni è sempre stato molto complicato, perché generalmente erano proprietarie, con forti esigenze di personalizzazione e costi per il cliente elevati. Nel muovere verso la proposta di soluzioni noi abbiamo scelto di farlo basandoci sugli standard di mercato. Ad esempio, abbiamo scelto di implementare server basati sullo standard Intel e non Unix, di adottare Microsoft o Linux invece di sistemi più sofisticati e specializzati. Questo approccio ha contribuito ad abbassare il costo delle piattaforme e reso le soluzioni più facili da gestire e decisamente meno costose. Proprio nello stesso momento in cui abbiamo iniziato a muoverci verso le soluzioni, l’industria ha avviato un consistente processo di standardizzazione, cosa che ci ha reso possibile proporre soluzioni a costo più basso e che sono più facili da adottare. I clienti hanno scelto di andare in questa direzione perché hanno recepito che così facendo possono risparmiare consistentemente sugli investimenti. Q: Ma la vostra strategia basata sugli standard è quindi più una opportunità o una visione di lungo termine? A: La strategia basata sugli standard è del tutto consistente con il nostro modello di business. Ogni volta che osserviamo una categoria di prodotto muovere verso standard di mercato quella è una categoria che entra nell’interesse di Dell, in cui entrare, ridurne i prezzi e, in definitiva, portarci a guidarne standardizzazione e mercato. Un tale approccio ci risulta renda molto soddisfatti i clienti. Q: L’annuncio dell’AX100 mi sembra che, per prezzi e segmento di clienti target rientri in un nuovo mercato. Come inserirlo nella strategia di Dell? A: Dipende da cosa si intende per mercato consolidato. Anche se non siamo i primi ad AX100, una soluzione storage per le piccole imprese e per le realtà dipartimentali Il rilascio dell’AX100 da parte di Dell, un prodotto che deriva dalla sua partnership con EMC, ha l’obiettivo di far entrare la società nel settore dello storage per le Piccole Imprese e per le realtà dipartimentali con una soluzione attraente sotto il profilo economico e caratterizzata da un livello di espandibilità pensato espressamente per le PMI. L’AX100 è un apparato di storage fornito in versione entry-level come soluzione DAS ma già predisposto per poter evolvere verso configurazioni SAN. Ha una memoria di storage che parte da 480 GB e che può essere espansa sino a 3 TB. Un altro aspetto saliente nella strategia di prodotto volta a minimizzarne i costi è la dotazione di tool software che, secondo Dell, permettono di configurare il prodotto in breve tempo e senza conoscenze particolari con una modalità guidata da appositi wizard. La soluzione per lo storage contiene il software necessario per l’installazione, la gestione , il failover automatico e per il backup dei dati. Sulla piattaforma Dell ha reso disponibili anche funzioni di ridondanza tipiche di soluzioni di fascia superiore, che comprendono dual controller e mirrored cache. L’AX100 viene anche proposto all’interno di una soluzione SAN in “bundle” che comprende l’AX100 con sino a due controller e sino a 12 drive SATA (storage sino a 3TB), il software di gestione, failover e snapshot, uno switch Silkworm a 8 porte di Brocade, HBA di Qlogic nonché il supporto di Microsoft Windows, Linux e Novel Netware. Dell/EMC AX100 è già disponibile per configurazioni DAS (SAN-ready) a un prezzo a partire da _4.999 e a _8.499 per le configurazioni SAN. Dell produce questa linea di apparati nelle proprie fabbriche in USA, Irlanda e Malesia entrare in un mercato, usualmente però lo facciamo apportandovi idee innovative. Ad esempio, come ha detto, oggi annunciamo un nuovo prodotto per lo storage, l’AX100. Siamo la prima società ad annunciare un prodotto di questo livello, di queste caratteristiche . E’ un prodotto per SAN che venderemo al di sotto di 10.000 $, un prezzo mai sentito prima e che in configurazione DAS scende sotto i 5000 $. Questo approccio innovativo permette di portare tecnologie molto sofisticate all’utilizzatore anche di fascia delle PMI. Per me questo è un esempio di entrata in un nuovo mercato, che poi è quello dello storage low-end e mid-range. Ci aspettiamo che il prodotto abbia molto successo e che altri venditori finiranno con il seguirci. G.S. 31 Server e Storage EMC: una strategia centrata sull’ILM e sull’open software Dopo un’intensa fase di acquisizioni e di rinnovo tecnologico la società consolida la propria presenza nel software per lo storage C onsolidamento, gestione dei dati, ottimizzazione delle risorse sono tutti termini che i responsabili ICT sentono spesso citare. Soprattutto in occasione delle riunioni di budget. Dei loro budget. Passare dalla teoria alla pratica richiede però un approccio che abbini diversi fattori, che vanno dall’esigenza di disporre di piattaforme con capacità elaborative superiori, intelligenza intrinseca e la possibilità di supportare contesti aperti in termine di sistemi operativi ed ambienti di lavoro. Un esempio di strategia volta a rispondere nel concreto a queste esigenze è quella avviata da EMC nel corso dello scorso anno e della prima parte del 2004. L’approccio seguito dalla società è paradigmatica di come i maggiori produttori di soluzioni di storage ritengano come non sia più sufficiente concentrarsi esclusivamente su apparati potenti per far fronte alle richieste delle aziende. La risposta alle esigenze delle aziende in un quadro come quello attuale, caratterizzato da forte crescita dei volumi di dati da gestire e da archiviare in base a specifiche norme di settore e nazionali, richiede infatti anche una sofisticata capacità di analisi e di conoscenza che portano a valorizzare sempre più anche l’aspetto ingegneristico e la conoscenza profonda dei processi applicativi. • Una proiezione verso l’ILM e i sistemi aperti Il punto di partenza della strategia che ha caratterizzato le recenti mosse di EMC è il 32 Server e Storage rafforzamento della sua piattaforma, che ha visto prima il rilascio dell’architettura a matrice DMX e poi l’aggiornamento delle soluzioni per il networked storage, con i CLARiiON CX300/500/700. A questo è seguito l’ultimo annuncio in contemporanea con Dell e Fujitsu Siemens, tra i principali partner OEM di EMC, relativo alla sua soluzione low entry AX100, che rappresenta il modello entry-level della famiglia CLARiiON e pensato espressamente per applicazioni nella gamma delle piccole e medie aziende. EMC ha poi reso disponibile anche la soluzione Centera per la gestione dei fixed content, un altro, quest’ultimo, dei settori emergenti che stanno raccogliendo un crescente interesse da parte del mondo ICT per la semplificazione che porta nella gestione di informazioni di tipo statico. Sulle prestazioni dei suoi nuovi rilasci e sviluppi architetturali la società ha puntato per rafforzarsi nei settori emergenti dell’ILM e della gestione dei contenuti, che peraltro trovano il punto saliente in una gamma di soluzioni tecnologiche che propone anche attraverso partner qualificati e molto aggressivi, come è il caso di Dell. Con quest’ultima società ha in essere un accordo di lungo termine per lo sviluppo, la produzione e la proposta congiunta di soluzioni, recentemente esteso sino al 2008. Come accennato, il suo rafforzamento nelle piattaforme, nelle architetture e nelle alleanze è stato solo il suo primo passo in una strategia che l’ha vista poi sviluppare una fase di acquisizioni mirate che, anche se portano come spesso succede, problemi di integrazione e di razionalizzazione nella proposta commerciale, l’hanno in breve tempo trasformata da un fornitore spostato verso l’hardware in un fornitore con un efficace bilanciamento tra hardware, software e servizi, che poi è quello che chiedono gli utilizzatori finali alle prese con sistemi informatici caratterizzati da una complessità crescente, sia realizzativa che gestionale. • Le prospettive della politica di acquisizioni La politica di acquisizioni che EMC ha condotto in porto nell’ultimo anno è in effetti il vero atout che la società ha giocato in un momento in cui diversi eventi internazionali e il raffreddarsi, per essere eufemistici, di mercati importanti per lo storage, ad esempio quello dei operatori di telecomunicazione, hanno implicato un rallentare del tasso di crescita che aveva caratterizzato il settore. Il risultato di questa politica è che ora EMC si viene a trovare tra gli attori della scena mondiale del software, con un fatturato di circa un miliardo e mezzo di dollari che la pone tra i primi 10 software vendor mondiali. Questo “spostamento” di ruolo la pone in una condizione che per la società e i suoi clienti appare molto innovativa e cioè di fornitore di software di infrastruttura integrato da una missione sempre più “a valore”. Secondo il management della società una tale evoluzione è indispensabile per rispondere all’esigenza delle aziende, nella convinzione che i processi information-centric richiedono una sempre più stretta sinergia con gli aspetti applicativi legati alla gestione dell’informazione, alla sua protezione, al suo accesso e relativa condivisione. E’ in base a questo assunto che si è sviluppata la sua strategia di acquisizioni nel software, che l’ha vista mettere a segno l’acquisizione di Legato Software, di Documentum e di Vmware, in alcuni casi soffiando letteralmente la società a agguerriti concorrenti, complice in questo anche un’adeguata disponibilità di cassa. Gli obiettivi che EMC appare essersi data, in un ottica di rafforzamento della propria proposizione ai suoi clienti e di risposta alle esigenze di razionalizzazione e di virtualizzazione delle infrastrutture IT, presentano il pregio di essere semplici e precisi. Consolidare la sua offerta complessiva di soluzioni per l’Information Lifecycle Management, costituita da piattaforme, software e servizi, allargando nello stesso tempo una presenza indipendente negli specifici mercati. Va osservato infatti che la politica di EMC non sta portando ad un’integrazione delle acquisizioni all’interno di EMC stessa ma prevede che le società acquisite continuino ad operare con il proprio marchio, come aziende autonome o come divisioni indipendenti. La politica di continuità del management e della mission specifica, secondo EMC, sta dando risultati molto positivi e in alcuni casi, come quello di Vmware, persino superiori alle aspettative, complice in questo l’interesse per il software che permette di far girare sulla stessa piattaforma hardware applicazioni di ambienti operativi diversi, con il risultato di permettere un efficace consolidamento e ottimizzazione delle risorse e delle applicazioni. G.S. La visione di EMC per l’ILM La strategia per l’ILM di EMC è il risultato di un’accelerata politica di espansione. Nell’ottobre del 2003 ha acquisito Legato Software, ora una divisione di EMC, che è annoverata tra i principali fornitori mondiali di soluzioni e servizi per l’ILM, con un’offerta che comprende soluzioni per il backup e il recovery delle informazione in cross platform e che affronta gli aspetti di accesso, disponibilità e protezione dell’informazione. Come divisione software autonoma opera anche Documentum, una società specializzata nelle soluzioni di content management, ovvero della gestione, distribuzione e protezione dell’informazione in forma non strutturata, i documenti per l’appunto. Il terzo pilastro della sua strategia per il software è costituito da Vmware, nata nel 1998 per trasferire su ambienti standard le prestazioni della tecnologia delle “macchine virtuali” sviluppate per i mainframe. La sua acquisizione è la dimostrazione del crescente ruolo che EMC assegna alla virtualizzazione a livello server e storage nell’ambito della gestione dell’informazione. 33 Server e Storage Recuperare competitività attraverso l’innovazione Al Forum IT di Grandangolo le aziende evidenziano i vantaggi dell’innovazione di processo e del rapporto proattivo con il canale S Rosa Auricchio, marketing manager di StorageTek Italia 34 Server e Storage i è svolto a Reggio Calabria l’ormai tradizionale appuntamento del Forum IT, organizzato dall’agenzia Grandangolo. L’evento è stato l’occasione, da parte di una serie di vendor, per dibattere sulle modalità con cui le aziende italiane possono sfruttare le nuove tecnologie come elemento di vantaggio competitivo e per interrogarsi sul modo corretto di approcciare la clientela. Sono stati, pertanto, afffrontati una serie di temi che hanno riguardato il mondo delle soluzioni hardware, software, le modalità di veicolazione attraverso il canale e il mondo dell’integrazione dei sistemi. Si tratta, in effetti, di aspetti che i vendor tendono sempre più ad affrontare nel loro complesso, anziché separatamente, all’insegna di un approccio focalizzato sulla fornitura di soluzioni. Tra le soluzioni più orientate all’hardware, lo storage emerge come uno dei settori di traino, in cui la crisi si è fattta sentire in modo meno incisivo (o non si è fatta sentire prorio) e sempre più al centro dell’infrastruttura e dei processi di business aziendali. “Le Storage Area Network rappresentano la soluzione per colmare il divario tra prestazioni e capacità - ha affermato Tino Prato, country executive di Brocade Communications Italia -. Noi consideriamo le SAN come il punto di intersezione tra le due tendenze dell’Information Lifecycle Management e l’utility computing, su cui è necesssario far migrare sempre più le funzionalità e i servizi, per far fronte alle esigenze future”. Per rispondere a queste esigenze la società americana specializzata nelle soluzioni fabric switch, ha recentemente rilasciato un router multiprotocollo, pensato per portare le applicazioni SAN all’interno del fabric e favorire una segmentazione logica dei dati presenti su SAN distribuite. Il tema dell’ILM come elemento per ottimizzare lo sfruttamento dellle risorse di storage e recuperare competitività rappresenta anche uno dei temi centrali della strategia di StorageTek. “La chiave del successo di Storagetek è quella di presentarsi al mercato come reale solutore delle esigenze del cliente a 360° - ha detto Rosa Auricchio, marketing manager di StorageTek Italia -. Del resto, oggi le informazioni non possono più semplicemente essere gestite: occorre analizzarle, proteggerle, distribuirle e memorizzarle nel modo opportuno, rispettando i budget, non certo illimitati, delle aziende. Oggi è divenuta sempre più pressante la necessità di sfruttare a pieno l’hardware acquistato, razionalizzando gli strumenti già adottati e con verifiche puntuali sui costi delle risorse di storage, in relazione al valore dell’informazione che su di esse viene memorizzata”. Per una corretta fruizione delle informazioni, essenziale risulta anche la parte di infrastruttura. Su questo versante Roberto Daveti, product marketing manager di MRV Communications Italy, ha sottolineato l’importanza di poter disporre di sistemi in grado di consentire il trasporto di dati di qualunque tipo, su lunghe distanze, senza penalizzare le prestazioni. “Le tecnologie di tasporto ottico rappresentano la soluzione in grado di offrire le migliori doti di affidabilità e flessibilità - sostiene Daveti -. Per queste ragioni MRV Communications dal 1997 fornisce prodotti per le SAN con particolare riferimento alle soluzioni di trasporto basate su tecnologie di Wave Divi- sion Multiplexing, distance extender, media converter, optimizer basati su singola fibra e moduli con link ottici ridondanti, specificamente progettati per essere implementati in reti Fiber Channel, ESCON e FICON”. Nel non facile compito di recuperare competitività, la applicazioni software offrono ampie opportunità per una gestione automatizzata ed efficiente delle informazioni. In questo ambito l’importanza degli standard e dell’uso di XML vengono sottolineati come uno dei passaggi fondamentali per la modernizzazione di un’azienda da Fabio Carletti, amministratore delegato e direttore generale di Software AG, società che fornisce soluzioni database e software di sistema, per ambiti transazionali e orientati alle soluzioni di business basate su XML. “La tecnologia XML - ha detto Carletti - offre garanzia di maggiore produttività e ritorno degli investimenti. Inoltre la gestione di contenuti è la base su cui si sviluppa il ciclo di vita delle informazioni di un’azienda; organizzare, gestire e condividere contenuto digitale consente di aumentare l’efficacia, migliorare la qualità, ridurre i costi e aumentare la produttività”. Un altro tassello fondamentaleall’interno di questo scenario riguarda la determinazione del ROI, che viene ricordato da Franco Dama, operation manager channels EMEA di SSA Global, società specializzta nella fornitura di software ERP e di soluzioni integrate per la gestione aziendale. “Le nuove armi della competitività - ha detto Dama - sono l’nnovazione dei prodotti, il time to market, la flessibilità nel seguire le variazioni e fluttuazioni del mercato e la massima attenzione ai costi. Per dotarsi di queste “armi” le aziende sempre più spesso cercano l’aiuto della tecnologia, e l’investimento informatico viene deciso a fronte di un ROI, spesso difficile da misurare e da prevedere. SSA Global, grazie alla sua esperienza globale, è in grado di proporre una visione semplificata e concreta per la misurazione del ROI”. La sfida, lanciata soprattutto alle PMI italiane, resta comunque quella di creare valore, sfruttando le innovazioni tecnologiche all’interno di un contestuale processo di revisione dei processi aziendali. “La competitività di impresa è la capacità di offrire prodotti e servizi di qualità migliore a costi inferiori o tutt’al più uguali a quelli della concorrenza - ha detto Gian Maria Odello, amministratore delegato e direttore generale di Watermark Italy, società specialista indipendente di soluzioni ERP -. Una corretta installazione di un buon software gestionale consente di generare benefici di bilancio in attività quali il controllo di gestione, la pianificazione della produzione, la gestione dei magazzini, degli acquisti o della relazione con il cliente”. La bontà delle soluzioni IT, siano esse hardware, infrastrutturali o software non è in grado di produrre alcun valore se non è affincata da una politica commerciale efficace e affidabile. In questo senso il ruolo del canale diventa sempre più un elemento di reale differenziazione per i vendor. Le aziende intervenute al Forum IT concordano sulla necessità di qualificare il canale attraverso la costruzione di un rapporto di partnership, definendo in modo preciso e concordato gli impegni reciproci e i livelli di supporto commerciale, tecnico e di marketing. L’obiettivo è quello di instaurare una sinergia autentica, di cui il primo beneficiario diventa proprio l’utente. Un ruolo importante per completare il quadro di una ricerca di competitività che si realizza attraverso un ripensamento dei business process, è rivestito dai system integrator. “Il ruolo del system integrator deve evolvere da un approccio commerciale verso una logica consulenziale e di servizio - ha spiegato Gianpiero Bianchi, direttore marketing strategico di Tecnonet, una delle principali aziende italiane di system integration -. Il system integrator ricerca, assembla, progetta reti e sistemi con tecnologie solitamente prodotte da altri, le rende fruibili e funzionali, per poi inserirle all’interno di una proposta di prodotti e servizi e offrirle ai propri clienti. È’ un’attività che richiede aggiornamento costante e continuo, conoscenza delle reti e grandi investimenti”. R.F. Fabio Carletti, amministratore delegato e direttore generale di Software AG Gian Maria Odello, amministratore delegato e direttore generale di Watermark Italy Franco Dama, operation manager channels EMEA di SSA Global 35 Server e Storage Il wireless approda in corsia Le soluzioni mobili di Fujitsu Siemens Computers aprono nuove prospettive per la mobilità aziendale e per applicazioni innovative L a mobilità è un processo in continua espansione e virtualmente non esiste un settore industriale o applicativo che non sia sempre più permeato da tecnologie di comunicazione e di elaborazione basate su soluzioni mobili. Va però osservato che una cosa è parlare di piattaforme per la mobilità e un’altra di soluzioni per la mobilità. Le prime sono costituite da apparati, quali le wireless Lan o i Pc portatili che abilitano un utilizzatore a collegarsi ad una rete da sedi in cui esiste un accesso wireless alla rete trasmissiva. Le soluzioni, in senso lato, sono costituite da un insieme di piattaforme hardware e software, che possono comprendere un’ampia gamma di piattaforme ICT, dal tablet Pc al palmare, da server a sistemi di storage sino alla rete wireless e che, nell’insieme, permettono di erogare servizi innovativi che altrimenti sarebbero impossibili da realizzare. E’ quest’ultimo l’approccio seguito da Fujitsu Siemens Computers, che ha sviluppato sia un’ampia gamma di piattaforme portatili per l’accesso alle soluzioni che le soluzioni medesime, aperte ed in grado di interagire con le piattaforme di altri produttori ICT. Sulla mobilità l’interesse ed il coinvolgimento della società sono in continua crescita. Il suo impegno nel settore si abbina ad un altro degli sviluppi che appaiono sempre più strategici in casa Fujitsu Siemens Computers, quello delle soluzioni per il business critical computing. La società ritiene poi che il trend in crescita della mobilità continuerà anche nella restante parte dell’anno, e questo perché le soluzioni mobili incrementano la produttività e il grado 36 Server e Storage di soddisfazione non solo dei dipendenti ma anche dei clienti. E, andrebbe aggiunto, dei produttori. • Un approccio a largo raggio Quello che si evidenzia nella strategia di soluzioni perseguita è però un approccio suddiviso su più linee, che, nell’intendimento di Fujitsu Siemens Computers, sono volte a soddisfare i diversi bisogni di mobilità e di soluzioni. Di mobilità infatti, secondo Fujitsu Siemens Computers, ne esistono di vari tipi. Un primo tipo è quella riferita come working mobility ed è relativa ad applicazioni che sono attive mentre si è in movimento, come avviene per il medico in corsia o per l’addetto ad un magazzino. Invece, la travelling mobility è un tipo di mobilità che si riferisce a chi è invece fuori dall’ufficio, nella propria abitazione o in attesa dell’imbarco in aeroporto e desidera accedere alla propria mail. Queste esigenze “mobili”, rimarca la società, richiedono tipologie di piattaforme e soluzioni diverse, che Fujitsu Siemens Computers copre con apparati che vanno dai palmari, ai convenzionali Pc portatili sino agli innovativi tablet PC, eventualmente dotabili di tastiera per facilitare l’interazione con le applicazioni. Quello dei tablet non è però un mercato facile e la stessa Fujitsu Siemens Computers ritiene che lo spazio ideale per una diffusione di queste tecnologie di elaborazione mobile si trovi all’interno di soluzioni applicative, come quella che la società ha realizzato per l’automazione delle corsie presso l’ospedale Son Llatzer di Palma di Maiorca. L’interesse della società sul settore mobile e su soluzioni innovative come il tablet PC è confermato poi da Peter Esser, Executive Vice President of Volume Products and Supply Operations di Fujitsu Siemens Computers. “Con il nuovo tablet PC STYLISTIC Series e i recenti modelli LIFEBOOK T siamo in grado di offrire ai clienti una gamma esclusiva di dispositivi mobili di ultima tecnologia", ha infatti commentato, osservando poi che la gamma molto ampia di accessori disponibili e il crescente numero di soluzioni sviluppate dagli ISV aprono ulteriori ed interessanti scenari applicativi. • Un tablet PC con tecnologia mobile Intel Centrino Il Tablet PC STYLISTIC ST5010 di Fujitsu Siemens Computers, il più recente modello della famiglia di terminali portatili, che comprende anche soluzioni palmari e Pc portatili classici, incorpora diverse tra le tecnologie più recenti nel settore del calcolo e della mobilità, uno schermo da 12,1" e ha un peso ridotto a 1,54 chilogrammi. Per la connettività Internet e di rete è equipaggiato con la tecnologia mobile Intel Centrino, un dispositivo wireless LAN built-in a 54 Mbps, un modem integrato e un'interfaccia LAN basata sullo standard Gigabit LAN. Per l’apparato sono disponibili 2 diverse batterie, di cui una di dimensioni maggiori che permette un'operatività di sino a otto ore, che (purtroppo non sempre) corrisponde alla usuale giornata lavorativa. Il sistema operativo è Windows XP Tablet Edition, sviluppato da Microsoft appositamente per device con tecnologia Touch-Screen. Come quelli precedenti, l’interazione con le applicazioni residenti avviene tramite uno speciale dispositivo a stilo che permette di prendere appunti e di trasformare le annotazioni scritte a mano in testo digitale, grazie ad una feature del sistema operativo. Numerosi sono poi gli accessori disponibili, che comprendono diversi tipi di drive esterni e una docking station, un lettore di smart card e tasti di sicurezza per il controllo dell’utilizzo nonché un involucro in magnesio per la pro- tezione del sistema e dei dati dai possibili danni derivanti dall'impiego quotidiano. • Una soluzione per l’ambiente ospedaliero Fujitsu Siemens Computers ritiene che il suo nuovo tablet PC STYLISTIC ST5010 sia particolarmente adatto per mercati e applicazioni verticali, quali ad esempio la sanità, le assicurazioni, il commercio, la gestione di magazzino o le indagini di mercato. Questi settori hanno infatti come denominatore comune la necessità di dispositivi particolarmente leggeri e con lunga autonomia di funzionamento, utilizzabili in sostituzione dei tradizionali blocchi per gli appunti sia in piedi che in movimento. La valutazione della società non è una previsione teorica ma è confermata nella pratica in una realizzazione attiva proprio in un ambito particolarmente complesso quale quello ospedaliero, dove il suo tablet PC STYLISTIC è utilizzato da medici e infermieri per inserire e consultare i dati relativi ai pazienti durante le visite in corsia. Due realizzazione di questo tipo sono da tempo attive, infatti, presso il Son Llatzer Hospital di Palma di Maiorca e presso la Fondation Hospital Saint-Joseph di Marsiglia. Al termine delle visite il terminale mobile può essere collegato a una docking station che ne permette l'uso come un normale PC. La soluzione permette anche di consultare in real time le cartelle memorizzate nei sistemi di storage dell’azienda o di ottenere dati comparativi tra i risultati delle analisi in corso rispetto ai dati storici del paziente. Con la soluzione realizzata il personale del Son Llatzer Hospital di Palma di Maiorca utilizza i tablet PC STYLISTIC per accedere direttamente alle informazioni relative ai pazienti attraverso la rete Wireless LAN da qualunque punto della struttura ospedaliera. G.S. Il Tablet PC STYLISTIC ST5010 37 Server e Storage Da HP nuove soluzioni SAN per le PMI e per l’ILM I sistemi StorageWorks integrano array dischi Serial ATA e tecnologie Grid che abilitano un approccio ILM a basso costo e con espandibilità lineare L a crescente presenza nelle tecnologie per lo storage di HP ha fatto un altro passo avanti con il rilascio di soluzioni che sono volte da una parte a ridurre i costi delle infrastrutture e dall’altra a semplificare la realizzazione di SAN e di strategie di information lifecycle management (ILM). La società ha, infatti, annunciato di supportare la tecnologia Serial ATA (SATA) sulla propria linea di soluzioni storage HP StorageWorks MSA. L’obiettivo appare essere duplice. Da una parte, infatti, si propone di ridurre i costi delle soluzioni aprendone l’adozione anche alla fascia delle PMI, dall’altra rimarca come la tecnologia seriale sia molto più facile da implementare e come porti ad una notevole semplificazione del cablaggio, uno dei costi più consistenti nella realizzazione delle infrastrutture di base di un ambiente IT. Basso l’entry point in termine di costo delle soluzioni che proporrà in questa tecnologia. HP ritiene che le configurazioni basate sulla sua tecnologia permetteranno di centralizzare e gestire lo storage in ambienti SCSI e SATA con benefici economici e di gestione già a partire da aziende con almeno tre server, che necessitano di modificare velocemente la capacità storage al variare delle esigenze di archiviazione. L’adozione della tecnologia, riducendo il costo degli hard drive, consente di mantenere “online” anche informazioni utilizzate raramente tramite un supporto che costa mediamente, ritiene HP, oltre l’80% in meno rispetto ai drive Fibre Channel. Un altro aspetto saliente della strategia HP è che i prodotti della 38 Server e Storage linea MSA supporteranno sia SATA che le enclosure tradizionale SCSI e potranno scalare fino a un massimo di 24 terabyte in configurazione stand alone mentre il collegamento a una SAN è fornito dalla connettività Fibre Channel nativa. • Tecnologia FATA per l’archiviazione a basso costo Nella direzione di contenere i costi di realizzazione di infrastrutture SAN va anche un’altra soluzione annunciata da HP, consistente nell’adozione di disk drive Fibre Channel per la sua linea StorageWorks EVA (Enterprise Virtual Array). La soluzione, che è stata sviluppata congiuntamente con Hitachi e Seagate, ha l’obiettivo di diffondere una nuova classe di disk drive, chiamati Fibre Attached Technology Adapter (FATA), specificatamente adatta per segmentare i dati di consultazione (ad esempio le e-mail archiviate) e i dati mission-critical (come le transazioni finanziarie) tra drive con costo per gigabit contenuto e drive con prestazioni più elevate all’interno di un unico sistema di storage. Il target dei drive FATA, che presentano un costo per gigabyte dei drive inferiore di circa il 50% rispetto a quello dei tradizionali drive Fibre Channel, sono gli ambienti di classe enterprise e SAN in cui i volumi di archiviazione e il basso costo per gigabyte assumono una valenza prioritaria rispetto ai tempi di accesso. Un altro aspetto che HP ritiene contribuirà ad una rapida accettazione della soluzione da parte del mercato è che l’interfaccia Fibre Channel consente di collegare direttamente questi nuovi drive all’interno delle attuali enclosure per drive Fibre Channel HP StorageWorks EVA. La normale enclosure per disk drive EVA può infatti supportare disk drive di classe enterprise, i nuovi drive a basso costo Fibre Channel o un mix di entrambi. Uno degli aspetti evidenziati da HP è che i drive sono stati progettati proprio per permettere un’integrazione praticamente trasparente con le infrastrutture Fibre Channel preesistenti, eliminando la necessità di conversioni necessarie per integrare i tradizionali drive a basso costo quali quelli basati su tecnologia SATA. Consistenti le capacità di storage. I drive FATA presentano, infatti, una capacità fino a 250 gigabyte con un’interfaccia Fibre Channel da 2GB al secondo e doppia porta. Secondo dati di targa i drive presentano prestazioni paritetiche a quelle dei drive disco a basso costo ATA, ma con molte delle caratteristiche di affidabilità dei drive Fibre Channel. La flessibilità intrinseca nella soluzione si basa, ad esempio, sul trasferimento dati dual-ported ai drive, sulla funzionalità SMART (Self-Monitoring, Analysis and Reporting Technology), sulla capacità di indirizzamento sequenziale ottimizzato, l’integrità dei dati con il protocollo nativo Fibre Channel e su funzioni per la gestione degli errori. • Storage Grid per l’ILM HP ha esteso anche la sua piattaforma per l’Information Lifecycle Management e, nello specifico, per l’archiviazione referenziale delle informazioni, con una soluzione per archiviare, indicizzare e recuperare dati e informazioni chiamata StorageWorks RISS (Reference Information Storage System). La soluzione, basata sulla nuova architettura “storage grid”, ha dichiaratamente l’obiettivo di semplificare la gestione a lungo termine dei dati, ridurre i costi e assicurare la conservazione dei dati in conformità alle normative vigenti e future. StorageWorks RISS, che presenta caratteristiche innovative sia a livello hardware che software, deriva dalla recente acquisizione di Persist Technologies ed è la prima soluzione di HP che adotta la nuova architettura “storage grid”, basata su standard di settore, che permette di distribuire i servizi storage (al momento per operazioni di archiviazione e recupero, ma a breve termine anche per altre funzionalità) su un sistema fortemente scalabile e gestito centralmente. L’aspetto focale della soluzione RISS è la possibilità di ripartire storage, ricerca e recupero su una serie di nodi di calcolo specifici, che sono riferiti come “smart cell” storage. Ciascuna di queste smart cell si compone di un dispositivo a basso costo ed elevata densità per il calcolo e dello storage integrato. Le smart cell sono rese indipendenti tramite un layer dedicato a processore, engine di ricerca, database, indici e gestione, cosa che permette di espandere il sistema aggiungendo nuove smart cell a quelle installate. Inoltre, a differenza di soluzioni di archiviazione più convenzionali, che ricercano indirettamente il contenuto attraverso un database esterno associato ad un’applicazione di archiviazione anch’essa esterna, le smart cell utilizzano i dischi interni per memorizzare i dati di consultazione, gli indici e i meta-dati. Ciò rende possibile cercare e recuperare i dati in pochi secondi indipendentemente da quanta capacità è stata memorizza nell’archivio o dall’applicazione da cui provengono le informazioni. G.S. 39 Server e Storage Ibm apre al mercato il Power5 e unifica la sua architettura La società avvia una politica di licensing per la customizzazione della sua CPU, che inserirà sui sistemi server e storage, partendo dalla Serie i I La CPU a 64 bit Ibm Power5 40 Server e Storage l recente rilascio della versione 5 della CPU Ibm basata su architettura Power, segna una tappa particolarmente importante nel percorso di innovazione che caratterizza il colosso statunitense. Con il rilascio del Power5, Ibm ha, infatti, annunciato l’intenzione di rendere disponibile al mercato la propria architettura attraverso modalità di licensing, per dare vita a una vera e propria comunità dedicata allo sviluppo di soluzioni microprocessore customizzate. L’iniziativa parte dalla convinzione di Ibm che sia proprio dai design finali dei chip, più che dall’architettura sottostante, che scaturiscano le innovazioni necessarie a creare interi sistemi su silicio e non solo componenti elettronici. Attraverso questa strategia Ibm mira a portare l’architettura Power al di fuori del mercato dei server e dei sistemi storage, per indirizzarla verso piattaforme di vario tipo e sistemi embedded quali automobili, elettrodomestici e così via. Tra i primi a usufruire di questa opportunità vi è Sony, che ha già reso noto di avere ottenuto da Ibm la licenza relativa all’architettura Power per il suo inserimento all’interno di un’ampia varietà di dispositivi consumer, tra cui la nuova versione della Playstation. Ma altri accordi sono già in fase di messa a punto con Nintendo, Cisco e Samsung. A sostegno di questa strategia Ibm ha annunciato una serie di nuovi programmi e di attività di supporto, quali la creazione di una comu- nità aperta dotata di nuovi centri di servizio e nuovi tool di progettazione gratuiti, l’apertura degli input di sviluppo per un modello di governance aperta e l’espansione delle opzioni di fabbricazione, che permette ai produttori di fabbricare chip Power. Ibm intende, inoltre, aprire in tutto il mondo appositi Power Architecture Center per fornire ai propri clienti assistenza nel design di chip, schede e sistemi Power. Inizialmente questo supporto sarà curato dai design engineer di Ibm a cui si affiancheranno, in seguito, esperti esterni selezionati attraverso un processo di certificazione. L’implementazione PowerPC dell’architettura Power continuerà, inoltre, a essere a disposizione della comunità degli OEM. • Una CPU pensata per la virtualizzazione Il nuovo microprocessore Power5 è stato realizzato utilizzando tecnologia in rame siliconon-insulator a 130 nm ed è caratterizzato da importanti innovazioni tecnologiche che, in base a quanto dichiarato da Ibm, consentono di avere prestazioni superiori fino a quattro volte rispetto al precedente Power4, con un miglioramento anche nel prezzo. Il Power5 dispone di una cache di livello 2 da 1,9 MB e di livello 3 da 39 MB e sarà disponibile con frequenze di clock maggiori o uguali a 1,5 Ghz. Il nuovo processore Ibm dispone della capacità di far girare più sistemi operativi all’interno di micropartizioni virtuali. Si tratta di un processo sorretto dalla tecnologia Virtualization Engine, che Ibm introdurrà progressivamente sui propri server e prodotti storage. Il Virtualization Engine permetterà di rendere disponibile su diversi sistemi Ibm, oltre alla tecnologia di micropartizionamento (derivata dai mainframe Ibm), anche gli strumenti base derivati da Tivoli per il provisioning e la gestione e le funzionalità grid per sistemi distribuiti basati sulla Open Grid Services Architecture e sulla tecnologia WebSphere. Grazie all’utilizzo del Virtualization Engine anche sistemi Unix e non-mainframe potranno mettere a disposizione fino a dieci server per microprocessore, con la possibilità di trasformare, per esempio, dispositivi quadriprocessore in sistemi a 40 vie virtuali, dotati contemporaneamente di uno o più sistemi operativi diversi. Con questa Cpu Ibm affronta anche il problema della dissipazione del calore sviluppato dai chip, che oggi è arrivato a rappresentare uno dei principali fattori limitanti per l’evoluzione tecnologica dei microprocessori. Sul Power5 è stata introdotta una nuova tecnologia di dynamic power management, che evita di mantenere alimentata la CPU negli intervalli di tempo in cui essa non opera. Questa soluzione consente a Ibm di continuare a creare tecnologia più potente e performante senza dover ripensare l’architettura di base dei processori. • Sui server iSeries le prime implementazioni del Power5 Il Power5 rappresenta un elemento portante di questa strategia con cui Ibm mira alla creazione di un’unica architettura unificata per tutte le proprie soluzioni server e storage, così da sfruttare al massimo il mondo on-demand e integrare i possibili processi di business I primi dispositivi a ospitare la nuova CPU a 64 bit e la tecnologia di Virtualization Engine sono i server della Serie i, ribattezzati i5. La nuova gamma comprende i modelli i5 520 e 570. Il server i5 520 è disponibile in una versione deskside indirizzata alle piccole aziende e in una rack, rivolta anche alle aziende di dimensione media e rappresenta l’evoluzione delle piattaforme iSeries 800 e 810. Dispone di processori Power5 a 1 o 2 vie, con una memoria espandibile fino a 32 GB e una capacità di memorizzazione su disco fino a 19 TB; le prestazioni sono scalabili, in modalità on demand, da 500 fino a 6000 CPW. L’Ibm e-server i5 570 è un server disponibile in versioni da 1 a 4 vie, adatto per aziende medie e grandi, che rappresenta l’evoluzione dei sistemi i825 e i870. Alloggia processori da 1 a 4 vie e può scalare da 3300 fino a 11700 CPW. La memoria può arrivare a 64 GB, mentre la capacità storage su disco fino a 39 TB. Per la fascia alta della gamma, attualmente coperta dall’iSeries 890, è previsto, entro la fine dell’anno, il rilascio di un nuovo modello i5. I server i5 utilizzano il nuovo sistema operativo i5/OS, la nuova generazione di OS/400 che, oltre a consentire di sfruttare le nuove funzionalità hardware di virtualizzazione del processore Power5, si spinge verso il Web computing, integrando WebSphere Express for iSeries. Tra le altre funzionalità del nuovo sistema operativo vanno segnalate nuove funzioni di backup automatizzato per tutti i server ospitati, cross site mirroring (XMS), aggiornamento del firmware a sistema funzionante e la presenza di strumenti di protezione antivirus attivabili per gli ambienti Intel. R.F. Gli eServer i5 520 (a sinistra) e 570 sono i primi modelli di server Ibm a ospitare il processore Power5 e la tecnologia Virtualization Engine 41 Server e Storage L’utility computing per VERITAS si fa col software Marco Riboli, managing director della filiale italiana della società, delinea gli elementi fondamentali della transizione verso la nuova frontiera dell’IT N Marco Riboli, managing director di VERITAS Italia 42 Server e Storage el mondo attuale, l’IT rappresenta una forza motrice fondamentale per ogni azienda. In un momento di contrazione del mercato, in cui l’innovazione è rallentata dalla diminuzione dei budget e dall’incremento dei costi operativi, le aziende sembrano scorgere con fatica, dietro i costi legati ai sistemi informativi, il carattere strategico fondamentale dell’IT, in grado di portare valore facilitando e stimolando la crescita e i profitti. VERITAS Software, attraverso le proprie soluzioni, propone con forza una visione incentrata attorno al concetto di utility computing, termine con cui si delinea un cambiamento fondamentale nelle modalità con cui vengono distribuite le applicazioni, con una rinnovata logica di condivisione delle risorse, di rendiconto dell’uso e dei costi e di gestione dei livelli di servizio. Si tratta di un tema strategico centrale per la società, riaffermato anche recentemente, nel corso della manifestazione “Vision”, da parte di Marco Riboli, managing director di VERITAS Italia. Secondo Riboli, gli elementi costitutivi dell’utility computing sono identificabili nei tre concetti di disponibilità, prestazioni e automazione, che possono essere realizzati tramite l’uso del software. In base a questa visione, l’hardware rappresenta un elemento di base necessario, ma è il software che offre la funzionalità e l’autentico valore della soluzione, soprattutto all’interno di ambienti eterogenei. La transizione verso l’utility computing permette, secondo VERITAS, di far fronte alla situazione attuale che espone i responsabili dei sistemi informativi al duplice attacco da parte degli utenti (sempre più esigenti nel chiedere applicazioni migliori e in grado di automatizzare tutti i compiti aziendali) e del consiglio d’amministrazione, che chiede al CIO di spendere sempre meno continuando, tuttavia, a offrire un servizio impeccabile. «Da ciascun lato della morsa che stringe il CIO proviene la medesima richiesta - sostiene Riboli -, perfezione. Sostanzialmente, quello che tutti esigono è che l’ambiente IT abbia la medesima affidabilità e prevedibilità rispetto all’erogazione del gas, dell’acqua o dell’elettricità. Queste tipologie di reti infrastrutturali ormai mature sono in grado di fornire servizi altamente affidabili a milioni di persone a prezzi incredibilmente bassi. In VERITAS siamo convinti che i dipartimenti IT possano far funzionare l’infrastruttura IT con la medesima affidabilità e prevedibilità. Attuando una strategia di utility computing, le aziende possono trasformare i propri dipartimenti IT da centri di costo a centri di profitto». • Disponibilità, prestazioni e automazione Secondo la società americana i vantaggi offerti dall’utility computing si possono concretizzare attraverso tre elementi funzionali. Innanzitutto, affinché un’utility IT funzioni correttamente, va garantita la disponibilità continua di dati, server e delle applicazioni, isolando l’utente finale dai possibili problemi causati da un’eventuale avaria di sistema o dall’interruzione di un servizio. Attraverso i propri prodotti software per backup e recovery, replicazione, clustering e gestione dei volumi, VERITAS punta a fornire questa disponibilità “always on”. Riboli avverte, tuttavia, che la disponibilità va estesa oltre il singolo data center, utilizzando soluzioni software per il disaster recovery che consentano di superare anche gli effetti legati a potenziali eventi catastrofici. Secondo il manager italiano oggi tutto ciò è possibile a patto di costruire robusti data center situati in località diverse, in cui i dati devono essere sincronizzati tra queste diverse postazioni. Il secondo elemento funzionale è rappresentato dalle prestazioni, che devono estendersi in modo ottimale dall’applicazione fino al sistema di storage. «La disponibilità rappresenta un elemento critico per un’utility IT - precisa Riboli -, ma anche se i dati sono disponibili, i problemi in termini di prestazioni possono avere effetti deleteri sulla produttività degli utenti. È un po’ come se dal rubinetto uscisse solo un filo d’acqua. Analogamente, se un’applicazione richiede troppo tempo per fornire i dati richiesti, è come se si trovasse fuori servizio, poiché gli utenti non sarebbero disposti ad aspettare». In questo contesto va anche considerata la caratterizzazione multilivello delle applicazioni di business, che coinvolgono il network, il client, lo storage e diversi server con compiti specifici. Il miglioramento delle prestazioni non può, dunque, che partire da una considerazione dell’ambiente IT nella sua complessità. Per affrontare questa tematica VERITAS rende disponibile una soluzione software che opera a più livelli e che è in grado di rilevare in modo proattivo eventuali problemi prestazionali, individuarne la causa primaria e raccomandare una soluzione, con l’obiettivo di risolvere il problema prima ancora che l’utente lo possa avvertire. Infine, l’ultimo tassello è l’automazione che fornisce una risposta alle richiesta di riduzione dei costi a fronte di un aumento del livello di servizio. Attraverso le proprie soluzioni software, VERITAS si propone di utilizzare in modo più efficiente l’hardware e incrementa- re la produttività del personale IT, alleviandolo dalle operazioni di routine e lasciandogli più tempo per dedicarsi ad attività di interesse più strategico. Le soluzioni VERITAS realizzano ciò utilizzando una serie di strumenti basati su policy e di funzioni “intelligenti” in grado di imparare dai problemi precedentemente risolti, producendo sistemi con capacità di automanutenzione. «Il rilevamento automatico di nuove applicazioni, utenti, dispositivi ed elementi di rete spiega il manager di VERITAS Italia - alleggerisce l’onere gestionale dell’utility IT, riducendo così i costi operativi. Quando la gestione avviene manualmente, possono essere necessarie ore o intere giornate per impostare, configurare, riconfigurare, aggiornare e gestire la miriade di hardware esistente in un ambiente IT. Grazie a un software di provisioning automatico, le medesime operazioni possono essere svolte in pochi minuti. Inoltre le risorse hardware possono essere riunite in pool e condivise tra più applicazioni, consentendo forti risparmi». Se gli aspetti descritti di disponibilità, prestazioni e automazione rappresentano gli elementi necessari per la concretizzazione di una logica di utility computing, in ultima analisi la società sostiene che è la capacità di sfruttare queste condizioni che determina il livello dei beneficio che un’azienda ne può ricavare. La possibilità di disporre dell’IT come utility concede, infatti, ai dipartimenti IT gli strumenti di rendicontazione necessari per dimostrare il valore dei servizi che forniscono e controllare meglio la pertinenza delle spese rispetto al successo di operazioni e progetti aziendali. «L’utility computing costituisce la maturazione dell’IT - conclude Riboli -. Rappresenta semplicemente il passo logico nel corso della sua evoluzione naturale. L’information technology si sta trasformando in un modello di servizio più centralizzato, meglio gestito e, cosa particolarmente importante, esattamente in linea con gli obiettivi di business. E questa trasformazione verso l’utility computing è resa possibile da un software aperto ed eterogeneo». R.F. 43 Server e Storage Sun e Fujitsu insieme per i server Unix S Scott McNealy, Chairman e CEO di Sun Microsystems un Microsystems e Fujitsu Siemens Computers hanno annunciato la decisione di unificare, entro la metà del 2006, le proprie linee di server Unix. La nuova gamma di server, che viene indicata per ora con il nome in codice APL (acronimo per Advanced Product Line), sostituirà le famiglie Sun Fire e Primepower. A seguito di una collaborazione di lunga data nel design dell’architettura UltraSparc tra le due società, le due famiglie di server utilizzano, attualmente, rispettivamente i chip UltraSparc (Sun) e Sparc64 (Fujitsu) che possono adottare le stesse soluzioni software, ma richiedono ingegnerizzazioni hardware di tipo differente. I server APL utilizzeranno la prossima versione VI del chip messo a punto da Fujitsu. l'accordo coinvolge anche i nuovi sistemi che Sun sta sviluppando basati sui chip Niagara e Rock, dotati di tecnologia di throughput computing. Entrambi le società venderanno i prodotti APL e i sistemi basati sui chip Niagara e Rock. Sun progetterà e svilupperà i sistemi basati su Rock e Niagara; per quanto riguarda la linea APL, invece, Sun svilupperà i server di low end, mentre le macchine di fascia più alta saranno il frutto di una progettazione congiunta. Le nuove macchine basate su Sparc64 VI andranno a coprire, secondo quanto dichiarato dai portavoce di Sun, la nicchia high end lasciata scoperta dal processore Ultra SPARC V e, in attesa dei nuovi sistemi, Sun continuerà a migliorare i chip UltraSPARC III e IV e rilasciare sistemi basati su di essi; potrà, inoltre, commercializzare da subito i server Primepower. Fujitsu Siemens Computers costruirà i chip Sparc64 VI, mentre la costruzione di Rock e Niagara verrà affidata a Texas Instruments. I primi sistemi Sun Niagara sono previsti nel 2006 e nel 2007 seguiranno quelli basati sull’architettura Rock. Nuove soluzioni per le SAN di Brocade I Tino Prato executive country manager di Brocade Italia 44 Server e Storage l secondo quarter del 2004 ha visto Brocade annunciare una serie di nuove soluzioni che integrano la sua linee di piattaforme di Switch per ambienti di storage SAN. A inizio Aprile di quest’anno la società ha annunciato i nuovi switch per SAN SilkWorm 3250 e 3850, rispettivamente a 8 e 16 porte, con target dichiarato quello delle piccole e medie imprese, un segmento sino ad ora poco incline a investire in SAN visti gli alti costi che caratterizzavano questa tecnologia per lo storage. Poche settimane dopo Brocade ha rilasciato nuove soluzioni anche per ambienti enterprise, un settore industriale alle prese da tempo con processi di convergenza, consolidamento, scalabilità e performance, ha osservato Tino Prato, responsabile per l’Italia della società. Il top della gamma SilkWorm di Brocade è ora occupato dal modelli 12000 e, ultimo rilascio, il 24000. Il 12000 è una soluzione che ingloba due switch da 64 porte in un solo chassis. Il 24000 è invece uno switch a 128 porte in un solo dominio che presenta consumi ridotti, secondo dati di targa, del 40%. L’apparato dispone di 2 unità di alimentazione e ogni porta di I/O può essere configurata sia come porta Fibre Channel che come FICON, una modalità che permette un miglior tuning, ha affermato Tino Prato, rispetto a soluzioni di altri fornitori. Della soluzione è inoltre già stata prevista la possibilità di upgrade ad altre tecnologie, in primis quella iSCSI. Tra le funzioni disponibili anche quella che permette di effettuare il tracking a 8 Gbps su 4 porte a 2 Gbps. Dalla contrapposizione alla partnership competitiva C’ era una volta, un mercato IT in cui manager di aziende che erano dirette concorrenti si salutavano a malapena. L’evoluzione dell’informatica degli ultimi anni, nel passaggio attraverso momenti di grande sviluppo tecnologico e di altrettanto esaltante crisi, ci ha consegnato un mercato profondamente diverso rispetto a questo aspetto. Il nemico non è più l’azienda rivale, ma il mancato fatturato e per affrontarlo le aziende non esitano a concludere alleanze “profane”. Ovviamente la competizione non è scomparsa, ma è cambiata in favore di quella che si potrebbe definire una partnership competitiva. Con una voluta semplificazione, si può affermare che, oggi, tutti sono contemporaneamente partner e competitor tra loro. Analizzare tutti i fattori che hanno contribuito a questo scenario e lo stanno alimentando sarebbe impossibile, ma se ne possono almeno evidenziare i principali. Innanzittutto, il boom tecnologico degli anni ottanta ha portato nei data center delle aziende una quantità incredibile di nuovi sistemi e applicazioni che si affiancavano a quelli preesistenti, col risultato di rendere tutto più complicato e costoso da gestire. Nel contempo l’esplosione dei dati e la distribuzione delle informazioni, aperte da Internet, avevano reso il business sempre più elettronico e i processi sempre più integrati. Se, in quei momenti, sulla scia dell’ottimismo e dei buoni profitti, pensare all’integrazione poteva essere un compito procrastinabile, in tempi di crisi la necessità di consolidamento ha alimentato la richiesta, da parte degli utenti, di standard aperti che consentissero maggiore integrabilità e protezione dell’investimento. Su questo terreno si sono dovute confrontare società quali Emc o Cisco, che hanno capito che la sedimentazione a oltranza su soluzioni proprietarie poteva essere un gioco in cui farsi male. Mentre Microsoft ha affrontato la questione non negando a nes- suno un accordo per l’utilizzo delle proprie tecnologie. Un altro elemento fondamentale è stata, in un mercato governato dal time to market, la decisione dei vendor di concentrarsi sui pochi aspetti che definivano il proprio core business. Questo sia per affrontare in modo più efficiente il mercato, sia per la difficoltà di sviluppare al proprio interno tutte le competenze necessarie. Un ulteriore aspetto, per certi versi parallelo, ma anche conseguenza di quanto detto finora, è l’evoluzione verso un concetto di vantaggio competitivo meno improntato sulla tecnologia di prodotto e più sul servizio, nella consapevolezza che un ritardo del primo tipo può essere recuperato al più in 6 mesi, ma che una struttura di servizio distribuita, qualificata ed efficiente non si improvvisa. Sul versante delle soluzoni software è indubbio che la vera rivoluzione sia stata introdotta dal concetto di open source, che ha incontrato successo solo quando ci si è accorti che poteva portare denaro; cosa questa riuscita male a Sun che, sposando l’idea filosofica, più che di mercato, dell’open source, non è riuscita a capitalizzare in modo adeguato sull’enorme successo ottenuto con Java. Vi è poi l’esigenza di distribure i costi, sempre più elevati, di ricerca e sviluppo. Questo si è visto bene nell’arena dei processori, dove la necessità di far fronte a investimenti molto ingenti è alla base della collaborazione tra Intel e Hp per Itanium, tra Sun e Fujitsu Siemens per Sparc, mentre Ibm ha annunciato l’apertura in licensing della propria architettutra Power. L’ultimo baluardo della contrapposizione “vecchio stampo” è stato spazzato via dal recente accordo tra Sun e Microsoft, che prevede uno scambio non ancora ben definito di tecnologie e in base alla quale Sun ha chiuso le vertenze legali con la società di Bill Gates, ricevendo in cambio la non trascurabile cifra di 1,6 miliardi v di dollari. Riccardo Florio dida da scrivere 45 Protezione completa con la Web Intelligence di Check Point Con la sicurezza Web si completa la strategia della casa israeliana. Estese le funzionalità VPN. Tutto in uno nell’appliance Connectra. C Lorenzo Centurelli, technical manager di Check Point Software Technologies Italia 46 Security heck Point Software Technologies ha reso disponibile il componente Web della preannunciata strategia di sicurezza basata su tre aree: interna, perimetrale e Web. Più precisamente, la società israeliana è ora in grado di fornire una soluzione di protezione completa per gli ambienti e la connettività Web grazie alla tecnologia Web Intelligence e alle soluzioni Connectra e SSL Network Estender, che estendono le capacità di connessione VPN. È il tassello che mancava per completare la strategia di soluzioni intelligenti di sicurezza interna, perimetrale e Web, lanciato lo scorso novembre da Check Point per rispondere alle sfide dinamiche e in evoluzione dell’Internet security. La nuova tecnologia Web Intelligence aggiunge un ulteriore grado di protezione a quelli forniti da Stateful Inspection e Application Intelligence, salvaguardando dalle minacce rivolte alla rete, ai server a livello di sistema operativo, ai Web server e ai server applicativi di back-end. A questo proposito, "è importante osservare – ha affermato Andrea Rizzi, country manager di Check Point in Italia - che noi facciamo riferimento a tutto l’ambiente Web e non solo ai client o ai gateway SSL VPN". Tutta la sicurezza Web, che riguarda gli utenti e i browser al di fuori della rete e applicazioni e risorse all’interno della rete che gli utenti utilizzano. Secondo quanto dichiarato da Rizzi, questo è un ambito fondamentale per l’intera sicurezza aziendale. Non a caso, il 75% degli attacchi e delle violazioni della sicurezza su Internet passano attraverso le applicazioni Web. Inoltre, cresce il numero di Web server e di intranet ed extranet: in base a dati IDC, il numero dei primi è passato dai 100 milioni del 1998 ai 500 milioni del 2003 e il mercato dei portali Web per l’enterprise, che è stato di 550 milioni di dollari nel 2001, arriverà a quota 3,1 miliardi di dollari nel 2006. "Da pagine statiche fatte in casa, si è giunti a portali completamente dinamici, che integrano sul Web applicazioni legacy. Aumenta il numero e la tipologia degli utenti remoti e cresce il “desiderio” di accessi “clientless”", ha sottolineato ancora Rizzi. • L’analisi dei codici “maligni” La tecnologia Web Intelligence fornisce protezione all’intero ambiente Web grazie a funzionalità quali la protezione contro malicious code e un’avanzata ispezione delle transazioni, il tutto abbinato a semplicità d’uso e implementazione. Più in dettaglio, Lorenzo Centurelli, technical manager Check Point Software Technologies Italia, ha spiegato come l’innovativo Malicious Code Protector individui gli attacchi di “buffer overflow” e altri codici pericolosi, attraverso la ricerca di eseguibili potenzialmente dannosi nelle comunicazioni Web. Partendo dal presupposto che i codici binari che attraversano la rete sono pochi, ben noti e tipicamente legati a traffico FTP, il sistema monitorizza i flussi di dati e blocca quelli che potrebbero contenere codice, disassemblando e analizzando il codice eseguibile inserito all’interno del traffico di rete. In sintesi, il codice viene “eseguito” virtualmente, in modo da riconoscere gli attacchi. Di fatto, vengono ricercate specifici pattern con un’analisi basata sul comportamento e non su signature. "In questo modo – ha concluso Centurelli – Malicious Code Protector cattura attacchi conosciuti e non con un basso tasso di falsi positivi". Check Point ha poi esteso le funzionalità di ispezione e ricostruzione dell’architettura Inspect, aggiungendo controlli attivi del traffico di flussi dati in tempo reale. È quello che realizza Active Streaming Inspection, che fornisce protezione a livello applicativo a elevata velocità (secondo dati del costruttore, le prestazioni vengono penalizzate mediamente del 20-30% con Active Streaming, mentre Malicious Code Protector ha un impatto pari al 510%). Più precisamente, consente complesse ispezioni e, come ha spiegato Centurelli, manipolazioni dei flussi dati, effettuate a livello kernel. In pratica, è possibile sostituire le informazioni sui Web server che l’attacker sta raccogliendo con “spazzatura”, aumentando la sicurezza. A detta di Check Point, inoltre, Web Intelligence, creata per essere implementata velocemente a protezione dei server Web, non richiede adattamenti e configurazioni complesse e fornisce una gestione granulare delle policy attraverso un’interfaccia grafica di facile impiego. • Una VPN sicura I protocolli di tunneling per la creazione di VPN non forniscono sicurezza intrinseca. Per questo Check Point ha sviluppato già da tempo VPN basate su IPSec, che proteggono sia il lato client sia quello server (su cui viene attuata anche una politica di prevenzione con Application Intelligence, Web Intelligence e SmartDefense). Le VPN con SSL, tipicamente (dipende dalla soluzione implementata), non prevedono un controllo accurato sul client, che può facilmente essere utilizzato per bypassare altri elementi di protezione. Per rispondere comunque alla richiesta di connessioni VPN clientless sicure, Check Point ha sviluppato una soluzione che, basata sull’appliance Connectra (si veda il riquadro), permette di proteggere la rete dal terminale remoto ed eventualmente aumentare il livello di sicurezza dello stesso. Funzionalità analoghe possono essere ottenute con SSL Network Estender, disponibile come add on per VPN-1. G.D.B. Connectra: un gateway per la sicurezza Web e le VPN Connectra è una nuova appliance che integra le tecnologie Application Intelligence e Web Intelligence, proteggendo da attacchi sia di livello rete che di livello applicativo provenienti da punti di accesso (client) insicuri. Gestire l’accesso remoto, a detta di Check Point, risulta molto più semplice e gli stessi utenti possono risparmiare tempo e sudore nel collegamento alla rete aziendale. L’appliance, il cui hardware è realizzato in collaborazione con Dell, supporta VPN IPSec o SSL, estendendo le possibilità di accesso a un numero maggiore di utenti. Peraltro, è capace di autoproteggersi dagli stessi. Infatti, grazie alla soluzione Integrity acquisita a gennaio con Zone Labs, Connectra fornisce una sicurezza versatile dei client, proteggendo gli stessi di ID e il sistema dall’utilizzo di questi. Integrity, di fatto è un “light” client che viene inviato da Connectra ad analizzare il terminale che richiede l’accesso alla ricerca di spyware, malware, keystroke logger e trojan horse. Inoltre, permette di adattare i diritti di accesso in base alla sicurezza del dispositivo remoto (per esempio, verifica il metodo di autenticazione utilizzato). Connectra, inoltre, include SSL Network Estender, che consente anche il collegamento a server interni con protocolli nativi. Infine, dispone di un portale Web per email, condivisione di file e link Web. Questa funzionalità consente di creare un accesso SSL con un “solo click”, rendendo molto semplice per l’amministratore creare gruppi extranet, associandovi applicazioni, server e altre risorse. Security 47 Il complesso equilibrio tra sicurezza e privacy Il diritto ad accedere alle proprie informazioni personali, puo’ collidere con le esigenze di sicurezza delle aziende utilizzatrici L a progressiva attenzione alle problematiche legate alla privacy, alimentata dalle nuove regolamentazioni e dalla crescente quantità di informazioni personali che vengono mantenute in formato digitale, ha portato con forza il tema della privacy nell’ambito delle problematiche a cui le soluzioni di sicurezza IT si trovano a dover dare una risposta. Un primo aspetto che vale la pena di ricordare è che il concetto di sicurezza informatica si riferisce al controllo esercitato dalle aziende al fine di raccogliere e mantenere le informazioni e si tratta di un concetto applicabile ai dati di ogni tipo, mentre la protezione della privacy, invece, si riferisce esclusivamente ai dati di tipo personale. L’atteggiamento di fronte al problema ha molteplici sfaccettature, tanto che la sua interpretazione è sostanzialmente differente tra Europa e Stati Uniti. In questi ultimi, infatti, il concetto che prevale è che quando un individuo fornisce informazioni personali a un’azienda, questa ne diventa contemporaneamente proprietaria e utilizzatrice. Nel vecchio continente, invece, il soggetto a cui si riferiscono i dati mantiene alcuni diritti, mentre l’azienda utente degli stessi ha la responsabilità sulla loro custodia, al fine di proteggere le informazioni di carattere personale. Le informazioni legate alla privacy possono, dunque, essere considerate come un insieme di controlli rispetto all’uso delle informazioni personali che un’organizzazione detiene e amministra, associati ai diritti che l’utente mantiene sulle informazioni che lo riguardano. 48 Security • L’antagonismo tra garanzia dei diritti e protezione dei dati Si perviene, in tal modo, a un sottile paradosso per cui gli aspetti di privacy e sicurezza possono diventare antagonisti. Alcune funzioni di sicurezza possono, infatti, minacciare la necessaria protezione della privacy, mentre alcune regole della privacy possono indebolire giustificate misure di sicurezza. I principi di rispetto della privacy richiedono, per esempio, che ogni individuo abbia la facoltà di esercitare un controllo sull’accuratezza, la completezza, l’uso, la distribuzione e la durata dei propri dati personali. Esercitare tale controllo collide con l’esigenza di implementare sistemi di sicurezza rigorosi. A volte si dice che la sicurezza rappresenta un tema di tipo tecnico e che la gestione della privacy sia un tema legato alle policy. In realtà questa interpretazione può facilmente determinare una situazione in cui si realizza un utilizzo improprio e non autorizzato delle informazioni, da parte di personale e società partner autorizzate. Inoltre può creare un falso senso di sicurezza poiché policy rigorose sulla carta, non sempre sono altrettanto garantite dalle tecnologie implementate. Sono molti gli esempi in cui, a fronte di policy dichiarate sul Web da parte di una società, questa utilizzi poi tecnologie in grado di raccogliere informazioni sugli utenti in modo pervasivo e a loro insaputa. Oppure avviene che società dichiarino di implementare una serie di pratiche a rispetto della privacy senza attualmente farlo. Questo perché una corretta gestione della privacy comporta, per un’azienda, costi di tipo sia diretto sia indiretto, che rappresentano un puro esborso, compensabile solo con il rientro in termini di brand e di affidabilità (aspetto, quest’ultimo, però, di fondamentale importanza per aziende di carattere finanziario o bancario). Un esempio tipico in cui si evidenzia il conflitto tra le esigenze di sicurezza e la privacy è quello relativo alle misure adottate per il controllo degli impiegati. Il monitoraggio da parte dell’azienda della posta elettronica, dell’uso del telefono o della postazione, l’uso di telecamere di sorveglianza o anche di sistemi GPS per tenere traccia della locazione di un individuo sono tutti esempi in cui questo conflitto si manifesta. • Le nuove tecnologie a protezione dei dati personali Nel mondo digitale, in cui lo scambio di informazioni è in grado di determinare vantaggi competitivi, appare dunque evidente che questa dicotomia assume una crescente importanza. In generale le tecnologie di monitoraggio, i sistemi di autorizzazione, autenticazione o di rilevamento delle intrusioni (IDS) hanno le potenzialità, in funzione della modalità di configurazione, per diventare progressivamente sempre più intrusivi in relazione alle informazioni personali, mano a mano che si trovano a dover affrontare minacce sempre più pericolose e sofisticate. Non esiste una tecnologia o una gamma di policy in grado di risolvere la questione in modo da soddisfare ognuno. Tuttavia il punto fondamentale resta quello che, nel mantenimento dei vari aspetti, che vengano tenuti in considerazione i reciproci punti di vista e le possibili varianti. Prevedere gli aspetti della privacy in modo intrinseco all’interno di un prodotto o un servizio o nella fase iniziale dello sviluppo di un’applicazione consente di incrementare la capacità degli utenti di controllare i propri dati personali, garantendo la sicurezza adeguata. Si stanno anche cominciando ad affermare le tecnologie PET (Privacy Enhancing Technologies), che si riferiscono a software o dispositivi hardware in grado di aiutare l’utente a mante- nere, controllare o recuperare le proprie informazioni personali. A queste si affiancano tool (disponibili anche online) per assistere gli utenti a mantenere la propria privacy attraverso Internet e per effettuare funzioni che consentono di prevenire l’accesso non autorizzato alle comunicazioni e ai file memorizzati, automatizzare il recupero delle informazioni relative alle pratiche sulla privacy applicate da chi recupera le informazioni e automatizzare, sulla base di esse, le decisioni dell’utente. Altre funzioni possibili riguardano la possibilità di filtrare messaggi non desiderati; evitare la cattura automatizzata di dati, per esempio tramite cookie, header HTTP, spyware e così via, mentre altre funzioni ancora possono impedire che la comunicazione possa essere ricondotta a uno specifico individuo. Tuttavia l’utilità delle PET è anche limitata della grande dimensione della maggior parte di questi tool. Interfacce utente migliorate e maggiore integrazione all’interno di altri tool, aumenterebbero notevolmente l’efficacia di queste tecnologie. Inoltre, per quanto sofisticate, queste tecnologie da sole non possono impedire che i dati forniti dagli individui possano essere usati in modo invasivo della privacy. Finché il trasferimento dei dati personali rimane un requisito della maggior parte delle transazioni sistematiche, le tecnologie PET offriranno soltanto una protezione limitata della privacy. Si potrebbero ottenere grandi vantaggi se l’architettura dei nostri sistemi di transazione fosse cambiata in modo da supportare transazioni che rivelano molte meno informazioni personali. Tali cambiamenti, seppur tecnicamente fattibili, stanno incontrano ostacoli significativi a una loro approvazione. R.F. Security 49 ISS garantisce la protezione altrimenti paga i danni L’azienda statunitense confida sulle capacità di sviluppo del team X-Force, che ha anticipato le più recenti minacce, compreso Sasser M Sul sito ISS è possibile controllare il livello di allarme quotidiano connesso alle minacce Internet 50 Security olte aziende si preoccupano della sicurezza quando è troppo tardi. Altre sono più lungimiranti, ma alla resa dei conti subiscono comunque dei danni. Tutta colpa dei cosiddetti hacker, sempre più bravi e rapidi a inventare nuovi tipi di attacco? È comodo cercare un caprio espiatorio, ma più opportunamente bisognerebbe prendersela con se stessi. D’altro canto, fa bene Microsoft a mettere una taglia “sulla testa” di chi realizza questi programmi, ma anche i fornitori di programmi per la sicurezza devono essere disposti a fare autocritica, quando occorre, e assumersi le proprie responsabilità. È questo l’approccio perseguito da Internet Security Systems, che dopo l’ultima dimostrazione della potenza preventiva dei propri sistemi e, soprattutto, confidando nelle capacità di analisi e sviluppo del proprio team di security intelligence X-Force, ha annunciato un rivoluzionario programma di “rimborso”. Piero Fiozzo, responsabile X-Force Service in Italia, ha spiegato: “Ai clienti forniamo una garanzia, che prevede il rimborso fino a 50mila dollari se si verificano incidenti connessi alle vulnerabilità presenti nell'X-Force Certified Attack List”, che ha aggiunto: “Avevamo offerto in garanzia una polizza da un miliardo di dollari, ma i clienti con cui abbiamo parlato non si fidavano delle assicurazioni. Per cui i soldi ce li mette direttamente ISS”. • La prevenzione di X-Force Quest’impegno che ISS si assume nei confronti della propria clientela suona anche come una sfida rivolta alla concorrenza. L’azienda statunitense, peraltro, ben lungi dal voler sembrare arrogante, vuole ribadire, con questa forma di garanzia, le capacità preventive di XForce. L’ultimo lampante esempio è stato il virus Sasser, che ha sfruttato una vulnerabilità annunciata da Microsoft circa venti giorni prima, contestualmente alla pubblicazione di patch atte a risolvere il problema e a rimuovere il rischio. I danni non sono stati ingenti come in casi precedenti, ma molte aziende sono comunque rimaste a terra. Ancora una volta, tutto questo si poteva evitare, come è stato per chi ha aggiornato i sistemi con le dovute patch o chi aveva adottato un approccio preventivo. Tra questi senz’altro i clienti di Internet Security System, che aveva appunto previsto l’attacco al momento dell’annuncio di Microsoft. Non solo, tra i primi ad avere aggiornato e protetto le reti dei propri clienti, infatti, ISS aveva previsto che i giorni di maggior pericolo sarebbero stati quelli del weekend, protagonisti effettivamente dell’attacco Sasser. Stefano Volpi, general manager e managing director di Internet Security Systems Italia, ha dichiarato: "Sasser è stata la prova che ISS è in grado di garantire ai propri clienti una sicurezza effettiva dei propri sistemi informatici. Grazie al continuo perfezionamento delle tecniche di intrusion prevention e intrusion detection siamo giunti ad un livello di sicurezza molto elevato". Il manager ha poi continuato: "Alcune di queste vulnerabilità erano già state individuate a settembre 2003 dall'X-Force ed è importante sottolineare che i danni provocati da quest'attacco potevano essere evitati, mettendo in campo una giusta strategia preventiva, che da sempre noi predichiamo e a cui abituiamo i nostri clienti". ISS è vicina alla Pubblica Amministrazione Internet Security Systems ha partecipato all’edizione 2004 del Forum PA, la fiera dedicata al cambiamento e all’innovazione della Pubblica Amministrazione italiana, per manifestare il proprio impegno nello sviluppo di soluzioni di sicurezza che possano soddisfare i peculiari bisogni della PA. Parole chiave della manifestazione di quest’anno sono state competitività, innovazione ed Europa. ISS ha voluto quindi testimoniare direttamente il proprio ruolo da protagonista attivo dell’innovazione tecnologica al servizio delle organizzazioni, attraverso la propria gamma di soluzioni di sicurezza Proventia e il suo avanzato know-how sulla protezione dei sistemi informatici. Ha affermato Stefano Volpi, general manager e managing director di Internet Security Systems Italia: "Non è più pensabile, come accadeva un tempo, un livello di sicurezza legato all’investimento del cliente. Grazie all’ampiezza della gamma Proventia, noi siamo in grado di offrire la stessa protezione ad aziende grandi e piccole, in maniera semplice ed economica: siamo cioè in grado di rispondere alle reali esigenze dei nostri clienti, garantendo i massimi livelli di sicurezza, economicità e semplicità di gestione". Anche perché, sempre secondo il manager, è avvenuto un importante cambiamento di sensibilità nei confronti della sicurezza informatica, che ha avvicinato alla stessa tutte le tipologie di imprese. • Un tranquillo weekend di paura Quando a metà aprile, alcuni purtroppo lo ricorderanno meglio di altri, Microsoft ha annunciato una serie di vulnerabilità ai propri sistemi, la gravità della situazione non subito è stata chiara a tutti, se non agli addetti ai lavori, a causa del linguaggio, anche giustamente tecnico, con cui la casa di Redmond ha annunciato le patch per sistemare il problema. Tra gli altri, infatti, figuravano potenziali buchi nelle librerie SSL e, in particolare nella libreria LSASS, usata per eseguire codici remoti e di controllare dall'esterno i sistemi infettati. ISS, cui alcune delle vulnerabilità erano già note, ha dato subito l’allarme di un possibile e potente attacco informatico, innalzando la guardia al livello 2, dando previsioni di un allarme di livello 3 per il weekend successivo all’annuncio. Contestualmente X-Force, infatti, ha trovato un possibile exploit e, per esperienza, sa che da lì a poco gli hacker avrebbero tentato di sfruttare tale vulnerabilità Il rischio era alto, soprattutto per la posta in gioco. SSL, infatti, si sta diffondendo sempre più rapidamente per la crittografia di trans- azioni, pagamenti online, trading on line e soluzioni di e-commerce. Molto spesso i siti che lo utilizzano, tra cui molti portali, sono un vero e proprio “boccone prelibato” per gli hacker. Senza contare che buona parte dell’utilizzo di SSL è relativo alle transazioni di e-commerce. Infine, come evidenziato dai tecnici di XForce, senza ovviamente scendere in dettaglio, il tipo di vulnerabilità consentiva un facile exploit Internet, permettendo di sfruttare come vettori Information Server (IIS), Exchange Server, Active Directory e potenzialmente qualsiasi software che si appoggia alla libreria SSL. Sasser è effettivamente partito in quel weekend e, se non ha avuto effetti devastanti come Blaster o Sql Slammer, questo è dovuto alla “bontà” del suo inventore, in quanto, una volta passato, avrebbe potuto eseguire un’applicazione di maggior impatto. Grazie alle patch virtuali messe a punto da XForce e al servizio X-press Update, i clienti di ISS non hanno subito danni, senza aver dovuto passare tutto il weekend, ammesso che sarebbe stato sufficiente, a installare le patch su tutti i sistemi. G.D.B. Security 51 Rsa punta sull’autenticazione forte per l’accesso mobile Attraverso la soluzione Rsa Mobile e l’uso di token di autenticazione, la società propone un sistema di accesso flessibile e di facile implementazione I Schema del processo di autenticazione mediante Rsa Mobile nuovi processi di business, basati su risorse distribuite e sul valore dell’informazione, hanno alimentato l’esigenza di mobilità da parte delle aziende. Si tratta di un trend favorito anche dalla crescente disponibilità di connessioni a larga banda e dalla diffusione di nuove classi di dispositivi mobili, che hanno reso possibile l’esecuzione di operazioni complesse anche al di fuori della LAN aziendale. D’altra parte, la possibilità di accedere alle risorse informative aziendali da qualsiasi locazione e in qualsiasi momento, consente di aumentare la produttività del personale che opera al di fuori dell’ufficio, di abilitare transazioni online da parte di clienti e partner e di aumentare la flessibilità dei processi di business, contribuendo a realizzare un vantaggio competitivo. Tuttavia, le aziende si dimostrano in generale riluttanti a rendere accessibili da postazione remota o mobile dati di particola- re rilevanza. Alla base di questo atteggiamento risiede, spesso, la mancanza di soluzioni in grado di coniugare garanzia di sicurezza con costi ragionevoli. Rsa Security fornisce una possibile risposta a queste esigenze attraverso una gamma di soluzioni di accesso sicuro da postazione mobile e remota. Le soluzioni Rsa sono basate su tecnologie di “strong authentication”, sviluppate per interoperare con le più principali applicazioni di business e le più diffuse tecnologie di accesso, incluse SSL, VPN (anche basate su IP Sec), portali, servizi terminali, Outlook Web Access e le wireless LAN. L’utilizzo di un sistema di autenticazione forte viene promosso da Rsa sulla base del convincimento che le password rappresentino un sistema di debole protezione poiché, spesso, facilmente individuabili o sottraibili perché custodite in modo non appropriato. Un sistema di autenticazione forte richiede, invece, all’utente esterno, di fornire prove concrete della propria identità prima di garantire l’accesso. Altri punti deboli legati alle password ed evidenziati dalla società sono l’elevato costo associato all’amministrazione e all’help desk, per la proliferazione di identità digitali multiple che un sistema di autenticazione basato su password contribuisce a realizzare e gli inconvenienti per la produttività personale causati dall’osservanza delle policy per la definizione, il mantenimento e la sostituzione delle parole di accesso. • Soluzioni per l’autenticazione mobile e remota Attraverso Rsa Mobile, la società americana fornisce una soluzione di autenticazione di costo contenuto che protegge l’accesso alle 52 Security risorse Web-based utilizzando un processo di autenticazione a due fattori. Rsa Mobile è una soluzione pensata per proteggere le applicazioni B2C e B2B basate su Web, che si indirizza alle organizzazioni che vogliono garantire la sicurezza dell’accesso, senza dover mettere a disposizione degli utenti mobili e remoti dispositivi hardware o strumenti software di autenticazione, poiché sfrutta telefoni cellulari o PDA già in loro possesso. Il processo di autenticazione comincia quando un utente, tramite un browser, richiede l’accesso a una risorsa Web protetta da un agente software Rsa Mobile sottoponendo un valido user ID accompagnato da un codice numerico personale (il cosiddetto PIN). Il software RSA Mobile, a questo punto, genera un codice di accesso univoco e valido per una sola volta e lo invia al telefono mobile o al PDA dell’utente, sotto forma di SMS o di un messaggio di testo. L’utente inserisce il codice di accesso tramite browser per completare il processo di autenticazione. Il codice di accesso viene inviato al telefono mobile o al PDA utilizzando lo stesso sistema di cifratura del traffico voce (A5). Il software Rsa richiede, inoltre, all’utente, di inserire il codice ricevuto dalla stessa istanza del Web browser da cui esso è stato richiesto, in modo da prevenire l’utilizzo di codici di accesso eventualmente intercettati. Il server di autenticazione RSA Mobile gestisce il processo di autenticazione e determina se l’informazione è valida. La tecnologia Rsa Mobile si integra direttamente con le directory LDAP (iPlanet e Active Directory), mentre la disponibilità di tool software e API amministrative facilita il processo di implementazione. Le funzioni amministrative del software Rsa Mobile sono di tipo browser-based e prevedono anche la definizione di un amministratore di help desk con un range limitato di funzioni. La tecnologia Rsa Mobile permette anche agli amministratori di definire metodi di autenticazione alternativi, per diverse risorse e situazioni. In ambienti che utilizzano la soluzione Rsa ACE server, il processo di autenticazione forte Diventa standalone la soluzione Rsa per la gestione delle identità federate Si chiama Federated Identity Manager o, più semplicemente, FIM la nuova soluzione standalone che consente alle organizzazioni di implementare in modo semplice un sistema per lo scambio sicuro e la gestione delle identità digitali. Federated Identity Manager offre una gamma di funzionalità di fascia enterprise pensate per rispondere alle esigenze delle imprese che intendono sfruttare le identità federate per raggiungere rapidamente gli obiettivi di business più strategici. FIM è stata sviluppata a partire dal precedente modulo per la gestione dell’identità presente all’interno di Rsa ClearTrust e dispone di un’architettura flessibile, basata su plug-in, che permette alla soluzione di Rsa Security di interoperare direttamente con le applicazioni e con vari prodotti per la gestione delle identità e degli accessi, compreso, naturalmente, ClearTrust. Federated Identity Manager supporta lo standard SAML 1.0 e 1.1 ed entro la fine dell’anno supporterà anche la specifica ID-FF 1.2 di Liberty Alliance. È previsto, inoltre, il supporto per la specifica WS-Federation non appena sarà ratificata ufficialmente. Rsa Security ha anche annunciato l’integrazione di FIM con la propria consolidata soluzione di autenticazione a due fattori SecurID. da remoto può avvenire mediante la soluzione Rsa SecurID, basata sull’utilizzo di token in grado di produrre e visualizzare un codice di accesso di validità temporale limitata; una tecnologia brevettata provvede poi a sincronizzare ogni token con il server di sicurezza. I token Rsa sono disponibili in formato hardware, software o come smart card. Il token hardware SecurID dispone di una chiave unica simmetrica combinata con un potente algoritmo per generare e visualizzare un nuovo codice ogni 60 secondi. La smart card è in grado di memorizzare al suo interno la chiave simmetrica Rsa SecurID ed è protetta mediante un PIN. I token software utilizzano i medesimi algoritmi di quelli hardware e sono disponibili per le workstation Windows, i principali modelli di PDA e sui telefoni wireless di Nokia, Ericsson e DoCoMo.Va, infine, ricordatail software Rsa Keon, per la realizzazione di una soluzione PKI aperta e scalabile in grado di far fronte alle esigenze di transazioni sicure B2C e B2B. Rsa Keon raggruppa una famiglia di moduli interoperabili per la gestione dei certificati digitali e la creazione di un ambiente per comunicazioni elettroniche e transazioni autenticate, private e non ripudiabili. R.F. Security 53 La sicurezza dei telefoni smart in cerca di standard Le funzioni avanzate dei nuovi terminali mobili inducono a ripensare le modalità per la protezione dei dati che transitano su di essi L o sviluppo tecnologico che ha caratterizzato gli apparati di telefonia mobile, sia dal punto di vista hardware sia software, sta portando alla progressiva affermazione di una nuova classe di apparati di comunicazione mobile. Questi cosiddetti “smart phone” includono sempre più capacità analoghe a quelle dei pc e prevedono la possibilità di navigare in Internet e gestire funzioni di posta elettronica. Il loro utilizzo si indirizza, quindi, sempre più ad attività e scambio di documenti critici per l’azienda e, per queste ragioni, l’implementazione di funzioni di sicurezza su questi nuovi apparati rappresenta un tema di grande interesse. Ciò che si evidenzia in questo momento è ancora la mancanza di una gamma di standard aperti che potrebbero contribuire certamente a ridurre l’attuale frammentazione tecnologica e migliorare l’interoperabilità. Se si affronta la sicurezza di questi apparati da una prospettiva di comunicazione, l’attenzione si focalizza sulla protezione nello scambio dei dati. In questo contesto rientrano i temi di autenticazione, autorizzazione e crittografia con i relativi standard associati che, nel caso dei telefoni mobili, richiedono in genere adattamenti specifici. In altri casi l’attenzione si indirizza verso le applicazioni che girano sulla piattaforma. Uno dei problemi, in questo caso, è di come limitare l’accesso, da parte delle applicazioni, ai soli ambiti funzionali della piattaforma che gli competono. L’implementazione di funzioni di sicurezza legate a una specifica applicazione, dipende comunque dalle 54 Security caratteristiche della piattaforma sottostante. Quello che ancora manca, ma su cui si sono già attivati gruppi di lavoro quali il Trusted Computing Group, è la definizione di una serie di specifiche standard che possano definire un layer tra il livello della piattaforma hardware e le funzioni di sicurezza utilizzate dalle applicazioni soprastanti. Al centro del dibattito si confrontano, a buon diritto, player diversi: operatori di reti mobili, sviluppatori di software e costruttori di apparati. I primi sono indubbiamente interessati al problema della sicurezza poiché hanno l’interesse a convincere gli utenti a utilizzare le loro reti per servizi a pagamento che prevedano lo spostamento di dati. Il popolo degli sviluppatori, come spesso accade, si deve confrontare con diversi approcci e ambienti di sviluppo e l’esigenza di riutilizzar parti di codice. I costruttori di apparati dovrebbero, da parte loro, preoccuparsi di introdurre le funzioni di sicurezza in modo intrinseco a livello della piattaforma, anziché considerare la sicurezza un add-on a posteriori. Anche le funzioni di sicurezza incluse nelle schede SIM o altre periferiche quali le MMC, non possono, infatti, essere sfruttate in modo completo se la piattaforma sottostante non è intrinsecamente sicura. I potenziali rischi sono concreti. Basti ricordare ciò che accadde in Giappone l’anno scorso, quando un programma rilasciato all’interno della rete i-Mode della società DoCoMo fece in modo che centinaia di telefoni chiamassero in modo ripetuto i servizi di emergenza della polizia; e DoCoMo fu obbligata a chiudere la sua rete per eliminare l’applicazione dannosa. R.F. Symantec si rafforza nella lotta allo spam S ymantec ha concluso un accordo per l’acquisizione di Brightmail, società che opera a livello globale nell’ambito delle soluzioni di sicurezza e su cui la società aveva già effettuato un investimento strategico nel luglio del 2000. L’acquisizione, il cui completamento è previsto entro luglio, avverrà a seguito di una transazione in cash pari a circa 370 milioni di dollari. Elemento tecnologico fondamentale alla base dell’iniziativa è costituito dalla tecnologia contro lo spam sviluppata e commercializzata da Brightmail, che protegge le reti filtrando spam, virus e messaggi non desiderati presso l’Internet gateway. La soluzione Brightmail Anti-Spam utilizza molteplici tecnologie proprietarie, un network di rilevazione distribuito a livello globale e un meccanismo di delivery basato su regole dinamiche, per identificare e filtrare messaggi elettronici indesiderati e ridurre il numero di messaggi legittimi bloccati o di falsi positivi. Brightmail Anti- Fraud protegge dalle mail fraudolente che mimano comunicazioni legittime per sottrarre dati finanziari o personali. La soluzione è completata dal Brightmail Reputation Service che fornisce un ulteriore sicurezza, consentendo il blocco dei messaggi provenienti da sorgenti spam identificate. A seguito di questa acquisizione Symantec integrerà, all’interno delle proprie soluzioni Gateway Security, la tecnologia anti-spam di Brightmail. "Lo spam è progressivamente diventato una delle principali minacce per individui e imprese - ha commentato John W. Thompson, chairman e CEO di Symantec - superando i virus come problema numero uno che affligge i sistemi di e-mail e gli amministratori. Brightmail è il leader nell’aiutare le aziende, i service provider e i carrier wireless a contenere questa minaccia. La loro tecnologia brevettata costituisce una componente critica per una soluzione completa di sicurezza a livello gateway". John W. Thompson, chairman e CEO di Symantec La roadmap di Novell per l’Identity Service punta sulla semplicità N ovell ha reso noti i prossimi passi della strategia indirizzata verso le soluzioni per la gestione dell’identità. Elemento caratteristico è l’adozione del framework open source Eclipse per la realizzazione dei prossimi tool rilasciati dalla società. Tali strumenti saranno impostati sulla semplicità d’uso e sull’utilizzo di un’architettura di tipo visuale. I nuovi tool basati su Eclipse sono previsti sulle prossime release di Nsure Identity Manager e forniranno un’interfaccia point-and-click per la definizione visiva di modelli, policy e regole per l’infrastruttura d’identità, senza richiedere la scrittura di linee di codice. Anche le prossime versioni di Novell exteNd supporteranno un ambiente di sviluppo basato su Eclipse e forniranno supporto per il desktop Linux. In vista di un’ulteriore semplificazione, Novell fornirà anche applicazioni di gestione delle identità precostruite, integrabili con i workflow basati sulla tecnologia Novell exteNd. Novell combinerà, inoltre, le tecnologie Nsure e exteNd per migliorare il provisioning degli utenti e semplificare l’implementazione dei servizi basati sulle identità. Grazie alle nuove funzioni sarà possibile, per esempio, gestire i cambiamenti di ruolo all’interno dell’azienda attraverso una logica di “cut and paste” del profilo del dipendente all’interno dell’organigramma. Sulla versione 5 di Novell exteNd, prevista per il prossimo autunno, sono attesi anche miglioramenti indirizzati a una maggiore connettività a sistemi quali Lawson, PeopleSoft, JD Edwards, Siebel, Oracle Financials e Baan. Infine Novell ha annunciato l’imminente rilascio dell’estensione SAML per iChain, che consentirà di condividere su Web informazioni di autenticazione e attributi degli utenti. Security 55 Luci e ombre delle Tlc italiane Se i servizi di Tlc sembrano tirare il comparto ICT, si assiste a un impoverimento della produzione tecnologica, con poche eccezioni I n base all’ultimo rapporto Assinform, le telecomunicazioni sono uno dei pochi se non l’unico settore dell’ICT che è cresciuto nel corso del 2003 e promette bene anche per il 2004. Ma il dato va analizzato nel suo complesso per verificare una realtà che presenta luci e ombre con contrasti a volte molto accesi. L’intero comparto, infatti, ha mostrato un incremento quasi nullo: 0,1% in più nel 2003 rispetto al 2002. Innanzitutto, le misure compiute per Assinform da NetConsulting, svelano che su una crescita dell’1,8%, con un passaggio da 40.170 milioni di euro a 40.885 milioni di euro dal 2002 al 2003, i servizi di Tlc sono aumentati del 5,1% (da 30.365 a 31.900 milioni di euro), mentre il mercato degli apparati è sceso da 9.805 milioni a 8.985, segnando un meno 8,4%. In secondo luogo, si può osservare che il +1,8% è merito del +6,7% delle Tlc mobili, che, passando dai 19.722 milioni di euro del 2002 ai 21.041 milioni del 2003, hanno superato le Tlc fisse, le quali hanno registrato una flessione del -3%, calando da 20.448 a 19.844 milioni. Ancora, se si osservano i servizi più da vicino, si nota che a crescere sono soprattutto quelli mobili: +11,1% (dato dal +8% dei servizi di fonia mobile e dal +36,3% dei servizi a valore aggiunto di rete mobile). Sulla rete fissa, invece, si assiste a un calo della fonia (-2,4%) e della trasmissione dati (-7,5%), mentre crescono accesso a Internet (+19%) e i servizi a valore (+3%). Il primo trimestre del 2004 ha portato un po’ di respiro al settore (+1,5% dell’ICT rispetto al primo trimestre 2003), anche se l’IT continua a decrescere (-1,4%) e sono sempre le Tlc a tenere su il mercato (+2,8%). Ma Pierfilippo Roggero, presidente Assinform, ha voluto rimarcare le difficoltà: "È vero che i segnali del 56 CommuniCation primo trimestre 2004 sono in leggera controtendenza, ma già il fatto che l’informatica mostri ancora un calo, rende evidente la fase di incertezza che stiamo attraversando in Italia. Siamo passati in poco più di due anni da crescite a due cifre ai dati d’oggi, nonostante la spinta della telefonia mobile". Non solo la spesa ICT è ferma, secondo l’analisi del presidente Assinform, ma tutti i dati a contorno (rapporto con il PIL, distribuzione per classi d’impresa e altro) mostrano segnali preoccupanti: "Tutto questo si ripercuote a livello di sistema-paese – ha affermato Roggero – che perde competitività e dinamismo, con difficoltà d’interazione che riducono vieppiù i margini per crescere e investire". • Le aziende italiane in difficoltà Roggero ha voluto fare proprio l’invito del presidente di Confindustria Luca Cordero di Montezemolo, inneggiando al bisogno d’innovazione. Un’innovazione che deve partire dalle aziende del settore. Assinform agirà e sta agendo presso istituzioni, banche e mercato, ma è necessario, a detta di Roggero, investire nella cultura dell’innovazione, aumentare la qualità dell’offerta e qualificare la domanda, creando alleanze e raggruppandosi in filiere. Al governo, peraltro, viene chiesto un maggior impegno in termini di politica industriale. Lo ha fatto, in particolare, Domenico Ferraro, presidente ANIE ICT, intervenuto all’inaugurazione della nuova sede di Selta a Cadeo, in provincia di Piacenza. È stata questa l’occasione per aprire un dibattito sui temi dell’ICT e delle Tlc alla presenza del ministro delle Comunicazioni, Maurizio Gasparri. Ferraro ha sottolineato la crisi delle aziende italiane dell’ICT, il cui fatturato è sceso dai 13.872 milioni di euro del 2002 ai 9.400 milio- ni del 2003. Nonostante questo, il 20% di tale cifra è dovuto all’esportazione a significare il ruolo importante di queste aziende, che investono mediamente il 9% del proprio fatturato in ricerca e sviluppo. "È necessario valorizzare queste aziende – ha affermato Ferraro – senza falsare la competitività del settore, ma anzi aumentandola con strumenti di accesso alla ricerca e sviluppo per le imprese più piccole oppure con il coinvolgimento delle Pmi nello sviluppo delle Tlc sin dalle fasi progettuali". contando sulle capacità di progettazione "senza le quali non c’è futuro né produzione", come ha affermato con forza Giuseppe Bertolini, presidente e cofondatore della società. È sintomatico, del resto, che una realtà analoga, operante nel settore parallelo del networking e della videocomunicazione, l’anconetana Aethra, abbia ottenuto il successo puntando sulle stesse leve e avviando l’internazionalizzazione contando solo sulle proprie forze, come Selta. La nuova sede di Selta a Cadeo, un’eccezione nel panorama delle Tlc italiane • Il bisogno di innovazione L’ICT è il motore dell’innovazione, come rimarcava Roggero, ma è anche un settore che altrove cresce nonostante la crisi (+2,6% e +3,7% rispettivamente IT e Tlc mediamente nel mondo, secondo dati Assinform/NetConsulting). È preoccupante che l’Italia sia sotto la media: "Ci stiamo impoverendo – ha affermato Antonio Emmanueli, presidente di Smau, intervenuto a Cadeo -. Il nostro Paese ha quote importanti nei mercati internazionali in settori come le calzature (14%), mobili (15%) e altri, ma si tratta di tutti esempi di mercati statici, mentre in quelli ad alto tasso di crescita (superiore cioè al 5% composto negli ultimi anni), quali alte tecnologie, trasporti/auto o chimica, l’Italia non va oltre l’1%". Emmanueli punta il dito anche contro il sistema creditizio, che non aiuta le aziende medie a diventare grandi. Una conferma indiretta di questa situazione, viene dalla stessa Selta, che rappresenta una piacevole eccezione. L’inaugurazione della nuova sede da 10 milioni di euro, destinata a diventare un polo della ricerca e sviluppo, è la concretizzazione dei buoni risultati ottenuti negli ultimi tre anni, durante i quali la società ha quasi raddoppiato il fatturato, arrivando nel 2003 a quota 53 milioni di euro, con un margine operativo di 2 milioni 350mila euro e con 325 dipendenti. Selta è un’azienda che, investendo in ricerca e sviluppo e innovazione è riuscita laddove troppi altri hanno fallito, restando forse l’unico progettista e produttore di sistemi di Tlc. Pian piano la società piacentina è cresciuta, Vendere sistemi di Tlc, del resto, non è come vendere scarpe. Carlo Tagliaferri, amministratore delegato di Selta, ha dichiarato: "I prodotti che vendiamo hanno impatto sui processi. È importante capirlo e attuare un cambiamento dei modelli, ma soprattutto, è necessario che il sistema fornitori-aziende-utenti finali evolva insieme nel suo complesso". Solo in questo modo, l’innovazione può portare realmente dei vantaggi competitivi e spingere in avanti le imprese. Selta, per esempio, sta ottenendo grandi successi nel segmento innovativo del telecontrollo, dove un contratto con Enel/Terna sta aprendo prospettive nuove all’azienda piacentina. Automazione, reti di accesso ed enterprise network sono i tre ambiti in cui si sta concentrando la ricerca Selta, che avrà a disposizione i 60mila metri quadrati della nuova sede per crescere di più. G.D.B. 57 CommuniCation Con SIP e l’instant messaging Avaya migliora il lavoro La piattaforma Avaya Converged Communication aggiunge valore alla convergenza e aumenta business continuity e produttività S apere immediatamente se un collega è raggiungibile e su che tipo di dispositivo, contare su un sistema di comunicazione unificato e magari multivendor che consente di ridurre i costi complessivi, integrarvi la mobilità, senza dimenticare la sicurezza, e pianificare il passaggio a un sistema basato sulla convergenza a prova di futuro. Sembrava una chimera fino a poco tempo fa e ora tutto questo è possibile, grazie agli sviluppi della tecnologia e soprattutto del protocollo SIP (Session Intiation Protocol). È quello che promette Avaya con la propria piattaforma Avaya Converged Communication Server, parte della Communication Architecture della società statunitense, grazie al supporto intensivo di SIP. • La comunicazione convergente di Avaya L’apparecchio IP Phone 4602 di Avaya e la rubrica contatti, che permette di visualizzare immediatamente la presenza della persona 58 CommuniCation Secondo la visione della casa americana, le aziende passeranno dalle reti convergenti a una comunicazione convergente “presencebased”. Dove la “presenza” può essere intesa sia come la raggiungibilità di un individuo sia come la disponibilità di una risorsa. Grazie a SIP, infatti, individui e/o risorse in rete sono identificati univocamente da un indirizzo, che sematicamente appare come un indirizzo Internet o email, e la loro presenza online può facilmente essere determinata. A detta dei responsabili della società, utilizzando SIP e applicazioni di Unified Communication, la soluzioni Avaya Converged Communication facilitano la collaborazione, aumentano la produttività e riducono i costi inte- grando telefonia tradizionale, IP telephony, notifica della presenza e instant messaging. L’utente finale può quindi utilizzare un sistema che integra diverse modalità di comunicazione sulla stessa interfaccia. Per esempio, con Avaya IP Softphone oltre a telefonare è possibile inviare un instant message, così come richiedere un avviso della rinnovata disponibilità di una persona non trovata. SIP, inoltre, è lo standard emergente che raccoglie i consensi di tutti i vendor. Questo consente di creare un sistema aperto e di godere dei benefici che presto si avvertiranno sui prezzi dei dispositivi di IP telephony. In questo modo, a detta di Avaya, è oltremodo possibile estendere i vantaggi delle soluzioni Communication Manager e Avaya MultiVantage Communications Applications ad apparati e agenti standard di telefonia basata su IP nonché quelli dell’integrazione con applicazioni Web based. • Un contatto immediato Il solo fatto di poter utilizzare un unico identificativo, tra l’altro intuitivo e facile da ricordare come un indirizzo email, invece di un numero di telefono, consente già importanti risparmi in azienda, semplificando la gestione delle rubriche. È uno dei vantaggi di SIP, ma anche il requisito per una piena unified communication. Potente il sistema di instant messaging di Avaya, che sfrutta appunto le capacità di messaggistica integrata e di segnalazione della presenza. In particolare, l’utilizzatore può visualizzare la cosiddetta “buddy list”, cioè avere sempre visibile l’elenco dei colleghi presenti in azienda o comunque raggiungibili. Non importa, in realtà, dove questi siano, in quanto l’identificativo con cui contattarli è sempre lo stesso, sarà poi il sistema a inoltrare il messaggio o la chiamata verso il media più opportuno. Sandro Sciaky, marketing manager Emea South di Avaya, ha dichiarato: "Neanche io immaginavo quanto potesse essere utile l’instant messaging. Per esempio, se devo parlare con un collega e vedo sulla buddy list che è al telefono, posso mandargli un instant message chiedendogli di chiamarmi appena si libera. Ora come ora dovrei provare più volte a chiamarlo per poi magari scoprire che se ne è andato al termine della sua telefonata". Ha aggiunto, inoltre, il manager: "Il tempo risparmiato è un beneficio tangibile, ma il grande vantaggio percepito è quello di una migliore qualità della vita sul lavoro". Un’architettura di comunicazione votata al SIP Al cuore delle soluzioni di comunicazione convergente di Avaya c’è l’Avaya Communication Architecture, che fornisce uno schema consistente e modulare. Tale architettura divide la comunicazione aziendale in tre livelli: l’accesso (che per Avaya è unificato), le applicazioni (che possono essere di business e di comunicazione) e l’infrastruttura di rete convergente. Il supporto di SIP aggiunge valore a ciascuno di questi livelli: i servizi di tale protocollo, per esempio quello che fornisce indicazione sulla “presenza” di un individuo (ma potrebbe essere la disponibilità di una risorsa), consentono di ottimizzare l’accesso (rendendo possibile una comunicazione in tempo reale); il sistema Avaya MultiVantage fornisce applicazioni che, grazie a SIP, implementano la logica di business rafforzando le politiche aziendali; infine, le soluzioni abilitate SIP possono utilizzare una rete gerarchizzata che fin nel suo core fornisce applicazioni e servizi convergenti a valore aggiunto. Avaya, come hanno tenuto a rimarcare i suoi responsabili, ha da sempre contribuito allo sviluppo di SIP, sia come membro del gruppo IETF dedicato a questo standard sia partecipando attivamente ai working group per SIPPING (Session Initiation Proposal Investigation) e SIMPLE (SIP Instant Messaging and Presence Leveraging Extensions). La società statunitense promuove l’aderenza agli standard come prerequisito essenziale alla realizzazione di soluzioni multivendor e sempre in quest’ottica partecipa al SIP Forum e a diversi eventi e attività tese a garantire l’interoperabilità delle implementazioni SIP. • Una soluzione aperta ma sicura Avaya Converged Communication conferisce, a detta dei responsabili della società, caratteristiche peculiari alla soluzione di instant messaging. In particolare, per quanto riguarda la sicurezza, che viene garantita attraverso due livelli di crittografia. Da un lato, infatti, viene adoperato il sistema di encryption (Transport Layer Security) per proteggere la segnalazione e lo scambio di instant message, dall’altro vengono utilizzati gli standard AEA o AES (Advanced Encryption Standard) per codificare la voce e il messaggio. A questo si aggiunge il fatto che Avaya Converged Communication Server gestisce i servizi di instant messaging all’interno del firewall aziendale, eliminando il rischio implicito con informazioni sensibili che devono transitare su un server esterno. Un ulteriore protezione viene aggiunta dalla centralizzazione dell’identity management, che deve essere monitorato e gestito dall’amministratore di rete. Venendo incontro alle tendenze legali, per cui il messaggio elettronico può avere un valore fiscale/legale, il server di comunicazione convergente di Avaya supporta un ferreo logging degli IM (Instant Message), semplificandone l’archiviazione. Si tratta comunque di soluzioni standard, come del resto tutta la piattaforma interamente basata su SIP. G.D.B. L’evoluzione porta a un sistema di comunicazione integrato e convergente 59 CommuniCation I trend del mercato della fonia Continua la migrazione verso reti convergenti, ma l’ampia diffusione di PBX TDM richiede soluzioni per un’evoluzione morbida C onvergenza è uno dei temi caldi del momento. Ma, verrebbe da pensare, è vera gloria o la realtà è diversa da quella che i produttori prospettano, con l’obiettivo anche non troppo nascosto di indirizzare il mercato verso l’adozione di nuove soluzioni e accelerare così la fase di sostituzione delle tecnologie esistenti? Se tutto si sta tramutando in dati, complice il processo di convergenza di reti e tecnologie, alcuni aspetti vanno però considerati in maggior dettaglio. Innanzitutto i servizi di fonia (o voce che dir si voglia) rappresentano l’elemento chiave del fatturato sia per gli operatori di rete fissa che di rete mobile e sono uno degli aspetti fondamentali nell’esercizio delle attività di qualsiasi azienda. Si tratta poi di un mercato stabile, con profitti prevedibili e che ci si aspetta cresca dagli attuali 800 miliardi di dollari di oggi ai quasi 7000 miliardi del 2007. Per utilizzare al meglio le reti trasmissive esistenti senza dover obbligatoriamente investire in nuovi apparati o interconnessioni di rete si sta affermando una richiesta di apparati, soprattutto per il mercato wireless, di compressione delle chiamate. In questo gli operatori e i produttori sono aiutati dal fatto che si è in presenza di standard stabilizzati quali il G.723 e il G.729 e che nuovi circuiti DSP e nuovi algoritmi stanno rendendo possibile livelli di compressione molto spinti a costi che continuano a decrescere anche in modo significativo. Per ciò che riguarda la voce nell’ambito aziendale e delle reti di trasporto, la VoIP si avvia verso una fase di maggior maturità nell’ambito enterprise mentre standard come il VoMPLS 60 CommuniCation (e cioè la voce pacchettizzata trasportata su reti MPLS) stanno affermandosi a livello di service provider. • Nuova vita al TDM con il TDMoIP In questo contesto non stupisce il rinnovato interesse per la tecnica TDM, o meglio dire, per quanto permette a livello di protocollo il trasporto di trasmissioni TDM, dall’E1 all’E1 frazionale. Soluzioni di questo tipo permettono di trasportare il tipico traffico E1 generato da Pbx su IP e su reti di tipo MPLS. Questo in generale. Più in particolare diventa possibile installare presso sedi periferiche degli apparati terminali che operano come dei multiplexer, a cui afferiscono la LAN locale e il Pbx e da cui, tramite protocollo Ethernet, diventa possibile collegarsi al punto di accesso di una rete di un service provider. Il traffico complessivo può poi essere distribuito nell’ambito di una infrastruttura di rete VPN ritagliata sulla rete del provider o convogliato verso una sede remota dotata di un apparato simile in configurazione punto a punto. Le caratteristiche dell’oramai consolidato protocollo TDMoIP (Time Division Multiplexiing over IP) sono numerose. Tra queste, la trasparenza ai metodi di segnalazione standard o di tipo proprietario quali quello relativo all’ISDN PRI, all’E&M, al Q.Sig e all’SS7. L’interesse di base da parte degli utenti aziendali e dei service provider risiede però nel fatto che una tale tecnologia permette di prolungare il ciclo di vita di un ampio parco installato di Pbx ancora relativamente recenti (con- siderando il ciclo di vita medio di questi apparati). Cosa non trascurabile in tempi di budget ICT che continuano a essere risicati e con la difficoltà nell’affrontare contemporaneamente investimenti nella realizzazione di una rete aziendale convergente, di consolidamento di server e dello storage nonché dell’approntamento di soluzioni complesse di sicurezza e di business continuità. • Un protocollo semplice ed efficace ad esempio un Pbx situato presso una sede aziendale periferica, succursale o filiale. • Minor occupazione di banda trasmissiva I vantaggi, secondo i costruttori, non risiedono solamente nella possibilità di mantenere in vita Pbx ancora efficienti. Un elemento non trascurabile nella valutazione del rapporto costi/benefici è collegato alla quantità di banda necessaria per gestire chiamate telefoniche rispetto a soluzioni di tipo full VoIP. Ad esempio, nel caso si utilizzo lo standard di compressione G.723.1, con una flusso di 6,4 Kbps e la funzione di soppressione del silenzio (che interessa circa il 50% di una sessione di fonia) i risparmi sono significativi. 30 canali voce richiedono una banda di circa 150 Kbps per soluzioni TDMoIP e di circa 300 nel caso di soluzioni VoIP. Con 60 canali voce i dati passano a circa 260 Kbps per il TDMoIP e a oltre 600 per la VoIP. In sostanza, i costruttori, anche se ovviamente in condizioni ottimali, indicano in oltre il 50% in meno la quantità di banda trasmissiva necessaria con soluzioni TDMoIP rispetto a soluzioni full VoIP. Risparmi nella banda e possibilità di prolungare i tempi di ammortamento di investimenti onerosi quali quelli per la fonia potrebbero quindi alterare le previsioni che sono state fatte per quanto riguarda la migrazione verso soluzioni di VoIP. G.S. Il vantaggio nell’utilizzo di soluzioni di tipo TDMoIP, ed un altro degli aspetti che lo rendono interessante per aziende e operatori, è il fatto di richiedere pochi step per l’elaborazione del flusso di pacchetti dati nonchè il progressivo utilizzo di chip asic nella realizzazione degli apparati. Tutte cose che ne fanno una soluzione a basso costo, perlomeno rispetto alla prospettiva di cambiare un Pbx o dotarlo di hardware e software di espansione al fine di poterlo collegare direttamente ad una rete IP. Innanzitutto il flusso sincrono di dati di una connessione TDM viene segmentato e i segmenti passano attraverso una fase di adattamento alle caratteristiche del flusso stesso al fine di ottimizzarne il trasporto sulla connessione verso il backbone di rete. Ai segmenti viene aggiunto un header e il tutto assume la forma di un pacchetto dati IP/MPLS. A questo punto i pacchetti IP vengono inoltrati alla rete di dortrame pacchetti sale e, da questa, sino TDM IP ad un apparato simile situato presso la sede del destinatario. Qui i pacchetti sono “aperti”, e viene rimosso il campo header. Il passo finale consiste nel “riassemblaggio" del flusso TDM, che viene inviato all’apparato di utente, pacchetti IP trame TDM Gli step del protocollo TDMoIP IP/MPLS % 61 CommuniCation La “collaboration” di Microsoft rinnova l’information work Attraverso la gamma delle sue soluzioni infrastrutturali di comunicazione, la società di Bill Gates abilita l’accesso mobile e sicuro anywhere e anyway L’ Gli elementi che realizzano la piattaforma di collaborazione e comunicazione di Microsoft infrastruttura del posto di lavoro sta rapidamente mutando sotto la spinta di molteplici fattori. Da una parte la situazione economica sta spingendo le aziende a risparmiare ovunque sia possibile e questo determina una situazione in cui il personale IT è sempre più ridotto e carico di lavoro. Inoltre, a fronte di una continua domanda di centralizzare i servizi, le infrastrutture WAN iniziano ad avere limiti di banda, mentre le reti wireless stanno diventando sempre più pervasive e cresce il numero dei lavoratori mobili. Microsoft affronta questo cambiamento attraverso una gamma di soluzioni software indirizzate ad abilitare e rendere più efficiente la comunicazione e la collaborazione aziendale. Elemento portante di questa strategia è Microsoft Exchange Server 2003, il server di messaggistica e collaborazione che garantisce l’accesso mobile, remoto e desktop ai messaggi di posta elettronica con funzionalità di protezione e riservatezza avanzate. A partire dalla sua introduzione, il server Microsoft è stato continuamente oggetto di espansioni e miglioramenti indirizzandosi, in modo particolare, alle aree della produttività individuale, della sicurezza, della scalabilità e affidabilità. Alla base del miglioramento della produttività di quelli che Microsoft chiama gli information worker, secondo la società vi è la possibilità di poter comunicare da dove si vuole, quando necessario e tramite una varietà di dispositivi. Per realizzare ciò la società punta su un uso esteso della posta elettronica (ormai considerata, all’interno delle organizzazioni, critica quanto, se non più, del telefono fisso) attraverso Outlook 2003, ulteriormente migliorato in questa ultima versione mediante, tra l’altro, il supporto di RPC over HTTP (per eliminare la necessità di server VPN), l’introduzione della modalità cache e di funzioni anti-spam. Per far fronte alle differenti esigenze di mobilità, Outlook 2003 è completato da Outlook Web Access, Outlook Mobile Access pensato appositamente per gli utenti di telefoni mobili e da Pocket Outlook Server ActiveSync per i dispositivi palmari. • Le inziative per combattere i virus e lo spam Nel momento in cui la posta elettronica diventa uno strumento primario di collaborazione e condivisione delle informazioni, risulta essenziale garantire un suo uso corretto, efficiente e privo di rischi. Per queste ragioni Microsoft ha introdotto in Exchange Server 2003 una serie di funzioni indirizzate a combattere i virus e lo spam, unite ad altre indi- 62 CommuniCation rizzate alla semplicità di aggiornamento, distribuzione e amministrazione. Tra le nuove funzioni introdotte con Exchange Server 2003 vi è la possibilità di cifrare tutte le comunicazioni tra server e client (supporto SSL e S/MIME) e nuove API specifiche per bloccare virus e spam direttamente sul server, prevenendo la possibilità che messaggi infetti o non desiderati arrivino fino a Outlook. A queste si aggiungono funzioni di filtering a livello di connessione IP e di mittente/destinatario, lo “spam beacon blocking”, che blocca i contenuti HTML potenzialmente pericolosi. In arrivo anche un nuovo add-on per la soluzione Server di Microsoft chiamato Exchange Intelligent Message Filter, che utilizza la tecnologia Microsoft SmartScreen che è già stata implementata (sul lato client) nei filtri spam di Outlook 2003, MSN 8 e, recentemente, adottata anche su Hotmail. Questa tecnologia estende le funzionalità già presenti in Exchange Server 2003 facendo leva sull’infrastruttura SCL (Spam Confidence Level). Exchange Intelligent Message Filter consente di filtrare i messaggi legittimi da quelli indesiderati sulla base di 500mila caratteristiche di e-mail individuate sulla base dei dati provenienti da centinaia di migliaia di abbonati a MSN Hotmail che si sono resi volontari per classificare milioni di e-mail come legittime o spam. Permette, inoltre, la coesistenza con soluzioni di terze parti. • BizTalk Server 2004 e gli altri tasselli per una piena collaborazione Se il binomio Exchange Server e Outlook delinea la piattaforma principale di collaborazione Microsoft, altri tasselli concorrono a completare l’infrastruttura di “information work” proposta dalla società. Nell’ambito della collaborazione sui processi va segnalato BizTalk Server 2004, recentemente rilasciato. Si tratta di un prodotto di Windows Server System che permette di integrare sistemi, dipendenti e partner commerciali in tempi estremamente brevi con l’obiettivo di creare processi di business che riuniscono applicazioni separate, in un insieme coerente. Permette di collegare tra loro diverse applicazioni e poi, in modalità visuale, di costruire e modificare i processi di business che utilizzano i servizi che quelle applicazioni forniscono. BizTalk Server 2004 può interagire direttamente con Outlook e include adapter e pipeline per la ricezione e l’invio, funzioni di orchestrazione, MessageBox e un motore per le regole di business. Questa soluzione Server, grazie ai servizi di orchestrazione di cui dispone, risponde alle esigenze di disporre di funzionalità di gestione dei processi di business con un livello di automazione elevato e con la flessibilità necessaria per incorporare l’intervento umano nei momenti opportuni del flusso di lavoro. Inoltre, con il motore per le regole di BizTalk Server 2004, le aziende possono implementare regole di business flessibili e renderle visibili agli information worker. Vanno poi ricordati Office SharePoint Portal Server 2003, Content Management Server e Office Project Server 2003. SharePoint Portal Server 2003 è la soluzione per lo sviluppo di portali intelligenti in grado di connettere utenti, team e informazioni, in modo da permettere l’utilizzo di dati pertinenti in più processi aziendali e favorire lo sviluppo di un ambiente di lavoro più efficiente. Microsoft Content Management Server permette di creare, rilasciare e mantenere siti Web particolarmente ricchi di contenuti, grazie a un processo di Web publishing ottimizzato. Infine, Office Project Server 2003 è la piattaforma che supporta le funzionalità di gestione di risorse e progetti e di collaborazione. Le funzioni di comunicazione in tempo reale sono invece garantite da Office Live Communications Server 2003. R.F. 63 CommuniCation Da Nortel Networks una soluzione per la comunicazione multimediale L a soluzione Multimedia Communication Server MCS 5100 rilasciata da Nortel Networks è una piattaforma software che comprende funzioni per il supporto di applicazioni multimediali, tool di produttività, messaggistica unificata e di supporto per una mobilità estesa. Si basa in modo nativo su standard aperti, in primis l’IP e il SIP, e permette di trasformare PBX o reti di IP PBX convenzionali in soluzioni di comunicazione multimediali e collaborative.Va osservato che non si tratta di un PBX ma di un server applicativo che permette di trasformare il modo in cui un’azienda comunica, integrando i normali servizi della centrale telefonica con strumenti di produttività e di cooperazione. L’obiettivo che Nortel Networks appare essersi data con il suo sviluppo è quello di mettere a disposizione una soluzione integrata che permette la riduzione delle attività ridondanti implicite nell’utilizzo degli svariati sistemi di comunicazione aziendale, sostituendogli una soluzione fortemente caratterizzata in termine di capacità di instant messaging, di presence-aware e di mobilità. Le caratteristiche dell’applicazione ne permettono l’utilizzo in bacini di utenti molto ampi. Basato su un modello generale di gestione delle chiamate, l’MCS 5100 può supportare sino a 6000 subscriber attivi. Nel caso servano livelli di copertura maggiori in termine di utenza è poi possibile realizzare soluzioni multi-server.Va rimarcato che la piattaforma è di tipo aperto e basata su standard e in quanto tale permette di erogare servizi multimedia in ambienti PBX o Centrex che supportino funzioni gateway standard (PRI, SIP, H.323 e cos’ via). Sempre più aperti i contact center di Genesys P Agostino Bertoldi, country manager di Genesys Telecommunications Laboratories 64 CommuniCation er Genesys è fondamentale mantenere una mentalità aperta e lasciare libera scelta ai clienti in termini di sistemi, reti, database e così via da interfacciare con la propria soluzione di contact center. Lo ha affermato il country manager italiano, Agostino Bertoldi, che ha aggiunto: "Anche negli ambiti in cui siamo presenti con nostre soluzioni, come per esempio il workflow, forniamo adattatori Gplus verso prodotti e CRM di terze parti". Questa indipendenza, inoltre, consente alla società di distinguersi, a detta del manager italiano, per la possibilità di implementare il proprio sistema al di sopra di un’infrastruttura eterogenea. "In molti casi – ha spiegato Bertoldi – questa è una necessità. In altri è una scelta vantaggiosa, in quanto consente di cominciare magari utilizzando dell’hardware esistente e poi di spostarsi su altre macchine aggiungendone di nuove, ma senza essere vincolati a un unico fornitore di sistemi". Forte dei risultati conseguiti in Italia, più 15% rispetto all’anno precedente nel 2003 e buone prospettive di ripetere l’exploit nel 2004, il dirigente ha sottolineato i successi ottenuti, in particolare presso service provider. Proprio il mercato dei servizi gestiti, secondo Bertoldi, è quello con le prospettive migliori nel nostro Paese, dove la mentalità dell’outsourcing è andata progressivamente crescendo. Genesys G7, a detta del manager, presenta un importante vantaggio per chi deve fornire servizi, in quanto consente di dare all’utente finale la possibilità di accedere ed effettuare modifiche anche autonomamente. "È sempre un managed service – ha specificato Bertoldi – ma il gateway consente, ovviamente in tutta sicurezza, di cedere parte del controllo all’utilizzatore, che può così evitare le lungaggini tipiche di quando si passa attraverso un intermediario per, ad esempio, attivare un messaggio temporaneo improvviso su un call center". Il Wi-Fi pubblico italiano alla ricerca di un’identità È sufficientemente risaputo che le WLAN in Italia sono partite in ritardo su tutti i fronti a causa di vincoli legislativi che tuttora non consentono al nostro Paese di stare al passo con altre nazioni europee. Se, però, le “pastoie” in ambito privato appaiono inutili e decisamente irritanti, limitando la crescita del mercato e l’adozione di queste tecnologie (la cui diffusione potrebbe tradursi in vantaggi per tutti in termini di costi), la questione in ambito pubblico è molto più controversa. Molto spesso il confronto con realtà diverse dalla nostra, quali quelle tipicamente anglosassoni o, nel caso del mobile è d’uopo, scandinave, porta a false prospettive. Lo scorso marzo uno studio del Politecnico di Milano “fotografava” la dinamica del numero di hot spot attivi in Italia, che allora ammontavano a 800 siti. Nello stesso periodo in Inghilterra se ne contavano oltre 2700. La proiezione dell’ateneo meneghino, peraltro, stimava in 2600 il numero di siti che sarebbero presenti sul territorio italiano entro dicembre. Se, come sembra, la spinta propulsiva nel Regno Unito si è ormai esaurita o quasi, per la fine dell’anno verrebbe quasi completamente recuperato il gap, con il rischio di superare gli inglesi per penetrazione in termini percentuali sulla popolazione. A questo proposito, infatti, vale la pena considerare alcuni dati contenuti nell’ultimo rapporto Assinform, in base ai quali nel Regno Unito si conta il doppio dei pc installati rispetto all’Italia, con una percentuale in relazione alla popolazione pari al 55% (la più alta tra i principali paesi europei). Inoltre, l’Italia figura al 28 posto nel 2003 in una speciale classifica basata sul Networked Readiness Index, che misura il livello di innovazione tecnologica in una nazione, valutando non solo la presenza di tecnologie ma anche il contesto e la predisposizione dell’utilizzatore. Viene da chiedersi quale possa essere a regime un numero congruo di hot spot per il mercato italiano, ma sulla risposta pesa appunto il limite imposto dal Decreto Ministeriale del 28 maggio 2003 che ha introdotto la regolamentazione dei sistemi Wi-Fi a uso pubblico. Di fatto il decreto ha dato il via a un mercato che fremeva, ma gli ha anche bloccato la corsa, vincolando gli operatori interessati a fornire il servizio in locali o aree confinate. In questo modo, si impedisce lo sviluppo del mercato dell’accesso Wi-Fi a larga banda. Un ISP, infatti, potrebbe estendere la propria connettività attraverso l’uso di access point su scala metropolitana, come avviene, per esempio, in Canada, rompendo il monopolio de facto di Telecom Italia sull’ADSL. Da qui all’utilizzo di Wireless Local Loop anche per la telefonia, il passo sarebbe breve, senza contare l’impulso che si darebbe alla diffusione delle tecnologie Wi-Fi. D’altro canto, concedere l’uso dell’etere “pubblico” gratuitamente, come impone la normativa europea relativamente alle frequenze utilizzate dal Wi-Fi, crea una situazione di conflitto con gli operatori UMTS, che hanno pagato molto care le licenze e vedono nelle WLAN pubbliche un pericoloso concorrente in grado di erodere i loro margini nella trasmissione dati mobile. Per quanto le caratteristiche tecnologiche delle due reti le facciano sembrare piuttosto complementari che alternative e, a rigore di logica oltre che dal punto di vista giuridico, c’è da osservare che la licenza UMTS viene concessa su una frequenza di uso esclusivo, mentre il Wi-Fi prevede una licenza di uso collettivo della banda, lasciando perdipiù all’operatore l’onere di rispettare l’ambiente ed evitare le interferenze. Intanto, si deve capire quali siano gli utenti italiani di hot spot e, soprattutto, potenzialmente quanti. I dati del Politecnico appaiono per Gaetano Di Blasio certi versi sconfortanti: nel primo trimestre 2004 gli utilizzatori risultavano circa 16.000, protagonisti nel mese di marzo di oltre 400 accessi al giorno. Quindi circa la metà degli hot spot funziona mediamente a giorni alterni e non si sa come possa pagarsi i costi. Questo spiega perché ci siano solo 23 operatori che forniscono WLAN pubbliche e perché la maggior parte dei top player multicanale non punti sul Wi Fi dida da nuovo scrivere business. come v 65 I report tecnologici I Report Tecnologici costituiscono un’opera di analisi e approfondimento dello stato dell’arte di architetture, soluzioni e servizi nell’ambito dell’Information e Communication Technology. Ogni report è un utile strumento di consultazione e un sussidiario che fornisce ai responsabili dei sistemi informativi aziendali e ai professional del settore un chiaro quadro dello scenario evolutivo delle tecnologie e delle soluzioni presenti sul mercato italiano. Ciascun Report è composto da una prima parte, che costituisce una cospicua trattazione degli aspetti tecnologici, e da una seconda parte, in cui vengono accuratamente descritte l'offerta e la strategia dei principali player del mercato. I Report Tecnologici sono disponibili in volumi stampati in formato A4 con copertina rigida, al costo di 215 euro a copia (più IVA). Per ordinarli o per ulteriori informazioni: 0234592314. 66 Motore e sede dei dati aziendali, server e storage sono gli elementi centrali di un sistema informativo che si articola in infrastrutture sempre più complesse che rispondono alle crescenti esigenze di elaborazione e all’esplosione dei dati, ma che devono risultare semplici per l’utente finale. Le nuove architetture evolvono in questa direzione, favorendo il consolidamento dei sistemi. Un report di circa 500 pagine analizza tutti gli aspetti del settore, esaminando, oltre alle tecnologie, le soluzioni e l’offerta di servizi in Italia. Capitolo 1 - DALL’E-BUSINESS ALL’AZIENDA VIRTUALE Capitolo 2 - L’EVOLUZIONE DELLE PIATTAFORME SERVER Capitolo 3 - LE ARCHITETTURE DI ELABORAZIONE Capitolo 4 - LA SPECIALIZZAZIONE DELLE APPLIANCE SERVER Capitolo 5 - LE RISORSE PER LA MEMORIZZAZIONE DEI DATI Capitolo 6 - L’EVOLUZIONE VERSO LO STORAGE IN RETE Capitolo 7 - BUSINESS CONTINUITÀ E DISASTER RECOVERY Capitolo 8 - VIRTUALIZZAZIONE E GESTIONE DELLO STORAGE Capitolo 9 - INFORMATION LIFECYCLE MANAGEMENT E CONTENT STORAGE Capitolo 10 - LO STORAGE A DISPOSIZIONE DEELLA PMI PARTE SECONDA - Tecnologie e strategie dei fornitori di soluzioni e servizi Acer – Apple – Brocade – Cisco Systems – Colt Telecom – Computer Associates – Dell – EMC2 – Fujitsu Siemens Computer - Hitachi Data Systems – HP Soluzioni Server – HP Divisione Storage – IBM Soluzioni Server – IBM Soluzioni Storage – Metilinx – Microsoft - Storagetek – Sun Microsystems – Veritas Software Uno dei temi più attuali del momento è quello della sicurezza nell’ambito dell’ICT. Le crescenti minacce provenienti da Internet e l’inarrestabile tendenza ad aprire l’azienda alla comunicazione con partner e clienti, al fine di sfruttare tutte le opportunità offerte dalle nuove tecnologie, pongono nuovi e stimolanti interrogativi ai responsabili del sistema informativo. Un report di 500 pagine analizza tutti gli aspetti della tematica, soffermandosi sulle metodologie, oltre che sulle soluzioni e l’offerta dei servizi in Italia. La comunicazione è da sempre una delle tematiche più sentite del contesto aziendale. L’esplosione del fenomeno Internet e, in particolare, della posta elettronica ha accentuato i problemi che il responsabile del sistema informativo e il responsabile delle telecomunicazioni si trovano a dover affrontare. A questo si aggiungono le innovazioni portate dalla mobilità. Un report di circa 500 pagine analizza tutti gli aspetti della comunicazione aziendale, soffermandosi, oltre che sulle soluzioni, sull’offerta di servizi in Italia. Capitolo 1 - L’IMPORTANZA DI UNA SICUREZZA EVOLUTA PER L’IMPRESA Capitolo 2 - LA GESTIONE DELLA SICUREZZA Capitolo 3 - CRITTOGRAFIA E FIRMA DIGITALE Capitolo 4 - AUTENTICAZIONE E IDENTITY MANAGEMENT Capitolo 5 - I LIVELLI DI PROTEZIONE DEL FIREWALL Capitolo 6 - L’AFFERMARSI DELLE VPN Capitolo 7 - INTERNET SECURITY: LE MINACCE ONLINE Capitolo 8 - I SISTEMI PER IL RILEVAMENTO DELLE INTRUSIONI E DELLE VULNERABILITÀ Capitolo 9 - LA SICUREZZA DELLE CONNESSIONI WIRELESS Capitolo 10 - L’ARCHITETTURA DELLE SECURITY APPLIANCE Capitolo 11 - SICUREZZA E CONTINUITÀ DI SERVIZIO PER I DATI AZIENDALI Capitolo 12 - LA SICUREZZA DEL SISTEMA DI TELEFONIA Capitolo 13 - LA SICUREZZA COME SERVIZIO Capitolo 1- LO SCENARIO EVOLUTIVO DELLA BUSINESS COMMUNICATION Capitolo 2 - ARCHITETTURE E STANDARD PER I NUOVI PABX Capitolo 3 - I NUOVI SISTEMI DI COMUNICAZIONE PER LE PMI E L’AMBITO ENTERPRISE Capitolo 4 - L’INTEGRAZIONE TRA COMPUTER E TELEFONO Capitolo 5 - GLI IP-PABX: CARATTERISTICHE E FUNZIONALITÀ DEI PABX DI NUOVA GENERAZIONE Capitolo 6 - I VOICE PORTAL Capitolo 7 - CALL CENTER E GLI SCENARI PER L’AZIENDA Capitolo 8 - MESSAGING INTEGRATO E UNIFIED COMMUNICATION Capitolo 9 - LA SICUREZZA NEI SISTEMI DI COMUNICAZIONE AZIENDALE Capitolo 10 - LE ARCHITETTURE DELLE RETI CARRIER PER LA BUSINESS COMMUNICATION PARTE SECONDA – Tecnologie e strategie dei fornitori di soluzioni e servizi 3Com - Alcatel: le soluzioni per i contact center Alcatel: le soluzioni Ip-Pbx - Allied Telesyn - Avaya Cisco Systems - Italtel - Microsoft - Nortel Networks - Reitek - Selta Telematica - Tecnonet PARTE SECONDA - Tecnologie e strategie dei fornitori di soluzioni e servizi 3Com - Allied Telesyn - Check Point - Cisco Systems Computer Associates - D-Link - Internet Security Systems - Microsoft - Nokia - Rsa Security - Symantec dida da scrivere 3 L’abbonamento a Direction fornisce accesso ad alcuni servizi relativi alla pubblicazione dei report e degli studi di Reportec. Gli abbonati riceveranno sei numeri del dossier completi dei relativi allegati su CD ROM e inoltre potranno scegliere tra: SOLUZIONE A un Report Tecnologico rilegato in hard cover formato A4 e sovra copertinato (dal costo di listino di Euro 215) a scelta tra i titoli finora pubblicati: Business Networking 2003 IT Security 2003 Server e Storage 2003 Business Communication 2003 Servizi per gli abbonati SOLUZIONE B tutti e 4 i Report Tecnologici finora pubblicati rilegati in hard cover formato A4 e sovra copertinati (ciascuno del costo di listino di Euro 215). Agli abbonati è riservato anche uno sconto del 25% sul prezzo di acquisto degli altri report pubblicati e la possibilità di accedere a condizioni di favore alle iniziative che si susseguiranno nel corso dell’anno. L’abbonamento a 6 numeri del dossier (di periodicità bimestrale) è pari a Euro 90 per la soluzione A e Euro 390 per la soluzione B e comprende le spese di spedizione del report o dei report richiesti. Per sottoscrivere l’abbonamento inviare un’e-mail a [email protected] oppure un fax al numero 0234532848