networking

Transcript

networking
7
Direction Reportec - Volume II n.7 giugno-luglio 2004 bimestrale • Spedizione in A.P. - 45% - art. 2 comma 20/B legge 662/96 - Milano
DOSSIER DI SOLUZIONI SERVIZI E TECNOLOGIE ICT
NetworkiNg
• In allegato l’edizione 2004 del
report sul Business Networking
• Ethernet si diffonde nell’accesso
• Ripensare la rete in un’ottica
orientata al servizio
• Il wireless 802.11 dalla a alla n
Server e Storage
• Un futuro iSCSI per le SAN e lo
storage aziendale
• Recuperare competitività
attraverso l’innovazione. I temi
del IV Forum ICT
• Sempre più diffuse le soluzioni per
l’ILM
Security
• Il complesso equilibrio tra
sicurezza e privacy
• La sicurezza dei telefoni smart in
cerca di standard
commuNicatioN
• Luci e ombre delle Tlc italiane
• I trend del mercato della fonia
• Sempre più utili in azienda gli
strumenti di messaging
Indice
2
컄 IT al servizio dell’azienda o azienda al servizio dell’IT? . . . .3
왘 Il Report: Business Networking 2004 . . . . . . . . . . . . . . . . . . . . .4
왘 Il Gigabit targato 3Com alla portata di tutti i desktop . . . . . .8
왘 Una “casa della comunicazione” da Alcatel . . . . . . . . . . . . . .10
왘 Ripensare la rete in un’ottica orientata al servizio . . . . . . . .12
왘 La rete sicura di Enterasys per l’Università Bicocca . . . . . . .14
왘 Ethernet si diffonde nell’accesso . . . . . . . . . . . . . . . . . . . . . . .16
왘 La dedizione enterprise di Hp Procurve Networking . . . . .18
왘 Il wireless 802.11 dalla a alla n . . . . . . . . . . . . . . . . . . . . . . . . .20
왘 Un router carrier class per Cisco Systems
US Robotics per il wireless a 125 Mbps . . . . . . . . . . . . . . . . .21
왘 Un futuro iSCSI per le SAN e lo storage aziendale . . . . . . . .22
왘 Lo storage è più semplice con
Acer Storage Centre Software . . . . . . . . . . . . . . . . . . . . . . . . . .24
왘 Apple abbassa il costo dello storage multipiattaforma . . . . .26
왘 Whirlpool Europe gestisce lo storage
con BrighStor Srm di CA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .28
왘 Da DELL lo storage per le PMI e le realtà dipartimentali . .30
왘 EMC: una strategia centrata sull’ILM e sull’open software .32
왘 Recuperare competitività attraverso l’innovazione . . . . . . . .34
왘 Il wireless approda in corsia . . . . . . . . . . . . . . . . . . . . . . . . . . .36
왘 Da HP nuove soluzioni SAN per le PMI e per l’ILM . . . . . .38
왘 Ibm apre al mercato il Power5 e unifica la sua architettura 40
왘 L’utility computing per VERITAS si fa col software . . . . . . .42
왘 Sun e Fujitsu insieme per i server Unix
Nuove soluzioni per le SAN di Brocade . . . . . . . . . . . . . . . . .44
컄 Dalla contrapposizione alla partnership competitiva . . . . . .45
왘 Protezione completa con la Web Intelligence di
Check Point . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .46
왘 Il complesso equilibrio tra sicurezza e privacy . . . . . . . . . . .48
왘 ISS garantisce la protezione altrimenti paga i danni . . . . . . .50
왘 Rsa punta sull’autenticazione forte per l’accesso mobile . . .52
왘 La sicurezza dei telefoni smart in cerca di standard . . . . . . .54
왘 Symantec si rafforza nella lotta allo spam
La roadmap di Novell per l’Identity Service
punta sulla semplicità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .55
왘 Luci e ombre delle Tlc italiane . . . . . . . . . . . . . . . . . . . . . . . . .56
왘 Con SIP e l’instant messaging Avaya migliora il lavoro . . . .58
왘 I trend del mercato della fonia . . . . . . . . . . . . . . . . . . . . . . . . .60
왘 La “collaboration” di Microsoft
rinnova l’information work . . . . . . . . . . . . . . . . . . . . . . . . . . . .62
왘 Da Nortel Networks una soluzione
per la comunicazione multimediale
Sempre più aperti i contact center di Genesys . . . . . . . . . . . .64
컄 Le minacce alla privacy delle etichette intelligenti RFID . . .65
Direction Reportec - Volume II numero 7; bimestrale giugno-luglio 2004; Editore: Reportec srl, via Gian Galeazzo 2 20136 Milano; Amministratore Unico Gabriella Gabet; Direttore Responsabile: Gaetano Di Blasio; Redazione: via A. Lazzati,
6 - 20154 Milano; [email protected]; fax 0234532428; Stampa: GRIFFE srl, via Frapolli 21 - 20133 Milano (sede
legale); via G.B. Brocchi 11 - 20131 Milano (sede operativa); Iscrizione al tribunale di Milano n° 212 del 31 marzo
2003; Tiratura 10.000 copie; Tutti i diritti sono riservati; Tutti i marchi sono registrati e di proprietà delle relative società.
IT al servizio dell’azienda o
azienda al servizio dell’IT?
L
a domanda non è pleonastica ma rispecchia la realtà o perlomeno la sensazione
che sia la macchina, nello specifico quella
informatica, a guidare l'uomo e non il viceversa.
Se nello scenario IT delle aziende si sta affermando il concetto dell'information technology
come centro di profitto il problema è però
come passare dalla teoria alla pratica e invertire quel processo che vede le aziende realizzare continui investimenti per mantenere in
vita le stesse applicazioni a costi crescenti.
Quello che si sta confermando come il punto
di partenza per invertire la situazione e porre
l'IT al servizio dell'azienda consiste nel capire
esattamente cosa si ha e come interagisce l'insieme delle soluzioni, delle applicazioni e degli
apparati che costituiscono il panorama ICT di
un'azienda e che ne rappresentano oramai il
tessuto strategico nell'interazione interna tra
dipendenti ed applicazioni ed esterna verso
clienti e fornitori.
Ma esistono gli strumenti, le metodologie e, in
definitiva, le soluzioni per trasformare in pratica questa maturazione nell'approccio da
seguire? Sostanzialmente si anche se si sviluppano lungo due direttrici che solo marginalmente si sovrappongono e in buona parte
possono agire in modo sinergico ai fini del
contenimento del Capex e del miglioramento
del Tco.
La prima di queste direttrici è rappresentata
da un approccio tecnologico e architetturale
riferito come consolidamento delle infrastrutture di base, modo elegante per dire che si
punta a fare le stesse cose con meno macchine utilizzandone meglio le risorse mediante
anche nuove architetture di interconnessione
in rete.
Un corollario di questo approccio è poi, per
quanto riguarda la componente storage, l'organizzazione dell'entità storage nel suo com-
plesso in sottosistemi tarati sul ciclo di vita
dei dati memorizzati, spostandoli da un supporto a più alto costo ad uno a più basso
costo con il trascorrere del tempo per cui
devono essere mantenuti disponibili.
La seconda direttrice è in parte propedeutica
al consolidamento, in parte coesiste, ma si
muove però non sul piano delle tecnologie
materiali ma su quello dell'immateriale. Consiste nell'utilizzo di metodologie e soluzioni
software di analisi e di pianificazione che permettono da una parte di impostare correttamente il successivo consolidamento e dall'altra, una volta che l'ottimizzazione infrastrutturale è stata fatta, di farla operare al meglio per
ciò che concerne la gestione delle applicazioni.
Va osservato che strumenti di questo tipo
sono generalmente disponibili all'interno di
soluzioni evolute di management ma proprio
per questo risultano spesso di complesso utilizzo e richiedono investimenti consistenti,
sia economici che per la loro gestione.
La novità sta nel fatto che di recente sono
apparse sul mercato soluzioni software che
comprendono applicazioni che permettono di
controllare l'operato delle singole macchine di
un sistema IT, come sono gestiti i flussi delle
transazioni, come è distribuito il carico tra i
diversi server, eccetera, e che quindi permettono di valutare il rendimento del sistema nel
suo complesso nonché di pianificare a ragion
veduta la fase di eventuale consolidamento
delle risorse. Oppure di dimostrare al ragioniere dell'amministrazione che la richiesta di
nuovi investimenti per l'IT è assolutamente
motivata.
L'aspetto interessante è che con investimenti
economici tutto sommato contenuti non
appare lontana la possibilità di diminuire i
costi operativi anche del 15/20%. Il che, visti i
v
budget per l'IT, non è trascurabile.
Giuseppe Saccardi
dida da scrivere
3
IL RepoRt:
Business Networking 2004
Dove va il networking? Lo illustra in oltre 500 pagine il report allegato,
assieme a una approfondita analisi delle tecnologie di primari produttori
I
l 2003 e la prima parte del 2004 hanno
visto continuare lo sviluppo di piattaforme di rete convergenti in senso lato, in
grado di supportare applicazioni dati e voce in
contesti di rete fissa e di rete mobile. I prodromi di una tale evoluzione si trovano nel
forte rinnovamento tecnologico che ha interessato la visione architetturale e la strategia
di prodotto dei principali fornitori di tecnologie di rete, evoluzione abbinata anche alla
parallela diffusone di soluzioni di rete virtuale
proposte dai principali carrier mondiali e
nazionali. Se IP e Internet sono termini molto
usati, e in alcuni casi abusati, la realtà del cambiamento consiste nella diffusione di architetture e standard di nuova generazione. La diffusione di reti geografiche ad altissima velocità e di reti urbane e metropolitane sempre più
caratterizzate da standard atti a supportare il
traffico Ethernet in modo nativo apre, infatti,
molte prospettive e va incontro alle esigenze
crescenti di multimedialità per ciò che compete le applicazioni e di miglioramento del
TCO e del ROI per ciò che riguarda gli investimenti aziendali in tecnologia, nonché i costi
da supportare per il loro mantenimento.
Ma cosa serve per muoversi e investire in tecnologia alla luce di un tale scenario? Quello
che appare fondamentale quando si devono
pianificare nuove applicazioni o riorganizzarle
nel modo più produttivo possibile è interpretare adeguatamente i fenomeni evolutivi e
inquadrarli nel loro corretto ambito, in relazione alle specifiche esigenze aziendali. Il rapporto allegato di oltre 500 pagine ha l’obiettivo di coadiuvare nella miglior comprensione
del processo evolutivo sotto il profilo delle
4
NetworkiNg
tecnologie di rete e di cosa alcuni dei principali produttori e fornitori di servizi nei rispettivi settori hanno reso disponibile per far
fronte alle esigenze odierne e future delle
aziende per quanto concerne l’ICT. La prima
parte del rapporto esamina l’evoluzione degli
standard di rete, delle architetture ed i benefici aziendali derivanti dall’adozione di nuove
tecnologie. La seconda parte analizza lo stato
dell’arte dello sviluppo tecnologico nei diversi
settori del networking così come è stato tradotto nel concreto da parte di primari fornitori di piattaforme e di soluzioni.
• Alcatel
Alcatel ha fatto confluire in una architettura
aperta riferita come “Unified Interaction
Management” (UIM) le sue soluzioni per l’esigenza delle aziende in termine di comunicazione, integrazione delle informazioni e di
sicurezza. L’UIM si basa su un substrato di rete
costituito da un livello di trasmissione dati e
da un livello di telefonia IP, entrambi abilitanti
l’erogazione di servizi IP su reti fisse e mobili.
L’insieme di UIM e delle infrastrutture
fonia/dati costituiscono nella strategia Alcatel,
una “Casa della Comunicazione” che è volta a
permettere l’interazione tra utenti ed applicazione in modo indipendente dal tipo di terminale utilizzato, dalla locazione geografica dell’utilizzatore e dalla infrastruttura di interconnessione.
• Allied telesyn
Nell’ambito del networking, Allied Telesyn
International fornisce dispositivi e soluzioni
per reti LAN, WAN e MAN, supportate da
robuste garanzie e supporto (che vanno dalla
garanzia a vita alla sostituzione del dispositivo). La società ha fatto della qualità l’elemento centrale della sua proposta e ha sviluppato
un’architettura di core switching basata su
evolute funzionalità di QoS e di commutazione dei pacchetti con analisi multilayer degli
stessi, al fine di consentire lo sfruttamento di
servizi e applicazioni IP per reti convergenti,
secondo una logica multiservice. Particolare
attenzione ha poi posto anche alle caratteristiche di sicurezza, in particolare per quanto
riguarda le wireless LAN e la realizzazione di
virtual private network.
• Cisco
Cisco Systems fornisce diverse soluzioni di
rete per aziende di ogni dimensione, service
provider e carrier. La strategia Cisco è focalizzata sulle tecnologie emergenti, quali wireless
LAN, IP Telephony, content networking, video
su IP, storage networking, security, network e
system management. L’architettura AVVID
(Architecture for Voice, Video and Integrated
Data) è il framework per lo sviluppo di soluzioni che integrano tali tecnologie e le esigenze di business in un unico modello architetturale basato su standard. In altre parole, AVVID
fornisce l’infrastruttura e i servizi di rete intelligente, essenziali, a detta dei responsabili della
società statunitense, per l’utilizzo delle tecnologie emergenti e delle nuove soluzioni di
Internet business.
• Computer Associates
Computer Associates è specializzata nella fornitura di soluzioni software e servizi per la
gestione di ambienti informatici. In particolare,
parte importante delle soluzioni di CA è l’enterprise management, nel cui ambito la società statunitense propone la nota suite modulare Unicenter. Questa permette una gestione
multipiattaforma di reti e sistemi, l’automazione delle attività, il monitoraggio delle risorse
critiche, il database management, il controllo
delle infrastrutture Web e la gestione delle
applicazioni.
Inoltre, a partire dal 2003, Unicenter è diventato l’elemento centrale della strategia Managing On Demand Computing. Quest’ultima è
stata lanciata da CA come tramite tra i processi di business e l’infrastruttura IT per massimizzare l’allineamento, l’efficienza e la prontezza di risposta.
• D-Link
D-Link propone una gamma di dispositivi
adatti ai diversi segmenti del networking, puntando alla realizzazione di soluzioni semplici,
veloci e caratterizzate da un interessante rapporto qualità/prezzo. La società si indirizza in
modo particolare al settore SoHo/SMB e dispone, inoltre, di una gamma d’offerta per gli
ambiente workgroup ed enterprise, indirizzandosi anche verso il settore retail, dei service provider, delle Telco e della Pubblica Amministrazione. L’azienda è specializzata in sistemi
per le connessioni di rete a larga banda che
includono dispositivi di trasmissioni Voice over
IP, cable modem, router, switch gestiti e unmanaged. D-Link fornisce soluzioni per la realizzazione di LAN cablate e di Wireless LAN con
velocità fino a 108 Mbps e dispone di un’offerta di soluzioni firewall e di apparati VPN per
la protezione della rete. La società ha ottenuto le certificazioni di qualità ISO 9001, 9002 e
14001.
• easynet
Easynet è un operatore con una rete paneuropea e link intercontinentali. La rete si basa
sugli elementi chiave dell’evoluzione tecnologica, il broadband e l’IP, accostati in una soluzione che risponde a esigenze aziendali in ter-
5
NetworkiNg
mine di banda, architetture ridondanti, utilizzo
di modalità di connessione (come il DSL) a
basso costo e elevata capacità, il tutto integrato da una capacità progettuale e di supporto
sperimentata in numerose realizzazioni in Italia e internazionali. Alla base della sua strategia
architetturale e di servizi vi è l’MPLS, il metodo di realizzazione di reti virtuali oramai affermatosi per la realizzazione di soluzioni VPN, la
possibilità di supportare servizi di fonia e dati
e di inserirsi in modo trasparente sia in
ambienti IP che SNA.
• enterasys Networks
Enterasys Networks ha sviluppato il concetto
e le tecnologie di Secure Networks e ne ha
fatto la propria missione aziendale, forte del
fatto che anche in passato questo è stato l’elemento distintivo delle proprie reti. L’obiettivo è quello di disporre di una rete che integra
la sicurezza in tutta l’infrastruttura aziendale, e
punto di integrazione di tutte le tecnologie di
sicurezza. Secondo la
sua visione le Secure
Networks, evolvendo
dalla logica legata alla
densità di porte, alle
prestazioni e ai costi,
si basano sulle “5 C”:
controllo, contesto,
conformità, consolidamento e continuità.
I dispositivi di rete
introdotti recentemente, dagli switch Matrix
ai security router fino alle soluzioni Dragon,
integrano le soluzioni di sicurezza e sono
basati sull’architettura Secure Networks.
• Hp
HP, con le soluzioni Procurve Networking e
mediante la strategia Adaptive EDGE, propone
una visione di una rete articolata sui tre pilastri di sicurezza, mobilità e convergenza su IP,
con l’obiettivo di portare fino al desktop il
Gigabit Ethernet. L’architettura permette di
realizzare reti miste cablate e wireless, ad alta
disponibilità, con la possibilità di scalare in
6
NetworkiNg
modo virtualmente illimitato in dimensioni e
prestazioni. Per farlo prevede l’introduzione di
nuove funzionalità di controllo alla periferia
della rete attraverso switch layer 3 e 4. A queste funzionalità si abbina un comando centralizzato nella parte “core” del network, che
consente di gestire la rete in modo da soddisfare le richieste di fruibilità anytime, anyway e
anywhere.
• Italtel
Italtel ha una presenza pluridecennale nel settore delle Tlc, nella progettazione e nella fornitura di soluzioni per reti pubbliche voce e
dati. Per le sue soluzioni ha adottato un
approccio “carrier class” che l’ha portata alla
definizione di un’architettura e alla realizzazione di un insieme di soluzioni e prodotti che
permette una migrazione verso architetture
evolute, basate su IP ma in grado di supportare anche le esistenti piattaforme TDM. Le
soluzioni di rete che ha sviluppato possono,
infatti, essere introdotte in modo graduale
nella rete di un operatore, con la creazione di
un portafoglio di prodotti concepiti come
migrazione progressiva a partire dai prodotti
esistenti, mantenendo però inalterate le funzionalità relative ai servizi tradizionali.
• Marconi
Marconi ha focalizzato la sua strategia su sviluppi atti a rendere disponibili reti di nuova
generazione e multiservizio. L’approccio permette un'evoluzione graduale verso reti di
nuova generazione mediante le quali sia possibile gestire sia telefonia tradizionale che applicazioni multimediali. La strategia della società
si è concretizzata in un'ampia gamma di opzioni hardware e software. Le tecnologie sviluppate comprendono soluzioni di accesso a
larga banda, routing e switching a banda larga,
microwave radio, SoftSwitch multimediali, network management, reti ottiche. Nel complesso coprono svariate esigenze nel segmento
delle reti mobili e fisse nonché le necessità
connesse alla realizzazione e all’esercizio di
reti metropolitane.
• Microsoft
Microsoft ha fatto di Windows Server 2003
l'infrastruttura software di rete per le organizzazioni che hanno l’esigenza di accrescere
la produttività personale e favorire collaborazione e condivisione delle informazioni. Questo ambiente operativo, congiuntamente con
Visual Studio .NET, Exchange Server 2003 e
SQL Server, è la base per la realizzazione di
un'infrastruttura integrata e interoperabile
adatta a supportare lo sviluppo e l'utilizzo di
nuove applicazioni e di Web Service. Elemento
essenziale è la possibilità di accesso sicuro ai
dati e alle risorse aziendali tramite dispositivi
mobili di diverso tipo, realizzata mediante le
funzioni della piattaforma Exchange Server
2003 e alle applicazioni client Outlook 2003 e
Outlook Web Access.
• Nortel
L’evoluzione che coinvolge la realtà business
aziendale sta apportando profondi cambiamenti alle esigenze in termine di infrastruttura di rete e di strategie per la gestione delle
informazioni. Nortel Networks risponde a
queste esigenze con un’architettura che rende
possibile la convergenza tra voce, dati video e
servizi multimediali su un’unica infrastruttura
unificata. L’architettura, riferita come “Architecture for the Converged Enterprise”, è la
concretizzazione della sua vision OneNetwork e comprende piattaforme, servizi ed
applicazioni che definiscono un ambiente convergente il cui obiettivo è di eliminare i confini fisici tra le reti ed i confini logici tra i servizi erogati o trasportati a livello di rete.
• RAD/CIe telematica
RAD Data Communications, presente in Italia
tramite CIE Telematica, si propone come riferimento tecnologico nella transizione verso
reti di nuova generazione basate su IP. Nella
sua strategia un ruolo crescente lo ha assunto
un approccio volto a ridurre i costi operativi
e infrastrutturali. Con le sue soluzioni è possibile effettuare l'upgrade verso infrastrutture
convergenti e mantenere in esercizio servizi
TDM, ad esempio di PBX convenzionali. Le
sue soluzioni permettono di aggiungere ai servizi consolidati i benefici delle recenti tecnologie LAN e di protocolli quali l’IP e/o l’MPLS
nonché dei servizi di nuova generazione. In
Italia è rappresentata da CIE Telematica, una
società di ingegneria con solide basi tecniche,
presente sul mercato con apparati e soluzioni
per reti pubbliche e private.
• US Robotics
U.S. Robotics è una società presente da anni
sul mercato della connettività di rete con
un’ampia gamma di soluzioni. A partire dal
2001 ha avviato una profonda riorganizzazione delle proprie strategie di prodotto orientandole verso la fornitura di soluzioni anche
per il mercato business. Il suo mercato di riferimento si è spostato consistentemente da
quello analogico a quello wireless e dalla connettività su linee in rame a quella in tecnologia Adsl. Nel corso del 2004 U.S. Robotics prevede di rafforzare ulteriormente la strategia e
il posizionamento in ambito business, con
un’evoluzione progressiva verso le tecnologie
digitali, soluzioni per la connessione a larga
banda su Adsl e la fornitura di sistemi wireless
per il mondo enterprise.
• 3CoM
3Com fornisce soluzioni per la realizzazione di
reti locali e per l’accesso. Punto focale della sua
strategia è l’architettura XRN (eXpandible Resilient Network) per reti sicure e applicazioni di
business continuity. Supporterà XRN anche lo
switch 7700, una soluzione per le esigenze delle
grandi imprese. Simile ai commutatori carrier
class deriva della collaborazione con la cinese
Hua Wei. Stessa origine per la gamma di router,
che adotta il medesimo software per tutti i prodotti mentre la dotazione hardware, a detta dei
responsabili della società californiana, è tale da
poter fare a meno di upgrade successivi all’acquisto per potenziare le performance. Completano il portafoglio 3Com le soluzioni di switching stackable, la gamma per la PMI OfficeConnect e le soluzioni wireless LAN.
G.S.
7
NetworkiNg
Il Gigabit targato 3Com
alla portata di tutti i desktop
Cresce la necessità di banda alla periferia della rete e la casa statunitense
ne soddisfa il bisogno con la nuova linea SuperStack 3 Switch 3870.
F
Giulio Galetti, technical
director di 3Com
8
NetworkiNg
ino a poco tempo fa, sembrava improbabile che si arrivasse ad aver bisogno
di una capacità gigabit al desktop, ma,
del resto, fino a meno di dieci anni fa la massima velocità di connessione a Internet era rappresentata dai 64 Kbps di ISDN o dai 56 Kbps
dei modem analogici V.90. Le cose cambiano e
non deve stupire che 3Com abbia annunciato
una nuova linea di switch stackable dotata di
porte 10/100/1000 e uplink a 10 Gbps.
Giulio Galetti, technical director di 3Com in
Italia, ha affermato: "La crescente disponibilità
di server e desktop in rete ad alta velocità con
connettività 10/100/1000 Ethernet installata
sulla scheda madre, sta favorendo una rapida
crescita delle attività di business in rete".
Gli fanno eco i principali analisti del settore, che si dicono convinti che il 70% del
commercio businessto-business
sarà
"Internet-involved"
entro i prossimi tre
anni.
È quindi del tutto
naturale che, come ha
dichiarato
ancora
Galetti, gli switch,
attualmente attrezzati con porte 10/100
autosensing, scaleranno di una grandezza
la velocità, inserendo
il 10/100/1000 tra le
opzioni a disposizione degli utilizzatori.
Del resto, le reti, le attuali server farm, i data
center e le altre risorse distribuite richiedono
un naturale aggiornamento per implementare
l'attuale connettività Ethernet e Fast Ethernet.
Secondo Meta Group, inoltre, gli switch che
aggregano Fast Ethernet e forniscono collegamenti Gigabit Ethernet alla dorsale di rete
restano una componente critica dell'intera
infrastruttura di rete, con le aziende che fanno
sempre più affidamento sulla connettività ad
alta velocità di desktop e risorse in rete. Gartner va oltre, ritenendo che entro il 2006 il
70% dei pc di nuova generazione monteranno
PCI Express e che questo passaggio andrà di
pari passo con l’introduzione di schede Gigabit on board. Un’indagine di InStat/MDR, poi,
ha evidenziato che solo il 7,5% delle aziende
intervistate (su un campione di 468 mediograndi imprese) non ritiene utile adottare il
Gigabit Ethernet. Del rimanente, bel il 67,7%
vede in questa tecnologia la risposta ai bisogni
di banda del futuro.
3Com vuole seguire e favorire queste strategie di aggiornamento e crescita della rete,
anche perché è certa, a detta dei suoi responsabili, che le imprese cercheranno vendor
coerenti nell'offrire una strategia continua di
rinnovamento, per fornire capacità di gestione
delle nuove applicazioni multimediali con
ampiezza di banda intensiva, che includono
applicazioni voce, video e dati a vari livelli della
rete: Internet, server e desktop.
• Uno stack veramente “super”
Uno strumento finalizzato a tale obiettivo è
rappresentato dalla nuova linea SuperStack 3
Switch 3870 annunciata dalla casa statuniten-
3Com SuperStack 3200 per il Layer 3 in periferia
3Com ha anche presentato la nuova famiglia SuperStack 3 Switch 3200, con funzioni Layer 3 per
la gestione della periferia delle reti, che consentono di dirigere il traffico dati attraverso segmenti di
rete locale condivisa da gruppi di lavoro.
Una delle caratteristiche peculiari riguarda il routing dinamico, che, come ha spiegato Galetti, semplifica la gestione in quanto “aggiorna automaticamente la rete Layer 3 senza l’intervento manuale
dell’operatore”. Inoltre, la nuova serie favorisce la tendenza in atto. È sempre Galetti a parlare: “Con
la compressione dei costi degli ASIC che implementano il Layer 3 switching, sempre più aziende stanno considerando l’opportunità di ottimizzare le prestazioni alla periferia della rete, garantendo sicurezza e continuità operativa”.
Elevate le prestazioni, secondo il costruttore, che attesta capacità wire speed per il Layer con connessioni 10/100 e prioritarizzazione di pacchetto. Sono supportate fino a 2.000 e vengono supportati 802.1x, ACL, SSH e SSL.
Due i modelli: SuperStack 3 Switch 3226, con 24 porte 10/100 e due
porte Gigabit dual-personality rame/fibra (SFP), e SuperStack 3 Switch
3250, con 48 porte 10/100 e due porte Gigabit dual-personality
rame/fibra (SFP).
se. Questa si presenta con caratteristiche
innovative, quantomeno inconsuete, finora,
per dei dispositivi destinati a essere posizionati all’edge della rete.
La nuova linea si posiziona tra lo Switch 3800,
con capacità Gigabit ma standalone, e i SuperStack 3 Switch 4900, destinati alla server
aggregation, e lo Switch 40X0, per il core di
reti di medie dimensioni o a livello di building.
I nuovi switch sono quindi rivolti a quella
fascia alta del mercato, che già oggi possiede
connettività Fast Ethernet e Layer 3 all’edge.
Inoltre, poiché l’unico ostacolo sembrerebbe
essere il prezzo, 3Com ha deciso di adottare
una politica aggressiva, portando i 3870 sul
mercato a un prezzo simile ai 10/100 di fascia
alta.
• Le caratteristiche
Due i modelli disponibili inizialmente distinguibili per il numero di porte: rispettivamente
24 e 48. Entrambi possono essere equipaggiati con un modulo 10 Gigabit che consente il
collegamento a un porta 10 Gigabit sul centro
stella, rendendo possibile una connettività
futura all’interno dell’impresa, mentre fino a
oggi il 10 GE sembrava relegato ad applicazioni MAN. Altra caratteristica comune è la predisposizione hardware al passaggio allo swit-
3Com SuperStack 3
Switch 3250
ching di livello 3, che potrà essere successivamente abilitato con un upgrade software.
Le prestazioni dichiarate dal fornitore sono di
tutto rispetto e rappresentano un nuovo traguardo per 3Com. È, infatti, possibile impilare
fino a 8 switch, in una configurazione che arriva a 384 porte Gigabit. Per ogni switch la
banda di stacking è di ben 40 Gbps (a livello
aggregato 320 Gbps, grazie alla stack wide link
aggregation). A questo viene abbinata la robustezza garantita da una doppia porta di stacking per ciascuna unità e dalla configurazione
loop back resilient.
A parte la banda, il supporto di funzionalità
QoS garantisce nei confronti degli investimenti futuri in reti e applicazioni convergenti. Più
precisamente, gli switch 3870 supportano il
piority queuing (WWR o Strict Priority) su 8
code, gli standard DiffServ (IP ToS) e 802.1D
Cos VLAN priority, l’identificazione del numero di destination port TCP/UDP e la prioritarizzazione del traffico NBX. A questo si
aggiunge anche la capacità di limitazione della
banda su ogni porta.
Le caratteristiche di sicurezza comprendono,
tra l’altro, il login secondo lo standard 802.1X,
l’autenticazione RADIUS, il filtering basato su
porta e il supporto degli standard SSHv1/2
(DES) e SSL (HTTPS).
G.D.B.
9
NetworkiNg
Una “casa della comunicazione”
da Alcatel
La società ha definito una roadmap per l’Unified Interaction Management
che si è già concretizzata nella suite OmniTouch Unified Communication
L
a diffusione di nuove tecnologie ha
ampliato le possibilità delle aziende di
scambiare le informazioni e di interagire con clienti e fornitori. Sono parimenti cresciute le esigenze di sicurezza, di qualità dei
sistemi di comunicazione, di integrazione delle
informazioni. Queste necessità sono alla base
dell’approccio alla comunicazione di Alcatel,
che ha fatto confluire in una visione architetturale unificata e aperta riferita come “Unified
Interaction Management” (UIM) le sue soluzioni per l’azienda. L’UIM a sua volta si basa su
un substrato di rete costituito da un livello di
trasmissione dati e da un livello di telefonia IP.
L’insieme di UIM e delle infrastrutture
fonia/dati costituiscono nella strategia Alcatel,
una “Casa della Comunicazione” volta a facilitare l’interazione tra utenti ed applicazione
indipendentemente dal terminale utilizzato,
dalla locazione geografica dell’utilizzatore e
dalla infrastruttura di interconnessione. La
suite di prodotti in cui si è concretizzata la sua
strategia copre non solo le esigenze in termi-
L’evoluzione
dell’architettura Alcatel
verso l’UIM
10
NetworkiNg
ne di reti e servizi fonia/dati ma anche applicazioni di contact center, di messaggistica e di
contatto.
• L’architettura Unified Interaction
Management
L’UIM consiste di un’architettura specifiche e
una road map evolutiva a partire da piattaforme e applicazioni esistenti, sia Alcatel che di
terze parti. La roadmap ha già completato
parte del suo percorso con lo sviluppo di
soluzioni per l’interazione unificata tra user e
applicazioni. UIM racchiude al suo interno
soluzioni di messaggistica, applicazioni di
comunicazione unificata e applicazioni contact
center. Uno degli elementi portanti dell’architettura UIM e primo passo nel percorso verso
un’interazione globale è OmniTouch Unified
Communication, una soluzione che rende disponibili le informazioni voce e dati e, in generale, le informazioni residenti o accessibili tramite la rete aziendale fissa o mobile. Va osservato che Alcatel è approdata alla strategia concretizzatasi in UIM
dopo un percorso
evolutivo che l’ha
vista affermarsi in settori quali i contact
center e l’IP communication. E’ dalla
fusione di queste due
realtà che è infatti
derivata UIM, volta ad
ottenere per le aziende benefici concreti
nella cooperazione,
nell’interazione
e
nella realizzazione di attività collaborative,
abbattendo in sostanza le barriere di spazio e
di tempo connesse all’utilizzo di terminali, da
quello telefonico al palmare, anche profondamente diversi.
• Una casa aperta e basata
su standard
UIM racchiude al suo interno le funzioni che
sino ad ora si è stati abituati a vedere su piattaforme e architetture separate, ma non solo.
UIM ha infatti un nucleo centrale con funzioni
e strumenti software che agisce da integrazione delle diverse tipologie di applicazioni e funzioni che eroga, non solo per quelle di proprietà Alcatel, ma anche per quelle di terze
parti che aderiscano agli standard internazionali affermatisi. Questo strato software permette il dialogo tra applicazioni di fonia, di
contatto o di messaggistica sia di Alcatel che di
terze parti o di applicazioni quali il CRM o
l’ERP. A questo aggiunge la gestione dei protocolli. L’ approccio rende possibile trasmettere
e ricevere informazioni senza curarsi di dove
si trova il destinatario, che tipo di terminale
dati o voce usa, se si trova connesso ad una
rete fissa o mobile.
Quello che si deve fare è chiamare il numero
di ufficio del destinatario. E’ il software UIM (e
della sua componente OmniTouch) che si
preoccupa di effettuare il reinstradamento
della chiamata al chiamato in modo trasparente, in qualsiasi parte dell’azienda o del mondo
si trovi. Sempre UIM si occupa di convertire il
messaggio nel modo comprensibile al media
del destinatario. Cosa che, ad esempio, permette di ascoltare una mail per telefono in linguaggio naturale.
• Le funzionalità di OmniTouch
Unified Communication
Il principale cambiamento che Alcatel ritiene
derivi dalla disponibilità di UIM consiste non
solo nel concretizzare una società senza confini e limiti di spazio, ma nel modo di fruire e
di disporre delle informazioni stesse. Studi
recenti evidenziano che l’80% delle conoscen-
ze risiede nella mente dei dipendenti e solo il
20% nei sistemi aziendali. Alcatel ritiene che
UIM possa invertire queste percentuali, facilitando lo scambio di informazioni e mettendo
a disposizione strumenti di condivisione delle
informazioni.
OmniTouch si abbina inoltre agli sviluppi di
Alcatel nel segmento delle applicazioni di contatto, iniziati con l’acquisizione di Genesys, un
leader internazionale nel settore dei Contact
Center. La soluzione OmniTouch è costituita
da una suite di quattro applicazioni che sono
volte a permettere una razionale ed efficace
comunicazione aziendale. Le applicazioni condividono una struttura comune basata su IP,
sono interattive e possono essere abbinate.
“My Assistant” svolge la funzione di “assistente on-line” che interpreta il flusso di telefonate, vede a chi sono dirette, le seleziona o le
inoltra a terzi, il tutto tramite VoiceXML. Se
viene integrato con Microsoft Exchange/Outlook e Lotus Domino/Notes permette a utenti fuori sede di rimanere in contatto con l’azienda. “My Messaging” è un’applicazione di
messaggistica VoiceXML compatibile con
Microsoft Exchange e Lotus Domino che consente di gestire, da un’unica mail box, il flusso
di comunicazioni sia del server e-mail che di
messaggistica vocale.
“My Phone” è invece un’applicazione di telefonia su PC compatibile con Microsoft
Exchange/Outlook e Lotus Domino/Notes.
Permette di utilizzare svariati tipi di terminali
telefonici analogici, digitali, cellulari, PDA e i
PC (VoIP).
“My teamwork” è un kit per il lavoro di gruppo, opera su Web e permette di condividere
informazioni anche tramite sessioni multiple
di videocomunicazione.
La suite comprende anche applicazioni disponibili su richiesta. Ad esempio, Softphone trasforma il Pc in un server telefonico Alcatel
OmniPCX, l’applicazione Multi Terminals permette di accedere alle applicazioni con dispositivi palmari o notebook e Voice Access permette di accedere ai servizi usando comandi
vocali.
G.S.
11
NetworkiNg
Ripensare la rete in un’ottica
orientata al servizio
La definizione di un nuovo modello di IT richiede una revisione
dell’architettura e dell’infrastruttura
N
ell’economia attuale, in cui il successo di un’azienda è governato dalla
richiesta di time to market sempre
più ridotto e dalla necessità di rispondere in
modo dinamico e rapido ai capricci di un mercato in continua evoluzione, differenziarsi è
diventato un compito complesso.
Molte aziende perseguono, infatti, la strada
della semplificazione e della massima riduzione dei costi, muovendosi su schemi di business
consolidati e tradizionali. Si tratta di una tendenza trasversale, riscontrabile in settori quali
quello finanziario, manifatturiero o dei servizi.
L’informatica rappresenta uno dei fattori in
grado di contribuire, più di altri, a una differenziazione del business, in grado di trasformarsi in un reale vantaggio competitivo per
un’azienda. Il sistema informativo deve, quindi,
essere in grado di far fronte in modo efficiente alle richieste di rapidi cambiamenti indotte
dal mercato e questo induce a un suo ripensamento, anche in considerazione dell’attuale
complessità tecnologica.
Se ripercorriamo le macro tendenze che
hanno caratterizzato l’IT negli ultimi 20 anni
possiamo vedere come il suo ruolo si sia progressivamente evoluto e il suo valore sia progressivamente aumentato. Negli anni ottanta
l’IT, attraverso i mainframe, rappresentava un
elemento di supporto per il successo del business e la differenziazione; con gli anni novanta
e l’arrivo dei sistemi distribuiti si è trasformato, invece, in un elemento di abilitazione del
successo.
In molti ritengono ora che la situazione tecnologica e di mercato abbiano determinato la
condizioni per una nuova fase di transizione
verso quello che viene definito Service Orien-
12
NetworkiNg
ted Computing (SOC). Parlare di IT orientato
al servizio significa considerare l’IT intrinsecamente legato alle modalità con cui viene effettuato il business.
Si tratta di un modello che sposta l’attenzione
sul servizio all’utente, indipendentemente
dalle modalità o dai sistemi che consentono di
erogarlo, in una logica in cui è importante
focalizzarsi sul “cosa“ e non sul “come”. Indirizzarsi verso un modello di SOC significa
anche realizzare le condizioni per muoversi da
una situazione, come è quella attuale, in cui i
livelli di servizio restano ancora per buona
parte arbitrari (nonostante gli sforzi delle
aziende a definire Service Level Agreement),
verso una in cui i servizi vengono erogati
come utility e, pertanto, in cui esiste un legame diretto tra costo e servizio erogato.
Questo nuovo modello di computing interessa il network in ogni suo aspetto: in relazione
alla logica infrastrutturale, alla collocazione e
all’utilizzo dei server, all’implementazione
delle reti dedicate alla memorizzazione dei
dati e alle piattaforme software.
Una delle principali sfide cha va affrontata
dalle aziende che intendono muoversi in questa direzione è il superamento della complessità che la filosofia del “distributed computing”
ha contribuito a determinare.
Si tratta di una complessità dovuta alla proliferazione (a volte ingiustificata) di sistemi all’interno dell’azienda, alla difficoltà di farli interoperare e alla presenza di un grande numero di
potenziali point of failure.
A essa si aggiunge una complessità operativa,
indotta da infrastrutture software complesse,
poco interoperabili e raramente gestibili in
modo unificato.
• Implementare un’architettura e
un’infrastruttura orientate al
servizio
L’attività dei vendor nella definizione di standard aperti, che ha caratterizzato gli ultimi anni,
ha certamente portato un contributo positivo
verso il superamento della complessità. Tuttavia
il conseguimento di un modello di SOC richiede un approccio integrato all’intero stack dei
servizi che implica, pertanto, un ripensamento
dell’infrastruttura e dell’architettura.
Alla base di una Service Oriented Architecture (SOA) risiede un ecosistema applicativo in
grado di gestire il cambiamento, dotato di un
framework indipendente di linguaggi e piattaforme che fornisca la base per il deployment,
la gestione e l’implementazione del servizio.
Un’architettura orientata al servizio si basa
dunque, necessariamente, su standard aperti e
in essa trovano spazio i Web Service. In una
SOA si parla di gestione del livello del servizio
e non di gestione dei sistemi e, a tale riguardo,
diventa fondamentale l’implementazione di
metodologie di monitoraggio delle prestazioni, di implementazione di funzioni di QoS e di
analisi dei guasti, in modo da poter definire i
servizi e il loro valore in relazione all’esperienza dell’utente.
Il ruolo del network è centrale rispetto al
concetto di SOA poiché la possibilità, per
un’applicazione, di mettere insieme un set di
servizi riutilizzabili presenti su diverse macchine è possibile solo se il servizio supporta
un’interfaccia di rete. È possibile accedere a
un servizio tramite un’interfaccia locale (anziché attraverso il network) ma solo se l’utente
e il service provider sono sulla stessa macchina, mentre la rete consente al servizio di essere indipendente dalla sua collocazione fisica.
Un Service Oriented Network si focalizza,
dunque, sulle applicazioni e dovrebbe trasformarsi in modo da essere gestito come un
sistema. Parallelamente, una Service Oriented
Infrastructure (SOI) deve realizzare le condizioni di interoperabilità degli apparati in modo
indipendente dal servizio applicativo che
devono supportare. Gli elementi fondamenta-
li di un’infrastruttura orientata al servizio
sono perciò la virtualizzazione, la disponibilità
di infrastrutture in grado di effettuare compiti in modo automatizzato (quali il “deployment” del software o il “provisioning” dell’hardware) e in grado di individuare in modo
preventivo l’insorgenza di possibili guasti e
avviare o segnalare le opportune contromisure prima che il servizio erogato all’utente
possa esserne influenzato.
Una volta assicurate queste condizioni, le prestazioni “del livello fisico” possono essere sorrette dall’utilizzo di hardware scelto con una
logica del “best of breed”.
Il modello di Service Oriented Computing,
sfrutta quindi le caratteristiche di una SOA e
di una SOI per realizzare la sincronizzazione
delle architetture infrastrutturali e applicativa,
determinando le condizioni per definire la
gestione del livello di servizio e la trasparenza
del business. Questo favorisce la possibilità di
differenziare il business in base all’interoperabilità e di realizzare le necessarie condizioni di
di controllo trasparente sugli asset IT.
Questo processo può essere accompagnato
da una politica indirizzata a esaltare la differenziazione anche a livello di prestazioni e ciò
può essere fatto, oltre che utilizzando hardware di tipo best of breed, prendendo in considerazione la gestione dell’intero ciclo di vita
del network, dell’ambiente di elaborazione e
delle informazioni.
R.F.
Gli elementi fondamentali
di un’infrastruttura
orientata al servizio
13
NetworkiNg
La rete sicura di Enterasys
per l’Università Bicocca
L’infrastruttura campus dell’ateneo milanese aumenta le prestazioni e la
sicurezza grazie alle soluzioni della società statunitense
L
l’Università degli Studi
Milano – Bicocca ha
esteso la propria rete
Enterasys
a filiale italiana di Enterasys Networks
ha completato con successo l’upgrade
della rete campus dell’Università
Bicocca di Milano. Questa aveva l’esigenza di
incrementare la sicurezza e le prestazioni della
propria infrastruttura, realizzata già a partire
dal 1997 con apparati della casa americana,
quando ancora si chiamava Cabletron.
L’Università degli Studi di Milano-Bicocca, istituita ufficialmente nel 1998 e dal 1999 attiva
con personale docente e tecnico-amministrativo tutto proveniente dall’Università degli
Studi di Milano, è composta attualmente da
otto facoltà (Economia, Psicologia, Sociologia,
Scienze della Formazione, Giurisprudenza,
Scienze Matematiche Fisiche e Naturali, Scienze Statistiche, Medicina e Chirurgia), con mol-
dove si trova la facoltà di medicina. I servizi
forniti all’utenza (personale e studenti) sono
di fatto tutti quelli relativi alla didattica e alla
ricerca, oltre a naturalmente quelli di tipo
gestionale (contabilità, gestione personale,
gestione segreterie studenti). Essendo un Ateneo nuovo, è ancora in fase di espansione sia
per quanto riguarda le sedi sia il personale, gli
studenti e i servizi a essi forniti.
Peraltro, la rete dell’Università serve una
comunità amplia e articolata, con esigenze di
continua disponibilità di accesso, prestazioni
elevate, affidabilità e sicurezza. Si pensi al tipico contrasto che si avverte in questi ambienti
tra la necessità, ai fini della ricerca, di condividere il più possibile le informazioni con l’ambiente accademico internazionale e il bisogno
di proteggere tale informazioni, al fine di salvaguardarne la proprietà intellettuale.
• Il bisogno di espansione
di un’università che cresce
teplici corsi di laurea di vario livello, e conta
un totale di 1.150 dipendenti, di cui 650
docenti. A questi si aggiungono circa 30mila
studenti iscritti, molti dei quali accedono ad
aule equipaggiate con pc o a calcolatori elettronici più potenti per attività varie. Ventitré
sono i dipartimenti e gli istituti, presso i quali
sono attivati numerosi dottorati di ricerca. Gli
edifici universitari sono attualmente 10, di cui
9 dislocati nell’area Bicocca in un raggio di
circa un chilometro e uno situato a Monza,
14
NetworkiNg
In tutti gli edifici dell’Università è installata e
funzionante una rete integrata dati/fonia di
grandi dimensioni. Ogni edificio dispone, oltre
che di uffici per il personale docente e tecnico-amministrativo, anche di aule, dotate di
almeno due prese telematiche, e di aule e
laboratori informatici attrezzati con cablaggio
idoneo sui banchi, per gli studenti. I punti telematici nelle aule e nei laboratori informatici,
distribuiti in locali di dimensioni e capienza
variabile da un minimo di 10 postazioni telematiche fino a oltre 100, sono dell’ordine di
qualche migliaio.
La parte attiva della rete d’Ateneo (a larga
banda con dorsali di edificio e di campus in
GigabitEhernet e utenza in Fast Ethernet) è
costituita da apparati di rete quali router,
layer2 switch e layer 3/4 switch interamente di
marca Enterasys.
L’accesso a internet avviene per mezzo di un
collegamento alla rete Garr (rete italiana della
ricerca) a 34 Mbps. L’utenza universitaria può
accedere alla rete anche da remoto tramite il
servizio RAS. Dal 2001 è operativa, presso i
Sistemi Informativi, la sala macchine di Ateneo
che ospita, in ambiente opportunamente protetto, tutti i server dell’Università degli Studi
di Milano - Bicocca. La sicurezza informatica è
stata implementata tramite l’uso di un complesso sistema di firewalling e intrusion detection.
Requisito fondamentale per la rete era la
robustezza, le prestazioni e la possibilità di
rapida crescita futura.
Nel 2003, volendo migliorare il servizio percepito dagli utilizzatori finali, rendendolo
omogeneo, l’ateneo ha deciso di aggiornare la
parte utente della propria rete con l’adozione
di nuovi sistemi Matrix Serie N di Enterasys,
ottenendo anche di aumentare le prestazioni
dei router nei centri stella principali, uniformare la gestione tecnica della rete e implementare su tutto il campus nuove politiche e
protocolli di rete, come l’802.1x per l’autenticazione.
"Enterasys è stata scelta per lo stesso motivo
di sette anni fa – ha commentato Luisella Sironi, responsabile settore Telecomunicazioni e
Sistemi di Rete dell’Università -. L’ottimo rapporto tra qualità, prezzo e prestazioni e il
grande spirito di collaborazione del personale
tecnico e progettuale".
È stata realizzata un’infrastruttura che, tra
router e switch L2 e L3/L4, conta oltre 300
apparati, più di 7.000 porte, circa 16.000 prese
di rete per l’utenza (70% in rame, 30% in fibra
ottica), oltre 6.000 sistemi in rete (server e
workstation) e 30 linee analogiche/ISDN per
accesso remoto tramite remote access server
(a breve saranno ampliate a 60).
Le soluzioni Secure Networks di Enterasys
sono state scelte sulla base di diversi criteri,
tutti importanti, quali l’economicità, garantita dalla
struttura modulare che
consente di far crescere gli
apparati in base alle esigenze, l’uniformità di
gestione e la solidità.
"In oltre quattro anni di
funzionamento a regime,
compreso un massiccio
aggiornamento architetturale della rete d’ateneo, gli
apparati Enterasys si sono
dimostrati ampiamente validi, sia
dal punto di vista delle tecnologie hardware,
sia per il firmware sia per quanto riguarda il
rispetto degli standard così come il supporto
e la manutenzione", ha osservato Stefano
Moroni, responsabile Ufficio Rete Dati e Sicurezza dell’ateneo.
Il responsabile ha proseguito: "I nostri piani
per il futuro sono di continuare l’upgrade degli
apparati esistenti, anche in modo graduale e
continuativo, di implementare a regime il protocollo 802.1x per tutte le aule, di utilizzare
nel tempo il multicast e di introdurre sperimentazioni wireless".
Enterasys è ovviamente contenta di poter fornire con le proprie Secure Networks lo strumento per consentire la flessibilità di accesso
e condivisione necessarie a una comunità attiva e dinamica come quelle universitaria, garantendo al tempo stesso la sicurezza.
Per soddisfare appieno le esigenze dell’Università degli Studi Milano – Bicocca, Enterasys
si è avvalsa della collaborazione di NAeS Consulting, società di consulenza nata dall’unione
delle competenze di professionisti, formatisi
sul campo in anni di lavoro ai più alti livelli. È
proprio questa esperienza che permette a
NAeS di individuare con precisione problemi
e necessità e quindi integrare le soluzioni più
idonee.
Le attività della società di consulenza si concentrano soprattutto in ambito networking,
cablaggio, software/collaborative computing e
sicurezza.
G.D.B.
Switch Matrix N3 e N7
di Enterasys
15
NetworkiNg
Ethernet si diffonde nell’accesso
I trend evolutivi di Ethernet ne evidenziano un progressivo utilizzo per
l’accesso diretto alle reti geografiche e metropolitane
D
opo aver assistito all’affermazione
del protocollo IP come strumento
universale per la comunicazione dati
e voce si è ora in presenza di un trend analogo per quanto riguarda un altro degli elementi caratterizzanti il mondo Lan aziendale, la
rete, o meglio, la tecnologia Ethernet, che ne è
diventato quasi un assoluto sinonimo.
Ethernet ha compiuto negli ultimi anni un
enorme passo avanti per ciò che riguarda la
velocità operativa e ha finito con lo smantellare le ultime isole di soluzioni alternative ancora esistenti a livello enterprise basate sulla
tecnologia token ring.
Il livello di capacità ora raggiunta, con il consolidarsi del gigabit come velocità di dorsale e
dei 10 Gigabit come nuovo orizzonte evolutivo, le apre ora la strada anche di un’ultima
isola da cui sembrava esclusa, quella dei data
center, che vedono nel 10 Gigabit Ethernet
una modalità per implementare politiche di
back up locale e remoto.
Iniziano infatti a concretizzarsi alternative
all’utilizzo di soluzioni di tipo fibre channel
costituite proprio da Ethernet, complice in
questo la facilità, rispetto al fibre channel, con
cui è possibile trovare personale specializzato
nel supporto di soluzioni Ethernet e il caratteristico basso costo di quest’ultime rispetto
al fibre channel.
Se di questa espansione in quello che è il vero
santuario dei dati aziendali si è solo agli inizi,
dove invece la partita è già in gioco e aspramente combattuta è il settore dell’accesso alle
reti geografiche, dove le soluzioni di recente
apparse sul mercato stanno già ponendo le
basi concrete per una rete su base end-to-end
di tipo Ethernet.
L’interesse in tal senso, viste le possibili e con-
16
NetworkiNg
sistenti economie di scala, da parte degli operatori sono molto consistenti.
• Il trend di Ethernet per l’accesso
alla rete geografica
Ma dove si sta rafforzando la presenza di Ethernet? Soprattutto in ciò che concerne i servizi
erogati dai service provider e, tra questi, i più
significativi sono:
• l’accesso a Internet
• i servizi Lan trasparenti
• le VPN di livello 2 e 3
Se dal generale si scende nel particolare quello che si vede espandere è la presenza e l’interesse nell’adozione di Ethernet per l’accesso a reti Sdh/Sonet, complice in questo proprio l’alta velocità possibile e l’interesse delle
aziende all’utilizzo di una tecnologia ampiamente conosciuta.
Non va poi trascurato che trasportare traffico Ethernet permette automaticamente di
trasferire nell’ambito geografico la medesima
tecnologia su cui si basano le reti convergenti
sviluppate internamente in un’azienda.
Quello che si può prevedere come evoluzione
nel breve e medio termine, che sono poi gli
orizzonti di tempo che interessano per quanto concerne il ciclo di vita di una rete aziendale con una copertura geografica, è la progressiva affermazione di tecnologie che permettano la connessione diretta di Ethernet a
canali ottici ad altissima capacità (DWDM:
acronimo di Dense WDM, una tecnologia che
permette di trasportare più colori ottici sulla
medesima fibra moltiplicandone in proporzione la capacità di banda), una sua espansione
nelle reti Sdh di prossima generazione, per
approdare infine a soluzioni di rete completamente Ethernet.
Gli sviluppi a livello di standard che si sono
avuti per quanto concerne le reti ottiche
metropolitane hanno poi già posto le basi normative e di standard per reti Ethernet di tipo
any-to-any, in grado quindi, tramite reti metropolitane a larghissima banda, di offrire la realizzazione di una rete Ethernet aziendale che
permetta di coprire sia i singoli ambiti locali
che l’intera area geografica interessata dalle
sedi aziendali.
Quello dei servizi è un segmento di mercato
su cui anche gli operatori non nascondono il
loro forte interesse.
Interesse che è più che giustificato, perlomeno
in base alle previsioni fatte, ad esempio, dalla
società di analisi Yankee Group che stima che
i proventi globali derivanti dall’erogazione di
servizi focalizzati sulla tecnologia Ethernet
raggiungeranno, entro il non lontano 2007, la
non trascurabile cifra di 7 miliardi di dollari su
base mondiale.
• Le alternative tecnologiche
esistenti
Quando si analizza la realtà in essere relativa
ad una tecnologia, l’approccio si deve necessariamente muovere non solo sul piano degli
standard, di per sé essenziali sia che si tratti di
standard de jure che de facto, ma anche su
quello della concretezza.
In sostanza ci si deve chiedere quali sono le
possibilità realmente praticabili che vedono gli
standard esistenti concretizzati in soluzioni ed
apparati utilizzabili per il passaggio dalla teoria
alla pratica.
Ebbene, sotto questo aspettto la situazione
degli sviluppi di pattaforme vede impegnate un
largo numero di società, anche se con una
caratterizzazione diversa per ciò che concerne l’area di rete coperta e la tipologia degli
apparati.
Volendo semplificare al massimo l’approccio
analitico, due sono comunque le aree in cui gli
sviluppi e le tecnologie possono essere raggruppate.
La prima è quella relativa ai servizi di interfaccia di reti Ethernet presso la locazione di
utente, con apparati riferiti come CLE (acronimo di Customer Located Equipment, in pratica un box che viene installato presso la sede
delll’utente finale).
La seconda è quella relativa alle infrastrutture
Ethernet per la rete di accesso e cioè tecnologie e apparati utilizzati per realizzare il trasporto di traffico Ethernet sul local loop in
fibra, in rame, in Dsl o di tipo wireless o, infine, reti gigabit ethernet specifiche per l’ambito metropolitane.
Nel loro insieme le tecnologie che sono già
disponibili per applicazioni in queste due specifiche aree del networking pongono in concreto le basi per realizzare infrastrutture particolarmente innovative e ad alte prestazioni a
commutazione di pacchetto, con una presenza
di Ethernet sempre più diffusa ed uno spostamento progressivo del backbone verso protocolli quali l’IP e l’MPLS.
G.S.
Una presenza nutrita di produttori
Come osservato nell’articolo, i produttori attivamente interessati o coinvolti nello sviluppo di soluzioni di rete o di semplici apparati basati su tecnologie Ethernet utilizzabili a livello di accesso sono numerosi e in progressiva crescita.
Un’analisi fatta sempre dallo Yankee Group nel 2003, e quindi abbastanza recente, li raggruppa in tre aree, parzialmente sovrapposte, relative a
tecnologie per:
• Ethernet over Sonet/Sdh
• Ethernet over fibre
• Metro Ethernet Equipment
Ovviamente la situazione reale dei produttori, soprattutto per i pricipali,
non è semplicemente e schematicamente riconducibile ad una così netta
suddivisione.
Ad alcune società specializzate in una sola di queste aree si contrappongono, infatti, altre che sono presenti in modo trasversale in più segmenti
di mercato e di aree di rete.
Tra queste vi sono società quali Alcatel, Nortel, Cisco e l’israeliana RAD.
Altre, come Lucent e Marconi, coprono le aree relative al trasporto di
Ethernet su Sonet e su fibra. Infine, alcune, come Foundry, Riverstone ed
Extreme, sono più presenti nel settore degli apparati per reti Ethernet
metropolitane.
Nel complesso quindi la situazione è in forte evoluzione, con tecnologie
già disponibili e un coinvolgimento di produttori di primo e di secondo
piano di tutto rispetto. Il che permette di affrontare il problema di che
soluzione adottare a livello aziendale con qualche certezza e spazio di
manovra in più.
17
NetworkiNg
La dedizione enterprise
di Hp Procurve Networking
La società correda la propria offerta con nuovi servizi e software, per
offrire soluzioni complete e garantite di sicurezza, mobilità e convergenza
I
risultati conseguiti negli ultimi anni da
parte di Hewlett-Packard nell’ambito del
networking, attraverso le soluzioni Hp
Procurve, hanno proiettato la società americana tra i protagonisti assoluti del mercato
delle reti.
A fronte di una strategia improntata sui tre
pilastri di sicurezza, mobilità e convergenza
che resta invariata, la società ha ora avviato un
processo indirizzato a completare la propria
offerta corredando i propri prodotti di tutti gli
elementi necessari alla definizione di soluzioni
complete. «La divisione Hp Procurve sta ottenendo risultati in continua crescita - ha spiegato Andrea Scaietti, Country Business Manager per la divisione Procurve Networking
Business - soprattutto nell’ambito dello Small
and Medium Business, grazie anche al supporto dei nostri partner di canale. Abbiamo conquistato una posizione di rilevo in settori quali
i prodotti di switching dove, nell’ultimo trimestre, ci siamo posizionati al secondo posto
assoluto in Europa e Nord America per numero di porte spedite. Il nostro obiettivo è quello di rendere sempre più pervasiva la nostra
presenza nell’ambito delle soluzioni di networking di classe enterprise e le nuove iniziative annunciate vanno in questa direzione».
• Tutti i tasselli
per la sicurezza in rete
Hp ha, pertanto, deciso di ampliare il proprio
portfolio affiancando ai propri dispositivi una
nuova gamma di software, di accessori hardware e di servizi, proponendosi come fornitore unico per ogni esigenza associata alle soluzioni di sicurezza, mobilità e convergenza.
18
NetworkiNg
«Ci stiamo muovendo nelle tre aree che
abbiamo individuato come quelle con le maggiori prospettive due anni fa - ha continuato
Scaietti - quando abbiamo definito l’architettura Adaptive EDGE. Oggi vogliamo crescere e
indirizzarci verso il mercato enterprise e per
fare questo è necessario poter fornire soluzioni complete. Non siamo lontani da coprire
autonomamente ogni aspetto correlato a
sicurezza, mobilità e convergenza».
La prima soluzione resa disponibile è dedicata
al mondo dell’IT Security ed è incentrata sul
controllo di acceso alla rete da qualsiasi
punto, sia wireless o wired.
«Il punto di partenza è nell’ambito della sicurezza - ha proseguito Scaietti -. Attraverso le
recenti iniziative si è deciso di implementare
le soluzioni hardware dedicate a questo settore con servizi e software, in modo da fornire una soluzione di protezione a 360 gradi.
Noi ci siamo sempre mossi nell’area dei prodotti dedicati alla sicurezza fornendo una
gamma di feature particolari, ma per la costruzione di una soluzione completa mancavano
ancora piccoli tasselli. Per esempio, nell’ambito delle soluzioni di accesso basate sul protocollo 802.1X, il client richiedeva il software
supplicant che doveva essere fornito da altri
vendor quali Microsoft. Grazie a questo nuovo
annuncio, siamo ora in grado di fornire questo
componente unitamente alle nostre macchine, con la garanzia e il supporto diretto Hp».
Un altro nuovo elemento introdotto è quello
della soluzione server RADIUS per l’autenticazione sicura, che dispone ora della garanzia
e dell’assistenza di Hp. Il software per la sicurezza, allegato in boundle, è disponibile per gli
ambienti Windows, Mac e Linux. Questa
nuova iniziativa giunge in contemporanea con
una rivisitazione delle modalità di erogazione
del servizio, che prevede un nuovo programma indirizzato agli élite partner di Hp Procurve denominato Service Advantage Program.
«Questo nuovo programma - ha spiegato
Scaietti - prevede una forma di abilitazione
all’erogazione del servizio da parte dei nostri
partner. Una volta abilitati, questi potranno
erogare servizi con il loro brand e il nostro
supporto oppure come servizio a brand Hp.
Vogliamo fare crescere questi partner, per noi
importanti, in termini di skill e possibilità di
erogare servizi di livello enterprise».
• Le prossime novità nella
mobilità e nella convergenza
La prima soluzione annunciata riguarda la sicurezza, ma questo approccio si concretizzerà
entro breve anche nell’ambito delle altre due
aree che contribuiscono a definire il fulcro
della strategia Hp Procurve, ovvero la mobilità e la convergenza.
«La nostra roadmap prevede un nuovo annuncio a ottobre nell’ambito della mobilità - ha
detto il manager di Hp - indirizzato alla realizzazione di una soluzione completa che includa, oltre all’hardware, il software di gestione,
applicazioni, servizi e supporto. Nell’ambito
hardware verrà anche rilasciata la nuova scheda per l’access point AP520 a standard
802.11g e una serie di nuove antenne. Per la
parte di management verrà incluso il software
Hp Procurve Manager Plus, in grado di operare in modalità standalone ma anche integrabile all’interno della piattaforma Open View».
In ambito mobilità l’obiettivo di Hp è quello di
mettere a disposizione un sistema centralizzato per la gestione contemporanea dell’infrastruttura wireless e wired, con una gestione
anche delle WLAN multivendor. La società sta
anche lavorando su applicazioni verticali in
ambienti quali quello ospedaliero o dell’education, da coprire con soluzioni globali Hp.
A livello applicativo Hp ha già reso disponibile
interessanti funzioni per la mobilità quali il Vir-
tual lobby, che consente di predisporre un’area di connettività wireless dedicata agli ospiti, slegata dalla rete aziendale. Un’altra funzione fondamentale riguarda la possibilità di disporre di roaming continuativo passando da
una subnet IP a un’altra e anche da una tecnologia wired a una wireless. Hp sta lavorando
su altre soluzioni di prossima disponibilità, che
riguarderanno funzioni legate a e-mail, CRM e
gestione del sales office automation.
Infine, per le soluzioni nell’ambito dell’IP Telephony, Hp ha reso disponibili le schede Powerover-Ethernet per la serie 5000 e ha declinato
una focalizzazione assoluta sullo standard PoE
802.3af. La soluzione di prossimo annuncio
prevede, inoltre, anche l’implementazione di
nuove feature avanzate di QoS.
All’interno di una partnership con Mitel si
inquadra, invece, la prossima integrazione di
alcune caratteristiche di switching Hp sulle
soluzioni della società e il supporto gestionale all’interno di Procurve Manager Plus.
«Abbiamo con Mitel Networks un accordo
tecnologico che non vincola nessuna delle due
società - ha spiegato Scaietti -. Alcuni test
comparati effettuati recentemente da Tolly
Group hanno dimostrato che la qualità della
voce offerta dalle soluzioni Mitel su infrastruttura Hp ProCurve è risultata la migliore. Il
nostro obiettivo resta è quello di proporre
una soluzione competitiva che possa essere
interoperabile con soluzioni multivendor ed
essere utilizzata da aziende che abbiano già
fatto scelte precise nell’ambito delle soluzioni
voce. L’infrastruttura alla base dei nostri
switch ci permette di interoperare con altri
vendor di telefonia e un altro test, effettuato
sempre da Tolly Group, ha dimostrato l’interoperabilità dell’infrastruttura Hp ProCurve
Networking anche con le soluzioni VoIP più
diffuse di vendor quali 3Com, Avaya, Cisco,
Nec e Nortel Networks». La soluzione Hp di
IP telephony sarà sostenuta da una gamma di
servizi, dal supporto di configurazione, installazione, manutenzione e assessment e, nella
progettazione per reti VoIP, dai servizi per
misurare la qualità della voce.
R.F.
Andrea Scaietti, Country
Business Manager per la
divisione Procurve
Networking Business
19
NetworkiNg
Il wireless 802.11 dalla a alla n
Molte le varianti delle specifiche, contraddistinte da lettere dell’alfabeto.
Alcune sono destinate a restare, mentre altre non sono mai decollate
L
a rapida diffusione delle tecnologie
WLAN ha messo sotto pressione il
gruppo di lavoro 802.11 dell’IEEE, che
raccoglie circa 250 società e 650 membri attivi, per la definizione degli standard. Dalla pubblicazione del primo di essi molteplici sono
state le varianti contraddistinte dalle diverse
lettere dell’alfabeto.
La variante denominata 802.11a è stata quella
in grado di esaltare la velocità di banda portandola a 54 Mbps. Per ottenere questo risultato utilizza tuttavia la banda di frequenza a 5
GHz. L’802.11b è attualmente lo standard più
diffuso e noto come Wi-Fi, definito dall’omonima associazione non profit indirizzata a certificare l’interoperabilità delle WLAN e che
ora si riferisce anche agli standard 802.11g e
802.11a.
Le specifiche 802.11d sono state messo a
punto per rispondere alle normative nazionali
di alcuni paesi. Le specifiche 802.11c, di fatto
una modifica dell’802.1d, hanno rappresentato
il tentativo di includere frame 802.11 nel MAC
bridging per ottenere miglioramenti nell’ambito della QoS e delle capacità di filtro. S
La variante è stata abbandonata, ma il tema
della QoS per il livello MAC è stato ripreso in
modo più soddisfacente con le specifiche
802.11e, pensate per introdurre nell’ambito
wireless criteri di priorità indirizzati al traffico
voce o video
L’802.11f è la variante che definisce la capacità di roaming attraverso wireless LAN coperte mediante molteplici access point prodotti
da vendor differenti mantenendo la connessione.
Arriviamo così allo standard 802.11g, che
attualmente sta riscuotendo grande successo.
Le sue caratteristiche fondamentali sono la
20
NetworkiNg
compatibilità verso il basso con l’802.11b,
necessaria per la protezione degli investimenti sinora effettuati e l’implementazione di una
velocità fino a 54 Mbps nel range a 2,4 GHz,
grazie all’implementazione della modulazione
utilizzata nello standard 802.11a.
802.11h aggiunge alcune funzioni all’802.11a
per la gestione dei segnali radio a 5 GHz e la
gestione di potenza per evitare interferenze
con radar e satelliti nel rispetto delle normative europee. L’802.11h dispone di un “fratello
gemello” siglato 802.11j adatto per la compatibilità con i regolamenti giapponesi.
802.11i rappresenta il prossimo passo nell’ambito delle garanzie di sicurezza della trasmissione wireless. Queste specifiche prevedono
infatti aspetti per la gestione e distribuzione
delle chiavi, la cifratura e l’autenticazione.
Segnaliamo anche, in questo contesto riassuntivo, una variante pressoché sconosciuta e
siglata 802.11 IR, per la comunicazione a infrarosso a 1 o 2 Mbps. Sebbene le LAN ottiche
siano una realtà, seguono specifiche proprietari e non è mai stato rilasciato alcun prodotto
basato su tale standard.
Le specifiche 802.11k è un tentativo di uniformare le modalità con cui le versioni a, b e g
riportano le condizioni della rete ad altre parti
dello stack di rete e alle applicazioni, per
migliorare gestione e individuazione dei guasti.
Esiste anche un 802.11m, sigla con cui vengono raccolte rilasci di manutenzione per l’intera gamma 802.11 e utilizzato internamente
all’IEEE.
Nella rincorsa all’aumento delle prestazioni
l’ultimo nato è l’802.11n pensato per portare
il throughput (e non solo il data rate) fino a
100 Mbps e rendere le WLAN analoghe alle
LAN switched Fast Ethernet.
R.F.
Un router carrier class per Cisco Systems
P
er festeggiare i vent’anni dalla sua fondazione, Cisco Systems ha rilasciato CRS-1
(Carrier Routing System), un nuovo router
che Stefano Venturi, amministratore delegato
di Cisco Systems Italy, non ha esitato a definire rivoluzionario. Lo è certamente nelle prestazioni, almeno stando ai dati forniti dal
costruttore, che parlano di una capacità massima del sistema di 92 Tbps, ottenuta dalla
possibilità di collegare fino a 72 scaffali, capaci
di 1,2 Tbps ciascuno, con 8 switch fabric. Le
prestazioni sono rese possibile dall’integrazione di processori multipli di nuova generazione, Cisco Silicon Racket Processor, realizzati in
collaborazione con Ibm, ciascuno in grado di
trattare 40 Gbps.
Nell’occasione Venturi ha ricordato la strada
percorsa in Italia, dove è presente da dieci anni
e dove è diventata una realtà di circa 700 persone in cinque sedi, tra cui il laboratorio di
competenza mondiale per la fotonica.
Nato dalla collaborazione con i service provider, il nuovo apparato è stato dotato di un
software di routing tutto nuovo, evoluzione
dello storico Cisco IOS. Si tratta del Cisco
IOS XR, che comprende capacità self-healing
oltre che essere in grado di gestire tali volumi
di traffico. Più precisamente, a detta di Cisco,
il design modulare della macchina e del sotware fornisce funzionalità di contenimento e
ripristino automatico degli errori, in modo
che le attività del sistema possano essere attivate, interrotte e aggironate senza bisogno di
un intervento manuale. Inoltre, le funzionalità
di sicurezza e autodifesa riconoscono automaticamente le attività dannose, come per
esempio attacchi DDoS.
Secondo Cisco, il nuovo CRS-1 è stato progettato per fornire agli operatori di telecomunicazioni un sistema garantito nel tempo, in
grado di conferire grande flessibilità nello sviluppo di servizi innovativi a valore aggiunto.
Stefano Venturi,
amministratore delegato
di Cisco Systems Italy e
vice president di Cisco
Systems
US Robotics per il wireless a 125 Mbps
L
e possibilità di realizzare reti wireless ad
alta velocità, in cui il differenziale di prestazioni rispetto a quelle cablate risulti ulteriormente ridotto, ha fatto un consistente
passo avanti con il rilascio da parte di US
Robotics della versione a 125 Mbps dello standard 802.11g. Il software di upgrade dalla versione a 100 Mbps a quella a 125 Mbps è inoltre disponibile gratuitamente per chi ha acquistato versioni precedenti delle sue piattaforme wireless.
“Questo annuncio è una prova concreta dell’impegno e delle ingenti risorse investite
nella ricerca per fornire il meglio dei prodotti
disponibili sul mercato” ha affermato commentando l’annuncio l’amministratore delegato di Us Robotics per l’Italia Maurizio Negri,
che non ha nascosto come l’azienda statunitense voglia giocare un ruolo di rilievo nel
mercato crescente delle reti wireless aziendali.
Va osservato che la soluzione 802.11g nella
nuova versione wireless Turbo è in grado di
collegarsi sia con i dispositivi a 54 Mbps
802.11g che 802.11b a 22 e 11 Mbps.
Peraltro, il potenziamento delle prestazioni,
che permettono di ottimizzare il traffico nell’ambito di applicazioni di ufficio, si cala nella
strategia di US Robotics di puntare sempre
più sulle soluzioni per ambienti business, dove
la velocità disponibile è uno degli elementi di
scelta tra una soluzione LAN cablata ed una
wireless.
L’obiettivo dichiarato di US Robotics è quello
di puntare sempre più sul segmento Enterprise, dopo aver raggiunto una posizione di rilevo nel segmento consumer, è confermato
anche dal rilascio di un router (sigla USR8200)
che ingloba funzioni di rete (routing e VPN), di
firewall e di supporto di dispositivi di storage
NAS tramite porte USB 2.0 e IEEE-1394 FireWire.
Maurizio Negri,
amministratore delegato
Us Robotics in Italia
21
NetworkiNg
Un futuro iSCSI per le SAN
e lo storage aziendale
La tecnologia si basa su IP e apre la strada alle PMI per soluzioni SAN e
per un backup a basso costo basato su Ethernet e IP
L
Gli elementi dello stack
iSCSI
22
Server e Storage
a capillare diffusione di Ethernet è alla
base dell’interesse di fornitori ed utilizzatori della fascia delle PMI per soluzioni SAN per Data Center basate su iSCSI.
Dopo la impetuosa affermazione delle Storage
Area Network (SAN) prima e delle NAS poi
per la realizzazione di infrastrutture per lo
storage aziendale e come substrato trasmissivo per Data Center, si intravede all’orizzonte,
peraltro prossimo, una ulteriore evoluzione
tecnologica, quella costituita da soluzioni basate su una comunicazione centrata sulla tecnologia iSCSI.
Questo fenomeno è da osservare con molta
attenzione perché potrebbe avere un impatto
non trascurabile sulle modalità di realizzazione e di gestione di infrastrutture per ambienti ICT, sia sul piano delle modalità organizzative, che per quanto concerne i costi complessivi di un sistema informatico.
In pratica, l’iSCSI è una soluzione di comunicazione tra dispositivi server e storage che
abbina due tecnologie molto diffuse, quella
basata sulla trasmissione IP e quella relativa
alle interfacce SCSI. Poiché IP è oramai sinonimo (o quasi) di Lan Ethernet le potenzialità di
un abbinamento tecnologico per cui lo standard SCSI utilizzi il protocollo IP per trasportare su rete Ethernet i dati da trasferire
ambiente server e ambiente storage sono evidenti senza bisogno di ulteriori e approfondite spiegazioni.
L’iSCSI (acronimo che sta per il chilometrico:
Internet Small Computer Systems Interface), è
un protocollo che permette di abbinare IP con
il mondo dello storage facendo leva sulla velocità delle reti Ethernet e aprendo la strada a
realizzazioni ad alta velocità, sino ad ora prerogativa assoluta di SAN basate su fibra ottica
e standard Fibre Channel.
L’iSCSI permette il trasporto di blocchi dati da
utente finale a utente finale, e cioè da server a
dispositivo di storage e viceversa. In sostanza
è una specie di livello 4 (quello di trasporto)
del mondo OSI, anche se è specializzato per
l’ambiente IT.
Quello che lo rende particolarmente interessante è però un fenomeno indotto da due fattori, e cioè l’alta
velocità oramai ragApplicazioni
giungibile con Ethernet, dove back-bone
Sistema Operativo
a più Gigabit cominComandi SCSI
ciano ad essere diffusi e lo standard a 10
iSCSI
Gigabit sta avendo
una diffusione conTCP
creta per la connessione a reti metroIP
politane ottiche.
• Verso lo storage IP
È proprio l’alta velocità disponibile su Ethernet
ne lascia ipotizzare nel concreto l’utilizzo a
livello aziendale anche in ambienti Data Center
dove le velocità richieste sono notevoli e sino
ad ora soddisfabili con soluzioni SAN più classiche, ovvero quelle di tipo Fibre Channel.
Ovviamente questo è solo un aspetto delle
problematiche che interessano i dati aziendali.
L’altro è quello della loro salvaguardia, del back
up e del ripristino in caso di guasto.
È qui che un approccio tecnologico basato su
iSCSI potrebbe trovare un ulteriore elemento
per la sua accettazione e diffusione. La disponibilità di portanti ottiche metropolitane a 10
Gigabit apre infatti la strada alla realizzazione
di back-up remoti e di ripristino dei dati utilizzando infrastrutture pubbliche a costi
accessibili, con prospettive concrete di economicità anche per la fascia delle medie e piccole aziende.
Un terzo punto è che a livello aziendale verrebbe a cadere la distinzione sino ad ora esistente tra storage centralizzato SAN e storage distribuito NAS, che, a prescindere da altri
aspetti, finirebbero con l’operare sulla medesima infrastruttura di rete di base, quella IP,
locale o geografica che sia.
In pratica, dalla interconnessione ad alta velocità a livello di Data Center sino alla unità di
storage più remota si apre la strada ad utilizzare una soluzione di trasporto in rete praticamente universale, ben conosciuta e dove la
disponibilità di personale di supporto è ampiamente diffusa in quasi tutte le aziende, perlomeno dove l’informatizzazione non è ai minimi termini.
Storage IP
(Lan, MAN, SAN)
Storage
• Protocollo iSCSI
• Protocollo TcpIp
• xxxxxxxxxxxxx
Network
• 1-XX Gigabit
• gridline unificata della
banda LAN-SAN
• back up xxxxxx
• Dalla rete al back-up
L’aspetto del costo della rete e del livello di
conoscenza (che è decisamente più diffuso
per Ethernet ed IP che per il Fibre Channel)
non deve però far trascurare la problematica
connessa alla capacità elaborativa richiesta da
applicazioni SAN e nell’ambito del back-up. La
velocità che caratterizza tipicamente le SAN
richiede infatti soluzioni di storage (e server)
che siano in grado di gestire flussi elevatissimi
di dati, cosa che implica una capacità di elaborazione che non si riscontra in soluzioni che
sino ad ora non fossero specializzate e con un
corrispondente elevato prezzo di entry point.
In parole povere, disporre della possibilità di
trasmettere su una rete Ethernet IP (a 10
Gigabit) se poi le piattaforme di information
technology di cui si dispone non sono in grado
di far fronte alle dimensioni del flusso trasmissivo necessario vuol dire gettare i propri
investimenti o perlomeno usarli con un rendimento ridotto.
E’ pur vero che le piattaforme per apparati di
storage e di elaborazione stanno evolvendo
verso soluzioni multiprocessore, ma queste
soluzioni sono pensate per migliorare le
caratteristiche applicative e non appare vantaggioso usarle per la gestione di un protocollo di rete.
• Una transizione basata su schede
Quella che si prospetta essere la soluzione
che verrà (ed in alcuni casi lo è già) adottata è
costituita dall’incorporazione su firmware
delle funzioni corrispondenti a quanto previsto dallo standard iSCSi (per esempio incorporando la funzione sulla scheda di interfaccia), in modo da lasciare intatta o quasi la
capacità elaborativa, che può così essere usata
in toto per gestire l’applicazione e le funzioni
di storage.
In una seconda fase della sua diffusione è probabile che questo tipo di interfaccia finisca,
come è già avvenuto per Ethernet o la connessione via modem), con l’essere incorporata nelle piattaforme IT in modo nativo. Quella
che però appare la strada da subito percorribile è costituita da schede da inserire nei server e nei dispositivi storage , facendoli diventare a tutti gli effetti, degli end user iSCSI.
Una soluzione che è già praticabile e che presenta il notevole vantaggio di permettere una
prima migrazione della base installata e la realizzazione di impianti pilota che permettano di
fare delle valutazioni reali prima di procedere
sull’intero ambito della infrastruttura ICT
aziendale.
G.S.
iSCSI come elemento
integratore di storage
e rete aziendale
23
Server e Storage
Lo storage è più semplice con
Acer Storage Centre Software
La soluzione della casa taiwanese fornisce un insieme di funzionalità
avanzate, dal backup alla virtualizzazione, per la gestione centralizzata
Q
uotidianamente, in azienda, si accede
ai dati immagazzinati su un supporto
mediatico, utilizzandoli per i più svariati scopi. Dietro questa semplice operazione
si cela una complessità non indifferente, d’importanza vitale per l’azienda stessa.
Acer fornisce l’hardware necessario, server e
storage, per memorizzare i dati e renderli disponibili anche remotamente attraverso una
rete, ma tutto questo sarebbe inutile senza i
servizi di storage, che concretizzano tale disponibilità. Di più, secondo la multinazionale
taiwanese, tutto lo storage networking deve la
propria ragione d’essere agli storage service
e, senza un’infrastruttura software solida, nessuna piattaforma di memorizzazione potrebbe
esprimere il massimo del proprio potenziale.
Acer, per questo, ha realizzato il sistema Acer
Storage Centre equipaggiato con un potente
software atto a erogare i vari servizi di storage che, di fatto, costituiscono la soluzione. La
casa asiatica fornisce il sistema completo, ma
Acer Storage Centre (ASC) Software è disponibile anche per l’installazione su un server. Il
meglio di sé l’ASC lo fornisce in ambienti eterogenei (è indipendente dal sistema operativo
e permette la gestione di SAN, NAS e traffico
IP), dove può svolgere un ruolo fondamentale
nell’ottimizzazione delle risorse storage.
In altre parole, ASC Software risponde, stando
alle dichiarazioni dei responsabili di Acer, alle
esigenze delle imprese moderne che necessitano di alta disponibilità dei dati, gestione centralizzata dello storage, massimizzazione dello
sfruttamento della capacità, miglioramento
delle prestazioni di I/O, accelerazione dei backup e un recovery dei dati più veloce.
24
Server e Storage
• Le sfide rivolte agli ambienti
storage moderni
Come hanno concluso i ricercatori Acer, gli
attuali sistemi di storage devono fronteggiare
una complessità di gestione crescente. Le difficoltà sorgono soprattutto a causa dell’eterogeneità degli ambienti, ma anche per via delle
forti pressioni che arrivano dai vari dipartimenti aziendali, per i quali le informazioni
sono vitali. Ma non basta che il dato non sia né
perso né danneggiato, deve anche essere sempre disponibile. A questo si aggiungono problemi di non inferiore entità nelle aziende
costrette, in particolare oggi, a contenere i
costi.
Malfunzionamenti, perdita dei dati, sottoutilizzo della capacità di memorizzazione, carico di
lavoro eccessivo, mancanza di un piano di disaster recovery, vincoli proprietari sui prodotti, obsolescenza dell’hardware, limiti di connettività, mancanza di servizi storage, inadeguatezza delle prestazioni, finestre per il backup sempre più strette, sovradimensionamento degli acquisti di storage e, anche come conseguenza di tutto ciò unitamente alle difficoltà
di gestione già menzionate, un alto total cost
of ownership. Sono queste le sfide che gli IT
manager sono costretti a raccogliere quotidianamente in termini di storage, secondo la sintesi messa a punto dalle indagini di Acer. A
loro, quindi, la società taiwanese mette a disposizione le caratteristiche della versione 4.0
di Acer Storage Centre.
ASC 4.0 è un insieme completo di soluzioni
per l’infrastruttura di network storage, messe
a punto dalla divisione software di Acer, che
permette di eliminare la complessità e i costi
di gestione dello storage, fornendo infrastrutture SAN e NAS e storage avanzato di classe
enterprise, sia per ambienti storage in rete sia
direct attached, sotto un sistema unificato di
gestione per Fibre Channel e IP. Questa visione continua e integrata dello storage è resa
possibile e ancora più semplice, grazie a un
software di virtualizzazione, ma questo non è
necessario. Laddove, l’utilizzatore volesse
mantenere una maggior distinzione e, soprattutto, non volesse modificare nulla della propria struttura di dati e di file system, ASC consente di realizzare comunque una gestione
centralizzata e integrata, tramite l’opzione
Storage Service Enabler.
• I benefici dell’ASC
In termini generali, i benefici derivanti dall’utilizzo di ASC sono la business continuity
(garantita da una protezione end-to-end dell’hardware e del software, che pone la dovuta
attenzione alla “congiunzioni” critiche dei
sistemi), il disaster recovery (con supporto di
connessioni in Fibre Channel sia in remoto sia
localmente), il consolidamento e l’accelerazione del backup, la storage consolidation e l’ottimizzazione delle prestazioni.
Queste ultime sono migliorate grazie all’impiego di tecnologie, quali: multi-pathing, load
balancing, caching, striping dei dischi e un
accesso rapido ai dati più utilizzati.
Molto importanti i miglioramenti che ASC fornisce in termini di prestazioni del backup,
soprattutto svincolando lo stesso dall’esecuzione in finestre temporali fisse, che ormai
rappresentano più un vincolo che un’opportunità. Si pensi, per esempio, a come si va estendendo sulle intere 24 ore l’operatività delle
imprese, un po’ per la globalizzazione e un po’
per le naturali oggettività di business.
ASC accelera il backup e il restore verso tutti
i tipi di supporto (dischi e nastri o anche verso
virtual tape su disco). Oltre a svincolare dalle
finestre temporali il backup, Acer ha pensato
bene di concentrarsi sui tempi di ripristino,
che spesso fanno la differenza tra questi tipi di
sistemi.
• Il management abbassa i costi
Secondo uno studio Acer, rispetto a una soluzione con direct attached storage e una basata su SAN, si può notare già una riduzione del
TCO di oltre il 50%, ma è grazie all’adozione
di ASC che si manifesta un ulteriore riduzione
dei costi che complessivamente si attestato su
un valore pari a un terzo della soluzione DAS.
Questo consente ovviamente di migliorare
significativamente il ROI di tale sistema, anche
grazie all’ampio set di funzioni che vengono
fornite, tra cui mirroring sincrono dei dati,
replicazione remota, capacity on demand, time
mark e altri.
Per gestirle, gli sviluppatori Acer hanno realizzato una console unica di amministrazione,
basata su un’interfaccia Java.
Il consolidamento di server e risorse storage
consente di ottimizzare notevolmente i costi,
anche perché si ottimizza l’uso della capacità
di memoria. Questa può facilmente essere
estesa, grazie alle funzionalità che consentono
di vedere tutti gli ambienti eterogenei come
un unico sistema e di aggiungerne altri, siano
essi pure SAN o NAS.
Tra le altre caratteristiche, si segnalano anche:
l’opzione SanBridge, che lega isole San separate in un univoco sistema IP, e la capacity on
demand. Chi la sceglie potrà eliminare i malfunzionamenti attraverso uno storage provisioning automatico e policy based.
GDB
Acer Storage Centre
centralizza la gestione
di ambienti storage
eterogenei
25
Server e Storage
Apple abbassa il costo
dello storage multipiattaforma
Attraverso Xserve RAID, la società della mela propone una soluzione
storage scalabile adatta per gli ambienti Mac, Windows, Linux e Novell
L
L’architettura del sistema
storage a disco proposto
da Apple
26
Server e Storage
e esigenze nell’ambito delle soluzioni
storage sono sempre più indirizzate
verso la ricerca di un miglioramento
del rapporto tra prezzo e prestazioni, nel
rispetto della flessibilità e della garanzia di scalabilità.
Attraverso Xserve RAID, Apple risponde a
queste richieste proponendo una soluzione di
storage a disco scalabile, adatta a far fronte
alle esigenze di condivisione di documenti,
stampa, gestione delle postazioni, Web e
media streaming, nonché per il cluster computazionale. La soluzione Apple si indirizza ad
aziende di diversa dimensione, grazie alla sue
caratteristiche di scalabilità che consentono di
disporre di una capacità storage di fino a 3,5
Tbyte all’interno di un unico sistema di dimensione estremamente contenute (3U), ottimizzato per il montaggio su rack.
La possibilità di connettere tra loro diversi
sistemi Xserve RAID, all’interno di un rack
standard 42U, consente poi di arrivare a una
capacità masssima complessiva per singolo
rack di 49 Tbyte.
Un’importante caratteristica del sistema storage realizzato da Apple è la sua capacità di
adattarsi ad ambienti operativi eterogenei. È,
infatti, in grado di operare con Mac OS X Server, ma anche con server basati su Windows,
Linux e Novell aprendo interessanti opportunità rispetto all’aggiunta di dati Exchange o di
archiviazione in cluster.
• Un’architettura per alte
prestazioni e basso costo
Per la realizzazione di questo sistema storage,
Apple ha deciso di allontanarsi dalla scelta tradizionale dei dischi rigidi Fiber Channel,
seguendo una strada indirizzata a mantenere
elevate prestazioni, ma costi particolarmente
contenuti.
Il sistema Apple adotta, pertanto, una nuova
architettura di sistema multi-threaded basata
sull’interazione tra le tecnologie Ultra ATA e
Fiber Channel. All’interno dell’Apple Xserve
RAID possono essere inseriti fino a 14 Apple
Drive Module hot-swappable a 7200, rpm
ognuno dei quail dispone di un canale Ultra
ATA dedicato per la connessione a un midplane passivo, collegato a sua volta all’unità di elaborazione RAID. La presenza di questo canale
ATA dedicato evita possibili congestioni del
traffico dati ed elimina, inoltre, l’interdipendenza tra i dischi; in questo modo, nel caso in
cui si verifichi un guasto su un disco, questo
non determina alcuna influenza sull’accessibilità o le prestazione degli altri. Pertanto, l’aggiunta di nuove unità Apple Drive Module,
espande non solo la capacità del sistema, ma
anche le prestazioni.
Xserve RAID comprende porte due porte
indipendenti Fibre Channel a 2 Gbps per un
trasporto dei dati ad alta velocità tra il siste-
ma storage e l’host, ognuna delle quali garantisce un’ampiezza di banda di 200 Mbps per un
throughput totale fino a 400 Mbps. Grazie a
queste prestazioni il computer host è in grado
di ricevere i dati alla medesima velocità con
cui il sistema RAID li invia. Per la connettività
a lunga distanza l’Xserve RAID si avvale di
connettori SFP (Small Formfactor Pluggable)
che garantiscono una maggiore flessibilità di
deployment all’interno di infrastrutture in
fibra ottica o in rame.
Grazie a queste scelte tecnologiche, alla dispnibilità di servizi integrati, Xserve RAID realizza, secondo quanto dichiarato dalla società, il
migliore rapporto qualità/prezzo nel panorama dell’archiviazione RAID esterna, fornendo
3,5 Tbyte di archiviazione a elevate prestazioni a poco più di $3 per Gbyte. Apple ne suggeruisce, pertanto, l’utilizzo anche come una
possibile alternativa ai sistemi NAS (Network
Attached Storage), in conbinazione con Xserve G5.
• Le funzioni per l’affidabilità
e la gestione
Xserve RAID è studiato per operare in condizioni che richiedono alta disponibilità e, pertanto, adotta un design modulare caratterizzato da moduli di alimentazione e di raffreddamento hot-swappable e ridondanti. Il sistema
storage di Apple supporta i livelli RAID 0, 1,
0+1, 3 e 5 utilizzando un processore hardware RAID, nonché i livelli 10, 30 e 50 combinando le funzionalità RAID hardware con il
software RAID presente in Mac OS X.
È anche possibile creare più volumi di archiviazione su Xserve RAID e utilizzare la funzionalità di mappatura LUN incorporata, per
offrire archiviazione dedicata, fino ad un massimo di 36 sistemi diversi, a seconda della configurazione.
Xserve RAID è fornito da Apple con il software di gestione RAID Admin che semplifica il
setup e il monitoraggio dei volumi storage, per
tutti i sistemi che supportano Java. Nel caso di
guasto di un componente, il sistema di monitoraggio lo notifica immediatamente all’ammi-
nistratore, rendendo rapidi i tempi di intervento e riparazione. Ciascun controller di
Xserve RAID utilizza un coprocessore di
gestione ambientale per monitorare e gestire
le condizioni del set RAID e dello chassis,
anche attraverso l’analisi automatica dei dati
SMART (Self-Monitoring, Analysis, Reporting
Technology) provenienti da ciascun disco rigido.
Apple Xserve RAID
Grazie all’utility RAID Admin è possibile utilizzare il coprocessore di gestione ambientale
per creare all’istante diversi set RAID, senza
attese dovute al processo di inizializzazione.
L’applicazione RAID Admin è scritta interamente in Java e questo consente di monitorare e gestire il sistema RAID da qualsiasi computer (e quindi non necessariamente Mac)
attraverso il protocollo TCP/IP.
La gestione on-site è, invece, facilitata dalla
presenza di una serie di indicatori luminosi
collocati sul display frontale che permettono
di controllare a colpo d’occhio lo stato del
sistema di raffreddamento, dei controller
RAID e della chiusura dello chassis. Il sistema
prevede anche 48 led che mostrano i livelli di
attività per ciascun canale host e di spie che
indicano lo stato della connessione Fibre
Channel.
Il sistema Xserve RAID è supportato da Apple
atraverso l’AppleCare Premium Service and
Support Plan che fornisce consulenze telefoniche qualificate 24 ore su 24, 7 giorni su 7, e
risposte ai quesiti via e-mail entro 30 minuti.
L’assistenza hardware è garantita presso la
sede dell’utente entro 4 ore dalla chiamata, se
effettuata all’interno dell’orario lavorativo,
oppure il giorno successivo nel caso in cui
venga effettuata oltre tale orario.
R.F.
27
Server e Storage
Whirlpool Europe gestisce lo
storage con BrighStor Srm di CA
Grazie alla soluzione di Computer Associates il gigante degli
elettrodomestici ha dimezzato i tempi di gestione di risorse e backup
W
hirlpool Europe ha scelto la soluzione BrighStor Storage Resource Manager di Computer Associates per ottimizzare la gestione delle risorse e
del backup.
Tra fabbriche, sedi distaccate e uffici commerciali, Whirlpool è presente in Europa con oltre
60 insediamenti, che potrebbero aumentare,
vista la spinta propulsiva nell’Est del Vecchio
Continente messa in atto dai vertici della
società. Tutte le sedi di Whirlpool Europe, con
l’eccezione degli uffici più recenti costituiti
ancora da pochissime figure commerciali,
sono collegate in rete attraverso un’infrastruttura Frame Relay.
• Il consolidamento del Data
Center Corporate
Tradizionalmente molto oculata e attenta
negli investimenti, Whirlpool ha avviato un
processo di consolidamento delle attività di
supporto infrastruttura nel Data Center Corporate. Questa attività, assieme alla necessità
di standardizzare i processi di supporto e lo
svincolarsi dalla locazione fisica dalla quale
quest’ultimo viene erogata, ha creato la neces-
28
Server e Storage
sità di implementare una soluzione che permetta di monitorare in modo semplice l’operatività di tutti i server (NT e Novell) implementati in Europa.
Whirlpool Europe, dopo aver analizzato le
diverse soluzioni disponibili sul mercato, ha
deciso di implementare BrightStor SRM (Storage Resource Manager). In questo modo si
sono protetti gli investimenti già fatti sul prodotto BrightStor ARCserve sempre di Computer Associates .
Il primo requisito, infatti, "era quello di uniformare la gestione, in particolare del backup,
sotto un’unica console, che si interfacciasse
anche con il sistema TSM di IBM. Il tutto nell’ottica di ridurre al massimo i tempi", come ha
dichiarato il Responsabile Shared Technology
Services di Whirlpool Europe.
• L’importanza della flessibilità
di integrazione
BrightStor SRM di CA è stata considerata la
soluzione più indicata per conseguire gli obiettivi prefissati. Lo strumento, infatti, è in grado
di raccogliere in un unico punto centrale le
informazioni di storage provenienti da differenti sistemi. In particolare, la soluzione implementata si basa sull’opzione “SRM” di BrightStor per NetWare. L’elevata capacità d’integrazione della piattaforma è stata sfruttata dal
team di CA che ha seguito Whirlpool nell’installazione e configurazione della soluzione. Il
contratto prevedeva infatti 20 giorni-uomo
per l’implementazione, ma le due società
hanno ritenuto di dilungarli nell’arco di più
mesi, per consentire allo staff Whirlpool di
seguire le proprie esigenze di produzione. Una
disponibilità e flessibilità molto apprezzata,
che ha così potuto ottimizzare l’impegno delle
proprie risorse umane e minimizzare l’impatto dell’introduzione del nuovo sistema in produzione.
L’architettura di BrightStor SRM prevede, tra
gli altri, tre componenti particolarmente
importanti per il progetto in questione. Più
precisamente, Application Server SRM è il
manager del sistema che realizza tutte le funzioni di gestione e amministrazione e comprende l’interfaccia grafica, la console di monitoraggio e il database in cui vengono memorizzati i dati. Questi sono raccolti dall’Agent,
che, all’occorrenza, viene attivato dall’Application Server per controllare l’occupazione di
storage sulle macchine in osservazione. I dati
raccolti, quindi, vengono elaborati, correlati,
organizzati e aggregati dall’Application Manager attraverso i Launcher, che svolgono tali
attività, chiamate job, a orari prefissati o ciclicamente, secondo una pianificazione programmabile dall’Application Server.
• Dimezzati i tempi di gestione
Le capacità di raccolta dati e di visualizzazione
logica degli stessi in tempo reale permettono
al gruppo Midrange di Whirpool di avere
immediatamente sotto controllo tutte le
risorse e tutti i processi di backup, ottimizzando soprattutto i tempi della gestione. "Di fatto
riusciamo a risparmiare il 50% del tempo, grazie alle funzionalità automatiche della soluzione e all’unificazione degli strumenti di backup
sotto un’unica console". Il responsabile del
gruppo Midrange ha poi aggiunto: "Dedicando
metà tempo all’analisi dei problemi ci si può
dedicare al più importante lavoro sistemistico
di progettazione e pianificazione". Particolarmente apprezzata, da questo punto di vista,
anche la ricca capacità di reportistica che consente di utilizzare i dati raccolti anche per successive fasi di analisi.
La soluzione di Computer Associates, inoltre,
consente anche di ridurre i tempi di intervento del personale di Production Support. "Si
tratta di addetti poco esperti di informatica,
Un colosso degli elettrodomestici
Whirlpool Corporation è uno specialista mondiale della produzione e vendita di elettrodomestici, con un giro di affari annuo di oltre 11 miliardi di
dollari. La società conta circa 68.000 dipendenti a livello mondiale, di cui
14.000 in Europa, e approssimativamente 50 fabbriche e centri di ricerca e sviluppo nel mondo.
Nella storica sede della Ignis a Comerio, in provincia di Varese, si trova il
quartier generale europeo. Whirlpool Europe è diventata una società posseduta da Whirlpool Corporation nel luglio del 1991, dopo l’acquisizione
da parte della casa madre del 100% della joint venture che era stata
costituita nel 1989 con Philips. Attualmente la presenza nel Vecchio Continente, che serve anche il Medio Oriente, l’Africa e la regione Asia Pacific, si è consolidata portando Whirlpool al terzo posto del mercato di elettrodomestici, con un fatturato 2002 di 2,2 miliardi di dollari e un profitto
operativo di 81 milioni di dollari, e portando il proprio marchio Whirlpool
a essere il più diffuso in Europa.
Undici le fabbriche nel Vecchio Continente, di cui cinque in Italia, comprese quelle di Cassinetta (Varese) che funge anche da centro logistico e da
centro di competenza tecnologica per la refrigerazione e la cucina. Contando, peraltro, anche sedi distaccate e uffici commerciali, Whirlpool Europe arriva a contare oltre 60 insediamenti, manifestando una particolare
spinta propulsiva nell’Est del Continente.
Per gestire l’IT della società, Whirlpool ha costituito un’organizzazione
mondiale che fa capo agli Stati Uniti. In Europa, tale organizzazione
conta circa 120 persone (pari a un quinto del
totale), di cui il 90% è situato a Comerio e il
resto dislocato nelle varie sedi, per lo più presso
i siti produttivi e gli uffici principali.
responsabili 24 ore su 24 della produzione,
che - grazie all’intuitività dell’interfaccia grafica
- possono immediatamente verificare se ci
sono problemi e intervenire rapidamente, evitando interruzioni dei processi".
La capacità di sviluppo delle viste logiche è
fortemente alimentata da quella d’integrazione dei mondi sottostanti. È proprio questa
caratteristica che consente a Whirlpool di
ottimizzare i tempi di gestione, potendo avere
sotto controllo tutti i server, pur di ambienti
diversi, in un’unica vista.
Attualmente, il progetto è stato completato
ed è in produzione, con BrightStor Storage
Resource Manager installato in 22 sedi. Man
mano, seguendo l’evoluzione della struttura di
Whirlpool, in particolare con gli sviluppi nell’Est europeo, l’utilizzo del prodotto sarà esteso ad altre sedi.
G.D.B.
29
Server e Storage
Da DELL lo storage per le PMI
e le realtà dipartimentali
Dell ha aggiunto al suo portafoglio per lo storage una soluzione low entry
per le piccole imprese. Il parere di Kevin Rollins, President di Dell
L
Kevin Rollins
a soluzione, che espande verso il basso
le caratteristiche della sua linea CX, è
orientata a coprire le esigenze di storage di aziende di fascia medio/bassa, con un
rapporto prezzo/prestazioni che al momento,
ha affermato Kevin Rollins, President e Chief
Operating Officer di Dell, non ha confronti sul
mercato.
Il rilascio si riferisce ad un nuovo array con
una capacità di storage di sino a 3 TB che deriva dall’accordo con EMC e che è utilizzabile
sia in configurazione DAS che SAN.
A Kevin Rollins abbiamo chiesto quale è la
situazione attuale ed il ruolo che il segmento
Business ha assunto nei piani di espansione
della società.
Q: Dell ha visto crescere il volume dei prodotti consegnati nell’ultimo
trimestre del 25%
rispetto a quello dello
scorso anno. Quanto di
questo
incremento
deriva da prodotti consolidati , quali desktop
e notebook, e quanto
da soluzioni risultato di
accordi con altri produttori come EMC?
A: La maggior parte
della crescita in volume è dovuta al segmento PC.
Se
consideriamo
però la crescita in
revenue e non in ter-
30
Server e Storage
mini di unità questa è data dalle soluzioni
Enterprise.
Una considerazione da fare è dove vi sia più
profitto e in tal senso il segmento consumer
non presenta categorie che abbiano margini
consistenti.
Al contrario, il mercato delle istituzioni e del
corporate è invece molto più interessante, e
profittevole.
Q:Tredici trimestri consecutivi di crescita o di tenuta in un periodo di criticità è un risultato notevole. Quali sono i motivi che ne stanno alla base?
A: Penso che il modello di business di Dell sia
realmente alla base di questi risultati, offrendo
più valore a prezzi più bassi, miglior qualità, più
contatti col cliente.
Il modello diretto ci permette di avere un
contatto quotidiano con i nostri clienti.
Altri produttori vendono attraverso reseller o
altre società.
Questo può portare a minor efficienza e al
fatto che l’informazione tra il cliente e il produttore viene intermediata.
Con il nostro approccio noi recepiamo le esigenze del cliente molto rapidamente, cambiando l’offerta, adeguando i prodotti ed i
prezzi quasi istantaneamente.
La vicinanza al cliente è l’elemento chiave del
modello diretto di Dell e ci permette di reagire molto rapidamente alle esigenze del mercato.
Q: Nell’ultimo anno Dell ha accentuato lo spostamento dalla fornitura di prodotti a quella di soluzioni, specialmente per il segmento Enterprise.
Che problemi avete dovuto affrontare consideran-
do che è un approccio per voi tutto sommato non
familiare?
A:Tradizionalmente proporre soluzioni è sempre stato molto complicato, perché generalmente erano proprietarie, con forti esigenze
di personalizzazione e costi per il cliente elevati. Nel muovere verso la proposta di soluzioni noi abbiamo scelto di farlo basandoci
sugli standard di mercato.
Ad esempio, abbiamo scelto di implementare
server basati sullo standard Intel e non Unix,
di adottare Microsoft o Linux invece di sistemi più sofisticati e specializzati.
Questo approccio ha contribuito ad abbassare il costo delle piattaforme e reso le soluzioni più facili da gestire e decisamente meno
costose.
Proprio nello stesso momento in cui abbiamo
iniziato a muoverci verso le soluzioni, l’industria ha avviato un consistente processo di
standardizzazione, cosa che ci ha reso possibile proporre soluzioni a costo più basso e che
sono più facili da adottare. I clienti hanno scelto di andare in questa direzione perché hanno
recepito che così facendo possono risparmiare consistentemente sugli investimenti.
Q: Ma la vostra strategia basata sugli standard è
quindi più una opportunità o una visione di lungo
termine?
A: La strategia basata sugli standard è del tutto
consistente con il nostro modello di business.
Ogni volta che osserviamo una categoria di
prodotto muovere verso standard di mercato
quella è una categoria che entra nell’interesse
di Dell, in cui entrare, ridurne i prezzi e, in
definitiva, portarci a guidarne standardizzazione e mercato.
Un tale approccio ci risulta renda molto soddisfatti i clienti.
Q: L’annuncio dell’AX100 mi sembra che, per
prezzi e segmento di clienti target rientri in un
nuovo mercato. Come inserirlo nella strategia di
Dell?
A: Dipende da cosa si intende per mercato
consolidato. Anche se non siamo i primi ad
AX100, una soluzione storage per le piccole
imprese e per le realtà dipartimentali
Il rilascio dell’AX100 da parte di Dell, un prodotto che deriva dalla sua
partnership con EMC, ha l’obiettivo di far entrare la società nel settore
dello storage per le Piccole Imprese e per le realtà dipartimentali con una
soluzione attraente sotto il profilo economico e caratterizzata da un livello di espandibilità pensato espressamente per le PMI.
L’AX100 è un apparato di storage fornito in versione entry-level come
soluzione DAS ma già predisposto per poter evolvere verso configurazioni SAN. Ha una memoria di storage che parte da 480 GB e che può essere espansa sino a 3 TB.
Un altro aspetto saliente nella strategia di prodotto volta a minimizzarne
i costi è la dotazione di tool software che, secondo Dell, permettono di
configurare il prodotto in breve tempo e senza conoscenze particolari con
una modalità guidata da appositi wizard.
La soluzione per lo storage contiene il software necessario per l’installazione, la gestione , il failover automatico e per il backup dei dati.
Sulla piattaforma Dell ha reso disponibili anche funzioni di ridondanza
tipiche di soluzioni di fascia superiore, che comprendono dual controller e
mirrored cache.
L’AX100 viene anche proposto all’interno di una soluzione SAN in “bundle” che comprende l’AX100 con sino a due controller e sino a 12 drive
SATA (storage sino a 3TB), il software di gestione, failover e snapshot, uno
switch Silkworm a 8 porte di Brocade, HBA di Qlogic nonché il supporto
di Microsoft Windows, Linux e Novel Netware.
Dell/EMC AX100 è già disponibile per configurazioni DAS (SAN-ready) a
un prezzo a partire da _4.999 e a _8.499 per le configurazioni SAN.
Dell produce questa linea di apparati nelle proprie fabbriche in USA,
Irlanda e Malesia
entrare in un mercato, usualmente però lo facciamo apportandovi idee innovative.
Ad esempio, come ha detto, oggi annunciamo
un nuovo prodotto per lo storage, l’AX100.
Siamo la prima società ad annunciare un prodotto di questo livello, di queste caratteristiche . E’ un prodotto per SAN che venderemo
al di sotto di 10.000 $, un prezzo mai sentito
prima e che in configurazione DAS scende
sotto i 5000 $. Questo approccio innovativo
permette di portare tecnologie molto sofisticate all’utilizzatore anche di fascia delle PMI.
Per me questo è un esempio di entrata in un
nuovo mercato, che poi è quello dello storage
low-end e mid-range.
Ci aspettiamo che il prodotto abbia molto
successo e che altri venditori finiranno con il
seguirci.
G.S.
31
Server e Storage
EMC: una strategia centrata
sull’ILM e sull’open software
Dopo un’intensa fase di acquisizioni e di rinnovo tecnologico la società
consolida la propria presenza nel software per lo storage
C
onsolidamento, gestione dei dati, ottimizzazione delle risorse sono tutti
termini che i responsabili ICT sentono spesso citare.
Soprattutto in occasione delle riunioni di budget. Dei loro budget.
Passare dalla teoria alla pratica richiede però
un approccio che abbini diversi fattori, che
vanno dall’esigenza di disporre di piattaforme
con capacità elaborative superiori, intelligenza
intrinseca e la possibilità di supportare contesti aperti in termine di sistemi operativi ed
ambienti di lavoro.
Un esempio di strategia volta a rispondere nel
concreto a queste esigenze è quella avviata da
EMC nel corso dello scorso anno e della
prima parte del 2004.
L’approccio seguito dalla società è paradigmatica di come i maggiori produttori di soluzioni
di storage ritengano come non sia più sufficiente concentrarsi esclusivamente su apparati potenti per far fronte alle richieste delle
aziende.
La risposta alle esigenze delle aziende in un
quadro come quello attuale, caratterizzato da
forte crescita dei volumi di dati da gestire e da
archiviare in base a specifiche norme di settore e nazionali, richiede infatti anche una sofisticata capacità di analisi e di conoscenza che
portano a valorizzare sempre più anche l’aspetto ingegneristico e la conoscenza profonda dei processi applicativi.
• Una proiezione verso l’ILM
e i sistemi aperti
Il punto di partenza della strategia che ha
caratterizzato le recenti mosse di EMC è il
32
Server e Storage
rafforzamento della sua piattaforma, che ha
visto prima il rilascio dell’architettura a matrice DMX e poi l’aggiornamento delle soluzioni
per il networked storage, con i CLARiiON
CX300/500/700.
A questo è seguito l’ultimo annuncio in contemporanea con Dell e Fujitsu Siemens, tra i
principali partner OEM di EMC, relativo alla
sua soluzione low entry AX100, che rappresenta il modello entry-level della famiglia
CLARiiON e pensato espressamente per
applicazioni nella gamma delle piccole e medie
aziende.
EMC ha poi reso disponibile anche la soluzione Centera per la gestione dei fixed content,
un altro, quest’ultimo, dei settori emergenti
che stanno raccogliendo un crescente interesse da parte del mondo ICT per la semplificazione che porta nella gestione di informazioni
di tipo statico.
Sulle prestazioni dei suoi nuovi rilasci e sviluppi architetturali la società ha puntato per rafforzarsi nei settori emergenti dell’ILM e della
gestione dei contenuti, che peraltro trovano il
punto saliente in una gamma di soluzioni tecnologiche che propone anche attraverso partner qualificati e molto aggressivi, come è il
caso di Dell.
Con quest’ultima società ha in essere un
accordo di lungo termine per lo sviluppo, la
produzione e la proposta congiunta di soluzioni, recentemente esteso sino al 2008.
Come accennato, il suo rafforzamento nelle
piattaforme, nelle architetture e nelle alleanze
è stato solo il suo primo passo in una strategia che l’ha vista poi sviluppare una fase di
acquisizioni mirate che, anche se portano
come spesso succede, problemi di integrazione e di razionalizzazione nella proposta commerciale, l’hanno in breve tempo trasformata
da un fornitore spostato verso l’hardware in
un fornitore con un efficace bilanciamento tra
hardware, software e servizi, che poi è quello
che chiedono gli utilizzatori finali alle prese
con sistemi informatici caratterizzati da una
complessità crescente, sia realizzativa che
gestionale.
• Le prospettive della politica
di acquisizioni
La politica di acquisizioni che EMC ha condotto in porto nell’ultimo anno è in effetti il vero
atout che la società ha giocato in un momento in cui diversi eventi internazionali e il raffreddarsi, per essere eufemistici, di mercati
importanti per lo storage, ad esempio quello
dei operatori di telecomunicazione, hanno
implicato un rallentare del tasso di crescita
che aveva caratterizzato il settore.
Il risultato di questa politica è che ora EMC si
viene a trovare tra gli attori della scena mondiale del software, con un fatturato di circa un
miliardo e mezzo di dollari che la pone tra i
primi 10 software vendor mondiali.
Questo “spostamento” di ruolo la pone in una
condizione che per la società e i suoi clienti
appare molto innovativa e cioè di fornitore di
software di infrastruttura integrato da una
missione sempre più “a valore”.
Secondo il management della società una tale
evoluzione è indispensabile per rispondere
all’esigenza delle aziende, nella convinzione
che i processi information-centric richiedono
una sempre più stretta sinergia con gli aspetti
applicativi legati alla gestione dell’informazione, alla sua protezione, al suo accesso e relativa condivisione. E’ in base a questo assunto
che si è sviluppata la sua strategia di acquisizioni nel software, che l’ha vista mettere a
segno l’acquisizione di Legato Software, di
Documentum e di Vmware, in alcuni casi soffiando letteralmente la società a agguerriti
concorrenti, complice in questo anche un’adeguata disponibilità di cassa.
Gli obiettivi che EMC appare essersi data, in
un ottica di rafforzamento della propria proposizione ai suoi clienti e di risposta alle esigenze di razionalizzazione e di virtualizzazione
delle infrastrutture IT, presentano il pregio di
essere semplici e precisi.
Consolidare la sua offerta complessiva di soluzioni per l’Information Lifecycle Management,
costituita da piattaforme, software e servizi,
allargando nello stesso tempo una presenza
indipendente negli specifici mercati.
Va osservato infatti che la politica di EMC non
sta portando ad un’integrazione delle acquisizioni all’interno di EMC stessa ma prevede
che le società acquisite continuino ad operare
con il proprio marchio, come aziende autonome o come divisioni indipendenti.
La politica di continuità del management e
della mission specifica, secondo EMC, sta
dando risultati molto positivi e in alcuni casi,
come quello di Vmware, persino superiori alle
aspettative, complice in questo l’interesse per
il software che permette di far girare sulla
stessa piattaforma hardware applicazioni di
ambienti operativi diversi, con il risultato di
permettere un efficace consolidamento e ottimizzazione delle risorse e delle applicazioni.
G.S.
La visione di EMC per l’ILM
La strategia per l’ILM di EMC è il risultato di un’accelerata politica di
espansione.
Nell’ottobre del 2003 ha acquisito Legato Software, ora una divisione di
EMC, che è annoverata tra i principali fornitori mondiali di soluzioni e servizi per l’ILM, con un’offerta che comprende soluzioni per il backup e il
recovery delle informazione in cross platform e che affronta gli aspetti di
accesso, disponibilità e protezione dell’informazione.
Come divisione software autonoma opera anche Documentum, una società specializzata nelle soluzioni di content management, ovvero della
gestione, distribuzione e protezione dell’informazione in forma non strutturata, i documenti per l’appunto.
Il terzo pilastro della sua strategia per il software è costituito da Vmware,
nata nel 1998 per trasferire su ambienti standard le prestazioni della tecnologia delle “macchine virtuali” sviluppate per i mainframe. La sua acquisizione è la dimostrazione del crescente ruolo che EMC assegna alla virtualizzazione a livello server e storage nell’ambito della gestione dell’informazione.
33
Server e Storage
Recuperare competitività
attraverso l’innovazione
Al Forum IT di Grandangolo le aziende evidenziano i vantaggi
dell’innovazione di processo e del rapporto proattivo con il canale
S
Rosa Auricchio,
marketing manager di
StorageTek Italia
34
Server e Storage
i è svolto a Reggio Calabria l’ormai tradizionale appuntamento del Forum IT,
organizzato dall’agenzia Grandangolo.
L’evento è stato l’occasione, da parte di una
serie di vendor, per dibattere sulle modalità
con cui le aziende italiane possono sfruttare le
nuove tecnologie come elemento di vantaggio
competitivo e per interrogarsi sul modo corretto di approcciare la clientela.
Sono stati, pertanto, afffrontati una serie di
temi che hanno riguardato il mondo delle
soluzioni hardware, software, le modalità di
veicolazione attraverso il canale e il mondo
dell’integrazione dei sistemi. Si tratta, in effetti, di aspetti che i vendor tendono sempre più
ad affrontare nel loro complesso, anziché
separatamente, all’insegna di un approccio
focalizzato sulla fornitura di soluzioni.
Tra le soluzioni più orientate all’hardware, lo
storage emerge come uno dei settori di traino, in cui la crisi si è fattta sentire in modo
meno incisivo (o non si è fatta sentire prorio)
e sempre più al centro dell’infrastruttura e dei
processi di business aziendali.
“Le Storage Area Network rappresentano la
soluzione per colmare il divario tra prestazioni e capacità - ha affermato Tino Prato,
country executive di Brocade Communications Italia -. Noi consideriamo le SAN come
il punto di intersezione tra le due tendenze
dell’Information Lifecycle Management e l’utility computing, su cui è necesssario far migrare sempre più le funzionalità e i servizi, per far
fronte alle esigenze future”. Per rispondere a
queste esigenze la società americana specializzata nelle soluzioni fabric switch, ha recentemente rilasciato un router multiprotocollo,
pensato per portare le applicazioni SAN all’interno del fabric e favorire una segmentazione
logica dei dati presenti su SAN distribuite.
Il tema dell’ILM come elemento per ottimizzare lo sfruttamento dellle risorse di storage e
recuperare competitività rappresenta anche
uno dei temi centrali della strategia di StorageTek. “La chiave del successo di Storagetek è
quella di presentarsi al mercato come reale
solutore delle esigenze del cliente a 360° - ha
detto Rosa Auricchio, marketing manager di
StorageTek Italia -. Del resto, oggi le informazioni non possono più semplicemente essere
gestite: occorre analizzarle, proteggerle, distribuirle e memorizzarle nel modo opportuno,
rispettando i budget, non certo illimitati, delle
aziende. Oggi è divenuta sempre più pressante
la necessità di sfruttare a pieno l’hardware
acquistato, razionalizzando gli strumenti già
adottati e con verifiche puntuali sui costi delle
risorse di storage, in relazione al valore dell’informazione che su di esse viene memorizzata”.
Per una corretta fruizione delle informazioni,
essenziale risulta anche la parte di infrastruttura. Su questo versante Roberto Daveti, product marketing manager di MRV Communications Italy, ha sottolineato l’importanza di
poter disporre di sistemi in grado di consentire il trasporto di dati di qualunque tipo, su lunghe distanze, senza penalizzare le prestazioni.
“Le tecnologie di tasporto ottico rappresentano la soluzione in grado di offrire le migliori doti di affidabilità e flessibilità - sostiene
Daveti -. Per queste ragioni MRV Communications dal 1997 fornisce prodotti per le SAN
con particolare riferimento alle soluzioni di
trasporto basate su tecnologie di Wave Divi-
sion Multiplexing, distance extender, media
converter, optimizer basati su singola fibra e
moduli con link ottici ridondanti, specificamente progettati per essere implementati in
reti Fiber Channel, ESCON e FICON”.
Nel non facile compito di recuperare competitività, la applicazioni software offrono ampie
opportunità per una gestione automatizzata ed
efficiente delle informazioni. In questo ambito
l’importanza degli standard e dell’uso di XML
vengono sottolineati come uno dei passaggi fondamentali per la modernizzazione di un’azienda
da Fabio Carletti, amministratore delegato e
direttore generale di Software AG, società che
fornisce soluzioni database e software di sistema, per ambiti transazionali e orientati alle soluzioni di business basate su XML.
“La tecnologia XML - ha detto Carletti - offre
garanzia di maggiore produttività e ritorno
degli investimenti. Inoltre la gestione di contenuti è la base su cui si sviluppa il ciclo di vita
delle informazioni di un’azienda; organizzare,
gestire e condividere contenuto digitale consente di aumentare l’efficacia, migliorare la qualità, ridurre i costi e aumentare la produttività”.
Un altro tassello fondamentaleall’interno di
questo scenario riguarda la determinazione
del ROI, che viene ricordato da Franco Dama,
operation manager channels EMEA di SSA
Global, società specializzta nella fornitura di
software ERP e di soluzioni integrate per la
gestione aziendale.
“Le nuove armi della competitività - ha detto
Dama - sono l’nnovazione dei prodotti, il time
to market, la flessibilità nel seguire le variazioni e fluttuazioni del mercato e la massima
attenzione ai costi. Per dotarsi di queste
“armi” le aziende sempre più spesso cercano
l’aiuto della tecnologia, e l’investimento informatico viene deciso a fronte di un ROI, spesso difficile da misurare e da prevedere. SSA
Global, grazie alla sua esperienza globale, è in
grado di proporre una visione semplificata e
concreta per la misurazione del ROI”.
La sfida, lanciata soprattutto alle PMI italiane,
resta comunque quella di creare valore, sfruttando le innovazioni tecnologiche all’interno
di un contestuale processo di revisione dei
processi aziendali.
“La competitività di impresa è la capacità di
offrire prodotti e servizi di qualità migliore a
costi inferiori o tutt’al più uguali a quelli della
concorrenza - ha detto Gian Maria Odello,
amministratore delegato e direttore generale
di Watermark Italy, società specialista indipendente di soluzioni ERP -. Una corretta installazione di un buon software gestionale consente di generare benefici di bilancio in attività
quali il controllo di gestione, la pianificazione
della produzione, la gestione dei magazzini,
degli acquisti o della relazione con il cliente”.
La bontà delle soluzioni IT, siano esse hardware, infrastrutturali o software non è in grado
di produrre alcun valore se non è affincata da
una politica commerciale efficace e affidabile.
In questo senso il ruolo del canale diventa
sempre più un elemento di reale differenziazione per i vendor.
Le aziende intervenute al Forum IT concordano sulla necessità di qualificare il canale attraverso la costruzione di un rapporto di partnership, definendo in modo preciso e concordato gli impegni reciproci e i livelli di supporto commerciale, tecnico e di marketing. L’obiettivo è quello di instaurare una sinergia
autentica, di cui il primo beneficiario diventa
proprio l’utente.
Un ruolo importante per completare il quadro di una ricerca di competitività che si realizza attraverso un ripensamento dei business
process, è rivestito dai system integrator.
“Il ruolo del system integrator deve evolvere
da un approccio commerciale verso una logica
consulenziale e di servizio - ha spiegato Gianpiero Bianchi, direttore marketing strategico di
Tecnonet, una delle principali aziende italiane di
system integration -. Il system integrator ricerca, assembla, progetta reti e sistemi con tecnologie solitamente prodotte da altri, le rende
fruibili e funzionali, per poi inserirle all’interno
di una proposta di prodotti e servizi e offrirle
ai propri clienti. È’ un’attività che richiede
aggiornamento costante e continuo, conoscenza delle reti e grandi investimenti”.
R.F.
Fabio Carletti,
amministratore delegato e
direttore generale di
Software AG
Gian Maria Odello,
amministratore delegato e
direttore generale di
Watermark Italy
Franco Dama, operation
manager channels EMEA
di SSA Global
35
Server e Storage
Il wireless approda in corsia
Le soluzioni mobili di Fujitsu Siemens Computers aprono nuove
prospettive per la mobilità aziendale e per applicazioni innovative
L
a mobilità è un processo in continua
espansione e virtualmente non esiste
un settore industriale o applicativo
che non sia sempre più permeato da tecnologie di comunicazione e di elaborazione basate
su soluzioni mobili.
Va però osservato che una cosa è parlare di
piattaforme per la mobilità e un’altra di soluzioni per la mobilità.
Le prime sono costituite da apparati, quali le
wireless Lan o i Pc portatili che abilitano un
utilizzatore a collegarsi ad una rete da sedi in
cui esiste un accesso wireless alla rete trasmissiva.
Le soluzioni, in senso lato, sono costituite da
un insieme di piattaforme hardware e software, che possono comprendere un’ampia
gamma di piattaforme ICT, dal tablet Pc al palmare, da server a sistemi di storage sino alla
rete wireless e che, nell’insieme, permettono
di erogare servizi innovativi che altrimenti
sarebbero impossibili da realizzare.
E’ quest’ultimo l’approccio seguito da Fujitsu
Siemens Computers, che ha sviluppato sia
un’ampia gamma di piattaforme portatili per
l’accesso alle soluzioni che le soluzioni medesime, aperte ed in grado di interagire con le
piattaforme di altri produttori ICT.
Sulla mobilità l’interesse ed il coinvolgimento
della società sono in continua crescita.
Il suo impegno nel settore si abbina ad un
altro degli sviluppi che appaiono sempre più
strategici in casa Fujitsu Siemens Computers,
quello delle soluzioni per il business critical
computing.
La società ritiene poi che il trend in crescita
della mobilità continuerà anche nella restante
parte dell’anno, e questo perché le soluzioni
mobili incrementano la produttività e il grado
36
Server e Storage
di soddisfazione non solo dei dipendenti ma
anche dei clienti. E, andrebbe aggiunto, dei produttori.
• Un approccio a largo raggio
Quello che si evidenzia nella strategia di soluzioni perseguita è però un approccio suddiviso su più linee, che, nell’intendimento di Fujitsu Siemens Computers, sono volte a soddisfare i diversi bisogni di mobilità e di soluzioni.
Di mobilità infatti, secondo Fujitsu Siemens
Computers, ne esistono di vari tipi.
Un primo tipo è quella riferita come working
mobility ed è relativa ad applicazioni che sono
attive mentre si è in movimento, come avviene per il medico in corsia o per l’addetto ad
un magazzino.
Invece, la travelling mobility è un tipo di mobilità che si riferisce a chi è invece fuori dall’ufficio, nella propria abitazione o in attesa dell’imbarco in aeroporto e desidera accedere
alla propria mail.
Queste esigenze “mobili”, rimarca la società,
richiedono tipologie di piattaforme e soluzioni diverse, che Fujitsu Siemens Computers
copre con apparati che vanno dai palmari, ai
convenzionali Pc portatili sino agli innovativi
tablet PC, eventualmente dotabili di tastiera
per facilitare l’interazione con le applicazioni.
Quello dei tablet non è però un mercato facile e la stessa Fujitsu Siemens Computers ritiene che lo spazio ideale per una diffusione di
queste tecnologie di elaborazione mobile si
trovi all’interno di soluzioni applicative, come
quella che la società ha realizzato per l’automazione delle corsie presso l’ospedale Son
Llatzer di Palma di Maiorca.
L’interesse della società sul settore mobile e
su soluzioni innovative come il tablet PC è
confermato poi da Peter Esser, Executive Vice
President of Volume Products and Supply
Operations di Fujitsu Siemens Computers.
“Con il nuovo tablet PC STYLISTIC Series e i
recenti modelli LIFEBOOK T siamo in grado
di offrire ai clienti una gamma esclusiva di dispositivi mobili di ultima tecnologia", ha infatti
commentato, osservando poi che la gamma
molto ampia di accessori disponibili e il crescente numero di soluzioni sviluppate dagli
ISV aprono ulteriori ed interessanti scenari
applicativi.
• Un tablet PC con tecnologia
mobile Intel Centrino
Il Tablet PC STYLISTIC ST5010 di Fujitsu Siemens Computers, il più recente modello della
famiglia di terminali portatili, che comprende
anche soluzioni palmari e Pc portatili classici,
incorpora diverse tra le tecnologie più recenti nel settore del calcolo e della mobilità, uno
schermo da 12,1" e ha un peso ridotto a 1,54
chilogrammi.
Per la connettività Internet e di rete è equipaggiato con la tecnologia mobile Intel Centrino, un dispositivo wireless LAN built-in a 54
Mbps, un modem integrato e un'interfaccia
LAN basata sullo standard Gigabit LAN. Per
l’apparato sono disponibili 2 diverse batterie,
di cui una di dimensioni maggiori che permette un'operatività di sino a otto ore, che (purtroppo non sempre) corrisponde alla usuale
giornata lavorativa.
Il sistema operativo è Windows XP Tablet Edition, sviluppato da Microsoft appositamente
per device con tecnologia Touch-Screen.
Come quelli precedenti, l’interazione con le
applicazioni residenti avviene tramite uno speciale dispositivo a stilo che permette di prendere appunti e di trasformare le annotazioni
scritte a mano in testo digitale, grazie ad una
feature del sistema operativo.
Numerosi sono poi gli accessori disponibili,
che comprendono diversi tipi di drive esterni
e una docking station, un lettore di smart card
e tasti di sicurezza per il controllo dell’utilizzo
nonché un involucro in magnesio per la pro-
tezione del sistema e dei dati dai possibili
danni derivanti dall'impiego quotidiano.
• Una soluzione per l’ambiente
ospedaliero
Fujitsu Siemens Computers ritiene che il suo
nuovo tablet PC STYLISTIC ST5010 sia particolarmente adatto per mercati e applicazioni
verticali, quali ad esempio la sanità, le assicurazioni, il commercio, la gestione di magazzino o
le indagini di mercato.
Questi settori hanno infatti come denominatore comune la necessità di dispositivi particolarmente leggeri e con lunga autonomia di
funzionamento, utilizzabili in sostituzione dei
tradizionali blocchi per gli appunti sia in piedi
che in movimento. La valutazione della società non è una previsione teorica ma è confermata nella pratica in una realizzazione attiva
proprio in un ambito particolarmente complesso quale quello ospedaliero, dove il suo
tablet PC STYLISTIC è utilizzato da medici e
infermieri per inserire e consultare i dati relativi ai pazienti durante le visite in corsia.
Due realizzazione di questo tipo sono da
tempo attive, infatti, presso il Son Llatzer
Hospital di Palma di Maiorca e presso la Fondation Hospital Saint-Joseph di Marsiglia.
Al termine delle visite il terminale mobile può
essere collegato a una docking station che ne
permette l'uso come un normale PC.
La soluzione permette anche di
consultare in real time le cartelle
memorizzate nei sistemi di storage dell’azienda o di ottenere dati comparativi tra i
risultati delle analisi in
corso rispetto ai dati storici del paziente. Con la
soluzione realizzata il
personale del Son
Llatzer Hospital di
Palma di Maiorca utilizza i tablet
PC STYLISTIC per accedere direttamente
alle informazioni relative ai pazienti attraverso
la rete Wireless LAN da qualunque punto
della struttura ospedaliera.
G.S.
Il Tablet PC STYLISTIC
ST5010
37
Server e Storage
Da HP nuove soluzioni SAN
per le PMI e per l’ILM
I sistemi StorageWorks integrano array dischi Serial ATA e tecnologie Grid
che abilitano un approccio ILM a basso costo e con espandibilità lineare
L
a crescente presenza nelle tecnologie
per lo storage di HP ha fatto un altro
passo avanti con il rilascio di soluzioni
che sono volte da una parte a ridurre i costi
delle infrastrutture e dall’altra a semplificare la
realizzazione di SAN e di strategie di information lifecycle management (ILM).
La società ha, infatti, annunciato di supportare
la tecnologia Serial ATA (SATA) sulla propria
linea di soluzioni storage HP StorageWorks
MSA.
L’obiettivo appare essere duplice. Da una
parte, infatti, si propone di ridurre i costi delle
soluzioni aprendone l’adozione anche alla
fascia delle PMI, dall’altra rimarca come la tecnologia seriale sia molto più facile da implementare e come porti ad una notevole semplificazione del cablaggio, uno dei costi più
consistenti nella realizzazione delle infrastrutture di base di un ambiente IT.
Basso l’entry point in termine di costo delle
soluzioni che proporrà in questa tecnologia.
HP ritiene che le configurazioni basate sulla
sua tecnologia permetteranno di centralizzare
e gestire lo storage in ambienti SCSI e SATA
con benefici economici e di gestione già a partire da aziende con almeno tre server, che
necessitano di modificare velocemente la
capacità storage al variare delle esigenze di
archiviazione.
L’adozione della tecnologia, riducendo il costo
degli hard drive, consente di mantenere “online” anche informazioni utilizzate raramente
tramite un supporto che costa mediamente,
ritiene HP, oltre l’80% in meno rispetto ai
drive Fibre Channel. Un altro aspetto saliente della strategia HP è che i prodotti della
38
Server e Storage
linea MSA supporteranno sia SATA che le
enclosure tradizionale SCSI e potranno scalare fino a un massimo di 24 terabyte in configurazione stand alone mentre il collegamento
a una SAN è fornito dalla connettività Fibre
Channel nativa.
• Tecnologia FATA per
l’archiviazione a basso costo
Nella direzione di contenere i costi di realizzazione di infrastrutture SAN va anche un’altra soluzione annunciata da HP, consistente
nell’adozione di disk drive Fibre Channel per
la sua linea StorageWorks EVA (Enterprise
Virtual Array).
La soluzione, che è stata sviluppata congiuntamente con Hitachi e Seagate, ha l’obiettivo di
diffondere una nuova classe di disk drive, chiamati Fibre Attached Technology Adapter
(FATA), specificatamente adatta per segmentare i dati di consultazione (ad esempio le e-mail
archiviate) e i dati mission-critical (come le
transazioni finanziarie) tra drive con costo per
gigabit contenuto e drive con prestazioni più
elevate all’interno di un unico sistema di storage.
Il target dei drive FATA, che presentano un
costo per gigabyte dei drive inferiore di circa
il 50% rispetto a quello dei tradizionali drive
Fibre Channel, sono gli ambienti di classe
enterprise e SAN in cui i volumi di archiviazione e il basso costo per gigabyte assumono
una valenza prioritaria rispetto ai tempi di
accesso.
Un altro aspetto che HP ritiene contribuirà ad
una rapida accettazione della soluzione da
parte del mercato è che l’interfaccia Fibre
Channel consente di collegare direttamente
questi nuovi drive all’interno delle attuali
enclosure per drive Fibre Channel HP StorageWorks EVA.
La normale enclosure per disk drive EVA può
infatti supportare disk drive di classe enterprise, i nuovi drive a basso costo Fibre Channel o un mix di entrambi.
Uno degli aspetti evidenziati da HP è che i
drive sono stati progettati proprio per permettere un’integrazione praticamente trasparente con le infrastrutture Fibre Channel
preesistenti, eliminando la necessità di conversioni necessarie per integrare i tradizionali
drive a basso costo quali quelli basati su tecnologia SATA.
Consistenti le capacità di storage. I drive FATA
presentano, infatti, una capacità fino a 250
gigabyte con un’interfaccia Fibre Channel da
2GB al secondo e doppia porta.
Secondo dati di targa i drive presentano prestazioni paritetiche a quelle dei drive disco a
basso costo ATA, ma con molte delle caratteristiche di affidabilità dei drive Fibre Channel.
La flessibilità intrinseca nella soluzione si basa,
ad esempio, sul trasferimento dati dual-ported
ai drive, sulla funzionalità SMART (Self-Monitoring, Analysis and Reporting Technology),
sulla capacità di indirizzamento sequenziale
ottimizzato, l’integrità dei dati con il protocollo nativo Fibre Channel e su funzioni per la
gestione degli errori.
• Storage Grid per l’ILM
HP ha esteso anche la sua piattaforma per l’Information Lifecycle Management e, nello specifico, per l’archiviazione referenziale delle
informazioni, con una soluzione per archiviare, indicizzare e recuperare dati e informazioni chiamata StorageWorks RISS (Reference
Information Storage System).
La soluzione, basata sulla nuova architettura
“storage grid”, ha dichiaratamente l’obiettivo
di semplificare la gestione a lungo termine dei
dati, ridurre i costi e assicurare la conservazione dei dati in conformità alle normative
vigenti e future.
StorageWorks RISS, che presenta caratteristiche innovative sia a livello hardware che software, deriva dalla recente acquisizione di Persist Technologies ed è la prima soluzione di HP
che adotta la nuova architettura “storage
grid”, basata su standard di settore, che permette di distribuire i servizi storage (al
momento per operazioni di archiviazione e
recupero, ma a breve termine anche per altre
funzionalità) su un sistema fortemente scalabile e gestito centralmente.
L’aspetto focale della soluzione RISS è la possibilità di ripartire storage, ricerca e recupero
su una serie di nodi di calcolo specifici, che
sono riferiti come “smart cell” storage. Ciascuna di queste smart cell si compone di un
dispositivo a basso costo ed elevata densità
per il calcolo e dello storage integrato. Le
smart cell sono rese indipendenti tramite un
layer dedicato a processore, engine di ricerca,
database, indici e gestione, cosa che permette
di espandere il sistema aggiungendo nuove
smart cell a quelle installate.
Inoltre, a differenza di soluzioni di archiviazione più convenzionali, che ricercano indirettamente il contenuto attraverso un database
esterno associato ad un’applicazione di archiviazione anch’essa esterna, le smart cell utilizzano i dischi interni per memorizzare i dati di
consultazione, gli indici e i meta-dati. Ciò
rende possibile cercare e recuperare i dati in
pochi secondi indipendentemente da quanta
capacità è stata memorizza nell’archivio o dall’applicazione da cui provengono le informazioni.
G.S.
39
Server e Storage
Ibm apre al mercato il Power5
e unifica la sua architettura
La società avvia una politica di licensing per la customizzazione della sua
CPU, che inserirà sui sistemi server e storage, partendo dalla Serie i
I
La CPU a 64 bit
Ibm Power5
40
Server e Storage
l recente rilascio della versione 5 della
CPU Ibm basata su architettura Power,
segna una tappa particolarmente importante nel percorso di innovazione che caratterizza il colosso statunitense. Con il rilascio del
Power5, Ibm ha, infatti, annunciato l’intenzione
di rendere disponibile al mercato la propria
architettura attraverso modalità di licensing,
per dare vita a una vera e propria comunità
dedicata allo sviluppo di soluzioni microprocessore customizzate.
L’iniziativa parte dalla convinzione di Ibm che sia proprio dai design finali dei
chip, più che dall’architettura sottostante, che scaturiscano le innovazioni necessarie a creare interi sistemi
su silicio e non solo componenti elettronici.
Attraverso questa strategia
Ibm mira a portare l’architettura Power al di fuori del mercato dei server e dei sistemi storage, per indirizzarla verso
piattaforme di vario tipo e sistemi embedded
quali automobili, elettrodomestici e così via.
Tra i primi a usufruire di questa opportunità vi
è Sony, che ha già reso noto di avere ottenuto
da Ibm la licenza relativa all’architettura
Power per il suo inserimento all’interno di
un’ampia varietà di dispositivi consumer, tra
cui la nuova versione della Playstation. Ma altri
accordi sono già in fase di messa a punto con
Nintendo, Cisco e Samsung.
A sostegno di questa strategia Ibm ha annunciato una serie di nuovi programmi e di attività di supporto, quali la creazione di una comu-
nità aperta dotata di nuovi centri di servizio e
nuovi tool di progettazione gratuiti, l’apertura
degli input di sviluppo per un modello di
governance aperta e l’espansione delle opzioni di fabbricazione, che permette ai produttori di fabbricare chip Power.
Ibm intende, inoltre, aprire in tutto il mondo
appositi Power Architecture Center per fornire ai propri clienti assistenza nel design di
chip, schede e sistemi Power. Inizialmente questo supporto sarà curato dai
design engineer di Ibm a cui
si affiancheranno, in seguito,
esperti esterni selezionati
attraverso un processo di
certificazione.
L’implementazione PowerPC
dell’architettura Power continuerà, inoltre, a essere a
disposizione della comunità
degli OEM.
• Una CPU pensata per la
virtualizzazione
Il nuovo microprocessore Power5 è stato realizzato utilizzando tecnologia in rame siliconon-insulator a 130 nm ed è caratterizzato da
importanti innovazioni tecnologiche che, in
base a quanto dichiarato da Ibm, consentono
di avere prestazioni superiori fino a quattro
volte rispetto al precedente Power4, con un
miglioramento anche nel prezzo. Il Power5
dispone di una cache di livello 2 da 1,9 MB e
di livello 3 da 39 MB e sarà disponibile con frequenze di clock maggiori o uguali a 1,5 Ghz.
Il nuovo processore Ibm dispone della capacità di far girare più sistemi operativi all’interno
di micropartizioni virtuali. Si tratta di un processo sorretto dalla tecnologia Virtualization
Engine, che Ibm introdurrà progressivamente
sui propri server e prodotti storage. Il Virtualization Engine permetterà di rendere disponibile su diversi sistemi Ibm, oltre alla tecnologia
di micropartizionamento (derivata dai mainframe Ibm), anche gli strumenti base derivati
da Tivoli per il provisioning e la gestione e le
funzionalità grid per sistemi distribuiti basati
sulla Open Grid Services
Architecture e sulla tecnologia
WebSphere.
Grazie all’utilizzo del Virtualization Engine anche sistemi
Unix e non-mainframe potranno mettere a disposizione fino
a dieci server per microprocessore, con la possibilità di
trasformare, per esempio, dispositivi quadriprocessore in
sistemi a 40 vie virtuali, dotati
contemporaneamente di uno
o più sistemi operativi diversi.
Con questa Cpu Ibm affronta
anche il problema della dissipazione del calore sviluppato
dai chip, che oggi è arrivato a
rappresentare uno dei principali fattori limitanti per l’evoluzione tecnologica dei microprocessori. Sul
Power5 è stata introdotta una nuova tecnologia di dynamic power management, che evita
di mantenere alimentata la CPU negli intervalli di tempo in cui essa non opera. Questa soluzione consente a Ibm di continuare a creare
tecnologia più potente e performante senza
dover ripensare l’architettura di base dei processori.
• Sui server iSeries le prime
implementazioni del Power5
Il Power5 rappresenta un elemento portante
di questa strategia con cui Ibm mira alla creazione di un’unica architettura unificata per
tutte le proprie soluzioni server e storage, così
da sfruttare al massimo il mondo on-demand e
integrare i possibili processi di business
I primi dispositivi a ospitare la nuova CPU a 64
bit e la tecnologia di Virtualization Engine sono
i server della Serie i, ribattezzati i5.
La nuova gamma comprende i modelli i5 520
e 570. Il server i5 520 è disponibile in una versione deskside indirizzata alle piccole aziende
e in una rack, rivolta anche alle aziende di
dimensione media e rappresenta l’evoluzione
delle piattaforme iSeries 800 e 810. Dispone
di processori Power5 a 1
o 2 vie, con una memoria
espandibile fino a 32 GB e
una capacità di memorizzazione su disco fino a 19
TB; le prestazioni sono
scalabili, in modalità on
demand, da 500 fino a
6000 CPW.
L’Ibm e-server i5 570 è un
server disponibile in versioni da 1 a 4 vie, adatto
per aziende medie e grandi, che rappresenta l’evoluzione dei sistemi i825 e
i870. Alloggia processori
da 1 a 4 vie e può scalare
da 3300 fino a 11700
CPW. La memoria può
arrivare a 64 GB, mentre
la capacità storage su disco fino a 39 TB.
Per la fascia alta della gamma, attualmente
coperta dall’iSeries 890, è previsto, entro la fine
dell’anno, il rilascio di un nuovo modello i5.
I server i5 utilizzano il nuovo sistema operativo i5/OS, la nuova generazione di OS/400 che,
oltre a consentire di sfruttare le nuove funzionalità hardware di virtualizzazione del processore Power5, si spinge verso il Web computing, integrando WebSphere Express for iSeries. Tra le altre funzionalità del nuovo sistema
operativo vanno segnalate nuove funzioni di
backup automatizzato per tutti i server ospitati, cross site mirroring (XMS), aggiornamento del firmware a sistema funzionante e la presenza di strumenti di protezione antivirus attivabili per gli ambienti Intel.
R.F.
Gli eServer i5 520 (a
sinistra) e 570 sono i
primi modelli di server
Ibm a ospitare il
processore Power5 e la
tecnologia Virtualization
Engine
41
Server e Storage
L’utility computing
per VERITAS si fa col software
Marco Riboli, managing director della filiale italiana della società, delinea
gli elementi fondamentali della transizione verso la nuova frontiera dell’IT
N
Marco Riboli, managing
director di VERITAS
Italia
42
Server e Storage
el mondo attuale, l’IT rappresenta
una forza motrice fondamentale
per ogni azienda. In un momento di
contrazione del mercato, in cui l’innovazione è
rallentata dalla diminuzione dei budget e dall’incremento dei costi operativi, le aziende
sembrano scorgere con fatica, dietro i costi
legati ai sistemi informativi, il carattere strategico fondamentale dell’IT, in grado di portare
valore facilitando e stimolando la crescita e i
profitti.
VERITAS Software, attraverso le proprie soluzioni, propone con forza una visione incentrata attorno al concetto di utility computing,
termine con cui si delinea un cambiamento
fondamentale nelle modalità con cui vengono
distribuite le applicazioni, con una rinnovata
logica di condivisione delle risorse, di rendiconto dell’uso e dei costi e di gestione dei
livelli di servizio.
Si tratta di un tema strategico centrale per la
società, riaffermato anche recentemente, nel
corso della manifestazione “Vision”, da parte
di Marco Riboli, managing director di VERITAS
Italia.
Secondo Riboli, gli elementi costitutivi dell’utility computing sono identificabili nei tre concetti di disponibilità, prestazioni e automazione, che possono essere realizzati tramite l’uso
del software. In base a questa visione, l’hardware rappresenta un elemento di base necessario, ma è il software che offre la funzionalità
e l’autentico valore della soluzione, soprattutto all’interno di ambienti eterogenei.
La transizione verso l’utility computing permette, secondo VERITAS, di far fronte alla
situazione attuale che espone i responsabili
dei sistemi informativi al duplice attacco da
parte degli utenti (sempre più esigenti nel
chiedere applicazioni migliori e in grado di
automatizzare tutti i compiti aziendali) e del
consiglio d’amministrazione, che chiede al
CIO di spendere sempre meno continuando,
tuttavia, a offrire un servizio impeccabile.
«Da ciascun lato della morsa che stringe il
CIO proviene la medesima richiesta - sostiene
Riboli -, perfezione. Sostanzialmente, quello
che tutti esigono è che l’ambiente IT abbia la
medesima affidabilità e prevedibilità rispetto
all’erogazione del gas, dell’acqua o dell’elettricità. Queste tipologie di reti infrastrutturali
ormai mature sono in grado di fornire servizi
altamente affidabili a milioni di persone a prezzi incredibilmente bassi. In VERITAS siamo
convinti che i dipartimenti IT possano far funzionare l’infrastruttura IT con la medesima
affidabilità e prevedibilità. Attuando una strategia di utility computing, le aziende possono
trasformare i propri dipartimenti IT da centri
di costo a centri di profitto».
• Disponibilità, prestazioni e
automazione
Secondo la società americana i vantaggi offerti dall’utility computing si possono concretizzare attraverso tre elementi funzionali.
Innanzitutto, affinché un’utility IT funzioni correttamente, va garantita la disponibilità continua di dati, server e delle applicazioni, isolando l’utente finale dai possibili problemi causati da un’eventuale avaria di sistema o dall’interruzione di un servizio. Attraverso i propri
prodotti software per backup e recovery,
replicazione, clustering e gestione dei volumi,
VERITAS punta a fornire questa disponibilità
“always on”. Riboli avverte, tuttavia, che la disponibilità va estesa oltre il singolo data center,
utilizzando soluzioni software per il disaster
recovery che consentano di superare anche
gli effetti legati a potenziali eventi catastrofici.
Secondo il manager italiano oggi tutto ciò è
possibile a patto di costruire robusti data center situati in località diverse, in cui i dati devono essere sincronizzati tra queste diverse
postazioni.
Il secondo elemento funzionale è rappresentato dalle prestazioni, che devono estendersi
in modo ottimale dall’applicazione fino al
sistema di storage.
«La disponibilità rappresenta un elemento critico per un’utility IT - precisa Riboli -, ma
anche se i dati sono disponibili, i problemi in
termini di prestazioni possono avere effetti
deleteri sulla produttività degli utenti. È un po’
come se dal rubinetto uscisse solo un filo
d’acqua. Analogamente, se un’applicazione
richiede troppo tempo per fornire i dati
richiesti, è come se si trovasse fuori servizio,
poiché gli utenti non sarebbero disposti ad
aspettare».
In questo contesto va anche considerata la
caratterizzazione multilivello delle applicazioni
di business, che coinvolgono il network, il
client, lo storage e diversi server con compiti
specifici. Il miglioramento delle prestazioni
non può, dunque, che partire da una considerazione dell’ambiente IT nella sua complessità.
Per affrontare questa tematica VERITAS rende
disponibile una soluzione software che opera
a più livelli e che è in grado di rilevare in modo
proattivo eventuali problemi prestazionali,
individuarne la causa primaria e raccomandare una soluzione, con l’obiettivo di risolvere il
problema prima ancora che l’utente lo possa
avvertire.
Infine, l’ultimo tassello è l’automazione che
fornisce una risposta alle richiesta di riduzione dei costi a fronte di un aumento del livello
di servizio. Attraverso le proprie soluzioni
software, VERITAS si propone di utilizzare in
modo più efficiente l’hardware e incrementa-
re la produttività del personale IT, alleviandolo dalle operazioni di routine e lasciandogli più
tempo per dedicarsi ad attività di interesse più
strategico. Le soluzioni VERITAS realizzano ciò
utilizzando una serie di strumenti basati su
policy e di funzioni “intelligenti” in grado di
imparare dai problemi precedentemente risolti, producendo sistemi con capacità di automanutenzione.
«Il rilevamento automatico di nuove applicazioni, utenti, dispositivi ed elementi di rete spiega il manager di VERITAS Italia - alleggerisce l’onere gestionale dell’utility IT, riducendo
così i costi operativi. Quando la gestione
avviene manualmente, possono essere necessarie ore o intere giornate per impostare,
configurare, riconfigurare, aggiornare e gestire
la miriade di hardware esistente in un ambiente IT. Grazie a un software di provisioning
automatico, le medesime operazioni possono
essere svolte in pochi minuti. Inoltre le risorse hardware possono essere riunite in pool e
condivise tra più applicazioni, consentendo
forti risparmi».
Se gli aspetti descritti di disponibilità, prestazioni e automazione rappresentano gli elementi necessari per la concretizzazione di una
logica di utility computing, in ultima analisi la
società sostiene che è la capacità di sfruttare
queste condizioni che determina il livello dei
beneficio che un’azienda ne può ricavare. La
possibilità di disporre dell’IT come utility concede, infatti, ai dipartimenti IT gli strumenti di
rendicontazione necessari per dimostrare il
valore dei servizi che forniscono e controllare
meglio la pertinenza delle spese rispetto al
successo di operazioni e progetti aziendali.
«L’utility computing costituisce la maturazione
dell’IT - conclude Riboli -. Rappresenta semplicemente il passo logico nel corso della sua evoluzione naturale. L’information technology si sta
trasformando in un modello di servizio più centralizzato, meglio gestito e, cosa particolarmente importante, esattamente in linea con gli
obiettivi di business. E questa trasformazione
verso l’utility computing è resa possibile da un
software aperto ed eterogeneo».
R.F.
43
Server e Storage
Sun e Fujitsu insieme per i server Unix
S
Scott McNealy, Chairman
e CEO di Sun
Microsystems
un Microsystems e Fujitsu Siemens Computers hanno annunciato la decisione di
unificare, entro la metà del 2006, le proprie
linee di server Unix. La nuova gamma di server, che viene indicata per ora con il nome in
codice APL (acronimo per Advanced Product
Line), sostituirà le famiglie Sun Fire e Primepower.
A seguito di una collaborazione di lunga data
nel design dell’architettura UltraSparc tra le
due società, le due famiglie di server utilizzano, attualmente, rispettivamente i chip UltraSparc (Sun) e Sparc64 (Fujitsu) che possono
adottare le stesse soluzioni software, ma
richiedono ingegnerizzazioni hardware di tipo
differente. I server APL utilizzeranno la prossima versione VI del chip messo a punto da
Fujitsu. l'accordo coinvolge anche i nuovi sistemi che Sun sta sviluppando basati sui chip Niagara e Rock, dotati di tecnologia di throughput
computing.
Entrambi le società venderanno i prodotti APL
e i sistemi basati sui chip Niagara e Rock. Sun
progetterà e svilupperà i sistemi basati su
Rock e Niagara; per quanto riguarda la linea
APL, invece, Sun svilupperà i server di low
end, mentre le macchine di fascia più alta
saranno il frutto di una progettazione congiunta. Le nuove macchine basate su Sparc64
VI andranno a coprire, secondo quanto dichiarato dai portavoce di Sun, la nicchia high end
lasciata scoperta dal processore Ultra SPARC
V e, in attesa dei nuovi sistemi, Sun continuerà a migliorare i chip UltraSPARC III e IV e
rilasciare sistemi basati su di essi; potrà, inoltre, commercializzare da subito i server Primepower. Fujitsu Siemens Computers costruirà i chip Sparc64 VI, mentre la costruzione di
Rock e Niagara verrà affidata a Texas Instruments. I primi sistemi Sun Niagara sono previsti nel 2006 e nel 2007 seguiranno quelli basati sull’architettura Rock.
Nuove soluzioni per le SAN di Brocade
I
Tino Prato executive
country manager di
Brocade Italia
44
Server e Storage
l secondo quarter del 2004 ha visto Brocade annunciare una serie di nuove soluzioni
che integrano la sua linee di piattaforme di
Switch per ambienti di storage SAN. A inizio
Aprile di quest’anno la società ha annunciato i
nuovi switch per SAN SilkWorm 3250 e 3850,
rispettivamente a 8 e 16 porte, con target
dichiarato quello delle piccole e medie imprese, un segmento sino ad ora poco incline a
investire in SAN visti gli alti
costi che caratterizzavano
questa tecnologia per lo storage. Poche settimane dopo Brocade ha rilasciato nuove soluzioni anche per ambienti
enterprise, un settore industriale alle prese da tempo con
processi di convergenza, consolidamento, scalabilità e performance, ha osservato Tino
Prato, responsabile per l’Italia
della società. Il top della gamma SilkWorm di
Brocade è ora occupato dal modelli 12000 e,
ultimo rilascio, il 24000. Il 12000 è una soluzione che ingloba due switch da 64 porte in
un solo chassis. Il 24000 è invece uno switch a
128 porte in un solo dominio che presenta
consumi ridotti, secondo dati di targa, del
40%. L’apparato dispone di 2 unità di alimentazione e ogni porta di I/O può essere configurata sia come porta Fibre Channel che come FICON, una modalità che permette un miglior tuning,
ha affermato Tino Prato, rispetto a
soluzioni di altri fornitori. Della
soluzione è inoltre già stata prevista la possibilità di upgrade ad altre
tecnologie, in primis quella iSCSI.
Tra le funzioni disponibili anche
quella che permette di effettuare il
tracking a 8 Gbps su 4 porte a 2
Gbps.
Dalla contrapposizione
alla partnership competitiva
C’
era una volta, un mercato IT in cui
manager di aziende che erano dirette
concorrenti si salutavano a malapena. L’evoluzione dell’informatica degli ultimi anni, nel passaggio attraverso momenti di grande sviluppo
tecnologico e di altrettanto esaltante crisi, ci
ha consegnato un mercato profondamente
diverso rispetto a questo aspetto. Il nemico
non è più l’azienda rivale, ma il mancato fatturato e per affrontarlo le aziende non esitano a
concludere alleanze “profane”. Ovviamente la
competizione non è scomparsa, ma è cambiata in favore di quella che si potrebbe definire
una partnership competitiva. Con una voluta
semplificazione, si può affermare che, oggi,
tutti sono contemporaneamente partner e
competitor tra loro. Analizzare tutti i fattori
che hanno contribuito a questo scenario e lo
stanno alimentando sarebbe impossibile, ma
se ne possono almeno evidenziare i principali.
Innanzittutto, il boom tecnologico degli anni
ottanta ha portato nei data center delle aziende una quantità incredibile di nuovi sistemi e
applicazioni che si affiancavano a quelli preesistenti, col risultato di rendere tutto più complicato e costoso da gestire. Nel contempo
l’esplosione dei dati e la distribuzione delle
informazioni, aperte da Internet, avevano reso
il business sempre più elettronico e i processi
sempre più integrati. Se, in quei momenti, sulla
scia dell’ottimismo e dei buoni profitti, pensare all’integrazione poteva essere un compito
procrastinabile, in tempi di crisi la necessità di
consolidamento ha alimentato la richiesta, da
parte degli utenti, di standard aperti che consentissero maggiore integrabilità e protezione
dell’investimento. Su questo terreno si sono
dovute confrontare società quali Emc o Cisco,
che hanno capito che la sedimentazione a
oltranza su soluzioni proprietarie poteva essere un gioco in cui farsi male. Mentre Microsoft
ha affrontato la questione non negando a nes-
suno un accordo per l’utilizzo delle proprie
tecnologie. Un altro elemento fondamentale è
stata, in un mercato governato dal time to
market, la decisione dei vendor di concentrarsi sui pochi aspetti che definivano il proprio
core business. Questo sia per affrontare in
modo più efficiente il mercato, sia per la difficoltà di sviluppare al proprio interno tutte le
competenze necessarie. Un ulteriore aspetto,
per certi versi parallelo, ma anche conseguenza di quanto detto finora, è l’evoluzione verso
un concetto di vantaggio competitivo meno
improntato sulla tecnologia di prodotto e più
sul servizio, nella consapevolezza che un ritardo del primo tipo può essere recuperato al
più in 6 mesi, ma che una struttura di servizio
distribuita, qualificata ed efficiente non si
improvvisa. Sul versante delle soluzoni software è indubbio che la vera rivoluzione sia stata
introdotta dal concetto di open source, che ha
incontrato successo solo quando ci si è accorti che poteva portare denaro; cosa questa
riuscita male a Sun che, sposando l’idea filosofica, più che di mercato, dell’open source, non
è riuscita a capitalizzare in modo adeguato sull’enorme successo ottenuto con Java. Vi è poi
l’esigenza di distribure i costi, sempre più elevati, di ricerca e sviluppo. Questo si è visto
bene nell’arena dei processori, dove la necessità di far fronte a investimenti molto ingenti è
alla base della collaborazione tra Intel e Hp
per Itanium, tra Sun e Fujitsu Siemens per
Sparc, mentre Ibm ha annunciato l’apertura in
licensing della propria architettutra Power.
L’ultimo baluardo della contrapposizione “vecchio stampo” è stato spazzato via dal recente
accordo tra Sun e Microsoft, che prevede uno
scambio non ancora ben definito di tecnologie
e in base alla quale Sun ha chiuso le vertenze
legali con la società di Bill Gates, ricevendo in
cambio la non trascurabile cifra di 1,6 miliardi
v
di dollari.
Riccardo Florio
dida da scrivere
45
Protezione completa con la Web
Intelligence di Check Point
Con la sicurezza Web si completa la strategia della casa israeliana.
Estese le funzionalità VPN. Tutto in uno nell’appliance Connectra.
C
Lorenzo Centurelli,
technical manager
di Check Point Software
Technologies Italia
46
Security
heck Point Software Technologies ha
reso disponibile il componente Web
della preannunciata strategia di sicurezza basata su tre aree: interna, perimetrale e
Web. Più precisamente, la società israeliana è
ora in grado di fornire una soluzione di protezione completa per gli ambienti e la connettività Web grazie alla tecnologia Web Intelligence e alle soluzioni Connectra e SSL Network
Estender, che estendono le capacità di connessione VPN.
È il tassello che mancava per completare la
strategia di soluzioni intelligenti di sicurezza
interna, perimetrale e Web, lanciato lo scorso
novembre da Check Point per rispondere alle
sfide dinamiche e in evoluzione dell’Internet
security.
La nuova tecnologia Web Intelligence aggiunge
un ulteriore grado di protezione a quelli forniti da Stateful Inspection e Application Intelligence, salvaguardando dalle minacce rivolte
alla rete, ai server a livello di sistema operativo, ai Web server e ai server applicativi di
back-end. A questo proposito, "è importante
osservare – ha affermato Andrea Rizzi,
country manager di Check Point in Italia - che
noi facciamo riferimento a tutto l’ambiente
Web e non solo ai client o ai gateway SSL
VPN". Tutta la sicurezza Web, che riguarda gli
utenti e i browser al di fuori della rete e applicazioni e risorse all’interno della rete che gli
utenti utilizzano.
Secondo quanto dichiarato da Rizzi, questo è
un ambito fondamentale per l’intera sicurezza
aziendale. Non a caso, il 75% degli attacchi e
delle violazioni della sicurezza su Internet passano attraverso le applicazioni Web. Inoltre,
cresce il numero di Web server e di intranet
ed extranet: in base a dati IDC, il numero dei
primi è passato dai 100 milioni del 1998 ai 500
milioni del 2003 e il mercato dei portali Web
per l’enterprise, che è stato di 550 milioni di
dollari nel 2001, arriverà a quota 3,1 miliardi di
dollari nel 2006.
"Da pagine statiche fatte in casa, si è giunti a
portali completamente dinamici, che integrano sul Web applicazioni legacy. Aumenta il
numero e la tipologia degli utenti remoti e
cresce il “desiderio” di accessi “clientless”", ha
sottolineato ancora Rizzi.
• L’analisi dei codici “maligni”
La tecnologia Web Intelligence fornisce protezione all’intero ambiente Web grazie a funzionalità quali la protezione contro malicious
code e un’avanzata ispezione delle transazioni,
il tutto abbinato a semplicità d’uso e implementazione.
Più in dettaglio, Lorenzo Centurelli, technical
manager Check Point Software Technologies
Italia, ha spiegato come l’innovativo Malicious
Code Protector individui gli attacchi di “buffer
overflow” e altri codici pericolosi, attraverso
la ricerca di eseguibili potenzialmente dannosi
nelle comunicazioni Web. Partendo dal presupposto che i codici binari che attraversano
la rete sono pochi, ben noti e tipicamente
legati a traffico FTP, il sistema monitorizza i
flussi di dati e blocca quelli che potrebbero
contenere codice, disassemblando e analizzando il codice eseguibile inserito all’interno del
traffico di rete. In sintesi, il codice viene “eseguito” virtualmente, in modo da riconoscere
gli attacchi. Di fatto, vengono ricercate specifici pattern con un’analisi basata sul comportamento e non su signature. "In questo modo –
ha concluso Centurelli – Malicious Code Protector cattura attacchi conosciuti e non con
un basso tasso di falsi positivi".
Check Point ha poi esteso le funzionalità di
ispezione e ricostruzione dell’architettura
Inspect, aggiungendo controlli attivi del traffico di flussi dati in tempo reale. È quello che
realizza Active Streaming Inspection, che fornisce protezione a livello applicativo a elevata
velocità (secondo dati del costruttore, le prestazioni vengono penalizzate mediamente del
20-30% con Active Streaming, mentre Malicious Code Protector ha un impatto pari al 510%). Più precisamente, consente complesse
ispezioni e, come ha spiegato Centurelli, manipolazioni dei flussi dati, effettuate a livello kernel. In pratica, è possibile sostituire le informazioni sui Web server che l’attacker sta raccogliendo con “spazzatura”, aumentando la
sicurezza.
A detta di Check Point, inoltre, Web Intelligence, creata per essere implementata velocemente a protezione dei server Web, non
richiede adattamenti e configurazioni complesse e fornisce una gestione granulare delle
policy attraverso un’interfaccia grafica di facile
impiego.
• Una VPN sicura
I protocolli di tunneling per la creazione di
VPN non forniscono sicurezza intrinseca. Per
questo Check Point ha sviluppato già da
tempo VPN basate su IPSec, che proteggono
sia il lato client sia quello server (su cui viene
attuata anche una politica di prevenzione con
Application Intelligence, Web Intelligence e
SmartDefense). Le VPN con SSL, tipicamente
(dipende dalla soluzione implementata), non
prevedono un controllo accurato sul client,
che può facilmente essere utilizzato per
bypassare altri elementi di protezione. Per
rispondere comunque alla richiesta di connessioni VPN clientless sicure, Check Point ha sviluppato una soluzione che, basata sull’appliance Connectra (si veda il riquadro), permette di
proteggere la rete dal terminale remoto ed
eventualmente aumentare il livello di sicurezza dello stesso.
Funzionalità analoghe possono essere ottenute con SSL Network Estender, disponibile
come add on per VPN-1.
G.D.B.
Connectra: un gateway
per la sicurezza Web e le VPN
Connectra è una nuova appliance che integra le tecnologie Application
Intelligence e Web Intelligence, proteggendo da attacchi sia di livello rete
che di livello applicativo provenienti da punti di accesso (client) insicuri.
Gestire l’accesso remoto, a detta di Check Point, risulta molto più semplice e gli stessi utenti possono risparmiare tempo e sudore nel collegamento alla rete aziendale.
L’appliance, il cui hardware è realizzato in collaborazione con Dell, supporta VPN IPSec o SSL, estendendo le possibilità di accesso a un numero
maggiore di utenti. Peraltro, è capace di autoproteggersi dagli stessi. Infatti, grazie alla soluzione Integrity acquisita a gennaio con Zone Labs, Connectra fornisce una sicurezza versatile dei client, proteggendo gli stessi di
ID e il sistema dall’utilizzo di questi. Integrity, di fatto è un “light” client
che viene inviato da Connectra ad analizzare il terminale che richiede
l’accesso alla ricerca di
spyware, malware, keystroke logger e trojan
horse. Inoltre, permette di
adattare i diritti di accesso in base alla sicurezza del dispositivo remoto
(per esempio, verifica il metodo di autenticazione utilizzato).
Connectra, inoltre, include SSL Network Estender, che consente anche il
collegamento a server interni con protocolli nativi. Infine, dispone di un
portale Web per email, condivisione di file e link Web. Questa funzionalità consente di creare un accesso SSL con un “solo click”, rendendo molto
semplice per l’amministratore creare gruppi extranet, associandovi applicazioni, server e altre risorse.
Security
47
Il complesso equilibrio
tra sicurezza e privacy
Il diritto ad accedere alle proprie informazioni personali,
puo’ collidere con le esigenze di sicurezza delle aziende utilizzatrici
L
a progressiva attenzione alle problematiche legate alla privacy, alimentata
dalle nuove regolamentazioni e dalla
crescente quantità di informazioni personali
che vengono mantenute in formato digitale, ha
portato con forza il tema della privacy nell’ambito delle problematiche a cui le soluzioni
di sicurezza IT si trovano a dover dare una
risposta.
Un primo aspetto che vale la pena di ricordare è che il concetto di sicurezza informatica si
riferisce al controllo esercitato dalle aziende
al fine di raccogliere e mantenere le informazioni e si tratta di un concetto applicabile ai
dati di ogni tipo, mentre la protezione della
privacy, invece, si riferisce esclusivamente ai
dati di tipo personale.
L’atteggiamento di fronte al problema ha molteplici sfaccettature, tanto che la sua interpretazione è sostanzialmente differente tra Europa e Stati Uniti. In questi ultimi, infatti, il concetto che prevale è che quando un individuo
fornisce informazioni personali a un’azienda,
questa ne diventa contemporaneamente proprietaria e utilizzatrice.
Nel vecchio continente, invece, il soggetto a
cui si riferiscono i dati mantiene alcuni diritti,
mentre l’azienda utente degli stessi ha la
responsabilità sulla loro custodia, al fine di
proteggere le informazioni di carattere personale.
Le informazioni legate alla privacy possono,
dunque, essere considerate come un insieme
di controlli rispetto all’uso delle informazioni
personali che un’organizzazione detiene e
amministra, associati ai diritti che l’utente
mantiene sulle informazioni che lo riguardano.
48
Security
• L’antagonismo tra garanzia dei
diritti e protezione dei dati
Si perviene, in tal modo, a un sottile paradosso per cui gli aspetti di privacy e sicurezza
possono diventare antagonisti. Alcune funzioni
di sicurezza possono, infatti, minacciare la
necessaria protezione della privacy, mentre
alcune regole della privacy possono indebolire
giustificate misure di sicurezza. I principi di
rispetto della privacy richiedono, per esempio,
che ogni individuo abbia la facoltà di esercitare un controllo sull’accuratezza, la completezza, l’uso, la distribuzione e la durata dei propri
dati personali. Esercitare tale controllo collide
con l’esigenza di implementare sistemi di sicurezza rigorosi.
A volte si dice che la sicurezza rappresenta un
tema di tipo tecnico e che la gestione della
privacy sia un tema legato alle policy. In realtà
questa interpretazione può facilmente determinare una situazione in cui si realizza un utilizzo improprio e non autorizzato delle informazioni, da parte di personale e società partner autorizzate. Inoltre può creare un falso
senso di sicurezza poiché policy rigorose sulla
carta, non sempre sono altrettanto garantite
dalle tecnologie implementate.
Sono molti gli esempi in cui, a fronte di policy
dichiarate sul Web da parte di una società, questa utilizzi poi tecnologie in grado di raccogliere informazioni sugli utenti in modo pervasivo e a loro insaputa. Oppure avviene che
società dichiarino di implementare una serie di
pratiche a rispetto della privacy senza attualmente farlo. Questo perché una corretta
gestione della privacy comporta, per un’azienda, costi di tipo sia diretto sia indiretto, che
rappresentano un puro esborso, compensabile
solo con il rientro in termini di brand e di affidabilità (aspetto, quest’ultimo, però, di fondamentale importanza per aziende di carattere
finanziario o bancario). Un esempio tipico in
cui si evidenzia il conflitto tra le esigenze di
sicurezza e la privacy è quello relativo alle
misure adottate per il controllo degli impiegati. Il monitoraggio da parte dell’azienda della
posta elettronica, dell’uso del telefono o della
postazione, l’uso di telecamere di sorveglianza
o anche di sistemi GPS per tenere traccia della
locazione di un individuo sono tutti esempi in
cui questo conflitto si manifesta.
• Le nuove tecnologie a protezione
dei dati personali
Nel mondo digitale, in cui lo scambio di informazioni è in grado di determinare vantaggi
competitivi, appare dunque evidente che questa
dicotomia assume una crescente importanza.
In generale le tecnologie di monitoraggio, i
sistemi di autorizzazione, autenticazione o di
rilevamento delle intrusioni (IDS) hanno le
potenzialità, in funzione della modalità di configurazione, per diventare progressivamente
sempre più intrusivi in relazione alle informazioni personali, mano a mano che si trovano a
dover affrontare minacce sempre più pericolose e sofisticate.
Non esiste una tecnologia o una gamma di
policy in grado di risolvere la questione in
modo da soddisfare ognuno. Tuttavia il punto
fondamentale resta quello che, nel mantenimento dei vari aspetti, che vengano tenuti in
considerazione i reciproci punti di vista e le
possibili varianti. Prevedere gli aspetti della
privacy in modo intrinseco all’interno di un
prodotto o un servizio o nella fase iniziale
dello sviluppo di un’applicazione consente di
incrementare la capacità degli utenti di controllare i propri dati personali, garantendo la
sicurezza adeguata.
Si stanno anche cominciando ad affermare le
tecnologie PET (Privacy Enhancing Technologies), che si riferiscono a software o dispositivi
hardware in grado di aiutare l’utente a mante-
nere, controllare o recuperare le proprie
informazioni personali. A queste si affiancano
tool (disponibili anche online) per assistere gli
utenti a mantenere la propria privacy attraverso Internet e per effettuare funzioni che consentono di prevenire l’accesso non autorizzato
alle comunicazioni e ai file memorizzati, automatizzare il recupero delle informazioni relative alle pratiche sulla privacy applicate da chi
recupera le informazioni e automatizzare, sulla
base di esse, le decisioni
dell’utente.
Altre funzioni possibili
riguardano la possibilità di
filtrare messaggi non desiderati; evitare la cattura
automatizzata di dati, per
esempio tramite cookie,
header HTTP, spyware e
così via, mentre altre funzioni ancora possono
impedire che la comunicazione possa essere ricondotta a uno specifico individuo. Tuttavia l’utilità
delle PET è anche limitata
della grande dimensione
della maggior parte di
questi tool. Interfacce utente migliorate e maggiore integrazione all’interno di altri tool,
aumenterebbero notevolmente l’efficacia di
queste tecnologie.
Inoltre, per quanto sofisticate, queste tecnologie da sole non possono impedire che i dati
forniti dagli individui possano essere usati in
modo invasivo della privacy. Finché il trasferimento dei dati personali rimane un requisito
della maggior parte delle transazioni sistematiche, le tecnologie PET offriranno soltanto
una protezione limitata della privacy.
Si potrebbero ottenere grandi vantaggi se l’architettura dei nostri sistemi di transazione
fosse cambiata in modo da supportare transazioni che rivelano molte meno informazioni
personali. Tali cambiamenti, seppur tecnicamente fattibili, stanno incontrano ostacoli
significativi a una loro approvazione.
R.F.
Security
49
ISS garantisce la protezione
altrimenti paga i danni
L’azienda statunitense confida sulle capacità di sviluppo del team X-Force,
che ha anticipato le più recenti minacce, compreso Sasser
M
Sul sito ISS è possibile
controllare il livello di
allarme quotidiano
connesso alle minacce
Internet
50
Security
olte aziende si preoccupano della
sicurezza quando è troppo tardi.
Altre sono più lungimiranti, ma alla
resa dei conti subiscono comunque dei danni.
Tutta colpa dei cosiddetti hacker, sempre più
bravi e rapidi a inventare nuovi tipi di attacco?
È comodo cercare un caprio espiatorio, ma
più opportunamente bisognerebbe prendersela con se stessi.
D’altro canto, fa bene Microsoft a mettere una
taglia “sulla testa” di chi realizza questi programmi, ma anche i fornitori di programmi per
la sicurezza devono essere disposti a fare
autocritica, quando occorre, e assumersi le
proprie responsabilità.
È questo l’approccio perseguito da Internet
Security Systems, che dopo l’ultima dimostrazione della potenza preventiva dei propri
sistemi e, soprattutto, confidando nelle capacità di analisi e sviluppo del proprio team di
security intelligence X-Force, ha annunciato
un rivoluzionario programma di “rimborso”.
Piero Fiozzo, responsabile X-Force Service in
Italia, ha spiegato: “Ai clienti forniamo una
garanzia, che prevede il rimborso fino a 50mila
dollari se si verificano incidenti connessi alle
vulnerabilità presenti nell'X-Force Certified
Attack List”, che ha aggiunto: “Avevamo offerto in garanzia una polizza da un miliardo di
dollari, ma i clienti con cui abbiamo parlato
non si fidavano delle assicurazioni. Per cui i
soldi ce li mette direttamente ISS”.
• La prevenzione di X-Force
Quest’impegno che ISS si assume nei confronti della propria clientela suona anche come
una sfida rivolta alla concorrenza. L’azienda
statunitense, peraltro, ben lungi dal voler sembrare arrogante, vuole ribadire, con questa
forma di garanzia, le capacità preventive di XForce.
L’ultimo lampante esempio è stato il virus Sasser, che ha sfruttato una vulnerabilità annunciata da Microsoft circa venti giorni prima,
contestualmente alla pubblicazione di patch
atte a risolvere il problema e a rimuovere il
rischio. I danni non sono stati ingenti come in
casi precedenti, ma molte aziende sono
comunque rimaste a terra.
Ancora una volta, tutto questo si poteva evitare, come è stato per chi ha aggiornato i
sistemi con le dovute patch o chi aveva adottato un approccio preventivo. Tra questi senz’altro i clienti di Internet Security System, che
aveva appunto previsto l’attacco al momento
dell’annuncio di Microsoft. Non solo, tra i
primi ad avere aggiornato e protetto le reti
dei propri clienti, infatti, ISS aveva previsto che
i giorni di maggior pericolo sarebbero stati
quelli del weekend, protagonisti effettivamente dell’attacco Sasser.
Stefano Volpi, general manager e managing
director di Internet Security Systems Italia, ha
dichiarato: "Sasser è stata la prova che ISS è in
grado di garantire ai propri clienti una sicurezza effettiva dei propri sistemi informatici.
Grazie al continuo perfezionamento delle tecniche di intrusion prevention e intrusion
detection siamo giunti ad un livello di sicurezza molto elevato".
Il manager ha poi continuato: "Alcune di queste vulnerabilità erano già state individuate a
settembre 2003 dall'X-Force ed è importante
sottolineare che i danni provocati da quest'attacco potevano essere evitati, mettendo in
campo una giusta strategia preventiva, che da
sempre noi predichiamo e a cui abituiamo i
nostri clienti".
ISS è vicina alla Pubblica Amministrazione
Internet Security Systems ha partecipato all’edizione 2004 del Forum PA,
la fiera dedicata al cambiamento e all’innovazione della Pubblica Amministrazione italiana, per manifestare il proprio impegno nello sviluppo di
soluzioni di sicurezza che possano soddisfare i peculiari bisogni della PA.
Parole chiave della manifestazione di quest’anno sono state competitività, innovazione ed Europa. ISS ha voluto quindi testimoniare direttamente il proprio ruolo da protagonista attivo dell’innovazione tecnologica al
servizio delle organizzazioni, attraverso la propria gamma di soluzioni di
sicurezza Proventia e il suo avanzato know-how sulla protezione dei sistemi informatici.
Ha affermato Stefano Volpi, general manager e managing director di
Internet Security Systems Italia: "Non è più pensabile, come accadeva un
tempo, un livello di sicurezza legato all’investimento del cliente. Grazie
all’ampiezza della gamma Proventia, noi siamo in grado di offrire la stessa protezione ad aziende grandi e piccole, in maniera semplice ed economica: siamo cioè in grado di rispondere alle reali esigenze dei nostri
clienti, garantendo i massimi livelli di sicurezza, economicità e semplicità
di gestione". Anche perché, sempre secondo il manager, è avvenuto un
importante cambiamento di sensibilità nei confronti della sicurezza informatica, che ha avvicinato alla stessa tutte le tipologie di imprese.
• Un tranquillo weekend di paura
Quando a metà aprile, alcuni purtroppo lo
ricorderanno meglio di altri, Microsoft ha
annunciato una serie di vulnerabilità ai propri
sistemi, la gravità della situazione non subito è
stata chiara a tutti, se non agli addetti ai lavori, a causa del linguaggio, anche giustamente
tecnico, con cui la casa di Redmond ha annunciato le patch per sistemare il problema. Tra gli
altri, infatti, figuravano potenziali buchi nelle
librerie SSL e, in particolare nella libreria
LSASS, usata per eseguire codici remoti e di
controllare dall'esterno i sistemi infettati.
ISS, cui alcune delle vulnerabilità erano già
note, ha dato subito l’allarme di un possibile e
potente attacco informatico, innalzando la
guardia al livello 2, dando previsioni di un allarme di livello 3 per il weekend successivo
all’annuncio.
Contestualmente X-Force, infatti, ha trovato
un possibile exploit e, per esperienza, sa che
da lì a poco gli hacker avrebbero tentato di
sfruttare tale vulnerabilità
Il rischio era alto, soprattutto per la posta in
gioco. SSL, infatti, si sta diffondendo sempre
più rapidamente per la crittografia di trans-
azioni, pagamenti online, trading on line e soluzioni di e-commerce. Molto spesso i siti che lo
utilizzano, tra cui molti portali, sono un vero e
proprio “boccone prelibato” per gli hacker.
Senza contare che buona parte dell’utilizzo di
SSL è relativo alle transazioni di e-commerce.
Infine, come evidenziato dai tecnici di XForce, senza ovviamente scendere in dettaglio,
il tipo di vulnerabilità consentiva un facile
exploit Internet, permettendo di sfruttare
come vettori Information Server (IIS), Exchange Server, Active Directory e potenzialmente
qualsiasi software che si appoggia alla libreria
SSL. Sasser è effettivamente partito in quel
weekend e, se non ha avuto effetti devastanti
come Blaster o Sql Slammer, questo è dovuto
alla “bontà” del suo inventore, in quanto, una
volta passato, avrebbe potuto eseguire un’applicazione di maggior impatto.
Grazie alle patch virtuali messe a punto da XForce e al servizio X-press Update, i clienti di
ISS non hanno subito danni, senza aver dovuto passare tutto il weekend, ammesso che
sarebbe stato sufficiente, a installare le patch
su tutti i sistemi.
G.D.B.
Security
51
Rsa punta sull’autenticazione
forte per l’accesso mobile
Attraverso la soluzione Rsa Mobile e l’uso di token di autenticazione, la
società propone un sistema di accesso flessibile e di facile implementazione
I
Schema del processo di
autenticazione mediante
Rsa Mobile
nuovi processi di business, basati su risorse distribuite e sul valore dell’informazione, hanno alimentato l’esigenza di mobilità da parte delle aziende. Si tratta di un trend
favorito anche dalla crescente disponibilità di
connessioni a larga banda e dalla diffusione di
nuove classi di dispositivi mobili, che hanno
reso possibile l’esecuzione di operazioni complesse anche al di fuori della LAN aziendale.
D’altra parte, la possibilità di accedere alle
risorse informative aziendali da qualsiasi locazione e in qualsiasi momento, consente di
aumentare la produttività del personale che
opera al di fuori dell’ufficio, di abilitare transazioni online da parte di clienti e partner e di
aumentare la flessibilità dei processi di business, contribuendo a realizzare un vantaggio
competitivo. Tuttavia, le aziende si dimostrano
in generale riluttanti a rendere accessibili da
postazione remota o mobile dati di particola-
re rilevanza. Alla base di questo atteggiamento
risiede, spesso, la mancanza di soluzioni in
grado di coniugare garanzia di sicurezza con
costi ragionevoli. Rsa Security fornisce una
possibile risposta a queste esigenze attraverso
una gamma di soluzioni di accesso sicuro da
postazione mobile e remota. Le soluzioni Rsa
sono basate su tecnologie di “strong authentication”, sviluppate per interoperare con le più
principali applicazioni di business e le più diffuse tecnologie di accesso, incluse SSL, VPN
(anche basate su IP Sec), portali, servizi terminali, Outlook Web Access e le wireless LAN.
L’utilizzo di un sistema di autenticazione forte
viene promosso da Rsa sulla base del convincimento che le password rappresentino un sistema di debole protezione poiché, spesso, facilmente individuabili o sottraibili perché custodite in modo non appropriato. Un sistema di
autenticazione forte richiede, invece, all’utente
esterno, di fornire prove concrete della propria
identità prima di garantire l’accesso. Altri punti
deboli legati alle password ed evidenziati dalla
società sono l’elevato costo associato all’amministrazione e all’help desk, per la proliferazione
di identità digitali multiple che un sistema di
autenticazione basato su password contribuisce a realizzare e gli inconvenienti per la produttività personale causati dall’osservanza delle
policy per la definizione, il mantenimento e la
sostituzione delle parole di accesso.
• Soluzioni per l’autenticazione
mobile e remota
Attraverso Rsa Mobile, la società americana
fornisce una soluzione di autenticazione di
costo contenuto che protegge l’accesso alle
52
Security
risorse Web-based utilizzando un processo di
autenticazione a due fattori. Rsa Mobile è una
soluzione pensata per proteggere le applicazioni B2C e B2B basate su Web, che si indirizza alle organizzazioni che vogliono garantire la
sicurezza dell’accesso, senza dover mettere a
disposizione degli utenti mobili e remoti dispositivi hardware o strumenti software di
autenticazione, poiché sfrutta telefoni cellulari
o PDA già in loro possesso.
Il processo di autenticazione comincia quando
un utente, tramite un browser, richiede l’accesso a una risorsa Web protetta da un agente software Rsa Mobile sottoponendo un valido user ID accompagnato da un codice numerico personale (il cosiddetto PIN). Il software
RSA Mobile, a questo punto, genera un codice
di accesso univoco e valido per una sola volta
e lo invia al telefono mobile o al PDA dell’utente, sotto forma di SMS o di un messaggio di
testo. L’utente inserisce il codice di accesso
tramite browser per completare il processo di
autenticazione.
Il codice di accesso viene inviato al telefono
mobile o al PDA utilizzando lo stesso sistema
di cifratura del traffico voce (A5). Il software
Rsa richiede, inoltre, all’utente, di inserire il
codice ricevuto dalla stessa istanza del Web
browser da cui esso è stato richiesto, in modo
da prevenire l’utilizzo di codici di accesso eventualmente intercettati. Il server di autenticazione RSA Mobile gestisce il processo di autenticazione e determina se l’informazione è valida.
La tecnologia Rsa Mobile si integra direttamente con le directory LDAP (iPlanet e Active Directory), mentre la disponibilità di tool
software e API amministrative facilita il processo di implementazione. Le funzioni amministrative del software Rsa Mobile sono di tipo
browser-based e prevedono anche la definizione di un amministratore di help desk con
un range limitato di funzioni. La tecnologia Rsa
Mobile permette anche agli amministratori di
definire metodi di autenticazione alternativi,
per diverse risorse e situazioni.
In ambienti che utilizzano la soluzione Rsa
ACE server, il processo di autenticazione forte
Diventa standalone la soluzione Rsa
per la gestione delle identità federate
Si chiama Federated Identity Manager o, più semplicemente, FIM la nuova
soluzione standalone che consente alle organizzazioni di implementare in
modo semplice un sistema per lo scambio sicuro e la gestione delle identità digitali. Federated Identity Manager offre una gamma di funzionalità
di fascia enterprise pensate per rispondere alle esigenze delle imprese
che intendono sfruttare le identità federate per raggiungere rapidamente
gli obiettivi di business più strategici. FIM è stata sviluppata a partire dal
precedente modulo per la gestione dell’identità presente all’interno di Rsa
ClearTrust e dispone di un’architettura flessibile, basata su plug-in, che
permette alla soluzione di Rsa Security di interoperare direttamente con
le applicazioni e con vari prodotti per la gestione delle identità e degli
accessi, compreso, naturalmente, ClearTrust. Federated Identity Manager
supporta lo standard SAML 1.0 e 1.1 ed entro la fine dell’anno supporterà anche la specifica ID-FF 1.2 di Liberty Alliance. È previsto, inoltre, il
supporto per la specifica WS-Federation non appena sarà ratificata ufficialmente. Rsa Security ha anche annunciato l’integrazione di FIM con la
propria consolidata soluzione di autenticazione a due fattori SecurID.
da remoto può avvenire mediante la soluzione
Rsa SecurID, basata sull’utilizzo di token in
grado di produrre e visualizzare un codice di
accesso di validità temporale limitata; una tecnologia brevettata provvede poi a sincronizzare ogni token con il server di sicurezza.
I token Rsa sono disponibili in formato hardware, software o come smart card. Il token
hardware SecurID dispone di una chiave unica
simmetrica combinata con un potente algoritmo per generare e visualizzare un nuovo codice ogni 60 secondi. La smart card è in grado
di memorizzare al suo interno la chiave simmetrica Rsa SecurID ed è protetta mediante
un PIN. I token software utilizzano i medesimi
algoritmi di quelli hardware e sono disponibili
per le workstation Windows, i principali
modelli di PDA e sui telefoni wireless di
Nokia, Ericsson e DoCoMo.Va, infine, ricordatail software Rsa Keon, per la realizzazione di
una soluzione PKI aperta e scalabile in grado
di far fronte alle esigenze di transazioni sicure
B2C e B2B. Rsa Keon raggruppa una famiglia di
moduli interoperabili per la gestione dei certificati digitali e la creazione di un ambiente per
comunicazioni elettroniche e transazioni
autenticate, private e non ripudiabili.
R.F.
Security
53
La sicurezza dei telefoni smart
in cerca di standard
Le funzioni avanzate dei nuovi terminali mobili inducono a ripensare
le modalità per la protezione dei dati che transitano su di essi
L
o sviluppo tecnologico che ha caratterizzato gli apparati di telefonia mobile,
sia dal punto di vista hardware sia software, sta portando alla progressiva affermazione di una nuova classe di apparati di comunicazione mobile. Questi cosiddetti “smart
phone” includono sempre più capacità analoghe a quelle dei pc e prevedono la possibilità
di navigare in Internet e gestire funzioni di
posta elettronica. Il loro utilizzo si indirizza,
quindi, sempre più ad attività e scambio di
documenti critici per l’azienda e, per queste
ragioni, l’implementazione di funzioni di sicurezza su questi nuovi apparati rappresenta un
tema di grande interesse.
Ciò che si evidenzia in questo momento è
ancora la mancanza di una gamma di standard aperti che potrebbero contribuire
certamente a ridurre l’attuale frammentazione tecnologica e migliorare l’interoperabilità.
Se si affronta la sicurezza di questi apparati
da una prospettiva di comunicazione, l’attenzione si focalizza sulla protezione nello
scambio dei dati. In questo contesto rientrano i temi di autenticazione, autorizzazione e crittografia con i relativi standard associati che, nel caso dei telefoni mobili, richiedono in genere adattamenti specifici.
In altri casi l’attenzione si indirizza verso le
applicazioni che girano sulla piattaforma.
Uno dei problemi, in questo caso, è di come
limitare l’accesso, da parte delle applicazioni, ai soli ambiti funzionali della piattaforma
che gli competono. L’implementazione di
funzioni di sicurezza legate a una specifica
applicazione, dipende comunque dalle
54
Security
caratteristiche della piattaforma sottostante.
Quello che ancora manca, ma su cui si sono
già attivati gruppi di lavoro quali il Trusted
Computing Group, è la definizione di una serie
di specifiche standard che possano definire un
layer tra il livello della piattaforma hardware e
le funzioni di sicurezza utilizzate dalle applicazioni soprastanti.
Al centro del dibattito si confrontano, a buon
diritto, player diversi: operatori di reti mobili,
sviluppatori di software e costruttori di apparati. I primi sono indubbiamente interessati al
problema della sicurezza poiché hanno l’interesse a convincere gli utenti a utilizzare le loro
reti per servizi a pagamento che prevedano lo
spostamento di dati. Il popolo degli sviluppatori, come spesso accade, si deve confrontare
con diversi approcci e ambienti di sviluppo e
l’esigenza di riutilizzar parti di codice.
I costruttori di apparati dovrebbero, da parte
loro, preoccuparsi di introdurre le funzioni di
sicurezza in modo intrinseco a livello della
piattaforma, anziché considerare la sicurezza
un add-on a posteriori. Anche le funzioni di
sicurezza incluse nelle schede SIM o altre periferiche quali le MMC, non possono, infatti,
essere sfruttate in modo completo se la piattaforma sottostante non è intrinsecamente
sicura. I potenziali rischi sono concreti. Basti
ricordare ciò che accadde in Giappone l’anno
scorso, quando un programma rilasciato all’interno della rete i-Mode della società DoCoMo fece in modo che centinaia di telefoni
chiamassero in modo ripetuto i servizi di
emergenza della polizia; e DoCoMo fu obbligata a chiudere la sua rete per eliminare l’applicazione dannosa.
R.F.
Symantec si rafforza nella lotta allo spam
S
ymantec ha concluso un accordo per l’acquisizione di Brightmail, società che opera
a livello globale nell’ambito delle soluzioni di
sicurezza e su cui la società aveva già effettuato un investimento strategico nel luglio del
2000. L’acquisizione, il cui completamento è
previsto entro luglio, avverrà a seguito di una
transazione in cash pari a circa 370 milioni di
dollari. Elemento tecnologico fondamentale
alla base dell’iniziativa è costituito dalla tecnologia contro lo spam sviluppata e commercializzata da Brightmail, che protegge le reti filtrando spam, virus e messaggi non desiderati
presso l’Internet gateway. La soluzione Brightmail Anti-Spam utilizza molteplici tecnologie
proprietarie, un network di rilevazione distribuito a livello globale e un meccanismo di delivery basato su regole dinamiche, per identificare e filtrare messaggi elettronici indesiderati e ridurre il numero di messaggi legittimi
bloccati o di falsi positivi. Brightmail Anti-
Fraud protegge dalle mail fraudolente che
mimano comunicazioni legittime per sottrarre
dati finanziari o personali. La soluzione è completata dal Brightmail Reputation Service che
fornisce un ulteriore sicurezza, consentendo il
blocco dei messaggi provenienti da sorgenti
spam identificate. A seguito di questa acquisizione Symantec integrerà, all’interno delle
proprie soluzioni Gateway Security, la tecnologia anti-spam di Brightmail. "Lo spam è progressivamente diventato una delle principali
minacce per individui e imprese - ha commentato John W. Thompson, chairman e CEO
di Symantec - superando i virus come problema numero uno che affligge i sistemi di e-mail
e gli amministratori. Brightmail è il leader nell’aiutare le aziende, i service provider e i carrier wireless a contenere questa minaccia. La
loro tecnologia brevettata costituisce una
componente critica per una soluzione completa di sicurezza a livello gateway".
John W. Thompson,
chairman e CEO di
Symantec
La roadmap di Novell per l’Identity Service
punta sulla semplicità
N
ovell ha reso noti i prossimi passi della
strategia indirizzata verso le soluzioni
per la gestione dell’identità. Elemento caratteristico è l’adozione del framework open source Eclipse per la realizzazione dei prossimi
tool rilasciati dalla società. Tali strumenti
saranno impostati sulla semplicità d’uso e sull’utilizzo di un’architettura di tipo visuale. I
nuovi tool basati su Eclipse sono previsti sulle
prossime release di Nsure Identity Manager e
forniranno un’interfaccia point-and-click per
la definizione visiva di modelli, policy e regole
per l’infrastruttura d’identità, senza richiedere
la scrittura di linee di codice. Anche le prossime versioni di Novell exteNd supporteranno
un ambiente di sviluppo basato su Eclipse e
forniranno supporto per il desktop Linux. In
vista di un’ulteriore semplificazione, Novell
fornirà anche applicazioni di gestione delle
identità precostruite, integrabili con i workflow basati sulla tecnologia Novell exteNd.
Novell combinerà, inoltre, le tecnologie Nsure
e exteNd per migliorare il provisioning degli
utenti e semplificare l’implementazione dei
servizi basati sulle identità. Grazie alle nuove
funzioni sarà possibile, per esempio, gestire i
cambiamenti di ruolo all’interno dell’azienda
attraverso una logica di “cut and paste” del
profilo del dipendente all’interno dell’organigramma. Sulla versione 5 di Novell exteNd,
prevista per il prossimo autunno, sono attesi
anche miglioramenti indirizzati a una maggiore
connettività a sistemi quali Lawson, PeopleSoft, JD Edwards, Siebel, Oracle Financials e
Baan. Infine Novell ha annunciato l’imminente
rilascio dell’estensione SAML per iChain, che
consentirà di condividere su Web informazioni di autenticazione e attributi degli utenti.
Security
55
Luci e ombre delle Tlc italiane
Se i servizi di Tlc sembrano tirare il comparto ICT, si assiste a un
impoverimento della produzione tecnologica, con poche eccezioni
I
n base all’ultimo rapporto Assinform, le
telecomunicazioni sono uno dei pochi se
non l’unico settore dell’ICT che è cresciuto nel corso del 2003 e promette bene
anche per il 2004. Ma il dato va analizzato nel
suo complesso per verificare una realtà che
presenta luci e ombre con contrasti a volte
molto accesi. L’intero comparto, infatti, ha
mostrato un incremento quasi nullo: 0,1% in
più nel 2003 rispetto al 2002.
Innanzitutto, le misure compiute per Assinform da NetConsulting, svelano che su una
crescita dell’1,8%, con un passaggio da 40.170
milioni di euro a 40.885 milioni di euro dal
2002 al 2003, i servizi di Tlc sono aumentati
del 5,1% (da 30.365 a 31.900 milioni di euro),
mentre il mercato degli apparati è sceso da
9.805 milioni a 8.985, segnando un meno 8,4%.
In secondo luogo, si può osservare che il
+1,8% è merito del +6,7% delle Tlc mobili,
che, passando dai 19.722 milioni di euro del
2002 ai 21.041 milioni del 2003, hanno superato le Tlc fisse, le quali hanno registrato una
flessione del -3%, calando da 20.448 a 19.844
milioni. Ancora, se si osservano i servizi più da
vicino, si nota che a crescere sono soprattutto quelli mobili: +11,1% (dato dal +8% dei servizi di fonia mobile e dal +36,3% dei servizi a
valore aggiunto di rete mobile). Sulla rete fissa,
invece, si assiste a un calo della fonia (-2,4%) e
della trasmissione dati (-7,5%), mentre crescono accesso a Internet (+19%) e i servizi a valore (+3%).
Il primo trimestre del 2004 ha portato un po’
di respiro al settore (+1,5% dell’ICT rispetto
al primo trimestre 2003), anche se l’IT continua a decrescere (-1,4%) e sono sempre le Tlc
a tenere su il mercato (+2,8%). Ma Pierfilippo
Roggero, presidente Assinform, ha voluto
rimarcare le difficoltà: "È vero che i segnali del
56
CommuniCation
primo trimestre 2004 sono in leggera controtendenza, ma già il fatto che l’informatica
mostri ancora un calo, rende evidente la fase
di incertezza che stiamo attraversando in Italia. Siamo passati in poco più di due anni da
crescite a due cifre ai dati d’oggi, nonostante
la spinta della telefonia mobile".
Non solo la spesa ICT è ferma, secondo l’analisi del presidente Assinform, ma tutti i dati a
contorno (rapporto con il PIL, distribuzione
per classi d’impresa e altro) mostrano segnali
preoccupanti: "Tutto questo si ripercuote a
livello di sistema-paese – ha affermato Roggero – che perde competitività e dinamismo, con
difficoltà d’interazione che riducono vieppiù i
margini per crescere e investire".
• Le aziende italiane in difficoltà
Roggero ha voluto fare proprio l’invito del
presidente di Confindustria Luca Cordero di
Montezemolo, inneggiando al bisogno d’innovazione. Un’innovazione che deve partire dalle
aziende del settore. Assinform agirà e sta
agendo presso istituzioni, banche e mercato,
ma è necessario, a detta di Roggero, investire
nella cultura dell’innovazione, aumentare la
qualità dell’offerta e qualificare la domanda,
creando alleanze e raggruppandosi in filiere.
Al governo, peraltro, viene chiesto un maggior
impegno in termini di politica industriale. Lo
ha fatto, in particolare, Domenico Ferraro,
presidente ANIE ICT, intervenuto all’inaugurazione della nuova sede di Selta a Cadeo, in
provincia di Piacenza. È stata questa l’occasione per aprire un dibattito sui temi dell’ICT e
delle Tlc alla presenza del ministro delle
Comunicazioni, Maurizio Gasparri.
Ferraro ha sottolineato la crisi delle aziende
italiane dell’ICT, il cui fatturato è sceso dai
13.872 milioni di euro del 2002 ai 9.400 milio-
ni del 2003. Nonostante questo, il 20% di tale
cifra è dovuto all’esportazione a significare il
ruolo importante di queste aziende, che investono mediamente il 9% del proprio fatturato
in ricerca e sviluppo. "È necessario valorizzare
queste aziende – ha affermato Ferraro – senza
falsare la competitività del settore, ma anzi
aumentandola con strumenti di accesso alla
ricerca e sviluppo per le imprese più piccole
oppure con il coinvolgimento delle Pmi nello
sviluppo delle Tlc sin dalle fasi progettuali".
contando sulle capacità di progettazione
"senza le quali non c’è futuro né produzione",
come ha affermato con forza Giuseppe Bertolini, presidente e cofondatore della società.
È sintomatico, del resto, che una realtà analoga, operante nel settore parallelo del networking e della videocomunicazione, l’anconetana
Aethra, abbia ottenuto il successo puntando
sulle stesse leve e avviando l’internazionalizzazione contando solo sulle proprie forze, come
Selta.
La nuova sede di Selta
a Cadeo, un’eccezione
nel panorama delle Tlc
italiane
• Il bisogno di innovazione
L’ICT è il motore dell’innovazione, come
rimarcava Roggero, ma è anche un settore che
altrove cresce nonostante la crisi (+2,6% e
+3,7% rispettivamente IT e Tlc mediamente
nel mondo, secondo dati Assinform/NetConsulting). È preoccupante che l’Italia sia sotto la
media: "Ci stiamo impoverendo – ha affermato Antonio Emmanueli, presidente di Smau,
intervenuto a Cadeo -. Il nostro Paese ha
quote importanti nei mercati internazionali in
settori come le calzature (14%), mobili (15%)
e altri, ma si tratta di tutti esempi di mercati
statici, mentre in quelli ad alto tasso di crescita (superiore cioè al 5% composto negli ultimi
anni), quali alte tecnologie, trasporti/auto o
chimica, l’Italia non va oltre l’1%".
Emmanueli punta il dito anche contro il sistema creditizio, che non aiuta le aziende medie
a diventare grandi. Una conferma indiretta di
questa situazione, viene dalla stessa Selta, che
rappresenta una piacevole eccezione. L’inaugurazione della nuova sede da 10 milioni di euro,
destinata a diventare un polo della ricerca e
sviluppo, è la concretizzazione dei buoni risultati ottenuti negli ultimi tre anni, durante i
quali la società ha quasi raddoppiato il fatturato, arrivando nel 2003 a quota 53 milioni di
euro, con un margine operativo di 2 milioni
350mila euro e con 325 dipendenti.
Selta è un’azienda che, investendo in ricerca e
sviluppo e innovazione è riuscita laddove
troppi altri hanno fallito, restando forse l’unico progettista e produttore di sistemi di Tlc.
Pian piano la società piacentina è cresciuta,
Vendere sistemi di Tlc, del resto, non è come
vendere scarpe. Carlo Tagliaferri, amministratore delegato di Selta, ha dichiarato: "I prodotti che vendiamo hanno impatto sui processi. È
importante capirlo e attuare un cambiamento
dei modelli, ma soprattutto, è necessario che
il sistema fornitori-aziende-utenti finali evolva
insieme nel suo complesso".
Solo in questo modo, l’innovazione può portare realmente dei vantaggi competitivi e spingere in avanti le imprese. Selta, per esempio,
sta ottenendo grandi successi nel segmento
innovativo del telecontrollo, dove un contratto con Enel/Terna sta aprendo prospettive
nuove all’azienda piacentina.
Automazione, reti di accesso ed enterprise
network sono i tre ambiti in cui si sta concentrando la ricerca Selta, che avrà a disposizione i 60mila metri quadrati della nuova sede
per crescere di più.
G.D.B.
57
CommuniCation
Con SIP e l’instant messaging
Avaya migliora il lavoro
La piattaforma Avaya Converged Communication aggiunge valore alla
convergenza e aumenta business continuity e produttività
S
apere immediatamente se un collega è
raggiungibile e su che tipo di dispositivo, contare su un sistema di comunicazione unificato e magari multivendor che consente di ridurre i costi complessivi, integrarvi
la mobilità, senza dimenticare la sicurezza, e
pianificare il passaggio a un sistema basato
sulla convergenza a prova di futuro. Sembrava
una chimera fino a poco tempo fa e ora tutto
questo è possibile, grazie agli sviluppi della tecnologia e soprattutto del protocollo SIP (Session Intiation Protocol).
È quello che promette Avaya con la propria
piattaforma Avaya Converged Communication
Server, parte della Communication Architecture della società statunitense, grazie al supporto intensivo di SIP.
• La comunicazione convergente
di Avaya
L’apparecchio IP Phone
4602 di Avaya e la
rubrica contatti, che
permette di visualizzare
immediatamente la
presenza della persona
58
CommuniCation
Secondo la visione della casa americana, le
aziende passeranno dalle reti convergenti a
una comunicazione convergente “presencebased”. Dove la “presenza” può essere intesa
sia come la raggiungibilità di un individuo sia
come la disponibilità di una risorsa. Grazie a
SIP, infatti, individui e/o risorse in rete sono
identificati univocamente da un indirizzo, che
sematicamente appare come un indirizzo
Internet o email, e la loro presenza online può
facilmente essere determinata.
A detta dei responsabili della società,
utilizzando SIP e applicazioni di Unified Communication, la soluzioni
Avaya Converged Communication
facilitano la collaborazione, aumentano
la produttività e riducono i costi inte-
grando telefonia tradizionale, IP telephony,
notifica della presenza e instant messaging.
L’utente finale può quindi utilizzare un sistema
che integra diverse modalità di comunicazione
sulla stessa interfaccia. Per esempio, con Avaya
IP Softphone oltre a telefonare è possibile
inviare un instant message, così come richiedere un avviso della rinnovata disponibilità di
una persona non trovata.
SIP, inoltre, è lo standard emergente che raccoglie i consensi di tutti i vendor. Questo consente di creare un sistema aperto e di godere
dei benefici che presto si avvertiranno sui
prezzi dei dispositivi di IP telephony. In questo
modo, a detta di Avaya, è oltremodo possibile
estendere i vantaggi delle soluzioni Communication Manager e Avaya MultiVantage Communications Applications ad apparati e agenti
standard di telefonia basata su IP nonché quelli dell’integrazione con applicazioni Web
based.
• Un contatto immediato
Il solo fatto di poter utilizzare un unico identificativo, tra l’altro intuitivo e facile da ricordare come un indirizzo email, invece di un
numero di telefono, consente già importanti
risparmi in azienda, semplificando la gestione
delle rubriche. È uno dei vantaggi di SIP, ma
anche il requisito per una piena unified communication.
Potente il sistema di instant messaging di
Avaya, che sfrutta appunto le capacità di messaggistica integrata e di segnalazione della presenza. In particolare, l’utilizzatore può visualizzare la cosiddetta “buddy list”, cioè avere sempre visibile l’elenco dei colleghi presenti in
azienda o comunque raggiungibili. Non importa, in realtà, dove questi siano, in quanto l’identificativo con cui contattarli è sempre lo
stesso, sarà poi il sistema a inoltrare il messaggio o la chiamata verso il media più opportuno. Sandro Sciaky, marketing manager Emea
South di Avaya, ha dichiarato: "Neanche io
immaginavo quanto potesse essere utile l’instant messaging. Per esempio, se devo parlare
con un collega e vedo sulla buddy list che è al
telefono, posso mandargli un instant message
chiedendogli di chiamarmi appena si libera.
Ora come ora dovrei provare più volte a chiamarlo per poi magari scoprire che se ne è
andato al termine della sua telefonata". Ha
aggiunto, inoltre, il manager: "Il tempo risparmiato è un beneficio tangibile, ma il grande
vantaggio percepito è quello di una migliore
qualità della vita sul lavoro".
Un’architettura di comunicazione votata al SIP
Al cuore delle soluzioni di comunicazione convergente di Avaya c’è l’Avaya Communication Architecture, che fornisce uno schema consistente e
modulare. Tale architettura divide la comunicazione aziendale in tre livelli: l’accesso (che per Avaya è unificato), le applicazioni (che possono essere di business e di comunicazione) e l’infrastruttura di rete convergente.
Il supporto di SIP aggiunge valore a ciascuno di questi livelli: i servizi di
tale protocollo, per esempio quello che fornisce indicazione sulla “presenza” di un individuo (ma potrebbe essere la disponibilità di una risorsa),
consentono di ottimizzare l’accesso (rendendo possibile una comunicazione in tempo reale); il sistema Avaya MultiVantage fornisce applicazioni che, grazie a SIP, implementano la logica di business rafforzando le
politiche aziendali; infine, le soluzioni abilitate SIP possono utilizzare una
rete gerarchizzata che fin nel suo core fornisce applicazioni e servizi convergenti a valore aggiunto.
Avaya, come hanno tenuto a rimarcare i suoi responsabili, ha da sempre
contribuito allo sviluppo di SIP, sia come membro del gruppo IETF dedicato a questo standard sia partecipando attivamente ai working group
per SIPPING (Session Initiation Proposal Investigation) e SIMPLE (SIP
Instant Messaging and Presence Leveraging Extensions). La società statunitense promuove l’aderenza agli standard come prerequisito essenziale
alla realizzazione di soluzioni multivendor e sempre in quest’ottica partecipa al SIP Forum e a diversi eventi e attività tese a garantire l’interoperabilità delle implementazioni SIP.
• Una soluzione aperta ma sicura
Avaya Converged Communication conferisce,
a detta dei responsabili della società, caratteristiche peculiari alla soluzione di instant messaging. In particolare, per quanto riguarda la
sicurezza, che viene garantita attraverso due
livelli di crittografia. Da un lato, infatti, viene
adoperato il sistema di encryption (Transport
Layer Security) per proteggere la segnalazione
e lo scambio di instant message, dall’altro vengono utilizzati gli standard AEA o AES (Advanced Encryption Standard) per codificare la
voce e il messaggio.
A questo si aggiunge il fatto che Avaya Converged Communication Server gestisce i servizi di instant messaging all’interno del firewall
aziendale, eliminando il rischio implicito con
informazioni sensibili che devono transitare su
un server esterno. Un ulteriore protezione
viene aggiunta dalla centralizzazione dell’identity management, che deve essere monitorato
e gestito dall’amministratore di rete.
Venendo incontro alle tendenze legali, per cui
il messaggio elettronico può avere un valore
fiscale/legale, il server di comunicazione convergente di Avaya supporta un ferreo logging
degli IM (Instant Message), semplificandone
l’archiviazione.
Si tratta comunque di soluzioni standard,
come del resto tutta la piattaforma interamente basata su SIP.
G.D.B.
L’evoluzione porta a un
sistema di comunicazione
integrato e convergente
59
CommuniCation
I trend del mercato della fonia
Continua la migrazione verso reti convergenti, ma l’ampia diffusione
di PBX TDM richiede soluzioni per un’evoluzione morbida
C
onvergenza è uno dei temi caldi del
momento. Ma, verrebbe da pensare, è
vera gloria o la realtà è diversa da
quella che i produttori prospettano, con l’obiettivo anche non troppo nascosto di indirizzare il mercato verso l’adozione di nuove
soluzioni e accelerare così la fase di sostituzione delle tecnologie esistenti?
Se tutto si sta tramutando in dati, complice il
processo di convergenza di reti e tecnologie,
alcuni aspetti vanno però considerati in maggior dettaglio.
Innanzitutto i servizi di fonia (o voce che dir si
voglia) rappresentano l’elemento chiave del
fatturato sia per gli operatori di rete fissa che
di rete mobile e sono uno degli aspetti fondamentali nell’esercizio delle attività di qualsiasi
azienda.
Si tratta poi di un mercato stabile, con profitti prevedibili e che ci si aspetta cresca dagli
attuali 800 miliardi di dollari di oggi ai quasi
7000 miliardi del 2007.
Per utilizzare al meglio le reti trasmissive esistenti senza dover obbligatoriamente investire
in nuovi apparati o interconnessioni di rete si
sta affermando una richiesta di apparati,
soprattutto per il mercato wireless, di compressione delle chiamate.
In questo gli operatori e i produttori sono aiutati dal fatto che si è in presenza di standard
stabilizzati quali il G.723 e il G.729 e che nuovi
circuiti DSP e nuovi algoritmi stanno rendendo possibile livelli di compressione molto
spinti a costi che continuano a decrescere
anche in modo significativo.
Per ciò che riguarda la voce nell’ambito aziendale e delle reti di trasporto, la VoIP si avvia
verso una fase di maggior maturità nell’ambito
enterprise mentre standard come il VoMPLS
60
CommuniCation
(e cioè la voce pacchettizzata trasportata su
reti MPLS) stanno affermandosi a livello di service provider.
• Nuova vita al TDM
con il TDMoIP
In questo contesto non stupisce il rinnovato
interesse per la tecnica TDM, o meglio dire,
per quanto permette a livello di protocollo il
trasporto di trasmissioni TDM, dall’E1 all’E1
frazionale.
Soluzioni di questo tipo permettono di trasportare il tipico traffico E1 generato da Pbx
su IP e su reti di tipo MPLS.
Questo in generale. Più in particolare diventa
possibile installare presso sedi periferiche
degli apparati terminali che operano come dei
multiplexer, a cui afferiscono la LAN locale e il
Pbx e da cui, tramite protocollo Ethernet,
diventa possibile collegarsi al punto di accesso
di una rete di un service provider.
Il traffico complessivo può poi essere distribuito nell’ambito di una infrastruttura di rete
VPN ritagliata sulla rete del provider o convogliato verso una sede remota dotata di un
apparato simile in configurazione punto a
punto.
Le caratteristiche dell’oramai consolidato
protocollo TDMoIP (Time Division Multiplexiing over IP) sono numerose.
Tra queste, la trasparenza ai metodi di segnalazione standard o di tipo proprietario quali
quello relativo all’ISDN PRI, all’E&M, al Q.Sig e
all’SS7.
L’interesse di base da parte degli utenti aziendali e dei service provider risiede però nel
fatto che una tale tecnologia permette di prolungare il ciclo di vita di un ampio parco installato di Pbx ancora relativamente recenti (con-
siderando il ciclo di vita medio di questi apparati). Cosa non trascurabile in tempi di budget
ICT che continuano a essere risicati e con la
difficoltà nell’affrontare contemporaneamente
investimenti nella realizzazione di una rete
aziendale convergente, di consolidamento di
server e dello storage nonché dell’approntamento di soluzioni complesse di sicurezza e di
business continuità.
• Un protocollo semplice
ed efficace
ad esempio un Pbx situato presso una sede
aziendale periferica, succursale o filiale.
• Minor occupazione di banda
trasmissiva
I vantaggi, secondo i costruttori, non risiedono solamente nella possibilità di mantenere in
vita Pbx ancora efficienti.
Un elemento non trascurabile nella valutazione del rapporto costi/benefici è collegato alla
quantità di banda necessaria per gestire chiamate telefoniche rispetto a soluzioni di tipo
full VoIP.
Ad esempio, nel caso si utilizzo lo standard di
compressione G.723.1, con una flusso di 6,4
Kbps e la funzione di soppressione del silenzio
(che interessa circa il 50% di una sessione di
fonia) i risparmi sono significativi.
30 canali voce richiedono una banda di circa
150 Kbps per soluzioni TDMoIP e di circa 300
nel caso di soluzioni VoIP.
Con 60 canali voce i dati passano a circa 260
Kbps per il TDMoIP e a oltre 600 per la VoIP.
In sostanza, i costruttori, anche se ovviamente
in condizioni ottimali, indicano in oltre il 50%
in meno la quantità di banda trasmissiva
necessaria con soluzioni TDMoIP rispetto a
soluzioni full VoIP.
Risparmi nella banda e possibilità di prolungare i tempi di ammortamento di investimenti
onerosi quali quelli per la fonia potrebbero
quindi alterare le previsioni che sono state
fatte per quanto riguarda la migrazione verso
soluzioni di VoIP.
G.S.
Il vantaggio nell’utilizzo di soluzioni di tipo
TDMoIP, ed un altro degli aspetti che lo rendono interessante per aziende e operatori, è il
fatto di richiedere pochi step per l’elaborazione del flusso di pacchetti dati nonchè il progressivo utilizzo di chip asic nella realizzazione
degli apparati.
Tutte cose che ne fanno una soluzione a basso
costo, perlomeno rispetto alla prospettiva di
cambiare un Pbx o dotarlo di hardware e software di espansione al fine di poterlo collegare
direttamente ad una rete IP.
Innanzitutto il flusso sincrono di dati di una
connessione TDM viene segmentato e i segmenti passano attraverso una fase di adattamento alle caratteristiche del flusso stesso al
fine di ottimizzarne il trasporto sulla connessione verso il backbone di rete.
Ai segmenti viene aggiunto un header e il
tutto assume la forma di un pacchetto dati
IP/MPLS.
A questo punto i pacchetti IP vengono inoltrati alla rete di dortrame
pacchetti
sale e, da questa, sino
TDM
IP
ad un apparato simile
situato presso la sede
del destinatario. Qui i
pacchetti sono “aperti”, e viene rimosso il
campo header.
Il passo finale consiste nel “riassemblaggio" del flusso TDM,
che viene inviato
all’apparato di utente,
pacchetti
IP
trame
TDM
Gli step del protocollo
TDMoIP
IP/MPLS
%
61
CommuniCation
La “collaboration” di Microsoft
rinnova l’information work
Attraverso la gamma delle sue soluzioni infrastrutturali di comunicazione,
la società di Bill Gates abilita l’accesso mobile e sicuro anywhere e anyway
L’
Gli elementi che
realizzano la piattaforma
di collaborazione e
comunicazione di
Microsoft
infrastruttura del posto di lavoro sta
rapidamente mutando sotto la spinta
di molteplici fattori. Da una parte la
situazione economica sta spingendo le aziende
a risparmiare ovunque sia possibile e questo
determina una situazione in cui il personale IT
è sempre più ridotto e carico di lavoro. Inoltre,
a fronte di una continua domanda di centralizzare i servizi, le infrastrutture WAN iniziano ad
avere limiti di banda, mentre le reti wireless
stanno diventando sempre più pervasive e cresce il numero dei lavoratori mobili.
Microsoft affronta questo cambiamento attraverso una gamma di soluzioni software indirizzate ad abilitare e rendere più efficiente la
comunicazione e la collaborazione aziendale.
Elemento portante di questa strategia è
Microsoft Exchange Server 2003, il server di
messaggistica e collaborazione che garantisce
l’accesso mobile, remoto e desktop ai messaggi di posta elettronica con funzionalità di protezione e riservatezza avanzate.
A partire dalla sua introduzione, il server
Microsoft è stato continuamente oggetto di
espansioni e miglioramenti indirizzandosi, in
modo particolare, alle aree della produttività
individuale, della sicurezza, della scalabilità e
affidabilità.
Alla base del miglioramento della produttività
di quelli che Microsoft chiama gli information
worker, secondo la società vi è la possibilità di
poter comunicare da dove si vuole, quando
necessario e tramite una varietà di dispositivi.
Per realizzare ciò la società punta su un uso
esteso della posta elettronica (ormai considerata, all’interno delle organizzazioni, critica
quanto, se non più, del telefono fisso) attraverso Outlook 2003, ulteriormente migliorato
in questa ultima versione mediante, tra l’altro,
il supporto di RPC over HTTP (per eliminare
la necessità di server VPN), l’introduzione
della modalità cache e di funzioni anti-spam.
Per far fronte alle differenti esigenze di mobilità, Outlook 2003 è completato da Outlook
Web Access, Outlook Mobile Access pensato
appositamente per gli utenti di telefoni mobili
e da Pocket Outlook Server ActiveSync per i
dispositivi palmari.
• Le inziative per combattere
i virus e lo spam
Nel momento in cui la posta elettronica
diventa uno strumento primario di collaborazione e condivisione delle informazioni, risulta
essenziale garantire un suo uso corretto, efficiente e privo di rischi. Per queste ragioni
Microsoft ha introdotto in Exchange Server
2003 una serie di funzioni indirizzate a combattere i virus e lo spam, unite ad altre indi-
62
CommuniCation
rizzate alla semplicità di aggiornamento, distribuzione e amministrazione.
Tra le nuove funzioni introdotte con Exchange
Server 2003 vi è la possibilità di cifrare tutte le
comunicazioni tra server e client (supporto
SSL e S/MIME) e nuove API specifiche per bloccare virus e spam direttamente sul server, prevenendo la possibilità che messaggi infetti o
non desiderati arrivino fino a Outlook. A queste si aggiungono funzioni di filtering a livello di
connessione IP e di mittente/destinatario, lo
“spam beacon blocking”, che blocca i contenuti HTML potenzialmente pericolosi.
In arrivo anche un nuovo add-on per la soluzione Server di Microsoft chiamato Exchange
Intelligent Message Filter, che utilizza la tecnologia Microsoft SmartScreen che è già stata
implementata (sul lato client) nei filtri spam di
Outlook 2003, MSN 8 e, recentemente, adottata anche su Hotmail. Questa tecnologia
estende le funzionalità già presenti in Exchange Server 2003 facendo leva sull’infrastruttura
SCL (Spam Confidence Level).
Exchange Intelligent Message Filter consente
di filtrare i messaggi legittimi da quelli indesiderati sulla base di 500mila caratteristiche di
e-mail individuate sulla base dei dati provenienti da centinaia di migliaia di abbonati a
MSN Hotmail che si sono resi volontari per
classificare milioni di e-mail come legittime o
spam. Permette, inoltre, la coesistenza con
soluzioni di terze parti.
• BizTalk Server 2004 e gli altri
tasselli per una piena
collaborazione
Se il binomio Exchange Server e Outlook delinea la piattaforma principale di collaborazione
Microsoft, altri tasselli concorrono a completare l’infrastruttura di “information work”
proposta dalla società.
Nell’ambito della collaborazione sui processi
va segnalato BizTalk Server 2004, recentemente rilasciato. Si tratta di un prodotto di Windows Server System che permette di integrare sistemi, dipendenti e partner commerciali
in tempi estremamente brevi con l’obiettivo di
creare processi di
business che riuniscono applicazioni
separate, in un insieme coerente. Permette di collegare tra
loro diverse applicazioni e poi, in modalità visuale, di costruire
e modificare i processi di business che utilizzano i servizi che quelle applicazioni forniscono. BizTalk Server 2004 può interagire
direttamente con Outlook e include adapter e
pipeline per la ricezione e l’invio, funzioni di
orchestrazione, MessageBox e un motore per
le regole di business.
Questa soluzione Server, grazie ai servizi di
orchestrazione di cui dispone, risponde alle
esigenze di disporre di funzionalità di gestione
dei processi di business con un livello di automazione elevato e con la flessibilità necessaria
per incorporare l’intervento umano nei
momenti opportuni del flusso di lavoro. Inoltre, con il motore per le regole di BizTalk Server 2004, le aziende possono implementare
regole di business flessibili e renderle visibili
agli information worker.
Vanno poi ricordati Office SharePoint Portal
Server 2003, Content Management Server e
Office Project Server 2003.
SharePoint Portal Server 2003 è la soluzione
per lo sviluppo di portali intelligenti in grado
di connettere utenti, team e informazioni, in
modo da permettere l’utilizzo di dati pertinenti in più processi aziendali e favorire lo sviluppo di un ambiente di lavoro più efficiente.
Microsoft Content Management Server permette di creare, rilasciare e mantenere siti
Web particolarmente ricchi di contenuti, grazie a un processo di Web publishing ottimizzato. Infine, Office Project Server 2003 è la piattaforma che supporta le funzionalità di gestione di risorse e progetti e di collaborazione. Le
funzioni di comunicazione in tempo reale
sono invece garantite da Office Live Communications Server 2003.
R.F.
63
CommuniCation
Da Nortel Networks una soluzione
per la comunicazione multimediale
L
a soluzione Multimedia Communication
Server MCS 5100 rilasciata da Nortel
Networks è una piattaforma software che
comprende funzioni per il supporto di applicazioni multimediali, tool di produttività, messaggistica unificata e di supporto per una
mobilità estesa. Si basa in modo nativo su standard aperti, in primis l’IP e il SIP, e permette di
trasformare PBX o reti di IP PBX convenzionali in soluzioni di comunicazione multimediali e collaborative.Va osservato che non si tratta di un PBX ma di un server applicativo che
permette di trasformare il modo in cui un’azienda comunica, integrando i normali servizi
della centrale telefonica con strumenti di produttività e di cooperazione. L’obiettivo che
Nortel Networks appare essersi data con il
suo sviluppo è quello di mettere a disposizione una soluzione integrata che permette la
riduzione delle attività ridondanti implicite
nell’utilizzo degli svariati sistemi di comunicazione aziendale, sostituendogli una soluzione
fortemente caratterizzata in termine di capacità di instant messaging, di presence-aware e
di mobilità.
Le caratteristiche dell’applicazione ne permettono l’utilizzo in bacini di utenti molto ampi.
Basato su un modello generale di gestione
delle chiamate, l’MCS 5100 può supportare
sino a 6000 subscriber attivi. Nel caso servano livelli di copertura maggiori in termine di
utenza è poi possibile realizzare soluzioni
multi-server.Va rimarcato che la piattaforma è
di tipo aperto e basata su standard e in quanto tale permette di erogare servizi multimedia
in ambienti PBX o Centrex che supportino
funzioni gateway standard (PRI, SIP, H.323 e
cos’ via).
Sempre più aperti i contact center di Genesys
P
Agostino Bertoldi,
country manager
di Genesys
Telecommunications
Laboratories
64
CommuniCation
er Genesys è fondamentale mantenere
una mentalità aperta e lasciare libera scelta ai clienti in termini di sistemi, reti, database
e così via da interfacciare con la propria soluzione di contact center. Lo ha affermato il
country manager italiano, Agostino Bertoldi,
che ha aggiunto: "Anche negli ambiti in cui
siamo presenti con nostre soluzioni, come per
esempio il workflow, forniamo adattatori
Gplus verso prodotti e CRM di terze parti".
Questa indipendenza, inoltre, consente alla
società di distinguersi, a detta del manager italiano, per la possibilità di implementare il proprio sistema al di sopra di un’infrastruttura
eterogenea. "In molti casi – ha spiegato Bertoldi – questa è una necessità. In altri è una
scelta vantaggiosa, in quanto consente di
cominciare magari utilizzando dell’hardware
esistente e poi di spostarsi su altre macchine
aggiungendone di nuove, ma senza essere vincolati a un unico fornitore di sistemi".
Forte dei risultati conseguiti in Italia, più 15%
rispetto all’anno precedente nel 2003 e buone
prospettive di ripetere l’exploit nel 2004, il
dirigente ha sottolineato i successi ottenuti, in
particolare presso service provider. Proprio il
mercato dei servizi gestiti, secondo Bertoldi, è
quello con le prospettive migliori nel nostro
Paese, dove la mentalità dell’outsourcing è
andata progressivamente crescendo.
Genesys G7, a detta del manager, presenta un
importante vantaggio per chi deve fornire servizi, in quanto consente di dare all’utente finale la possibilità di accedere ed effettuare
modifiche anche autonomamente. "È sempre
un managed service – ha specificato Bertoldi
– ma il gateway consente, ovviamente in tutta
sicurezza, di cedere parte del controllo all’utilizzatore, che può così evitare le lungaggini
tipiche di quando si passa attraverso un intermediario per, ad esempio, attivare un messaggio temporaneo improvviso su un call center".
Il Wi-Fi pubblico italiano
alla ricerca di un’identità
È
sufficientemente risaputo che le WLAN
in Italia sono partite in ritardo su tutti i
fronti a causa di vincoli legislativi che tuttora
non consentono al nostro Paese di stare al
passo con altre nazioni europee.
Se, però, le “pastoie” in ambito privato appaiono inutili e decisamente irritanti, limitando la
crescita del mercato e l’adozione di queste
tecnologie (la cui diffusione potrebbe tradursi
in vantaggi per tutti in termini di costi), la questione in ambito pubblico è molto più controversa.
Molto spesso il confronto con realtà diverse
dalla nostra, quali quelle tipicamente anglosassoni o, nel caso del mobile è d’uopo, scandinave, porta a false prospettive. Lo scorso marzo
uno studio del Politecnico di Milano “fotografava” la dinamica del numero di hot spot attivi in Italia, che allora ammontavano a 800 siti.
Nello stesso periodo in Inghilterra se ne contavano oltre 2700. La proiezione dell’ateneo
meneghino, peraltro, stimava in 2600 il numero di siti che sarebbero presenti sul territorio
italiano entro dicembre. Se, come sembra, la
spinta propulsiva nel Regno Unito si è ormai
esaurita o quasi, per la fine dell’anno verrebbe
quasi completamente recuperato il gap, con il
rischio di superare gli inglesi per penetrazione
in termini percentuali sulla popolazione.
A questo proposito, infatti, vale la pena considerare alcuni dati contenuti nell’ultimo rapporto Assinform, in base ai quali nel Regno
Unito si conta il doppio dei pc installati rispetto all’Italia, con una percentuale in relazione
alla popolazione pari al 55% (la più alta tra i
principali paesi europei). Inoltre, l’Italia figura
al 28 posto nel 2003 in una speciale classifica
basata sul Networked Readiness Index, che
misura il livello di innovazione tecnologica in
una nazione, valutando non solo la presenza di
tecnologie ma anche il contesto e la predisposizione dell’utilizzatore.
Viene da chiedersi quale possa essere a regime un numero congruo di hot spot per il
mercato italiano, ma sulla risposta pesa appunto il limite imposto dal Decreto Ministeriale
del 28 maggio 2003 che ha introdotto la regolamentazione dei sistemi Wi-Fi a uso pubblico.
Di fatto il decreto ha dato il via a un mercato
che fremeva, ma gli ha anche bloccato la corsa,
vincolando gli operatori interessati a fornire il
servizio in locali o aree confinate.
In questo modo, si impedisce lo sviluppo del
mercato dell’accesso Wi-Fi a larga banda. Un
ISP, infatti, potrebbe estendere la propria connettività attraverso l’uso di access point su
scala metropolitana, come avviene, per esempio, in Canada, rompendo il monopolio de
facto di Telecom Italia sull’ADSL. Da qui all’utilizzo di Wireless Local Loop anche per la
telefonia, il passo sarebbe breve, senza contare l’impulso che si darebbe alla diffusione delle
tecnologie Wi-Fi.
D’altro canto, concedere l’uso dell’etere “pubblico” gratuitamente, come impone la normativa europea relativamente alle frequenze utilizzate dal Wi-Fi, crea una situazione di conflitto con gli operatori UMTS, che hanno pagato
molto care le licenze e vedono nelle WLAN
pubbliche un pericoloso concorrente in grado
di erodere i loro margini nella trasmissione
dati mobile. Per quanto le caratteristiche tecnologiche delle due reti le facciano sembrare
piuttosto complementari che alternative e, a
rigore di logica oltre che dal punto di vista giuridico, c’è da osservare che la licenza UMTS
viene concessa su una frequenza di uso esclusivo, mentre il Wi-Fi prevede una licenza di
uso collettivo della banda, lasciando perdipiù
all’operatore l’onere di rispettare l’ambiente
ed evitare le interferenze.
Intanto, si deve capire quali siano gli utenti italiani di hot spot e, soprattutto, potenzialmente quanti. I dati del Politecnico appaiono per
Gaetano Di Blasio
certi versi sconfortanti: nel
primo trimestre 2004 gli
utilizzatori risultavano circa
16.000, protagonisti nel
mese di marzo di oltre 400
accessi al giorno. Quindi
circa la metà degli hot spot
funziona mediamente a
giorni alterni e non si sa
come possa pagarsi i costi.
Questo spiega perché ci
siano solo 23 operatori che
forniscono WLAN pubbliche e perché la maggior
parte dei top player multicanale non punti sul Wi Fi
dida da nuovo
scrivere business.
come
v
65
I report tecnologici
I Report Tecnologici costituiscono un’opera
di analisi e approfondimento dello stato
dell’arte di architetture, soluzioni e servizi
nell’ambito dell’Information e
Communication Technology.
Ogni report è un utile strumento di
consultazione e un sussidiario che fornisce ai
responsabili dei sistemi informativi aziendali e
ai professional del settore un chiaro quadro
dello scenario evolutivo delle tecnologie e
delle soluzioni presenti sul mercato italiano.
Ciascun Report è composto da una prima
parte, che costituisce una cospicua
trattazione degli aspetti tecnologici, e da una
seconda parte, in cui vengono accuratamente
descritte l'offerta e la strategia dei principali
player del mercato.
I Report Tecnologici sono disponibili in
volumi stampati in formato A4 con
copertina rigida, al costo di 215 euro a
copia (più IVA). Per ordinarli o per
ulteriori informazioni: 0234592314.
66
Motore e sede dei dati aziendali, server e storage sono
gli elementi centrali di un sistema informativo che si articola in infrastrutture sempre più complesse che rispondono alle crescenti esigenze di elaborazione e all’esplosione dei dati, ma che devono risultare semplici per l’utente finale. Le nuove architetture evolvono in questa
direzione, favorendo il consolidamento dei sistemi.
Un report di circa 500 pagine analizza tutti gli aspetti
del settore, esaminando, oltre alle tecnologie, le soluzioni e l’offerta di servizi in Italia.
Capitolo 1 - DALL’E-BUSINESS
ALL’AZIENDA VIRTUALE
Capitolo 2 - L’EVOLUZIONE DELLE
PIATTAFORME SERVER
Capitolo 3 - LE ARCHITETTURE DI
ELABORAZIONE
Capitolo 4 - LA SPECIALIZZAZIONE DELLE
APPLIANCE SERVER
Capitolo 5 - LE RISORSE PER LA
MEMORIZZAZIONE DEI DATI
Capitolo 6 - L’EVOLUZIONE VERSO LO
STORAGE IN RETE
Capitolo 7 - BUSINESS CONTINUITÀ E
DISASTER RECOVERY
Capitolo 8 - VIRTUALIZZAZIONE E
GESTIONE DELLO STORAGE
Capitolo 9 - INFORMATION LIFECYCLE
MANAGEMENT E CONTENT STORAGE
Capitolo 10 - LO STORAGE A
DISPOSIZIONE DEELLA PMI
PARTE SECONDA - Tecnologie e strategie dei
fornitori di soluzioni e servizi
Acer – Apple – Brocade – Cisco Systems – Colt
Telecom – Computer Associates – Dell – EMC2 –
Fujitsu Siemens Computer - Hitachi Data Systems –
HP Soluzioni Server – HP Divisione Storage – IBM
Soluzioni Server – IBM Soluzioni Storage – Metilinx –
Microsoft - Storagetek – Sun Microsystems – Veritas
Software
Uno dei temi più attuali del momento è quello della sicurezza nell’ambito dell’ICT. Le crescenti minacce provenienti da Internet e l’inarrestabile tendenza ad aprire l’azienda alla comunicazione con partner e clienti, al fine di
sfruttare tutte le opportunità offerte dalle nuove tecnologie, pongono nuovi e stimolanti interrogativi ai responsabili del sistema informativo.
Un report di 500 pagine analizza tutti gli aspetti della
tematica, soffermandosi sulle metodologie, oltre che
sulle soluzioni e l’offerta dei servizi in Italia.
La comunicazione è da sempre una delle tematiche più
sentite del contesto aziendale. L’esplosione del fenomeno Internet e, in particolare, della posta elettronica
ha accentuato i problemi che il responsabile del sistema informativo e il responsabile delle telecomunicazioni si trovano a dover affrontare. A questo si aggiungono le innovazioni portate dalla mobilità.
Un report di circa 500 pagine analizza tutti gli aspetti
della comunicazione aziendale, soffermandosi, oltre
che sulle soluzioni, sull’offerta di servizi in Italia.
Capitolo 1 - L’IMPORTANZA DI UNA
SICUREZZA EVOLUTA PER L’IMPRESA
Capitolo 2 - LA GESTIONE DELLA SICUREZZA
Capitolo 3 - CRITTOGRAFIA E FIRMA DIGITALE
Capitolo 4 - AUTENTICAZIONE E IDENTITY
MANAGEMENT
Capitolo 5 - I LIVELLI DI PROTEZIONE DEL
FIREWALL
Capitolo 6 - L’AFFERMARSI DELLE VPN
Capitolo 7 - INTERNET SECURITY:
LE MINACCE ONLINE
Capitolo 8 - I SISTEMI PER IL RILEVAMENTO
DELLE INTRUSIONI E DELLE VULNERABILITÀ
Capitolo 9 - LA SICUREZZA DELLE
CONNESSIONI WIRELESS
Capitolo 10 - L’ARCHITETTURA DELLE
SECURITY APPLIANCE
Capitolo 11 - SICUREZZA E CONTINUITÀ DI
SERVIZIO PER I DATI AZIENDALI
Capitolo 12 - LA SICUREZZA DEL SISTEMA
DI TELEFONIA
Capitolo 13 - LA SICUREZZA COME SERVIZIO
Capitolo 1- LO SCENARIO EVOLUTIVO
DELLA BUSINESS COMMUNICATION
Capitolo 2 - ARCHITETTURE E STANDARD
PER I NUOVI PABX
Capitolo 3 - I NUOVI SISTEMI DI
COMUNICAZIONE PER LE PMI E L’AMBITO
ENTERPRISE
Capitolo 4 - L’INTEGRAZIONE TRA
COMPUTER E TELEFONO
Capitolo 5 - GLI IP-PABX:
CARATTERISTICHE E FUNZIONALITÀ DEI
PABX DI NUOVA GENERAZIONE
Capitolo 6 - I VOICE PORTAL
Capitolo 7 - CALL CENTER E GLI SCENARI
PER L’AZIENDA
Capitolo 8 - MESSAGING INTEGRATO E
UNIFIED COMMUNICATION
Capitolo 9 - LA SICUREZZA NEI SISTEMI DI
COMUNICAZIONE AZIENDALE
Capitolo 10 - LE ARCHITETTURE DELLE
RETI CARRIER PER LA BUSINESS
COMMUNICATION
PARTE SECONDA – Tecnologie e strategie dei
fornitori di soluzioni e servizi
3Com - Alcatel: le soluzioni per i contact center Alcatel: le soluzioni Ip-Pbx - Allied Telesyn - Avaya Cisco Systems - Italtel - Microsoft - Nortel
Networks - Reitek - Selta Telematica - Tecnonet
PARTE SECONDA - Tecnologie e strategie dei
fornitori di soluzioni e servizi
3Com - Allied Telesyn - Check Point - Cisco Systems Computer Associates - D-Link - Internet Security
Systems - Microsoft - Nokia - Rsa Security - Symantec
dida da scrivere
3
L’abbonamento a Direction fornisce
accesso ad alcuni servizi relativi alla
pubblicazione dei report e degli studi
di Reportec. Gli abbonati riceveranno
sei numeri del dossier completi dei
relativi allegati su CD ROM e inoltre
potranno scegliere tra:
SOLUZIONE A
un Report Tecnologico rilegato in hard
cover formato A4 e sovra copertinato
(dal costo di listino di Euro 215) a scelta
tra i titoli finora pubblicati:
Business Networking 2003
IT Security 2003
Server e Storage 2003
Business Communication 2003
Servizi
per gli abbonati
SOLUZIONE B
tutti e 4 i Report Tecnologici finora
pubblicati rilegati in hard cover formato
A4 e sovra copertinati (ciascuno del
costo di listino di Euro 215).
Agli abbonati è riservato anche uno sconto del 25% sul prezzo di acquisto degli
altri report pubblicati e la possibilità di accedere a condizioni di favore alle
iniziative che si susseguiranno nel corso dell’anno.
L’abbonamento a 6 numeri del dossier (di periodicità bimestrale) è pari a Euro 90
per la soluzione A e Euro 390 per la soluzione B e comprende le spese di
spedizione del report o dei report richiesti.
Per sottoscrivere l’abbonamento inviare un’e-mail a [email protected]
oppure un fax al numero 0234532848