fornitura di infrastruttura di calcolo, rete e storage per la

Transcript

fornitura di infrastruttura di calcolo, rete e storage per la
FORNITURA DI INFRASTRUTTURA DI CALCOLO, RETE E STORAGE PER LA CREAZIONE DI UNA GRIGLIA
COMPUTAZIONALE
CAPITOLATO TECNICO
Premessa
La fornitura oggetto del presente capitolato è costituita da sistemi blade montabili su rack standard a 19” , switch di rete e sistemi di
storage fiber-to sata.
Tutti i sistemi proposti vi saranno forniti chiavi in mano ( cablaggi e posa in opera ) .
Tutti i sistemi offerti sono in garanzia e manutenzione con intervento “on-site” per 36 mesi da data installazione e con modalita’ di
intervento NBD (Next Business Day).
Per tutti i lotti vi saranno forniti blade con le seguenti caratteristiche:
-
Identici Processori
Identiche Motherboard
Identico Tipo di Ram
Identica tipologia di Storage locale su disco
Identiche Interfacce di rete
Identici Switch di rete
Ciascun processore e’ di tipo AMD Opteron revF in grado di eseguire nativamente codice binario x86 a 32 e a 64 bit. E’dotato di canale
di comunicazione diretta con gli altri processori sulla stessa motherboard, e dispone di controller di memoria integrato.
Nel documento allegato “Performance of the AMD Opteron LS21 for IBM Blade Center” si puo’ trovare un’analisi puntuale
dell’architettura di LS21 e alcune considerazioni sulle prestazioni.
Parametri di ambiente nominali dichiarati da IBM in base alla configurazione COMETA
Description Range
Operating temperature
Relative humidity
Maximum Altitude
Operating voltage
Operating frequency
10 to 35 degrees C (50 to 95 degrees F)
8% to 80%
2,133 m (7,000 ft)
200-240 V ac
50 or 60 Hz
Power consumption di un sistema LS21 in configurazione tipo INFN CT SEDE 1 inclusi i componenti di rete in Blade Center:
170W a riposo – 250W a pieno regime
(si considerino i dati di esempio di un Blade Center H come per il Lotto1, riportati di seguito, e si divida per il numero di Server pari a
14).
Questo valore e’ un valore medio che tiene in conto anche il consumo dello chassis e degli apparati di rete integrati.
Power consumption di un sistema x3655 in configurazione tipo SEDE 4:
220W a riposo – 330W a pieno regime
Power consumption di un controller DS4200:
230W senza sostanziali differenze a riposo o sotto carico
Power consumption di un expansion EXP420:
350W senza sostanziali differenze a riposo o sotto carico
I dati di consumo sono conformi a quanto dichiarato dal costruttore.
Consumi medi calcolati per uno Chassis IBM Blade Center H con 14 x LS21 configurato come da offerta. Valori da IBM tool a
http://www-03.ibm.com/systems/bladecenter/powerconfig/
Maximum
Quantity
1
Maximum
Measured
Rated
Idle
Measured
Input
System
Description
Power
Power
Current
Power
Blade Center - LS21 Power Cometa v1
1
2326 W
3526 W
16 A
9600 W
Domain 1
1163 W
1764 W
8,1 A
4800 W
Domain 2
1162 W
1763 W
8,1 A
4800 W
IBM BladeCenter H Chassis
Power Supplies for Blades 1-7: 2 x BCH 2900 W & Blades 8-14: 2 x BCH 2900 W
1 Management Module(s)
(2) Nortel Networks® Layer 2/3 Copper Gigabit Ethernet Switch Module
(1) Copper Pass Through Switch Module
LS21 (7971)
14
(2) 2.6GHz Opteron 2218 HE - 68W
(8) 1024 MB Dimm(s)
(1) IBM 73GB 10K U320 SFF SAS NHS
Power Estimates for Total Configuration
Date & Time:
17/07/2007 9.50.39
Country:
Italy
Voltage:
220 V
MAX
Based on system(s) running at:
IDLE
MEASURED
SYSTEM
RATING
Power:
2326 W
3526 W
9600 W
Input Current:
10,6 A
16 A
48 A
BTU/HR:
7932 BTU/Hr
12024 BTU/Hr
32736 BTU/Hr
CFM:
430 CFM
820 CFM
820 CFM
VA Rating:
2373 VA
3598 VA
9796 VA
Leakage Current:
30 mA
30 mA
30 mA
Peak Inrush Current (4ms):
200 A
200 A
200 A
Current Program Version: v4.4.2.28 - 23 May, 2007
SPEC bmt
CINT2000
CINT_rate2000
CFP2000
CFP_rate2000
Consumo medio per Blade configurato come da capitolato tecnico inclusi gli apparati di rete e lo chassis
Idle Power
2326W/14 = 170W
Max Power
3526W/14 = 250W
Misure in un range di 2% di tolleranza.
Ne consegue che i sistemi proposti soddisfano il limite superiore di consumo ammesso.
250W < 0.05 * 1784 * 4 = 357W
Prestazioni [email protected] AMD Opteron 2218 da www.spec.org
Il sistema di nodi di calcolo e’ in architettura IBM Blade Center H di nuova generazione.
Le blades LS21 sono disegnate per ospitare processori dual-core revF.
Le memorie sono di tipo DDR2 667MHz.
Base
1606
72,6
1999
83,3
SISTEMA OPERATIVO E AMBIENTE SW
Tutti i sistemi di calcolo vi saranno forniti con linux scientific cern rilasciata per il middleware di INFN- GRID rilasciato dal progetto
INFN .
I nodi di calcolo ed i sistemi storage sono forniti con il middleware grid gLite pre-installato. La tipologia dei servizi grid (computing
element , storage element , worker node, ecc )sarà definita in accordo con il committente .
Tools e compilatori secondo quanto richiesto nel capitolato tecnico di gara
Saranno inoltre forniti e preinstallati le licenze dei compilatori F77/F90/F95/C/C++ ottimizzati per l’architettura Opteron accedibili via
LAN da tutti i nodi dell’architettura COMETA.
I Cluster sono forniti del Software per la comunicazione nativa su interconnessione Infiniband 4X. Saranno anche installati gli ambienti
MPICH e MPICH2.
LSF
Senza alcun costo aggiuntivo per il Consorzio sarà fornita la HPC 6.2 o qualunque altra versione compatibile con il middleware di
INFN GRID indicata dal Consorzio stesso.
Cluster di Calcolo offerti nei 6 siti della rete COMETA
Per poter soddisfare al meglio le specifiche tecniche riportate nel Capitolato Tecnico di Gara, la soluzione proposta stabilisce alcuni
punti comuni alle architetture Cluster dei 6 siti della rete COMETA specializzando a ogni modo la soluzione ai vari siti tenendo in conto
le specifiche indicate nel capitolato tecnico di gara.
Obiettivo essenziale del progetto e’ quallo di garantire una elevata interoperabilita’ e unita’ di gestione tra tutte le realizzazioni dei vari
centri e un’elevata integrazione con l’architettura presistente basata su tecnologia IBM Blade Center H e IBM Blade LS21.
Tenendo in massimo conto gli aspetti di compattezza della soluzione da proporre, di riduzione dei costi di consumo, di minimo
ingombro, di massima integrazione fra tutte le componenti (processori, dischi, componenti di rete, etc), di gestione semplificata
dell’architettura distribuita, la soluzione Cluster IBM Blade H soddisfa a pieno le necessita’ che si evincono dal capitolato di gara, e le
migliora ulteriormente.
Oltre all’indiscussa superiorita’ tecnologica dell’architettura IBM Blade Center, sono di ulteriore rilievo la proposta IBM LS21 Blade che
integra l’architettura AMD/Opteron dual-core revF nel blade stesso.
IBM ha inoltre stabilito accordi tecnologici con i maggiori fornitori di interconnessione a alate prestazioni (Myricom, Topspin/CISCO,
Voltaire, Brocade, Nortel, QLogic, McData, etc.) per integrare nello chassis diversi componenti di rete e SAN alfine di mantenere un
elevata compattezza anche per architetture che devono assicurare connessioni di diverse tipologie (Switch Gbit, componenti SAN,
Switch Infiniband o Myrinet, etc.).
La costruzione dello chassis permette adeguate ridondanze di componenti oltre a consentire sostituzioni di tipo hot-plag, riducendo
quindi al minimo possibili interruzioni di servizio a causa di rotture HW.
L’integrazione di IBM Blade Center H in rack di tipologia standard 19” da 42U, come i rack APC o Rittal preesistenti in COMETA,
consente di ottenere la massima densita’ computazionale per rack (fino a 4 chassis 9U per rack conteneti ognuno fino a 14 blades, per
un valore complessivo di 14 (blades) x 4 (chassis) = 56 blades che per soluzioni dual-core corrispondono a 224 cores per rack).
Ulteriori vantaggi sono dovuti alle caratteristiche di minor consumo delle soluzioni blade rispetto a nodi 1U. Come valutazione
esemplificativa, ma applicabile al caso in questione, un Blade Chassis con 14 LS21 configurati con 1xHDD 73GB SCSI, 4GB RAM, e
apparati di rete integrati, consuma circa 3KW (circa 230W per blade). Un rack completo con 4 chassis ha un consumo in pieno esercizio
intorno a 12KW.
Ulteriori considerazioni
L’architettura proposta permetta la completa integrazione con l’architettura preesistente e ne migliora le caratteristiche di flessibilita’,
prestazione complessiva e gestione.
La rete a elevate prestazioni Infiniband SDR e DDR 4X fornita consente di collegare, nei vari siti, tutti i sistemi LS21 Blade, sia quelli
preesistenti che quelli oggetto della proposta.
La soluzione Infiniband proposta consente di rendere interoperabile soluzioni di diversa tipologia: IB-1X (presente in Trigrid), IB-4X SDR
(presente in Cometa) e IB-4X DDR (offerta su alcuni dei siti della presente proposta).
Saranno consentite in fase di realizzazione del progetto alcune variazioni rispetto alla configurazione Infiniband proposta che possano
al meglio incontrare l’esigenze del Consorzio.
Nei siti dove non e’ prevista la fornitura di uno Switch Infiniband esterno di tipo CISCO SFS 7012D, sono comunque garantite le
connessioni a coppia tra Chassis o a tre in cascata, connetendo tra loro gli Switch Infiniband 4X interni agli Chassis.
L’interoperabilta’ e l’integrazione e’ garantita con le preesistenze sia in termini di interoperabilita’ che di gestione complessiva.
La proposta prevede, come ulteriore garanzia di integrazione e gestione centralizzata, l’utilizzo di alcuni ambienti che verrano forniti
all’interno della configurazione dell’architettura e che consentiranno il monitoring centralizzato delle componenti HW, l’ottimizzazione dei
consumi elettrici, la possibilita’ di effettuare installazioni di ambienti SW da un unico punto di servizio, l’integrazione e l’interoperabilita’
dell’architettura storage e filesystem distribuito a alte prestazioni, con i prodotti seguenti integrati nella fornitura:
IBM Director v5
http://www-03.ibm.com/systems/management/director/about/new.html
IBM PowerExecutive
http://www-03.ibm.com/systems/management/director/extensions/powerexec.html
IBM Cluster System Management
http://www-03.ibm.com/systems/clusters/software/csm.html
IBM General Parallel Filesystem v 3.1 e successive versioni
http://www-03.ibm.com/systems/clusters/software/gpfs.html
LSF 6.1 HPC
http://www.platform.com/
l’architettura HW e SW nel suo complesso garantiscono la massima flessibilita’ e scalabilita’.
In fase di realizzazione verra’ indicato un Responsabile di Progetto.
Verra’ inoltre fornito in fase di esecuzione dei lavori l’elneco del personale preposto al project management e al supporto tecnico
assegnato al progetto.
L’esecuzionedei laori verra’ effettuata nel rispetto delle norme vigenti e garantendo la massima efficacia nella messa in produzione di
tutta l’architettura.
SPEC bmt
CINT2000
CINT_rate2000
CFP2000
CFP_rate2000
Base
1606
72,6
1999
83,3
Dimensionamento dei vari Lotti sulla base delle prestazioni di LS21 da www.spec.org
Per soddisfare al meglio le specifiche del bando in termini di prestazioni complessive con un rapporto prezzo/prestazioni di massimo
rilievo, si ritiene cha la soluzione AMD/Opteron 2218 revF dual-core a 2.6GHz rispecchi al meglio le specifiche sia per l’elaborazione
integer che per floating-point. In particolare si riportano nella tebella di seguito i valori relativi ai vari indicatori disponibili su
www.spec.org e utilizzati nel capitolato tecnico di gara con i quali definire il numero di blades necessarie per ogni centro COMETA e in
grado di soddisfare le richieste di prestazioni minime. Si tenga in conto che i dati pubblicati hanno un valore di tolleranza generalmente
entro il 2%.
Tabelle dati di prestazione di riferimento come da www.spec.org Gennaio 2007
IBM AMD/Opteron [email protected] dual-core revF, processore 2218
Prestazioni LS21 AMD Opteron 2218 da www.spec.org
In riferimento alle specifiche di prestazione SPEC indicate in ognuno dei lotti 1-5 del capitolato tecnico di gara, e’ utile fare un conto
complessivo sul numero di blades che consente di soddisfare le specifiche di target
Tenendo in conto la distribuzione delle capacita’ di elaborazione indicate sui 6 lotti di gara, si effettuera’ una ripartizione in termini di
numeri di blades secondo lo schema seguente. La capacita’ computazionale complessiva soddisfa le richieste del captilato di gara e le
migliora ulteriormente con l’aggiunta di 20 Blades che potranno essere inserite in alcuni dei siti preesistenti.
La distribuzione delle blades nei nuovi chassis e’ stata determinata in modo da poter riempire tutti gli Chassis forniti, per cui la
distribuzione tende a ottimizzare gli spazi e i costi garantendo a ogni modo le capacita’ di calcolo orientative definite nel capitolato di
gara. I criteri di distribuzione sono indicati nelle tabelle sottostanti, dove sono riportati il numero delle blades che soddisfano in modo
puntuale i dati di prestazione per i vari indicatori SPEC, e in rosso il numero degli Chassis e delle Blades offerte per ogni sito.
Indicatore
SEDE 1 INFN-CT
SPECint2000
Base
SPECint2000
SPECint_rate2000
SPECfp_2000
SPECfp_rate_2000
Peak
578160
642240
6534
7308
719640
802080
7497
8028
#Blades
#Blades
90,0
90,0
SPECint_rate2000
90,0
90,0
SPECfp_2000
90,0
90,0
SPECfp_rate_2000
90,0
90,0
Chassis
90,0
90,0 Blades
7
98,0
SEDE 2 INAF-CT
SPECint2000
Base
SPECint2000
289080
SPECint_rate2000
SPECfp_2000
Peak
321120
3267
3654
359820
401040
3748
4014
SPECfp_rate_2000
SEDE 3 UniME e INGV
Base
SPECint2000
411136
456704
4646
5197
511744
570368
5331
5709
SPECint_rate2000
SPECfp_2000
Peak
SPECfp_rate_2000
SEDE 4 UniCT-DIIT
Base
SPECint2000
205568
228352
2323
2598
255872
285184
2666
2854
SPECint_rate2000
SPECfp_2000
Peak
SPECfp_rate_2000
SEDE 5 UniCT-DMI
SPECint2000
SPECint_rate2000
SPECfp_2000
SPECfp_rate_2000
Peak
205568
228352
2323
2598
255872
285184
2666
2854
45,0
SPECint_rate2000
45,0
45,0
SPECfp_2000
45,0
45,0
SPECfp_rate_2000
45,0
45,0
45,0
45,0 Blades
SPECint2000
64,0
64,0
SPECint_rate2000
64,0
64,0
SPECfp_2000
64,0
64,0
SPECfp_rate_2000
64,0
64,0
Chassis
Chassis
64,0
64,0 Blades
SPECint2000
32,0
32,0
SPECint_rate2000
32,0
32,0
SPECfp_2000
32,0
32,0
SPECfp_rate_2000
32,0
32,0
Chassis
SPECint2000
Base
45,0
32,0
32,0 Blades
32,0
32,0
SPECint_rate2000
32,0
32,0
SPECfp_2000
32,0
32,0
SPECfp_rate_2000
32,0
32,0
32,0
32,0 Blades
Chassis
3
42,0
5
70,0
2
28,0
2
28,0
SEDE 6 INAF-PA
Base
SPECint2000
SPECint_rate2000
SPECfp_2000
SPECfp_rate_2000
Peak
719488
799232
8131
9094
895552
998144
9330
9990
SPECint2000
112,0
112,0
SPECint_rate2000
112,0
112,0
SPECfp_2000
112,0
112,0
SPECfp_rate_2000
112,0
112,0
112,0
112,0 Blades
Chassis
8
112,0
Blade addizionali. La proposta prevede l’aggiunta di 10 Blades da inserirsi nei Blade Chassis preesistenti secondo le necessita’ del
consorzio, Le blades sono equipaggiate di card IB di connessione per cui si integrano nella rete Infiniband. La capacita’ di calcolo
complessiva addizionale e’ pari a
Adizionali
SPECint2000
Base
SPECint2000
SPECint_rate2000
SPECfp_2000
SPECfp_rate_2000
Totale
Peak
64210
71360
726
812
79960
89120
833
892
min 375 Blades
10,0
10,0
SPECint_rate2000
10,0
10,0
SPECfp_2000
10,0
10,0
SPECfp_rate_2000
10,0
10,0
10,0
10,0 Blades
(NUMERO MINIMO DI LAME PER SODDISFARE LA VOSTRA RICHIESTA MINIMALE DI
SPECINT2000 RICHIESTI
offerte 378+10 Blades
Il Consorzio puo’ a suo giudizio redistribuire le Blades in diverso numero sui vari siti, fatto salva la capacita’ di ospitarle negli
Chassis predisposti, in quanto l’infrastruttura di rete e’ stata disegnata per poter supportare, senza pregiudicare in alcun
modo le prestazioni, Chassis pienamente popolati.
Dimensionamento dei sottosistemi storage sui vari Lotti
Capacita’ 131TB complessivi distribuiti su sottosistemi DS4200 per 4 Lotti:
Lotto
Richiesto
Offetto
1
3
4
5
75TB
11TB
20TB
25TB
75TB
12TB
24TB
30TB
Tot
131TB
141TB
Il Consorzio puo’ a suo giudizio ridistribuire i dischi in diverso numero sui vari siti, fatto salva la capacita’ di ospitarle
nell’espansioni DS4200 predisposte, in quanto l’infrastruttura storage e’ stata disegnata per poter supportare, senza
pregiudicare in alcun modo le prestazioni, espansioni pienamente popolate.
In ognuno dei siti in cui e’ disponibile un sottosistema DS4200 verrano connessi agli I/O nodes presistenti per assicurare ridondanza,
prestazioni e flessibilita’ nella gestione degli accessi al sottosistema storage.
Per LA SEDE 4 e 5 e’ prevista l’aggiunta di due I/O nodes IBM x3655 secondo la configurazione di seguito schematizzata.
La configurazione tipo di un I/O node e’ la seguente.
•
•
•
•
•
•
Server x3655 2U dual-core 2210 1.8GHz
4GB RAM DDR2 667MHz ECC
dual GbEth integrata
doppio disco 73GB SAS in RAID HW hot-swap
Controller Emulex 4Gb FC dual-port
Redundant power supply
Per LA SEDE 1 e’ prevista l’aggiunta di 2 schede FC 4Gb Emulex
10
Schede Tecniche dei prodotti offerti
Scheda tecnica riassuntiva soluzione IBM LS21
Overview
Un singolo chassis BladeCenter H supporta, in sole 9 U di un rack, sino a 14 blade LS21 e HS21 in modalità hot swappable. In
aggiunta ai blade server, lo chassis può ospitare sino a 10 diversi switch/bridge. Queste caratteristiche non solo permettono di avere un
risparmio notevole di spazio rispetto ai server 1U, ma integrando switch e bridge riducono la complessità nei cablaggi e permettono una
gestione integrata. In un singolo rack 42U possono essere installati sino a 56 server LS21 e/o HS21 per un totale di 112 processori e
224 core.
I tool di gestione integrati in BladeCenter semplificano inoltre l’amministrazione e massimizzano l’efficienza del personale IT,
contribuendo a ridurre i costi e a migliorare il controllo del data centre
IBM BladeCenter LS21
Il Blade Server LS21 offre caratteristiche comparabili a molti server 1U. Infatti l’LS21 supporta sino a 2 processori di ultima generazione
dual-core AMD Opteron revision F. I processori Opteron sono progettati con 2MB di cache L2 condivisa, tecnologia HyperTransport
64-bit extensions (EM64T), e sono in grado di fornire tutta la capacità di elaborazione richieste dale applicazioni attuali.
LS21 supporta sino a 32GB di memoria DDR2 con 533MHz PC2-4200 Fully Buffered ECC (Error Checking and Correcting) oppure
16GB di memoria PC2-5300 (DDR2 667MHz) ECC in 8 DIMM slot, utilizzando le Memory and I/O Expansion Unit, con protezione
Chipkill™per garantire prestazioni e affidabilità.
I controllori dual Gigabit Ethernet integrati sono standard e forniscono high-speed data transfer e supporto TOE unito a funzionalità di
load-balancing e failover.
La Memory and I/O Expansion Unit fornisce due controller aggiuntivi Gigabit Ethernet (senza supporto TOE). Utilizzando delle schede
di espansione aggiuntive , ogni blade può connettersi a sistemi Ethernet, Myrinet, Fibre Channel, iSCSI, InfiniBand™ mediante switch
integrati nello chassis. Schede opzionali 2-port Expansion Cards permettono di aggiungere funzionalità ai server LS21 server.
Tutti i modelli LS21 offrono alte funzionalità a prezzi contenuti e includono un SAS hard disk. Una Storage and I/O Expansion Unit
opzionale da 30mm connessa al blade garantisce la possibilità di avere tre 2.5” SAS HDD aggiuntivi con supporto hot-swap, e
supporto RAID1/RAID-5. LS21 è ottimizzato per funzionare in modalità diskless, potendo ogni blade server accedere a qualsiasi
tipologia di storage via Fibre Channel o iSCSI.
I chassis BladeCenter sono in grado di controllare le condizioni operative delle proprie componenti e delle
blade e di mandare alert all’amministratore. Sono disponibili funzionalità avanzate quali:
Active Memory™, Predictive Failure Analysis™, light path diagnostics, componenti di power e raffreddamento hot-swap e
ridondate e con Calibrated Vectored Cooling™
Supporto IPMI 2.0 con controllo remoto sicuro del power
text-console ridiretta sulla LAN, un Management Module, IBM Director management software con IBM PowerExecutive™,
Remote Deployment Manager, e IBM ServerGuide™ aiutano a mantenere elevate la system availability with.
LS21 offre numerose caratteristiche per aumentare le performance e abbassare i costi operativi:
Sino e due processori dual-core Opteron “revision F” Model 2000 Series con HyperTransport Technology, DirectConnect
Architecture e 2MB di cache integrata Level 2 per processore. A scelta processori con 2.0, o 2.4GHz clock rates e 68W di
consumo oppure 2.0 o 2.6GHz e 95W di consumo.
Sino a 32GB di memoria high-speed 533MHz PC2-4200 o sino a 16GB di memoria a 667MHz PC2-5300 DDR2 ECC) con
protezione Chipkill opzionale.
Il blade server LS21 include una Baseboard Management Controller (BMC) per monitorare la disponibilità del server, fare
Predictive Failure Analysis, e catturare gli alert del IBM Director.
L’alto livello di integrazione dello chassis elimina la necessità di componenti interne ai server, potendo sostituire con le
proprie componenti hot swap moduli esterni per raffreddamento, cablaggi, power e switch. L’integrazione abbassa anche la
quantità di energia che viene consumata e il calore prodotto da un numero equivalente di sistemi 1U.
Il midplane supporta una scheda di espansione Fibre Channel (adattatore Host Bus) opzionale a due porte (fino a 4 Gb per
porta), una scheda di espansione Gigabit Ethernet opzionale a due porte, fino a quattro fabric ad alta velocità con
connessione PCI-Express, incluso Infiniband 4x
Anche l’alimentazione degli chassis è stata nettamente migliorata permettendo un fattore di efficienza del 90% nella
conversione di corrente AC in corrente DC utilizzata all’interno dei server. Anche in questo caso il risparmio è notevole in
quanto l’energia utilizzata viene sfruttata al meglio per il funzionamento delle varie componenti.
I Blade Center riducono inoltre il numero di una serie di componenti necessarie ai sistemi, quali floppy e CD-ROM device,
ventole e sistemi di gestione
Vista
Vista frontale
interna
BladeCenter LS21 Specification
Caratteristiche IBM BladeCenter LS21 Blade Server
Machine type
7971-3xX/3xY, 5xX/5xY, 6xX/6xY (2-processor-only)
Form factor
30mm blade
Processor type
Dual-core AMD Opteron “revision F” processor (2000 series)
2.0GHz 2212HE (31X/31Y), 2.0GHz 2212 (3AX/3AY), 2.4GHz 2216HE (5xX/5xY),
2.6GHz 2218 (6xX/6xY)
Processor power draw
68W (31X/31Y, 51X/51Y)
HyperTransport Tunnel speed
1.0GHz
# of processors standard / maximum
1/2
Internal L2 cache
2MB (1MB per core)
Chipset
ServerWorks HT 2000/1000
Standard / maximum memory
1GB (2 x 512MB) / 32GB (31X/31Y,
3AX/3AY)
Standard memory type
PC2-5300 (667MHz) DDR II ECC (optional PC2-4200/533MHz)
Memory interleaving
Two-way (using pairs of DIMMs)
DIMM capacities supported
512MB, 1GB, 2GB, 4GB
Chipkill protection supported
Yes
# of DIMM sockets total / available
8 / 6 (31X/31Y, 3AX/3AY, 51X/51Y, 6AX/6AY)
# of 2.5-inch drive bays total / available
1 / 1 fixed (standard)
# of direct-attach 2.5-inch drive bays
3 hot-swap (using optional Storage and I/O Expansion Unit)
Maximum internal 2.5" HDD capacity
146,8GB SAS standard
Maximum HDD capacity using a storage
expansion unit
293.6GB (4 x 73.4GB), using optional Storage and I/O Expansion Unit
2.5-inch HDD capacities supported
36.4, 73.4GB, 146,8GB — 10K RPMs
# of HDDs standard
None
# of optical drives standard
None (one standard in chassis)
# of diskette drives standard
None (one standard in BladeCenter / BladeCenter H chassis)
Internal tape drives supported
None (SAN-attached)
95W (3AX/3AY, 6AX/6AY)
2GB (2 x 1GB) / 32GB (51X/51Y,
6AX/6AY)
Disk drive technology
Serial-Attach SCSI (SAS)
Integrated disk controller
LSI Logic 53C1064
# of disk drives supported per channel
1 (one-drive limit internally, due to available bays)
External disk drive support
NAS/SAN-attach
# of adapter slots total / available
1 legacy PCI-X slot or 1 PCI-E slot (Additional slots available with optional expansion
units)
# of 64-bit / PCI-E x8 slots
1 (in place of the PCI-X slot); 1 PCI-E slot available with the optional Storage and I/O
Expansion Unit (1 maximum)
# of 64-bit / PCI-X 133MHz slots
1 (in place of the PCI-E slot); 2 extra via optional PCI Expansion Unit II (3 total); 1 or 2
extra via optional Storage and I/O Expansion Unit (3 maximum)
# of 32-bit / PCI slots
None
# of video ports
None (chassis-attached)
Video controller
ATI RADEON RN50B
Video memory
16MB SGRAM
Maximum video resolution at 32-bit color
1024 x 768 x 32-bit color at 75Hz
Gigabit Ethernet controllers standard
2 x Broadcom BCM5706S (with TOE support)
# of RS485 ports
None
# of serial ports
None (1 via BladeCenter H chassis)
# of parallel ports
None
# of mouse ports
None (1 via chassis)
# of keyboard ports
None (1 via chassis)
# of USB 1.1 ports
None (2 via chassis)
Systems management controller
Integrated BMC
Diagnostic LEDs (front panel)
Power good, blade location, over temperature, information, general fault
Predictive Failure Analysis support
Processor, memory, HDDs
Power supply size
Contained in chassis
# of power supplies standard / maximum
Contained in chassis
# of fans/blowers standard / maximum
Contained in chassis
Dimensions (HWD) / weight
9.7” (245mm) H
1.14” (29mm) W
17.6” (446mm) D
Operating systems supported
Microsoft Windows Server 2003 (Standard/Web/Enterprise Editions) 32-bit and 64-bit,
Microsoft Windows 2000 Server (Standard/Enterprise Editions), RHEL 3/4 32-bit and
64-bit, SLES 9/10 32-bit and 64-bit, Novell NetWare 6.5, VMware ESX Server 2.5.4/3,
Solaris 10
Length of limited warranty
3 years (parts and labor) onsite
10.77 lb (maximum)
4.88 kg (maximum)
Schema del nuovo Blade Center H 9U con supp
BladeCenter H
Advanced Management Module
BladeCenter HT (4Q)
2-socket PowerPC Refresh (dual core)
2-way low voltage Xeon speedbump
2-way Xeon speedbump
2-socket Opteron speedbump
2-socket Sossaman (very low voltage)
2-socket Xeon Refresh (dual core)
2-socket Opteron Refresh
Dual 4X InfiniBand HCA
Cisco 4X InfiniBand Switch Module
IBM Server Connectivity Module
Nortel 10Gb Uplink Switch
Nortel 10Gb Ethernet (4Q)
Myrinet, Teak, Invivo, Voltaire, Nokia,
Nortel, Ericsson
Blade Center H:
Vista frontale
A: Il BladeCenter H dispone minimo 2 fino a
un massimo di 4 (la configurazione con 4 PS
corrisponde a quanto offerto) power supply che
si inseriscono frontalmente. Ciascun modulo
comprende anche la parte di ventole utilizzate
per migliorare il raffreddamento dei power
supply.
B: media tray che comprende un DVD
UltraSlim 9,5 mm, 2 USB esterne ed il pannello
di Full Light Dignostic che è riportato in
dettaglio nella terza immagine. Tale tray è hot
swap e può essere condiviso dalle lame
secondo le necessità.
Vista posteriore
A: Alloggiamenti Switch: 1Gb Ethernet, 4Gb Fibre
Channel, 1X InfiniBand e Myrinet
B: Alloggiamenti Switch ad alte prestazioni: Il
BladeCenter H disponendo di 2 U aggiuntive
rispetto al Blade Center a 7U dispone di 4 bay per
ospitare
4X InfiniBand consentendo maggiori
performance.
C: connessione seriali e Light Path Diagnostic
Panel: l’LPD posto nella parte posteriore è per
facilitare la risoluzione dei problemi mentre si è
dietro al rack. La nuova connessione seriale
presente nel modello H permette ai clienti anche
una connessione seriale diretta ad ogni blade nello
chassis. Ecco l’ immagine di dettaglio:
D: Advanced Management Module per una gestione semplificata di tutte le componenti.
E: Ventole hot swap: l’architettura N+N hot swap e ridondato riduce il numero di componenti necessarie al raffreddamento aumentando
l’uptime, la manutenzione e riducendo significativamente l’assorbimento di corrente.
F: una delle prese per l’alimentazione dello chassis
Il BladeCenter H fornisce i sistemi di controllo e gestione atti a gestire ed interfacciare i sistemi di controllo delle singole lame blade:
Advanced Management Module per la gestione hardware del sistema;
IBM Director con strumenti di gestione e di installazione dei sistemi per la gestione software dei sistemi;
Predictive Failure Analysis per il controllo del buono stato di funzionamento di Dischi, Processori, ventole, memoria;
Light Path Diagnostics per il controllo del Blade server, del processore, della memoria, degli alimentatori, delle ventole, degli switch, del
modulo di gestione (Advanced management module), i dischi e le expansion card
Blade Chassis
Caratteristiche disponibilità
Light path diagnostics
Memoria Chipkill
Midplane alta disponibilità
Moduli di gestione ridondanti
Offerta
Ethernet layer 2-7 integrato
Switch Fibre Channel
integrato
Switch InfiniBand 4X
integrato.
Espansione opzionale -- due
hard drive aggiuntivi e due slot
I/O
Supporto clustering Myrinet
Caratteristiche
Sì
Sì
Sì
Sì
Sì
Tre venditori
Sì
Sì
Sì
Alcuni utili link per ulteriori informazioni sulla soluzione IBM bladecenter
Descrizione sito web
Prodotto BladeCenter
Link
http://www.ibm.com/servers/eserver/bladecenter/
Prodotto chassis BladeCenter
Prodotto server blade
http://www.ibm.com/servers/eserver/bladecenter/chassis/index.html
http://www.ibm.com/servers/eserver/bladecenter/blade_servers_overview.html
Pagina prodotto moduli switch BladeCenter
http://www.ibm.com/servers/eserver/bladecenter/switch/index.html
Siti internet IBM Express servere e storage
ibm.com/servers/eserver/express/offerings_xseries.html
IBM Research
http://www.research.ibm.com/journal/rd49-6.html
Scheda tecnica riassuntiva soluzione sottosistema storage IBM DS4200
I lotti 1-2-3-5 proposti prevedono un sistema storage IBM DS4200 di differenti capacita’ ma con identiche caratteristiche di ridondanza,
gestione e affidabilita’ complessiva. Il sistema DS4200 supporta vari tipi di RAID. Ha una ridondanza intrinseca di tutti i componenti
critici (Fan, Power, Controller) per assicurare la massima affidabilita’. Consente espansioni fino almeno a 56TB con dischi S-ATA. Ogni
Cluster accede il ssistema DS4100 tramite un Server x3655 che gestisce il Cluster stesso, il sottosistema storage e l’ambiente GPFS
Server. Con tale soluzione i nodi di calcolo sono impegnati per la parte I/O tramite il proprio Client GPFS e quindi non partecipano in
alcun modo alla gestione del GPFS stesso, permettendo un uso ottimale delle risorse di calcolo stesse.
Infiniband Network
La rete di IPC (Inter Process Communication) proposta garantisce una performace di 10Gbit/sec (4x) da ogni nodo computazionale. Per
questa ragione e per garantire che la soluzione sia full non blocking e full bisection bandwidth la nostra scelta e’ caduta sull’utilizzo di
switch Cisco Infinband 4x per BladeCenter H
La nostra soluzione propone, come gia’ riportato, prodotti della famiglia Cisco. La scelta di Cisco e’ dovuta alla garanzia di perfomance
ed affidabilita’ garantite da Cisco e da noi confermate.
Cisco con IBM sta lavorando attivamente allo sviluppo sia dei nuovi prodotti per BladeCenter H che al miglioramento e sviluppo di
drivers e firmware per questa tecnologia. Con l’acquisizione di Topspin, Cisco ha deciso di investire massicciamente in questo settore e
lo dimostra la leadership nello sviluppo di OpenIB ed il rilascio dei drivers OFED in parallelo con quelli proprietari, oltre a lavorare
attivamente nello sviluppo di nuovi cavi, componente delle soluzioni infiniband piuttosto delicata ad oggi.
Cisco inoltre ha partecipato alla realizzazione di 13 dei 20 cluster piu’ grandi basati su Infiniband e maggiori info sulle referenze
possono essere trovate all’URL http://newsroom.cisco.com/dlls/2006/prod_111406f.html, di cui citiamo
•
CINECA
•
TriGrid
•
Cybersar
•
Sandia National Laboratories
•
the Air Force Research Laboratory Maui High Performance Computing Center,
•
Texas Advanced Computing Center at The University of Texas at Austin,
•
the College of Computing at Georgia Tech,
•
the University of Sherbrooke,
•
the University of North Carolina at Chapel Hill,
•
National Center for Supercomputing Applications,
•
the University of Oklahoma
•
University of Florida
•
Stanford University
In particolare Sandia National Laboratories Thunderbird Linux cluster e' classificato al 6 posto della Top 500 supercomputing list ed e' il
piu grande cluster ad oggi realizzato con standard Infiniband.
Ad oggi i fornitori di Infiniband si relazionano con un unico fornitore di silicio, i chip utilizzati da Cisco, Voltaire e Silverstorm dipendono
dal silicio realizzato da Mellanox da cui i produttori sopra menzionati acquistano le HCA. La differenza nelle varie soluzioni IB sul
mercato e’ percio’fatta dai drivers e dal tipo di Systema di management utilizzato. Cisco ha realizzato un software, chiamato Subnet
Manager, molto efficace che riesce a gestire e monitorare tutta la rete Inifniband dei cluster permettendo un attento controllo ed il
routing dei packages su un differente path, in caso di failure, in tempi ridotti, si pensi come esempio che in un cluster di circa 1280
compute nodes, composto da IBM BladeCenter H Cisco Infiniband 4x switches e SFS-7024 come second level switches, il subnet
manager (SM) e’ in grado di ricalcolare on-the-fly il reroute dei pacchetti in un tempo di circa 2 secondi in caso di failure di un path (per
esempio cavo rotto).
Le specifiche di Infiniband, presenti sul sito ufficiale IBTA (http://www.infinibandta.org/home) consentono un BER di 10-12 , Cisco
supporta e qualifica il proprio HW con specs piu’ restrittive (10-15 BER), tradotto in termini pratici: un BER di 10-12 corrisponde ad un
rischio di circa 1728 errori all’ora che si riduce a due errori quando si utilizzano prodotti Cisco come quelli da noi proposti nella nostra
offerta. Nel caso di switch come il SFS-7024 completo di 288 porte DDR gli errori possibili possono essere circa 41 per ora a differenza
di prodotti che si attengono strettamente alle specifiche IBTA che consentono circa 41472 errori all’ora, come evidenziato nella tabella
seguente
Come riportato in precedenza uno dei componenti fondamentali delle soluzioni infiniband e’ il Subnet Manager, Cisco ed IBM
garanstiscono per questa soluzione un network fully managed in tutte le sue componenti, grazie al Subnet Manager software fornito a
corredo della soluzione.
Le caratteristiche principali del Subnet Manager di Cisco sono le seguenti:
•
Unico nel mercato con support hot-standby
•
Capacita’ di “sweep” di 4600 nodi in 30 secondi
•
Supporto HA: se il master Subnet Manager dovesse avere un problema, si inneschera’ un meccanismo di failover del Subnet
Manager per garantire la continuita’ del servizio.
•
Configurazione via CLI
•
Ricalcolo e load balancing dei package routes quando un cambio avviene un cambio nella topologia del network
•
Supporto di MultiPathRecord che nel caso di utilizzo di entrambe le connessioni presenti su ciascuna HCA, consente di non
avere un SPOF.
•
Supporto di SNMP trap per permettere il management degli switch con i tools standard forniti dall’industria per la gestione
degli altri prodotti Cisco.
•
Cisco SFS integra CiscoWorks con il supporto di RME, DFM, NCM, TACACS.
Evidenziamo che la tecnologia DDR e’ ad oggi ancora giovane e non consolidata come la SDR; ad oggi esistono alcuni problemi di
stabilita’ di performance dovuti a due “critical bug” trovati nel firmware di Mellanox che Cisco ha risolto decretando la stabilita’ e
superiorita’ del prodotto Cisco verso la concorrenza.
Come gia’ accennato in precedenza, Cisco sta investendo risorse nello sviluppo di Infiniband, a seguito dell’acquisizione di Topspin.
Come prova di questa affermazione ricordiamo che Cisco e’ uno dei maggiori contributori ad OFED ed OpenMPI che includono:
•
•
•
•
•
•
•
OFED’s core architecture (Roland Drier-CISCO)
IPoIB (Roland Drier-CISCO)
SRP (Roland Drier-CISCO)
Final upstream kernel integration to Linux (Roland Drier-CISCO)
OMPI (Jeff Squyres-CISCO)
Overall OMPI direction and feature setting for OFED (Jeff Squyres-CISCO).
QA on OFED (Scott Weitzenkamp-CISCO).
Per la soluzione proposta consigliamo di utilizzare lo stack software (librerie MPI, drivers) proprietario fornito da Cisco che assicura, ad
oggi, una maggiore stabilita’ e sicurezza rispetto alla versione OFED ancora in sviluppo.
Evidenziamo che la soluzione da noi proposta è totalmente Fully Managed in tutte le componenti Infiniband.
CISCO SFS 7012d Infiniband Server Switch 144 porte
La connettivita’ Infiniband Nei lotti 1, 2 e 6, viene assicurata tramite uno Switch esterno espandibile a 144 porte con tecnologia DDR che
si connette verso i nuovi Chassis con Passtrough per garantire 4X DDR, e con le presistenze agli Switch CISCO IB-4X interni agli
Chassis stessi. In tale configurazione e’ garantita la connessione SDR verso le presistenze e DDR verso gli Chassis e le blades offerte
nella proposta. Il sistema gestisce automaticamente le due tipologie di connessioni.
La rete disegnata e’ di tipo fully non-blocking.
http://www.cisco.com/en/US/products/ps6987/index.html
Ù
Device driver IPC e librerie MPI
Le HCA installate sui nodi computazionali fanno parte della famiglia di prodotti Infiniband offerti da Cisco e supportano Message
Passing Interface (MPI), IP over Infiniband (IPoIB) and Sockets Direct Protocol (SDP) che utilizzano il protocollo Infiniband Remote
Direct Memory Access (RDMA) a supporto delle prestazioni richieste dalle applicazioni del mondo High Performance Computing (HPC).
Ad oggi sono disponibiloi sia lo stack di drivers che la versione commerciale di OpenIB Gen2 oppure la versione offerta dalla comunita’
OpenSource. Nella nostra offerta noi forniremo la versione commerciale dello stack software ed il relativo supporto.
Scheda tecnica riassuntiva soluzione interconnessione Infiniband Topspin/CISCO
Tutti i Lotti integrano un’interconnessione a alta efficienza Infiniband 4X Topspin/CISCO.
IBM ha un accordo di collaborazione tecnologica con Myricom e il consorzio InfiniBand. Per quest’ultimo partecipa alla definizione dello
standard e alla sua evoluzione (si veda www.infiniband.org) e ha inoltre stabilito con alcuni dei principali produttori di architetture di rete
(Topspin/CISCO, Voltaire) una collaborazione tecnologica di lungo termine.
Tenuto quindi in conto lo specifico ambito applicativo di interesse per COMETA si e’ ritenuto particolarmente interessante proporre una
rete di interconnessione Infiniband-4X (di seguito IB) che consenta la completa interoperabilita’ con le architetture Infiniband 1X gia’
presenti nella realizzazione TriGrid.
Come e’ noto IB e’ uno standard che si e’ imposto da qualche hanno e sul quale sono convenuti i maggiori costruttori di soluzioni di
rete, di sistemi storage e di architetture cluster. IBM integra e supporta IB in tutta la gamma dei Server, supporta lo sviluppo dei driver,
del SW di gestione e dell’ambienti di programmazione parallela MPI. Ha inoltre completato, o sta completando, la migrazione di alcuni
ambienti SW di gestione dei dati e di accesso efficiente ai propri sistemi storage sfruttando i protocolli di comunicazione nativa. L’utilizzo
dei protocolli nativi consente di ottenere le maggiori prestazioni in termini di latenza e bandwidth, vicini a quelli limite dell’architettura
stessa.
Di seguito si riportano alcune chart da Topspin dove si evidenziano le peculiarita’ di IB rispetto a altre connessioni ad elevate
prestazioni.
Topspin Compelling HPTC Performance
900
4500
MPI over InfiniBand
MPI over Myrinet
MPI over Quadrics
700
600
3500
3500
Latency (us)
Bandwidth (MBps/s)
800
500
400
300
200
MPI over InfiniBand
MPI over Myrinet
MPI over Quadrics
2500
2000
1500
1000
100
0
3000
500
4
16
64
256
1024
4096 16384 65536
0
262144
4096
Message Size (Bytes)
8192
16384 32768 65536 1301072 262144524288
Message Size (Bytes)
InfiniBand
850 MBps
Quadrics
Myrinet
GigE
300 MBps
220 MBps
120 MBps
Latency (small msg)
6.5 us
5 us
8 us
70 us
CPU Utilization
1-3%
Not available
Not available
Throughput
50%
Source: Ohio State and Topspin
6
La disponibilita’ di specifici driver con l’interconnessione IB Topspin consente di sfruttare al meglio l’interconnessione tramite protocollo
di programmazione MPI supportato in MPICH e MPICH2. Questi due ambienti saranno installati nei due clusters e verrano effettusate
dei test di verifica di prestazione e di funzionalita’ in collaborazione con il personale dei due centri stessi.
Standard Topspin MPI
Uses Zero-Copy RDMA Support to
minimize CPU utilization
MPI v 1.2: Standardized
June 1995
Application
MPICH
From Argonne
(v. 1.2.5.2)
MVICH
From LBL (v 1.0)
MVAPICH
From OSU (v 0.9.2)
Improvements for IB:
Improved shared memory and lazy
memory registration optimization
Verbs API
Adding the MPE performance analysis
tool to our MPI distribution.
IB Transport
Improving the program which invokes
MPI jobs (mpirun_rsh).
IB Network
IB Link
IB Physical
Using InfiniBand's hardware multicast to
improve the performance of MPI group
communication.
Implementing a new flow control scheme
Support for MPI-2.
MPI Layers in Software
19
IB layers in Software
IB Layers in Hardware
IBM Systems Group
InfiniBand Advantage
RDMA Kernel Bypass Model
Traditional Model
Application
User
Application
User
Sockets
Layer
Kernel
Sockets
Kernel Layer
User Space Access
(e.g. MPI, uDAPL)
SDP
TCP/IP
Transport
TCP/IP
Transport
IB Driver
(Verbs i/f)
IPoIB
Driver
RDMA i/f
Hardware
Hardware
Page 22
© 2005 IBM Corporation
IBM Systems Group
InfiniBand Performance Enhancements
Application
Transparent
BSD Sockets
Custom / Enhanced Performance
Async I/O
uDAPL
MPI
extension
Direct
Access
TCP
IP
SDP
IPoIB
10G IB
1GE
Throughput
0.8Gb/s
1.4Gb/s
3.6 Gb/s
6.2Gb/s
6.4Gb/s
6.4Gb/s
Latency
60+ usec
30 usec
18 usec
18 usec
<8 usec
<6 usec
Page 23
© 2005 IBM Corporation
E’ altresi’ evidente che Blade Center H (BC-H) e Blade LS21 consentono di sfruttare a pieno le caratteristiche dell’interconnesione 4X e
quindi ottenere valori di latenza e di throughput significativamente migliori.
Da notare inoltre che LS21 e BC-H supportano una rete Gbit ridondata che consente il cluster management e la comunicazione via LAN
di tutte le Blades. Di seguito quindi un riassunto sintetico delle specifiche di interconnessione Gbit e Infiniband 4X specificatamente
disegnate per questa realizzazione.
- 2 interfacce di rete distinte (non una singola dual port) Broadcom BCM 5708S ethernet 1 Gbit/sec
- 1 interfaccia di rete Cisco Systems 4X Infiniband DDR Expansion Card for IBM BladeCenter (questa scheda supporta 20Gbps
bidirectional)
Chassis IBM BladeCenter H da 9 U con questi componenti di rete:
-
due switch Nortel layer 2/3GbE Rame a 6 porte ciascuno
un 4X Infiniband Copper Pass Thru Module
InfiniBand 4X (10Gbps unidirectional, 20Gbps bidirectional) consente accessi a bassa latenza (ordine dei 3 microsec.), elevata
bandwidth (circa 1GByte/sec come valore di picco) e alta prestazione ad ogni nodo blade indistintamente dalla posizione fisica dove
risulta collocato.
Il disegno di questo tipo di collegamento garantisce la scalabilità necessaria ad alti numeri di nodi concorrenti ad un cluster HPC.
Le topologie dell’HPC network basato su infiniband puo’ variare in base alle performance necessarie ed al budget disponibile per tale
componente del cluster linux. Una configurazione full non blocking come quella proposta in questo documento consente la massima
disponibilta’ della bandwidth di Infiniband 4x, le HCA utilizzate hanno due porte 4x che sfruttano la banda fornita dal bus PCI-E 8x
caratteristiche delle blades LS21..
Le applicazioni ed i server che fruiranno dell’infrastruttura di calcolo hanno le garanzie di adeguata sicurezza e privatezza
Il sistema di interconnessione proposto consente l’ integrazione fra tecnologie di connettività eterogenee per ottenere in sistema di rete
unificato.
Il cablaggio per InfiniBand 4X consente anche il supporto per nuovi protocolli quali il 10Gb Ethernet piuttosto che l’8/10 Gb Fibra.
Non viene fatto uso di protocolli proprietari ma vige il rispetto degli standard internazionali, sia per i protocolli di rete impiegati, che per le
infrastrutture passive.
Per quanto riguarda il collegamento Gbit – Rame del sistema di interconnessione High Performance Infiniband 4x supporta banda fino
a 10Gbit unidirectional e 20Gbit bidirectional.
Scheda tecnica riassuntiva sull’integrazione dell’ambiente middleware INFN Grid, integrazione datagrid con IBM GPFS, e
gestione centralizzata remotizzata di tutta l’infrastruttura.
L’architettura dei Cluster consente un controllo remoto tramite KVM, funzione integrata in ogni Blade Center. Ne segue che
remotamente tramite connessione LAN si possono gestire tutti i Blade Center presenti nell’architettura per COMETA. Il middleware di
gestione puo’ essere quello rilasciato da IBM e denominato CSM oppure un qualsiasi altro middleware che consente funzionalita’
similari. L’architettura supporta la distribuzione Scientific Linux del CERN oltre agli ulteriori ambienti previsti nel progetto INFN Grid.
Ricordiamo inoltre che IBM ha una collaborazione attiva con Platform per il supporto di ambienti Grid computing distribuiti.
Un ulteriore integrazione dell’architettura e’ ottenibile tramite l’accesso distribuito di un unico filesystem distribuito a sua volta sui vari
centri ma visto come unitario per tutti.
Vi sono differenti soluzioni per ambienti datagrid. Il piu’ tradizionale e’ AFS, che consente una elevata interoiperabilita’ tra tutte le
piattaforme distribuite e una caratteristica versatilita’, ma che non consente prestazioni adeguate per accessi simultanei come possono
avvenire per sistemi di calcolo paralleli.
IBM di recente ha promosso GPFS come ambiente datagrid di elevate prestazioni e che potesse connettere piu’ sistemi
geograficamente distribuiti. La figura sottostante riassume l’architetttura GPFS di uno o piu’ Cluster interoperanti e connessi tramite LAN
(la parte in blu). Lo schema puo’ essereapplicato a un solo Cluster cosi’ come a piu’ Clusters connesssi fra loro tramite LAN geografica.
GPFS 2.3 e release successive consente di gestire in modo unico e centralizzato il filesystem distribuito necessitando una unica politica
relativamente a uid. In particolare IBM con INFN sta definendo un contratto di supporto a livello nazionale di tale ambiente per poter
garantire la sua funzionalita’ e la correzione di errori nonche’ il supporto del Lab IBM per specifiche richieste.
B'Center
...
...
FAStT600 Controllers
and disks
Cluster Interconnect
B'Center
B'Center
NSD Connected Storage Solution
BladeCenter
Compute Nodes
B'Center
x345 Storage
Nodes
L’architettura GPFS gestisce il filesystem parallelo e distribuito tramite alcuni Server (server GPFS), ai quali sono connessi direttamente
tramite SAN i sistemi storage, che a loro volta sono connessi con rete a alte prestazioni o Gbit i nodi di calcolo (client GPFS). In questo
modo ogni nodo di calcolo accede un filesystem unico e distribuito su tutti i siti in modo trasparente. Sara’ cura del GPFS stesso gestire
la distribuzione dei dati tra i vari Server, mantenerne la congruenza e la corretta ridondanza alfine di garantirne l’acceso anche in caso
di caduta di uno dei Server GPFS. Questo tipo di funzionalita’ e’ essenziale alfine di non penalizzare gli altri siti nel caso in cui venisse
meno l’accesso di uno dei Cluster disponibili nell’architettura COMETA.
Di seguito si riportano alcuni riferimenti su GPFS accedibili via web.
1.
2.
3.
4.
5.
6.
7.
GPFS for Linux FAQ: http://www.ibm.com/servers/eserver/clusters/software/gpfs_faq.html
GPFS for Linux documentation: http://www.ibm.com/servers/eserver/clusters/software/gpfs.html
GPFS Redbooks: http:// www.redbooks.ibm.com/
GPFS Papers: http://www.almaden.ibm.com/StorageSystems/file_systems/GPFS/Fast02.pdf
GPFS Research: http://www.almaden.ibm.com/StorageSystems/file_systems/GPFS/
GPFS for AIX Architecture and Performance: http://www.ibm.com/servers/eserver/clusters/whitepapers/gpfs_aix.html
GPFS on Linux Clusters: http://www.ibm.com/servers/eserver/clusters/software/gpfs.html
Nel progetto COMETA verra’ realizzata un’infrastruttura integrata che assicuri la funzionalita’ del middleware INFN Grid e la sua
preinstallazione.
Sara’ anche reso disponibile e installato l’ambiente GPFS per la funzionalita’ datagrid distribuita nonche’ gli altri ambienti di
programmazione parallela espressamente indicati nei lotti.
IBM sta inoltre sviluppando GPFS nativo su Infiniband che, quando disponibile, potra’ ulteriormente migliorare le condizioni di
prestazione e scalabilita’ dell’architettura I/O.
Da notare che l’architettura di I/O potra’ usufruire di due storage node che permetteranno la ridondanza e la migliore distribuzione del
carico durante l’accesso al sistema storage.
Cluster di Calcolo offerti nei 6 siti COMETA
Caratteristiche comuni alle Blades offerte per i vari lotti.
La soluzione proposta soddisfa in toto le specifiche del capitolato tecnico e le migliora in parte
•
•
•
•
•
•
•
•
•
•
•
•
•
•
Blades LS21 Blade biprocessori dual-core Opteron 2218 revF
Memoria (RAM) 2GB per core in tecnologia DDR2 667MHz
Disco: 73.4GB SAS throughput largamente superiore a 80MBs
2 Link Gbit ethernet per blade autosensing
montaggio in rack con densita’ 14 blade in 9U
Scientific Linux CERN 3.05 installato e supporto bootstrap via rete PXE con Linux
Unita’ DVD-ROM e Floppy integrati in ogni Blade Center, quindi ogni 14 Blades
KVM per ogni Blade Center con remotizzazione e interfaccia WEB
Cavi di connessione alimentazione, rete e altro, previsti nella fornitura
Apparati di rete Gbit ridondati e integrati nel Blade Center H
Switch Infiniband 4X integrato nel Blade Center H
Alimentazione ridondata e Power hot-swap
Ambiente di sviluppo Portland Group CDK ottimizzato per LS21 e comprensivo di compilatori per HPC con 3 licenze.
Pre-installazione di eventuali ulteriori 3 licenze di compilatori F77/F90/F95/C/C++ Portland Group ottimizzati per LS21
Rete di servizio
•
Connessione dei nodi LS21 tramite rete Gbit ridondata interna ai Blade Center H
Rete di calcolo
•
Rete di interconnessione Infiniband 4X con Infiniban Pass Thru module integrato nello Chassis (presente nelle sedi di infn
Catania, inaf Catania e inaf Palermo ) oppure switch integrati in Balde center H a bassa latenza full no-blocking con banda
passante 10Gbit/sec unidirezionale – 20Gbit/sec bidirezionale e latenza inferiore a 4microsecondi. Lo switch opera in
modalità wirespeed e puo’ essere gestito via CLI e SNMP.
•
I Blade center H sono predisposti per connettivita’ verso reti IP e Fiber Channel in modo da connettersi verso FC SAN, NAS
appliance, IP SANs e reti TCP/IP
KVM
•
Blade center H prevede un sistema tipo KVM integrato
Sistema di storage e I/O nodes
L’architettura storage rispetta in pieno quanto descritto nel capitolato di gara e lo migliora ulteriormente
•
Doppio I/O node per consentire ridondanza e prestazioni in ambiente GPFS
L’installazione di tutti i componenti, la loro funzionalita’ e l’ottimizzazione, saranno effettuati a cura di personale specialistico che
seguira’ il progetto e supportati dal centro competenza Linux IBM di Milano.
La configurazione dell’architettura proposta assicura un elevato livello di ridondanza in tutti i componenti per cui errori HW di tipo
bloccante sono considerati con un’incidenza statisticamente trascurabile. In particolare si fa notare che:
•
•
•
•
•
Alimentazione ridondata per tutti i componenti
Doppio I/O node
Alimentazione ridondata hot-swap in Blade Center H
Backplane ridondata in Blade Center H, quindi anche in caso di rottura di backplane il sistema mantiene la funzionalita’ anche
se a prestazioni inferiori
Doppia rete Gbit
Sistema di management HW integrato nei sistemi Blade Center e nel sottosistems storage. Ambiente integrato con INFN-Grid
+GLITE ed LSF
SEDE 1 Sistema di Calcolo INFNCT
Art 1.1 Sistema di calcolo
Cluster composto da 98Blades LS21 Opteron dual-core 2218 2.6GHz in 14lade Center H la cui configurazione e’ di seguito riportata
V2.8.5
IBM eServer
Processor Hardware - BladeCenter
88524XG
IBM BladeCenter™ H Chassis with 2x2900W Power Supplies
7
32R1860
Nortel Layer 2/3 Copper GbE Switch Module for BladeCenter
14
43W4419
4X IB Pass Thru Module
7
31R3335
IBM BladeCenter™ H 2900W AC Power Module Pair with Fan Packs
7
25R5785
IBM BladeCenter™ H Triple IEC 320 C20 (200-240V) 2.8M
14
05K9276
USB LETTORE FLOPPY PORTABLE DISKETTE DRIVE
7
Processor Hardware - BladeCenter LS21
98
79716AG
LS21, AMD Opteron Dual Core 2218 2.6GHz/1GHz, 1 MB L2, 2x1 GB, O/Bay SAS
25R8897
AMD Opteron Dual Core Processor Model 2218 2.6GHz, 1MB L2 Cache, 68w
98
39M5864
2GB (2x1GB Kit) PC2-5300 DDR2 SDRAM VLP RDIMM
294
26K5777
73.4 GB SAS HDD (2.5") SFF
98
43W4421
Cisco 4X IB DDR Exp Cd (CFFh)
98
Processor Hardware - x3655 Storage Nodes
42C2071
Emulex 4 Gb FC HBA PCI-E Controller Dual Port
2
Cabinet Hardware - xSeries Main Cabinet
39M2895
e1350 IBM USB Conversion Option
2
Storage
18147VH
DS4200 Express Model 7V (2 GB Cache, 1 GB per controller)
1
43W9738
Express DS4200 750GB 7.2K SATA EV-DDM HDD
16
18128VH
IBM System Storage DS4000 EXP420 Storage Expansion Unit
5
43W9738
Express DS4200 750GB 7.2K SATA EV-DDM HDD
84
39M5696
1m Fiber Optic Cable LC-LC
14
39M5697
5m Fiber Optic Cable LC-LC
4
26K7941
SW 4 Gbps SFP transceiver pair
8
18128VH
IBM System Storage DS4000 EXP420 Storage Expansion Unit
1
43W9738
Express DS4200 750GB 7.2K SATA EV-DDM HDD
16
39M5954
Express DS4200 EXP420 Attach 1-3
1
39M5957
Express DS4200 EXP420 Attach 4-6
1
39M6009
Express DS4200 Linux/Intel Host Kit
1
4670026
e1350 Cisco SFS 7012D 144-port DDR IB Switch Bundle
44E9013
4670029
- Cisco SFS 7012/7024 350w Power Supply
3
e1350 Cisco SFS 7012D/7024D Switch Fabric Module - w/ Mgmt
2
4670028
Cisco SFS 7012P/7024D 12-port 4X DDR IB Line Card
7
39Y7932
4.3m, 10A/100-250V, C13 to IEC 320-C14 Rack Power Cable
2
44E9062
3m Cisco 4X DDR InfiniBand SuperFlex Cable
42
44E9070
26R0847
8m Cisco 4X DDR InfiniBand Cable
56
8m InfiniBand Cable (4x-to-4x)
4
26R0849
8m InfiniBand Break-Out Cable (12x-to-three 4x)
8
Network Hardware - Low Latency Switching - InfiniBand 3rd Party
1
SEDE 2 Sistema di calcolo INAF-OACT
Art 2.1 Sistema di calcolo
Cluster composto da 42 Blades LS21 Opteron dual-core 2218 2.6GHz in tre Blade Center H la cui configurazione e’ di seguito riportata
con aggiunta del diagramma visivo
V2.8.5
IBM eServer
Processor Hardware - BladeCenter
88524XG
IBM BladeCenter™ H Chassis with 2x2900W Power Supplies
3
32R1860
Nortel Layer 2/3 Copper GbE Switch Module for BladeCenter
6
43W4419
4X IB Pass Thru Module
3
31R3335
IBM BladeCenter™ H 2900W AC Power Module Pair with Fan Packs
3
25R5785
IBM BladeCenter™ H Triple IEC 320 C20 (200-240V) 2.8M
6
05K9276
USB LETTORE FLOPPY PORTABLE DISKETTE DRIVE
3
Processor Hardware - BladeCenter LS21
79716AG
LS21, AMD Opteron Dual Core 2218 2.6GHz/1GHz, 1 MB L2, 2x1 GB, O/Bay SAS
42
25R8897
AMD Opteron Dual Core Processor Model 2218 2.6GHz, 1MB L2 Cache, 68w
42
39M5864
2GB (2x1GB Kit) PC2-5300 DDR2 SDRAM VLP RDIMM
126
26K5777
73.4 GB SAS HDD (2.5") SFF
42
Cisco 4X IB DDR Exp Cd (CFFh)
42
43W4421
Cabinet Hardware - xSeries Main Cabinet
39M2895
e1350 IBM USB Conversion Option
2
Network Hardware - Low Latency Switching - InfiniBand 3rd Party
4670026
e1350 Cisco SFS 7012D 144-port DDR IB Switch Bundle
1
44E9013
4670029
- Cisco SFS 7012/7024 350w Power Supply
3
e1350 Cisco SFS 7012D/7024D Switch Fabric Module - w/ Mgmt
2
4670028
Cisco SFS 7012P/7024D 12-port 4X DDR IB Line Card
3
39Y7932
4.3m, 10A/100-250V, C13 to IEC 320-C14 Rack Power Cable
2
44E9062
26R0847
3m Cisco 4X DDR InfiniBand SuperFlex Cable
42
8m InfiniBand Cable (4x-to-4x)
5
26R0849
8m InfiniBand Break-Out Cable (12x-to-three 4x)
9
Connessione Infiniband tramite Switch esterno tra tutti gli Chassis offerti e le preesistenze
SEDE 3 Sistema di calcolo UNIME/INGV
Cluster composto da 70 Blades LS21 Opteron dual-core 2218 2.6GHz in cinque Blade Center H la cui configurazione e’ di seguito
riportata con aggiunta del diagramma visivo
V2.8.5
IBM eServer
Processor Hardware - BladeCenter
88524XG
IBM BladeCenter™ H Chassis with 2x2900W Power Supplies
5
32R1860
Nortel Layer 2/3 Copper GbE Switch Module for BladeCenter
10
32R1756
Cisco Systems 4X InfiniBand Switch Module for IBM BladeCenter
10
31R3335
IBM BladeCenter™ H 2900W AC Power Module Pair with Fan Packs
5
25R5785
IBM BladeCenter™ H Triple IEC 320 C20 (200-240V) 2.8M
10
05K9276
USB LETTORE FLOPPY PORTABLE DISKETTE DRIVE
5
Processor Hardware - BladeCenter LS21
79716AG
LS21, AMD Opteron Dual Core 2218 2.6GHz/1GHz, 1 MB L2, 2x1 GB, O/Bay SAS
70
25R8897
AMD Opteron Dual Core Processor Model 2218 2.6GHz, 1MB L2 Cache, 68w
70
39M5864
2GB (2x1GB Kit) PC2-5300 DDR2 SDRAM VLP RDIMM
210
26K5777
32R1760
73.4 GB SAS HDD (2.5") SFF
Cisco Systems 4X InfiniBand HCA Expansion Card for IBM BladeCenter
70
70
Cabinet Hardware - xSeries Main Cabinet
39M2895
e1350 IBM USB Conversion Option
2
Storage
18128VH
IBM System Storage DS4000 EXP420 Storage Expansion Unit
1
43W9738
Express DS4200 750GB 7.2K SATA EV-DDM HDD
16
39M5696
1m Fiber Optic Cable LC-LC
4
26K7941
SW 4 Gbps SFP transceiver pair
2
39M5954
Express DS4200 EXP420 Attach 1-3
1
39M6009
Express DS4200 Linux/Intel Host Kit
1
1
26R0813
Network Hardware - Low Latency Switching - InfiniBand 3rd Party
3m InfiniBand Cable (4x to 4x)
3m InfiniBand Cable (12x to 12x)
Connessione Infiniband tra coppie o tra tre chassis tra tutti gli chassis offeri e le preesistenze
2
SEDE 4 Sistema di calcolo UNICT-DIIT
Cluster composto da 28 Blades LS21 Opteron dual-core 2218 2.6GHz in due Blade Center H la cui configurazione e’ di seguito riportata
con aggiunta del diagramma visivo
V2.8.5
IBM eServer
Processor Hardware - BladeCenter
88524XG
IBM BladeCenter™ H Chassis with 2x2900W Power Supplies
2
32R1860
Nortel Layer 2/3 Copper GbE Switch Module for BladeCenter
4
32R1756
Cisco Systems 4X InfiniBand Switch Module for IBM BladeCenter
4
31R3335
IBM BladeCenter™ H 2900W AC Power Module Pair with Fan Packs
2
25R5785
IBM BladeCenter™ H Triple IEC 320 C20 (200-240V) 2.8M
4
05K9276
USB LETTORE FLOPPY PORTABLE DISKETTE DRIVE
2
Processor Hardware - BladeCenter LS21
28
79716AG
LS21, AMD Opteron Dual Core 2218 2.6GHz/1GHz, 1 MB L2, 2x1 GB, O/Bay SAS
25R8897
AMD Opteron Dual Core Processor Model 2218 2.6GHz, 1MB L2 Cache, 68w
28
39M5864
2GB (2x1GB Kit) PC2-5300 DDR2 SDRAM VLP RDIMM
84
26K5777
73.4 GB SAS HDD (2.5") SFF
28
32R1760
Cisco Systems 4X InfiniBand HCA Expansion Card for IBM BladeCenter
28
79851AG
Processor Hardware - x3655 Storage Nodes
x3655, AMD Opteron Dual Core 2210 1.8GHz/1067MHz, 2MB L2, 2x512MB, O/Bay 3.5in HS SATA/SAS, SR-8ki, CD-RW/DVD,
835W p/s, Rack
25R8938
Opteron Dual Core 2210 1.8GHz/1MBx2
2
41Y2759
1 GB (2x512MB Kit) PC5300 667 MHz ECC DDR SDRAM RDIMM
6
40K1043
73GB Hot-Swap 3.5" 15K RPM HS SAS HDD
4
2
42C2071
Emulex 4 Gb FC HBA PCI-E Controller Dual Port
2
40K1906
835 Watt Hot-swap Power Supply Option (Non-US)
2
05K9276
USB LETTORE FLOPPY PORTABLE DISKETTE DRIVE
2
39M2895
e1350 IBM USB Conversion Option
2
26R0813
Network Hardware - Low Latency Switching - InfiniBand 3rd Party
3m InfiniBand Cable (4x to 4x)
8
3m InfiniBand Cable (12x to 12x)
8
Cabinet Hardware - xSeries Main Cabinet
Storage
18147VH
DS4200 Express Model 7V (2 GB Cache, 1 GB per controller)
1
43W9738
Express DS4200 750GB 7.2K SATA EV-DDM HDD
16
18128VH
IBM System Storage DS4000 EXP420 Storage Expansion Unit
1
43W9738
Express DS4200 750GB 7.2K SATA EV-DDM HDD
16
39M5696
1m Fiber Optic Cable LC-LC
10
26K7941
SW 4 Gbps SFP transceiver pair
4
39M5954
Express DS4200 EXP420 Attach 1-3
1
39M6009
Express DS4200 Linux/Intel Host Kit
1
Connessione Infiniband tra coppie o tra tre chassis tra tutti gli chassis offerti e le preesistenze
SEDE 5 sistema di calcolo UNICT-DMI
Cluster composto da 28 Blades LS21 Opteron dual-core 2218 2.6GHz in due Blade Center H la cui configurazione e’ di seguito riportata
con aggiunta del diagramma visivo
V2.8.5
IBM eServer
Processor Hardware - BladeCenter
88524XG
IBM BladeCenter™ H Chassis with 2x2900W Power Supplies
2
32R1860
Nortel Layer 2/3 Copper GbE Switch Module for BladeCenter
4
32R1756
Cisco Systems 4X InfiniBand Switch Module for IBM BladeCenter
4
31R3335
IBM BladeCenter™ H 2900W AC Power Module Pair with Fan Packs
2
25R5785
IBM BladeCenter™ H Triple IEC 320 C20 (200-240V) 2.8M
4
05K9276
USB LETTORE FLOPPY PORTABLE DISKETTE DRIVE
2
Processor Hardware - BladeCenter LS21
79716AG
LS21, AMD Opteron Dual Core 2218 2.6GHz/1GHz, 1 MB L2, 2x1 GB, O/Bay SAS
28
25R8897
AMD Opteron Dual Core Processor Model 2218 2.6GHz, 1MB L2 Cache, 68w
28
39M5864
2GB (2x1GB Kit) PC2-5300 DDR2 SDRAM VLP RDIMM
84
26K5777
73.4 GB SAS HDD (2.5") SFF
28
32R1760
Cisco Systems 4X InfiniBand HCA Expansion Card for IBM BladeCenter
28
39M2895
e1350 IBM USB Conversion Option
79851AG
25R8938
Processor Hardware - x3655 Storage Nodes
x3655, AMD Opteron Dual Core 2210 1.8GHz/1067MHz, 2MB L2, 2x512MB, O/Bay 3.5in HS SATA/SAS, SR-8ki, CD2
RW/DVD, 835W p/s, Rack
2
Opteron Dual Core 2210 1.8GHz/1MBx2
41Y2759
1 GB (2x512MB Kit) PC5300 667 MHz ECC DDR SDRAM RDIMM
6
40K1043
73GB Hot-Swap 3.5" 15K RPM HS SAS HDD
4
42C2071
Emulex 4 Gb FC HBA PCI-E Controller Dual Port
2
40K1906
835 Watt Hot-swap Power Supply Option (Non-US)
2
05K9276
USB LETTORE FLOPPY PORTABLE DISKETTE DRIVE
2
Cabinet Hardware - xSeries Main Cabinet
2
Storage
18147VH
DS4200 Express Model 7V (2 GB Cache, 1 GB per controller)
1
43W9738
Express DS4200 750GB 7.2K SATA EV-DDM HDD
16
18128VH
IBM System Storage DS4000 EXP420 Storage Expansion Unit
2
43W9738
Express DS4200 750GB 7.2K SATA EV-DDM HDD
24
39M5696
1m Fiber Optic Cable LC-LC
10
26K7941
SW 4 Gbps SFP transceiver pair
5
39M5954
Express DS4200 EXP420 Attach 1-3
1
39M6009
Express DS4200 Linux/Intel Host Kit
1
26R0813
Network Hardware - Low Latency Switching - InfiniBand 3rd Party
3m InfiniBand Cable (4x to 4x)
8
3m InfiniBand Cable (12x to 12x)
8
Connessione Infiniband tra coppie o tra tre chassis tra tutti gli chassis offerti e le preesistenze
SEDE 6 Sistema di calcolo INAF-OAPA/UNIPA
Cluster composto da 112 Blades LS21 Opteron dual-core 2218 2.6GHz in otto Blade Center H la cui configurazione e’ di seguito
riportata con aggiunta del diagramma visivo
V2.8.5
IBM eServer
Processor Hardware - BladeCenter
88524XG
IBM BladeCenter™ H Chassis with 2x2900W Power Supplies
8
32R1860
Nortel Layer 2/3 Copper GbE Switch Module for BladeCenter
16
43W4419
4X IB Pass Thru Module
6
31R3335
IBM BladeCenter™ H 2900W AC Power Module Pair with Fan Packs
6
25R5785
IBM BladeCenter™ H Triple IEC 320 C20 (200-240V) 2.8M
16
05K9276
USB LETTORE FLOPPY PORTABLE DISKETTE DRIVE
8
Processor Hardware - BladeCenter LS21
79716AG
LS21, AMD Opteron Dual Core 2218 2.6GHz/1GHz, 1 MB L2, 2x1 GB, O/Bay SAS
112
25R8897
AMD Opteron Dual Core Processor Model 2218 2.6GHz, 1MB L2 Cache, 68w
112
39M5864
2GB (2x1GB Kit) PC2-5300 DDR2 SDRAM VLP RDIMM
336
26K5777
73.4 GB SAS HDD (2.5") SFF
112
43W4421
Cisco 4X IB DDR Exp Cd (CFFh)
112
39M2895
e1350 IBM USB Conversion Option
4670026
e1350 Cisco SFS 7012D 144-port DDR IB Switch Bundle
1
44E9013
4670029
- Cisco SFS 7012/7024 350w Power Supply
3
e1350 Cisco SFS 7012D/7024D Switch Fabric Module - w/ Mgmt
2
4670028
Cisco SFS 7012P/7024D 12-port 4X DDR IB Line Card
8
39Y7932
4.3m, 10A/100-250V, C13 to IEC 320-C14 Rack Power Cable
2
44E9070
26R0847
8m InfiniBand Cable (4x-to-4x)
4
26R0849
8m InfiniBand Break-Out Cable (12x-to-three 4x)
8
Cabinet Hardware - xSeries Main Cabinet
2
Network Hardware - Low Latency Switching - InfiniBand 3rd Party
8m Cisco 4X DDR InfiniBand Cable
112
Connessione Infiniband tramite Switch esterno tra tutti gli chassis offerti e le preesistenze
10 x LS21 Addizionali da inserire nelle preesistenze
Processor Hardware - BladeCenter LS21 (Cometa 1)
79716AG
LS21, AMD Opteron Dual Core 2218 2.6GHz/1GHz, 1 MB L2, 2x1 GB, O/Bay SAS
10
12X7051
3 Yr On-Site 9x5x4hr
4
25R8897
AMD Opteron Dual Core Processor Model 2218 2.6GHz, 1MB L2 Cache, 68w
10
39M5864
2GB (2x1GB Kit) PC2-5300 DDR2 SDRAM VLP RDIMM
30
26K5777
73.4 GB SAS HDD (2.5") SFF
10
32R1760
Cisco Systems 4X InfiniBand HCA Expansion Card for IBM BladeCenter
10
Integrazione e Controllo
L’architettura IBM e1350 e’ garantita per i componenti triennali per la durata di 36 mesi modalita’ di intervento NBD. La proposta
prevede inoltre l’integrazione e l’installazione presso i siti Cometa con gli ambitni SW definiti (si rimanda alla descrizione dei servizi di
installazione per maggiori dettagli).
Servizi di installazione e di manutenzione
Secondo quanto indicato nelle sezioni precedenti, verranno forniti oltre l’infrastruttura HW e i prodotti SW di gestione (GPFS, MPICH,
driver IB anche i servizi di installazione e personalizzazione in accordo con l’ambiente INFN Grid e in collaborazione con il personale
degli Istituti coinvolti in COMETA. Riteniamo che l’installazione dei vari siti si possa completare in tempi ragionevolmente rapidi, circa
30giorni dal ricevimento dell’ordine, supposto che siano soddisfatti i prerequisiti minimi sulla disponibilita’ dei locali e la loro
predisposizione a ospitare le apparecchiature. E’ intenzione di IBM e Computer Var fornire adeguate istruzioni al personale COMETA
in modo da poterlo rendere il piu’ possibile autonomo nella gestione dell’architettura stessa.
Per quanto riguarda la gestione e il supporto per interventi su rotture di componenti HW previsti nei Cluster,metteremo a disposizione
nell’ambito di contratto di manutenzione svolto direttamente da ibm Computer Var mette a disposizione del Consorzio Cometa un
unico punto di chiamata ( via telefono, fax e mail ) il quale attiverà direttamente la chiamata verso ibm . il tempo di risposta IBM e’
generalmente entro le 8 ore, nei giorni feriali, con intervento NBD sempre nei giorni feriali. A ogni buon conto tutti i sistemi previsti nel
disegno dell’architettura prevedono la ridondanza dei componenti critici per cui sono da ritenersi statisticamente trascurabili interruzioni
di servizio causate da rotture HW. Nell’intervallo tra la rottura e il ripristino nel caso potra’ verificarsi una riduzione di prestazioni del
Cluster impattato dalla rottura.
La garanzia e l’assistenza sono ON-SITE per 3 anni con intervento NEXT BUSINES day on-site su tutti i prodotti proposti nella
Nostra offerta . L’assistenza è fornita direttamente dalle case produttrici.
Proiject Management
Responsabile del Progetto
Valentino Pre
Responsabile Logistico
Paolo Gambacciani
Responsabile Amministrativo
Gino Vivaldi
Supporto tecnico
Andrea Federighi
Walter Bernocchi , Sandro De Santis, Carlo Mascolo, Marco Briscolini IBM
Giorno
0
3
15
19
20
26
28
29
33
38
40
Azione
Ricezione dell’ordine
Gestione ordine
Inizio lavori stesura cavo , impianto elettrico e montaggio dello S
Facoltà di Ingegneria di Messina
Inizio lavori per Montaggio Chiller e Impianto Meccanico INFN D
Partenza Via ruote di tutta la merce
previsto arrivo di tutte i blade IBM (tutti i blade dei 5 lotti arriveran
organizzato presso la INFN di CATANIA un training tecnico dedi
prendere contatto con la nuova tecnologia blade , il training conis
sulle macchine ( le date e gli orari saranno concordati anche con
Consegna dei 5 lotti nei 5 siti diversi
Inizio attività di installazioe presso INFN CATANIA e INAF CATA
Inizio attività di installazione presso CECUM Messina e FACOLT
giorni ) Installazione Prodotti APC e IBM
Inziio attività di Installaizone presso DIFTER Palerno ( tempo pre
Inizio attività di Installazione presso INFN Catania ( si tratterà sol
già configurati nelle giornate di training )
Termine Lavori presso INFN CATANIA da Parte di APC
Piano di Lavoro
A partire dalla firma del contratto o dalla comunicazione ufficiale dell’ordine i lavori procederanno nel modo seguente :
APC e IBM
Training (incluso nella fornitura senza alcun costo aggiuntivo )
Prima di effettuare l’installazione presso ogni sito , vogliamo tenere almeno due giorni di training presso la INFN di Catania dedicato al
personale che prenderà in gestione la gestione del cluster . I temi delle giornate saranno i seguenti :
•
•
•
•
•
Conoscenza dei blade
Configurazione del blade
Conoscenza del middleware e configurazione dei servizi
LSF
Storage e software di gestione GPFS .