Progettazione di una rete ad alte prestazioni per un Data
Transcript
Progettazione di una rete ad alte prestazioni per un Data
Indice generale 1 Introduzione............................................................................................................... 4 2 Il Progetto Re.Ca.S. (Rete di Calcolo per SuperB) e altre applicazioni ...................5 2.1 Sintesi proposta.................................................................................................. 5 2.2 Il progetto bandiera SuperB ............................................................................. 9 2.3 Il computing in SuperB ................................................................................... 10 2.4 Centri di calcolo distribuito Tier0/Tier1...........................................................12 2.5 La nuova rete metropolitana GARR-X.............................................................. 13 2.6 Obiettivi Generali: Progetto dettagliato per la sede di Napoli.........................16 3 Progettazione di una nuova rete presso il Data Center UniNa................................ 18 3.1 Progetto dettagliato del Data Center Scope..................................................... 18 3.2 Quadro generale .............................................................................................19 3.2.1 Power........................................................................................................ 19 3.2.2 Refrigeratori: Raffreddamento a liquido................................................... 24 3.2.3 Network..................................................................................................... 27 3.2.4 Storage...................................................................................................... 30 3.2.5 Computing................................................................................................. 31 4 Architettura tecnologica proposta........................................................................... 41 4.1 Tecnologia prese in esame................................................................................ 42 4.2 Architettura Qfabric Juniper.......................................................................... 46 4.2.1 Node-Juniper QFX3500............................................................................ 46 4.2.2 Interconnect-Juniper QFX3008.................................................................47 4.2.3 Director-Juniper QFX3100....................................................................... 52 4.2.5 Cablaggio Strutturato............................................................................... 55 Bianco Carmela 566/2170 Pagina 2 di102 5 Riorganizzazione e ammodernamento del Data Center UniNa per le nuove esigenze .................................................................................................................................... 57 5.1 Modifiche da apportare all'intera infrastruttura per il corretto funzionamento del Data Center...................................................................................................... 58 5.2 Possibile infrastruttura di rete da realizzare.................................................... 58 5.2.1 Sistema di cablaggio................................................................................. 58 5.2.2 Apparati Centro Stella.............................................................................. 67 5.2.3 Apparati di management di rete ............................................................... 70 5.2.4 Apparati di distribuzione ai rack ..............................................................72 5.2.5 Apparati di management rack................................................................... 73 5.3 Soluzione Juniper applicata al Data Center UniNa......................................... 74 Allegato1.................................................................................................................... 81 Bianco Carmela 566/2170 Pagina 3 di102 1 Introduzione Il presente lavoro di tesi consiste nel progettare una nuova rete ad Alte prestazioni presso il DataCenter UniNa nell'ambito del progetto Re.Ca.S.(Rete di Calcolo per SuperB). Più precisamente, lo scopo della tesi è definire una possibile riorganizzazione ed ammodernamento del DataCenter per le nuove esigenze descritte dal PONa3_00052, con tecnologie all'avanguardia. Nel secondo capitolo viene fatta una panoramica generale del progetto Re.Ca.S. Una descrizione di tutti i requisiti da rispettare per progettare un Data Center Distribuito di tipo Tier1, capace di lavorare in ambito scientifico. Inoltre in questo capito viene anche definita come avviene l'interoperabilità tra i Data Center distribuiti localizzati nelle quattro regioni di convergenza, Calabria, Campania, Puglia e Sicilia in grado di integrarsi in maniera unitaria avviando un contributo di primaria importanza alle risorse di calcolo e archiviazione dati. Nel terzo capitolo viene descritta dettagliatamente l'attuale infrastruttura del Data Center UniNa, considerando gli elementi principali che costituiscono un centro di calcolo (power, raffreddamento, rete, calcolo e storage) e di tutte la modifiche che subiranno in base ai requisiti descritti nel capitolo due e alle nuove tecnologie presenti sul mercato. Nel quarto capitolo viene descritta la nuova di rete tecnologia Qfabric QFX3000 di Juniper,questa nuova tecnologia non sarà più basata su una tecnologia Multi-Tier ma su una tecnologia Converd-Core. QFX3000 implementa nel data center una rete a livello singolo, consentendo miglioramenti esponenziali in termini di velocità, scalabilità ed efficienza, rimuovendo le tradizionali barriere e migliorando l'agilità delle aziende. Un'unica matrice di switching in ogni sede, ridondata, tutta ad almeno a 40 Gb/sec, e probabilmente a 100 GbE . Nel quinto capitolo vengono descritte: Bianco Carmela 566/2170 Pagina 4 di102 • Una possibile soluzione di cablaggio realizzabile nel DataCenter UniNa, considerando lo standard EIA/TIA942 e le ultime tecnologie di cablaggio attestate. • Una possibile soluzione delle apparecchiature di rete da installare, in base alla nuova tecnologia Qfabric di Juniper. In questo capitolo vengono fatte due analisi, in base ai fondi statali istanziati, sulla soluzione delle apparecchiature di rete da installare, un'analisi viene fatta sugli obbiettivi da raggiungere a breve termine di rete ed un'analisi futura di cioè attrezzare tutti rack con gli apparati completamento del DataCenter, rendendolo più affidabile con l'aggiunta di dispositivi di rete per realizzare la ridondanza tra gli apparati Bianco Carmela 566/2170 Pagina 5 di102 2 Il Progetto Re.Ca.S. (Rete di Calcolo per SuperB) e altre applicazioni 2.1 Sintesi proposta L’iniziativa mira, come primo obiettivo, realizzare un nuovo modello di centro di calcolo e ad utilizzarlo per espandere ad un livello di eccellenza nazionale ed internazionale l’attuale infrastruttura integrata di Centri di Calcolo e Dati ad alte prestazioni, collocati nelle zone del Sud. Questi centri saranno parte dell’Infrastruttura Grid Italiana (IGI) e capaci di soddisfare con servizi IT innovativi, non solo i crescenti bisogni del mondo della ricerca nel campo della Fisica (con riferimento in particolare a Super‐B che richiederà una potenza di calcolo e storage dello stesso livello di quello fornito dall’attuale grid europea del CERN), della Biologia, della Chimica, dell’Ambiente, del Clima, dell’Energia, etc., ma anche quelli più avanzati e dinamici di tutto il settore pubblico e delle attività per l’innovazione nel settore privato. In concreto saranno sviluppati una serie di poli informatici basati sulle più moderne tecnologie open Grid e Cloud disponibili nel mondo della ricerca, tra i partners di IGI e i loro collaboratori a livello Europeo ed internazionale. Tali poli saranno caratterizzati da elevati standard di eccellenza e alta qualità di servizio e saranno in grado di svolgere un ruolo di primo piano nel supporto di una gran varietà di attività, richiedendo un uso dell’IT nel territorio di riferimento, ben integrati con connessioni a larga banda tra loro e con la rete nazionale di centri simili localizzati in altre regioni italiane e costituenti l’Infrastruttura Grid Italiana (IGI), strettamente connessa a sua volta con l’infrastruttura Grid europea dell’European Grid Initiative (EGI). In questo modo il mondo della ricerca in primo luogo e poi i soggetti pubblici e privati del territorio avranno la disponibilità di un’infrastruttura, di servizi e di applicativi tra i più avanzati oggi disponibili. Bianco Carmela 566/2170 Pagina 6 di102 L’infrastruttura diventerà la piattaforma ideale per la fornitura di servizi on-demand a costi molto competitivi per le pubbliche amministrazioni e per le PMI, sia come “facility” di data‐management e di calcolo che per l’offerta di applicativi e servizi software avanzati, favorendo cosi’ la modernizzazione delle pubbliche amministrazioni ed i processi innovativi con il trasferimento tecnologico e la crescita del tessuto socio‐economico del Sud Italia nella logica delle strategie comunitarie verso network di cooperazione tra ricerca e imprese. Il progetto nel suo complesso creerà dunque un’infrastruttura di centri Cloud interoperabili, basati su un adattamento dei servizi software open e obbedienti a standard internazionali, che hanno mostrato nella grid europea e nazionale di poter uguagliare in qualità di servizio le prestazioni di quelli delle maggiori compagnie multinazionali. Con l’integrazione di recenti sviluppi questi saranno capaci di offrire on-demand, in modo del tutto generale e flessibile, gli ambienti virtuali di calcolo e storage richiesti dagli utenti del mondo eScience. Inoltre, vista la loro origine, consentiranno ai nuovi centri di essere immediatamente interoperabili e ben integrati nella infrastruttura grid nazionale di IGI e in quella europea di EGI raggiungendo un obbiettivo a cui stanno mirando tutti gli attuali più avanzati sviluppi del mondo Cloud pubblico e privato. La finalità del progetto Re.Ca.S. consiste nella realizzazione di una moderna infrastruttura di calcolo distribuita d'Italia ed in particolare del Mezzogiorno basata su centri localizzati nelle quattro regioni di convergenza, Calabria, Campania, Puglia e Sicilia in grado di integrarsi in maniera unitaria avviando un contributo di primaria importanza alle risorse di calcolo e archiviazione dati. L'infrastruttura di calcolo sarà realizzata in un solo Data Center per ogni regione, con la partecipazione a seconda dei casi dell'INFN (Istituto Nazionale di Fisica Nucleare) e di un Ateneo, o solo dell'INFN, ma comunque realizzando un unico centro per regione. Bianco Carmela 566/2170 Pagina 7 di102 Figura 1:Distribuzione dei Centri di Calcolo La figura che segue (a sinistra) illustra la posizione dei tre centri principali sopra citati (Napoli, Bari, Catania) rispetto al CNAF (Centro Nazionale dell’ INFN) che si occupa della gestione e dello sviluppo a livello nazionale dei principali servizi informatici per gli esperimenti fatti al CERN con LHC e costituisce il centro di calcolo più rilevante dell’INFN nonché uno dei centri di calcolo distribuito più importanti d’Italia. La possibilità di realizzare un sistema distribuito dipende strettamente dalla disponibilità di una rete efficiente ed affidabile. Il progetto GARR-X la Next Generation Network nazionale è la nuova rete in fibra ottica dedicata alla comunità italiana per l’Università e la Ricerca, è stata inserita nella Roadmap italiana delle Infrastrutture di Ricerca, che ha lo scopo primario di progettare, implementare e operare una infrastruttura di rete atta a fornire alla comunità scientifica ed accademica italiana gli strumenti di comunicazione idonei allo svolgimento delle proprie attività istituzionali di ricerca. L'esigenze infrastrutturali nell'area di calcolo riguardano la potenza elaborativa e lo storage e per questo si prevede l'acquisizione delle seguenti risorse da distribuire sulle sedi del progetto: Bianco Carmela 566/2170 Pagina 8 di102 UNINA INFN-NA UNIBA INFN-BA INFN-CT INFN-CS TOTALI Potenza Storage elaborative (PByte) (kHepSpec) 6 2 10 3 7 5 33 0,8 0,3 2,5 0,5 0,8 0,6 5,5 Tabella 1:Distrtibuzione delle risorse di calcolo e storage Il kHepSpec, una unità particolarmente usata in ambito fisico, corrisponde alla potenza di circa 50 unità di calcolo “core” (al dicembre 2011). Il fine primo di tale infrastruttura è l'analisi dati per l'esperimento SuperB dell' INFN, un progetto bandiera nazionale già approvato, la cui costruzione avverrà nel campus Tor Vergata nei dintorni di Roma. Figura3: Campus Tor Vergata sede acceleratore SuperB Bianco Carmela 566/2170 Pagina 9 di102 2.2 Il progetto bandiera SuperB Il progetto bandiera SuperB una è in collaborazione internazionale che ha come obbiettivo la costruzione di un nuovo acceleratore di particelle e di un complesso apparato sperimentale per studiare le particelle. Figura3: Acceleratore di particelle Un acceleratore di particelle a base Italiana: è il progetto SuperB promosso dall'INFN, diventato dal 2010 uno dei “Progetti Bandiera” dell'Italia. Il nuovo acceleratore non avrà le dimensioni gigantesche del LHC e lavorerà ad energie molto più basse. Ma SuperB non vuole sfidare l'acceleratore di Ginevra, gli esperimenti portati in avanti nelle due macchine, infatti, puntano a consolidare e sviluppare le conoscenze sulla fisica in modo diverso: il primo aumenterà l'intensità delle collisioni tra le Bianco Carmela 566/2170 Pagina 10 di102 particelle, mentre il secondo punta sull'incremento dell'energia a cui avvengono le collisioni. Se LHC, l'acceleratore del CERN, fa collidere protoni e antiprotoni, SuperB, l'acceleratore da costruire, farà collidere elettroni e positoni, realizzando una complementarietà tra i due. Il nuovo acceleratore sarà infatti un collisionatore e+e‐ di tipo “asimmetrico”, perché i fasci di elettroni e positroni che collidono avranno energie diverse e sarà basato su idee sviluppate in Italia e sperimentate dalla divisione acceleratori dei Laboratori Nazionali di Frascati dell’INFN. Sfruttando nuove tecniche di produzione di fasci di particelle ultradensi insieme ad un’inedita configurazione per la regione di interazione, l’acceleratore di SuperB moltiplicherà di 100 volte il numero di collisioni prodotte nella stessa unità di tempo, rispetto al limite attuale. In questo modo, sarà possibile studiare processi estremamente rari di decadimento di particelle già note ed evidenziare effetti non previsti dalle teorie attuali. SuperB sarà in grado di migliorare la conoscenza delle leggi fisiche che descrivono il comportamento dalla natura alle alte energie e fornire misure complementari a quelle che saranno fatte al CERN con LHC. SuperB si propone tra le maggiori realtà scientifiche mondiali per lo studio della Fisica e la ricerca della nuova Fisica oltre al modello standard con l'ambizioso obiettivo di allargare gli attuali orizzonti scientifici e dare risposte a importanti questioni di fisica fondamentale. 2.3 Il computing in SuperB L'esperimento SuperB darà vita ad un laboratorio internazionale di eccellenza mondiale, qualificante per il nostro paese. Sia la fase di progettazione che effettiva attività scientifica dell'esperimento SuperB, richiedono una grande capacità di calcolo e storage dei dati, inizialmente per simulare progettare e definire i parametri dell'apparato sperimentale, ed in seguito per Bianco Carmela 566/2170 Pagina 11 di102 immagazzinare tutte le informazioni relative agli eventi e per eseguire l'analisi fisica dei risultati prodotti dalle collisioni. Il computing model, i requisiti e le necessità previste per il calcolo di SuperB, hanno come punto di partenza le esperienze di successo degli esperimenti BABAR negli Stati Uniti e Belle in Giappone, che hanno portato a termine il loro programma scientifico su delle flavor factory con parametro di luminosità pari a L = 1034 cm‐2s‐ 1. Il nuovo acceleratore dovrà lavorare 100 volte al di sopra, ad una luminosità di L = 1036cm‐2s‐1 , con un flusso di dati comparabile a quello prodotto dagli esperimenti ATLAS e CMS al CERN di Ginevra. Ad oggi le stime simulate prevedono per ogni anno di attività alla luminosità nominale una richiesta di risorse computazionali due volte superiore ai requisiti degli attuali esperimenti che si svolgono al CERN. Si calcola che occorreranno un totale di oltre 50 PB annui per il data storage ed un totale di 1700 KHep‐Spec06 di potenza computazionale (circa 100.000 degli attuali CPU‐core) per svolgere tutte le attività di ricostruzione eventi, data skimming, simulazione e analisi fisica. I progressi nel computer industry, la disponibilità di risorse tramite lo sviluppo delle GRID e i nuovi servizi Cloud, sono i presupposti che rendono approcciabile tale impresa. Tuttavia visti i numeri in gioco è richiesto necessariamente uno sforzo congiunto e coordinato di diversi attori della ricerca e del mondo delle imprese. In queste attività le strutture INFN del Sud, l’Università Federico II e l’Università di Bari, hanno partecipato nella fase di proposta del progetto SuperB presso il MIUR, e per la scrittura del Technical Design Report. Attualmente sono impegnate nello studio di R&D per il computing model fornendo in best effort servizi per la simulazione del detector e dell’analisi dati. La crescita della Griglia del Sud, della sua infrastruttura e dei servizi offerti, unito al coinvolgimento tra enti pubblici ed imprese, rappresenta oggi una opportunità unica e concreta per la crescita della competitività scientifica e tecnologica nel Mezzogiorno e per creare un polo d’eccellenza sul computing a supporto di uno dei progetti bandiera del nostro paese. Bianco Carmela 566/2170 Pagina 12 di102 2.4 Centri di calcolo distribuito Tier0/Tier1 Tutti i centri di calcolo distribuiti su territorio nazionale andranno a formare il futuro TIER distribuito e saranno collegati in modo efficiente grazie alle reti digitali di ultimissima generazione. I centri di calcolo sono organizzati in un modello gerarchico “multi-tier”.Tier-n è il termine che indica il centro di calcolo che si pone al livello n-esimo all’interno della gerarchia. Il termine “Griglia” ha lo scopo di denotare un’infrastruttura di calcolo distribuito su scala geografica, essenzialmente orientata alle sperimentazioni scientifiche e ingegneristiche. Il modello gerarchico di calcolo per l'esperimento SuperB è a Multi-Tier e prevede l'analisi dati attraverso classe Tier0/Tier1: • Il Tier0 verrà costruito a Roma più precisamente a Tor Vergata, in esso avviene la produzione dei dati da inviare ai Tiers di livello inferiore. Viene eseguita una prima fase di calibrazione e poi verranno elaborati i raw date (dati grezzi). Successivamente l'output ricostruito viene inviato ai Tier1. • Il Tier1 di livello nazionale o internazionale verrà dislocato tra le varie regioni (Napoli, Catania, Cosenza e Bari), effettua un'analisi e parte della ricostruzione e dove verranno puliti i dati grezzi. Figura 4: Connessione logica tra i centri calcolo distribuiti Bianco Carmela 566/2170 Pagina 13 di102 Ogni Tier mantiene una copia dei dati che ha elaborato in modo da usarli come esempio per le prossime elaborazioni e per fare in modo che il livello successivo possa recuperarli se necessario. Avere un data center distributo in varie sedi dislogate geograficamente comporta avere una infrastruttura di rete esterna che permetta la comunizione tra le sedi in modo da non far percepire la dislocazione fisica dei data center, ciò sarà possibile grazie ad connessione geografica ad alte prestazioni fornita dal consorzio GARR con la nuova rete metropolitana GARR-X a 10Gbps. Figura 5: Connessione fisica tra i centri di calcolo distribuiti 2.5 La nuova rete metropolitana GARR-X La rete GARR è diffusa in modo capillare su tutto il territorio nazionale e si basa sulle più avanzate tecnologie ottiche di trasporto, che rendono possibile un pieno supporto ad applicazioni innovative quali grid, telemedicina, e-learning, multimedia, fisica delle alte energie, radioastronomia. È collegata con tutte le reti della ricerca europee e mondiali, permette a docenti, studenti e ricercatori di comunicare e collaborare con i colleghi di tutto il mondo in Bianco Carmela 566/2170 Pagina 14 di102 modo affidabile ed efficiente attraverso servizi di rete avanzati ed indipendenti dalla collocazione geografica. L’attuale infrastruttura di rete GARR denominata GARR-G (GARR-Giganet), dedicata alla Comunità Italiana delle Università e della Ricerca, è entrata in funzione alla fine del 2003, ma l'attuale connettività che viene sfruttata nelle strutture è 1‐ 2Gbit/s non più sufficiente per coprire le esigenze delle applicazioni e dei protocolli di data management geografico ed è tecnologicamente vecchia e poco scalabile. Figura 6: Rete GARR-G nata il 2003 La rete di nuova generazione GARR-X sta gradualmente sostituendo la precedente infrastruttura, fornendo maggiori prestazioni e nuovi servizi. Alla fine del 2012 sarà possibile raggiungere la piena potenzialità della nuova infrastruttura di rete GARR-X, con circuiti ottici multipli a 10, 40 e 100 GigaEthernet e rispondere efficacemente alle esigenze di tutta la comunità scientifica, accademica e culturale del paese, garantendo la massima scalabilità e flessibilità del modello, in Bianco Carmela 566/2170 Pagina 15 di102 grado di adeguarsi alle possibili evoluzioni in termini di flussi di traffico, di incremento di banda e di richiesta di nuovi servizi di rete. Il livello network WAN dell'attuale Data Center sarà implementato mettendo in opera tutte le tecnologie necessarie per agganciarsi alla rete GARR‐X, sfruttando l’importante know‐how presente sulle tecnologie di rete geografica. Figura 7: Rete GARR-X che nascerà fine 2012 e sostituirà la rete GARR-G Il presente rafforzamento infrastrutturale consentirà di colmare le gravi lacune sul versante rete, visto che nel resto d’Europa molti paesi sono già passati a connessioni geografiche a 10Gbit/s, la mancanza al Sud di tali infrastrutture rappresenta un freno per la valorizzazione dei laboratori e strutture e un limite alla competitività come poli di attrazione per l’erogazione di sevizi di rete su scala nazionale e Globale. Bianco Carmela 566/2170 Pagina 16 di102 Una connettività allo stato dell’arte costituisce il primo collante verso la costruzione di una facility di calcolo distribuita ma unitaria, rappresenta elemento qualificante e realmente abilitante alla creazione di servizi di rete (computing e data management) competitivi e perciò strategico per valorizzare i laboratori e le strutture. Il livello rete così implementato, consentirà ai partner di creare servizi di GRID e Cloud computing avanzanti, totalmente indipendenti dalla locazione fisica e geografica sfruttando i paradigmi della virtualizzazione, servizi di provisioning, tecnologie di data management distribuito per facilitare l’accesso ai dati da parte della collaborazione scientifica di SuperB. 2.6 Obiettivi Generali: Progetto dettagliato per la sede di Napoli A Napoli le infrastrutture del presente PON saranno dislocate nel complesso di Monte S. Angelo. Figura 8: Complesso Universitario Monte Sant'Angelo Bianco Carmela 566/2170 Pagina 17 di102 Con un precedente progetto (SCOPE, PON 2000-2006) è stata realizzata l'impiantistica di base, ovvero cabina elettrica, gruppo elettrogeno, gruppi di continuità, che ora servono due i Data Center, uno UniNa (SCOPE) ed uno INFN (ATLAS). Il primo Data Center composto da 33 rack, di cui 12 dedicati ad ATLAS, per cui il Tier2 di ATLAS risulta distribuito tra i due Data Center. Il secondo Data Center INFN, consta oggi di soli 4 armadi rack. I due Data Center sono estremamente vicini, ed è stata già realizzata una capillare rete in fibra che connette il PoP del GARR ai Data Center dell’università e dell’INFN; tale rete è già dimensionata per tutto il traffico necessario a SuperB nei prossimi 10 anni, essendo state stese 10 fibre su tutte le possibili tratte, con magliatura quasi totale. Figura 9: Collegamenti infrastrutturali Monte Sant'Angelo Dei 33 rack del Data Center SCOPE, 13 risultano predisposti ma sono ancora vuoti. Pertanto l'obiettivo per il 2013 è di completare le attrezzature nel Data Center UniNa e di ampliare il Data Center INFN, portandolo a 12 rack, per un totale di 45 rack. Nel complesso, avremo 12 rack per usi general purpose, 20 rack per uso SuperB, 13 rack per uso ATLAS. Bianco Carmela 566/2170 Pagina 18 di102 3 Progettazione di una nuova rete presso il Data Center UniNa 3.1 Progetto dettagliato del Data Center Scope Il Data Center S.Co.P.E. è situato tra gli edifici di Fisica e Biologia in uno spazio dalle dimensioni ridotte, circa 120 mq, ma dalle grande capacità, in quanto in grado di ospitare 33 armadi (rack) per un totale di circa 1000 apparati calcolo. La sala CED è equipaggiata con un sistema di sensori, per la maggior parte interni ai rack. La soluzione rack integra un sistema di controllo e regolazione della temperatura interna a cui aggiungiamo il controllo dell’alimentazione elettrica e quello ambientale del rack, il tutto nello spazio di un armadio. Inoltre, la concentrazione di sistemi permette una migliore gestione dell’infrastruttura, del suo cablaggio e degli apparati di controllo e monitoraggio. L'infrastruttura del Data Center caratterizzata da 33 “server rack” 19' predisposti a contenere gli apparati per il supercalcolo distribuito. • Armadi a rack da 1 a 12 – Spazio dedicato al progetto S.Co.P.E. • Armadi a rack da 13 a 25 – Spazio destinato al nuovo progetto SuperB (attualmente vuoti). • Armadi a rack da 26 a 33 – Spazio dedicato al progetto ATLAS. Bianco Carmela 566/2170 Pagina 19 di102 Figura 10: Planimetria DataCenter UniNa. Con la realizzazione del centro di calcolo di tipo Tier1, per il progetto SuperB, il Data Center UniNa verrebbe riorganizzato ed ammodernato per le nuove esigenze, con tecnologie all'avanguardia, riempendo i rack attualmente vuoti. 3.2 Quadro generale 3.2.1 Power Una delle operazioni fondamentali per ottenere un’elevata efficienza energetica del centro di calcolo è la stima dei consumi delle apparecchiature che lo compongono. In una normale sala CED, circa la metà dell’energia elettrica utilizzata viene assorbita dai carichi IT. L’altra metà della spesa per il consumo di energia elettrica è costituita dall’acquisto di elettricità destinata a far funzionare il sistema di alimentazione, di raffreddamento e quello di illuminazione. La componente all’interno delle apparecchiature IT che richiede la maggiore potenza è la CPU. Bianco Carmela 566/2170 Pagina 20 di102 Figura 11: Flusso elettrico tipico Una parte delle attività di pianificazione e progettazione dei data center è costituita dall'adeguamento dei requisiti di alimentazione e raffreddamento delle apparecchiature IT alla capacità delle apparecchiature dell'infrastruttura. In questo documento si espongono dei metodi per il calcolo dei requisiti di alimentazione e raffreddamento e si forniscono indicazioni per la determinazione della capacità Il sistema di alimentazione di un Data Center deve garantire la disponibilità permanente delle infrastrutture IT, quindi è indispensabile avere un sistema di alimentazione affidabile, espandibile e capace di alimentare appacchiature IT sempre più potenti e complesse senza creare interruzioni del funzionamento del Data Center. Il Data Center UniNa viene alimentato da una cabina elettrica dedicata da 1 MWatt posta all'esterno della sala, dove è situato un gruppo elettrogeno che alimenta il CED in caso di mancanza di energia attraverso un serbatoio di 6000 litri di gasolio. La cabina è in grado di fornire energia a sufficienza per alimentare due UPS da 400 KW (Gruppo di continuità) chiamati UPS A, UPS B ed un terzo gruppo da 250 KW. Bianco Carmela 566/2170 Pagina 21 di102 Figura 12: Cabina Elettrica nata con il progetto S.Co.Pe. Figura 13: Struttura interna della Cabina Elettrica. Bianco Carmela 566/2170 Pagina 22 di102 I due UPS a loro volta, ripartono corrente a 6 armadi di alimentazione secondaria PDR, ognuno dei quali alimenterà una sola parte dei rack che si ritrovano all'interno della sala. Figura 14: Impianto elettrico realizzato all'interno del DataCenter UniNa Figura 15: Planimetria DataCenter UniNa completa di quadri elettrici e armadi di distribuzione All'interno della sala sono presenti due quadri elettrici, un quadro elettrico identificato come “Q.SM.UPS A/B” per l’alimentazione dei sei quadri di distribuzione elettrica dei rack “Q.PDR” e delle utenze di servizio, centrale antincendio, centrale video sorveglianza, terminali controllo accessi ecc., l'altro quadro elettrico identificato come “Q.CDZ”, per l’alimentazione delle utenze al servizio del sistema di raffreddamento. Bianco Carmela 566/2170 Pagina 23 di102 Il PDR (Power Distribution Rack), riceve alimentazione dal quadro generale, attraverso i moduli PDM (Power Distribution Modul) con cavi preconnettorizzati con spine normate che vanno ad alimentare le 2 barre di alimentazione modulari PSM (Power System Modul). Figura 16: Sistema di distribuzione corrente Il PDR è completamente protetto dai contatti accidentali, è predisposto per 8 uscite con connettore per 4 poli, certificato per l'accettazione HOT SWAPPAPLE (a caldo) di max 8 moduli di sub-distribuzione PDM (Power Distribution Module), consentendo l'UPGRADE per la distribuzione secondaria fino a 250 A per fase “a caldo”, ovvero senza togliere alimentazione agli apparati in esercizio. Il sistema di PSM è l'ultimo elemento per la distribuzione di corrente all’interno degli armadi. E’costituito da una barra di alimentazione completamente protetta dai contatti accidentali, che viene montata all’interno degli armadi rack ed è studiata per semplificare le operazioni di cablaggio e ridurre i costi di installazione, fornendo alimentazione di corrente sicura e senza interruzioni. Ciascun armadio rack è equipaggiato con due canaline PSM alimentate attraverso il cavo di collegamento preconnettorizzato con il PDM. L'alimentazione interna ai rack è stata realizzata in modo che il spegnimento di una canalina non reca problemi Bianco Carmela 566/2170 Pagina 24 di102 all'altra e ne all'intero sistema di alimentazione, infatti le due canaline sono alimentate da due PDR diversi. Nel modulo sono integrati un indicatore di corrente, un indicatore di circuito e un pulsante di sicurezza termico. Con il progetto SuperB, si prevede il potenziamento della cabina elettrica presente, con n.1 UPS da 400 KVA, e n.1 trasformatore da 1 MW. L’impianto elettrico, interno alla sala, è stato progettato secondo criteri modulari di ampliamento del servizio, infatti è possibile appliare il servizio elettrico aggiungendo dei moduli di distribuzioni all'interno degli armadi PDR attualmente ancora semivuoti e per ogni rack attualmente vuoti, dovranno essere aggiunte le presiere intelligenti PSM sia sul lato sinistro che destro del rack. 3.2.2 Refrigeratori: Raffreddamento a liquido La sempre più alta densità dei sistemi di calcolo e l'inarrestabile aumento delle prestazioni dei processori determinano nei Data Center uno sviluppo di calore eccessivo in spazi ristretti. L'uso di rack auto-condizionati permette di semplificare il sistema di condizionamento ambientale per la sala calcolo, inserendo solo la realizzazione di apposite canalizzazioni per il trasporto dell'acqua fredda in ingresso ai rack e di acqua "calda" in uscita. Per il raffreddamento si è pertanto scelto un nuovo approccio tramite l'impiego di scambiatori di calore aria/acqua incorporati nella parete laterale di ogni armadio. La soluzione, configurata esternamente come pannello laterale intercambiabile, assicura un raffreddamento uniforme tramite aria fredda soffiata orizzontalmente ai lati dell'armadio che va a lambire le apparecchiature installate. Bianco Carmela 566/2170 Pagina 25 di102 L'aria calda è soffiata in senso orizzontale nell'armadio direttamente davanti a ciascuna batteria di server, creando condizioni di temperatura uniformi sia nella parte superiore che inferiore dell'armadio. Figura 17: Sistema di raffreddamento orizzontale Tale sistema di raffreddamento consiste in unità alte 42U che si affiancano i rack, alternandosi agli stessi, in modo che ogni unità raffreddi sia il rack di destra sia il rack di sinistra, come il disegno che segue. Figura 18: LCP ingrado di raffreddare sia il rack a destra che a sinistra Nella colonna possono essere montati un massimo tre moduli indipendenti tra loro, da 4 KW per un totale di 12 KW di potenza refrigerante. Le performance del sistema LCP nominali di 12 KW possono raggiunre valori effettivi di 20KW di capacità refrigerante attraverso l'aumento della velocità del fluido. Bianco Carmela 566/2170 Pagina 26 di102 La configurazione con scambiatori di calore integrati nella parete laterale non sottrae spazio all'interno dell'armadio, ma ne aumenta il volume occupato. Per l'alimentazione del mezzo frigorigeno, sul pannello laterale dello scambiatore di calore è prevista una connessione per un chiller di potenza adeguata, che nel nostro caso è da 660 KW, duplicato per ridondanza. Il circuito del mezzo frigorigeno è collegato tramite giunti a chiusura rapida. Un sistema intelligente di gestione della condensa è incorporato all'interno. Il circuito frigorigeno ermetico assicura anche il funzionamento corretto del sistema in locali caldi. Quindi è possibile ottenere la massima potenza frigorifera nei Data Center, dotati di gestione e controllo dalla climatizzazione, senza aver effetto sulla temperatura ambiente. La realizzazione garantisce accessibilità completa l'apparecchiatura interna, sicurezza di investimento grazie alla scalabilità degli elementi, espandibilità in caso di richiesta di maggiore potenza e controllo distanza. L' attuale sistema di raffreddamento risulta espandibile e può essere esteso senza fermo impianti, infatti per ora non subirà cambiamenti perchè tutti gli armadi predisposti nel DataCenter, compresi quelli vuoti, già sono dodati di sistema di raffreddamento LCP, almeno parzialmente (1 LCP per rack), pertanto andranno solo acquistati altri 24 LCP, senza cambiamenti all'impianto. Figura 19: Planimetria S.Co.P.E. completo di sistema di raffreddamento Bianco Carmela 566/2170 Pagina 27 di102 3.2.3 Network Per quanto riguarda la realizzazione di interconnessioni di rete, da realizzare per la messa in opera di un centro di calcolo, i principali requisiti di base della progettazione che vanno considerati sono: – L'uso di soluzioni innovativie ad altissime prestazioni e totalmente scalabili. – L'efficiente integrazione geografica con altre infrastrutture di calcolo e griglie computazionali esistenti worldwide. – La massima affidabilità e dove possibile la totale resistenza e tolleranza ai guasti, realizzata attraverso la duplicazione degli apparati e di tutti i collegamenti in rete. – Le garanzie di adeguata sicurezza e privatezza per gli host serviti dall'infrastruttura e per le applicazioni che girano su di essi. – La piena integrazione fra tecnologie di connettività eterogenee per ottenere un sistema di rete unificato che garantisca la piena armonizzazione fra le componenti connesse. – L'apertura verso applicazioni future, assicurando l'investimento e la validità tecnologica nel tempo dell'infrastrutture di rete realizzate. – Il pieno rispetto degli standard internazionali sia per i protocolli di rete impegati che per le infrastrutture passive. – Disponibilità di interconnessioni eterogenee per garantire il soddisfaciamento dei requisiti di connettività di tutte le applicazioni operanti nelle griglie di calcolo. – L'uso di collegamenti multipli ridondati sia per gli host che fra le switching fabrics garantirà simultaneamente un notevole grado di affidabilità e prestazioni di altissimo livello, attraverso tecniche di bilanciamento di carico. Bianco Carmela 566/2170 Pagina 28 di102 – La conformità al nuovo standard TIA/EIA-942 “Telecommunication Infrastructure Standard for Data Center”. Il gruppo TIA TR-42.1.1 ha l'obiettivo di sviluppare lo "Standard per l'infrastruttura di telecomunicazioni per i Data Center Internet". Questo gruppo copre le tipologie e le prestazioni del cablaggio in rame e fibra, oltre agli aspetti dell'infrastruttura IT che consente a tali realizzazioni di implementare con facilità le nuove tecnologie quali le reti 10 Gb/s. Recentemente TIA/EIA ha ufficializzato il documento TIA/EIA-942 "Standard per l'infrastruttura di telecomunicazioni per i Data Center", che considera i requisiti di flessibilità di scalabilità, di affidabilità e di gestione degli spazi. Gli enti normativi NEC (National Electric Code), nell'articolo 645 "Information Technology Equipment" e la NFPA (National Fire Protection Association), nel documento NFPA-75 "Standard per la protezione dell'Information Technology" hanno trattato questi importanti argomenti. Questi standard definiscono le linee guida, con elementi specifici di progettazione che varieranno per ciascun data center e per gli apparati in esso contenuti. Gli elementi da considerare come applicabili per ciascun data center sono i seguenti. – Conformità allo standard IEEE 802.3ba sulle tecnologie 40Gb e 100Gb Ethernet . IEEE Standard Association ha varato la 802.3ba Standard IEEE che porta a 40 Gb e 100 Gb la velocità Ethernet, insieme alla IEEE Standards Association è una taskforce che lavora sulle velocità Ethernet sempre più elevate. La ratifica dell'IEEE 802.3ba dopo quattro anni di lavoro fissa lo strato fisico da utilizzare per la comunicazione, ovvero, i mezzi utilizzabili per il cablaggio che sono: il rame, la fibra monodale e multimodale. La standardizzazione di velocità sempre più elevate hanno risvolti molto importanti per l'affermazione e distribuzione delle tecnologie precedenti, infatti, si è visto che 10Gbps è stato introdotto come dorsale per gli Bianco Carmela 566/2170 Pagina 29 di102 ambienti che hanno implementato 1 Gbps al (alla parte) server, si prevede lo stesso percorso per il 10Gbps ed i 40GbE. L'uso di elevate velocità per quanto riguarda la parte server, si prevede che la prossima generaziane di server implerà un cablaggio sempre più convergente tra rete e rete storage(iSCI, FcoE) e si vedrà un utilizzo più spinto della virtualizzazione potento utilizzare schede 10Gbps, interconnessione a 40Gbps e backdone 100Gbps. I cablaggi e le interconnessioni sono fondamenta su chi poggia un intero DataCenter. La scelta preserva nel tempo gli investimenti, considerando quindi che la ratifica dei 40 Gbps e 100 Gbps prevede un opzione in rame fino ai 7 metri, fibra ottica monomodale fino a 100 metri e multimodale fino a 10 km fa ovviamente protendere pverso un cablaggio interamente in fibra che mostra una maggiore stabilità di connessione nell'evoluzione della velocità. L'attuale infrastruttura di rete, presente nel Data Center, prevede una organizzazione gerarchica, indicato col nome “multi-Tier”. L'architettura del progetto S.Co.P.E. è contraddistinta da 4 tipologie di connessione: 1. Connessione Infiniband: una serie di interconnessioni privilegiate per un numero limitato di host ad elevate prestazioni dedicati ad applicazioni di grid computing caratterizzate da requisiti funzionali e prestazionali che prevedono una combinazione di banda larga a bassa latenza. 2. Rete ethernet tra i nodi di calcolo con l'interfacciamento tra Infiniband e Fibre Channel 3. Connessione Fibre Channel: connessione diretta e dedicata ad alta velocità tra alcuni server e gli apparati di storage. 4. Connessione geografica mediante la connessione ethernet Bianco Carmela 566/2170 Pagina 30 di102 Con la realizzazione del progetto SuperB all'interno del DataCenter Unina si andrà a realizzare un'ulteriore infrastruttura di rete, non più basata su una tecnologia MultiTier ma su una nuova tecnologia Converd-Core. Questa architettura prevede due switch identici da cui partono cavi in fibra in ogni armadio, dove in esso non vi è uno switch locale ma una parte remotizzata dallo switch centrale. Questo vuol dire un’unica matrice di switching in ogni sede, ridondata, tutta ad almeno a 40 Gb/sec, e probabilmente a 100 GbE ed un unico protocollo, Ethernet, anche a bassa latenza (DCB). Questa nuova tecnologia può interfacciarsi con le infrastrutture esistenti illustrate precedentemente. 3.2.4 Storage Sia la fase di progettazione che l’effettiva attività scientifica dell’esperimento SuperB, richiedono una grande capacità di calcolo e di storage dei dati, inizialmente per simulare, progettare e definire i parametri dell’apparato sperimentale, ed in seguito per immagazzinare tutte le informazioni relative agli eventi e per eseguire l’analisi fisica dei risultati prodotti dalle collisioni. L’attività relativa ai servizi di storage è molto importante perché riguarda sia la definizione delle migliori modalità di accesso ai dati sia le prestazioni che spesso costituiscono un collo di bottiglia e rallentano le esecuzioni dei job con la conseguenza di diminuire significativamente l’efficienza dell’utilizzo delle risorse e sia la possibilità di rendere disponibili spazi di archiviazione virtuali agli utenti on demand in modo automatico. Con il termine storage si identificano i dispositivi hardware, i supporti per la memorizzazione, le infrastrutture ed i software dedicati alla memorizzazione non volatile di grandi quantità di informazioni in formato elettronico. Bianco Carmela 566/2170 Pagina 31 di102 Storage Farm implementa l'area di memorizzazione dei dati mediante protocollo di accesso a blocchi di tipo iSCI attraverso la rete ethernet/IP. Le tecnologie per la condivisione dello storage possono essere essenzialmente divise in due categorie che hanno in comune un alto livello di affidabilità, una buona scalabilità, e performance di alto livello. I due modelli maggiormente utilizzati nei sistemi di storage condivisi sono: 1. Un sistema autonomo dedicato, cioè uno (o due) rack che conteranno un sistema del tipo SAN (Storage Area Network) connesso a tutti i server denominati SE nel linguaggio middleware gLite. 2. Un sistema distribuito, costituito da 8 dischi in ogni server. Si prevede di realizzare un sistema con replica 3, cioè ogni dato sarà scritto 3 volte in modo random tra le 4 sedi( Napoli, Catania, Cosenza, Bari), in modo da garantire la sicurezza contro la perdita accidentale dei dati. Inoltre se i dati sono replicati, le politiche di aggiornamento deve garantire che il risultato delle operazioni sia lo stesso su tutte le copie. 3.2.5 Computing La nuova era della fisica delle particelle, pone forte pressione sul calcolo e la disponibilità di storage per l'analisi dei dati e la distribuzione dei dati. Il piano di progetto SuperB è creare una nuova configurazione del cluster in grado di scalare per i prossimi dieci anni e di trarre vantaggio dalle tecnologie di new fabric (nuovi Bianco Carmela 566/2170 Pagina 32 di102 tessuti), inclusi multicore e chip grafici. Sul lato configurazione cluster per Tier1, si propone di integrare storage e risorse di calcolo attraverso un mix di soluzioni ad alta densità di storage, file system cluster e rete 10Gbit/s. L'idea principale è superare il collo di bottiglia dovuta al storagecomputing attraverso un modello di disaccoppiamento scalare composto da nodi con nucleo ad alta densità e dischi in configurazione JBOD. L’intera collaborazione oggi mette a disposizione per la comunità scientifica un potenziale di decine di migliaia di CPU e risorse pregiate su base multi-core, con interconnessioni infiniband e a 10Gbit/s in grado di ospitare sia applicazioni high throughput che applicazioni HPC (High Performance Computing) con codici paralleli e nuclei computazionali fortemente accoppiati. Nell’ambito di GRISU sono presenti tutte le condizioni hardware e software necessarie per affrontare le tematiche di calcolo parallelo. Oltre alle imponenti installazioni di infiniband e di macchine parallele avanzate, sono supportate tutte le principali librerie di calcolo parallelo, provate e ottimizzate su diversi tipi di hardware di interconnessione e di compilatori, il supporto avanzato per i codici che fanno uso interno del parallelismo. Su questa base è stato effettuato il porting di numerosi codici su GRID e sono stati sviluppati moduli di interfacciamento tra il mondo Grid e il mondo HPC. Per HPC (High Performance Computing) si intende una tipologia di clustering che permette l'esecuzione distribuita di processi sui nodi del cluster. Lo scopo di un cluster è quello di distribuire una elaborazione molto complessa tra i vari computer. In sostanza un problema che richiede molte elaborazioni, per essere risolto, viene scomposto in sotto-problemi separati i quali vengono risolti in parallelo. Questo ovviamente aumenta la potenza di calcolo del sistema. I processi dialogano fra di loro implementando anche il parallelismo. Le attrezzature di calcolo possono essere di tipi diversi di server: Multi-core: usata per descrivere una CPU che può essere composta da due a sedici CPU su un chip; Bianco Carmela 566/2170 Pagina 33 di102 Multicore cerca di aumentare la velocità di esecuzione dei programmi sequenziali attraverso l'uso dei diversi core presenti, oltre a garantire maggiori prestazioni in ambiti molto specifici dove più che un'alta potenza di calcolo è richiesto un grande parallelismo. CPU multicore è ottimizzata rispetto alle prestazioni durante l'esecuzione di codice sequenziale. Si fa uso di una sofisticata logica di controllo per permettere che istruzioni provenienti da un singolo thread di esecuzione vengano eseguite in parallelo o anche in un ordine sequenziale diverso (out-of-order), mantenendo la logica di una esecuzione sequenziale. L'uso di memorie cache grandi riduce la latenza nell'accesso ai dati e alle istruzioni, ma il vantaggio prestazionale decresce all’aumentare delle dimensioni. Figura 20: Sistema di calcolo Multi-tier Nel Data Center Scope già sono in uso nodi di calcolo multi-core. Many-core: Centinaia di CPU(almeno 48) su un chip. La linea di progettazione many-core è volta all'esecuzione di applicazioni parallele. Bianco Carmela 566/2170 Pagina 34 di102 Questa architettura risulta efficace su programmi paralleli di tipo MIMD (Multiple Instruction Multiple Data) e SIMD (Single instruction, multiple data). Many-core a memoria distribuita I processori hanno la propria memoria locale che non è indirizzata o accessibile dalle altre unità. Ogni processori opera indipendentemente. Le modifiche della memoria locale non ha un effetto sulla memoria di altri processori. Se un processore deve aver accesso ai dati di un' altra unità, il programmatore deve definire esplicitamente quando e come i dati sono scambiati. Incrementando il numero di processori la grandezza della memoria aumenta proporzionalmente. Figura 21: Sistema di calcolo many core a memoria distribuita Bianco Carmela 566/2170 Pagina 35 di102 Many-core a memoria condivisa Tutti i core hanno accesso a tutta la memoria vista come uno spazio di indirizzamento globale. La condivisione dei dati fra i processi è sia veloce e uniforme data la prossimita della memoria CPU. All'aumentare del numero di core aumenta geometricamente il traffico tra memoria e core. Il design e la produzione dei calcolatori paralleli con modello a memoria condivisa è sempre difficile e costoso con l'aumento del numero di processori. Figura 22: Sistema di calcolo many core a memoria condivisa Many-core GPU chip grafici che hanno larghezza di banda 10 volte più grande rispetto a quella disponibile sui chip per CPU. Bianco Carmela 566/2170 Pagina 36 di102 La difficoltà nell'aumentare la banda per le CPU è dovuta alle limitazioni poste dai sistemi operativi, dalle applicazioni e dai sistemi di I/O, al contrario i progettisti di GPU possono raggiungere una maggiore larghezza di banda grazie alle minori limitazioni ereditate (legacy) e a modelli di memoria più semplici. La maggior parte dei calcoli eseguiti dalle GPU a shader unificati sono del tipo SIMD (Single Instruction Multiple Data), ovvero una singola operazione può essere eseguita su più dati contemporaneamente. Una GPU è molto più veloce di una CPU nell’esecuzione di questi compiti. Per poter funzionare efficacemente su una GPU i calcoli da eseguire devono poter essere scomposti in una serie di operazioni “parallelizzabili”, ossia da eseguire in parallelo. Questo significa che non tutti i tipi di operazioni si prestano al GPU Computing. E comunque l’efficacia di esecuzione dipenderà dal livello di esecuzione parallela ottenibile. Figura 23: Sistema di calcolo many core GPU Bianco Carmela 566/2170 Pagina 37 di102 CPU e GPU sono adatte ad eseguire compiti diversi e non danno buone prestazioni se utilizzate per compiti diversi da quelli che sanno fare. Molte applicazioni hanno bisogno sia di buone CPU che di GPU, in modo da eseguire le parti sequenziali sulle CPU e parti di calcolo numerico intensivo su GPU. Le esigenze infrastrutturali nell’area del calcolo riguardano sia gli esperimenti sia i servizi di ciascuna sede, ma in modo principale e prevalente SuperB, anche se la fase di “commissioning”, nel 2014, potrà essere fatta su esperimenti di LHC. Server Farm attualmente disponibili sul mercato Nodi di Calcolo basati su Sistemi Blade Fisicamente basati su Sistemi Blade e nodi dual‐socket, con architettura INTEL Nehalem. Ogni nodo è dotato di 8 GB di RAM per core fisico con un minimo di 128GB di RAM, e “dialoga” verso l’esterno (DC LAN e Storage) mediante 6 interfacce di rete 10GbEth “converged” delle quali: N.2 Porte a 10Gbps (passthrough) saranno direttamente connesse al centro stella in direct‐attach Bianco Carmela 566/2170 Pagina 38 di102 N.2 Porte a 10Gbps saranno connesse al centro stella in topologia core‐edge, i cui edge sono costituiti dai fabric Switch presenti all’interno degli chassis. L’interconnessione tra i core e gli edge è realizzata con un oversubscription ratio di 1:2 (8 link a 10Gbps per chassis) N.2 Porte a 10Gbps (passthrough) non saranno connesse ma saranno comunque presenti a bordo dei sistemi sistema per ulteriori future espansioni in connessione pass‐through verso gli switch Ethernet di centro stella. Si noti che sui nodi è possibile eseguire i più diffusi SW di virtualizzazione: ciò permette di impiegare l’infrastruttura di calcolo anche per scopi differenti dal mero calcolo ad alte prestazioni. Nodi di Calcolo basati su sistemi Modulari ad Alta Densità Fisicamente basati su Sistemi Modulari ad alta densità cadauno dotato di 2 lame a 4 CPU INTEL Nehalem e 6 GB di RAM per core fisico. Ogni lama “dialoga” verso l’esterno (DC LAN e Storage) mediante 2 interfacce di rete 10GbEth direttamente connesse verso gli switch Ethernet di centro stella. Si noti che sui nodi è possibile eseguire i più diffusi SW di virtualizzazione: ciò permette di impiegare l’infrastruttura di calcolo anche per scopi differenti dal mero calcolo ad alte prestazioni. Bianco Carmela 566/2170 Pagina 39 di102 Nodi di Calcolo Ibridi (Storage Servers) Fisicamente basati su Sistemi quad‐socket, con architettura INTEL Nehalem e 16 HDD da 3TB cadauno, per uno spazio totale disponibile di 48TB. Ogni nodo è dotato di 6GB di RAM per core fisico con un minimo di 128 GB di RAM, e “dialoga” verso l’esterno (DC LAN e Storage) mediante 4 interfacce di rete 10GbEth in connessione pass‐ through verso gli switch Ethernet di centro stella. Si noti che sui nodi è possibile eseguire i più diffusi SW di virtualizzazione: ciò permette di impiegare l’infrastruttura di calcolo anche per scopi differenti dal mero calcolo ad alte prestazioni. Architettura MIC (Many Integrated Core) L'architettura MIC utilizza un alto grado di parallelismo, basso consumo di energia .Il risultato è una maggiore prestazioni su applicazioni altamente parallele. E' il primo chip programmabile a fornire più di un trilione di operazioni in virgola mobile al secondo (1 teraflop) di prestazioni, pur consumando pochissima energia. Questo progetto di ricerca si concentra sull'esplorazione di nuovi ed efficienti modelli Bianco Carmela 566/2170 Pagina 40 di102 per i futuri chip multi-core, così come gli approcci di interconnettere e core-to-core di comunicazione. Il chip implementa la ricerca 80 semplici core, ciascuno contenente due motori programmabili in virgola mobile, il numero più elevato di essere integrato in un singolo chip. In termini di progettazione dei circuiti, sono più complessi rispetto ai motori intero, che solo le istruzioni di processo. La ricerca di Teraflops Chip implementa diverse novità per architetture multi-core: •Rete su un chip - Oltre all'elemento calcolo, ogni nucleo contiene un 5-porta router passaggio di messaggistica. Questi sono collegati in una rete a maglie in 2D che implementano message-passing. Questo sistema di interconnessione in rete potrebbe rivelarsi molto più scalabile rispetto ad oggi multi-core interconnessioni, consentendo una migliore comunicazione tra i core e offre prestazioni del processore. • Gestione dell'alimentazione - I singoli motori di calcolo e router dati in ciascun core può essere attivato o disattivato sulla base delle prestazioni richieste dall'applicazione in esecuzione. Inoltre, il nuovo circuito ha una efficienza energetica a livello mondiale, 1 teraflops richiede solo 62W. Bianco Carmela 566/2170 Pagina 41 di102 4 Architettura tecnologica proposta 4.1 Tecnologia prese in esame Il moderno Data Center ha subito una serie di cambiamenti che hanno notevole impatto sulle operazioni aziendali. Le applicazioni si sono evolute da client-server a SOA Services Oriented Architecture-Based. Un'applicazione è implemantata come una serie di componenti connesse distribuite su più server in esecuzione con distribuzione del carico di lavoro. La virtualizzazione su dei server ottimizza l'utilizzo del server e permette elasticità ed agilità. La dimensione dei dati processati e memorizzati sono in costante crescita. Il traffico su scala dei data center e la volatilità sono in crescita in risposta a questi cambiamenti. L'architettura legacy dei Data Center è stata contrastata significativamente con la rivoluzionaria Juniper Network Data Center, sostituendo una struttura multi-tier con una converged-core. Figura24: Architettura legacy Data Center Bianco Carmela 566/2170 Pagina 42 di102 Figura 25:Architettura QFX3000 L'architettura di rete Juniper QFX offre una struttura di rete semplificata capace di risolvere problemi complessi che potrebbero essere affrontati oggi o in un domani nei Data Center. La QFX3000 implementa nel data center una rete a livello singolo, consentendo miglioramenti esponenziali in termini di velocità, scalabilità ed efficienza, rimuovendo le tradizionali barriere e migliorando l'agilità delle aziende. Questa architettura risponde ai fabbisogni dei grandi, medi e piccoli Data Center. Lo switch Qfabric è un singolo layer di rete di primo livello che collega server e dispositivi di storage l'uno all' altro ad alta velocità. Lo switch Qfabric può essere visto come un unico sistema, estremamente grande, non bloccante, ad alte prestazioni di switching Layer2 e Layer3. Il software in esecuzione sul director del gruppo consente all'amministratore principale dello switch Qfabric di accedere e configurare tutti i dispositivi e la porta nel sistema Qfabric da una singola postazione. Anche se si configura il sistema come un'unica entità, il fabric contiene quattro principali componenti hardware. Bianco Carmela 566/2170 Pagina 43 di102 Figura26: Architettura hardware Switch Qfabric I quattro componenti principali del sistema Qfabric sono seguenti : – Director Group: è una piattaforma di gestione che si occupa del monitoraggio e manutenzione di tutti i componenti del sistema Qfabric. – Node Device: é un dispositivo che si connette agli endpoint (server e storage) o reti esterne, il nodo è collegato al cuore del sistema attraverso il dispositivo Interconnect. – Interconnect Device: è un dispositivo che funge da fabric primario per il data plane tra i dispositivi Node del sistema Qfabric. – Control Plane: è un out band Ethernet dedicato alla gestione che collega tutti i componenti del sistema Qfabric. Bianco Carmela 566/2170 Pagina 44 di102 I vantaggi forniti da questa architettura di nuova generazione sono i seguenti: – Bassa Latenza: Il sistema Qfabric fornisce una base eccellente per applicazioni mission critical come transizioni e stock trades, così come per applicazioni time sensitive quali voce e video. – Scalabilità: Le componenti del sistema avanzato Qfabric possono essere gestite come una singola entità e fornisce il supporto per migliaia di dispositivi del Data Center. Con la crescita esponenziale del traffico dei dati, il sistema Qfabric può tenere il passo alle richieste di larghezza di banda. – Virtualizzazione: Il sistema Qfabric è stato progettato per funzionare con server, applicazioni e altri distribuiti virtuali, consentendo una maggiore scalabilità, espandibilità e rapidità di implementazione dei nuovi servizi rispetto al passato. Il passaggio a dispositivi virtuali comporta anche un significatico risparmio dei costi, accompagnato da una ridotta esigenza di spazio, risparmio energetico ed un aumento significativo della capacità elaborativa. – Semplicità: Anche se il sistema Qfabric può scalare dino a centinaia di dispositivi e migliaia di porte, è ancora possibile gestire il Qfabric come un unico sistema. – Flessibilità: Il sistema Qfabric può essere implementato come un intera sistema o in più fasi. Bianco Carmela 566/2170 Pagina 45 di102 Il fabric di rete offerto dal sistema Qfabric risulta leggero, non bloccante e senza perdita; Grazie alla sua scalabilità e flessibilità può soddisfare le esigenze dei data center di piccole, medie e grandi dimensioni per gli anni a venire. Caratteristiche principali di un switch Qfabric sono: • Supporto per un massimo di 128 nodi e 4 dispositivi di interconnessione, che fornisce un massimo di 6144 porte a 10 GbE. • Bassa latenza port-to-port. • Supporto per un massimo di 384K di code in ingresso per ogni nodo collegato all'interconnect. • Supporto per Converged Enhanced Ethernet(CEE) del traffico. 4.2 Architettura Qfabric Juniper 4.2.1 Node-Juniper QFX3500 In un sistema Qfabric QFX3000, il dispositivo QFX3500 funziona come Node, ed è collegato all'Interconnect QFX3008 attraverso un UpLink a 40Gbps. L'insieme dei dispositivi Interconnect e Node formano un switch fabric multistadio NOBLOCKING che fornisce alte prestazioni e bassa latenza. Il dispostivo Node Juniper QFX3500 è un modulo di interfacciamento dello switch centrale ad alta velocità, qusteo switch multifunzione è progettato per la prossima generazione dei data center. Esso fornisce una capacità totale di commutazione con velocità di 640 Gbps. Il nodo ha quarantotto porte di accesso a 10-Gbps con ricetrasmettitori SFP+ o SFP per connettersi a Server, Storage o rete esterne. Bianco Carmela 566/2170 Pagina 46 di102 Figura 27:Front Node QFX3500 Figura 28:Rear Node QFX3500 I componenti hardware del dispositivo QFX3500 Node sono: • Porte SFP+: Il Node QFX3500 è dotato di 48 porte di accesso da (0 a 47) che supportano ricetrasmettitori SFP+ e SFP. E' possibile utilizzare tutte le 48 porte a 10GbE con cavi SFP+ in rame. Opzionalmente è possibile scegliere di configurare fino a 12 porte (da 0 a 5 e da 42 a 47) con interfacce Fibre Channel a 2Gbps, 4Gbps e 8Gbps e di configurare 36 porte (da 6 a 41) come interfacce Ethernet a 1Gbps. Bianco Carmela 566/2170 Pagina 47 di102 Figura 29: Porte SFP del Node QFX3500 • Porte QSFP+: Il Node QFX3500 è dotato di 48 porte di Uplink a 40Gbps(da Q0 a Q3) che supportano fino a 4 porte QSFP+. Le porte di Uplink sono utilizzate per collegare i dispositivi node ai dispositivi interconnect Figura 30: Porte QSFP del Node QFX3500 • Sistema di raffreddamento: Il sistema di raffreddamento di un Node è costituito da 2 ventole da un sistema supplementare composto da 2 ventole montate sulla management board. Se un modulo di ventilazione del vassoio o quello della msanagement board da esito negativo e non è ingrado di tenere il dispositivo entro la soglia di temperatura desiderata compare un allarme sul dispositivo che avverte del malfunzionamento e bisogna spegnerlo. Bianco Carmela 566/2170 Pagina 48 di102 Figura 31: Ventole del Node QFX3500 Figura 32: Ventole montate sul management Board del Node QFX3500 • Sistema di alimentazione: Il Node è dotato di uno o due alimentatori. Ogni di essi fornisce alimentazione a tutti i componenti del dispositivo: se vengono mantati due alimentatori, essi forniscono alimentazione completa e ridondante. Se manca o viene rimosso un alimentatore, l'altro bilancia il carico elettrico senza interruzioni. Bianco Carmela 566/2170 Pagina 49 di102 Figura 33: Alimentatore del Node QFX3500 4.2.2 Interconnect-Juniper QFX3008 Il dispositivo Interconnect funge da fabric primario per il traffico data plane che attraversa il sistema Qfabric tra i dispositivi Node. Il compito principale dell'Interconnect è quello di trasferire il traffico dati tra i dispositivi Node ad alta velocità. Per ridurre la latenza al minimo, il dispositivo Interconnect implementa un multistadio di commutazione Clos e fornisce un interconnessioni non bloccanti tra qualsiasi dispositivo Node nel sistema. Figura 34: Multistadio di commutazione Clos applicato sull'Interconnect QFX3008 Bianco Carmela 566/2170 Pagina 50 di102 Descrizione delle 3 Fasi Multistadio di commutazione Clos: – Fase F1: Il frame arriva in input da un dispositivo node entra in una porta QSFP+ e il chipsep, posto sulla parte anteriore dell'Interconnect. – Fase F2: Il frame, dopo essere stato elaborato nella fase F1, viene inviato ad un midplane chipset, posto sulla parte posteriore dell'Interconnect. – Fase F3: L'elaborazione del frame passa ad un chipset, posto sulla parte anteriore dell'Interconnect. Ogni fase di Closs ha la propria tabella di commutazione, contenente il percorso migliore per determinare dove inviare il frame per raggiungere la fase successiva. Le fasi F1 e F3 possono essere gestite dallo stesso chipset o da chipset diverso a secondo del miglior percorso selezionato dal fabric. Dopo che il frame attraversa il backplane dell'interconnect, esso lo invia al Node di uscita. Il QFX3008 contiene 8 slot e 4 interfacce a Gigabit Ethernet nella parte anteriore del chassis, in ogni slot è possibile installare una scheda contenente 16 porte a 40Gbps quad (QSFP+). Il sistema completo offre una capacità totale di 128 collegamenti QSFP+. Le porte del front card sono collegate ad alta velocità ad 8 slot sul posteriore del chassis che fornisce una interconnessione robusta dell'intero sistema Qfabric. I dispositivi Interconnect QFX3008 è un sistema completamente ridondante.La configurazione del dispositivo Interconnect è progettato in modo che nessun singolo guasto può provocare il blocco dell'intero dispositivo. Bianco Carmela 566/2170 Pagina 51 di102 Figura 35:Front Interconnect QFX3008 Figura 36: Rear Interconnect QFX3008 Bianco Carmela 566/2170 Pagina 52 di102 I componenti hardware del dispositivo QFX3008 Interconnect sono: • Control Board: L'interconnect da due Control Board. La prima Control Board ha il ruolo di Master, mentre l'altra ha la funzione di Backup. L'Interconnect e collegato alla Control Plane attraverso 4 interfacce SFP+ delle Control Board montate su di esso. Se la Control Board Master fallisce o viene rimosso, la Control Board di Backup prende il posto della Control Master permettendo il corretto funzionamento dell'Interconnect. Le Control Board sono inseribili e rimovibili a caldo, le unità possono essere sostituite anche sul campo. Le Control Board vengono installate sulla parte posterione (rear) dell'Interconnect negli slot etichettati CB0 e CB1. Figura 37: ControlBoard dell'Interconnect QFX3008 • Front Card: L'interconnect può avere fino a 8 Front card. Esse agiscono come uno stadio di commutazione del modello multistadi. Le Card sono inseribili rimovibili a caldo, le unità possono essere sostituite anche sul campo. Bianco Carmela 566/2170 Pagina 53 di102 Le Card vengono installate sulla parte anteriore (front) dell'Interconnect negli slot etichettati da 0 a 7. -Sistema di raffreddamento: Il sistema di raffreddamento di un Interconnect è costituito da 10 vassoi. Ci sono otto allogi laterali per ventole, un vassoio ventole anteriore e un'altro vassoio posteriore. Gli otto vassoi laterali sono identici e intercambiabili. Figura 38: Front Card dell'Interconnect QFX3008 • Rear Card: L'interconnect ha 8 Rear card. sse agiscono come uno stadio di commutazione del modello multistadi. Le Rear card sono collegate alle 16 porte QFSP+ delle Front Card. Quando l'Interconnect è operativo, tutte le otto card sono attive contemporaneamente. Le Card sono inseribili rimovibili a caldo, le unità possono essere sostituite anche sul campo. Le Card vengono installate sulla parte posteriore (rear ) dell'Interconnect negli slot etichettati da 0 a 7. Bianco Carmela 566/2170 Pagina 54 di102 Figura 39: RearCard dell'Interconnect QFX3008 • Sistema di raffreddamento: Il sistema di raffreddamento di un Interconnect è costituito da 10 vassoi. Ci sono otto allogi laterali per ventole, un vassoio ventole anteriore e un'altro vassoio posteriore. Gli otto vassoi laterali sono identici e intercambiabili. • Sistema di alimentazione: Gli alimentatori dell'interconnect sono completamente ridondati e sono inseribili e rimovibili a caldo, le unità possono essere sostituite anche sul campo. L' etichette per gli alimentatori e i vassoi di cablaggio sono fissati sulla parte posteriore dell'Interconnect. Gli slot degli alimentatori sono etichettati da 0 a 5. Figura 40: alimentatore dell'Interconnect QFX3008 Bianco Carmela 566/2170 Pagina 55 di102 4.2.3 Director-Juniper QFX3100 Il Director group è un elemento essenziale del sistema Qfabric, senza di essa non può funzionare correttamente. Il gruppo di Director si occupa del monitoraggio e manutenzione di tutti i componenti del sistema Qfabric. Il director gestisce le seguenti attività: – Gestione della topologia di rete realizzata in l'architettura Qfabric – Gestione comunicazione Interfabric – Configurazione e avvio dei dispositivi Interconnect e Node – Assegnazione di identificativi ai componenti del sistema Qfabric – Bilanciamento del carico dei processi interni al sistema Qfabric – DNS Domain Name System – DHCP Dynamic Host Configuration Protocol – NFS Network File System Il sistema operativo installato sul dispositivo Director è il JunosOS. Ci sono due tipi di dispositivi Director : – Director con disco rigido in grado di fornire servizi di elaborazione completi. – Director senza disco rigido in grado di fornire un supporto ausiliario. Il director group non è altro che una serie di dispositivi director con e senza disco rigidi per raggiungere la potenza elaborativa, quando si aggiungono dispositivi director al group, il group director coordina le loro attività e distribuisce l'elaborazione del carico su tutti i dispositivi director disponibili. Il Juniper Network QFX3100 è il dispositivo proposto alla gestione del QFX3000,le cui dimensioni sono 2U e può essere montato dei rack standard di 19 pollici. Bianco Carmela 566/2170 Pagina 56 di102 Figura 41: Front Director QFX3100 Figura 42: Rear Director QFX3100 • Network Module: Il director QFX3100 supporta due moduli di rete. Ogni modulo di rete contiene 4 porte Gigabit Ethernet con connettori RJ45 o 4 porte SFP. Le porte vengono connessi alla control plane per la gestione di rete. Le porte vengono anche utilizzate per collegare più dispositivi director tra loro in modo da creare i director group. I moduli di rete sono sostituibili sul campo ma non hot-swappable. Figura 43: Modulo di rete del Director QFX3100 Bianco Carmela 566/2170 Pagina 57 di102 • Moduli Hard Disk Drive: Il dispositivo QFX3100 ha 2 moduli di Hard Disk da 2 TB, i moduli forniscono storage per il dispositivo director. I director che partecipano ad un director group operano su array ridondanti di dischi indipendenti (RAID). I moduli HDD sono installati negli slot dei moduli superiori del QFX3100. Tutti i dispositivi director vengono forniti con 2 moduli HDD e sono sostituibili sul campo e hot-swappable. • AC power: Il dispositivo QFX3100 Director ha alimentatori AC ridondanti che forniscono energia per il dispositivo. Le fessure di alimentazione si trovano sul lato destro del pannello posterire del dispositivo QFX3100. Gli alimentatori AC sono sostituibili sul campo e hot-swappable. Figura 44: alimentatore del Director QFX3100 • Moduli Fan: Il dispositivo QFX3100 Director ha 3 moduli di ventole. I moduli di raffreddamento del sistema sono instalati negli slot dei moduli ventola sul pannello posteriore del QFX3100 director. Le ventole sono sostituibili sul campo e hot-swappable Bianco Carmela 566/2170 Pagina 58 di102 Figura 45: Ventole del Director QFX3100 4.2.4 Virtual Chassis Juniper EX4200 (Control Plane) Il Control Plane di rete è un out-of-band Ethernet di gestione della rete, che collega tutti i componenti del sistema Qfabric. Per esempio, è possibile utilizzare un gruppo di switch Ethernet EX4200 configurato come una Chassis Virtuale per attivare il piano di controllo di rete. Il Control Plane si collega al director, al node e all'interconnect, attraverso le porte di management. Ciò permette di mantenere il control plane e il data plane separato. Figura 46:Virtual chassis composta 4 switch EX4200 Bianco Carmela 566/2170 Pagina 59 di102 4.2.5 Cablaggio Strutturato Le varie connesioni per il cablaggio strutturale in una architettura QFabric è la seguente: • Il controller QFX3100 ha due moduli con 4 connettori RJ45 che serviranno per collegare il director alle due virtual chassis di management di rete. Le connessioni sono realizzate con cavi in rame e non possono superare la lunghezza massima di 150m. Figura 47:Collegamento tra dispositivi director e virtual chassis Bianco Carmela 566/2170 Pagina 60 di102 • L'interconnect QFX3008 ha 4 porte di management su ogni Control Board che serviranno per collegare l'interconnect alle due virtual chassis di management di rete. Le connessioni sono realizzate con cavi in rame e non possono superare la lunghezza massima di 150m Figura 48:Collegamento tra Interconnect e virtual chassis • Il nodo QFX3500 ha 2 porte di management con connettori RJ45 su ogni Control Board che serviranno per collegare il nodo alle due virtual chassis di management di rete. Le connessioni sono realizzate con cavi in rame e non possono superare la lunghezza massima di 150m Bianco Carmela 566/2170 Pagina 61 di102 Figura 49:Collegamento tra nodi e virtual chassis • La connessione tra Interconnector QFX3008 e i nodi QFX3500 verrà realizzata con fibre multimodali di tipo 0M4 con connettori QFX-QSFP-40G Figura 50:Collegamento tra interconnect e node Bianco Carmela 566/2170 Pagina 62 di102 Le due virtual Chassis sono composte da 8 switch EX4200, 4 caduno, e sono collegate in stacking, con cavi CX4 e devono essere montati nello stesso rack per mezzo delle limitazioni di lunghezza dei cavi. Figura 51: Virtual chassis composta da 8 switch EX4200 collegati in Stacking Bianco Carmela 566/2170 Pagina 63 di102 5 Riorganizzazione e ammodernamento del Data Center UniNa per le nuove esigenze Dopo aver studiato tutte le moderne innovazioni per vantare di un Data Center ad alte prestazioni destinato a scopi scientifici, il mio lavoro di tesi è stato fornire una possibile soluzione di ammodernamento del Data Center UniNa, attrezzando i rack attualmente vuoti, con apparecchiature all'avanguardia, destinati al progetto superB. Figura 52: Planimetria DataCenter UniNa Bianco Carmela 566/2170 Pagina 64 di102 5.1 Modifiche da apportare all'intera infrastruttura per il corretto funzionamento del Data Center Le modifiche infrastrutturali del Data Center Unina e tutti i servizi ad esso connessi (Power, raffreddamento, opere edilizie ecc.. ) sono descitti nell'Allegato1. 5.2 Possibile infrastruttura di rete da realizzare 5.2.1 Sistema di cablaggio I data center sono caratterizzati da un'elevata concentrazione d'apparati e di conseguenza deve essere prevista un'alta densità di cablaggio. Il nuovo sistema di cablaggio studiato, che dovrà essere fornito per la messa in opera dei rack vuoti, posti all'interno del Data Center Unina, risulta flessibile sia per l'uso di apparati di rete multi-tier che converged-core. Per la realizzazione dei cablaggi per la sala CED si sono studiate numerose tecnologie per soddisfare le particolari necessità che sono diverse da un normale cablaggio di edificio. Alcune tecnologie sono state normate di recente, come ad esempio per le interconnesioni rame: il protocollo 10 Gbps oppure la cat. 6A. altre sono in corso di standardizzazione come la cat.7. La soluzione scelta nel caso specifico è da considerare indicativa e sarà suddivisa in due macro tipologie, ottica e rame. Tale cablaggio rispetta lo standard internazionale TIA-942 “Telecommunication Infrastructure Standard for Data Centers”. Gli armadi da cablare sono tredici, due designati ad essere il centro stella attivo e passivo, i restanti sono dedicati alla apparecchiature di calcolo e storage. Bianco Carmela 566/2170 Pagina 65 di102 L’armadio “C.S. passivo” andrà collegato agli altri 11 armadi, con un numero di cavi in rame e fibra necessario per collegare tutte le macchine di ogni armadio. Lo stesso andrà collegato all’armadio “C.S. attivo” con un numero di cavi in rame e fibra tale da consentire di rendere attive tutte le porte. Quindi la scelta più adatta oggi è quella di utilizzare tutte le porte a 10Gbps al server e per le interconnessioni attendendo le schede a 40 Gbps da integrare nel sistema su un cablaggio a fibra. Ogni macchina sarà dotata di n.4 di interfacce di rete, 2 del tipo 10GbE e 2 del tipo 1GbE, sia con porte in rame che con porte in fibra, per tanto il cablaggio sarà relizzato in porte con cavi in rame secondo lo standard cat.6A e connettori RJ45, ed in porte con cavi in fibra monomodale. Il cablaggio sarà ridondato, separato per la comunicazione dati e per lo storage, cioè 1(+1) linea di interconnessione dei server tra loro, ed il 1(+1) linea di connessione dello storage. Tutto il DataCenter è connesso direttamente, con un fascio di 10 coppie di fibre ottiche monomodali attestate su apposito pannello ottico di permutazione, all'X_POP GARR_X. Ai fini del monitoraggio, un cablaggio distinto e separato connetterà, con una struttura a stella, tutti gli apparati da telecontrollare con degli switch con porte 10/100/1000 Mbps. Tutto il cablaggio sarà aereo, su passerella a vista, sia per la parte in rame che la porte in fibra. Pertanto, ogni rack dovrà consentire il passaggio dei dati dalla parte superiore, senza per questo perdere la capacità di raffreddamento interno. Collegamenti in fibra Per quanto riguarda la componente ottica, per ognuno degli undici rack si è previsto di stendere 4 cavi in fibra a 8 coppie per collegarli al centro stella passivo, per un totale di 32 coppie per ogni armadio. In ognuno degli undici armadi, ci dovrà essere un Bianco Carmela 566/2170 Pagina 66 di102 apposito patch panel ottico 19" min. 32 porte LC/LC 62.5/125μ che servirà per l’attestazione delle 32 coppie di fibre. Figura 53: connettori LC Patch panel I patch panel saranno utilizzati all’interno degli armadi per l’attestazione della fibra di dorsale e del cablaggio ottico orizzontale utilizzando bretelle di permutazione verso gli apparati e/o altre tratte di dorsale. I patch panel dovranno essere a struttura modulare, permettendo di avere la massima flessibilità d’impiego, e saranno dello stesso costruttore di tutto il sistema di cablaggio passivo. Figura54 : Patch panel per l’attestazione della fibra Bianco Carmela 566/2170 Pagina 67 di102 La parte frontale dei patch panel consentirà l’alloggio di singoli pannelli adattatori contenenti bussole di allineamento per fibra ottica e l’alloggio dei moduli ottici preconnettorizzati. Pertanto, su ogni rack dovranno essere predisposti almeno 32 collegamenti in fibra ottica multimodale 62.5/125μm OM4, tipo tight, LSZH, per applicazioni intraedificio, al fine di garantire la disponibilità di collegamenti in fibra verso la SAN delle macchine presenti nel rack. I cavi in fibra permettono di superare gli standard del settore consentendo una trasmissione fino a 100 Gigabit Ethernet su fibra multimodale e fino a 550 metri di distanza. Le fibre OM4 hanno la caratteristica di innalzare a 550 metri il limite delle trasmissioni a 10 Gigabit Ethernet su fibra multimodale.La massima distanza raggiungibile a 100 Gigabit è di 125 mt. OM4 (62,5/125) 100 Mb Ethernet (1000 Mb) fino a 550 metri(SX) 1 Gb (1000 Mb)550 metri(SR) 10 Gb Ethernet >400 metri(SR) 40 Gb Ethernet 125 metri 100 Gb Ethernet 125 metri Inoltre, sul rack N°19(vedi figura n) di centro stella passivo alla concentrazione del cablaggio dovranno essere predisposti collegamenti di uplink in fibra multimodale 62,5/125, 2 cavi ad 8 coppie, verso gli altri centri stella posti all'interno del Data Center . I patch panel, in funzione del tipo di cavo utilizzato, ospiteranno moduli con bussole LC. L’attestazione dei cavi ottici di dorsale deve avvenire su pannelli ottici adatti al montaggio su rack 19” (1U o superiore). Il permutatore utilizzato avrà una struttura componibile che permette la massima flessibilità d’impiego. Bianco Carmela 566/2170 Pagina 68 di102 Il pannello di attestazione per fibra ottica sarà utilizzato all’interno degli armadi per l’attestazione della fibra di dorsale. Le interconnessioni saranno realizzate utilizzando bretelle di permutazione di tipologia omogenea alla fibra installata, collegate agli apparati attivi e/o altre tratte di dorsale e/o postazioni di lavoro. Sulla parte frontale del pannello, in corrispondenza di ogni bussola sarà posizionata una etichetta identificativa della fibra connettorizzata. Le bretelle di raccordo agli apparati attivi dovranno essere del tipo fibra multimodale 62,5/125 dotate ai due estremi di opportuni connettori ceramici, di tipo LC-LC , rispettando nel collegamento agli apparati la polarizzazione delle fibre. La lunghezza della bretella dovrà essere finalizzata in dipendenza delle distanze medie di permutazione, con lunghezza minima 1 metro. Figura55: Bretelle OM4 con connettori LC/LC Ciascuna fibra della bretella, dovrà essere singolarmente protetta con rivestimento di tipo Tight, costituito da filo aramidico e guaina termoplastica ed avrà le stesse caratteristiche ottiche del cavo installato. Bianco Carmela 566/2170 Pagina 69 di102 I permutatori ottici dovranno essere a struttura modulare, permettendo di avere la massima flessibilità d’impiego, e saranno dello stesso costruttore di tutto il sistema di cablaggio passivo. La parte frontale dei permutatori consentirà l’alloggio di singoli pannelli adattatori contenenti bussole di allineamento per fibra ottica e l’alloggio dei moduli ottici preconnettorizzati. I permutatori ottici saranno dotati di una struttura dedicata per la gestione del cablaggio sia interno che delle bretelle esterne, in modo da garantire un’operatività migliore, sia in fase di controllo che di manutenzione delle attestazioni dei cavi ottici. Per la soluzione a giunzione è possibile associare un cassetto dedicato al contenimento dei vassoi porta splice. Sul retro tutti i pannelli saranno corredati di opportuni ancoraggi per il bloccaggio del cavo in fibra ottica. I cavi saranno inoltre fascettati e legati ai montanti del telaio dell’armadio, dal basso verso l’alto fino al raggiungimento dei medesimi. Connessioni in Rame Per quanto riguarda il collegamento in rame dovrà essere adottata la stessa tipologia di cablaggio che dovrà prevedere quindi il collegamento attraverso cavo multicoppia cat.6A in grado di supportare una capacità trasmisiva fino a 10 Gbps su 4 coppie, attestato su entrambi i lati (rack di permutazione centrale e rack di accesso) su patch panel. Figura56: Connettori Rj45 Bianco Carmela 566/2170 Pagina 70 di102 Le prestazioni del canale installato richiesto, dovranno garantire i valori minimi di supporto per la trasmissione dati a 10 Gb/s protocollo Ethernet secondo il nuovo standard IEEE 802.3ba che identifica la modalità di trasmissione del transceiver 10GBASE-T (10 Gb/s in banda base su coppia twistata). I valori minimi richiesti dovranno essere certificati da un ente terza parte riconosciuto internazionalmente ,e sono quelli stabiliti dallo standard TIA T568B.2-10 riconducibili alla così definita in questo standard “Categoria 6A”, canale fisico portante fino alla frequenza di 500 MHz, categoria che viene pertanto richiesta per il cablaggio orizzontale in rame di questo progetto nella modalità UTP, con i seguenti valori: Tutti i componenti testati in Categoria 6A dovranno essere dello stesso produttore di tutto il sistema del cablaggio strutturato, e preferibilmente con un’alta capacità di canale. Caratteristiche dei cavi I cavi richiesti dovranno essere certificati da ente terza parte come componenti conformi alla Categoria 6A UTP. Il cablaggio orizzontale in rame dovrà essere di tipo stellare tra gli armadi di centro stella e gli armadi server, utilizzando cavi UTP a 4 coppie in filo di rame con guaina esterna LSZH, Categoria 6A, adatti per essere installati all’interno di un edificio. Caratteristiche dei pannelli di permutazione con prese RJ45 e delle bretelle di permutazione. I pannelli di permutazione con prese RJ45 e le bretelle di permutazione richieste, dovranno essere certificati da ente terza parte come componenti conformi alla Categoria 6A UTP. Bianco Carmela 566/2170 Pagina 71 di102 Figura57: Patch panel per connettori Rj45 I pannelli di permutazione orizzontale in rame categoria 6A, da 1 unità per montaggio rack 19”con minimo 48 porte con connettori RJ45, dovranno essere utilizzati all’interno degli armadi per l’attestazione di cavi UTP categoria 6A e la relativa permutazione tramite bretelle categoria 6A verso gli apparati. In ogni pannello di permutazione dovranno essere previste prese RJ45 categoria 6A, come sistema rapido di connessione frontale delle bretelle categoria 6A UTP lato apparati, provviste nel lato posteriore di sistema di connessione delle coppie dei cavi UTP categoria 6A con tecnica IDC (Insulation Displacement Contact) di bassa emissione, predisposta per accettare i conduttori del sistema 10G. Caratteristiche strutturali minime dei pannelli di permutazione Posteriormente i pannelli dovranno essere dotati di barra di fissaggio per i cavi collegati, che garantisca il corretto supporto e il rispetto dei raggi di curvatura richiesti dagli standard. Bianco Carmela 566/2170 Pagina 72 di102 Per garantire al massimo la riduzione dei disturbi di diafonia interna ed esterna (aliena), notevolmente presenti nelle frequenze della categoria 6A, le prese RJ45 dovranno essere dotate di sistema di reattanza sincronizzata. Inoltre, le prese RJ45 per salvaguardarsi dai disturbi elettromagnetici dei connettori e prese adiacenti, e per non recare altrettanti disturbi, dovranno avere al loro interno le cosiddette “zone d’isolamento tattico”, composte preferibilmente da barriere metallizzate. Le bretelle di permutazione dovranno essere fornite con lunghezze variabili da 1 a 5 metri scelte in modo adeguato per garantire un’organizzazione ordinata dell’armadio di permutazione . La bretella dovrà essere costituita da un cavo a 4coppie UTP in rame a filamenti 26AWG e rispondente alla Categoria 6A con guaina di protezione ritardante la fiamma. Le bretelle RJ45-RJ45 dovranno essere dotate alle due estremità di connettori a separazione di coppie (tipo paralign 2) RJ45 Categoria 6A per la completa connettorizzazione delle 4 coppie; la tecnologia utilizzata dal costruttore del sistema passivo permetterà l’ottimizzazione dell’attestazione del cavo di patch sul plug, mantenendo separate le coppie fino al punto di attestazione e riducendo al minimo l’effetto della diafonia tra le coppie, così da rispettare, per i componenti in Categoria 6A le specifiche richieste dello standard 10 Gigabit. Per tutte le bretelle di permutazione dovranno essere fornite le certificazioni da enti terza parte di rispondenza alla categoria prodotta dal costruttore, in questo caso secondo TIA 568-B.3-10 per la categoria 6A. I plug della bretella per salvaguardarsi dai disturbi elettromagnetici dei plug e prese adiacenti, e per non recare altrettanti disturbi, dovranno avere al loro interno le cosiddette “zone d’isolamento tattico”, composte preferibilmente da barriere metallizzate. Le bretelle così supereranno i requisiti minimi di conformità TIA per i componenti in Categoria 6A, e l’accoppiamento della bretella con il connettore o la porta del pannello beneficierà di un migliore rapporto segnale/rumore. Plug provvisti di zone d’isolamento “tattico” con barriere metallizzate per migliorare il rapporto segnale/rumore e ridurre i disturbi interni/esterni Bianco Carmela 566/2170 Pagina 73 di102 5.2.2 Apparati di rete In base all'architettura di rete Qfabric QFX3000 di Juniper studiata, si è pensato di fornire una soluzione per attrezzare i 13 Rack attualmente vuoti nel DataCenter UniNa. Figura 58: Planimetria DataCenter UniNa L'architettura Qfabric QFX3000 di Juniper si basa su dispositivi di rete ad alte prestazioni in grado di supportare migliaia di porte all'interno di un Data Center a livello singolo assicurando una latenza ultra ridotta, un'alta elasticità e la semplicità di un singolo switch. Data la limitazione economica imposta, la soluzione proposta potrà essere realizzata in due momenti diversi, in un primo momento si prevede di attrezzare tutti rack con gli apparati di rete, entro il 2016 il DataCenter verrà completato rendendolo più affidabile con l'aggiunta di dispositivi di rete per realizzare la ridondanza tra gli apparati. Bianco Carmela 566/2170 Pagina 74 di102 Figura 59: Schema logico del funzionamento dell'architettura Qfabric applicata ai 13 rack del DataCenter UniNa I rack da attrezzare sono tredici, tre sono i rack di rete ( Rack 18/19/20) mentre i restanti sono dei rack dedicati al calcolo e allo storage (Rack da 13 a 17 e da i Rack 21 a 25). Rack di rete Il Rack 18 è stato designato ad essere il centro stella passivo, mentre i rack 19 e il Rack 20 sono i centri stella attivi. Il centro stella attivo sarà dotato di un Interconnect QFX3008, uno switch centrale con un'unica matrice di switching per tutto il data center e in ogni rack, dedicato al calcolo e allo storage, non vi sarà uno switch locale ma un Node QFX3500, ovvero un modulo remotizzato dello switch centrale. Bianco Carmela 566/2170 Pagina 75 di102 Rack 19 Il Rack 19 inizialmente conterrà: – N°1 Interconnect QFX3008, switch centrale – N°1 Director QFX3100, dispositivo che si occupa del monitoraggio e la manutenzione dei componenti del sistemo Qfabric. Director QFX3100 DGo Interconnect QFX3008 ICo Figura 60: Rack N°19 Centro Stella Attivo senza ridondanza degli apparati di rete In un futuro, quando si avrà la possibilità di ridondare i dispositivi, al Rack 19 verrà aggiunto un'altro dispositivo Director QFX3100 Bianco Carmela 566/2170 Pagina 76 di102 2 Director QFX3100 DG0 e DG1 Interconnect QFX3008 ICo Figura 61: Rack N°19 Centro Stella Attivo con ridondanza degli apparati di rete Rack 20 Il Rack 20 inizialmente conterrà N°4 di switch EX4200 che formano le 2 virtual chassis da 2 switch caduno, per il management di rete, gli switch devo stare nello stesso rack perchè sono collegati in stacking tra loro, con cavi CX-4. VC1 VC0 Figura 62: 2 Virtual Chassis con 4 Switch Bianco Carmela 566/2170 Pagina 77 di102 2 Switch Ex4200 VC0 2 Switch Ex4200 VC1 Figura 63: Rack N°20 Centro Stella Attivo senza ridondanza degli apparati di rete contenente gli apparati per il management di rete In un futuro, quando si avrà la possibilità di ridondare i dispositivi, al Rack 20 verrà aggiunto un Interconnect QFX3008 con la stessa matrice dell'Interconnect IC0 e altri 4 Switch EX4200 Figura 64: 2 Virtual Chassis con 4 Switch Bianco Carmela 566/2170 Pagina 78 di102 4 Switch Ex4200 VC0 4 Switch Ex4200 VC1 Interconnect QFX3008 IC1 Figura 65: Rack N°20 Centro Stella Attivo con ridondanza degli apparati di rete La Rete di management e monitoring dovrà essere in grado di gestire l’intera rete, ad essa dovranno essere collegati tutti i rack e gli apparati per il controllo accessi per la relativa gestione. I dispositivi Interconnect e Director si dovranno collegare alle due virtual chassis tramite connessioni in rame (Rj45) ad una velocità di 10 Gb/s. Bianco Carmela 566/2170 Pagina 79 di102 Connessioni realizzabili con gli apparati di rete del centro stella senza la ridondanza degli apparati. DC0 VC1 VC0 Figura 66: Connessioni tra il Director DG0 e la 2 Virtual Chassis (VC0 e VC1) IC0 VC0 VC1 Figura 67: Connessioni tra il Interconnect IC0 e la 2 Virtual Chassis(VC0 e VC1) Bianco Carmela 566/2170 Pagina 80 di102 Connessioni realizzabili con gli apparati di rete del centro stella con la ridondanza degli apparati. Figura 68: Connessioni tra il Group Director (DG0 e DG1) e la 2 Virtual Chassis(VC0 e VC1) Figura 69: Connessioni tra gli Interconnect (IC0 e IC1) e la 2 Virtual Chassis(VC0 e VC1) Bianco Carmela 566/2170 Pagina 81 di102 Planimetria del Data Center Unina che mette in evidenza i centri stella e la loro composizione (sviluppo entro il 2013) Bianco Carmela 566/2170 Pagina 82 di102 Planimetria del Data Center Unina che mette in evidenza i centri stella e la loro composizione (sviluppo entro il 2016) Bianco Carmela 566/2170 Pagina 83 di102 Rack di Calcolo e Storage: I rack dedicati al calcolo e allo storage si possono dividere in 3 tipologie: – Rack contenente solo apparati di Storage – Rack contenente solo apparati di Calcolo – Rack ibridi contenente sia apparati di Storage che di Calcolo Ogni rack inizialmente sarà attrezzato con: – N°1 Node QFX3500, apparato remotizzato dello switch centrale Interconnect QFX3008, con un numero adeguato di porte in grado di ridondare i collegamenti verso i server e lo storage montati nei rack . – N°1 switch a 48 porte per il management degli apparati di calcolo e di storage Node QFX3008 Switch Management Figura 70: Apparati di rete montati sui Rack di calcolo e storage Bianco Carmela 566/2170 Pagina 84 di102 Su i rack server possono essere montate un massimo di N°24 Server,ogni macchina sarà dotata di n.4 di interfacce di rete, 2 di tipo 10GbE e 2 di tipo 1 GbE , sia con porte in rame che con porte in fibra. Figura 71: Connessioni logiche tra server e apparati di rete dove è prevista solo la ridondanza delle connessioni Bianco Carmela 566/2170 Pagina 85 di102 I collegamenti tra il Node QFX3500 e i server possono essere : – Massimo 48 collegamenti in rame con cavi DAC a 10GbE – Massimo 12 Connessioni FC – Massimo 36 connessioni a 1GbE In un futuro, quando si avrà la possibilità di ridondare i dispositivi, ai Rack di calcolo e di storage verrà aggiunto un ulteriore Node QFX3500 2 Node QFX3008 Switch di management Figura 72: Apparati di rete ridondati montati sui Rack di calcolo e storage Bianco Carmela 566/2170 Pagina 86 di102 Figura 73: Connessioni logiche tra server e apparati di rete dove è prevista la ridondanza delle connessioni e degli apparati di rete Bianco Carmela 566/2170 Pagina 87 di102 Planimetria del Data Center Unina che mette in evidenza i Rack di calcolo e storage con la loro composizione (sviluppo entro il 2013) Bianco Carmela 566/2170 Pagina 88 di102 Planimetria del Data Center Unina che mette in evidenza rack di calcolo e storage con la loro composizione (sviluppo entro il 2016) Bianco Carmela 566/2170 Pagina 89 di102 Entro il 2013 i componenti di rete montati nella parte del Data Center UniNa da attrezzare saranno: – N°1 Interconnect QFX3008 (IC0) – N°1 Director QFX3100 (DG0) – N°4 Switch EX4200 a 48 porte (VC0 e VC1) – N°12 Node QFX3500 – N°12 Switch Management a 48 porte Entro il 2016 i componenti di rete montati nella parte del Data Center UniNa da attrezzare saranno: – N°2 Interconnect QFX3008 (IC0 e IC1) – N°2 Director QFX3100 (DG0 e DG1) – N°8 Switch EX4200 a 48 porte (VC0 e VC1) – N°24 Node QFX3500 – N°12 Switch Management a 48 porte Bianco Carmela 566/2170 Pagina 90 di102 6 Conclusioni Il mio lavoro di tesi è stato nel progettare una nuova rete ad Alte prestazioni presso il DataCenter UniNa nell'ambito del progetto Re.Ca.S.(Rete di Calcolo per SuperB). Più precisamente, lo scopo della tesi è definire una possibile riorganizzazione ed ammodernamento del DataCenter per le nuove esigenze descritte dal PONa3_00052, con tecnologie all'avanguardia. Questo lavoro di tesi mi ha permesso di lavorare in un gruppo di lavoro composto da e confrontarmi con diverse figure professionali. La mia conoscenza sugli apparati di rete e le infrastrutture dei DataCenter è stata ampliata grazie ad un contatto diretto con i fornitori, grazie ad essi sono riuscita a trovare la soluzione più adatta e competitiva per l'ammodernamento e l'ampliamento del DataCenter Unina con apparati di rete, calcolo e storage all'avanguardia . Bianco Carmela 566/2170 Pagina 91 di102 Allegato1 CAPITOLATO TECNICO IMPIANTISTICA DATA CENTER UNINA 1. OGGETTO DELL’APPALTO Oggetto dell’appalto è la realizzazione, adeguamento e ristrutturazione di impianti tecnologici a servizio del Data Center della sede di Napoli Università Federico II, nell’ambito del progetto ReCaS. Nel dettaglio, l’appalto prevede: A. Fornitura in opera di un ampliamento del sistema di alimentazione B. Quadro elettrico a servizio dei rack C. Sistema di distribuzione potenza elettrica Rack D. Sistema di raffreddamento E. Fornitura in opera di un cablaggio in rame e fibra 2. DETTAGLIO DELLA FORNITURA Nel seguito vengono descritte le specifiche generali della fornitura; sarà compito dei concorrenti proporre, nel progetto, tutte le soluzioni tecniche necessarie alla realizzazione del sistema nel suo complesso, cioè rendere l’intero CED funzionante in cui l’Ente installerà apparecchiature di calcolo ed informatiche nei restanti rack vuoti. Il progetto dei concorrenti dovrà essere a livello di “progetto definitivo”, e dovrà Bianco Carmela 566/2170 Pagina 92 di102 essere esaustivo della parte elettrica, idraulica, di cablaggio, oltre che degli armadi rack e di tutte le forniture minori di cui più avanti. Il progetto dei concorrenti dovrà essere conforme alle norme tecniche CEI ed UNI. A. Fornitura in opera di un ampliamento del sistema di alimentazione Il sistema di alimentazione del Data Center parte dalla cabina elettrica dedicata da 1 MWatt posta e un gruppo elettrogeno, dal quale proviene l'alimentazione in caso di mancanza di energia a quest'ultima attraverso un apposito serbatoio avente capacità pari a 6000 litri. La cabina è in grado di fornire energia a sufficienza per alimentare due UPS da 400 Kw (Gruppi di continuità) chiamati “UPS A” e “UPS B”, il cui compito è quello di ripartire il carico di corrente. Bianco Carmela 566/2170 Pagina 93 di102 Si prevede il potenziamento del sistema di alimentazione presente, con n.1 UPS da 400 KVA, e n.1 trasformatore da 1 MW, e realizzazione di un sistema di telecontrollo della parte impiantistica (cabina elettrica, gruppo elettrogeno, gruppo di continuità), ammodernandone la parte elettronica. Per l’inserimento del nuovo UPS si dovranno prevede dei lavori edili per ampliare l’attuale cabina elettrica. B. Quadro elettrico a servizio dei rack I quadri elettrici hanno il compito di distribuire ai vari livelli dove sono installati l'energia elettrica proveniente dalla linea principale di adduzione. Sono supporti o carpenterie che servono a racchiudere le apparecchiature elettriche di comando e/o a preservare i circuiti elettrici. La soluzione attuale consiste in un (1) n.1 quadro elettrico identificato in seguito come "Q.SM.UPS- A/B" per l'alimentazione dei quadri di distribuzione elettrica dei rack "Q.PDR" e delle utenze di servizio, centrale antincendio, centrale Bianco Carmela 566/2170 Pagina 94 di102 video sorveglianza, terminali controllo accessi ecc.); e di (2) n.1 quadro elettrico identificato come "Q.CDZ", per l'alimentazione delle utenze al servizio del sistema di raffreddamento. C. Sistema di distribuzione potenza elettrica Rack Il sistema di distribuzione di potenza elettrica del data center è basato sul sistema Power Modular Concept di Rittal crea le condizioni di base per preservare l'efficienza di tutti i processi aziendali attraverso il monitoraggio dei parametri di massima sicurezza dell'infrastruttura fisica IT, ma soprattutto l'alta scalabilità ed implementazione a caldo della distribuzione della corrente agli armadi Server. Nel Data Center sono installati sei armadi PDR (Power Distribution Rack),numerati da 1 a 6, atti alla subdistribuzione di corrente agli armadi Server in modalità plug&play . L'armadio PDR (Power Distribution Rack riceverà l'alimentazione dal quadro generale, attraverso i 4 moduli PDM (Power Distribution Modul) con cavi preconnettorizzati con spine normate che vanno ad alimentare le 2 barre di alimentazione modulari PSM (Power System Modul) per ogni rack su cui si attestano i vari moduli di alimentazione. Bianco Carmela 566/2170 Pagina 95 di102 Ampliare l’attuale sistema di distribuzione di potenza ai rack aggiungendo all’interno dei PDR i moduli di distribuzione PSM che dovranno alimentare i Rack centrali del Data Center (dal Rack 13 al 25). Aggiungere prese intelligenti ai rack attualmente inutilizzati, in ogni armadio dovranno essere montate, sul retro, due verticali di prese elettriche (PSM) da rack, minimo 48 prese per armadio (24 a destra e 24 a sinistra). Le PSM dovranno essere dotate di interfaccia RJ45 per il telecontrollo. D. Fornitura in opera di un sistema di raffreddamento Il raffreddamento dei rack avviene grazie a delle colonne LCP (Liquid Cooling Package) che sono interposte tra due armadi che risultano raffreddati entrambi dallo stesso apparato LCP garantendo il flusso dell'aria circoscritta ai singoli rack in modo front to back. Gli LCP sono basati su moduli scambiatori di calore in quanto l’interscambio aria-acqua Bianco Carmela 566/2170 Pagina 96 di102 ha un potere di dissipazione 4 volte superiore alla sola aria. Ciascuna colonna LCP ha la caratteristica peculiare di poter accettare sino a tre moduli di raffreddamento in modalità PLUG&PLAY hot swappable, questo garantisce una elevata/o : - disponibilità di raffreddamento, in caso di presenza di eventuali HOT SPOT i moduli leggeranno i picchi improvvisi richiedendo maggior acqua per il raffreddamento spingendo contemporaneamente ed in modo automatico i ventilatori per ripristinare in pochissimi secondi l’equilibrio termico . - risparmio energetico in quanto svincolati dalle temperature ambiente si va a raffreddare solo l’aria interna circoscritta ad ogni singolo rack . - affidabilità attraverso la modularità ed espandibilità futura a caldo PLUG&PLAY, in quanto in caso di failure di un modulo i rimanenti si autoregolano per garantire l’equilibrio termico richiesto. - espandibilità dell’impianto, in quanto sarà possibile aumentare l’alta densità e capacità di calcolo negli armadi aggiungendo colonne di raffreddamento ulteriori grazie alla particolarità predisposta dell’impianto idrico . - facile manutenibilità a caldo HOT SWAPPABLE anche per personale non specializzato ma adeguatamente istruito con il beneficio di un abbattimento dei costi di gestione. Le colonne LCP sono alimentate da una centrale frigorifera composta da: n. 02 Gruppi frigoriferi “ridondanti” della potenza di 660 kW cadauno n. 01 Serbatoio inerziale da 5000 lt n 01 Gruppo di pompaggio ridondante Per il completamento del Data Center bisognerà munire di unità di raffreddamento (scambiatori acqua-aria) i rack già presenti nel Data Center, ancora inutilizzati, già dotati di uno scambiatore e portandoli a tre scambiatori per rack, per un totale di 24 LCP Bianco Carmela 566/2170 Pagina 97 di102 E. Fornitura in opera di un cablaggio in rame e fibra La scelta delle componenti di un sistema di interconnessione in un sistema complesso richiede un’attenta analisi delle possibili soluzioni. La soluzione da adottare nel caso specifico è da considerare indicativa e sarà suddivisa in due macro tipologie, ottica e rame. Armonizzando entrambe le tipologie si richiede per l’intero cablaggio il rispetto del nuovo standard internazionale EIA/TIA-942 “Telecommunication Infrastructure Standard for Data Centers”. Nell’ambito del presente appalto, uno dei tredici armadi (qui denominato “C.S. passivo”) sarà utilizzato quale centro stella per il cablaggio strutturato, in rame (UTP) e fibra ottica (multimodale, 62.5/125 ), secondo lo standard EIA/TIA 942. Un secondo dei tredici armadi (qui denominato “C.S. attivo”) sarà utilizzato quale centro stella degli apparati attivi progetto. L’armadio “C.S. passivo” andrà collegato agli altri 11 armadi, con un numero di cavi in rame e fibra necessario per collegare tutte le macchine di ogni armadio. Lo stesso andrà collegato all’armadio “C.S. attivo” con un numero di cavi in rame e fibra tale da consentire di rendere attive tutte le porte. Per ognuno degli altri undici armadi rack, andranno stesi n. 4 cavi in fibra a 8 coppie, per un totale di 32 coppie per ogni armadio. In ognuno degli undici armadi, un apposito patch panel ottico 19" min. 32 porte LC/LC 62.5/125μ che servirà per l’attestazione delle 32 coppie di fibre. I permutatori ottici saranno utilizzati all’interno degli armadi per l’attestazione della fibra di dorsale e del cablaggio ottico orizzontale utilizzando bretelle di permutazione verso gli apparati e/o altre tratte di dorsale. I permutatori ottici dovranno essere a struttura modulare, permettendo di avere la massima flessibilità d’impiego, e saranno dello stesso costruttore di tutto il sistema di cablaggio passivo. Bianco Carmela 566/2170 Pagina 98 di102 La parte frontale dei permutatori consentirà l’alloggio di singoli pannelli adattatori contenenti bussole di allineamento per fibra ottica e l’alloggio dei moduli ottici pre-connettorizzati. I permutatori ottici saranno dotati di una struttura dedicata per la gestione del cablaggio sia interno che delle bretelle esterne, in modo da garantire un’operatività migliore, sia in fase di controllo che di manutenzione delle attestazioni dei cavi ottici. Per la soluzione a giunzione è possibile associare un cassetto dedicato al contenimento dei vassoi porta splice. Sul retro tutti i pannelli saranno corredati di opportuni ancoraggi per il bloccaggio del cavo in fibra ottica. I cavi saranno inoltre fascettati e legati ai montanti del telaio dell’armadio, dal basso verso l’alto fino al raggiungimento dei medesimi. I pannelli adattatori con le bussole ottiche avranno una modularità con connettori LC su ogni modulo con la possibilità di inserimento ed estrazione frontale a clip; inoltre tutto il cassetto ottico sarà estraibile dando la possibilità di accedere frontalmente alla parte interna. Nell’armadio “C.S. passivo”, le attestazioni saranno quindi 352 coppie, pari a 32 coppie per 11. Dall’armadio “ C.S. passivo” verranno stesi altri due cavi in fibra a 8 coppie che collegheranno i due centri stella presenti nel Data Center Unina. Le attestazioni per queste ulteriori connessioni si aggiungono a quelle sopra riportate, sia nell’armadio “C.S. passivo” che negli altri armadi centro stella del CED. Per ciascuno degli undici armadi rack andranno stesi n. 48 cavo in rame UTP cat.6A ed un apposito patch panel 19” RJ45 (connettori femmina) servirà per l’attestazione delle 48 terminazioni. I patch panel con prese Bianco Carmela 566/2170 Pagina 99 di102 RJ45 e le bretelle di permutazione richieste, dovranno essere certificati da ente terza parte come componenti conformi alla Categoria 6A UTP. I patch panel orizzontale in rame categoria 6A, da 1 unità per montaggio rack 19”, dovranno essere utilizzati all’interno degli armadi per l’attestazione di cavi UTP categoria 6A e la relativa permutazione tramite bretelle categoria 6A verso gli apparati. In ogni pannello di permutazione dovranno essere previste prese RJ45 categoria 6A, come sistema rapido di connessione frontale delle bretelle categoria 6A UTP lato apparati, provviste nel lato posteriore di sistema di connessione delle coppie dei cavi UTP categoria 6A con tecnica IDC (Insulation Displacement Contact) di bassa emissione, predisposta per accettare i conduttori del sistema 10G. Posteriormente i pannelli dovranno essere dotati di barra di fissaggio per i cavi collegati, che garantisca il corretto supporto e il rispetto dei raggi di curvatura richiesti dagli standard. Per garantire al massimo la riduzione dei disturbi di diafonia interna ed esterna (aliena), notevolmente presenti nelle frequenze della categoria 6A, le prese RJ45 dovranno essere dotate di sistema di reattanza sincronizzata. Inoltre, le prese RJ45 per salvaguardarsi dai disturbi elettromagnetici dei connettori e prese adiacenti, e per non recare altrettanti disturbi, dovranno avere al loro interno le cosiddette “zone d’isolamento tattico”, composte preferibilmente da barriere metallizzate. Le bretelle di permutazione dovranno essere fornite con lunghezze variabili da 1 a 5 metri scelte in modo adeguato per garantire un’organizzazione ordinata dell’armadio di permutazione . La bretella dovrà essere costituita da un cavo a 4coppie UTP in rame a filamenti 26-AWG e rispondente alla Categoria 6A con guaina di protezione ritardante la fiamma. Le bretelle RJ45-RJ45 dovranno essere dotate alle due estremità di connettori a separazione di coppie (tipo paralign 2) RJ45 Categoria 6A per la completa connettorizzazione delle 4 coppie; la tecnologia utilizzata dal costruttore del Bianco Carmela 566/2170 sistema passivo permetterà l’ottimizzazione Pagina 100 di102 dell’attestazione del cavo di patch sul plug, mantenendo separate le coppie fino al punto di attestazione e riducendo al minimo l’effetto della diafonia tra le coppie, così da rispettare, per i componenti in Categoria 6A le specifiche richieste dello standard 10 Gigabit. Per tutte le bretelle di permutazione dovranno essere fornite le certificazioni da enti terza parte di rispondenza alla categoria prodotta dal costruttore, in questo caso secondo EIA/TIA942 per la categoria 6A. I plug della bretella per salvaguardarsi dai disturbi elettromagnetici dei plug e prese adiacenti, e per non recare altrettanti disturbi, dovranno avere al loro interno le cosiddette “zone d’isolamento tattico”, composte preferibilmente da barriere metallizzate. Le bretelle così supereranno i requisiti minimi di conformità TIA per i componenti in Categoria 6A, e l’accoppiamento della bretella con il connettore o la porta del pannello beneficerà di un migliore rapporto segnale/rumore. Nell’armadio “C.S. passivo” le attestazioni in rame saranno quindi 528, pari a 48x11, tutte RJ45 femmina. Per quanto riguarda il collegamento tra l’armadio “C.S. passivo” e quello “C.S. attivo”, saranno necessari 352 connessioni in fibra e 528 connessioni in rame. Per le connessioni in rame, le attestazioni in entrambi gli armadi saranno del tipo RJ45 femmina, e dovranno quindi essere fornite le 528 bretelle maschio-maschio per connettere, nell’armadio “C.S. passivo”, le attestazioni provenienti dagli undici rack a quelle provenienti dall’armadio “C.S. attivo”. Analogamente per le connessioni in fibra dovranno essere fornite 352 Bretelle ottiche multimodale 62,5/125 con connettori LC da entrambe le parti. Tale configurazione consentirà successivamente sia di realizzare una infrastrutture “converged core”, con ogni server connesso direttamente ad un solo grande switch nell’armadio “C.S. attivo”, sia di realizzare una architettura distribuita, con switch di distribuzione in ognuno degli armadi, e switch di concentrazione nell’armadio “C.S. attivo”. Bianco Carmela 566/2170 Pagina 101 di102 Tutti i cavi saranno opportunamente etichettati a monte e a valle 3. PLANIMETRIE DEI LOCALI Il locale in cui andranno installate le apparecchiature, è qui sotto rappresentato: Nella piantina in figura viene mostrata l’attuale struttura del data center della Federico II dove i rettangoli rappresentano i rack attualmente installati. Quelli indicati con SCOPE e ATLAS sono completi mentre gli altri sono da attrezzare. Bianco Carmela 566/2170 Pagina 102 di102