Datacenter-1 - Università degli Studi di Napoli Federico II

Transcript

Datacenter-1 - Università degli Studi di Napoli Federico II
Cloud e Datacenter Networking
Università degli Studi di Napoli Federico II
Dipartimento di Ingegneria Elettrica e delle Tecnologie dell’Informazione DIETI
Laurea Magistrale in Ingegneria Informatica
Prof. Roberto Canonico
Datacenter: architettura ed organizzazione
V1.0 – Febbraio 2016 – © Roberto Canonico
Lesson outline
Datacenter: functional organization
I° Quadrimestre
Datacenter: IT infrastructure and
other plants
Server racks organization
The TIA-942 standard
Cabling
Datacenter cooling plant and CRAC units
UPS plant
Datacenter energy efficiency and PUE
Datacenter tiers
Modular datacenters
Some datacenter examples
Corso di Cloud e Datacenter Networking – Prof. Roberto Canonico
2
Datacenter: finalità ed organizzazione
Un datacenter è una struttura realizzata allo scopo di ospitare un sistema
informatico di grandi dimensioni ed i componenti ausiliari ad essi associati,
quali i sistemi di telecomunicazione, alimentazione, condizionamento, ecc.
Un datacenter (DC) comprende:
Dispositivi IT: server, apparati di rete, dispositivi di memorizzazione dati (storage)
Un sistema di cablaggio
Sistemi di alimentazione di emergenza
Un sistema di condizionamento - Computer Room Air Conditioning (CRAC)
e talora sistemi di raffreddamento (cooling) specifici per i server
Un’infrastruttura per la gestione della sicurezza fisica:
controllo accessi, impianti anti-incendio, ecc.
Una sala per la gestione operativa (Network Operations Center, NOC)
Si stima che il 10% dei consumi mondiali di energia sia dovuto ai DC ed alle
strutture ad essi collegate
Corso di Cloud e Datacenter Networking – Prof. Roberto Canonico
3
Datacenter: IT infrastructure and auxiliary plants
Power system
(Emergency generator + UPS)
Rack
(Server+Network+Storage)
Cooling and
Conditioning
Corso di Cloud e Datacenter Networking – Prof. Roberto Canonico
4
Datacenter: rack e cabinets
Il cabinet è l’armadio che ospita lo scaffale
(rack) nel quale sono installati i server e gli
altri dispositivi IT (switch, storage, ecc. …)
Le dimensioni di rack e cabinet sono
specificate dallo standard EIA 310D
Lo spazio verticale all’interno di un cabinet è
espresso in modular units (U), anche dette
rack units (RU)
Altezze tipiche: 24U/25U e 42U
1 rack unit = 1.75 inches = 4.45 cm
Corso di Cloud e Datacenter Networking – Prof. Roberto Canonico
5
Datacenter: dimensioni di rack e cabinet
Il cabinet comprende la scaffalatura interna (rack)
e le pareti esterne
Rack: larghezze standard
19 pollici (48.26 cm) → più diffuso
23 pollici (58.42 cm)
24 pollici (60.96 cm)
30 pollici (76.2 cm)
Cabinet: profondità
34 pollici (86.36 cm)
per server di profondità fino a 28 pollici (71.12 cm)
39 pollici (99.06 cm)
per server di profondità fino a 33 pollici (83.82 cm)
Corso di Cloud e Datacenter Networking – Prof. Roberto Canonico
6
Datacenter: rack
Rack da 25U: vista fronte-retro
Corso di Cloud e Datacenter Networking – Prof. Roberto Canonico
7
Server da rack: motivazioni
L’uso di server da rack, rispetto al formato tower, porta in un DC ovvi vantaggi:
Gestibilità: i rack consentono di gestire più facilmente i server e le altre
apparecchiature IT grazie alla prossimità e modularità e gestione dei cavi fornite
dai rack
Consolidamento: i rack consentono di ridurre al minimo l'ingombro, aumentando
al tempo stesso la densità (problema per il condizionamento)
Sicurezza: l’organizzazione in rack consente livelli superiori di sicurezza fisica, ad
esempio porte con un sistema di chiusura e pannelli laterali di acciaio,
consentono una maggiore protezione dei sistemi da manomissioni ed accessi
non autorizzati
Espandibilità: i rack consentono ai clienti una maggiore facilità di espansione
Modularità: i rack sono conformi a standard industriali che facilitano la
realizzazione del cablaggio e la possibilità di integrare apparati di fornitori diversi
Corso di Cloud e Datacenter Networking – Prof. Roberto Canonico
8
Esempi di configurazioni di server da rack
Caratteristiche
IBM System x3650 M4 7915
HP ProLiant DL380 Gen9
E5-2650v3
DELL PowerEdge R630
CPU
Intel Xeon E5-2680
2,70GHz (64-bit)
Intel Xeon E5-2650 v3
2,30 GHz (64-bit)
Intel Xeon E5-2640 v3
2,60 GHz (64-bit)
Numero di core
8
10
8
Numero di CPU
1 / max 2
2 / max 2
1 / max 2
RAM slot
24 DDR3 SDRAM
24 DDR4 SDRAM
24 DDR4 SDRAM
RAM montata
8 GB
32 GB
16 GB
RAM massima
24*4=96 GB UDIMM o
24*32=768 GB LRDIMM
24*16=384 GB RDIMM o
24*32=768 GB LRDIMM
24*16=384 GB RDIMM o
24*32=768 GB LRDIMM
Storage controller
Serial Attached SCSI (SAS)
Serial Attached SCSI (SAS)
Serial Attached SCSI (SAS)
Memorie di massa
6 slot da 3,5” SATA o
8/16 slot da 2,5” SAS
(no HDD nella config. base)
8 slot 2,5” (SFF)
8 slot 2,5” (SFF)
Schede di rete
4x1Gb Ethernet Intel I350AM4
4x1Gb HP Embedded +
2x10Gb-T Flexible LOM
4x1Gb Ethernet Broadcom 5720
Schede di controllo remoto
Integrated Management IMM2
HP iLO
Intelligent Platform Management
Interface (IPMI)
Dimensione
2U
2U
1U
Corso di Cloud e Datacenter Networking – Prof. Roberto Canonico
9
Rack: switch KVM
Per l’accesso diretto ai server, un rack può ospitare una console KVM
(keyboard, video, mouse) collegata agli ingressi di I/O dei server (VGA per il
video ed USB o PS2 per tastiera e mouse) attraverso uno switch KVM
Lo switch KVM consente di commutare il controllo su uno qualsiasi dei server
del rack
Nei datacenter moderni, al controllo da console si preferisce il controllo
remoto tramite interfaccia di gestione (iLO, IPMI, ecc.) che consente l’accesso
remoto alla console ed il controllo completo del sistema di alimentazione
Corso di Cloud e Datacenter Networking – Prof. Roberto Canonico
10
Datacenter: pavimentazione e canaline per il cablaggio
Overhead
Cable Tray
Floor Tile
Perforated
Floor Tile
Corso di Cloud e Datacenter Networking – Prof. Roberto Canonico
11
Datacenter standard: TIA-942
Telecommunications Infrastructure Standard for Data Centers
Approvato ad aprile 2005 da ANSI ed EIA
Definisce i requisiti e le regole fondamentali per il progetto e la realizzazione di data
centers e server room
Fornisce delle linee guida per la organizzazione delle cosiddette work areas
Entrance Room (ER)
Operations Center (OC), Offices and Support Rooms
Telecommunications Room (TR)
Computer Room (CR)
Main Distribution Area (MDA)
→ Main Cross-connect (MC)
Horizontal Distribution Area (HDA)
→ Horizontal Cross-connect (HC)
Zone Distribution Area (ZDA)
→ Zone Outlet (ZO) or Consolidation Point (CP)
Equipment Distribution Area (EDA)
→ Equipment cabinets and racks
Corso di Cloud e Datacenter Networking – Prof. Roberto Canonico
12
TIA-942: basic datacenter organization
Corso di Cloud e Datacenter Networking – Prof. Roberto Canonico
13
TIA-942: reduced datacenter organization
In small scale datacenters:
Main Cross-connect and Horizontal Cross-connect can be consolidated in a single
Main Distribution Area, possibly as small as a single cabinet or rack
Telecommunications Room for cabling to the Support Areas and the Entrance Room
may also be consolidated into the Main Distribution Area
Corso di Cloud e Datacenter Networking – Prof. Roberto Canonico
14
TIA-942: large datacenter organization
Multiple Entrance Rooms
All other parts are replicated for redundancy
Corso di Cloud e Datacenter Networking – Prof. Roberto Canonico
15
TIA-942: tipologie di cavi previsti dallo standard
Cavo UTP da 100 Ω (ANSI/TIA/EIA-568-B.2)
UTP Categoria 6 (ANSI/TIA/EIA-568-B.2-1)
Fibra ottica multimodale (ANSI/TIA/EIA-568-B.3) da 62.5/125 µm o 50/125 µm
Fibra ottica multimodale da 50/125 µm ottimizzata per laser da 850 nm
(ANSI/TIA-568-B.3-1)
Fibra ottica monomodale (ANSI/TIA/EIA-568-B.3)
Cavo coassiale da 75-ohm
Telcordia Technologies GR-139-CORE
Corso di Cloud e Datacenter Networking – Prof. Roberto Canonico
16
TIA-942: Horizontal cabling
Horizontal cabling is the cabling from the Horizontal Crossconnect (HC)
in the Main Distribution Area (MDA) or Horizontal Distribution Area (HDA) to the
outlet in the Equipment Distribution Area (EDA) or Zone Distribution Area (ZDA)
Backbone cabling includes cabling from MDA to ER and HDA
Corso di Cloud e Datacenter Networking – Prof. Roberto Canonico
17
Horizontal cabling: max length
The maximum horizontal distance is 90 m independent of media type
The maximum channel distance including equipment cords is 100 m
The maximum cabling distance in a data center not containing a horizontal
distribution area is:
300 m for an optical fiber channel including equipment cords
100 m for copper cabling including equipment cords
Corso di Cloud e Datacenter Networking – Prof. Roberto Canonico
18
Datacenter: rack cabling
Corso di Cloud e Datacenter Networking – Prof. Roberto Canonico
19
Cabling: patch panels
I collegamenti tra le varie aree del datacenter sono attestati in maniera fissa su appositi
pannelli di permutazione (patch panel) sia nel caso di collegamenti in rame (UTP) che in fibra
ottica
Il collegamento tra i patch panel e le porte degli apparati attivi (e.g. switch) è effettuato
mediante cavi connettorizzati ad entrambi i lati (patch cords)
Le modalità di collegamento dei cavi ai patch cord dipendono dalla marca del patch panel
Nelle configurazioni con Top-of-Rack switch, i server sono spesso collegati allo switch ToR
direttamente, senza un patch panel
Patch panel per cavi UTP: vista anteriore
Patch panel per cavi UTP: vista posteriore
Corso di Cloud e Datacenter Networking – Prof. Roberto Canonico
20
Datacenter: raised floor
A raised floor consists of a gridded metal framework or substructure
of adjustable-height supports (called "pedestals") that provide support
for removable (liftable) floor panels (tiles),
which are usually 2×2 feet or 60×60 cm in size
A void space is created below the floor for establishing pathways for
piping, wires, cable, as well as to uniformly distribute conditioned air
Many types of commercially available floors exist that offer a wide range
of structural strength and loading capabilities
Stringerless raised floors
Consists of an array of pedestals that provide the necessary height for routing cables
and also serve to support each corner of the floor panels
No mechanical attachments between the pedestal heads
"Under Floor Cable Runs Tee" by Robert.Harker
Pros: Maximum accessibility to the space under the floor
Cons: significantly weaker than stringered raised floors
Stringered raised floors
Consists of a vertical array of steel pedestal assemblies uniformly spaced
on two-foot centers and mechanically fastened to the concrete floor
Structural platforms
Consists of members constructed of steel angles or channels that are welded
or bolted together to form an integrated platform for supporting equipment
Structural platforms may or may not contain panels or stringers
Pros: permits equipment to be fastened directly to the platform
Corso di Cloud e Datacenter Networking – Prof. Roberto Canonico
21
Datacenter: racks layout
• Racks form rows separated by aisles
• Typical hot-and-cold aisle layout:
• Servers in adjacent rows face-to-face
• Air conditioning systems, positioned
around the perimeter of the room
or at the end of hot-aisles, push
cold air under the raised floor
• Cold air flows from the raised floor
through perforated tiles
• Cold aisles are 2 floor tiles large
• Standard floor tile size: 60x60 cm
• Typical cold aisle width: 120 cm
• Typical hot aisle width: 90 cm
Corso di Cloud e Datacenter Networking – Prof. Roberto Canonico
22
Datacenter: aisle pitch
Per aisle pitch si intende la distanza dal centro di un’isola fredda al centro
dell’isola fredda adiacente
Typical cold aisle width:
4 feet (≈ 120 cm)
Typical hot aisle width:
3 feet (≈ 90 cm)
Space left for rack depth:
42 inches = 3.5 feet (≈ 105 cm)
Typical aisle pitch:
7 tiles → 14 feet (≈ 420 cm)
Seven-tile aisle pitch
Corso di Cloud e Datacenter Networking – Prof. Roberto Canonico
23
Datacenter: condizionamento (1)
Heating, ventilation, and air conditioning (HVAC) units push cold air under the raised floor
Corso di Cloud e Datacenter Networking – Prof. Roberto Canonico
24
DC: condizionamento (2)
Obiettivo del sistema di condizionamento: mantenere condizioni operative ottimali per l’IT
linee guida fornite dall’American Society of Heating, Refrigeration and Air-Conditioning Engineers
(ASHRAE) Technical Committee 9.9
http://tc99.ashraetcs.org/documents/ASHRAE_Extended_Environmental_Envelope_Final_Aug_1_2008.pdf
Range di temperature: 18 – 27 °C (dove è misurata ?)
Il sistema di condizionamento smaltisce il calore prodotto dalle apparecchiature IT e lo
disperde nell’ambiente circostante il DC
I consumi energetici del sistema di condizionamento dipendono da:
la quantità di calore prodotta dalle apparecchiature IT
la differenza di temperatura tra il DC e l’ambiente esterno
Fino ad oggi si progettavano impianti a tutt'aria
impianti di climatizzazione per 1.500 / 2.000 W*m2
Tendenza recente: aumentare la densità degli apparati nella computer room
questo aumenta i requisiti richiesti all’impianto di condizionamento
Negli impianti più recenti il freddo è fornito in parte con aria ed in parte con acqua
maggiori difficoltà nel progetto e nella realizzazione
Per motivi di sicurezza cavi di potenza su canaline sospese e non a terra
Corso di Cloud e Datacenter Networking – Prof. Roberto Canonico
25
DC: condizionamento (3)
Il layout con isole calde e fredde ha come obiettivo quello di minimizzare il mix tra flussi di aria fredda e
calda e così aumentare il rendimento dell’impianto di condizionamento
Se una parte significativa del flusso caldo si mischiasse con il flusso freddo, il sistema di condizionamento
dovrebbe pompare aria a temperatura ancora più bassa per ottenere lo stesso effetto di raffreddamento
La parte bassa di un rack va riempita con gli apparati più pesanti (per motivi di stabilità)
e che producono più calore (più vicini al flusso di aria fredda che sale dal pavimento)
Se un rack non è completamente riempito, è opportuno riempire le posizioni vuote con blanking panel che
impediscono all’aria calda di fuoruscire dal lato anteriore del rack
GOOD
Blanking panels
Corso di Cloud e Datacenter Networking – Prof. Roberto Canonico
BAD
26
DC: condizionamento (4)
Inefficienze del sistema di condizionamento
L’aria fredda che emerge dal pavimento rialzato attraverso le piastrelle perforate non entra nei rack ma viene indirizzata
direttamente nella unità di raffreddamento CRAC
Questo comporta una notevole perdita di efficienza dell’impianto di condizionamento
Soluzioni: “contenimento” attraverso barriere di separazione che impediscono il mix di flussi di aria calda e fredda
Corso di Cloud e Datacenter Networking – Prof. Roberto Canonico
27
DC: conditioning (5)
Cooling containment solutions
prevent hot and cold air flows to mix by means of physical barriers
Corso di Cloud e Datacenter Networking – Prof. Roberto Canonico
28
Thermal analysis
Compare temperatures without and with cold-aisle containment
Corso di Cloud e Datacenter Networking – Prof. Roberto Canonico
29
Datacenter: sistema UPS
Scopo primario di un UPS: fornire con continuità nel tempo (cioè
senza interruzioni) energia elettrica alternata agli apparati IT
Un UPS:
fornisce energia elettrica alternata in caso di mancanza di
fornitura dalla rete (black-out)
per i pochi minuti necessari ad avviare il generatore di emergenza
(gruppo elettrogeno)
elimina difetti presenti nella energia fornita dalla rete
sovratensioni, cadute, variazioni di frequenza, ecc.
Diverse tipologie di UPS:
Statici (con batterie)
Dinamici (a volano o flywheel)
Per garantire la continuità di funzionamento del DC in presenza
di black-out occorrono sistemi di generazione di emergenza
Gruppo elettrogeno a motore diesel
Corso di Cloud e Datacenter Networking – Prof. Roberto Canonico
30
DC: Power Usage Effectiveness (PUE)
L’indice PUE di un DC indica quanta potenza esso richiede complessivamente
per funzionare rispetto alla sua sola componente IT
L’energia in eccesso è principalmente consumata dai sistemi di condizionamento
ed alimentazione di emergenza del datacenter
Idealmente il PUE dovrebbe essere 1, in realtà per DC non progettati con criteri di
efficienza energetica può valere anche 3 o più
Oggi si riescono a realizzare DC con PUE tra 1.8 ed 1.2
Corso di Cloud e Datacenter Networking – Prof. Roberto Canonico
31
Datacenter e livelli di affidabilità: Tier 1, 2, 3 e 4
Definiti da Uptime Institute
Uptime Institute LLC is a consortium of companies
based in Santa Fe, New Mexico,
offering professional-services related to the
design and operation of datacenters since 1993
Tier 1
Basic level of data center reliability
Errors and failures in the systems and
equipment lead to a malfunction
of the entire data center
Also, the data center is interrupted
for maintenance and repair works
No redundant power supplies and
no uninterruptible power supply (UPS)
Uptime: 99.671% → Downtime in 1 year: 28.8 hours
Corso di Cloud e Datacenter Networking – Prof. Roberto Canonico
32
Datacenter e livelli di affidabilità: Tier 1, 2, 3 e 4
Tier 2
Small level of redundancy and
little excess capacity
Susceptible to outages due to planned
and unplanned failures
of the equipment in the data center
Technical repair work requires a stop
in data center
Redundant power supplies
Cabling with raised floor
Uptime: 99.749% → Downtime in 1 year: 22 hours
Corso di Cloud e Datacenter Networking – Prof. Roberto Canonico
33
Datacenter e livelli di affidabilità: Tier 1, 2, 3 e 4
Tier 3
Allows for repair and maintenance work
without stopping the data center
All IT equipment must be dual-powered
Redundant power supplies,
cooling and
uninterruptible power supply (UPS)
Uptime: 99.982% → Downtime in 1 year: 1.6 hours
Corso di Cloud e Datacenter Networking – Prof. Roberto Canonico
34
Datacenter e livelli di affidabilità: Tier 1, 2, 3 e 4
Tier 4
Fault-tolerant data center
with redundancy of all systems
Allows scheduled and unscheduled work
without stopping the data center
Redundant power supplies and
redundant uninterruptible power supply (UPS)
All cooling equipments independently
dual-powered, including chillers and heating,
ventilating and air-conditioning (HVAC)
systems
Uptime: 99.995% → Downtime in 1 year: 0.4 hours
Corso di Cloud e Datacenter Networking – Prof. Roberto Canonico
35
Datacenter cabling: redundancy
Redundancy is required to obtain a
higher tolerance to faults
Tier 2, 3 and 4 datacenters have to
be designed by duplicating facilities
and connections
Corso di Cloud e Datacenter Networking – Prof. Roberto Canonico
36
Datacenter modulari: Container-DC
Unità di composizione modulare: container
Un datacenter in container necessita solo di:
Alimentazione elettrica
Collegamento di rete esterno
Piccoli (4 rack, consumo < 1MW)
medi (10 rack, 1-4 MW), grandi (20 rack, > 4MW)
Il container è dotato di proprio impianto di
condizionamento termico
Elevato rendimento (PUE ≈ 1,1)
Utilizzabile per datacenter di grosse dimensioni
Modular Data Center (MDC)
Adatto anche per applicazioni di emergenza
Mobile Data Center
Corso di Cloud e Datacenter Networking – Prof. Roberto Canonico
37
Datacenter: applicazioni ed infrastrutture
L’architettura della infrastruttura di rete di un datacenter, così come altre sue componenti
(i server, lo storage, il raffreddamento, ecc.), sono influenzate dalle applicazioni
In base alle applicazioni, occorre distinguere tra:
Datacenter commerciali e per Cloud Computing
Es: Google, Facebook, Amazon, Microsoft Azure, ….
Datacenter per applicazioni scientifiche (HPC, Grid Computing)
OLCF: Oak Ridge Leadership Computing Facility
ALCF: Argonne Leadership Computing Facility
XSEDE: Extreme Science & Engineering Discovery Environment
NWSC: National Center for Atmospheric Research Wyoming Super Computing Center
Per applicazioni di calcolo scientifico parallelo, la latenza è un fattore cruciale e pertanto si
adottano, a fianco della infrastruttura Ethernet general-purpose, tecnologie di rete che
consentono comunicazioni a bassa latenza → Es. Infiniband
I sistemi di raffreddamento dei datacenter per HPC devono essere in grado di far fronte ad
una maggiore densità di potenza → raffreddamento ad acqua
Datacenter commerciali: 1-6 kW/rack
Datacenter HPC: fino a 30 kW/rack
Corso di Cloud e Datacenter Networking – Prof. Roberto Canonico
38
Esempio di organizzazione di un piccolo datacenter
Estensione di circa 180 m2
73 server racks to form the EDA
6 racks form the MDA
Arrangement of cabinets with
alternance of hot and cold aisles
MDA
Corso di Cloud e Datacenter Networking – Prof. Roberto Canonico
39
Datacenter della Università di Napoli Federico II
Si trova nel campus di Monte S.Angelo
Finanziato dai progetti SCOPE, ReCAS
ed ATLAS
33 rack
304 server blade DELL M600
19 server DELL Power Edge 1950
10 server DELL Power Edge 2950
connessi in FC al sistema SAN
SAN
EMC2 (100 TB)
Dell Equallogic PS5000XV (24 TB)
Corso di Cloud e Datacenter Networking – Prof. Roberto Canonico
40
Alcuni esempi di datacenter nel mondo
Google
http://webodysseum.com/technologyscience/visit-the-googles-data-centers/
Explore a Google data center with Street View
Google container data center tour
Inside a Google data center
Microsoft
Windows Azure Data Centers, the 'Long Tour‘
Facebook
Facebook Data Center
Datacenter Networking @ Facebook
How Facebook designed the data centre from scratch - Marco Magarelli
Softlayer
SoftLayer Datacenter Tour
Blender 3D animation on data center infrastructure building process
Corso di Cloud e Datacenter Networking – Prof. Roberto Canonico
41
Open Compute Project
The Open Compute Project is an organization that shares designs of data center
products among companies, including:
Facebook, Apple, Microsoft, Rackspace
Cisco, Juniper Networks
Goldman Sachs, Fidelity, Bank of America
Components of the Open Compute Project include:
Open racks have the same outside width (600 mm) and depth as standard 19-inch
racks, but are designed to mount wider chassis with a 537 mm width (≅ 21″)
This allows more equipment to fit in the same volume and improves air flow
Compute chassis sizes are defined in multiples of an OpenU, which is 48 mm,
slightly larger than the typical Rack Unit
Server compute nodes (based on Intel or AMD processors)
Open network switch
Open Vault storage building blocks offering high disk densities
277 VAC power distribution
Corso di Cloud e Datacenter Networking – Prof. Roberto Canonico
42