412 comp idt okpaola.indd
Transcript
412 comp idt okpaola.indd
COMM DATA TRANSMISSION Ethernet e RapidIO a confronto Barry Wood Applications engineer IDT Technologies Un’analisi dettagliata di pregi e difetti delle due tecnologie di trasmissione R apidIO, analogamente a Ethernet, è un sistema di trasmissione che scambia pacchetti su una varietà di mezzi trasmissivi. RapidIO supporta messaggi e operazioni di lettura/scrittura semantica, consentendo alle operazioni di controllo e a quelle di gestione dei dati di utilizzare il medesimo collegamento fisico: una caratteristica che migliora l’efficienza e semplifica il progetto del sistema. Sviluppata interamente per minimizzare la latenza, la tecnologia RapidIO è stata ottimizzata per essere realizzata e gestita direttamente tramite hardware. I collegamenti RapidIO garantiscono la consegna dei pacchetti, anche in presenza di fenomeni di congestione e di errori di trasmissione, tramite semplici meccanismi di controllo del flusso (dei dati) e di correzione degli errori. Questi meccanismi vengono realizzati con dei brevi “simboli di controllo”, specifici per il tipo di collegamento utilizzato. La maggior parte dei simboli di controllo possono essere inclusi all’interno dei pacchetti: ciò permette di ridurre al minimo la latenza del percorso di retroazione, necessario per garantire una trasmissione affidabile dei pacchetti. Ethernet è da sempre un mezzo trasmissivo soggetto a perdite e richiede protocolli di supporto, come il TCP (Transmission Control Protocol), al fine di garantire un servizio di trasmissione affidabile. I meccanismi di controllo del flusso utilizzati normalmente da Ethernet sono protocolli di rete che controllano la velocità di trasmissione basandosi sui pacchetti persi, dato che questo è il modo più efficace per ottenere un throughput accettabile in una rete estesa a livello globale. Di recente si è cominciato a parlare del concetto di “Ethernet senza perdite”. Ethernet senza perdite (Lossless Ethernet) è nota anche come “Data Center Ethernet” (DCE). Ethernet senza perdite riduce la perdita di pacchetti, dovuta a congestioni che si verificano nella rete Ethernet, realizzando un controllo del flusso a livello di collegamento. Questa soluzione permette di aumentare il rendimento generale della rete, in quanto il numero dei pacchetti persi si riduce notevolmente. Ethernet senza perdite, in caso di congestione, si comporta in maniera simile a RapidIO. chip, lo scambio completo può richiedere meno di 300 ns. Ethernet senza perdite è in realtà una denominazione impropria, in quanto i pacchetti possono ancora essere persi a causa di errori di trasmissione. Data Center Ethernet, pertanto, continua a richiedere engine di scarico dei pacchetti accumulati (offload) e/o stack software, che sono causa di una latenza maggiore nella consegna del messaggio. Ad esempio, il protocollo Fibre Channel permette la correzione degli errori di trasmissione nello standard FCoE. Questa attività di correzione degli errori, tuttavia, aggiunge molta latenza rispetto alla tecnologia RapidIO. Ciò compromette in maniera significativa l’utilizzo delle risorse e le prestazioni del sistema. Per garantire velocità di trasmissione elevate, alcuni gruppi di lavoro legati agli standard Ethernet hanno pensato di includere nel circuito Ethernet il meccanismo di protezione degli errori FEC (Forward Error Correction). Sebbene questo metodo riduca di molto la probabilità di errore, esso produce una latenza maggiore generata a ogni passaggio da un dispositivo all’altro all’interno della rete. Senza perdite? RapidIO garantisce la consegna dei pacchetti su qualsiasi collegamento. Nel caso di una fibra ottica da 10 Gbps lunga 100 m, il recupero può essere ottenuto grazie allo scambio di tre simboli di controllo, in circa 2,5 microsecondi. Per i collegamenti da chip a Due mercati Ethernet Con un significativo cambio di direzione, la comunità Ethernet ha suddiviso il mercato Ethernet in due categorie:: Internet e Data Center. Nell’ambito della rete globale chiamata Internet, un controllo del flusso a livello di rete consente di ottenere un throughput più CPS-1616 è uno switch Serial RapidIO gen 2 a 16 porte e 16 canali di IDT 68 - ELETTRONICA OGGI 412 - SETTEMBRE 2011 DATA TRANSMISSION elevato rispetto a un controllo del flusso a livello di collegamento. I tempi di latenza di Internet e la dinamicità della rete rendono il controllo del flusso a livello di rete la strategia più efficace per il controllo del flusso. La maggior parte della tecnologia Ethernet è la Internet Ethernet. La tecnologia Internet Ethernet dipende dalla potenza di elaborazione delle piattaforme di rete quali switch e router. Con questi dispositivi, le unità di elaborazione di rete (Network Processor Units, NPU) controllano il traffico dei dati affinché sia conforme agli accordi sulla qualità del servizio SLA (Service Level Agreements,) e adottano protocolli di rete come MPLS (Multi Protocol Label Switching). La figura 1 illustra lo schema a blocchi di un tipico router/switch per Internet Ethernet. COMM lizzati buffer che ottimizzino la schedulazione al fine di aumentare il throughput e ridurre i tempi di latenza. Idealmente, i buffer vanno gestiti in modo da garantire che i flussi ad alta priorità procedano senza intoppi. Segue un confronto delle due strategie di controllo del flusso: RapidIO e DCE. Una strategia completa per il controllo del flusso RapidIO attua una completa strategia di controllo del flusso per risolvere situazioni di congestione a breve, medio e lungo termine. I meccanismi RapidIO per il controllo del flusso consentono a un trasmettitore di saturare completamente i buffer del ricevitore. Questo è importante per diverse ragioni: Trasmissione di pacchetti senza perdite Si noti che in una piattaforma di rete Internet (router o switch) vi sono diverse connessioni a “corto raggio” tra i chip. È possibile ridurre la latenza di questi collegamenti a corto raggio mediante semplici meccanismi di controllo del flusso, finalizzati a minimizzare la perdita dei pacchetti. Val la pena sottolineare il fatto che i principali produttori di switch e router per Internet Ethernet non utilizzano Ethernet come unica tecnologia di interconnessione per le proprie piattaforme di rete. Invece, standard di interconnessione come Serial Peripheral Interconnect (SPI), Interlaken e RapidIO dispongono di meccanismi di controllo del flusso Fig. 1 - Schema a blocchi di un router per Internet a bassa latenza al fine di garantire una trasmissione dei pacchetti efficace e senza perdite. I circuiti integrati di uno switch Internet Ethernet gestiscono entrambe le funzioni di com- • più pacchetti contiene il chip di uno switch nei propri buffer, più possibilità ci sono di aumentare il throughput, instradando mutazione (switch) e di instradamento (router). Ciò non vale per gli i pacchetti verso le porte di uscita che non sono congestionate. switch DCE a più bassa latenza e tali funzioni vengono svolte da Ciò dovrebbe consentire il massimo throughput possibile con dispositivi collegati direttamente agli switch Data Center Ethernet. tempi di latenza minimi; Questo rappresenta un cambiamento significativo rispetto alle semplici architetture di trasmissione e ricezione che caratterizzano • il trasmettitore e il ricevitore hanno concordato il numero di pacchetti che possono essere trasmessi su ciascun canale priola maggior parte dei prodotti Internet Ethernet di largo consumo. ritario/virtuale. Il trasmettitore può utilizzare questa informazione L’avvento di Ethernet senza perdite segna quindi la divisione per schedulare la trasmissione dei pacchetti al fine di ottimizzare del mercato Ethernet in dispositivi Internet Ethernet e dispositivi la latenza di sistema; Data Center Ethernet. Il problema è che i dispositivi Data Center Ethernet non beneficiano della stessa economia di scala dei dispo- • il meccanismo di controllo della latenza consente di minimizzare le dimensioni del buffer RapidIO, pur garantendo la consegna sitivi Internet Ethernet. dei pacchetti e un throughput coerente con la massima velocità Throughput, latenza e controllo del flusso supportata dal mezzo trasmissivo. In una rete data center, la latenza legata alle funzioni di controllo, Il controllo del flusso prioritario basato sullo standard IEEE 802.1p come la modifica di file e la conferma dei dati trasmessi, può utilizza un meccanismo XON/XOFF che deve essere attivato prima rappresentare il vero limite alla capacità di sistema. In maniera che il ricevitore possa saturare lo spazio del buffer. Dalla figura 2, analoga, la latenza del sistema di controllo per le funzioni di bilan- si capisce perché la capacità di incorporare nei pacchetti le inforciamento del carico nei server può determinare l’utilità e l’efficien- mazioni di controllo del flusso a livello di link è un vantaggio chiave za dell’intero sistema. In questo contesto, i meccanismi di controllo per RapidIO. Al punto 1, il ricevitore decide di disattivare una spedel flusso dovrebbero consentire ai pacchetti di controllo di pro- cifica priorità. Tuttavia, il Max Frame giallo (punto 2) ha iniziato la pagarsi non appena possibile. In caso di conflitto, andrebbero uti- trasmissione, impedendo la trasmissione del frame PAUSE XOFF. 69 - ELETTRONICA OGGI 412 - SETTEMBRE 2011 COMM DATA TRANSMISSION Ciò permette al corrispondente Max Frame giallo di essere ricevuto dal ricevitore. Quando il frame PAUSE XOFF è stato ricevuto dal trasmettitore, un problema simile si può verificare al punto 3, in cui un Max Frame ha già iniziato la trasmissione. La quantità minima di informazioni ricevuta dopo XOFF è trasmessa –questa viene detta “skid” (slittamento), quindi i collegamenti Ethernet devono tenere in considerazione due pacchetti di dimensione massima. Per un cavo da 10 Gbps lungo 100 m, è stata calcolata una lunghezza di skid di circa 10,1 kB (http://www.ieee802.org/1/files/public/ docs2008/bb-pelissier-pfc-proposal-0508.pdf). Questo calcolo considera una lunghezza di pacchetto minima pari a 2000 byte. Se vengono utilizzati altri protocolli di memorizzazione, ad esempio FCoE con una lunghezza del pacchetto MTU (Maximum Transfer Unit) di 2,5 kB oppure iSCSI con una MTU di 9 kB, la lunghezza di skid aumenta. Alcune migliorie tecnologiche, come Power Efficient Ethernet (Ethernet a risparmio energetico), possono contribuire ad aumentare ulteriormente la lunghezza di skid. Importanza della lunghezza di skid In interfacce di rete (Network Interface Card, NIC) e in processori con qualche gigabyte di DRAM, la lunghezza di skid non è un problema. Per le piccole memorie embedded presenti nei circuiti integrati degli switch, la lunghezza di skid è invece un parametro da tenere in considerazione. Una lunghezza di skid elevata produce effetti rilevanti per i progettisti di switch Ethernet e per gli utenti di Data Center Ethernet: • per evitare di inviare un XON seguito immediatamente da un XOFF, prima di attivare un flusso deve essere disponibile una lunghezza di skid superiore a quella dello spazio buffer. Ciò implica che la trasmissione dei pacchetti per determinati flussi sarà intermittente e genererà un funzionamento irregolare della rete; • non è garantito che i pacchetti di skid inviati abbiano la stessa priorità che viene disattivata. Pertanto, una porzione del buffer riservata allo skid non contiene pacchetti: ciò aumenta la latenza e riduce il throughput; • per ridurre la quantità di memoria richiesta da una porta Ethernet, un metodo per ottimizzare il sistema è raggruppare insieme più priorità per il controllo del flusso. Questo può portare a un blocco di inizio linea, con relative riduzioni di throughput e aumenti dei tempi di latenza per tutto il traffico relativo a quel gruppo di priorità. La schedulazione degli algoritmi di trasmissione dei pacchetti può essere resa inefficace da un cattivo controllo del flusso. Anche se il controllo del flusso a breve termine non è mai stato il punto forte di Ethernet, lo è invece stato il controllo del flusso a lungo termine. I protocolli software di controllo del flusso si basano generalmente sul riconoscimento dei pacchetti persi quando i dispositivi Internet Ethernet scartano pacchetti per problemi di Fig. 2 - Skid ddeii pacchetti Fi h i nella ll tecnologia l i EEthernet h congestione. Poiché un sistema DCE non scarta pacchetti in caso di congestione, può essere utilizzato un controllo del flusso a lungo termine basato sullo standard 802.1Q Virtual LAN. Le specifiche Gen2 di RapidIO hanno creato meccanismi di controllo del flusso di tipo XON/XOFF e basati sulla velocità e sui crediti, per flussi costituiti da pacchetti Data Streaming. Questo metodo è stato progettato per sistemi con più mittenti e un unico destinatario. Il protocollo permette ai mittenti di comunicare le informazioni che hanno a disposizione e al destinatario di gestire e schedulare i mittenti da attivare e le rispettive velocità di trasmissione. Il meccanismo di controllo del flusso può essere gestito non solo a livello software ma, grazie al formato semplice dei pacchetti, anche a livello hardware. Quando utilizzati correttamente, questi meccanismi di controllo del flusso possono evitare congestioni a lungo termine e consentire alle applicazioni di ottimizzare le prestazioni. Eliminare la congestione Un possibile approccio ai problemi della congestione di rete e del controllo del flusso è comunicare l’ubicazione della congestione di rete. Questa azione consente ai circuiti che generano pacchetti di programmare l’instradamento dei pacchetti verso aree non congestionate della rete. RapidIO supporta meccanismi per comunicare l’ubicazione della congestione all’interno della rete. RapidIO Gen2 definisce un meccanismo a bassa latenza, basato su simboli di controllo, denominato Virtual Output Queue (VoQ) Backpressure. VoQ Backpressure definisce un metodo gerarchico, realizzabile fisicamente, in grado di respingere la congestione verso la periferia della rete. Questa soluzione ha due vantaggi: • rallenta i flussi che contribuiscono a creare punti di congestione, liberando le risorse del sistema; • incoraggia la trasmissione di altri flussi che non contribuiscono alla congestione, aumentando il throughput ed equilibrando il carico sul sistema. 70 - ELETTRONICA OGGI 412 - SETTEMBRE 2011 DATA TRANSMISSION Nel 2010, un gruppo di lavoro IEEE ha iniziato a definire un meccanismo simile, noto come IEEE 801.3Qau Congestion Notification for Local and Metropolitan Area Networks. Non è chiaro se questo meccanismo sarà abbastanza semplice da essere supportato da dispositivi che siano parte dell’ecosistema DCE. Un interessante articolo di Stuart Cheshire, originariamente pubblicato nel 1996 con il titolo provocatorio “È la latenza, sciocco” (http://www.stuartcheshire.org/rants/Latency.html): anche se si riferisce alla latenza nel mondo Internet Ethernet di largo consumo, i suoi punti chiave restano comunque validi anche oggi: • avere più banda è facile; • consumare meno banda è facile; • se la latenza è eccessiva, non esistono soluzioni. Ethernet per il mercato di massa, Internet Ethernet, mira a offrire più banda a costi più bassi. Data Center Ethernet possiede caratteristiche che permettono di aumentare il throughput e di migliorare il comportamento di Internet Ethernet nell’ambito del data center. Ma queste caratteristiche incidono negativamente sulla progettazione dei chip per applicazioni Ethernet e richiedono software e/o motori di offload per la correzione degli errori di trasmissione. Il mercato di Data COMM Center Ethernet è molto più piccolo di quello di Internet Ethernet, pertanto l’economia di scala che si ottiene per Internet Ethernet utilizzando una tecnologia non costosa non è applicabile anche per Data Center Ethernet. Le applicazioni che adottano RapidIO richiedono una latenza bassa e prevedibile per una comunicazione da chip a chip, da scheda a scheda, su backplane e da box a box. Le aziende leader del settore (ad esempio, Ericsson, EMC e Mercury) assicurano che RapidIO continuerà ad avere una bassa latenza e un elevato throughput al fine di garantire il raggiungimento delle prestazioni attese da queste applicazioni. RapidIO continuerà a mantenere la stessa banda di altre interconnessioni, pur rimanendo l’architettura più efficiente e a più bassa latenza disponibile per connessioni da chip a chip, da scheda a scheda, su backplane e su cavo / in fibra fino a 100 m. ■ Per un confronto dettagliato tra le due tecnologie, RapidIO ed Ethernet, si rimanda all’articolo “System Interconnect Fabrics: Ethernet Versus RapidIO Technology”, disponibile sul sito www.rapidio.org Prodotti e soluzioni, innovazioni e tendenze -BGJFSBMFBEFSFVSPQFBEFMMBVUPNB[JPOFJOEVTUSJBMF VOFTQFSJFO[BUVUUBEBWJWFSFy t4JTUFNJEJDPOUSPMMP t*1$ t4JTUFNJFUFDOJDBEJB[JPOBNFOUP t%JTQPTJUJWJEJJOUFSGBDDJBVPNPNBDDIJOB).* t4JTUFNJNFDDBOJDJ1FSJGFSJDIF t$PNVOJDB[JPOFJOEVTUSJBMF T t4PGUXBSFJOEVTUSJBMJ PNTQ D P H t5FDOJDIFEJJOUFSGBDDJB FTB XXN X T t5FDOJDBTFOTPSJTUJDB UJDLFU 71 - ELETTRONICA OGGI 412 - SETTEMBRE 2011 Per ulteriori informazioni contattateci al +49 711 61946-828 oppure a [email protected]