Test bed per la valutazione della Qualità del Servizio in reti
Transcript
Test bed per la valutazione della Qualità del Servizio in reti
Test bed per la valutazione della Qualità del Servizio in reti ottiche integrate IP Francesco Matera, Vittorio Baroncini, Luca Rea, Alessandro Tarantino, Paolo Pasquali, Francesca Matteotti Fondazione Ugo Bordoni Giancarlo Gaudino, Domenico Ciavatta, Giuseppe Del Prete ISCOM SOMMARIO ...................................................................................................................................6 INTRODUZIONE ...........................................................................................................................8 CAPITOLO 1 ................................................................................................................................12 STATO ATTUALE DELLE RETI E PROSPETTIVE DI EVOLUZIONE FUTURE ..........12 1.1 ARCHITETTURA DELLA RETE FISSA...................................................................12 1.1.1 Infrastrutture di Trasmissione.................................................................................13 1.1.2 La rete di accesso ....................................................................................................14 Accesso commutato su doppino telefonico ............................................................................14 Accesso su doppino: la tecnologia xDSL...............................................................................14 Accesso dedicato in fibra ottica.............................................................................................15 1.1.3 La rete di giunzione.................................................................................................16 1.1.4 La rete dorsale ........................................................................................................17 1.1.5 Numerizzazione delle centrali di Commutazione nella rete pubblica .....................18 1.2 TECNOLOGIE DI COMMUTAZIONE ......................................................................19 1.2.1 I Sistemi SDH ..........................................................................................................19 1.2.2 La tecnologia ATM..................................................................................................20 1.2.3 La tecnologia IP ......................................................................................................20 1.3 LE RETI NAZIONALI E PROSSIMI SVILUPPI........................................................21 1.3.1 Le reti di raccolta e le reti dorsali...........................................................................21 Collegamento tra nodi ...........................................................................................................22 Piano di Controllo .................................................................................................................22 Trattamento del traffico da parte dei nodi.............................................................................23 1.4 SVILUPPO DEL CONTROL-PLANE ED EVOLUZIONE DELLE RETI DI TELECOMUNICAZIONI IN AREA METRO E CORE............................................................23 1.4.1 Nuovi servizi e vantaggi economici dall’adozione di reti ASON/GMPLS...............26 1.5 CONCLUSIONI...........................................................................................................31 CAPITOLO 2 ................................................................................................................................33 EVOLUZIONE DELLO STANDARD ETHERNET NELLE RETI MAN .............................33 2.1 INTRODUZIONE........................................................................................................33 2.2 LO STANDARD ETHERNET ....................................................................................33 2.3 IL MECCANISMO DI ACCESSO CSMA/CD............................................................37 2.4 IL DOMINIO DI COLLISIONE ..................................................................................40 2.5 DALLE LAN ALLE MAN: SWITCHING ETHERNET .............................................42 2.6 SERVIZI DI CONNETTIVITA’ ETHERNET PUNTO-PUNTO......................45 2.7 LA GIGABIT ETHERNET..........................................................................................46 2.8 LA STANDARDIZZAZIONE DEI SERVIZI ETHERNET ........................................46 2.9 SDH/SONET, OTH ED ETHERNET NELLE RETI DI TRASPORTO:VISIONE DEGLI STANDARD INTERNAZIONALI E PROSPETTIVE PER IL FUTURO....................48 2.9.1 Un modello semplificato per una rete di trasporto .................................................48 2.9.2 Descrizione funzionale del modello.........................................................................50 2.9.3 SDH ED OTH..........................................................................................................52 2.9.4 ETHERNET: STANDARD FUTURI........................................................................53 2.9.5 ETHERNET SU MPLS (MPLS ED OAM)...............................................................53 2.9.6 ETHERNET PROVIDER BRIDGE..........................................................................54 2.9.7 ETHERNET PROVIDER BACKBONE BRIDGE ...................................................55 2.9.8 ETHERNET OAM ...................................................................................................55 2.9.9 CONSIDRAZIONI FINALI......................................................................................56 CAPITOLO 3 ................................................................................................................................59 QUALITA’ DEL SERVIZIO: CARATTERIZZAZIONE ED IMPLEMENTAZIONE ........59 3.1 QUALITA’ DEL SERVIZIO .......................................................................................59 2 3.1.1 3.2 3.2.1 3.2.2 3.2.3 3.2.4 3.2.5 3.2.6 3.3 3.3.1 3.3.2 3.3.3 3.3.4 3.4 3.4.1 3.4.2 3.4.3 3.5 SLA: Service Level Agreement ................................................................................62 LA GESTIONE DELLA QUALITA’ DEL SERVIZIO ...............................................63 IntServ: Integrated Service......................................................................................64 Il Protocollo RSVP ..................................................................................................66 Il protocollo RTP.....................................................................................................71 DiffServ (Differentiated Services) ...........................................................................75 Il campo DSCP........................................................................................................77 PHB: Per-Hop Behaviour .......................................................................................78 SCHEDULING E ALGORITMI..................................................................................79 WRR: Weighted Round Robin .................................................................................80 Priority queuing ......................................................................................................81 Controllo della Congestione....................................................................................81 Coesistenza IntServ , DiffServ .................................................................................85 DIFFSERV OVER MPLS ............................................................................................86 L’architettura MPLS ...............................................................................................87 MPLS e ingegneria del traffico ...............................................................................89 Implementazione della QoS DiffServ su MPLS .......................................................91 ARCHITETTURA GMPLS .........................................................................................94 CAPITOLO 4 ................................................................................................................................97 STRUTTURA ED ELEMENTI DEL ..........................................................................................97 TEST- BED....................................................................................................................................97 4.1 TEST-BED MPLS PER LE MISURE OGGETTIVE DELLA QUALITA’ DEL SERVIZIO..................................................................................................................................98 4.1.1 Struttura del test-bed ...............................................................................................98 4.1.2 Presentazione del Test-bed....................................................................................100 4.2 ELEMENTI DELLA RETE .......................................................................................103 4.2.1 Router Juniper M10...............................................................................................103 4.2.2 Architettura generale dei router............................................................................105 4.2.3 Router Juniper M10: architettura .........................................................................106 4.2.4 Software JUNOS ...................................................................................................109 4.2.5 Generatore/analizzatore di traffico .......................................................................112 4.2.6 Chariot: Server e Client ........................................................................................114 4.2.7 U.S.Robotics Wireless AP US5450.......................................................................115 4.2.8 Anrtitsu MN9610B.................................................................................................116 4.3 PRINCIPIO DI FUNZIONAMENTO DEL SISTEMA..............................................116 4.3.1 Switch Ottico .........................................................................................................122 4.3.2 La Porta parallela .................................................................................................123 4.3.3 Amplificatore di corrente ......................................................................................126 CAPITOLO 5 ..............................................................................................................................128 CONFIGURAZIONE DELLA RETE E PROVE OGGETTIVE ...........................................128 5.1 TIPOLOGIE DI PROVE E NORMATIVE DI RIFERIMENTO................................128 5.1.1 Settaggio delle schede di rete ................................................................................130 5.2 CONFIGURAZIONE DEI ROUTER ........................................................................133 5.2.1 Misure per il dimensionamento dell’Expedited Forwarding.................................133 5.2.2 Misure per il dimensionamento dell’Assured Forwarding....................................139 5.2.3 Configurazione definitiva. .....................................................................................149 5.3 TEST SUI SERVIZI...................................................................................................150 5.3.1 Test sui servizi di video conferenza. ......................................................................150 5.3.2 Test su servizio VoIP (Voice over IP)....................................................................155 5.3.3 Servizio di trasferimento dati ................................................................................157 5.3.4 Servizi audio-video non real time..........................................................................159 CAPITOLO 6 ..............................................................................................................................162 PROVE SOGGETTIVE E QUALITA’ PERCEPITA DALL’UTENTE FINALE ...............162 3 6.1 TEST-BED SPERIMENTALE PER LA VALUTAZIONE SOGGETTIVA DELLA QUALITA’ DEL SERVIZIO. ..................................................................................................162 6.2 PROVE SOGGETTIVE .............................................................................................165 6.2.1 Scelta delle immagini televisive.............................................................................165 6.2.2 Registrazione delle sequenze.................................................................................171 6.2.3 Scelta del metodo di valutazione e preparazione della camera afonica ...............174 6.3 LA SESSIONE DI TEST...........................................................................................175 6.3.1 Preparazione delle sequenze .................................................................................175 6.3.2 Fase di elaborazione dei dati. ...............................................................................178 6.4 RISULTATI OTTENUTI...........................................................................................185 6.4.1 Analisi globale delle sequenze via cavo. ...............................................................185 6.5 ANALISI DELLE SEQUENZE “VIA CAVO”..........................................................190 6.5.1 Automobilismo.......................................................................................................191 6.5.2 Tennis ....................................................................................................................194 6.5.3 Nuoto Sincronizzato ..............................................................................................196 6.5.4 Ciclismo.................................................................................................................198 6.5.5 Musica ...................................................................................................................201 6.6 ANALISI DELLE SEQUENZE WI-FI .......................................................................203 CAPITOLO 7 ..............................................................................................................................207 MISURE OGETTIVE DEL TEMPO DI RIPRISTINO..........................................................207 7.1 7.2 7.3 7.4 7.5 7.5.1 7.5.2 7.5.3 7.5.4 7.5.5 7.5.6 7.6 INTRODUZIONE......................................................................................................207 TEMPO DI INTERRUZIONE DEL COLLEGAMENTO .........................................207 TEMPO DI REAZIONE DEL ROUTER AL GUASTO ............................................209 TEST SUI SERVIZI...................................................................................................214 TEST BED UTILIZZATO PER LE MISURE CON IL SOFTWARE CHARIOT .....215 Test sui servizi simulati .........................................................................................219 Test di ripristino su servizi di video conferenza ....................................................219 Commutazione volontaria del mezzo trasmissivo..................................................226 Test di ripristino su servizio VoIP (Voice over IP)................................................226 Test di ripristino su servizi audio-video non real time ..........................................230 Test di ripristino su servizio di trasferimento dati.................................................235 RISPRISTINO DEL SERVIZIO MEDIANTE PROTOCOLLO OSPF...................236 CAPITOLO 8 ..............................................................................................................................240 PROVE SOGGETTIVE E QUALITA’ PERCEPITA DALL’UTENTE FINALE ...............240 8.1 ELEMENTI NORMATIVI PER LA VALUTAZIONE SOGGETTIVA DELLA QUALITA’ DEL SERVIZIO ...................................................................................................240 8.2 NORMATIVE ITU-T ED ITU-R ...............................................................................240 8.2.1 Enti per la valutazione delle QoS..........................................................................240 8.2.2 QoS della rete........................................................................................................242 8.2.3 QoS del contenuto e QoS percepita dall’utente.....................................................244 8.3 TEST BED SPERIMENTALE (CON BACK_UP) PER LA VALUTAZIONE SOGGETTIVA DELLA QUALITA’ DEL SERVIZIO............................................................252 8.4 SVOLGIMENTO DELLE PROVE SOGGETTIVE ..................................................255 8.4.1 Scelta delle immagini televisive.............................................................................255 8.4.2 Registrazione delle sequenze.................................................................................258 8.4.3 Scelta del metodo di valutazione e preparazione della camera afonica ...............260 8.5 LA SESSIONE DEI TEST .........................................................................................262 8.5.1 Preparazione delle sequenze .................................................................................262 8.5.2 Fase di elaborazione dei dati ................................................................................263 8.6 RISULTATI OTTENUTI...........................................................................................267 8.6.1 Analisi globale delle sequenze via cavo. ...............................................................267 6.6 ANALISI DELLE SEQUENZE SINGOLE ...............................................................271 6.5.1 Automobilismo ............................................................................................................271 8.6.2 Tennis ....................................................................................................................275 6.6.3 Musica ...................................................................................................................280 4 APPENDICE 1 ............................................................................................................................285 TECNICHE DI PROTEZIONE ................................................................................................285 1.1 1.2 1.2.1 1.2.2 1.2.3 1.2.4 1.2.5 1.3 MPLS 1.3.1 1.3.2 1.3.3 1.3.4 1.4 1.4.1 INTRODUZIONE......................................................................................................285 MECCANISMI DI PROTEZIONE............................................................................291 Protezione lineare 1+1..........................................................................................293 Protezione lineare 1:1 ...........................................................................................293 La topologia ad anello ..........................................................................................295 Unidirectional Path Switched Ring (UPSR)..........................................................296 Bidirectional Line Switched Ring (BLSR) .............................................................298 TECNICHE DI PROTEZIONE PROPIETARIE BASATE SUL PROTOCOLLO 300 L’architettura MPLS .............................................................................................300 MPLS e ingegneria del traffico .............................................................................303 Resilience in MPLS ...............................................................................................305 Tecniche di ripristino MPLS su JUNIPER M10....................................................306 ALGORITMO DI ROUTING OSPF..........................................................................308 Analisi del tempo di attivazione di adiacenza tra router.......................................319 APPENDICE 2 ............................................................................................................................322 IL SOFTWARE DI MANAGEMENT PER IL RIPRISTINO...............................................322 2.1 LE SOCKET ..........................................................................................................323 2.1.1 Dichiarazione ........................................................................................................325 2.1.2 Dichiarazione delle librerie utilizzate ...................................................................325 2.1.3 Dichiarazione delle costanti definite.....................................................................326 2.1.4 Dichiarazione delle funzioni utilizzate ..................................................................327 2.1.5 Dichiarazione e semantica delle variabili utilizzate nel main...............................327 2.1.6 Verifica della correttezza dell’input ......................................................................329 2.1.7 Creazione della socket...........................................................................................329 2.1.8 strutture dati delle socket ......................................................................................331 2.1.9 Inizializzazione delle strutture d’interesse ............................................................332 2.1.10 Inizializzazione della struttura controllore.......................................................332 2.1.11 Richiesta di una porta al SO.............................................................................332 2.1.12 Sdoppiamento dei processi ...............................................................................333 2.1.13 La funzione fork() .............................................................................................333 2.1.14 Ricezione del messaggio inviato dal router ......................................................335 2.1.15 Processamento del pacchetto ricevuto .............................................................336 2.1.16 Gestione dei segnali.........................................................................................337 2.1.17 Cattura dei segnali e gestione della porta parallela ........................................338 2.1.18 La funzione close( )...........................................................................................340 2.2 FUNZIONI DI UTILITA’ ..........................................................................................341 2.3 CHARIOT: SESRVER E CLIENT ............................................................................341 APPENDICE 3 ............................................................................................................................343 ELEMENTI NORMATIVI PER LA VALUTAZIONE SOGGETTIVA DELLA QUALITA’ DEL SERVIZIO ..........................................................................................................................343 3.1 NORMATIVE ITU-T E ITU-R ..........................................................................................343 3.1.1 Enti per la valutazione delle QoS .............................................................................343 3.1.2 QoS della rete........................................................................................................344 3.1.3 QoS del contenuto e QoS percepita dall’utente.....................................................349 3.2 NORMATIVA DI RIFERIMENTO PER I TEST ......................................................360 3.2.1 Normativa ITU-R BT 500-11.................................................................................360 5 SOMMARIO In questo rapporto riportiamo i risultati sperimentali che sono stati ottenuti sul test bed di rete che è stato realizzato presso i laboratori ISCOM nell’ambito della collaborazione tra FUB e ISCOM nel progetto FUB “QoSIP”. Scopo di tale progetto sono lo studio e la sperimentazione di modalità per la diffusione di servizi multimediali interattivi su reti IP con alta Qualità del Servizio, anche in condizioni di alta congestione della rete, con particolare interesse verso la IP-TV. Per queste ragioni è stato costituito un test bed di rete ottica integrata multiservizio che rappresenta un esempio di rete regionale con diversi tipi di accesso. In particolare essa è costituita da una parte “core” realizzata con core router ad alta capacità connessi con lunghi collegamenti in fibra ottica (multipli di 25 km) che rappresenta una rete regionale, a cui sono collegati diversi dispositivi di accesso per valutare le prestazioni dell’utenza. In particolare sono disponibili connessioni del tipo Fibre-to-the-Building (FTTB) e Fibre-to-the Curb (FTTC), WI-FI e VDSL. In questo rapporto faremo riferimento ai soli collegamenti FTTB, FTTC e WI-FI, mentre le prestazioni VDSL saranno riportate in un successivo rapporto. Per garantire la QoS abbiamo introdotto nella rete la metodologia denominata DiffServ-MPLS che permette una particolare etichettatura dei pacchetti che garantisce un trattamento differenziato della informazione. In particolare abbiamo utilizzato una mappatura innovativa proposta da noi e basata sull’etichettatura del campo DSCP, che si è rivelata particolarmente efficace. Su tale rete sono state inoltre studiato, proposto e introdotte anche tecniche di ripristino molto innovative e che si sono rivelate molto efficienti e poco costose. Inoltre sono state studiate metodologie per l’instradamento del traffico in presenza di nuovi dispositivi di commutazione ottici come OXC e convertitori di frequenza. 6 Tale metologie permettono di effettuare commutazioni di cammini fisici in rete senza introdurre alterare la qualità percepita da parte degli utenti. Una svariata serie di misure oggettive (di rete) e soggettive (percepite) su diversi tipi di servizi ci ha permesso di concludere che la tecniche da noi proposte per reti IP permettono la fruizione di tali servizi con alta QoS anche in condizioni di forte congestione della rete. In particolare la tecnica denominata Expedited Forwarding del DiffServ-MPLS è quella che permette un’altissima percezione di servizi IPTV anche in condizioni di estrema congestione della rete nel caso dell’architettura FTTB e FTTC (ma si prevede che analoghe prestazioni saranno ottenute con accessi VDSL). Resta invece da sottolineare i limiti in termini di QoS per la tecnica WI-FI anche quando le condizioni di traffico della rete core garantirebbero alte prestazioni per l’accesso. 7 INTRODUZIONE Il sensazionale sviluppo di Internet ha avuto un impatto forte sull’industria delle telecomunicazioni determinando progressivamente l’affermazione dei concetti e dei paradigmi connessi con la tecnologia Internet e in particolare con il protocollo IP. La crescita delle applicazioni ha fatto sì che in molte direttrici di telecomunicazioni internazionali e in reti nazionali dei paesi più avanzati il volume del traffico dati superasse quello relativo ai servizi di telecomunicazione tradizionali (fonia, fax, ecc). Tuttavia, nonostante il grande volume di traffico determinato da Internet, i margini di profitto connessi sono piuttosto modesti ed in ogni caso molto inferiori a quelli relativi ai servizi di fonia. A tale riguardo alcune studi dimostrano che in una prospettiva di medio termine il rapporto fra i volumi dei traffici IP e dei servizi tradizionali è stimato circa uguale a dieci, mentre il rapporto dei relativi introiti è stimato circa uguale ad un decimo. La necessità di ripagare gli investimenti sulle reti IP, insieme alla prospettiva di sviluppo di una rete integrata (capace cioè di trasportare tutti i tipi di servizi con un’unica piattaforma di rete), spinge gli operatori di reti IP a fornire su queste reti anche i servizi di telecomunicazione tradizionali. Lo sviluppo di una rete integrata multiservizio è stato da sempre perseguito dai principali operatori di rete, e ciò ha portato a sviluppi importanti delle reti come ad esempio l’ISDN e successivamente l’ATM. Oggi la prospettiva di una rete integrata multiservizio basata su tecnologia IP comincia a concretizzarsi con reti di operatori, sia emergenti che storici, in grado di offrire anche servizi fonici e video. L’integrazione dei servizi di fonia e dati assume attualmente una valenza anche più forte che nel passato, in quanto apre la possibilità di sviluppo di nuovi servizi e di nuovi modi di comunicazione. Oltre ai servizi multimediali già considerati nel passato, come ad esempio la videocomunicazione e la multivideoconferenza, è possibile fornire servizi come la 8 messaggistica unificata (unified messaging con e-mail, fax e casella vocale), conferenze multimediali, accessi contemporanei a pagine WWW e a servizi informativi, computing e progettazione collaborative, home working, teleshopping, giochi interattivi, e cosi via. La crescita del volume dei dati da trasportare e la fornitura di servizi con requisiti di tempo reale pongono, insieme alle esigenze di affidabilità e di sicurezza, una serie di nuovi requisiti per le reti e gli apparati IP. Lo scopo di questo lavoro è appunto quello di analizzare i trend di sviluppo delle architetture di rete, i requisiti emergenti per i router e le loro tendenze strutturali in un’ottica di rete integrata multiservizio. A partire da un’analisi dei servizi da supportare, si concentra in prima istanza l’attenzione sulle caratteristiche richieste alle nuove reti ottiche metropolitane (MAN; Metropolitan Area Network) che costituiscono i nuclei di base delle nuove reti IP. Si analizza in particolare il ruolo della tecnologia Ethernet sia sulla rete di accesso, dove essa si va affermando come la soluzione più favorevole per l’insieme dei benefici che comporta, sia come livello di trasporto nella MAN stessa. Le tecnologie Internet ed in particolare l’architettura protocollare IP, da un lato soddisfano in pieno i requisiti di flessibilità e scalabilità richieste, dall’altro però necessitano di significativi adeguamenti architetturali che consentano alle prossime reti di essere in grado di assicurare adatte prestazioni in termini di QoS e robustezza ai guasti. Per raggiungere questi obiettivi occorre lavorare su due aspetti chiave: l’ Ingegneria del Traffico e la differenziazione dei servizi. Le reti di trasporto ad alta velocità cui si fa riferimento comprendono le reti di giunzione e le reti dorsali. Queste ultime in particolare hanno sperimentato in tempi recenti un notevole potenziamento in Italia: migliaia di Km di fibra sono stati stesi su tutto il territorio nazionale con grande impegno economico dovuto agli alti costi del cablaggio. Le fibre ottiche, oltre a rappresentare un vero e proprio patrimonio infrastrutturale, costituiscono il mezzo trasmissivo più veloce. Ne consegue che gli eventuali cambiamenti necessari per rispondere alle nuove esigenze di traffico riguarderanno soprattutto gli apparati di rete. Si prevede a questo proposito un impiego sempre più elevato di dispositivi ottici e di router più flessibili. 9 La gestione della rete deve essere accompagnata da un adeguato piano di controllo che tenga conto dei problemi di disponibilità di risorse e di tipologia di traffico offerto. Lo scenario che si prospetta è quello di una rete ottica, eterogenea, multiservizio, basata sul protocollo IP e gestita in modo distribuito. Gli apparati di rete devono avere la capacità di instradare il traffico in modo veloce ed efficiente, e soprattutto devono essere in grado di gestire in modo opportuno le politiche di QoS (Quality of Service). In questo contesto si colloca questo Progetto svolto dalla Fondazione Ugo Bordoni in collaborazione con l’ISCOM (Istituto Superiore per le Comunicazioni e delle Tecnologie dell’Informazione). La principale finalità è stata lo studio di reti ottiche dinamiche in presenza di diverse condizioni di traffico e di politiche di QoS; a tal scopo è stato realizzato un test-bed sperimentale di rete ottica utilizzando come modalità di accesso la soluzione nota come FTTB (Fiber To The Bilding). Le architetture di rete basate sul protocollo Ethernet per il trasporto di pacchetti IP/MPLS direttamente su fibra ottica (1 e 10 Gigabit Ethernet) costituisono una soluzione efficiente per il superamento delle congestioni che da sempre limitano la velocità di trasmissione dati fra reti locali e reti geografiche. Sistemi basati su connessioni GbE ottiche trovano oggi impiego non solo per il collegamento fra switch di livello 2 in reti locali, ma anche per il collegamento diretto fra router che operano a livello 3 in reti metropolitane. Tuttavia la completa diffusione di GbE è inficiata dalla mancanza di alcune importanti funzioni per la gestione e manutenzione della rete (OAM), come la protezione delle connessioni in caso di guasto. Lo schema di protezione di tipo 1+1, estremamente semplice e veloce, è quello più usato, per contro richiede la duplicazione delle risorse quali costose interfacce sui router e fibre ottiche. Soluzioni più avanzate basate su tecnologia WDM riducono le necessità di fibre aumentano però il costo complessivo dell’infrastruttura di rete. In questo lavoro viene dapprima implementato un test-bed per la riservazione della qualità del servizi secondo l’approccio “DiffServ over MPLS”, poi vengono valutati sperimentalmente i principali limiti che caratterizzano la protezione di 10 connessione punto-punto GbE su fibra ottica fra router commerciali di ultima generazione destinati ad un utilizzo in ambito metropolitano. Si evidenzia, in particolare, il tempo impiegato dai router per rilevare e gestire il guasto della connessione, valutando la tempistica richiesta dal protocollo di instradamento Open Shortest Path First (OSPF) per il ripristino del corretto scambio di pacchetti dopo che è stata riattivata fisicamente la connessione. Al fine di migliorare il comportamente dei router nelle situazioni considerate, vengono proposte delle linee di riferimento. Lo studio presenta infine l’implementazione di uno schema di protezione potenzialmente condivisibile, veloce ed economico che evita i problemi e le inefficienze evidenziate sperimentalmente dai router. Lo schema si basa sull’impiego di dispositivi di commutazione ottica (PXC) controllati da segnalazione fuori-banda. L’implementazione mostra la possibilità di sfruttare le potenzialità del sistema di protezione per ridurre l’impiego di risorse pregiate dell’infrastruttura di rete (interfacce sui router e fibre ottiche) pur garantendo tempi di ripristino della connessione di pochi millisecondi. 11 Capitolo 1 STATO ATTUALE DELLE RETI E PROSPETTIVE DI EVOLUZIONE FUTURE 1.1 ARCHITETTURA DELLA RETE FISSA In generale quando si parla di reti bisogna distinguere tra: • Infrastrutture di trasmissione (portanti e tecniche di trasferimento) • Infrastrutture di commutazione (nodi e procedure di smistamento e instradamento) Una rete di telecomunicazione è costituita da un insieme di apparecchiature e risorse per la trasmissione e la commutazione dei segnali. Dal punto di vista dell’architettura, una rete fissa può essere suddivisa in tre parti principali: accesso, giunzione (o raccolta), dorsale. In letteratura è molto spesso utilizzato il concetto di “rete di trasporto”, come l’insieme di portanti e apparati trasmissivi che permette di collegare tra loro i nodi di una rete di TLC. La rete di accesso permette la connessione dell’utente alla centrale, in particolare si può dividere in rete primaria, che riguarda la connessione dalla centrale all’armadio di distribuzione, e in rete secondaria, che riguarda la connessione dall’armadio all’utente. Va precisato che per la struttura utilizzata da Telecom Italia gli armadi in realtà sono due: il primo è connesso alla centrale ed è chiamato armadio di permutazione ed il secondo che connette l’armadio di permutazione con l’utente; quest’ultimo è detto armadio di distribuzione. __________________________________________________________________ La rete di raccolta o rete di giunzione è quella che connette le centrali in ambito cittadino. La rete dorsale connette le città o i grandi centri abitati. Tutto ciò rappresenta una schematizzazione di principio della rete di TLC, è molto probabile, infatti, che nel futuro questa schematizzazione sarà sempre meno realistica, nel senso che saranno più comuni connessioni tra domini che oggi sembrano profondamente distinti. Figura 0.1 : Architettura di rete fissa 1.1.1 Infrastrutture di Trasmissione L’ avvento della fibra, quale mezzo trasmissivo principale nelle reti geograficamente estese, ha condotto, sin dai primi anni Novanta, ad un abbandono dei portanti coassiali in rame. L’uso delle fibre ha inizialmente interessato solo la rete dorsale, sin dalla metà degli anni Novanta però si è assistito ad un lento ma inesorabile affermarsi di questo mezzo anche nella rete di giunzione, come conseguenza dell’ introduzione dei sistemi SDH (Syncronous Digital Hierarchy). Sempre nei primi anni Novanta la rete ha subito una profonda ristrutturazione che ha consentito la posa di alcuni milioni di nuovi rilevamenti d’utente in coppia simmetrica (doppini telefonici), che hanno consentito al gestore, allora 13 __________________________________________________________________ monopolista, di rimediare ad una situazione di profonda carenza, soprattutto nelle grandi metropoli, per quello che riguarda il servizio telefonico di base. I grossi investimenti effettuati sulla rete d’accesso in doppino negli anni Novanta consentono oggi di poter offrire un’infrastruttura importante per la fornitura dei servizi a larga banda attraverso la tecnologie xDSL (Syncronous Subscriber Line). Tuttavia, per fare fronte all’incremento di richiesta di banda sono necessarie altre soluzioni che vanno individuate nel portare una terminazione in una fibra ottica sempre più prossima a casa dell’utente. 1.1.2 La rete di accesso Accesso commutato su doppino telefonico Il mezzo trasmissivo attualmente più utilizzato per la rete di accesso, nonché l’unico che copra completamente il territorio, è la coppia simmetrica in rame denominata usualmente “doppino telefonico”. Un doppino è costituito da due fili in rame, “twistati” e non schermati, e costituisce il portante storicamente utilizzato per la telefonia analogica in area d’accesso. Il doppino collega fisicamente la centrale locale dei servizi di telecomunicazioni (voce ed internet) con l’abitazione dell’utente per tratte che possono andare dalle centinaia di metri fino a qualche Km, da cui il nome di “ultimo miglio”. I collegamenti sono dedicati e permanenti, portando a reti con la tipica configurazione a stella. Attualmente per ragioni storiche la principale rete d’accesso su doppino appartiene a Telecom Italia. La rete dispone di circa 50 milioni di doppini di cui poco più della metà sfruttati dalla clientela d’accesso. In generale si tratta di una buona rete d’accesso con una vita residua di qualche decina d’anni. Accesso su doppino: la tecnologia xDSL Negli anni Ottanta, attraverso la ricerca sulla modulazione, è stato definito un modem di concezione innovativa, la cosiddetta tecnologia DSL (Digital Subscriber Loop) di cui l’accesso base alla rete ISDN ( Integrated Service Digital Network ) costituisce un primo esempio. 14 __________________________________________________________________ Con il termine xDSL si intende una famiglia di tecniche trasmissive che consentono di fornire servizi a larga banda in area d’utente utilizzando come mezzi di trasporto i portanti in rame già istallati. La realizzazione di un collegamento xDSL prevede l’istallazione di un DSLAM (Digital Subscriber Line Access Multiplexer) in una sede centrale e di un NT (Network Termiation) in casa dell’utente, comunemente chiamato modem. Si separa, tramite filtri, la banda fonica da quella dati, senza la necessità di intervenire sul collegamento fisico e riducendo così i costi di fornitura dei servizi. Va però osservato che, considerato lo stato di degrado di alcuni doppini, problemi di diafonia1 rendono disponibili, per i servizi a banda larga, solo il 50% di quelli esistenti. Una caratteristica delle tecniche xDSL è la possibilità di commercializzare all’utente finale un insieme di soluzioni molto variegate in termini di capacità da e verso la rete. L’ADSL (Asymmetric Digital Subscriber Line) è una tecnica trasmissiva asimmetrica che prevede una maggiore capacità dalla rete “downlink” ed una minore verso la rete “uplink”. Per utenze di tipo business sono dedicati accessi di tipo SDSL (Symmetric Digital Subscriber Line) , ed inoltre esiste una piattaforma xDSL che può essere resa disponibile anche per utenze domestiche e prende il nome di VDSL (Very Hight bit rate Digital Subscriber Line). Si tratta di un’evoluzione dei sistemi asimmetrici ADSL verso capacità fino a 52 Mbit/s verso l’utente e di alcuni Mbit/s verso la rete. E’ importante sottolineare che le prestazioni trasmissive delle tecniche xDSL dipendono fortemente dalla lunghezza del doppino telefonico, essendo l’attenuazione proporzionale alla radice della frequenza, e dagli effetti della diafonia su sistemi trasmissivi utilizzanti lo stesso settore di cavo. Accesso dedicato in fibra ottica La fibra ottica costituisce la modalità d’accesso più importante in termini di sviluppo futuro della rete, soprattutto considerando le esigenze dell’industria e 1 Fenomeno di accoppiamento elettromagnetico tra i segnali che viaggiano su portanti affasciati nello stesso cavo. 15 __________________________________________________________________ degli enti che necessitano di capacità ben più elevate di quelle disponibili con l’ADSL. Il costo delle tecnologie per l’accesso ottico risulta meno elevato, per questo motivo, ad oggi, le fibre ottiche sono arrivate sino alla connessione degli armadi e non mancano soluzioni che tendono a portare la fibra, quindi l’alta capacità, sempre più in prossimità dell’utente. In questa maniera si tende a diffondere la fibra sia a livello d’accesso primario che secondario. In letteratura sono presenti tre soluzioni d’accesso per le fibre: ♦ la FTTH (Fiber To The Home), che consiste nel raggiungere i singoli utenti finali direttamente con la fibra ottica; ♦ la FTTB (Fiber To The Building), che consiste nell’effettuare il cablaggio ottico fino agli edifici, adottando nell’ultimo tratto il doppino con sistemi xDSL, o un cavo UTP Fast ethernet; ♦ la FTTC (Fibre To The Curb), che consiste nell’effettuare il cablaggio fino al marciapiede, cioè in prossimità degli edifici, con una soluzione intermedia che è molto vicina a quella alla FTTB. Esistono al momento molti esempi di applicazione in Italia della FTTB soprattutto per grandi aziende, banche, università etc. Allo stato attuale Telecom Italia possiede una rete d’accesso in fibra stimabile intorno a 400000 km, con una lunghezza media dei collegamenti tra centrale ed utilizzatore di circa 2 Km. Su questa rete sono forniti direttamente accessi SDH e, cosa che riguarda più da vicino questo lavoro, accessi di tipo GbE (Gigabit Ethernet). 1.1.3 La rete di giunzione Il traffico generato dai singoli utenti o da piccoli gruppi nella rete d’accesso, prima di andare sulla dorsale, viene aggregato nella rete, secondo modalità opportune, nella rete di giunzione o raccolta. Caratteristica tipica delle reti di raccolta è la presenza di architetture ad anello, che possono essere articolate su più livelli, in cui sono effettuate le operazioni di concentrazione del traffico. Si comincia da piccoli anelli di raccolta locali, in pratica le centrali di un quartiere, fino ad anelli più grandi, metropolitani, in cui 16 __________________________________________________________________ sono inglobati nel percorso dell’anello i nodi di transito più importanti della zona urbana. Nel caso di accesso in fibra, che realizza la soluzione FTTB, il collegamento tra utente e centrale locale è realizzato mediante anelli in fibra ottica, dedicati e condivisi, secondo la tipologia degli utenti, che hanno lo scopo di convogliare il traffico sugli anelli metropolitani, sempre in fibra a più elevata capacità. La tecnologia più utilizzata è l’SDH ma, per il trattamento del traffico Internet, si sta diffondendo quella della LAN estesa con interfacce GbE. Già da qualche anno le reti di raccolta usano sistemi e tecnologie più moderni basate sulla trasmissione in WDM (Wavelength Division Multiplexig), che consentono d’incrementare notevolmente la capacità disponibile su ogni singola fibra ottica. 1.1.4 La rete dorsale Il panorama nazionale sulle reti dorsali evidenzia a breve termine una capacità ampiamente superiore alla domanda effettiva. Per motivi storici è opportuno trattare della rete dorsale di Telecom Italia, poiché data la condizione di ex monopolista è di fatto la più grande compagnia proprietaria di infrastrutture di telecomunicazione. La dorsale è oggi costituita, in prevalenza, da cavi in fibra ottica: circa 260000 Km di fibra in 85000 Km di cavo ottico. Una della caratteristiche della dorsale Telecom è aver opportunamente sfruttato la geografia del Paese installando la cosiddetta “rete a festoni”, che consiste nel collegamento delle città che si affacciano sul mare mediante cavi sottomarini: anziché effettuare onerosi scavi per collegare tutto il paese, si è preferito l’installazione di cavi che costeggiano tutto il paese. Un cavo a festoni ha una lunghezza che si aggira tra i 100 ed i 200 Km. La rete dorsale è per la maggior parte cablata con fibre G.653 o dispersion shifted , fibre che hanno la particolarità di avere una dispersione cromatica prossima allo zero nelle lunghezze d’onda degli amplificatori convenzionali (1530-1560 nm). Sfortunatamente la regione con dispersione cromatica prossima allo zero ha una forte controindicazione per i sistemi WDM, poiché si generano forti effetti non 17 __________________________________________________________________ lineari. Va però osservato che, negli ultimi anni, sono stati messi a punto nuovi amplificatori ottici che lavorano in una regione dello spettro (1570-1610 nm) in cui il valore della dispersione cromatica riduce fortemente gli effetti non lineari. A partire dal 1999 la dorsale Telecom Italia è passata da una tradizionale struttura magliata ad una struttura ad anelli interconnessi, riducendo il numero dei nodi principali. 1.1.5 Numerizzazione delle centrali di Commutazione nella rete pubblica La progressiva sostituzione delle centrali analogiche con quelle numeriche nella rete di commutazione, e l’utilizzo della segnalazione SSN7, hanno permesso l’introduzione di nuovi servizi come l’ISDN, l’integrazione completa con la rete di trasporto numerica, inizialmente PDH (Plesiochronous Digital Hierarchy) e successivamente SDH. I vantaggi ottenuti con la numerizzazione delle centrali si possono elencare nei seguenti punti: ♦ Maggiore qualità del servizio telefonico in termini d’intelleggibilità, affidabilità e disponibilità; ♦ Integrazione della voce con la trasmissione dati; ♦ Servizi di segnalazione automatica a tutti i livelli gerarchici della rete di commutazione; ♦ Ottimizzazione della rete; ♦ Introduzione della flessibilità nella rete e centralizzazione del controllo e della gestione; ♦ Maggiore efficacia nella gestione. La migrazione dalla tecnica analogica a quella numerica ha consentito al Paese di adeguarsi agli standard mondiali di qualità sul servizio telefonico, così come previsto dalle raccomandazioni ITU (International Telecomuncation Union) della serie G. 18 __________________________________________________________________ 1.2 TECNOLOGIE DI COMMUTAZIONE 1.2.1 I Sistemi SDH La tecnologia PDH, che aveva caratterizzato fino agli inizi degli anni Novanta le infrastrutture delle reti di trasporto numeriche, è stata affiancata e quasi completamente sostituita dai sistemi SDH anche detti “sistemi sincroni”. Gli apparati fondamentali dell’ SDH sono gli ADM (Add Drop Multiplexer) per l’inserimento e il prelievo di flussi numerici e i DXC ( Digital Cross Connect ) per la permutazione del traffico a livello di flussi aggregati. Nella seconda parte degli anni Novanta questi sistemi sono stati inseriti in grande quantità sia nella rete dorsale con frequenze di cifra di 622 Mbit/s e 2,5 Gbit/s (STM-4 e 16, DXC 4/4 ), sia nella rete di giunzione con sistemi a frequenze di cifra di 155 Mbit/s e 622 Mbit/s (STM-1 e 4, DXC 4/3/1, ADM-1). Figura 0.2 : Blocchi funzionali di un DXC e di un ADM Allo stato attuale la massima penetrazione dei sistemi SDH si ha nella rete nazionale dorsale, in cui gli apparati raggiungono il 90% di presenza mentre i sistemi PDH vengono progressivamente dimessi. In area metropolitana sono presenti e molto diffusi anelli di raccolta SDH che aggregano il traffico nell’ area di accesso e lo canalizzano verso l’ area di giunzione. Gli apparati della rete SDH hanno favorito un netto miglioramento per quanto concerne la trasmissione numerica dei flussi: 19 __________________________________________________________________ ♦ Razionalizzazione nella gestione complessiva della rete, con un’unica potenziale struttura di trasporto capace di supportare qualsiasi tipo di traffico (voce, dati, traffico ATM e IP, segnali video); ♦ Automatizzazione completa delle operazioni di permutazione a livello di flussi aggregati; ♦ Compatibilità con tutti i sistemi numerici precedenti; ♦ Introduzione di potenti strumenti per la gestione, il controllo, la protezione e la manutenzione della rete su base nazionale. 1.2.2 La tecnologia ATM Dal ’94 Telecom ha avviato la realizzazione di una rete ATM (Asyncronous Transfer Mode), prima in ambito sperimentale all’interno di un progetto con altri operatori europei e dal 1996 in ambito commerciale, sostenendo investimenti in infrastrutture di rete ATM in più di venti città italiane. Questa rete attualmente costituisce il supporto della larga banda ed è impiegata per gestire il traffico dati proveniente dalle reti ADSL. 1.2.3 La tecnologia IP L’affermazione del protocollo IP (Internet Protocol ) e dei servizi di Internet ha fortemente condizionato lo sviluppo delle reti ATM che, di fatto, non costituiscono più la struttura di riferimento per le reti future. Attualmente il trasporto del traffico IP avviene con ATM per la trasmissione a livello di pacchetto ed SDH per il trasporto del segnale. Sia ATM che SDH assicurano la trasmissione del pacchetto IP, tuttavia questo doppio passaggio, IP over ATM over SDH, risulta oneroso in termini di banda in primo luogo per il notevole overhead, poi per tutta una serie di duplicazioni funzionali. Oggi sono in fase di sperimentazione avanzata tecniche di trasporto più semplici e meno costose come ad esempio IP over WDM; in queste tecniche si cerca di eliminare le ridondanze presenti tra IP ed SDH poiché il protocollo IP, 20 __________________________________________________________________ intrinsecamente associato al TCP ( Transport Control Protocol ) già presenta di per se molte tecniche di protezione. 1.3 LE RETI NAZIONALI E PROSSIMI SVILUPPI 1.3.1 Le reti di raccolta e le reti dorsali La rete del trasporto sta divenendo sempre di più una rete “tutta ottica” nel senso che non è solo ottica la trasmissione dei segnali ma diverrà ottica anche l’elaborazione dei segnali nei nodi d’instradamento e rilancio. Esistono precise normative che descrivono come deve essere realizzata una Rete di Trasporto Ottica (OTN, Optical Transport Network) la cui definizione è formulata nella raccomandazione ITU-T G.872. Nonostante la capacità offerta dalle infrastrutture di telecomunicazione sia superiore alla domanda gli attuali meccanismi di gestione non sembrano idonei a soddisfare le esigenze di traffico future a causa della natura statistica del traffico generato nei nuovi servizi a banda larga, completamente diversa da quella del traffico telefonico. Il traffico subisce picchi molto intensi e con distribuzione imprevedibile sui vari rami della rete, per questo si necessita che le reti di prossima generazione siano gestite con tecniche in grado di assegnare circuiti in maniera rapida e automatica. Sulla base di queste considerazioni ci si aspetta di qui a poco un cambiamento nelle reti di trasporto. Questi cambiamenti avverranno sotto diversi aspetti, non necessariamente disgiunti, ma con due fattori in comune: pervasività delle tecniche ottiche e trasporto “tutto IP” direttamente sulla fibra, senza protocolli di livello intermedio. L’evoluzione della rete interesserà tre campi distinti: ♦ Collegamento tra nodi ♦ Piano di controllo2 ♦ Trattamento del traffico da parte dei nodi. 2 Nella terminologia IETF il piano di controllo identifica l’insieme delle procedure di controllo e l’istradamento dei pacchetti. 21 __________________________________________________________________ Collegamento tra nodi I collegamenti tra nodi sfruttano in gran parte le fibra ottiche già stese, e l’incremento delle capacità avviene tramite l’introduzione sia di sistemi a singolo canale con capacità elevate (10 Gbit/s e 40 Gbit/s) sia di sistemi WDM. Vengono utilizzate tecniche particolari per adattare le fibre già installate alle esigenze dei nuovi sistemi come ad esempio la compensazione della dispersione cromatica nelle fibre G.652 e l’amplificazione in banda L nelle fibre G.653, tuttavia non sono escluse anche installazioni di nuovi cavi, in particolare abbiamo in opera la stesura delle G.655 realizzate proprio per sistemi WDM ad alta capacità. Per quanto riguarda i formati di trasferimento, oggi si è orientati ad utilizzare sistemi più semplici ed economici dell’SDH. Attualmente la soluzione più indicata è la trasmissione GbE (Gigabit-Ethernet), dal costo molto inferiore rispetto a quello della tecnica SDH, inoltre offre delle capacità molto competitive visti i profili di traffico attuale: 1.25 Gbit/s e recentemente in commercio anche versioni 10 Gbit/s. L’unico vero inconveniente è che la GbE non può essere utilizzata per collegamenti superiori ai 70 Km. La breve distanza che mette a disposizione questa soluzione è tale che consentirne l’utilizzo esclusivamente in area metropolitana mentre sulla dorsale rimane l’SDH. Piano di Controllo Una delle caratteristiche fondamentali che deve avere una rete di nuova generazione è quella di poter assegnare flussi numerici diretti tra due nodi prefissati in maniera automatica e dinamica per far fronte al traffico di Internet, per ora ci sono due possibilità: la prima è costituita dal piano di controllo GMPLS (Generalised Multi-Protocol Label Switching) definito nell’ambito dell’organismo IETF (Internet Engineering Task Force) e l’ASON ( Automatic Switched Optical Network), definito in ambito ITU-T. L’aspetto più rilevante sia di GMPLS che di ASON è che permettono un’assegnazione automatica di banda , basata su una verifica del piano di controllo sullo stato delle risorse tra i nodi. 22 __________________________________________________________________ L’adozione del Bandwidth on Demand, oltre che ad offrire un innovativo servizio di rete, consente, di ridurre i costi di servizi tradizionali (CAPEX3 e OPEX4) grazie ad una gestione più snella di rete. Trattamento del traffico da parte dei nodi Una gestione del segnale a livello ottico favorisce una notevole diminuzione dei tempi di commutazione nonchè un risparmio sui costi di gestione della rete. Nei sistemi WDM questo già avviene, tramite gli OADM (Optical Add Drop Multiplexer) i canali ottici sono inseriti ed estratti dalla rete, gli OADM sono dispositivi base per gli anelli ottici. Gli OXC (Optical Cross Connect) sono una classe di dispositivi per le nuove reti, questi consentono lo scambio di segnali all’interno di matrici con moltissime porte. Un altro dispositivo chiave è il convertitore di frequenza, questi consente il cambiamento del colore del segnale secondo le esigenze di traffico, di congestione della rete e di ripristino. Infine un altro dispositivo importante per la rete ottica è l’impiego di “rigeneratori ottici 3R” (rigenerazione, risagomatura, recupero), sigla che indica l’integrazione di tre processi cui sottoporre il segnale: amplificazione, reshaping dell’impulso ed eliminazione delle fluttuazioni nel ritardo di trasferimento (jitter). Nel prossimo paragrafo verrà approfondita la descrizione degli apparati appena citati. 1.4 SVILUPPO DEL CONTROL-PLANE ED EVOLUZIONE DELLE RETI DI TELECOMUNICAZIONI IN AREA METRO E CORE Le reti trasmissive, in particolare nelle aree metropolitane e lunga distanza (core), sono oggetto di un’evoluzione che si dipana su due direttrici principali: l’aumento dell’intelligenza degli apparati di rete, attraverso lo sviluppo di un piano di controllo (parzialmente distribuito), e l’integrazione dei livelli di switching all’interno del nodo. La Figura 1.3 mostra uno scenario di rete che fotografa la 3 4 CAPEX: Costi infrastrutturali OPEX: Costi di manutenzione legati all’intervento umano 23 __________________________________________________________________ situazione attuale o che si prospetta nel breve termine (2006-2007). Tale scenario vede la presenza di un’evoluzione della tecnologia SDH (chiamata SDH agile) che permette, attraverso GFP (Generic Framing Procedure) e LCAS (Link Capacity Adjustment Scheme), la modellizzazione del profilo di un traffico a pacchetti (generalmente basato su trama Ethernet) in un numero variabile di VC-4 sulla rete trasmissiva server. Particolarmente interessanti le opportunità offerte dall’integrazione delle funzionalità del controllore LCAS con il piano di controllo ASON/GMPLS. Figura 0.3 :Scenario rete attuale Il più importante punto di innovazione della rete rappresentata dalla Figura 1.4, rispetto allo scenario di più breve termine (Figura 1.3), è l’integrazione verticale (che comprende più livelli della pila ISO/OSI) del piano di controllo; tale integrazione interessa in particolare i livelli 1 e 2, ma meno il livello 3 che, in questo scenario, è rappresentato dai protocolli IP/MPLS attraverso un proprio piano di controllo. Questo scenario rende di fatto possibile il servizio di BoD (Bandwidth on Demand), vale a dire l’offerta di servizi di connettività a banda variabile su richiesta del cliente. 24 __________________________________________________________________ Figura 0.4 : Integrazione verticale del piano di controllo L’evoluzione in termini di intelligenza e di integrazione delle funzionalità porta allo scenario rappresentato in Figura 1.5. Questo modello, proiettato in uno scenario di lungo termine (2010-2015), viene chiamato peer-to-peer in quanto elimina di fatto il rapporto client/server tra i piani di controllo dei diversi strati di rete. Figura 0.5 : Modello Peer to Peer 25 __________________________________________________________________ In questo modello, le reti dati, basate sul protocollo IP, e le reti ottiche condividono il medesimo protocollo di routing (concetto storicamente nato in ambito IP), ovviamente dotato di estensioni che lo rendono fruibile anche per reti trasmissive. Questo fatto permette ad un router di calcolare il percorso end-to-end anche se i vari router sono connessi tra loro attraverso una complessa rete di trasporto. In definitiva, apparati IP e trasmissivi condividono un’unica visione di rete. 1.4.1 Nuovi servizi e vantaggi economici dall’adozione di reti ASON/GMPLS Le reti con funzionalità ASON/GMPLS prevedono la presenza di un piano di controllo in grado di eseguire automaticamente alcune funzioni di base (routing, discovery, segnalazione) per l’instaurazione o l’abbattimento di connessioni a larga banda end-to-end. A partire da queste, si possono predisporre funzionalità più complesse che mirano, in generale, ad ottenere una migliore efficienza ed una maggiore flessibilità e rapidità di risposta, attraverso l’utilizzo dinamico delle risorse di rete. Il fatto di adottare reti trasmissive dotate di un piano di controllo oppure, nel caso del GMPLS, la possibilità che tale piano di controllo sia comune a più livelli di rete, può condurre al contenimento degli investimenti (CAPEX) e alla riduzione dei costi operativi (OPEX). In particolare, le funzionalità considerate, abilitate dal piano di controllo nell’ambito delle tecnologie ASON e GMPLS, che possono portare a vantaggi economici per l’operatore di rete (riduzione CAPEX e OPEX) sono: ♦ Circuit Re-organization ♦ Installazione automatica / Network Inventory automatico ♦ Provisioning automatico ♦ Multi-layer resilience ♦ Multi-layer traffic engineering ♦ Trasparenza ottica 26 __________________________________________________________________ 1.4.1.1 Circuit Re-organization Il vantaggio primario della Circuit Re-organization riguarda principalmente il recupero di risorse trasmissive, che consente di posticipare interventi di espansione della rete, e quindi permette di ridurre gli investimenti (CAPEX). L’entità del risparmio che si ottiene adottando tecniche di circuit reorganization automatiche dipende da numerosi fattori, i più importanti dei quali sono: ♦ topologia della rete (numero di nodi e grado di magliatura); ♦ risorse disponibili ♦ distribuzione ed evoluzione temporale del traffico; ♦ frequenza dei riordini; L’esecuzione di procedure di Circuit Re-organization in una rete convenzionale richiederebbe un significativo intervento di risorse umane (accesso ai data-base, progettazione dei percorsi, esecuzione dei ribaltamenti). La disponibilità di una rete ASON consente invece l’esecuzione completamente automatica della procedura, rendendo praticamente attuabile questa procedura, altrimenti di difficile realizzazione. 1.4.1.2 Installazione automatica degli apparati La funzionalità di installazione automatica permette di installare gli elementi di rete configurando, in modo automatico, le informazioni relative ai collegamenti tra essi senza necessità di un intervento manuale sugli apparati. I vantaggi di questa procedura automatica impattano principalmente sui costi operativi (OPEX), dal momento che si può ottenere un potenziale risparmio attraverso una riduzione delle risorse impegnate nella configurazione degli apparati. 1.4.1.3 Network Inventory automatico Grazie al resource discovery, la funzionalità di network inventory automatico permette di aggiornare in maniera automatica i data-base di rete, mantenendoli 27 __________________________________________________________________ costantemente allineati con la situazione reale senza la necessità di complessi interventi manuali. Il network inventory automatico si traduce quindi in una riduzione degli OPEX derivante dall’automazione di operazioni che oggi vengono ancora compiute da operatori umani. L’allineamento automatico, e in tempo reale, fra la situazione della rete e i dati registrati nel data base impedisce inoltre di commettere errori di inserimento, rimuovendo alla radice la necessità di verificare e correggere il data base e contribuendo così ad un’ulteriore significativo risparmio di tempo e risorse. 1.4.1.4 Provisioning automatico È bene evidenziare che nelle reti ASON/GMPLS il primo passo dello schema (Figura 0.6) del provisioning di una connessione (cioè l'inoltro della richiesta da parte di un cliente e la relativa attivazione del processo di provisioning) può essere realizzato in tre modalità: ♦ tradizionale (richiesta inviata al front-end commerciale); ♦ semi-automatica (ad esempio richiesta inoltrata dal cliente via Web direttamente verso il piano di gestione); ♦ automatica (richiesta attraverso interfaccia UNI, o interfaccia interna nel caso del GMPLS). Le prime due modalità abilitano connessioni di tipo soft-permanent, mentre la terza instaura connessioni di tipo switched. Indipendentemente dalla modalità di richiesta della connessione, grazie alle funzionalità del piano di controllo (resource discovery, routing e connection management) i passi 2, 3 e 4 di Figura1.6 nel provisioning della connessione (sia soft-permanent sia switched) possono avvenire in maniera automatica. 28 __________________________________________________________________ Figura 0.6 : Provisioning della connessione In sintesi, a prescindere da come il cliente inoltri la richiesta (tradizionale, semiautomatica, automatica) di connessione, il possibile elemento di valore/risparmio risiede nello snellimento, in virtù degli automatismi introdotti dal piano di controllo, della procedura di provisioning. 1.4.1.5 Multi-layer resilience La multi-layer resilience consiste in una tecnica per cui i meccanismi di resilience (ad esempio restoration e protezione) sono applicati in modo coordinato e dinamico dalle piattaforme IP e trasmissiva. Questo abilita una situazione particolarmente vantaggiosa in quanto lo strato IP richiede in modo permanente esclusivamente la connettività necessaria in condizioni nominali, mentre solo in presenza di guasto richiede la capacità aggiuntiva, ma limitatamente a dove è strettamente necessaria. Questa strategia richiede un’interazione molto stretta tra i due strati di rete, che, in tecnologia ASON GMPLS, può essere realizzata dal piano di controllo e da interfacce (UNI o interfacce interne) tra router IP e crossconnect ottici. 29 __________________________________________________________________ 1.4.1.6 Multi-layer traffic engineering Una delle principali tecniche adottate nel traffic engineering tradizionale (ad es. in reti IP/MPLS) per garantire i requisiti di QoS e per ottimizzare l'uso delle risorse di rete, prevede il re-instradamento del traffico (LSP MPLS). Estendendo questo concetto ad una rete IP su Ottico (ASON/GMPLS), il traffic engineering multilivello offrirebbe la possibilità di reinstradare in maniera integrata ed automatica sia il traffico IP (traffic engineering) sia effettuare connessioni ottiche preposte al suo trasporto (circuit re-organisation). Questo potrebbe permettere, a parità di traffico IP, un'ulteriore ottimizzazione delle risorse di rete preposte al suo trasporto e ciò implicherebbe un ulteriore risparmio sul numero di circuiti e di conseguenza sugli investimenti (CAPEX). Più in dettaglio, la possibilità di implementare il Traffic Engineering Multilivello porta ad un risparmio per quanto riguarda: ♦ Banda. Grazie alle funzionalità di Traffic Engineering Multilivello non è più necessario allocare risorse sul picco di traffico o tenendo libere delle risorse per far fronte a eventi improvvisi che potrebbero generare degli aumenti non programmati/bili della domanda. ♦ Dimensioni dei Router. La cooperazione tra il livello dati e quello trasmissivo permette di delegare al secondo tutte le problematiche legate all’allocazione e all’utilizzo delle risorse, quindi è proprio sullo strato IP che si possono avvertire i maggiori risparmi in termini di banda, risparmio che si traduce in un numero minore di porte sui router e talvolta in apparati di livello 3 di taglia più piccola. 1.4.1.7 Trasparenza ottica Un modo vantaggioso di sfruttare la disponibilità di matrici di commutazione ottiche consiste nella definizione di algoritmi/procedure che abilitano il routing dinamico (in una rete con funzionalità ASON/GMPLS), finalizzato al risparmio di risorse di rete ed in particolar modo di rigeneratori OEO e convertitori di 30 __________________________________________________________________ lunghezza d’onda). L’idea è quella di poter disporre, per la progettazione del path di una connessione, di un piano di controllo evoluto, in grado di valutare il degrado fisico del segnale e di scegliere il percorso che consente di minimizzare l’impiego di conversioni in elettrico. 1.4.1.8 Aumento Revenues L’adozione delle tecnologie ASON/GMPLS (ed in particolare la possibilità di instaurare connessioni on-demand) permette la fornitura di alcuni servizi di connettività dinamica per il trasporto di informazioni generate da particolari applicazioni (ad. esempio alcune applicazioni di computing grid) che sarebbe impossibile o troppo costoso fornire altrimenti. Inoltre il bandwidth on-demand abilita la riduzione del costo industriale di un collegamento grazie all’ottimizzazione dell’uso delle risorse di rete, all’automazione di alcune complesse procedure e soprattutto grazie al fatto di poter condividere alcune risorse trasmissive tra più clienti che non le utilizzano contemporaneamente. Tale diminuzione del costo industriale può riflettersi in un aumento dei guadagni dovuto semplicemente ad una minore spesa per fornire gli stessi servizi, oppure grazie all’attrazione di nuovi clienti abilitata dalla possibilità di praticare prezzi più bassi. 1.5 CONCLUSIONI Per più di un decennio le reti SDH/SONET sono state alla base delle infrastrutture di trasporto nelle reti metropolitane e a lunga distanza, consentendo gestione efficiente della banda e garanzia di qualita' del servizio. Piu' recentemente, l'ITU ha standardizzato l' OTN (recc. G709 e correlate), estendendo i concetti "tradizionali" delle reti di trasporto alla tecnologia WDM. In questi ultimi anni si registra una diffusa tendenza a considerare obsolete tali tecnologie di trasporto, le quali (pur presentando caratteristiche vantaggiose) risultano costose e poco efficienti. Si ritiene quindi che Ethernet possa essere una migliore alternativa per l'aggregazione ed il trasporto nelle reti pubbliche, a partire da quelle di accesso 31 __________________________________________________________________ metropolitano. Nel capitolo seguente si analizzerà tale prospettiva sulla base delle caratteristiche di tale tecnologia per come e’ descritta negli standard già approvati (principalmente ITU ed IEEE) e per come potrebbe diventare grazie agli standard in via di definizione, cercando di individuare il ruolo che tali caratteristiche le assegnano in una rete di trasporto "ideale" e, di conseguenza, il ruolo che essa potrà effettivamente giocare nelle reti del futuro. 32 Capitolo 2 EVOLUZIONE DELLO STANDARD ETHERNET NELLE RETI MAN 2.1 INTRODUZIONE In questo capitolo verrà illustrato nel dettaglio lo standard Ethernet e la sua rapida evoluzione. Verranno quindi descritti i processi di standardizzazione attualmente in corso che hanno come obiettivo primario quello di rendere l’Ethernet la tecnologia dominante per il trasporto dati. 2.2 LO STANDARD ETHERNET Lo standard Ethernet si sta affermando in questi ultimi anni come tecnologia dominante non solo a livello di rete locale, ma anche a livello di rete metropolitana e geografica. I maggiori vantaggi derivanti dalla migrazione della tecnologia Ethernet a livello di area metropolitana si possono riassumere nei seguenti punti: velocità, scalabilità, semplicità operazionale, convenienza economica della soluzione. In questo contesto i principali costruttori e i principali operatori di telecomunicazioni si stanno focalizzando sulla Ethernet nativa come soluzione primaria per l’infrastruttura della rete di accesso metropolitana per fornire alla clientela finale servizi di connessione Ethernet dedicati e/o condivisi. Ethernet è una tecnologia nata per le reti locali di computer, quindi per consentire lo scambio diretto di dati in formato elettronico tra più di due computer. La natura generale di qualsiasi Local Area Network, e quella di Ethernet in particolare, è di consentire il libero colloquio con qualsiasi macchina collegata e di trasmettere le __________________________________________________________________ stesse informazione contemporaneamente a tutte le macchine in ascolto (broadcasting). Ethernet non è necessariamente la migliore delle tecnologie possibili, ma si è dimostrata la più economica e la più facile da utilizzare il che ne ha decretato un enorme successo a tutti i livelli d'impiego e in qualsiasi area geografica del mondo. La tecnologia Ethernet fu sviluppata da tre società, Digital, Intel, Xerox. Successivamente, considerando le potenzialità di diffusione mondiale la sua standardizzazione fu affidata ad un ente al di sopra delle parti, all’ Institute of Electrical and Electronics Engineers (IEEE), un ente statunitense con sede a New York che riunisce scienziati, ingegneri e studenti e che nella prima metà degli anni Ottanta creò un comitato, identificato dalla sigla IEEE 802, il cui compito è di codificare tutti i tipi primari di rete locale, incluso naturalmente Ethernet. Lo standard Ethernet è l’IEEE 802.3, in cui inizialmente si definirono le specifiche elettriche e fisiche per una rete Ethernet a 10 Mbit/s su cavo coassiale. Successivamente lo standard è stato ampliato e perfezionato a più riprese, cominciando dal 1985 con la definizione del metodo di accesso e proseguendo, poi, con l'aggiunta di versioni capaci di funzionare anche su cavi di tipo differente, coassiali, doppini multipli e fibra ottica, e a velocità diverse, 100 Megabit/s, 1 Gigabit/s e 10Gigabit/s. Per identificare un’interfaccia Ethernet, si utilizza un sistema di sigle dove il primo numero indica la velocità in megabit (10, 100, 1000, 10Giga), segue una sigla alfanumerica per identificare il tipo di mezzo (Base T per doppini in rame, Base SX, Base LX, Base LH, Base ZX per fibra ottica e distanze crescenti). Ethernet usa un solo cavo per collegare decine di stazioni di lavoro, ciascuna delle quali riceve contemporaneamente tutto quel che passa sulla rete, mentre solo una stazione alla volta ha la facoltà di trasmettere. Ogni stazione è indipendente e non esiste una singola entità che funzioni da arbitro. Per inciso, esiste anche una particolare versione di Ethernet che consente la trasmissione contemporanea da diverse stazioni multiple, usando canali separati che occupano contemporaneamente lo stesso cavo coassiale, seguendo un approccio analogo a quello usato per la televisione via cavo. In tal caso si parla di Ethernet broadband (a banda larga) e ogni scheda di rete deve montare speciali modem ad alta 34 __________________________________________________________________ frequenza per trasmettere e ricevere sul cavo. Viene usata molto di rado e solo in ambienti particolari, in ragione dell'elevato costo delle schede. Tornando all'Ethernet convenzionale, vediamo che le informazioni sono trasmesse nella forma d'impulsi che si propagano a partire dalla stazione emittente verso i due estremi della rete (a destra e a sinistra) fino a raggiungere il punto in cui il cavo termina ai due estremi. In questo percorso incontrano altri nodi che sono collegati lungo il cavo e che ascoltano tutto quello che passa cercando di scoprire se è indirizzato a loro. Ogni messaggio in transito sulla rete (detto anche trama o frame, all'inglese, perché composto da una sequenza di bit tra loro combinati) reca al proprio interno l'indirizzo di origine e quello di destinazione, perciò ogni macchina lo copia in una piccola porzione di memoria (buffer) di cui dispone nella scheda d'interfaccia, legge l'indirizzo di destinazione e, se non coincide con il proprio, lo scarta. Figura 0.1 : Trama Ethernet Con questo meccanismo, assicurandosi che una sola macchina alla volta abbia la possibilità di trasmettere mentre tutte le altre sono in ascolto, si costruisce in modo semplice una rete a cui è facile aggiungere nodi, visto che ogni nuovo nodo riceve automaticamente tutto quel che transita sul cavo e diventa immediatamente parte del gruppo di lavoro, acquistando anche la facoltà di trasmettere ogni volta che la linea è libera. Questo sistema vale per qualsiasi genere di rete Ethernet, indipendentemente dalla sua velocità di funzionamento o dal tipo di cavo utilizzato. Ogni scheda di rete disponibile in commercio dispone di un proprio 35 __________________________________________________________________ indirizzo permanente, detto MAC address, unico al mondo, espresso in numeri esadecimali e lungo 48 bit. I primi 24 bit di questo indirizzo indicano il costruttore e vengono conservati in un registro mondiale così da evitare duplicazioni. Gli altri 24 bit vengono assegnati dal costruttore medesimo, scheda per scheda, così da creare una combinazione univoca per ciascun pezzo. Grazie a questo metodo, è possibile risalire in ogni momento a chi ha fabbricato la scheda e non esiste la benché minima possibilità che sulla stessa rete esistano due nodi con il medesimo indirizzo fisico. La connessione di varie macchine sullo stesso cavo prende il nome di topologia elettrica a "bus" in quanto tutti i dispositivi sono collegati al medesimo percorso di trasmissione e ricevono contemporaneamente lo stesso segnale. Nelle prime reti Ethernet la topologia elettrica corrispondeva anche alla topologia fisica, cioè al modo in cui fisicamente le varie stazioni venivano collegate tra loro. Successivamente, con l'adozione del doppino, si è mantenuto una topologia elettrica a bus (elemento invariabile nella natura di Ethernet), ma la topologia fisica, cioè il modo in cui i cavi vengono distribuiti, è diventata una stella: tutte le macchine si collegano a un punto centrale. Figura 0.2 : Esempi di topologie fisiche Qualunque sia la topologia fisica e qualunque sia la velocità, la tecnica di trasmissione su rame rimane invariata e consiste nel trasmettere un segnale, un'onda quadra, che oscilla tra valori di tensione negativi e positivi e ogni transizione (da negativo a positivo o viceversa) indica la presenza di una cifra binaria, rispettivamente 1 e 0. Questo sistema prende il nome di codifica di Manchester e ha il vantaggio di rendere molto più sicuro il riconoscimento degli 1 e degli 0 visto che non si misura l'ampiezza dell'impulso ma si usa l'inversione di 36 __________________________________________________________________ polarità, facilmente riconoscibile anche in caso di presenza di disturbi. Inoltre, oltre a convogliare le informazioni digitali, questo genere di codifica fornisce la sincronizzazione per tutte le interfacce collegate alla rete. 2.3 IL MECCANISMO DI ACCESSO CSMA/CD Nella rete Ethernet non esiste un arbitro degli accessi bensì un meccanismo in base al quale le singole stazioni di lavoro si "autodisciplinano", astenendosi dal trasmettere quando qualcun'altra lo sta già facendo. Tecnicamente questo sistema prende il nome di CSMA/CD (Carrier Sense Multiple Access/Collision Detection - accesso multiplo a rilevazione di portante con segnalazione di collisione). Interpretando il significato di questa sigla si comprende anche l'anatomia del meccanismo. La prima azione che qualsiasi interfaccia esegue prima d'iniziare a trasmettere consiste nell'ascoltare se qualcuno lo sta già facendo, questa è la rilevazione della portante. Nel caso di un sistema ad interfacce Ethernet 10BaseT, se qualcuno sta trasmettendo, sul cavo sarà presente un segnale a 20 MHz su cui viaggiano 10 Mbit per secondo (codificati con il sistema di Manchester). In caso di "occupato" la work-station desiste e tenta di ritrasmettere più tardi. L'accesso alla rete è multiplo, perciò tutte le stazioni hanno la stessa facoltà di parlare a condizione di accertarsi prima che la linea sia libera, operazione che possono eseguire tutte in contemporanea. Supponiamo, a questo punto, che due stazioni siano pronte a trasmettere e che abbiano trovato la linea libera. La trasmissione parte nello stesso momento e quella della prima inevitabilmente collide con quella della seconda provocando la sovrapposizione dei due segnali elettrici sulla linea e l'impossibilità di riconoscere i bit che vi erano contenuti. Se non esistesse nessun sistema che segnalasse l'avvenuta collisione, le due stazioni continuerebbero a trasmettere i rispettivi messaggi per intero, nella convinzione che questi arriveranno a buon fine. Per questo motivo si è previsto nella interfaccia un ulteriore circuito che rimane sempre in ascolto, anche quando la scheda d’interfaccia medesima sta trasmettendo, per verificare che non siano avvenute collisioni. Il circuito deve 37 __________________________________________________________________ verificare la presenza sulla linea di valori di tensione superiori alla norma. In caso di collisione, infatti, i segnali elettrici delle due stazioni si mescolano e finiscono anche per sommarsi, perciò la tensione risultante che circola in rete è maggiore. Non appena la collisione viene rilevata, le schede d'interfaccia di entrambe le stazioni non interrompono immediatamente la trasmissione, ma continuano a inviare bit fino a raggiungere la dimensione minima di un pacchetto di 64 Byte. Questo per fare in modo che anche tutte le altre macchine sulla rete si accorgano che la collisione è in corso e che la rete è momentaneamente bloccata. Dopo di che interrompono la trasmissione e attivano un timer di durata casuale prima di ritentare la trasmissione. Il fatto che il timer sia casuale impedisce che entrambe ripartano nello stesso istante, causando una nuova collisione. Se, nonostante l'uso dei timer, la collisione si verificasse ancora, il timer verrebbe allungato progressivamente fino a un punto in cui il continuare delle collisioni indicherebbe un guasto fisico sulla rete e le singole schede d'interfaccia comunicherebbero al rispettivo computer l'impossibilità di trasmettere. Nella realtà le collisioni sono più frequenti di quello che a prima vista potrebbe sembrare. Infatti, oltre al caso fortuito visto prima di due stazioni che trasmettono esattamente nello stesso momento, esistono anche altri casi in cui due o più macchine cercano di prendere possesso della linea con la convinzione che sia libera, quando questa in realtà non lo è, e c'è già qualcun altro che ha cominciato a trasmettere. Per capire come questo possa accadere dobbiamo parlare di tempi: alla velocità di 10 Mbit per secondo ci vogliono 100 nanosecondi per inviare un singolo bit. Trattandosi di un impulso elettrico che viaggia alla velocità della luce, la propagazione non è istantanea anche se molto veloce. Si verifica quello che in termini tecnici si chiama "ritardo di propagazione". Ci vuole circa un nanosecondo per percorrere 30 centimetri e, prima che il secondo bit sia uscito dalla scheda di rete che sta trasmettendo, il primo bit ha circa trenta metri di vantaggio. Le reti Ethernet hanno lunghezze di centinaia di metri perciò può benissimo accadere che una seconda stazione, diciamo a 90 di metri distanza dalla prima, ascolti la linea nel momento in cui la prima ha iniziato a trasmettere e la trovi comunque libera, visto che il primo bit non è ancora arrivato fino a lei. In tal 38 __________________________________________________________________ caso la seconda stazione inizierebbe la propria trasmissione e quasi subito si troverebbe coinvolta in una collisione. Anzi, anche una terza stazione, ancora più distante, potrebbe partire nel frattempo e provocare un vero e proprio "tamponamento a catena". Questo ci fa capire per quale motivo, al crescere del numero di stazioni presenti sulla rete, aumenti anche il numero di collisioni e ci spiega anche perché una rete Ethernet non possa superare una certa lunghezza. Il problema viene ulteriormente complicato dal fatto che, mentre la seconda e la terza stazione si accorgono della collisione quasi immediatamente, la prima non se ne rende conto fino a quando il segnale di collisione rimbalza indietro lungo la rete e ritorna fino a lei. Quindi si aggiungono ulteriori tempi morti perché, come abbiamo visto prima, bisogna continuare a trasmettere almeno 64 Byte anche in caso di collisione, così da far proseguire la collisione abbastanza a lungo da consentire a tutte le stazioni coinvolte di accorgersene. La quantità di Byte da trasmettere è legata al tempo che il segnale elettrico impiega per completare un viaggio di andata e ritorno (round trip) sull'intera rete. Per l'Ethernet a 10 Mbps, 10BaseX, le specifiche dicono che, qualunque sia il tipo di cavo utilizzato, un singolo bit non deve impiegare più di 50 µs per coprire l'intera lunghezza della rete nei due sensi, il che equivale a trasmettere 500 bit, cioè 62,5 Byte, arrotondati a 64. Da questi parametri di partenza deriva una serie di vincoli di lunghezza del cavo, di numero massimo delle stazioni per tratta di cavo e di numero massimo di ripetitori. Questi vincoli cambiano per i vari tipi di Ethernet. Per estendere il limite della rete oltre il valore di 50 µs , per l'andata e ritorno, è necessario creare una seconda rete e collegarla alla prima attraverso un dispositivo "ponte" (chiamato bridge) che memorizza ogni messaggio in arrivo da una parte e lo ritrasmette alla rete successiva solo se è destinato a questa, oppure lo scarta se si tratta di un messaggio che deve rimanere all'interno della prima rete. Così facendo si svincolano le temporizzazioni della prima rete (che dal punto di vista del bridge diventa un "segmento") dalla temporizzazione della seconda. Inoltre così facendo si riduce il traffico generale e le collisioni, visto che si evita il propagarsi di traffico inutile tra le due. 39 __________________________________________________________________ 2.4 IL DOMINIO DI COLLISIONE Ethernet si è evoluta moltissimo negli ultimi dodici anni perciò era inevitabile che alcuni dei suoi termini originali cambiassero significato oppure che scomparissero dall'uso comune. Esistono in effetti numerosi termini che ricorrono nei vari standard, ma che qui non abbiamo neanche citato perché ormai sostituiti da parole più semplici oppure semplicemente non più usati. La parola "segmento" costituisce un caso particolare, poiché, col tempo, ha ampliato il proprio significato per abbracciare cose nuove senza abbandonare al contempo le vecchie, perciò cambia sfumatura a seconda del contesto in cui viene impiegata e può indurre in confusione non avendo confini ben delimitati. Le prime reti Ethernet funzionavano su cavo coassiale (10Base-5 e 10Base-2) e identificavano nel segmento la tratta di coassiale che costituiva un singolo percorso elettrico non interrotto, un singolo lungo pezzo di cavo, chiuso alle due estremità dai terminatori. Quando si aggiungeva un ripetitore, si allargava la rete creando un secondo segmento, fino a un massimo di cinque segmenti, di cui due riservati unicamente all'interconnessione di ripetitori (segmenti di collegamento) e tre capaci di ospitare nodi (stazioni di lavoro, server, eccetera) al loro interno (segmenti popolati). I ripetitori erano oggetti costosi e venivano usati solo in reti di grandi dimensioni. Spesso, soprattutto con le reti su coassiale sottile, esisteva un solo segmento e questo veniva di fatto identificato con l'intera rete e con il traffico che vi circolava. Perciò il concetto si estese all'insieme delle stazioni collegate tra loro da un percorso elettrico ininterrotto con tutto il traffico relativo. Con l'avvento delle reti su doppino, il segmento, nella definizione originale, finisce per essere composto solo da due nodi: da una parte l’apparato (stazione di lavoro, server o stampante) e dall'altra la porta del concentratore. In particolare ogni concentratore, o HUB, funziona da ripetitore nei confronti di ciascuna porta perciò, quello che una volta era molto costoso e usato solo in casi particolari adesso diventa talmente comune da trovare un ripetitore per ogni singola stazione collegata. Perciò, benché nelle reti 10Base-T sia sempre necessario usare la definizione originale di segmento al fine di avere uniformità con gli altri standard 10Base-X, cioè tratto il 40 __________________________________________________________________ cavo elettricamente ininterrotto che collega i nodi, l'abitudine del recente passato ci porta ad associare al segmento l'idea di numerosi nodi e quindi ad estenderne il significato fino a coprire l'intero dominio di collisione. Ogni singola macchina collegata alla rete 10Base-T costituisce un segmento elettrico a sé stante, ma fa parte di un singolo dominio di collisione che unisce a tutte le altre macchine collegate allo stesso hub e tutti gli altri hub e le relative macchine dei rimanenti quattro segmenti in cascata. Il dominio di collisione unifica tutti i segmenti della rete e tutti i ripetitori per il fatto che questi ultimi si limitano ad amplificare il segnale di modo che possa proseguire nel segmento successivo, amplificando allo stesso modo anche le collisioni. Quindi, tutte le macchine collegate allo stesso dominio di collisione condividono non solo il medesimo traffico ma anche le stesse collisioni, indipendentemente da quale sia il concentratore a cui sono collegate. Chiunque colleghi almeno due macchine a un hub 10Base-T ha creato un dominio di collisione composto da due segmenti, e le sue dimensioni aumentano con l'aggiunta di altre connessioni. Sfortunatamente la parola "dominio di collisione" è alquanto roboante e non è molto pratica da usare, perciò è caduta in disuso e lo stesso è accaduto ai segmenti. Si è cominciato a parlare in generale di "rete" riferendosi all'insieme delle macchine legate tra loro dai vari hub. Tutto è andato bene fino a che queste reti sono cresciute al punto da portare le collisioni a livelli vertiginosi compromettendone il funzionamento. Allora si è deciso di "segmentarle" vale a dire di suddividerle in diversi domini di collisione usando un altro oggetto, più sofisticato e costoso di un ripetitore, che funge da ponte tra i due domini, lasciando passare solo il traffico incrociato e filtrando tutte le collisioni e tutto il traffico che deve rimanere all'interno di un solo dominio di collisione, alias segmento. Questo genere di apparecchiatura prende il nome di bridge e non solo svolge le funzioni di ripetitore, ma memorizza e filtra tutti i messaggi in transito facendo passare solo quelli che sono effettivamente diretti al segmento dall'altra parte. Oggi la parola segmento è pronta per una nuova rivalutazione e per sostituire un qualche altro "dominio" di fascia più alta che nel frattempo si sia costituito. Infatti il bridge, da principio, era un'apparecchiatura abbastanza costosa. Si trattava di un 41 __________________________________________________________________ vero e proprio computer che svolgeva il lavoro di filtro via software. Col tempo, la tecnologia elettronica è progredita al punto che le funzioni software sono state registrate permanentemente in circuiti hardware dedicati a svolgere esplicitamente questa funzione e perciò molto veloci oltre che relativamente economici. Sono nati così gli switch (commutatori) che altro non sono che tanti bridge miniaturizzati e completamente integrati in hardware, ciascuno assegnato a una porta individuale dello switch. A questa porta si può collegare un intero segmento Ethernet (dominio di collisione) oppure una singola stazione. In questo ultimo caso la singola stazione può usare tutta la linea (10 o 100 Mbps) per sé senza il rischio d'incorrere in collisioni, salvo quelle dovute accidentalmente a disturbi incontrati sulla linea. In tal modo l'efficienza si spinge fino alla quasi totalità della capacità di trasmissione teorica della rete Ethernet. Gli switch sono ancora relativamente costosi, ma il prezzo scende rapidamente e quando sarà sceso a sufficienza da diventare di uso comune, "segmento" probabilmente cambierà ancora una volta il proprio significato. 2.5 DALLE LAN ALLE MAN: SWITCHING ETHERNET Perchè potesse assumere il ruolo di tecnologia unificante multiservizio, e quindi poter realizzare tutte le funzioni del trasporto (trasmissione, commutazione, gestione, ecc) per servizi come la fonia, la videocomunicazione, il video on demand, lo standard Ethernet originario è stato modificato. In particolare, tramite gli standards IEEE 802.1p/q, sono state aggiunte le funzionalità necessarie per suddividere e sottocanalizzare il flusso trasmissivo in una molteplicità di connessioni logiche denominate Virtual LAN (VLAN), ciascuna con le proprie opzioni di prestazioni QoS. Queste funzioni sono basate su etichettatura (tagging) delle trame fatta con l’aggiunta di un campo di quattro byte all’header MAC (Medium Access Control) delle trame Ethernet tradizionali. Il campo aggiunto, o tag, è fatto come indicato in Figura 0.3; esso è utilizzato per identificare i flussi di traffico (VLAN identifierID) e per stabilire differenti classi di servizio (Class Of Services, COS), cioè differenti priorità con cui i flussi relativi a tali classi devono essere trattati in rete. 42 __________________________________________________________________ INDIRIZZO DI DESTINAZIO NE 6 BYTE INDIRIZZO DI SORGENTE 6 BYTE TIPO DI TRAMA TAGGATA 2 CAMPO DI CONTROLL 4 BYTE PRIORITA’ 3BIT TIPO/ LUNG. 2 BYTE CANONIC O PAYLOAD N BYTE FCS VLAN ID 12 BIT Figura 0.3: Composizione del campo di controllo IEEE 802.1p/q nell’header Ethernet. Il campo VLAN ID è di 12 bit e consente quindi l’identificazione, su uno stesso flusso trasmissivo, di 4096 VLAN, ciascuna delle quali può essere associata a un cliente o a specifici servizi dei vari clienti. Il campo “Priorità” è costituito da tre bit consentendo quindi fino a otto differenti COS. Questo permette agli operatori di offrire una grande varietà di servizi e di personalizzare l’offerta degli stessi ai vari clienti; infatti su ciascuna VLAN, si possono applicare differenti politiche di QoS, di shaping della banda, di filtraggio dei flussi, ecc., come schematicamente indicato in Figura 0.4. Per quanto concerne la QoS nelle norme IEEE si definiscono quattro classi di servizio, ciascuna con uno specifico insieme di prestazioni e tipo di trattamento dei pacchetti nei nodi di rete. La tecnologia delle VLAN, realizzate in conformità allo standard IEEE 802.1q, costituisce dunque la base per realizzare una MAN con Ethernet switching. La MAN in questo caso è costituita da nodi di tipo Switch Ethernet interconnessi o con topologia ad anello o a maglia. In questa struttura si usa il protocollo IP come piano di controllo e le VLAN nel piano del trasporto (forwarding) del traffico. La topologia ad anello o a maglia è scelta in relazione al meccanismo di protezione attuato dagli switch; quella più comune è la topologia ad anello con protezione basata sul protocollo Spanning Tree. Il protocollo STP (Spanning Tree Protocol) è utilizzato dagli switch di livello 2 per ricavare una topologia priva di 43 __________________________________________________________________ loop a partire da un struttura di rete generalmente magliata. Prendendo come riferimento uno degli switch (root bridge), tramite lo scambio di opportuni pacchetti informativi (Bridge Protocol Data Unit), ciascuno switch pone alcune interfacce in stato di blocco in modo da eliminare i loop e costruire una topologia ad albero. Nel caso in cui uno dei link attivi diventi indisponibile, l’algoritmo STP viene eseguito di nuovo per tentare di ripristinare la connettività; tale processo può eventualmente provocare per qualche link la transizione dallo stato di blocco a quello di esercizio normale (forwarding). In effetti quella della protezione da guasti di rete e dei relativi meccanismi di riconfigurazione e ripristino del traffico costituisce uno dei principali problemi ancora aperti per le reti geografiche basate su Ethernet. Infatti il protocollo Ethernet Spanning Tree, sulle topologie di rete ad anello presenta tipicamente un tempo di convergenza di circa 1 secondo; per altre topologie e in particolare per reti magliate, i tempi di convergenza possono essere ben superiori e non essere adeguati per reti pubbliche. Anche il Rapid Spanning Tree presenta tempi ben più lunghi dei 50 ms, tipici dei sistemi SDH, che sono ormai presi come riferimento nelle reti pubbliche di telecomunicazioni. Come per molti altri aspetti delle reti Ethernet, esistono diverse soluzioni proprietarie per ottenere tempi di ripristino più brevi, o con miglioramenti dei protocolli sopramenzionati o con soluzioni alternative. TR 1 VLAN 1 2 TR ROUTER/ SWITCH DI EDGE SWITCH ETHERNET N TR VLAN N LO SWITCH DI ACCESSO INSERISCE LE VLAN ID ALLE TRAME ETHERNET RETE MAN GIGABIT ETHERNET CIASCUN CLIENTE PUO’ AVERE DIFFERENTI SERVIZI SULLA BASE DEI VLAN ID Figura 0.4 : Le VLAN nello standard IEEE 802.1q 44 __________________________________________________________________ 2.6 SERVIZI DI CONNETTIVITA’ ETHERNET PUNTO-PUNTO In una MAN basata su Ethernet switching i servizi di connettività Ethernet puntopunto sono implementati utilizzando le VLAN realizzate in conformità allo standard IEEE 802.1q. Tuttavia queste soluzioni presentano, oltre ai problemi di protezione discussi precedentemente, anche limitazioni di scalabilità. Lo standard IEEE 802.1q VLAN infatti, prevede un massimo di 4096 VLAN; ciò significa che, in ciascuna MAN, si possono realizzare al massimo 4096 connessioni. Questo costituisce un limite piuttosto stringente tenendo presente che ciascun utente può richiedere più di una VLAN per realizzare le sue reti, come ad esempio Intranet, Extranet, accesso a Internet e cosi via. ciascun apparato switch della MAN deve conoscere l’indirizzo MAC Ethernet di tutti i dispositivi degli utenti connessi alla MAN stessa. Ciò comporta una notevole dimensione delle tabelle MAC, con lunghi tempi di look-up in fase di instradamento dei pacchetti, e di ripristino delle normali condizioni in caso di guasto di rete. Per risolvere o alleviare queste limitazioni proprie dello standard IEEE 802.1q, alcuni manifatturieri propongono soluzioni proprietarie per la creazione di pile di VLAN, con l’aggiunta di un campo di quattro byte nell’header della trama Ethernet. Di questi quattro byte, dodici bit sono usati per identificare VLAN, che assumono significato solo all’interno della MAN, gli altri sono usati per identificare i MAC per ciascuna VLAN. Questa soluzione porta due benefici. Essa isola le tabelle di forwarding MAC degli swiching dagli indirizzi MAC dei dispositivi d’utente, rendendo dette tavole molto più maneggevoli; il secondo beneficio consiste nel fatto che ciascuna connessione può trasportare una moltitudine di VLAN d’utente. Rimane tuttavia il limite delle 4096 connessioni contemporanee. 45 __________________________________________________________________ 2.7 LA GIGABIT ETHERNET La Gigabit Ethernet ha mediamente le stesse caratteristiche di Ethernet e Fast Ethernet. L’estensione della portante espande il frame timing al fine di garantire al minimo uno slot time di 512-byte (4096 bit) per half-duplex Ethernet. Tale estensione della portante avviene dopo il campo FCS in modo da non variare la dimensione del frame, infatti essa altera solamente il tempo in cui il frame passa sul cavo. E’ mantenuta quindi la compatibilità con i frame Ethernet precedenti anche se esiste un inevitabile aumento del costo in termini di overhead, in quanto i bit di “carrier extension” su un frame breve ledono l’efficienza in banda. Figura 0.5:Confronto tra la trama Ethernet originale e la trama Gigabit Ethernet Tramite la tecnica del Packet Bursting, che consiste nella capacità di trasferire pacchetti in stream unici viene neutralizzato l’overhead della carrier extension. Possono infatti essere trasmessi più di 1500 Byte in un solo burst e, per evitare che altre stazioni trasmettano nel frattempo, vengono trasmessi dei segnali tra i frame. 2.8 LA STANDARDIZZAZIONE DEI SERVIZI ETHERNET La standardizzazione dei servizi Ethernet è portata avanti in modo coordinato da ITU-T, IEEE, IETF e dal Metro-Ethernet Forum (MEF), un’organizzazione senza 46 __________________________________________________________________ scopo di lucro costituita dai maggiori operatori di telecomunicazione e dalle principali aziende del settore che si è posta l’obiettivo di accelerare l’adozione dell’Ethernet come tecnologia di riferimento per le reti metropolitane a livello mondiale. Il MEF definisce, dal punto di vista dell’utente finale e quindi indipendentemente dalla tecnologia utilizzata all’interno della rete di trasporto (Ethernet, SDH, DWDM…), due generiche topologie di servizi, che stanno alla base di tutte le possibili applicazioni Ethernet in ambito metropolitano: ♦ Ethernet Line (E-Line): connessione punto-punto ♦ Ethernet LAN (E-LAN): connessione multipunto-multipunto Le due topologie sono schematizzate in Figura 0.6. Figura 0.6 : Servizi E-Line ed E-LAN (CE=Customer Edge) La descrizione completa di un servizio Ethernet comprende una serie di attributi con dei parametri associati (i.e. Physical Medium, Speed, Ingress Bandwidth Profile...). Al variare dei valori di questi parametri possono essere create diverse tipologie di servizi Ethernet. Gli attributi definiti dal MEF si applicano alla UNI (User to Network Interface) o all’EVC (Ethernet Virtual Connection). Con EVC si intende l’associazione di due (point-to-point EVC) o più UNI (Multipoint-toMultipoint EVC). Dal punto di vista dell’utente finale la specifica completa degli attributi di un servizio Ethernet corrisponde alla definizione di un Service Level Agreement (SLA) col fornitore di servizi. La serie di raccomandazioni ITU-T G.8011.x/Y.1307.x definisce, dal punto di vista dell’operatore di telecomunicazioni, dei servizi Ethernet che sono in linea con quelli previsti dal MEF: Ethernet Private Line (EPL), Ethernet Virtual Private Line (EVPL), Ethernet Private LAN (EPLAN) e Ethernet Virtual Private LAN. La struttura di questi servizi di rete è specificata in modo generico nella 47 __________________________________________________________________ raccomandazione ITU-T G.8011 che si basa sull’architettura di “Ethernet over Transport” descritta nella racc. G.8010. L’ITU-T G.8011 definisce tre insiemi di attributi a livello di Ethernet Connection (EC), UNI e NNI. L’Ethernet in the First Mile Task Force ha redatto la raccomandazione IEEE 802.3ah con i seguenti obiettivi: ♦ definire i livelli fisici delle seguenti topologie di accesso: Ethernet over Point-to-Point copper (EoVDSL), Ethernet over Point-to-Point Optical Fiber, EPON; ♦ standardizzare un livello di OAM, in modo da garantire nel mondo Ethernet uno standard “Carrier Class” per le funzioni di Operation, Administration, Maintenance e Provisioning (OAM&P) e in modo da assicurare l’interoperabilità in un ambiente di tipo multivendor. L’IEEE 802.3ah OAM prevede il trasporto dell’informazione di supervisione in banda, a livello di trama, senza aggiunta di overhead, evitando quindi uno spreco della banda destinata all’utente e garantendo allo stesso tempo che la connessione Ethernet a casa dell’utente venga gestita dall’operatore come un servizio tradizionale. L’EFM-OAM garantisce le funzionalità di monitoraggio del collegamento, riporto degli allarmi e gestione delle performance. 2.9 SDH/SONET, OTH ED ETHERNET NELLE RETI DI TRASPORTO:VISIONE DEGLI STANDARD INTERNAZIONALI E PROSPETTIVE PER IL FUTURO 2.9.1 Un modello semplificato per una rete di trasporto In Figura 0.7 e’ descritto un modello semplificato, tipicamente orientato alla connessione, per una rete di trasporto, nel tentativo di evidenziarne gli elementi costitutivi essenziali e la loro funzione. Scopo della rete e’ la fornitura di un servizio di trasporto, idealmente trasparente, per un generico cliente (ad esempio un flusso Ethernet) attraverso la rete stessa, con caratteristiche di affidabilità e disponibilità, che possono essere in generale espresse come percentuale di tempo 48 __________________________________________________________________ per cui il servizio supera determinati requisiti di qualità. Figura 0.7 : Modello semplificato di rete di trasporto A tale fine il servizio deve essere tipicamente: ♦ proteggibile (mediante contromisure a breve termine verso guasti) ♦ manutenibile (mediante contromisure a medio termine verso guasti) ♦ misurabile (per la verifica dei requisiti di qualità) Gli elementi costitutivi essenziali della rete, come si desume dalla figura, sono: ♦ connessioni logiche (che sono associate al cliente, lo accompagnano dall’ ingresso all’uscita della rete e di fatto realizzano il servizio di trasporto, portando con se le informazioni necessarie per misurarne la qualità) ♦ connessioni fisiche (il mezzo fisico, su cui diversi servizi, e quindi clienti, devono essere aggregati per poterne consentire un utilizzo efficiente) ♦ matrici di interconnessione (che operando sulle connessioni logiche consentono da un lato di instradare i servizi e dall’ altro di aggregarli sul mezzo fisico). 49 __________________________________________________________________ Le reti di trasporto reali, rispetto al modello qui proposto, tipicamente variano per la ricorsività del concetto di connessione logica e la possibilità di terminare e monitorare segmenti di connessione. 2.9.2 Descrizione funzionale del modello In Figura 0.8 il semplice modello già introdotto e’ arricchito con l’ ulteriore dettaglio dei blocchi funzionali che lo compongono, allo scopo di mostrarne il fine rispetto alle citate caratteristiche di proteggibilità, manutenibilità, misurabilità. Figura 0.8 : Modello funzionale di rete di trasporto La descrizione a strati è ricorsiva, e comprende per ogni strato una terminazione, una connessione, possibilità di monitoraggio non intrusivo ed un adattamento allo strato successivo. Nel nostro modello gli strati sono solo 3: il cliente (per cui esiste la sola possibilità di monitoraggio non intrusivo), la connessione logica, il mezzo fisico. Cercando di riassumere quanto è espresso in Figura 0.8 è possibile dire che in generale, a livello di terminazioni e monitoraggi non intrusivi, si verificano: ♦ l’ integrità 50 __________________________________________________________________ ♦ la congruenza (rispetto al tipo di servizio atteso) ♦ la corretta connessione ♦ la qualità (secondo parametri che dipendono dalla connessione stessa) di una connessione. Di più, in una terminazione si generano: ♦ un segnale informativo sull’ integrità del segnale ricevuto verso il terminale lontano ♦ un segnale informativo sulla qualità del segnale ricevuto verso il terminale lontano. A carico delle funzioni di adattamento e’ invece la generazione di ♦ un segnale di silenziamento allarmi a valle (storicamente definito come Alarm Indication Signal – AIS – e con il segnificato di indicare al generico cliente che lo strato “servitore” e’ indisponibile). Le funzioni di connessione sono, come già detto, demandate all’ instradamento ed all’ aggregazione. Risultati delle verifiche e segnali possono essere diversamente utilizzati secondo le diverse politiche dei gestori dei servizi di trasporto. Un caso “esemplare” può essere quello in cui la protezione e’ fatta sia a livello di mezzo fisico (perchè tipicamente e’ quello che “si rompe” e perchè impatta diversi servizi allo stesso tempo) utilizzando come criteri per l’ attivazione di percorsi alternativi i risultati delle verifiche fatte a livello di terminazione, sia a livello di connessione logica (perchè in questo modo si ha l’assoluta certezza di proteggere “quel” servizio dall’ inizio alla fine del percorso in rete, comprendendo anche gli apparati) utilizzando come criteri i risultati delle verifiche fatte a livello di monitoraggio non intrusivo. La manutenzione e’ principalmente basata sulle verifiche fatte a livello di terminazione del mezzo fisico, ed e’ facilitata dall’ utilizzo del segnale di AIS per risalire alle cause prime del guasto. La misura della qualità è basata sulle verifiche fatte a livello di terminazione della connessione logica, eventualmente utilizzando anche le informazioni di qualità e integrità remote, che consentono la valutazione contemporanea di entrambe le direzioni senza ricorrere a correlazioni fra i dati provenienti da diversi apparati. Il 51 __________________________________________________________________ monitoraggio non intrusivo del cliente consente al fornitore di integrare le informazioni inerenti alla qualità del proprio trasporto con quelle relative al segnale trasportato. 2.9.3 SDH ED OTH La modellizzazione sin qui descritta e’ facilmente rinvenibile negli standard ITU che descrivono la Gerarchia di Multiplazione Sincrona (SDH) e la Rete di Trasporto Ottica (OTN), che su tali modellizzazioni sono state costruite e proprio per questo sono in grado di garantire la proteggibilità, la manutenibilità, la misurabilità della qualità del servizio dei clienti trasportati e quindi di definirne la disponibilità. In Tabella 0.1 sono sinteticamente descritti gli strumenti (allarmi, conteggi, segnalazioni) che SDH mette a disposizione relativamente alla modellizzazione introdotta. Una tabella del tutto analoga descrive OTN, con qualche variante di nomenclatura. In questo ultimo caso e’ particolarmente rilevante il fatto che lo standard introduca 2 mezzi fisici: l’ OTU (Optical Transport Unit), equivalente ad una singola λ, e l’OMS/OTS (Optical Multiplex Section/Optical Transport Section), equivalente al segnale ottico multiplato e quindi in definitiva alla fibra. Per entrambi sono individuabili gli elementi essenziali sopra descritti, con qualche limitazione per il segnale ottico. SDH Integrità Terminazione & monitoraggio non intrusivo Congruenza Connessione Qualità Integrità remota Terminazione Qualità remota Adattamento Silenziamento Connessione logica (Virtual Container) Server Signal Fail Payload Label Mismatch Trail Id Mismatch Bit Error Rate (mediante verifica di parita’) Remote Defect Indication Remote Error Indication Connessione fisica (STM-N) Loss of Signal Loss of Frame Section Id Mismatch Bit Error Rate (mediante verifica di parita’) Remote Defect Indication Remote Error Indication Alarm Indication Signal (server ⇒ client) Tabella 0.1 : OAM SDH (allarmi, conteggi, segnalazioni) 52 __________________________________________________________________ 2.9.4 ETHERNET: STANDARD FUTURI Ethernet nasce come tecnologia dedicata a reti a commutazione di pacchetto locali, e come tale non supporta in modo nativo molte delle caratteristiche sin qui enunciate. Non è orientata alla connessione, non definisce una connessione logica end-to-end e pertanto non ne consente una misura di qualità (le cifre di parità inserite in ogni pacchetto Ethernet sono terminate in ogni nodo e ricalcolate), non distingue connessione logica da connessione fisica, non incorpora meccanismi di protezione veloci (ordine dei 50 msec.) ne di silenziamento allarmi. La mancanza principale, da cui discendono tutte le altre, e’ la natura “connectionless” di Ethernet: non e’ un caso che ATM, tecnologia a pacchetto concepita per essere “onnicomprensiva”, sia orientata alla connessione. Di fatto, tutte le attività di standardizzazione, cui assistiamo in questi anni, tese a generare soluzioni a commutazione di pacchetto “affidabili” passano invariabilmente per il tentativo, più o meno occulto, di “orientare alla connessione” tecnologie che in origine non lo sarebbero. E’ il caso di IP in modo palese con MPLS (Multi Protocol Label Switching); e’ il caso di Ethernet in modo molto più sottile. 2.9.5 ETHERNET SU MPLS (MPLS ED OAM) MPLS nasce in ambito IETF come evoluzione di IP orientata alla connessione, di fatto replicando il concetto fondamentale già presente in ATM di identificare con un’ etichetta non già la destinazione o la sorgente, ma un segmento di percorso in rete, e di modificarne il valore nodo per nodo (per scalabilità). Lo stesso meccanismo e’ applicabile ad Ethernet, oltre che ad IP, e come tale e’ indirizzato da diversi standard. Il trasporto su MPLS e’ sicuramente una metodologia che avvicina Ethernet alle caratteristiche di affidabilità che abbiamo sin qui descritto. Questo risultato e’ ottenuto in modo “non nativo”, aggiungendo un layer ed il piano di controllo relativo basato su OSPF (Open Short Path First) e RSVP-TE (ReSerVation Protocol – Traffic Engineering), orientato alla connessione, che va a sostituire quello Ethernet basato su STP (Spanning Tree Protocol), connectionless. Particolarmente di rilievo sono le attività di standard, sia ITU che IETF, volte a completare la definizione di MPLS con capacità di OAM e protezione, che, 53 __________________________________________________________________ soprattutto nel caso ITU, tendono a replicare gli analoghi meccanismi già definiti per ATM. 2.9.6 ETHERNET PROVIDER BRIDGE Il primo tentativo evidente di far evolvere Ethernet come tale oltre l’orizzonte limitato delle reti locali è di IEEE, con la specifica dell’ applicazione provider bridge. In essa si generalizza un meccanismo pre-esistente, nato con lo scopo primario di partizionare reti complesse in sottoreti entro cui confinare il traffico broadcast (cioè indirizzato a tutti i nodi, necessario per l’apprendimento degli indirizzi di rete), al fine di generare di fatto l’equivalente di una connessione logica distinta dalla connessione fisica. Il meccanismo originale consiste nell’ identificare le sottoreti (dette VLAN, o Virtual LAN) con un’ apposita etichetta appesa ad ogni trama Ethernet. In essa si definisce l’ utilizzo di un etichetta analoga, sovrapposta alla precedente all’ ingresso della rete dal fornitore di servizio (provider) ed eliminata all’ uscita, da utilizzarsi per il partizionamento di tale rete, così come la prima partiziona la rete del cliente. Tale partizionamento, se limitato ad un unico punto di ingresso ed un unico punto di uscita della rete del provider, genera di fatto un percorso punto-punto, cioè una connessione logica, in cui l’instradamento è rigido e non richiede neppure più l’ ispezione dell’ indirizzo MAC di destinazione (basta l’ identificativo di VLAN). La limitazione più evidente di questa tecnica, se usata estensivamente, è la scalabilità, in quanto l’ identificativo di VLAN e’ di fatto univocamente associato ad un percorso in rete, e i 12 bit dell’ etichetta consentono al più 4096 possibili codifiche. Il superamento di questa difficoltà non è ancora stato standardizzato, anche se esistono proposte in tal senso, ma per quel che riguarda il piano di traffico è abbastanza ovvio e consiste nella possibilità di commutare il valore dell’ etichetta nodo per nodo, associando in tal modo i 4096 possibili valori alle sezioni di percorso congiungenti due nodi qualsiasi e non all’ intero percorso, esattamente come è specificato per ATM ed MPLS. Relativamente al piano di controllo il discorso è più complesso, ma una soluzione potrebbe essere quella di applicare ad Ethernet uno di quelli esistenti orientati alla connessione (e.g. derivato da MPLS, oppure da GMPLS, oppure da ATM). 54 __________________________________________________________________ 2.9.7 ETHERNET PROVIDER BACKBONE BRIDGE Un’ ulteriore tentativo di consentire ad Ethernet prestazioni analoghe a quelle delle reti di trasporto tradizionali è riconoscibile in una norma che è solo all’inizio del suo percorso di standardizzazione. Se il provider bridge consente al fornitore del servizio un utilizzo dell’ identificativo di VLAN indipendente da quello che ne fa il cliente, il provider backbone bridge estende lo stesso concetto agli indirizzi MAC, definendo una struttura di trama Ethernet che comprende 2 livelli di indirizzamento sovrapposti, dei quali quello più esterno è aggiunto ed utilizzato dal provider, che lo elimina prima di restituire la trama al cliente. Tale tecnica consente, come il provider bridge, una separazione di principio fra connettività logica e connettività fisica, ma non rende la tecnologia orientata alla connessione e come tale non consente di superare tutte le difficoltà native di Ethernet rispetto a tecnologie di trasporto più consolidate. Di fatto consente al fornitore del servizio di realizzare una rete basata su connessioni multipunto-multipunto del tutto svincolata da quella analoga del cliente. Come tale consente di impilare i piani di controllo basati su STP e di migliorare la scalabilità dell’ applicazione provider bridge creando isole con campi dei valori di VLAN indipendenti, ma non facilita il superamento del paradigma “best effort”. 2.9.8 ETHERNET OAM Se è vero che la possibilità di Ethernet di giocare nelle reti di trasporto un ruolo analogo a quello di SDH e OTH passa per una modalità di utilizzo orientata alla connessione, è anche vero che ciò non sarebbe comunque sufficiente senza adeguati meccanismi di OAM (Operation, Administration & Maintenance), analoghi a quelli che abbiamo indirizzato. A tale proposito sono in corso attività di standardizzazione sia in ITU che in IEEE, non ancora finalizzate, ma sicuramente promettenti. Un esempio di quello che potrebbe diventare una rete Ethernet in cui le procedure di OAM in corso di definizione siano applicate è mostrata in Figura 0.9. La rete del fornitore di servizio è partizionata mediante VLAN, come descritto in precedenza, in 3 sottoreti di cui 2 punto-punto. Lo 55 __________________________________________________________________ standard consente di definire punti terminali di monitoraggio (MEP), ossia terminazioni, e punti di monitoraggio intermedi (MIP), ossia monitoraggi non intrusivi. Il fatto di ammettere diversi livelli (1, 2, 3... in figura) rende conto della possibilità di terminare e monitorare segmenti di connessione, anche in modo ricorsivo, come può rendersi necessario in scenari di tipo “carriers’ carrier”. La Tabella 0.2 descrive sinteticamente i meccanismi di OAM in corso di definizione, in modo direttamente confrontabile con quelli equivalenti SDH ed OTN. Connessione logica Ethernet Integrità Terminazione & monitoraggio non intrusivo Congruenza Connessione Qualità Terminazione Integrità remota Qualità remota Adattamento Silenziamento Connessione fisica (Mainten. Entity operator-providercustomer) (ME physical level) Loss of Continuity Loss of Continuity Loopback Fail Link Trace Mismatch Link Trace Mismatch Frame PM parameters (FR Delay, FR Loss, ecc) Ethernet Remote Defect Indication - Loopback Fail (Link Trace Mismatch) Port PM parameters (FRTx, FrRx,FrDrop, ecc) Ethernet Remote Defect Indication - Ethernet Alarm Indication Signal (server ⇒ client) Tabella 0.2 : OAM Ethernet (allarmi, conteggi, segnalazioni) 2.9.9 CONSIDERAZIONI FINALI Le reti tradizionali di trasporto, come SDH ed OTN, implementano un’ architettura a strati e meccanismi consolidati di OAM che consentono di fornire servizi con elevate caratteristiche di affidabilità e disponibilità su reti geografiche. Ethernet nasce come tecnologia dedicata alle reti locali ed è caratterizzata da un’ architettura “piatta” e dall’ assenza di tali meccanismi. Diverse attività di standard internazionale sono attualmente in corso nel tentativo di colmare il divario esistente. Questo percorso non è ancora consolidato, ma sin d’ ora è evidente che dal punto di vista puramente tecnico è possibile evolvere Ethernet ed arricchirla 56 __________________________________________________________________ delle prestazioni necessarie a competere, anche in ambito geografico, con le tecnologie tradizionali di trasporto, sia aggiungendo un layer orientato alla connessione, come MPLS, sia in modo nativo. E’ però altrettanto evidente che tale percorso richiederà modifiche profonde degli apparati attualmente esistenti, nel senso di aumentarne la complessità e quindi il costo, in quanto tipicamente le funzionalità di OAM, se applicate estensivamente, vanno realizzate in HW. Di più, esso è caratterizzato da estrema incertezza sulla destinazione finale, dal momento che le alternative possibili sono diverse, tutte simili dal punto di vista tecnico ma non compatibili fra loro, ne essendosi ancora consolidata una posizione univoca in ambito standard, che ad oggi appare difficile da raggiungere. In questa situazione di incertezza è difficile supporre che tecnologie consolidate come SDH possano essere messe rapidamente in crisi dalle nuove soluzioni emergenti, che fra l’altro inizialmente aumentando in prestazioni perderanno molto probabilmente l’iniziale vantaggio di costo. Pur riconoscendo che la mutata natura del servizio, che da circuito è divenuto pacchetto, tende inevitabilmente a privilegiare tecnologie di trasporto affini, e’ verosimile pensare che l’introduzione sarà graduale e la completa transizione, se mai vi sarà, richiederà un lungo arco temporale. Figura 0.9 : Rete Ethernet con OAM 57 __________________________________________________________________ In questo contesto si colloca questo lavoro nel quale viene proposto un sistema automatico Software\Hardware di protezione ad un guasto in una connesione ottica punto-punto Gigabit Ethernet. Viene quindi proposto un sistema in grado di gestire una connessione di questo tipo con una tempistica paragonabile a quella delle consolidate tecnologie di trasporto come SDH. Inoltre la soluzione realizzata in questo lavoro presenta costi di implementazione decisamente contenuti, e quindi risulta essere una valida proposta ed un punto di partenza per un evoluzione dell’OAM&P nelle reti Ethernet. 58 __________________________________________________________________ Capitolo 3 QUALITA’ DEL SERVIZIO: CARATTERIZZAZIONE ED IMPLEMENTAZIONE In questo capitolo si mettono in luce le tematiche fondamentali di questo lavoro che sono la QoS e la sua implementazione, per mezzo dell’approccio DiffServ, sul paradigma MPLS. L’integrazione di questi due aspetti, la QoS fornita da DiffServ da un lato, ed i percorsi end-to-end forniti da MPLS dall’altro, costituisce una solida base per la garanzia di servizi real-time che sono ad oggi i più critici per la rete. Nel capitolo viene fatta anche una panoramica generale sulla tecnologia Ethernet e del suo ruolo, argomento dal quale è impossibile prescindere data la sua diffusione. In questo lavoro Ehernet è essenzialmente utilizzata in termini di trasmissione dati. 3.1 QUALITA’ DEL SERVIZIO Il problema della qualità del servizio e della sua gestione nasce con l’introduzione di nuovi servizi che per loro natura non posso essere trattati allo stesso modo del semplice traffico dati. Per descrivere la QoS è opportuno riportare due esempi esplicativi dell’esigenza di questo servizio. • Un utente stipula un contratto, SLA ( Service Level Agreement), con il proprio Service Provider per navigare in Internet e ricevere a casa propria la televisione tramite rete fissa. E’ immediato capire come i due servizi richiesti abbiano caratteristiche profondamente diverse: la navigazione in Internet è un semplice trasferimento dati, è un servizio non real-time che non ha vincoli temporali o di perdita di pacchetti ed è senza garanzia di banda . Per contro la televisione è un servizio real-time, uno streaming 59 __________________________________________________________________ audio/video che necessita di ritardi, jitter e perdite di informazione entro limiti ben precisi affinché l’utente sia soddisfatto del servizio ricevuto. • Un altro utente vuole navigare in Internet ma con una certa banda garantita, ovvero senza subire quelle flessioni dovute, ad esempio, alle congestioni della rete nelle ore di punta. In entrambi i casi si parla di QoS: nel primo si effettua la differenziazione dei servizi, dove il trattamento dei pacchetti dipende dal tipo di servizio a cui appartengono, nel secondo la garanzia delle prestazioni in cui vengono garantite le prestazioni di rete indipendentemente dal servizio. Il concetto di QoS, in base alle considerazioni fatte può essere definito nel modo seguente: “E’ la capacità di un sistema di garantire livelli di servizio prestabiliti, differenziati per classe e tipologia, in regime di risorse limitate.” Il livello di QoS richiesto da un utente o caratteristico di un particolare servizio viene deciso sulla base di opportuni parametri e deve essere rispettato in accordo con il SLA (Service Level Agreement) stipulato tra Service Provider e utente. Va osservato che quando si stipula un contratto questi deve essere rispettato non solo dal gestore, ma anche dall’utente. I parametri che definiscono la QoS sono principalmente sei: 1- One Way Delay: è il ritardo ad una via che un pacchetto sperimenta attraversando tutta la rete, dalla sorgente al destinatario. Esso è dato dalla somma di tre termini: il tempo di propagazione all’interno dei mezzi trasmessivi, il tempo di processamento e il tempo di accodamento dei pacchetti all’interno dei nodi (routers). I primi due si possono considerare costanti, mentre il tempo di accodamento determina in modo preponderante la variabilità del one-way delay e il suo aumento in caso di rete congestionata. 60 __________________________________________________________________ 2- Latency: si definisce latenza il tempo che intercorre tra la ricezione e l’inoltro di un pacchetto all’interno di un router. 3- Jitter: è un parametro fondamentale per quanto riguarda soprattutto i servizi real-time ed è tipico delle reti a commutazione di pacchetto TCP/IP. Il fatto che ogni pacchetto, appartenente allo stesso flusso, venga trattato indipendentemente dagli altri causa tempi di ritardo variabili da pacchetto a pacchetto: la variazione del one-way delay viene chiamata jitter. Figura 3.1: Distribuzione delle Latenza e del Jitter 4- Bandwidth: è la misura della capacità di trasmissione dei dati ed è espressa generalmente in kilobit per secondo (Kbps) o megabits per secondo (Mpbs). Bandwidth indica la teorica capacità massima di una connessione, molti fattori però possono influenzare questo dato. Le specifiche per la capacità possono includere parametri quali il “maximum burst size” (la banda di picco), la banda minima garantita o la capacità garantita di accesso. 5- Packet Loss: con questo parametro viene misurata la percentuale di pacchetti persi calcolata facendo il rapporto tra quelli ricevuti e quelli 61 __________________________________________________________________ inviati; comprende anche la ricezione errata dei pacchetti. Questo parametro non ha molta rilevanza per il trasporto di dati TCP/IP in quanto il protocollo di trasporto provvede alla ritrasmissione dei pacchetti in caso di perdita. Il Packet Loss diventa invece molto importante quando si utilizza il protocollo RTP (Real Time Protocol) in quanto, essendo realizzato ad hoc per servizi real-time, non prevede il recupero dei pacchetti persi. 6- Availability: indica la disponibilità di un determinato servizio in un arco di tempo prefissato. 3.1.1 SLA: Service Level Agreement E’ il contratto che viene stipulato tra il Service Provider e l’utente riguardo a determinati servizi ed è basato proprio sui parametri di controllo della QoS. Gli SLA, oltre a garantire un determinato livello di QoS stabiliscono anche delle penali da pagare nel caso in cui il contratto non venisse rispettato; questo è un ulteriore motivo della grande importanza che ha la gestione della QoS nelle reti attuali. Un SLA è composto da due parti principali: 1- Service Level Specification. I dettagli operazionali del SLA sono definiti in termini di Service Level Specifications (SLS). Le SLS comprendono: • il rendimento aspettato • la probabilità di cancellazioni • i ritardi • i vincoli sui punti di entrata e uscita dal servizio • lo scopo del servizio • le caratteristiche del traffico necessarie per far sì che una richiesta sia fornita 62 __________________________________________________________________ • i metodi di gestione del traffico che eccede il profilo specificato • la classificazione e la manipolazione dei servizi forniti. 2- Traffic Conditioning Specifications. Il TCS è un accordo che classifica le regole e tutte le corrispondenze tra i vari profili e le metriche di traffico da applicare. Il TCS rafforza tutte le condizioni del traffico e i requisiti del servizio già specificati nel SLA. Figura 3.2: Esempio di SLA 3.2 LA GESTIONE DELLA QUALITA’ DEL SERVIZIO Circa la gestione della qualità del servizio si è visto che è realizzabile direttamente su Ethernet oltre che su IP e l’una non esclude l’altra. La QoS implementata su Ethernet assume però un aspetto locale ed esula dagli obiettivi di questo lavoro, per questo motivo nel seguito verrà preso in considerazione il solo aspetto dell’implementazione della qualità del servizio su IP. Le reti attuali sono fondate sul protocollo IP e offrono un solo tipo di servizio: il “best effort”. Infatti il protocollo IP non fa nessuna ipotesi sul tipo di servizio fornito dagli strati inferiori e svolge la sola funzione di trasferimento dati senza 63 __________________________________________________________________ offrire garanzia sulla qualità del servizio. Tale garanzia è demandata ai protocolli dello strato di trasporto, tipicamente il TCP (Trasmission Control Protocol), e residenti sui terminali della connessione, che provvedono al riordinamento dei pacchetti fuori sequenza ed alla richiesta di ritrasmissione nel caso di perdita o di errore. Questo tipo di sistema però, che è risultato vincente per i servizi di solo trasferimento dati, è inadatto per i servizi real-time; i protocolli di trasporto infatti, non offrono nessuna garanzia sui ritardi e sulla portata. I soli meccanismi di controllo posti sui terminali sono dunque inefficienti nelle reti multiservizio ed è quindi necessario intervenire all’interno della rete. Le metodologie che affrontate nel seguito per la gestione della QoS riguardano dunque l’architettura della rete e non i terminali dell’utenza, tali tecnologie sono IntServ ( Integrated Service) e DiffServ ( Differentiated Service). 3.2.1 IntServ: Integrated Service Le reti odierne essendo basate sul protocollo IP sono connectionless: l’assegnazione della banda è su domanda, non vi è una fase di instaurazione della connessione e l’utente può inviare pacchetti in qualsiasi momento senza chiedere preventivamente il permesso all’operatore. Le risorse della rete quindi vengono condivise da tutti gli utenti, nessuna richiesta di accesso viene rifiutata ma non può essere garantita la qualità del servizio. La tecnologia IntServ si basa sul concetto di pre-assegnazione5 collettiva delle reti ATM e risulta essere un’architettura di riferimento, ottenuta integrando quella classica Internet, per supportare diverse classi di servizio in aggiunta a quella già esistente chiamata Best Effort. Per avere garanzie di QoS è necessario avere una connessione e il controllo di accesso. Poiché in una rete IP è connection-less viene 5 Durante la fase di instaurazione l’utente chiede l’assegnazione di una determinata quantità di risorse e l’operatore, nel caso in cui tali risorse siano disponibili, le assegna i modo virtuale: le risorse vengono assegnate collettivamente a tutti gli utenti abilitati. 64 __________________________________________________________________ introdotto il concetto di flusso6 e le classi di servizio IntServ garantiscono al flusso stesso pre-determinate prestazioni di rete. I livelli prestazionali forniti da una data classe di servizio sono richiedibili su base flusso: una certa applicazione terminale richiede determinate prestazioni e il relativo flusso informativo sarà trattato dalla rete in modo da soddisfare le richieste dell’applicazione. Le risorse necessarie a soddisfare le richieste di ciascuna applicazione vengono allocate in maniera soft mediante il protocollo RSVP ( ReSource reserVation Protocol ) che verrà trattato in seguito. Per il problema del controllo di accesso, ogni router deve esercitare una funzione di Admission Control per assicurare che le richieste siano accettate solo se esistono risorse sufficienti a garantire le prestazioni volute. Una volta che questa procedura è stata eseguita da tutti i routers attraversati dal flusso potranno essere garantite le caratteristiche prestazionali richieste. Le classi di servizio previste dal IntServ , oltre a quella Best Effort, sono due: 1- Guaranteed Service ( Servizio Garantito): questo servizio fornisce un fissato ritmo binario di trasferimento, un limite superiore al one-way delay e l’assenza di perdita delle unità informative. E’ stato concepito per applicazioni hard real-time che sono altamente sensibili a valori di aspettazione e varianza del ritardo end-to-end. L’applicazione che richiede il servizio dovrà fornire un insieme di parametri che descrivono il traffico che emetterà, il cosiddetto TSpec (5 parametri), ed un altro insieme di parametri che specificano le prestazioni attese, RSpec ( 2 parametri ). L’insieme formato dalle precedenti dichiarazioni viene detto Call Admission e necessita del protocollo di segnalazione RSVP. Il traffico appartenente a questo servizio viene controllato all’ingresso della rete e “modellato” all’interno di essa affinchè rispetti le specifiche indicate in TSpec; in caso negativo, i datagrammi non conformi vengono trattati come traffico Best Effort oppure scartati. 6 Per flusso si intende un aggregato di dati appartenenti alla stessa applicazione. 65 __________________________________________________________________ 2- Controlled Load Service ( Servizio a carico controllato): questo servizio non offre particolari garanzie di prestazioni. L’applicazione, diversamente dal Servizio Garantito, comunica solo i parametri di traffico TSpec e il relativo flusso informativo verrà trattato come un traffico di tipo Best Effort in una rete poco carica. Tale servizio è stato concepito per applicazioni soft real-time della rete IP che funzionano bene in una rete non sovraccarica. Anche per questo tipo di servizio è previsto sia il controllo di ammissione all’ingresso della rete e sia lo “shaping” del traffico all’interno della rete stessa per verificare la conformità del flusso rispetto alle specifiche TSpec. In caso di non conformità del traffico i datagrammi vengono trattati come traffico best effort oppure scartati. La differenza sostanziale tra il servizio a carico controllato e il servizio best effort è il controllo di accesso mentre le differenze con il servizio garantito sono: le politiche di ammissione più flessibili, le garanzie prestazionali meno restrittive e dipendenza dalla capacità di adattamento dell’applicazione che richiede il servizio. Vediamo ora più dettagliatamente il protocollo di segnalazione RSVP e il protocollo di trasporto RTP, realizzati appositamente per l’ IntServ e poi ripresi anche per la tecnologia DiffServ. 3.2.2 Il Protocollo RSVP Il protocollo RSVP è un protocollo che permette la riservazione “soft” delle risorse all'interno della rete in modo da garantire una fissata QoS a determinati flussi di dati all'interno di una sessione. Per sessione si intende un insieme di uno o più flussi di dati caratterizzati da una certa destinazione ed un certo protocollo di trasporto. Il protocollo RSVP usa dei messaggi di controllo, incapsulati in pacchetti IP. Quando un host richiede un insieme di risorse per avere una certa QoS, invia un messaggio RSVP denominato Path con lo stesso indirizzo IP di destinazione dei dati. Con questo messaggio la sorgente notifica ai possibili host riceventi e ai router intermedi la presenza di un flusso di dati e le proprie caratteristiche di 66 __________________________________________________________________ traffico. Un host destinatario che abbia ricevuto un messaggio Path, nel caso in cui sia interessato a ricevere i dati con QoS garantita, invia un messaggio di richiesta di prenotazione di risorse, detto Resv, nel quale specifica la QoS con cui vuole ricevere il flusso di dati generato dalla sorgente; di conseguenza, in una trasmissione di tipo multipunto-multipunto ciascun host ricevente può indicare esplicitamente le sorgenti dalle quali ricevere con QoS garantita e quale QoS riservare a ciascun flusso di dati. Il protocollo RSVP offre quindi sotto questo aspetto la massima flessibilità ed evita inutili sprechi di risorse. Figura 3.3: Diagramma delle operazioni svolte in un nodo alla ricezione di un messaggio Resv Affinchè ogni nodo presente sul cammino dalla sorgente agli host riceventi possa allocare le risorse necessarie ad assicurare la QoS richiesta, i messaggi Resv devono percorrere a ritroso lo stesso cammino seguito dai messaggi Path e dal flusso di dati vero e proprio. Quando un messaggio Resv giunge ad un nodo, questi esegue determinati controlli per verificare se sono presenti risorse 67 __________________________________________________________________ sufficienti per soddisfare la richiesta. Se in tutti i nodi presenti sul cammino questi controlli hanno un esito positivo allora vengono allocate lungo l'intero percorso dalla sorgente al destinatario le risorse necessarie al trasporto del flusso di dati in questione con la QoS richiesta. In ogni nodo i messaggi Resv provenienti dai nodi a valle e relativi allo stesso flusso di dati vengono fusi insieme prima di essere ulteriormente propagati verso la sorgente; se ad un nodo giungono due richieste di prenotazione da parte di due host relative allo stesso flusso di dati, tale nodo propaga verso la sorgente di tale flusso un'unica richiesta contenente la QoS più stringente in termini di qualità. Figura 10: Schema semplificato dello scambio dei messaggi RSVP tra sorgenti e destinatari Le risorse allocate in ciascun nodo e necessarie ad assicurare ad un certo flusso di dati la QoS richiesta non vengono tenute riservate indefinitamente, dopo un certo periodo di tempo vengono liberate. Quindi gli host sorgente e ricevente rispettivamente devono periodicamente inviare dei messaggi Path e Resv di “refresh” per notificare ai nodi l'intenzione di continuare a ricevere con una certa QoS una data sessione. Il meccanismo di refresh permette inoltre al protocollo RSVP di adattarsi in maniera dinamica ai cambiamenti dei percorsi di instradamento seguiti dai dati. Nel protocollo RSVP sono previsti due tipi di messaggi di errore: ResvErr e PathErr. Il messaggio di tipo PathErr è semplicemente trasmesso verso l'host sorgente che ha causato l'errore e non provoca alcun cambiamento nei router che attraversa. Sono pochi i motivi che possono causare un PathErr. Ad esempio un'applicazione potrebbe specificare nel messaggio Path parametri di traffico non congruenti, oppure indicare nell'identificatore di sessione un numero di porta incompatibile col valore di ProtocolID. 68 __________________________________________________________________ Sono invece più frequenti i messaggi del tipo ResvErr, e sono generalmente causati dalla mancanza di risorse in rete necessarie per accogliere una certa richiesta, o dalla mancanza dei requisiti per effettuare la prenotazione da parte del richiedente. La gestione dei messaggi ResvErr è anche più complessa, in quanto, a causa del meccanismo di fusione, una richiesta di prenotazione di risorse è usualmente il frutto di più richieste, per cui un messaggio ResvErr deve essere notificato a tutti gli host riceventi che sono gli iniziatori di quelle richieste. Ogni richiesta di prenotazione delle risorse contiene al suo interno un oggetto attraverso cui l'host ricevente specifica la QoS richiesta ed identifica il flusso di dati cui riservare quella QoS. Tale oggetto è detto flow descriptor, ed è a sua volta costituito dalla coppia (flowspec, filter spec). Il flowspec7 specifica la QoS desiderata, mentre il filter spec identifica il flusso di dati al quale riservare la QoS indicata dal flowspec. In ogni nodo ogni richiesta di prenotazione di risorse interagisce con due entità locali: l'admission control ed il policy control: l'admission control verifica se la richiesta può essere esaudita, ovvero se sono presenti risorse sufficienti a garantire la QoS specificata nel flowspec senza incorrere nel rischio che si deteriori la QoS riservata agli altri flussi di dati che in quel momento stanno attraversando il nodo in oggetto; il policy control verifica invece che l'host richiedente sia autorizzato ad inoltrare tale richiesta, ed in più memorizza dei dati necessari successivamente alla tariffazione del servizio offerto. Se entrambi i controlli sono positivi, le informazioni contenute negli oggetti flowspec e filter spec vengono rispettivamente utilizzate per configurare i parametri di due moduli: il packet scheduler, che ha il compito di dividere i pacchetti che giungono al nodo sulla base della QoS loro assegnata, ed il packet classifier, che invia i datagrammi IP sul mezzo fisico in maniera da rispettare la QoS negoziata selezionando i pacchetti dalle code ed inoltrandoli in rete al momento opportuno. 7 Il flowspec in una richiesta di prenotazione è in generale composto da due set di parametri: Rspec, che specifica la QoS richiesta, e Tspec, che descrive le caratteristiche del flusso di dati cui assegnare la QoS richiesta 69 __________________________________________________________________ Figura 11: Sezione di I/O di un nodo IP Ogni richiesta di prenotazione delle risorse è caratterizzata da uno "stile di prenotazione" (reservation style). Attualmente sono definiti tre stili di prenotazione: • Wildcard Filter (WF) style: se un ricevitore, appartenente ad un certo gruppo multicast, utilizza in una sua richiesta lo stile WF, allora esso vuole ricevere con la QoS specificata tutti i pacchetti indirizzati a quel gruppo multicast, indipendentemente da chi li trasmette: di conseguenza le risorse allocate nella rete sulla base di quanto indicato nel flowspec saranno condivise tra tutti coloro che in un certo istante trasmettono all'indirizzo IP multicast cui appartiene l'host che ha richiesto la prenotazione. • Fixed Filter (FF) style: in una richiesta con stile FF l'host ricevente indica esplicitamente quali flussi di dati vuole ricevere e con quale QoS; in altri termini esso specifica nella sua richiesta una serie di flow descriptor, ognuno associato ad un determinato flusso di dati. • Shared Explicit (SE) style: in una richiesta con stile SE l'host ricevente indica una serie di flussi di dati che vuole ricevere (vale a dire una serie di sorgenti), ma associa ad essi un unico flowspec da condividere tra tutti i trasmettitori. Ogni richiesta di prenotazione delle risorse Resv deve essere soggetta ad un controllo amministrativo per verificarne la leggittimità, ovvero per controllare che le risorse richieste non eccedano un certo limite prestabilito e che il richiedente sia 70 __________________________________________________________________ autorizzato ad inoltrare richieste. A tal scopo i messaggi Resv possono comprendere dei "policy data" che contengono dei dati identificativi dell'utente che chiede le risorse. Il protocollo RSVP non interpreta i policy data, ma li trasporta in modo trasparente e li passa ad un Local Policy Module (LPM) che esegue gli opportuni controlli e gestisce la tariffazione per I servizi richiesti. Non tutti i nodi sono dotati del LPM, in quanto il policy control viene usualmente eseguito ai confini di un dominio amministrativo. In un nodo il modulo LPM svolge essenzialmente tre funzioni: anzitutto, riceve i policy data contenuti nei messaggi Resv che arrivano al nodo; poi, interpreta tali dati e modifica il proprio stato di conseguenza, ad esempio aggiornando il numero di scatti dei vari utenti necessari poi per la tariffazione del servizio offerto, infine, deve generare i policy data da includere nei messaggi Resv che il nodo invia a sua volta sulla rete. 3.2.3 Il protocollo RTP Il protocollo RTP ( Real-time Trasport Protocol ) è stato creato per estendere le funzionalità del protocollo TCP in modo da poterlo utilizzare anche per il trasporto di traffico real-time. Il protocollo RTP può operare appoggiandosi su protocolli sia di tipo connection-oriented che connection-less e richiede che i servizi di frammentazione e riassemblaggio dei pacchetti siano a carico degli strati inferiori. Il protocollo RTP non offre nessun meccanismo per assicurare la consegna dei pacchetti entro tempi prestabiliti o alcun genere di garanzia circa la qualità del servizio, ma si appoggia ai servizi forniti dai livelli inferiori nella gerarchia ISO-OSI come, per esempio, all’UDP/IP. Il pacchetto RTP rappresenta l’unità minima di informazione utilizzata dal protocollo RTP per trasportare i dati forniti dall'applicazione e le informazioni descrittive di tali dati: esso è formato da un’intestazione e dai dati. Header L’header costituisce la parte iniziale di ogni pacchetto RTP e contiene informazioni di controllo che sono utili alla gestione del flusso di dati. È 71 __________________________________________________________________ composto da una parte fissa e da un’eventuale parte opzionale. La parte fissa dell’intestazione trasporta informazioni utili per la corretta interpretazione, identificazione e sincronizzazione dei dati contenuti nel payload. La parte fissa dell’header ha il seguente formato: Figura 3.6: Parte fissa dell’ header di un pacchetto RTP Tra le funzioni principali del RTP sono incluse l’identificazione del carico pagante, il payload, la serializzazione dei pacchetti ( Sequence Number ), per determinare le perdite e le inversioni nella sequenza dei pacchetti, e il “timestamping”, necessario per equalizzare i tempi di ritardo dei pacchetti. E’ noto, infatti, che nelle reti a commutazione di pacchetto, ogni unità informativa viene trattata in modo indipendente dalle altre, sperimentando all’interno della rete tempi di propagazione diversi: la rete introduce il jitter. Questo vuol dire che la rete non è temporalmente trasparente, caratteristica che invece è essenziale per i servizi real-time che richiedono un jitter molto basso o al limite nullo. Per equalizzare i ritardi dei pacchetti, questi ultimi vengono memorizzati, prima di essere passati all’applicazione interessata, in un buffer detto di play-out che introduce a sua volta un ulteriore ritardo: per i pacchetti con ritardo maggiore verrà aggiunto un piccolo ritardo mentre quelli con ritardo minore verranno maggiormente ritardati. 72 __________________________________________________________________ Figura 12: Ritardo di play-out Perchè questo sistema funzioni bisogna conoscere l’istante in cui è stata emessa l’unità informativa per poter stabilire in quale istante deve essere consegnata all’applicazione ricevente. Se la sorgente è a ritmo binario costante è sufficiente conoscere l’intervallo che intercorre tra l’emissione di due unità informative consecutive; se il ritmo è variabile viene utilizzata la procedura “time stamping”, ad ogni pacchetto viene aggiunta una ulteriore informazione: l’istante di emissione. Al protocollo RTP viene affiancato un protocollo ausiliario, denominato RTCP (RTP Control Protocol) per la rilevazione della qualità del servizio, per il controllo della sessione e per le funzioni di identificazione dei partecipanti. L’RTP Control Protocol (RTCP) è la componente del protocollo RTP che si occupa del controllo e del monitoraggio del flusso dei dati trasportati nei pacchetti RTP. Lo scopo di RTCP è quello di fornire alle applicazioni un meccanismo che consenta di valutare la qualità del servizio che la rete, per mezzo di RTP, può offrire e di gestire, allo stesso tempo, il controllo dei partecipanti ad una sessione. RTCP si basa sulla trasmissione periodica di pacchetti di controllo a tutti i partecipanti di una sessione utilizzando lo stesso meccanismo di distribuzione dei pacchetti di dati: la separazione tra pacchetti di dati e di controllo deve essere fornita dai protocolli sottostanti, per esempio utilizzando due porte separate in UDP. 73 __________________________________________________________________ Ogni pacchetto RTCP inizia con una parte fissa simile a quella dei pacchetti dati RTP, seguita da elementi strutturati che possono essere di lunghezza variabile in base al tipo di pacchetto, ma sempre multipli di 32 bit. Tale caratteristica, unita all’indicazione della lunghezza contenuta nella parte fissa, permette di concatenare più pacchetti RTCP in un unico pacchetto del protocollo di livello inferiore. Non esiste neanche un esplicito conteggio delle singole porzioni contenute in un pacchetto composto, in quanto è previsto che l’indicazione della lunghezza totale venga indicata dai livelli inferiori. Il protocollo RTP si appoggia sui protocolli sottostanti per distinguere i flussi di dati dai flussi di controllo: nel caso di UDP e protocolli simili, per RTP utilizza un numero di porta pari e per i pacchetti RTCP corrispondenti, la porta immediatamente superiore. Figura 13: Esempio di applicazione real-time con protocollo RTP 74 __________________________________________________________________ 3.2.4 DiffServ (Differentiated Services) La tecnologia DiffServ si fonda sul meccanismo di allocazione preferenziale delle risorse: vengono introdotti dei livelli di priorità e in base ad essi il traffico viene trattato in un determinato modo. Il concetto di flusso informativo, introdotto nel IntServ, non ha più significato in questo modello: i router non devono più gestire una connessione per ogni flusso ma prendono decisioni direttamente sul singolo datagramma. L’informazione sul trattamento che un datagramma deve ricevere è trasportata dal datagramma stesso evitando così la necessità dello scambio delle informazioni di controllo tra i routers e il mantenimento degli stati nei sistemi attraversati (tramite RSVP). L’idea del DiffServ è quella di fornire differenti servizi creando delle classi con diverse priorità; per fare questo viene usato il campo DSCP ( DiffServ Code Point), ottenuto dal campo type-of-service (TOS) del pacchetto IPv4 o dal campo traffic class di IPv6. Con le classi di servizio tutti i datagrammi vengono riuniti in pochi flussi aggregati, BA8 – Behaviour Aggregate, ai quali sono assegnati diversi trattamenti all’interno della rete. All’interno della rete non esiste nessuna richiesta fatta da un flusso per ottenere un determinato trattamento in termini di QoS. Il meccanismo DiffServ può essere riassunto nel modo seguente: - ai bordi della rete i singoli pacchetti vengono classificati dagli Edge Router9 che marcano il campo DSCP presente nella loro intestazione in base ai requisisti prestazionali richiesti; - ogni valore del campo DSCP corrisponde ad una classe di servizio e tutti i pacchetti aventi lo stesso campo DSCP riceveranno lo stesso trattamento all’interno della rete; 8 Behaviour Aggregate ( BA): un insieme di pacchetti con lo stesso DSCP che attraversano un link in una particolare direzione 9 Edge Router: sono i router ai bordi di un dominio DS. Essi svolgono le funzioni fondamentali che prevede l’architettura DiffServ quali la classificazione dei pacchetti, la marcatura del campo DSCP e la policing-shaping del traffico. 75 __________________________________________________________________ - i pacchetti, una volta classificati, vengono immessi nella rete; - all’interno della rete in ogni router vengono definiti i PHB10 ( Per Hop Behaviour) ovvero i comportamenti corrispondenti alle classi di servizio con le quali sono classificati i pacchetti; - quando un pacchetto arriva in un Core Router11, quest’ultimo esamina il campo DSCP e tratterà il pacchetto in base alla classe di servizio corrispondente. Si osservi inoltre che DiffServ specifica solo il campo DSCP, e dunque le classi di servizio, e i PHBs dei routers mentre spetta all’operatore decidere quali particolari prestazioni far corrispondere alla singola coppia DSCP-PHB; inoltre DiffServ non specifica dei servizi: il servizio percepito dall’utente è semplicemente il risultato dei vari PHB. Come per la tecnologia IntServ, un utente che vuole ricevere un servizio differenziato si deve accordare con il Service Provider stipulando un SLA. 10 Per Hop Behaviour ( PHB ): una descrizione del modo di instradare un particolare aggregato da parte di un router DS, così come lo si vede esternamente; è definito dai parametri dell’algoritmo di scheduling, dalla quota di buffer e dalla quota di banda che di fatto consentono di ottenere un diverso servizio 11 Core Router: sono router ad altissima capacità all’interno del dominio DS. Essi hanno il solo compito di eseguire i PHB sui datagrammi già classificati e marcati dagli edge-router 76 __________________________________________________________________ 3.2.5 Il campo DSCP Il campo DSCP è composto di sei bit ed è usato per identificare i flussi appartenenti ad un aggregato e associarli ad un PHB, deriva dal campo TOS ( Type Of Service ) introdotto già da tempo in IPv4. Figura 14: Campo DSCP ottenuto dalla ridefinizione del campo TOS Come si vede dalla figura il campo TOS è stato ridefinito dal IETF appositamente per DiffServ: i sei bit più significativi sono stati definiti DSCP mentre gli ultimi due rappresentano il campo CU che per ora non viene utilizzato e che si raccomanda di non utilizzare in nessuna implementazione. 77 __________________________________________________________________ 3.2.6 PHB: Per-Hop Behaviour Nell’architettura DiffServ abbiamo, oltre al Best Effort, due classi di servizio: Figura 15: Classi di Servizio nella metodologia DiffServ 1- Expedited Forwarding: Il PHB Expedited Forwarding permette di offrire le prestazioni di una linea dedicata virtuale, caratterizzata da: • • • • basse perdite; basse latenze; basso jitter; garanzia di larghezza di banda. Il concetto su cui si basa l’implementazione di questo PHB è la seguente: gli eventi che introducono variabilità nelle caratteristiche dette sopra si collocano nelle code dei router e sono causati dalla differenza tra la velocità di trasmissione del flusso aggregato in entrata e quella riservata a quella determinata coda in uscita. Per l’Expedited Forwarding deve essere sempre garantita l’assenza di congestione della coda associata ad esso e tale garanzia deve essere salvaguardata indipendentemente dall'intensità del resto del traffico appartenente ad altri PHB: 78 __________________________________________________________________ le varie classi di servizio non si devono influenzare tra loro. Un modo per implementare questo PHB consiste nel predisporre una coda con priorità superiore: per evitare interferenze (pre-emptions) non dovrebbero essere tuttavia presenti altre code a priorità superiore. 2-Assured Forwarding : Il PHB Assured Forwarding rappresenta un servizio end-to-end con caratteristiche di garanzia sul recapito del pacchetto;viene definita una certa larghezza di banda "di profilo", ed il traffico che rientra in quella larghezza di banda viene recapitato con alta probabilità. L’ Assured Forwarding permette di configurare diversi livelli di affidabilità e di priorità di inoltro del traffico. Sono presenti quattro classi di servizio e per ognuna ci sono tre differenti livelli relativi di scarto (drop); i pacchetti vengono marcati e inseriti in una delle classi in base ai servizi sottoscritti dal cliente e in caso di congestione i nodi scartano in base ai livelli di priorità. Questo PHB si adatta molto bene a tutte quelle applicazioni che non hanno richieste assolute di banda ma che hanno bisogno di una priorità maggiore del normale traffico. 3.3 SCHEDULING E ALGORITMI Per implementare il DiffServ si necessita di una gestione ottimale delle code presenti nei routers e per farlo bisogna ricorrere ad opportune procedure di scheduling. Lo Scheduling è il meccanismo con il quale si programma in quale sequenza e modo devono essere servite le code, nel caso di buffer multiplo, o i pacchetti, nel caso di buffer singolo. Nel Test-bed sperimentale che verrà descritto dettagliatamente nel Capitolo 3 sono presenti due router Juniper provvisti di quattro code e quindi gli algoritmi che più interessano sono quelli a buffer multiplo. 79 __________________________________________________________________ Figura 16: Struttura di un router a buffer multiplo con queuing e scheduling La maggior parte degli algoritmi a buffer multiplo sono basati sulla tecnica Round-Robin perchè è la più adatta quando si vogliono isolare più flussi. Il funzionamento del Round-Robin è il seguente: lo scheduler scorre tutte le code ciclicamente e se quella che sta analizzando non è vuota spedisce il primo pacchetto presente, altrimenti passa alla coda successiva. Questo algoritmo dipende dalla lunghezza media dei pacchetti presenti nelle code e non dalla lunghezza effettiva. Per ovviare questo problema viene introdotto il cosiddetto quantum che rappresenta numero di byte che lo scheduler può spedire da ogni coda in un determinato istante. L’algoritmo che utilizza il quantum viene detto Deficit Round-Robin ( DRR ) e funziona nel modo seguente: prima di servire la coda lo scheduler confronta la grandezza del pacchetto con il valore del quantum; se il pacchetto è maggiore del quantum non viene spedito e il quantum incrementa altrimenti il pacchetto viene spedito e il quantum decrementato al valore della grandezza del pacchetto spedito. 3.3.1 WRR: Weighted Round Robin Questa tecnica, che poi è quella implementata nei router Juniper utilizzati, prende in considerazione il peso di ogni classe di servizio: i pesi determinano il numero massimo di ottetti che possono uscire da una coda nello stesso turno. In questo modo ad ogni coda viene riservata una percentuale di banda differente e quindi le 80 __________________________________________________________________ code a più alta priorità verranno servite più spesso rispetto a quelle con più bassa priorità: è come se nel DRR ci fossero valori di quantum diversi per ogni coda. 3.3.2 Priority queuing Il concetto di base di questo algoritmo è di assegnare ad ogni classe di servizio un numero che rappresenta la sua priorità. La classe con priorità più alta sarà servita ad ogni giro dello scheduler e, finché questa avrà pacchetti da servire, essi saranno spediti. Non appena la coda si svuota lo scheduler passa a servire i pacchetti di quella successiva, finché anche questi non terminano e cosi via. Quando un pacchetto arriva nella coda con priorità minore, questa viene servita non appena lo scheduler finisce di spedire i pacchetti del servizio corrente. Il difetto di questo algoritmo è che le classi con priorità minore possono cadere in starvation, e cioè non vengono servite per molto tempo in presenza di un flusso continuo di pacchetti appartenenti a classi a priorità maggiore. Una soluzione a tale problema è il quantum, come per il WRR, che limita il numero di ottetti che possono essere spediti consecutivamente da una stessa coda. 3.3.3 Controllo della Congestione Il controllo della congestione delle code interne ai router è molto importante per ottimizzare le prestazioni di rete. Come visto precedentemente il tempo di ritardo dei pacchetti (one-way delay), è costituito dalla somma di tre fattori di cui solo uno è altamente variabile: il tempo di accodamento. Inizialmente è stata utilizzata la tecnica F.I.F.O. ( First In First Out): se il ritmo di entrata dei pacchetti è maggiore di quello di uscita, questi vengono memorizzati e quando la coda si riempie vengono scartati. Questa tecnica è molto semplice ma ha degli svantaggi che la rendono inefficiente nelle reti multiservizio: 81 __________________________________________________________________ - se le code sono troppo piene i ritardi dei pacchetti aumentano notevolmente; - ci possono essere problemi di sincronizzazione in quanto i pacchetti scartati sono spesso consecutivi; - le sorgenti a ritmo variabile, che in alcuni momenti raggiungono picchi alti di traffico, sono penalizzate rispetto alle sorgenti a ritmo costante. Di seguito vengono descritti i principali algoritmi oggi utilizzati nei router per il controllo ottimale della congestione delle code. R.E.D. ( Random Early Discard ): I router in cui è implementato questo algoritmo scartano uno o più pacchetti prima che la coda si sia completamente riempita. Ogni volta che un pacchetto arriva, l’algoritmo RED calcola la lunghezza media della coda, avg , e il router può assumere tre comportamenti: - se tale lunghezza è inferiore ad una soglia minima, la coda viene considerata non congestionata e il router memorizza i pacchetti; - se la lunghezza media è maggiore della soglia massima, la coda è considerata congestionata e il router scarta i pacchetti con probabilità del 100%; - se la lunghezza media si trova tra la soglia minima e massima, l’algoritmo calcola la probabilità di scarto dei pacchetti in base alla congestione della coda. 82 __________________________________________________________________ Figura 17: Probabilità di scarto dei pacchetti al variare della lunghezza media della coda. Come si vede in figura, all’aumentare della congestione della coda, indicata dal parametro avg, viene scartato un numero sempre maggiore di pacchetti fino ad arrivare alla soglia massima thmax dopo la quale tutti i pacchetti entranti vengono scartati. Usando lo scarto probabilistico si evita la cancellazione di pacchetti consecutivi e la probabilità di cancellazione non è casuale ma calcolata sulla base del numero di pacchetti del flusso di appartenenza presenti nella coda. Lo svantaggio di questo algoritmo è che funziona male nel caso in cui i flussi che congestionano la coda siano “non-responsive” : se infatti si è in presenza di multimedia non adattativi, ovvero se le sorgenti non possono abbassare le velocità di emissione, la coda rimarrà sempre congestionata e i pacchetti verranno continuamente scartati. Weighted R.E.D.: Questo algoritmo è una evoluzione del RED appena visto ed è stato proposto originariamente dal CISCO. Rispetto al precedente vengono usati differenti parametri per i vari flussi entranti: in questo modo, infatti, è possibile differenziare la distribuzione dei pacchetti persi. Questa soluzione può non essere però conforme al modello DiffServ, infatti con il WRED i router devono memorizzare i parametri delle code per ogni singolo flusso e questo comporta 83 __________________________________________________________________ problemi di scalabilità, tipici delle architetture ATM per le quali è stato realizzato questo algoritmo. Figura 18: Andamento della funzione di probabilità di cancellazione nel WRED RED with IN and OUT ( RIO ): Questo algoritmo è tra i primi che supportano i servizi differenziati. Inizialmente RIO supportava due livelli di precedenza (In e Out), ma in seguito, è stato modificato per essere in grado supportarne di più. Le differenza rispetto alle altre metodologie riguarda soprattutto la grandezza media delle code. A differenza del WRED, RIO calcola questo valore per ogni livello di precedenza, ovvero il valore avgn viene aggiornato ogni volta che arriva nella coda un pacchetto con precedenza n. In questo modo è possibile isolare le probabilità di eliminazione per ogni livello di precedenza. Per esempio per cancellare un pacchetto di bassa precedenza deve verificarsi un eccesso di pacchetti con lo stesso livello, invece per eliminarne uno con alta precedenza, basta che si verifichi un eccesso generale di pacchetti. Per potenziare l’algoritmo RIO è previsto l’uso di differenti parametri (pmax, thmin e thmax) per ogni livello di precedenza, come per il WRED. In questo modo, potrebbero essere usate soglie meno rigide, per far sì che la grandezza media delle code per i pacchetti con alta priorità possa aumentare più rapidamente rispetto al WRED o al RED, rendendo così questo sistema applicabile nella rete. 84 __________________________________________________________________ 3.3.4 Coesistenza IntServ , DiffServ Il modello DiffServ nasce per far fronte ai problemi di scalabilità di IntServ e si basa su un concetto completamente diverso dal suo predecessore. Nel IntServ l’applicazione che richiede una certa QoS deve generare un’informazione di controllo ( tramite protocollo RSVP ) per avvertire tutti i router coinvolti nel cammino origine-destinazione di trattare il suo flusso informativo in un determinato modo. Perchè la rete possa garantire le prestazioni richieste, ogni router deve mantenere delle opportune informazioni di stato ( ad esempio la banda e il buffer da riservare a un certo flusso informativo) che vengono aggiornate durante la connessione. Nella metodologia IntServ la gestione della QoS è su base flusso e ogni router deve avere informazioni di stato per tutti i flussi che lo attraversano, in quella DiffServ invece viene meno la necessità di memorizzare le informazioni di stato del singolo flusso in quanto non vi è più riservazione delle risorse, infatti vengono definiti dei PHB. Quindi se per IntServ si hanno garanzie maggiori delle prestazioni ma problemi di scalabilità legati al numero di flussi da gestire, il DiffServ risulta invece essere una architettura molto meno complessa ma tuttavia manca della capacità di “isolare” le singole richieste di QoS. Anche se queste tecnologie sono state definite separatamente, non è detto che debbano essere utilizzate in modo esclusivo. IntServ è efficiente nelle piccole reti, come ad esempio le LAN, dove i flussi da gestire sono pochi e non si hanno problemi di scalabilità; DiffServ al contrario consente la gestione della QoS per grossi aggregati di traffico e può quindi essere implementato su reti trasporto metropolitane o backbone. Uno scenario futuro di rete multiservizio con gestione della QoS potrebbe essere il seguente: 85 __________________________________________________________________ Figura 19: Architettura di rete con metodogie DiffServ e IntServ 3.4 DIFFSERV OVER MPLS Le condizioni da soddisfare per la QoS si possono riassumere come segue: • È necessaria l’allocazione garantita di una certa misura di risorse trasmissive in tutto il percorso effettuato dai dati dell’applicazione di interesse. Questa condizione di tipo end-to-end non deve venire meno neanche in situazioni di congestione o malfunzionamento di nodi della rete.E’ necessaria inoltre la funzione di Admission Control; • Il flusso dati dell’applicazione deve sperimentare nei nodi della rete un trattamento specifico, scelto tra diverse possibili classi di servizio, che rispetti determinati vincoli sulla perdita di pacchetti e sui ritardi nelle code. La metodologia DiffServ rappresenta un primo reale passo avanti per l’implementazione e gestione della QoS nelle reti fisse ma è anche da considerarsi incompleta in quanto non offre le garanzie quantitative end-to-end richieste dal primo dei due requisiti. MPLS (Multiprotocol Label Switching) è una architettura 86 __________________________________________________________________ di rete emersa negli ultimi anni e spesso viene erroneamente citata come architettura per la qualità del servizio; in realtà essa non fornisce di per sé alcun meccanismo per la gestione della QoS. Ciò che MPLS offre è la possibilità di lavorare in un ambiente connection oriented, nel quale è possibile riservare risorse ed utilizzare in modo efficiente la rete mediante applicazioni di traffic engineering. MPLS è quindi un’architettura che può fornire il supporto per una completa gestione end-to-end della QoS. 3.4.1 L’architettura MPLS Un dominio MPLS è costituito da una serie di nodi contigui che supportano la tecnologia Multiprotocol Label Switching, detti LSR (Label Switching Router). In questo scenario sono di particolare importanza i nodi al confine del dominio, che nella terminologia MPLS vengono chiamati LER (Label Edge Router). Essi rappresentano l’interfaccia del dominio MPLS con il resto della rete, quindi devono implementare sia l’algoritmo di forwarding label switching sia quello tradizionale IP. Un altro loro compito è quello di assegnare le label al traffico in ingresso. Un percorso effettuato dai pacchetti instradati tramite label switching all’interno del dominio MPLS prende il nome di LSP (Label Switched Path). Da un punto di vista funzionale, l’architettura MPLS può essere divisa (come del resto anche l’architettura tradizionale IP) in componente di forwarding e componente di controllo. La componente di forwarding consiste nella procedura mediante la quale in un nodo si estraggono dai pacchetti le informazioni per identificare l’appropriato next hop nella forwarding table. Un LER esegue il mapping del traffico in classi di equivalenza per il forwarding (FEC), ossia in gruppi di pacchetti che devono essere tutti inoltrati nella stessa maniera. Di seguito associa l’etichetta ai pacchetti in base alla loro FEC di appartenenza. All’interno del dominio MPLS, ogni LSR ha una tabella di forwarding nella quale ad un determinato label corrisponde un next hop. L’indirizzo di destinazione finale dei pacchetti non è più preso in considerazione nelle decisioni riguardo al loro inoltro. Un parametro importante per la componente di forwarding è la 87 __________________________________________________________________ granularità con cui i flussi in ingresso al dominio MPLS vengono associati nelle FEC. In linea teorica sarebbe possibile associare una diversa etichetta ad ogni singolo flusso, ma questo comporterebbe i medesimi problemi dell’architettura IntServ. Il pregio di MPLS da questo punto di vista è la possibilità di selezionare arbitrariamente i criteri per l’aggregazione di più flussi in classi di equivalenza per il forwarding. Dal momento che solo alcuni protocolli di livello 3 (ATM, Frame Relay) supportano la presenza di un label, si è deciso di creare in ambito MPLS un header di 32 bit da inserire tra quello di livello 2 e quello di livello 3, detto shim header. Tutti i protocolli di livello 3 che non prevedono la presenza di una label (tra i quali rientra IP) possono fare uso dello shim header per trasportare le informazioni per il label switching. Figura 20: Shim Header MPLS Il campo di 20 bit Label è l’etichetta vera e propria. Il campo Exp, di tre bit, è stato riservato ad uso sperimentale ed è spesso utilizzato per il supporto della QoS in ambito MPLS. La componente di controllo nell’architettura MPLS consiste nelle procedure utilizzate per scambiare informazioni di routing tra gli LSR e per convertire tali informazioni in una tabella di forwarding. Come la componente di controllo dell’architettura tradizionale IP, anche quella di MPLS include dei protocolli di routing come ad esempio OSPF ( Open Shortest Path First ). Per la creazione delle tabelle di forwarding sono però necessarie in un LSR ulteriori funzionalità 88 __________________________________________________________________ oltre ai protocolli di routing. Un LSR, infatti, deve essere in grado di creare associazioni (bindings) tra label e FEC, informare gli altri LSR dei bindings ed aggiornare le tabelle di forwarding in base ai bindings creati localmente e a quelli di cui viene informato dagli altri LSR. I protocolli di routing consentono di effettuare il passaggio da FEC a next hop; le procedure di creazione e distribuzione dei bindings portano alla conversione da FEC a label. Complessivamente si ottiene la relazione tra label e next hop necessaria per la creazione delle tabelle di forwarding, Figura 21: Procedura per la creazione della Forwarding Table La distribuzione delle label bindings tra gli LSR viene affidata preferibilmente a protocolli tradizionali come RSVP ma può anche essere demandata ad un apposito protocollo detto LDP (Label Distribution Protocol). 3.4.2 MPLS e ingegneria del traffico L’architettura MPLS è nata per aumentare le prestazioni dei nodi della rete, introducendo per il forwarding un campo di dimensione fissa che consentisse un processing più rapido dei pacchetti. Tuttavia questo tipo di necessità è progressivamente venuto meno in conseguenza delle continue innovazioni tecnologiche che hanno portato a router sempre più veloci. Il vero vantaggio di MPLS, che non rientrava tra i suoi scopi originari, è quello di consentire ai Service Provider di implementare il TE (traffic engineering) nelle reti, aumentandone l’efficienza e le prestazioni. Il TE permette di bilanciare il traffico 89 __________________________________________________________________ in una rete in modo da non avere link congestionati né scarsamente utilizzati, cosa che porta ad un pieno sfruttamento della rete, con il conseguente guadagno per i provider che possono servire più utenza a parità di risorse. Inoltre il TE consente l’allocazione delle risorse trasmissive per un aggregato di flussi, rendendo possibile lo sviluppo di meccanismi di QoS end-to-end. Figura 22: Rete MPLS Lo sviluppo del TE ha importanti implicazioni per le procedure di routing. Nell’architettura IP tradizionale la selezione del percorso per l’instradamento del traffico viene effettuata minimizzando una determinata metrica, rappresentata ad esempio dal numero di nodi attraversati o dalla somma di termini di costo assegnati staticamente ai link. La conseguenza di ciò è uno sbilanciamento del traffico che viene instradato per la maggior parte su percorsi preferenziali risultando spesso soggetti a congestione. In questo contesto poco flessibile mancano le premesse per poter sviluppare il TE. MPLS supera i limiti dell’architettura tradizionale supportando un nuovo tipo di routing, detto Constraint-based Routing (CR). L’idea alla base di questa innovazione sta nel fatto che per avere un routing efficiente bisogna instradare il traffico lungo percorsi a costo minimo, rispettando contemporaneamente determinati vincoli (constraints) sullo sfruttamento delle risorse di rete. Per poter effettuare il CR 90 __________________________________________________________________ sono necessarie funzionalità aggiuntive nella rete, tra le quali la presenza di protocolli di routing opportunamente estesi (come ad esempio OSPF-TE o ISISTE) per portare le informazioni relative al TE. Servono poi algoritmi per il calcolo dei percorsi che rispettino i vincoli, ed un protocollo per l’allocazione delle risorse esteso per il TE; il più famoso è senz’altro RSVP-TE (ReSerVation Protocol with Tunneling Extension), che è molto utilizzato per la distribuzione dei label nelle reti che implementano il traffic engineering e la QoS. 3.4.3 Implementazione della QoS DiffServ su MPLS L ‘architettura MPLS grazie ai protocolli di routing estesi per fornire TE può offrire un ambiente connection-oriented, necessario per l’implementazione della QoS, garantendo risorse trasmissive ad aggregati di traffico ma non discriminando i pacchetti nel trattamento ad essi riservato nei nodi. L’architettura DiffServ, invece, permette la classificazione dei pacchetti in BA e il loro trattamento diversificato rappresentato dai PHB. L’integrazione delle due architetture porta quindi allo sviluppo di una meccanismo per gestire in modo completo la QoS. Affinché MPLS possa supportare DiffServ, è necessario che gli LSR riescano a distinguere i vari pacchetti in base al loro DSCP per inoltrarli secondo il PHB corrispondente. Sorge allora un problema in quanto gli LSR si basano esclusivamente sulla label dello shim header MPLS per il forwarding dei pacchetti, e non esaminano l’header IP. Le soluzioni che sono state proposte sono due: - E-LSP ( Experimental bit inferred LSP ) : Viene utilizzato il campo EXP dello shim header come sostituto del campo DSCP per portare l’informazione sul DSCP all’interno del dominio MPLS. L’inconveniente di questo approccio consiste nella dimensione del campo EXP, di soli tre bit contro i sei del campo DSCP: in questo modo si possono supportare al massimo otto diversi DSCP e quindi otto diversi PHB. Nel caso di una rete nella quale siano effettivamente 91 __________________________________________________________________ implementati o richiesti al massimo otto PHB, le funzioni DiffServ possono essere esplicate semplicemente leggendo negli LSR il valore del campo Exp ed assegnando di conseguenza i pacchetti al corretto BA. Questo metodo ha il pregio di essere semplice e non richiedere alcuna segnalazione di controllo aggiuntiva. Figura 23: I bit del campo TOS o i primi 3 bit del campo DSCP sono copiati nel campo Exp ai bordi della rete. - L-LSP ( Label inferred LSP ) : La seconda soluzione proposta è utile qualora si debbano trattare più di otto PHB. In tal caso il campo Exp non è più sufficiente, e lo shim header necessita di essere in qualche modo rivisitato per consentire il trasporto dell’informazione sul DSCP. Si è deciso di incrementare il significato del campo label, che deve indicare sia l’appartenenza ad una certa FEC che l’appartenenza ad un certo BA; il campo Exp viene in questo caso utilizzato per esprimere il valore della drop precedence, in modo da trattare i pacchetti secondo l’opportuno PHB. Parlando ad esempio della categoria di PHB AF, nella label si troverebbe l’informazione sullo scheduling e quindi riguardo alla coda sulla quale instradare il pacchetto; nel campo Exp si troverebbe il valore (tra i tre possibili per ogni classe di scheduling di AF) della drop precedence. 92 __________________________________________________________________ Figura 24: Il PHB è indicato dal valore della label mentre la drop precedence dal valore del campo Exp. E’ necessario far confluire i pacchetti del medesimo BA in un L-LSP comune, poiché sono destinati tutti alla stessa coda: un L-LSP può trasportare una sola classe di servizio. Questo modo di procedere consente di avere quanti PHB si vogliano, a spese di una complicazione nella componente di controllo MPLS. Infatti è necessario estendere i protocolli per la distribuzione dei binding tra label e FEC, che adesso devono includere anche il binding tra label e PHB. La distribuzione deve essere effettuata al momento della creazione di un L-LSP. Le due alternative per gli LSP con supporto di DiffServ non sono mutuamente esclusive e possono coesistere non solo a livello di dominio MPLS ma anche a livello di un singolo link. 93 __________________________________________________________________ 3.5 ARCHITETTURA GMPLS L’architettura GMPLS è nata per far fronte ai limiti dell’architettura MPLS nelle reti completamente ottiche di prossima generazione. Il concetto di base del GMPLS è lo stesso del MPLS: tra lo strato 2 e lo strato 3 di ogni pacchetto viene inserita una label e l’instradamento avviene proprio tramite questa label. In uno scenario di rete ottica l’architettura MPLS risulta insufficiente per la gestione degli OXC, PXC e OADM, dispositivi che svolgono commutazione nel dominio del tempo, dello spazio e della lunghezza d’onda, ed è così stata estesa evolvendo nell’architettura GMPLS: l’insieme dei protocolli IP che gestiscono e controllano gli LSP che attraversano le reti ottiche a pacchetto o TDM vengono modificati ed estesi all’interno del GMPLS. Nell’architettura GMPLS gli LSR ( Label Switching Router ) comprendono dispositivi che instradano su base time-slot, lunghezza d’onda o phisycal port. Le interfacce presenti suli LSR possono essere classificate in: - Packets Switch Capable ( PSC ): in cui l’instradamento si basa sul contenuto del header del pacchetto, come ad esempio l’header IP; - Layer -2 Switch Capable ( LSC ): l’instradamento avviene tramite il contenuto del frame/cell boundaries header, come ad esempio le interfacce ATM-LSR che instradano in base all’ ATM-VPI/VCI; - Time Division Multiplex Capable ( TDM ): in cui l’instradamento si basa sull’informazione contenuta in un determinato time-slot; - Lamda Switch Capable ( LSC ): l’instradamento avviene sulla base della lunghezza d’onda; - Fiber Switch Capable ( FSC ): in cui l’instradamento è effettuato nel dominio dello spazio. Ogni LSP inizia e termina su interfacce dello stesso tipo ed un nuovo LSP può essere annidato in un LSP già esistente ma di ordine superiore: esiste dunque una gerarchia tra gli LSP che si basa sulla capacità di multiplazione dei nodi della rete. 94 __________________________________________________________________ Figura 25: Annidamento degli LSP Diversi PSC-LSP possono essere annidati in un TDM-LSP e diversi TDM-LSP possono a loro volta essere annidati in un LSC-LSP. Al vertice della gerarchia vi sono gli FSC-LSP nei quali possono essere annidati diversi LSC-LSP. Tutti gli LSP sono presenti nel database di routine dei protocolli di link state IS-IS/OSPF come nuovi tipi di collegamento. Mediante la tecnica del floading ogni nodo della rete si costruisce al suo interno un Link State Database, che contiene non solo informazioni riguardanti i link tradizionali, con tutti i loro attributi, ma anche tutti gli LSP attivi. Poichè con il DWDM si possono avere molti link paralleli con conseguente aumento delle dimensione del Link State Database, nell’architettura GMPLS è stato introdotto il concetto di Link Bundling, secondo il quale vengono aggregati gli attributi di collegamento di numerosi collegamenti paralleli, aventi caratteristiche simili, e poi assegnati ad un singolo Link (Bundling Link). Un altro cambiamento introdotto nel GMPLS riguarda la direzionalità degli LSP. Nell’architettura MPLS gli LSP sono unidirezionali, quindi per instaurare un LSP bidirezionale, devono essere instaurati due LSP unidirezionali indipendenti, questo approccio presenta diversi svantaggi: 95 __________________________________________________________________ - Ritardo di instaurazione - Scelta d’instradamento - Dimensione dell’overhead. In GMPLS sono stati introdotti dei metodi addizionali per permettere l’instaurazione di LSP bidirezionali utilizzando un singolo messaggio del protocollo di segnalazione. Questo riduce il tempo di ritardo essenzialmente a un solo round-trip tra il nodo di potenza ed il nodo di destinazione, più il tempo di elaborazione. Poichè il GMPLS permette le commutazioni di fibra, di lunghezza d’onda e di time-slot, la label è stata necessariamente modificata. Infatti essa non è più associata solo ad un determinato pacchetto, ma anche ad una fibra, ad una lunghezza d’onda o ad un time-slot. Le informazioni che una generalized label deve contenere riguardano: - LSP encoding type: indica il tipo di label a cui deve essere associato l’LSP; - Switching type: indica il tipo di commutazione che si può effettuare su un determinato link; - Payload Identifier: indica il tipo di payload trasportato da quel determinato LSP. 96 __________________________________________________________________ Capitolo 4 STRUTTURA ED ELEMENTI DEL TEST- BED In questo capitolo vengono illustrati nel dettaglio la struttura del test-bed utilizzato e le strumentazioni che lo costituiscono. Particolare attenzione viene data ai Router Juniper M10, nucleo del test-bed, alle loro funzionalità ed al linguaggio proprietario di configurazione JUNOS. Verranno descritti i principi di funzionamento del sistema da me proposto e verranno analizzate in dettaglio le parti hardware e software utilizzate per lasua effettiva realizzazione. 97 4.1 TEST-BED MPLS PER LE MISURE OGGETTIVE DELLA QUALITA’ DEL SERVIZIO. 4.1.1 Struttura del test-bed Al fine di valutare il comportamento della tecnica E-LSP12 dell’ approccio “DiffServ over MPLS” è stato implementato un test-bed sperimentale. Il test-bed realizzato in collaborazione con l’ISCOM (Istituto Superiore delle Comunicazioni) è rappresentato in figura e prevede la collaborazione di tre laboratori distinti: • Trasmissioni ottiche (ufficio III ISCOM) • Valutazione della QoS multimediale (ufficio IV ISCOM) • Reti ottiche dinamiche (primo piano ISCOM) Tra i laboratori è stato creato un collegamento ad hoc in fibra ottica multimodale. Laboratorio trasmissioni ottiche. In questo laboratorio è attestato un collegamento all’anello ottico Roma-Pomezia; il link che collega in anello Roma e Pomezia è lungo 24 Km “one way” ed è costituito da 80 fibre di cui 30 ds (dispersion shifted) 20 nzd (non zero dispersion) e 30 sf. A questo link ottico sotto test sono connessi i due Router Juniper M10. 12 Experimental bit Inferred LSP: Viene utilizzato il campo EXP dello shim header come sostituto del campo DSCP per portare l’informazione del DSCP all’interno del dominio MPLS. __________________________________________________________________ Link sotto test Link di collegamento fra laboratori in fibra ottica mmf Link di collegamento in fibra ottica smf Link di collegamento FastEthernet MULTIMEDIA SERVER SERVER CHARIOT Hub conv e/o Laboratorio valutazione della QoS multimediale – Ufficio IV ISCOM 1,25 GBE ANELLO OTTICO ROMA-POMEZIA Fibra ottica mmf Fibra ottica smf 1550 Laboratorio trasmissivo reti ottiche -ISCOM- conv e/o fe CLIENT-1 CHARIOT fe 1,25 GBE 1,25 GBE GENERATORE-ANALIZZATORE DI CLIENT-2 CHARIOT laboratorio reti ottiche dinamiche – Ufficio III ISCOM Figura 4.1: Schema del Test-Bed utilizzato per la valutazione Oggettiva della QoS Laboratorio reti ottiche dinamiche. In questo laboratorio sono presenti: • due router Juniper M10 ed un terzo sotto test. • un generatore/analizzatore di traffico Anritsu MD1230A • un attenuatore ottico variabile Anritzu MD9610B • due Client Chariot • un convertitore elettro-ottico che collega con il laboratorio per la valutazione della QoS multimediale. 99 __________________________________________________________________ Laboratorio per la valutazione della QoS multimediale. In questo laboratorio è presente il Server Chariot, col quale si effettuano le misure oggettive, e tutta la strumentazione che verrà utilizzata in seguito per le prove soggettive. 4.1.2 Presentazione del Test-bed All’ anello ottico, cui sono collegati i due router Juniper, viene inserito il generatore analizzatore di traffico Anritsu presente nel “laboratorio reti ottiche dinamiche”. Questo strumento è dotato di due interfacce ottiche GbE sulle quali è possibile generare traffico fino a 800 Mbit/s ed otto interfacce FastEthernet in grado di produrre traffico per 100 Mbit/s ognuna. Tramite questo generatore è possibile saturare fino al limite (1,25 Gbit/s) il link ottico sotto test, avendo così la possibilità di effettuare delle misure in ogni condizione di carico della rete. Il traffico di saturazione può essere etichettato in accordo con l’approccio DiffServ. Ai due router Juniper M10 sono stati collegati due PC, il primo è un Atlon dotato di un processore MD con CPU da 1.40 GHz, 512 MB di RAM, sistema operativo Microsoft Windows XP Professional versione 2002 e Service Pack 1, scheda di rete Intel® PRO/100 VE Network Connection; il secondo PC è una Dell Workstation PWS 650 con doppio processore Intel® Xeon 240TM, clock della CPU a 2.40GHz, 1,25 GB di Ram, sistema operativo Microsoft Windows XP PRO versione 2002 e Service Pack 1, scheda di rete Intel® PRO/1000 MTW Network Connection. Tramite un collegamento in fibra multimodale il laboratorio dell’ufficio III è stato collegato con quello al sesto piano della QoS multimediale dell’ufficio VI. In questo laboratorio è presente un server di dati realizzato mediante l’istallazione del software Chariot prodotto dalla NetIQ. La versione client di questo 100 __________________________________________________________________ programma è stata istallata sui PC del laboratorio 1S. Dopo alcune prove inziali tra tutti i PC cui era stata istallata la versione client la scelta è andata su due PC descritti sopra. Mediante l’interazione tra di queste tre macchine (server più due client) è possibile effettuare uno scambio di traffico dati tra i client collegati ai due diversi router e dunque alle estremità dell’anello, e misurarne i parametri significativi col server. I dati scambiati posso essere di diverso tipo, ad esempio video conferenza realizzata mediante sessione Netmeeting, “download” di dati di tipo FTP (File Transfer Protocol), sessioni di VoIP (Voice over IP) etc; inoltre tramite il server Chariot è possibile decidere il rate del traffico inviato e marcare il campo DSCP dei pacchetti IPv4 in accordo con l’approccio DiffServ. Quando i flussi etichettati dal Chariot giungono ad uno dei due router viene subito esaminato il campo DSCP, questo determina il trattamento che subirà il pacchetto. In seguito il pacchetto viene inoltrato sull’interfaccia GigabitEthernet di uscita verso l’interfaccia GigabitEthernet di ingresso dell’altro router il quale, in seguito ad un ulteriore studio del campo DSCP, adotterà una opportuna politica di QoS ed instraderà i flussi verso la sua interfaccia di uscita che in questo caso è una FastEthernet. Circa la descrizione del test-bed in esame va osservato che la totalità del traffico che entra ed esce dalle interfacce dei router Juniper, ovvero il traffico di saturazione dell’Anritsu e quello di test del Chariot, è traffico etichettato; i due router non svolgono alcuna operazione sui pacchetti ma applicano semplicemente il PHB relativamente alla classe di servizio cui appartengono. I due router Juniper sono configurati come Core Router. 101 __________________________________________________________________ Figura 4.26: Particolare del laboratorio reti ottiche dinamiche Figura 4.27: Particolare del laboratorio reti ottiche dinamiche 102 __________________________________________________________________ 4.2 ELEMENTI DELLA RETE 4.2.1 Router Juniper M10 Per la realizzazione del test-bed sono stati impiegati due router Juniper M10. Ogni router può montare fino ad 8 PIC (Physical Interface Card), ognuna delle quali ospita una o più interfacce dello stesso tipo. Figura 4.4: Particolare delle PIC del router Juniper M10 e degli attenuatori variabili. I router utilizzati nel test-bed sono equipaggiati entrambi delle stesse schede: 103 __________________________________________________________________ • Una PIC con 4 interfacce Fast Ethernet (100 BASE TX), come risorse trasmissive vengono utilizzati cavi in rame intrecciati, e si può trasmettere fino a 100Mbit/s. Nei router sono state indicate con le sigle fe-0/1/0, fe0/1/1, fe-0/1/2, fe-0/1/3 da sinistra verso destra. • Due PIC con 1 interfaccia Gigabit Ethernet (1000 BASE LX – 1550 nm) ciascuna. Il mezzo trasmissivo di questo modulo è costituito da fibra ottica utilizzata in terza finestra. La fibra viene di solito impiegata per collegamenti ad alta velocità e molto capacitivi su reti LAN e MAN, va però osservato che esistono dei moduli Gigabit Ethernet con portante in rame. Nei router le interfacce sono state indicate con le sigle ge-0/0/0 quella di destra che si collega all’anello Roma-Pomezia, e ge-0/2/0 quella di sinistra che si collega al generatore/analizzatore di traffico Anritsu. Le interfacce disponibili appena descritte dei router sono state utilizzate in questo modo: 2 Fast Ethernet ed 1 Gigabit Ethernet sono state collegate al generatore/analizzatore di traffico Anritsu, per congestionare la rete e metterci nelle probabili condizioni in cui può trovarsi una rete di trasporto metropolitana. 1 Fast Ethernet è stata collegata ai Client Chariot per misurare lo scambio di traffico etichettato tra i due terminali di rete. 1 Gigabit Ethernet è stata utilizzata per collegare i due router con l’anello Roma-Pomezia (ge-0/0/0). Per quanto concerne la quarta porta Fast Ethernet disponibile, nel primo router è stata collegata ad un convertitore elettro-ottico per permettere il collegamento tra i due laboratori, mentre nell’altro router all’interfaccia è connesso un access point. 104 __________________________________________________________________ 4.2.2 Architettura generale dei router L’ architettura complessiva dei router è costituita essenzialmente da tre componenti fondamentali: 1. Componente di controllo: gestisce le politiche di instadamento e dunque si occupa del calcolo del percorso migliore che ogni pacchetto deve fare. 2. Componente di forwarding: gestisce l’inoltro dei pacchetti dalle porte di ingresso alle porte di uscita per la trasmissione attraverso la rete. 3. Componente di memorizzazione ed accoramento dei pacchetti: il sistema di memorizzazione ed accoramento ha la funzione di memorizzare temporaneamente i pacchetti in grandi buffer per assorbire i burst di traffico. Figura 4.28: Architettura generale di un router 105 __________________________________________________________________ Attualmente le funzioni di controllo e quelle di forwarding sono totalmente separate in modo da evitare colli di bottiglia e mantenere costantemente prestazioni elevate. La componente di controllo viene denominata Routine Engine (R.E.) ed è realizzata mediante software specifico, provvede ad implementare protocolli di routing ed a creare le tabelle di forwarding. Le funzionalità della R.E. sono svolte in maniera indipendente dal traffico. La componente di forwarding è realizzata completamente i hardware mediante l’utilizzo di dispositivi di dispositivi dedicati e l’architettura complessiva viene chiamata Packet Forwarding Engine (P.F.E.). Le principale funzioni svolte dal Packet Forwarding Engine sono: 9 Analisi ed elaborazione dell’intestazione dei pacchetti. 9 Consultazione delle tabelle di routing per le decisioni di instradamento. 9 Classificazione ed accoramento dei pacchetti. La capacità di forwarding di un router dipende dalla velocità di identificazione dell’interfaccia di uscita fatta tramite la consultazione delle tabelle di instradamento. Il trasferimento dei pacchetti dalle porte di ingresso alle porte di uscita è attuato mediante sistemi di interconnessione (switch fabric) e di accodamento dei pacchetti. La parte di interconnessione può essere realizzata con diverse soluzioni: 9 Bus 9 Matrici Crossbar 9 Memorie condivise 4.2.3 Router Juniper M10: architettura L’architettura hardware della serie M di Juniper segue il modello logico di architettura centralizzata, con P.F.E. a processori paralleli e condivisi, indipendente dalla Routing Engine. Questo tipo di architettura è costituita logicamente da una parte centrale che contiene una matrice di connessione (switch fabric), da un insieme di P.F.E. a 106 __________________________________________________________________ processori paralleli e da una memoria condivisa di grandi dimensioni. Il Router Juniper M10 presenta un unico Packet Forwarding. La componente di forwarding del router Juniper M10 è implementata mediante processori di pacchetto ASIC (Application Specific IntegratedCircuit) ed è composta da: 1- Physical Interface Card (PIC): connettono fisicamente il router alla fibra ottica o agli altri mezzi trasmessivi come i cavi di rete. Un controllore ASIC effettua specifiche funzioni per ogni tipo di PIC, a seconda del mezzo trasmissivo. 2- Flexible PIC Concentrator (FPC): ospita le PIC e fornisce la memoria condivisa per il processamento dei pacchetti entranti. Le F.P.C. contengono anche due I/0 Manager ASIC che dividono i pacchetti entranti in blocchi di memoria (celle) e li riassemblano quando sono pronti per la trasmissione. 3- Internet Processor II: è responsabile delle decisioni di forwarding. 4- Distributed Buffer Manager ASIC: sono due, uno di essi distribuisce le celle di dati nella memoria condivisa delle Flexible Pic Concentrator, l’altro informa le F.P.C. delle decisioni prese dall’Internet Processor II per i pacchetti uscenti. Il funzionamento della Packet Forwarding Engine può essere compreso seguendo il percorso di un pacchetto attraverso il router. I pacchetti arrivano ad una interfaccia PIC di ingresso, il controller della PIC effettua alcune operazioni di controllo, come ad esempio la verifica del checksum, e poi l’interfaccia PIC cede i pacchetti alla FPC che a sua volta li dirige verso l’I/0 Manager ASIC. L’I/0 Manager processa l’header dei pacchetti identificando se si tratta di un pacchetto IPv4 o di un home MPLS, li divide in celle di 64 byte e passa ogni blocco di memoria ad un Distributed Buffer Manager ASIC; quest’ultimo le distribuisce su tutte le memorie condivise posizionate su ogni FPC e contemporaneamente invia l’header del pacchetto all’Internet Processor II per il lookup. Se l’unità di dati è un pacchetto IPv4 il Distributed Buffer Manager invia al processore ASIC le seguenti informazioni: interfaccia di arrivo, indirizzo IP di destinazione, indirizzo IP di 107 __________________________________________________________________ origine, il numero di protocollo ed il campo porta di origine e destinazione nel caso di UDP e TCP. Se, invece, il pacchetto è MPLS l’unico valore da estrarre è la label in testa al pacchetto. A questo punto l’Internet Processor II accede alla forwarding table per individuare l’interfaccia di uscita e lo specifico next-hop, quindi notifica al secondo Distributed Buffer Manager ASIC la decisione presa. Quest’ultimo invia la notifica alla FPC che ospita la giusta interfaccia di uscita. Ogni porta di uscita ha quattro code, ognuna delle quali ha a disposizione parte della banda del collegamento; quando un pacchetto giunge in testa alla coda ed è pronto per la trasmissione viene riassemblato dall’I/O Manager e poi inviato alla specifica PIC per la trasmissione in linea. In un’architettura centralizzata, come quella del Router Juniper M10, le risorse di processamento, logicamente centralizzate, sono condivise da tutte le schede di linea consentendo un’utilizzazione molto efficace delle stesse. Infatti, non essendo necessario che le informazioni di forwarding vengano distribuite su ogni line card, gli aggiornamenti della tabella di forwarding non provocano interruzioni delle operazioni di ogni scheda di linea. In un’architettura distribuita invece l’aggiornamento della tabella di forwarding centrale determina un aggiornamento di tutte le forwarding table residenti sulle schede i linea che quindi incorrono in un periodo di blocco pari al tempo di aggiornamento della propria tabella di forwarding. Figura 4.29: Architettura del router Juniper M10 108 __________________________________________________________________ I due router Juniper sono configurati con il protocollo OSPF ed RSVP per la creazione e l’aggiornamento delle tabelle di routing e la riservazione delle risorse; inoltre sulle GigabitEthernet ge-0/0/0 (anello Roma-Pomezia), oltre al protocollo IP, è stato configurato anche il protocollo MPLS ed i relativi LSP unidirezionali. Figura 4.30: Foto di uno dei due router Juniper M10 4.2.4 Software JUNOS Il software JUNOS gira sulla Routing Engine del router ed è costituito da tanti processi software che: supportano i protocolli di routing, controllano le interfacce ed inoltre permettono la gestione di tutto il router. I processi girano tutti sul Kernel che permette la comunicazione tra i processi ed ha un collegamento diretto con il software della Packet Forwarding Engine. Il software Junos permette di configurare i protocolli di routine e le proprietà delle interfacce, può anche essere usato per monitorare il router e analizzare i problemi di routing o di connessione della rete. L’insieme di tutti i processi che costituiscono lo Junos è suddiviso in diversi gruppi: 109 __________________________________________________________________ - Processo protocolli di routing: questo processo controlla i protocolli di routing configurati sul router ed è responsabile dell’inizializzazione dei protocolli stessi. Il processo mantiene aggiornate le tabelle di routing e dalle informazioni ottenute dai protocolli, determina gli instradamenti opportuni verso il router di destinazione e installa tali route nella Routing Engine forwarding table. Svolte queste operazioni, il processo esegue la routing policy che permette la gestione delle informazioni di routing scambiate tra i protocolli di routing e la tabella di routing. I protocolli di routing supportati dallo Junos sono il IS-IS, OSPF, RIP, ICMP, BGP, i procolli multicast come IGMP e SAP/SDP, e i protocolli relativi all’architettura MPLS quali MPLS, RSVP e LDP. - Processo interfaccia: tale processo permette di configurare e controllare le interfacce fisiche e logiche installate nel router. Il processo di intefaccia dello Junos comunica, attraverso il kernel Junos con il processo di interfaccia nella Packet Forwarding Engine che abilita il software Junos ad analizzare e tracciare lo stato e la condizione delle interfacce del router. - Processo chassis: permette la configurazione e il controllo delle proprietà del router, inclusi allarmi e sorgenti di clock. - Processo di gestione: nel sofware Junos esiste un processo per il controllo dei processi che attivato controlla tutti i processi sofware che girano sul router. Nel momento del boot del router è proprio questo processo a far partire tutti i processi software e la CLI ( Command-Line Interface ). - Routing Engine Kernel: è l’infrastuttura base sulla quale si appoggiano tutti i processi software dello Junos; mette a disposizione un link per la comunicazione tra le tabelle di routing e la Routing Engine forwarding table ed è inoltre responsabile di tutte le comunicazioni tra Routing Engine e Packet Forwarding Engine. 110 __________________________________________________________________ Per configurare il router viene messa a disposizione una interfaccia utente/Junos detta CLI ( Command-Line Interface ) che si attiva quando finisce il boot del router. La linea di comando CLI fornisce i comandi per la configurazione del router e del software Junos e sono previste due modalità di funzionamento: - operational: è la modalità di default della CLI. Essa permette di monitorare le operazioni che sta svolgendo il router o il traffico che fluisce in esso, sia di servizio che di dati. - configuration: con il comando “configure” si passa dalla modalità operational alla modalità configuration ed è proprio in essa che è possibile configurare tutte le proprietà messe a disposizione dal software Junos, come la configurazione delle interfacce, dei protocolli di routing e nel caso di questo lavoro le classi di servizio. Il software Junos presenta molte caratteristiche simili con il software Ios proprietario delle macchine CISCO ma in particolare differisce da quest’ultimo in quanto “meno ad alto livello”. Nel software Ios una buona parte di comandi gode di un alto grado di aumatizzazione, ad esempio quando si abilita un protocollo su un’interfaccia non si ha poi la necessità di abilitare la stessa interfaccia nella dichiarazione del protocollo, nel software Junos invece questo modo di procedere è obbligatorio. Circa la gestione del management il software Ios ha un protocollo proprietario simile al protocollo SMNP ma più semplice e user frendly nel software Junos invece si deve ricorrere all’impiego dell’ SMNP in modo pienamente conforme all’RFC di riferimento. 111 __________________________________________________________________ 4.2.5 Generatore/analizzatore di traffico Per produrre il traffico etichettato di simulazione è stato impiegato un generatore/analizzatore di traffico Anritsu. Questo dispositivo è composto da quattro moduli ma quello utilizzato ne ha attivi due: uno con 8 FastEthernet e uno con due GigabitEthernet13 (a 1310 nm ). Delle 8 FastEthernet ne sono state utilizzate quattro, due per router, mentre sono state impiegate tutte e due le GigabitEthernet (vedi figura). Ogni porta è gestita in modo separato, può produrre qualsiasi tipo di traffico indipendentemente dalle altre e la velocità di trasmissione può essere settata dall’operatore variando il tempo di inter-frame. Il traffico generato per saturare la rete in esame è il seguente: - 2 GigabitEthernet sono state configurate per generare traffico Best-Effort al massimo del throughput: 800 Mbit/s; - 1 FastEthernet è stata settata per generare traffico Assured-Forwarding al massimo della velocità di trasmissione, ovvero 80 Mb/s; - 1 FastEthernet è stata impiegata per il traffico Expedited-Forwarding con una velocità di trasmissione di 32 Mb/s. I motivi per cui la descrizione è così dettagliata nascono dal fatto che questi valori rappresentano i limiti massimi cui si è spinto il carico di rete per garantire la qualità del servizio rimanendo entro i limiti forniti dalle normative di riferimento. Tutto ciò verrà spiegato nel dettaglio in seguito. 13 Le lunghezze d’onda delle GigabitEthernet dei router Juniper e del generatore di traffico Anritsu sono diverse ( III° e II° finestra) ma la comunicazione può avvenire lo stesso grazie all’ampio spettro di guadagno dei fotodiodi in ricezione. 112 __________________________________________________________________ Figura 4.31: Particolare dei moduli già configurati per le prove. Figura 4.32: throughput prodotto dalle GigabitEthernet destinato alla saturazione dell’anello Roma-Pomezia 113 __________________________________________________________________ 4.2.6 Chariot: Server e Client Per la valutazione della QoS in termini di prestazioni di rete è stato utilizzato il sistema software client-server Chariot. Il software Server è stato installato nel laboratorio per la valutazione della QoS multimediale mentre il software Client su due PC presenti nel laboratorio reti ottiche dinamiche. Il funzionamento del sistema software è il seguente: • Tramite il Server si stabilisce il tipo di traffico che i due Client si devono scambiare, i protocolli di trasporto, le velocità di trasmissione e la classe di servizio dei pacchetti; • Dopo aver configurato il tipo di traffico, il Server stabilisce una connessione TCP/IP con i Client e simula la sessione, impostata precedentemente, tra i due Client; • Terminata la sessione, di durata anch’essa configurabile sul Server, i Client restituiscono al Server i dati ricavati sui singoli pacchetti riguardanti i tempi di interarrivo, le perdite ecc. • Il Server, ottenuti tutti i dati disponibili, calcola i parametri che caratterizzano le prestazioni di rete quali one-way delay, jitter, throughput, perdite ecc.; i risultati vengono poi presentati all’operatore sia graficamente sia in forma tabulare. N.B. la sessione TCP/IP iniziata dal Chariot verso i client, dopo aver configurato il traffico viene usata esclusivamente per istaurare una connessione, ma non necessariamente tenuta durante la prova. Ad esempio, se si procede all’apertura di una sessione Netmeeting tra due client, la sessione comincerà sul protocollo TCP/IP e una volta avviata i dati Netmeeting verranno scambiati su RTP, i risultati ottenuti verranno poi ritrasmessi al Chariot con una nuova sessione TCP. 114 __________________________________________________________________ 4.2.7 U.S.Robotics Wireless AP US5450 Per una maggiore completezza delle prove è stato introdotto un access point per lo studio del mantenimento della qualità del servizio anche su un supporto di tipo Wi-Fi in considerazione del crescente impiego di questo tipo di dispositivi. Le prove vere e proprie che implicano l’uso di questo apparecchio saranno quelle di tipo soggettivo che verranno spiegate in dettaglio nel prossimo capitolo, per ora ci si limita a fornire una breve descrizione delle caratteristiche di questo dispositivo. Si tratta di un dispositivo Wireless con doppia antenna e rate in trasmissione fino a 54 Mbit/s. E’ stato configurato con setting mode di tipo access point, non è stata introdotta nessuna chiave di crittografia WEP ed è stato utilizzato il canale 11 in modo statico. Il rate è settato in modo da operare dinamicamente. Figura 4.33: U.S. Robotica Wireless AP 5450 115 __________________________________________________________________ 4.2.8 Anrtitsu MN9610B Il dispositivo Anritsu MN9610B è un attenuatore ottico con attenuazione regolabile dall’operatore. E’ stato impiegato per attenuare la potenza ottica generata dall’Anritsu MD1230A. Nel test-bed il percoso ottico Roma-Pomezia diventa un anello poiché viene chiuso tramite l’analizzatore generatore di traffico, la lunghezza delle fibre che uniscono l’MD1230A con le PIC ottiche del router è molto breve ed il segnale viene attenuato in maniera trascurabile, si genera così una situazione fortemente sconsigliata dai manuali del router. Per ovviare a questo problema sono state analizzate tre soluzioni differenti: la prima consiste nel porre un attenuatore ottico statico direttamente sull’attacco della fibra in trasmissione, la seconda consiste nel collegare l’MD1230A ai router tramite l’impiego di rocchetti di fibra di 15 Km messi a disposizione dalla Fondazione Bordoni, la terza ed ultima quella di impiegare in modalità passante gli attenuatori regolabili Anritsu MN9610B. Per le prove oggettive di cui si parlerà tra breve è stata scelta la prima soluzione, la terza è stata adottata durante la conferenza NGI e verrà spiegata più avanti. 4.3 PRINCIPIO DI FUNZIONAMENTO DEL SISTEMA Passiamo ora a descrivere nel particolare il principio di funzionamento del sistema di protezione da me proposto. La topologia di rete su cui si è realizzato il lavoro è di tipo lineare punto-punto. Ai capi del collegamento vi sono due router Juniper M10 la cui configurazione completa sarà riportata in appendice. La struttura del sistema è mostrata in figura. 116 __________________________________________________________________ ROUTER 1 LINEA DI SERVIZIO PXC PXC ROUTER 2 LINEA DI BACKUP LINUX BOX LINUX BOX Traffico dati Collegamenti Fast Ethernet Collegamento ottico Gbe primario Collegamento ottico Gbe Secondario CLIENT A CLIENT B Figura 0.11 : Topologia di rete utilizzata Ricordando quanto detto sulle diverse tecniche di protezione esaminate nel terzo capitolo, è possibile rivedere in questo schema un classico sistema di protezione 1:1. Si tratta di fatto di un meccanismo hardware di ridondanza del collegamento in fibra ottica. In caso di interruzione del link di servizio, il router invia un messaggio di allarme ad un determinato indirizzo, su una determinata porta. Gli indirizzi a cui viene inviato il pacchetto di allarme sono quelli corrispondenti ai PC di management opportunamente configurati. E’ di enorme importanza sottolineare che tutto il traffico utile alla gestione del sistema si trova costantemente fuori banda. Ciò è stato reso possibile utilizzando la Fast Ethernet di management di cui sono forniti i Router Juniper M10, come ogni altro apparato di telecomunicazioni. E’ stato possibile così, separare il piano di controllo dal piano dati. 117 __________________________________________________________________ Figura 0.12 : Interfaccia di management Il protocollo utilizzato per la gestione dell’allarme è il Simple Network Management Protocol (SNMP). La parte di configurazione relativa alla gestione dell’allarme è di seguito riportata (l’indirizzo 192.168.200.110 è appartente alla sottorete di management). syslog { user * { any emergency; } host 192.168.200.110 { any notice; port 7574; } file messages { any notice; authorization info; } file cli { interactive-commands any; } Figura 0.13 : Configurazione relativa all'invio dell'allarme Ogni apparato di telecomunicazioni è dotato di una serie di allarmi gestibili da remoto. Dopo un attento studio, è stato possibile riconoscere un allarme capace di 118 __________________________________________________________________ rilevare uno stato di ‘fuori servizio’ del link ottico roma-pomezia: LOL (loss of Light) - SNMP TRAP_LINK_DOWN. La gestione di questo allarme è configurabile all’interno del software JUNOS sotto il campo SYSLOG. Il messaggio di allarme LOL viene inviato nel momento in cui viene percepita una mancanza di potenza ottica sull’interfaccia sotto test. Tale allarme viene inviato nello stesso istante sia dal router in ricezione che dal router in trasmissione evitando così l’esigenza di implementare un protocollo di comunicazione tra RX e TX sul piano di controllo. Ciò è possibile in quanto, essendo i collegamenti in fibra ottica bidirezionali su due fibre, entrambe le interfacce dei router terminali sono dotate di un apparato di ricezione che percepisce la mancanza di potenza in caso di guasto. Questo tipo di allarme viene inviato in tempo reale al momento del Link failure. I test da me effettuati sono stati interamente eseguiti simulando la rottura su una delle due fibre ottiche che costituisce il collegamento tra i due router Juniper. Anche in questa situazione l’allarme viene inviato da entrambi gli apparati terminali, infatti, nel momento in cui avviene un guasto su una delle due direzioni, l’interfaccia in ricezione percepisce il guasto ed istantaneamente passa nello stato di down, cessando di trasmettere potenza ottica sulla fibra di ritorno. In questo modo anche il router a monte del guasto non ricevendo più potenza ottica invia l’allarme LOL rendendo possibile, anche in questo caso, la coordinazione della fase di scambio senza l’attivazione di un protocollo esplicito di comunicazione tra i due PC di controllo. In Figura 0.1414 è mostrato ciò che viene percepito dalla sottorete di management, in caso di link-failure. L’immagine è stata ottenuta grazie all’utilizzo di un analizzatore di protocollo ( ETHEREAL ). 119 __________________________________________________________________ Figura 0.14 : Dettaglio relativo all'allarme ‘Loss Of Light’ Sulle due linux box, collegati ai router con collegamenti Fast Ethernet, è stato implementato un software in linguaggio C, capace di eseguire le seguenti operazioni: ♦ Ricevere il messaggio proveniente dal router ♦ analizzare il messaggio ♦ Gestire la commutazione degli switch ottici nel caso in cui il messaggio ricevuto venga riconosciuto come allarme. La commutazione degli switch ottici è permessa tramite la gestione diretta della porta parallela dei pc di management. Gli switch hanno il compito di deviare tutto il traffico dalla risorsa primaria verso la risorsa di back up eliminando di fatto il fuori servizio. La spiegazione dettagliata del Software utilizzato verrà fornita nel seguito del capitolo. Le fasi appena descritte sono riportate cronologicamente in Figura 0. nella pagina seguente. 120 __________________________________________________________________ Situazione di partenza ROUTER 1 PXC LINEA DI SERVIZIO PXC ROUTER 2 LINEA DI BACKUP CLIENT A LINUX BOX LINUX BOX CLIENT B Guasto della risorsa primaria ROUTER 1 PXC LINEA DI SERVIZIO PXC LINEA DI BACKUP CLIENT A LINUX BOX CLIENT B LINUX BOX Invio messaggio di allarme ROUTER 1 PXC PXC LINEA DI BACKUP SNMP CLIENT A LINEA DI SERVIZIO LINUX BOX ROUTER 2 SNMP LINUX BOX CLIENT B Commutazione e ripristino del servizio ROUTER 1 PXC LINEA DI SERVIZIO PXC LINEA DI BACKUP CLIENT B CLIENT A LINUX BOX LINUX BOX Figura 0.15 : Fasi cronologiche del sistema di protezione in caso di guasto del link di servizio 121