Test bed per la valutazione della Qualità del Servizio in reti

Transcript

Test bed per la valutazione della Qualità del Servizio in reti
Test bed per la valutazione della
Qualità del Servizio in reti ottiche
integrate IP
Francesco Matera, Vittorio Baroncini, Luca Rea, Alessandro
Tarantino, Paolo Pasquali, Francesca Matteotti
Fondazione Ugo Bordoni
Giancarlo Gaudino, Domenico Ciavatta, Giuseppe Del Prete
ISCOM
SOMMARIO ...................................................................................................................................6
INTRODUZIONE ...........................................................................................................................8
CAPITOLO 1 ................................................................................................................................12
STATO ATTUALE DELLE RETI E PROSPETTIVE DI EVOLUZIONE FUTURE ..........12
1.1
ARCHITETTURA DELLA RETE FISSA...................................................................12
1.1.1
Infrastrutture di Trasmissione.................................................................................13
1.1.2
La rete di accesso ....................................................................................................14
Accesso commutato su doppino telefonico ............................................................................14
Accesso su doppino: la tecnologia xDSL...............................................................................14
Accesso dedicato in fibra ottica.............................................................................................15
1.1.3
La rete di giunzione.................................................................................................16
1.1.4
La rete dorsale ........................................................................................................17
1.1.5
Numerizzazione delle centrali di Commutazione nella rete pubblica .....................18
1.2
TECNOLOGIE DI COMMUTAZIONE ......................................................................19
1.2.1
I Sistemi SDH ..........................................................................................................19
1.2.2
La tecnologia ATM..................................................................................................20
1.2.3
La tecnologia IP ......................................................................................................20
1.3
LE RETI NAZIONALI E PROSSIMI SVILUPPI........................................................21
1.3.1
Le reti di raccolta e le reti dorsali...........................................................................21
Collegamento tra nodi ...........................................................................................................22
Piano di Controllo .................................................................................................................22
Trattamento del traffico da parte dei nodi.............................................................................23
1.4
SVILUPPO DEL CONTROL-PLANE ED EVOLUZIONE DELLE RETI DI
TELECOMUNICAZIONI IN AREA METRO E CORE............................................................23
1.4.1
Nuovi servizi e vantaggi economici dall’adozione di reti ASON/GMPLS...............26
1.5
CONCLUSIONI...........................................................................................................31
CAPITOLO 2 ................................................................................................................................33
EVOLUZIONE DELLO STANDARD ETHERNET NELLE RETI MAN .............................33
2.1
INTRODUZIONE........................................................................................................33
2.2
LO STANDARD ETHERNET ....................................................................................33
2.3
IL MECCANISMO DI ACCESSO CSMA/CD............................................................37
2.4
IL DOMINIO DI COLLISIONE ..................................................................................40
2.5
DALLE LAN ALLE MAN: SWITCHING ETHERNET .............................................42
2.6
SERVIZI DI CONNETTIVITA’ ETHERNET
PUNTO-PUNTO......................45
2.7
LA GIGABIT ETHERNET..........................................................................................46
2.8
LA STANDARDIZZAZIONE DEI SERVIZI ETHERNET ........................................46
2.9
SDH/SONET, OTH ED ETHERNET NELLE RETI DI TRASPORTO:VISIONE
DEGLI STANDARD INTERNAZIONALI E PROSPETTIVE PER IL FUTURO....................48
2.9.1
Un modello semplificato per una rete di trasporto .................................................48
2.9.2
Descrizione funzionale del modello.........................................................................50
2.9.3
SDH ED OTH..........................................................................................................52
2.9.4
ETHERNET: STANDARD FUTURI........................................................................53
2.9.5
ETHERNET SU MPLS (MPLS ED OAM)...............................................................53
2.9.6
ETHERNET PROVIDER BRIDGE..........................................................................54
2.9.7
ETHERNET PROVIDER BACKBONE BRIDGE ...................................................55
2.9.8
ETHERNET OAM ...................................................................................................55
2.9.9
CONSIDRAZIONI FINALI......................................................................................56
CAPITOLO 3 ................................................................................................................................59
QUALITA’ DEL SERVIZIO: CARATTERIZZAZIONE ED IMPLEMENTAZIONE ........59
3.1
QUALITA’ DEL SERVIZIO .......................................................................................59
2
3.1.1
3.2
3.2.1
3.2.2
3.2.3
3.2.4
3.2.5
3.2.6
3.3
3.3.1
3.3.2
3.3.3
3.3.4
3.4
3.4.1
3.4.2
3.4.3
3.5
SLA: Service Level Agreement ................................................................................62
LA GESTIONE DELLA QUALITA’ DEL SERVIZIO ...............................................63
IntServ: Integrated Service......................................................................................64
Il Protocollo RSVP ..................................................................................................66
Il protocollo RTP.....................................................................................................71
DiffServ (Differentiated Services) ...........................................................................75
Il campo DSCP........................................................................................................77
PHB: Per-Hop Behaviour .......................................................................................78
SCHEDULING E ALGORITMI..................................................................................79
WRR: Weighted Round Robin .................................................................................80
Priority queuing ......................................................................................................81
Controllo della Congestione....................................................................................81
Coesistenza IntServ , DiffServ .................................................................................85
DIFFSERV OVER MPLS ............................................................................................86
L’architettura MPLS ...............................................................................................87
MPLS e ingegneria del traffico ...............................................................................89
Implementazione della QoS DiffServ su MPLS .......................................................91
ARCHITETTURA GMPLS .........................................................................................94
CAPITOLO 4 ................................................................................................................................97
STRUTTURA ED ELEMENTI DEL ..........................................................................................97
TEST- BED....................................................................................................................................97
4.1
TEST-BED MPLS PER LE MISURE OGGETTIVE DELLA QUALITA’ DEL
SERVIZIO..................................................................................................................................98
4.1.1
Struttura del test-bed ...............................................................................................98
4.1.2
Presentazione del Test-bed....................................................................................100
4.2
ELEMENTI DELLA RETE .......................................................................................103
4.2.1
Router Juniper M10...............................................................................................103
4.2.2
Architettura generale dei router............................................................................105
4.2.3
Router Juniper M10: architettura .........................................................................106
4.2.4
Software JUNOS ...................................................................................................109
4.2.5
Generatore/analizzatore di traffico .......................................................................112
4.2.6
Chariot: Server e Client ........................................................................................114
4.2.7
U.S.Robotics Wireless AP US5450.......................................................................115
4.2.8
Anrtitsu MN9610B.................................................................................................116
4.3
PRINCIPIO DI FUNZIONAMENTO DEL SISTEMA..............................................116
4.3.1
Switch Ottico .........................................................................................................122
4.3.2
La Porta parallela .................................................................................................123
4.3.3
Amplificatore di corrente ......................................................................................126
CAPITOLO 5 ..............................................................................................................................128
CONFIGURAZIONE DELLA RETE E PROVE OGGETTIVE ...........................................128
5.1
TIPOLOGIE DI PROVE E NORMATIVE DI RIFERIMENTO................................128
5.1.1
Settaggio delle schede di rete ................................................................................130
5.2
CONFIGURAZIONE DEI ROUTER ........................................................................133
5.2.1
Misure per il dimensionamento dell’Expedited Forwarding.................................133
5.2.2
Misure per il dimensionamento dell’Assured Forwarding....................................139
5.2.3
Configurazione definitiva. .....................................................................................149
5.3
TEST SUI SERVIZI...................................................................................................150
5.3.1
Test sui servizi di video conferenza. ......................................................................150
5.3.2
Test su servizio VoIP (Voice over IP)....................................................................155
5.3.3
Servizio di trasferimento dati ................................................................................157
5.3.4
Servizi audio-video non real time..........................................................................159
CAPITOLO 6 ..............................................................................................................................162
PROVE SOGGETTIVE E QUALITA’ PERCEPITA DALL’UTENTE FINALE ...............162
3
6.1
TEST-BED SPERIMENTALE PER LA VALUTAZIONE SOGGETTIVA DELLA
QUALITA’ DEL SERVIZIO. ..................................................................................................162
6.2
PROVE SOGGETTIVE .............................................................................................165
6.2.1
Scelta delle immagini televisive.............................................................................165
6.2.2
Registrazione delle sequenze.................................................................................171
6.2.3
Scelta del metodo di valutazione e preparazione della camera afonica ...............174
6.3
LA SESSIONE DI TEST...........................................................................................175
6.3.1
Preparazione delle sequenze .................................................................................175
6.3.2
Fase di elaborazione dei dati. ...............................................................................178
6.4
RISULTATI OTTENUTI...........................................................................................185
6.4.1
Analisi globale delle sequenze via cavo. ...............................................................185
6.5
ANALISI DELLE SEQUENZE “VIA CAVO”..........................................................190
6.5.1
Automobilismo.......................................................................................................191
6.5.2
Tennis ....................................................................................................................194
6.5.3
Nuoto Sincronizzato ..............................................................................................196
6.5.4
Ciclismo.................................................................................................................198
6.5.5
Musica ...................................................................................................................201
6.6
ANALISI DELLE SEQUENZE WI-FI .......................................................................203
CAPITOLO 7 ..............................................................................................................................207
MISURE OGETTIVE DEL TEMPO DI RIPRISTINO..........................................................207
7.1
7.2
7.3
7.4
7.5
7.5.1
7.5.2
7.5.3
7.5.4
7.5.5
7.5.6
7.6
INTRODUZIONE......................................................................................................207
TEMPO DI INTERRUZIONE DEL COLLEGAMENTO .........................................207
TEMPO DI REAZIONE DEL ROUTER AL GUASTO ............................................209
TEST SUI SERVIZI...................................................................................................214
TEST BED UTILIZZATO PER LE MISURE CON IL SOFTWARE CHARIOT .....215
Test sui servizi simulati .........................................................................................219
Test di ripristino su servizi di video conferenza ....................................................219
Commutazione volontaria del mezzo trasmissivo..................................................226
Test di ripristino su servizio VoIP (Voice over IP)................................................226
Test di ripristino su servizi audio-video non real time ..........................................230
Test di ripristino su servizio di trasferimento dati.................................................235
RISPRISTINO DEL SERVIZIO MEDIANTE PROTOCOLLO OSPF...................236
CAPITOLO 8 ..............................................................................................................................240
PROVE SOGGETTIVE E QUALITA’ PERCEPITA DALL’UTENTE FINALE ...............240
8.1
ELEMENTI NORMATIVI PER LA VALUTAZIONE SOGGETTIVA DELLA
QUALITA’ DEL SERVIZIO ...................................................................................................240
8.2
NORMATIVE ITU-T ED ITU-R ...............................................................................240
8.2.1
Enti per la valutazione delle QoS..........................................................................240
8.2.2
QoS della rete........................................................................................................242
8.2.3
QoS del contenuto e QoS percepita dall’utente.....................................................244
8.3
TEST BED SPERIMENTALE (CON BACK_UP) PER LA VALUTAZIONE
SOGGETTIVA DELLA QUALITA’ DEL SERVIZIO............................................................252
8.4
SVOLGIMENTO DELLE PROVE SOGGETTIVE ..................................................255
8.4.1
Scelta delle immagini televisive.............................................................................255
8.4.2
Registrazione delle sequenze.................................................................................258
8.4.3
Scelta del metodo di valutazione e preparazione della camera afonica ...............260
8.5
LA SESSIONE DEI TEST .........................................................................................262
8.5.1
Preparazione delle sequenze .................................................................................262
8.5.2
Fase di elaborazione dei dati ................................................................................263
8.6
RISULTATI OTTENUTI...........................................................................................267
8.6.1
Analisi globale delle sequenze via cavo. ...............................................................267
6.6
ANALISI DELLE SEQUENZE SINGOLE ...............................................................271
6.5.1 Automobilismo ............................................................................................................271
8.6.2
Tennis ....................................................................................................................275
6.6.3
Musica ...................................................................................................................280
4
APPENDICE 1 ............................................................................................................................285
TECNICHE DI PROTEZIONE ................................................................................................285
1.1
1.2
1.2.1
1.2.2
1.2.3
1.2.4
1.2.5
1.3
MPLS
1.3.1
1.3.2
1.3.3
1.3.4
1.4
1.4.1
INTRODUZIONE......................................................................................................285
MECCANISMI DI PROTEZIONE............................................................................291
Protezione lineare 1+1..........................................................................................293
Protezione lineare 1:1 ...........................................................................................293
La topologia ad anello ..........................................................................................295
Unidirectional Path Switched Ring (UPSR)..........................................................296
Bidirectional Line Switched Ring (BLSR) .............................................................298
TECNICHE DI PROTEZIONE PROPIETARIE BASATE SUL PROTOCOLLO
300
L’architettura MPLS .............................................................................................300
MPLS e ingegneria del traffico .............................................................................303
Resilience in MPLS ...............................................................................................305
Tecniche di ripristino MPLS su JUNIPER M10....................................................306
ALGORITMO DI ROUTING OSPF..........................................................................308
Analisi del tempo di attivazione di adiacenza tra router.......................................319
APPENDICE 2 ............................................................................................................................322
IL SOFTWARE DI MANAGEMENT PER IL RIPRISTINO...............................................322
2.1
LE SOCKET ..........................................................................................................323
2.1.1
Dichiarazione ........................................................................................................325
2.1.2
Dichiarazione delle librerie utilizzate ...................................................................325
2.1.3
Dichiarazione delle costanti definite.....................................................................326
2.1.4
Dichiarazione delle funzioni utilizzate ..................................................................327
2.1.5
Dichiarazione e semantica delle variabili utilizzate nel main...............................327
2.1.6
Verifica della correttezza dell’input ......................................................................329
2.1.7
Creazione della socket...........................................................................................329
2.1.8
strutture dati delle socket ......................................................................................331
2.1.9
Inizializzazione delle strutture d’interesse ............................................................332
2.1.10
Inizializzazione della struttura controllore.......................................................332
2.1.11
Richiesta di una porta al SO.............................................................................332
2.1.12
Sdoppiamento dei processi ...............................................................................333
2.1.13
La funzione fork() .............................................................................................333
2.1.14
Ricezione del messaggio inviato dal router ......................................................335
2.1.15
Processamento del pacchetto ricevuto .............................................................336
2.1.16
Gestione dei segnali.........................................................................................337
2.1.17
Cattura dei segnali e gestione della porta parallela ........................................338
2.1.18
La funzione close( )...........................................................................................340
2.2
FUNZIONI DI UTILITA’ ..........................................................................................341
2.3
CHARIOT: SESRVER E CLIENT ............................................................................341
APPENDICE 3 ............................................................................................................................343
ELEMENTI NORMATIVI PER LA VALUTAZIONE SOGGETTIVA DELLA QUALITA’
DEL SERVIZIO ..........................................................................................................................343
3.1 NORMATIVE ITU-T E ITU-R ..........................................................................................343
3.1.1 Enti per la valutazione delle QoS .............................................................................343
3.1.2
QoS della rete........................................................................................................344
3.1.3
QoS del contenuto e QoS percepita dall’utente.....................................................349
3.2
NORMATIVA DI RIFERIMENTO PER I TEST ......................................................360
3.2.1
Normativa ITU-R BT 500-11.................................................................................360
5
SOMMARIO
In questo rapporto riportiamo i risultati sperimentali che sono stati ottenuti sul test
bed di rete che è stato realizzato presso i laboratori ISCOM nell’ambito della
collaborazione tra FUB e ISCOM nel progetto FUB “QoSIP”. Scopo di tale
progetto sono lo studio e la sperimentazione di modalità per la diffusione di
servizi multimediali interattivi su reti IP con alta Qualità del Servizio, anche in
condizioni di alta congestione della rete, con particolare interesse verso la IP-TV.
Per queste ragioni è stato costituito un test bed di rete ottica integrata
multiservizio che rappresenta un esempio di rete regionale con diversi tipi di
accesso. In particolare essa è costituita da una parte “core” realizzata con core
router ad alta capacità connessi con lunghi collegamenti in fibra ottica (multipli di
25 km) che rappresenta una rete regionale, a cui sono collegati diversi dispositivi
di accesso per valutare le prestazioni dell’utenza. In particolare sono disponibili
connessioni del tipo Fibre-to-the-Building (FTTB) e Fibre-to-the Curb (FTTC),
WI-FI e VDSL. In questo rapporto faremo riferimento ai soli collegamenti FTTB,
FTTC e WI-FI, mentre le prestazioni VDSL saranno riportate in un successivo
rapporto.
Per garantire la QoS abbiamo introdotto nella rete la metodologia denominata
DiffServ-MPLS che permette una particolare etichettatura dei pacchetti che
garantisce un trattamento differenziato della informazione. In particolare abbiamo
utilizzato una mappatura innovativa proposta da noi e basata sull’etichettatura del
campo DSCP, che si è rivelata particolarmente efficace.
Su tale rete sono state inoltre studiato, proposto e introdotte anche tecniche di
ripristino molto innovative e che si sono rivelate molto efficienti e poco costose.
Inoltre sono state studiate metodologie per l’instradamento del traffico in presenza
di nuovi dispositivi di commutazione ottici come OXC e convertitori di frequenza.
6
Tale metologie permettono di effettuare commutazioni di cammini fisici in rete
senza introdurre alterare la qualità percepita da parte degli utenti.
Una svariata serie di misure oggettive (di rete) e soggettive (percepite) su diversi
tipi di servizi ci ha permesso di concludere che la tecniche da noi proposte per reti
IP permettono la fruizione di tali servizi con alta QoS anche in condizioni di forte
congestione della rete. In particolare la tecnica denominata Expedited Forwarding
del DiffServ-MPLS è quella che permette un’altissima percezione di servizi IPTV anche in condizioni di estrema congestione della rete nel caso dell’architettura
FTTB e FTTC (ma si prevede che analoghe prestazioni saranno ottenute con
accessi VDSL). Resta invece da sottolineare i limiti in termini di QoS per la
tecnica WI-FI anche quando le condizioni di traffico della rete core garantirebbero
alte prestazioni per l’accesso.
7
INTRODUZIONE
Il sensazionale sviluppo di Internet ha avuto un impatto forte sull’industria delle
telecomunicazioni determinando progressivamente l’affermazione dei concetti e
dei paradigmi connessi con la tecnologia Internet e in particolare con il protocollo
IP. La crescita delle applicazioni ha fatto sì che in molte direttrici di
telecomunicazioni internazionali e in reti nazionali dei paesi più avanzati il
volume del traffico dati superasse quello relativo ai servizi di telecomunicazione
tradizionali (fonia, fax, ecc).
Tuttavia, nonostante il grande volume di traffico determinato da Internet, i
margini di profitto connessi sono piuttosto modesti ed in ogni caso molto inferiori
a quelli relativi ai servizi di fonia. A tale riguardo alcune studi dimostrano che in
una prospettiva di medio termine il rapporto fra i volumi dei traffici IP e dei
servizi tradizionali è stimato circa uguale a dieci, mentre il rapporto dei relativi
introiti è stimato circa uguale ad un decimo. La necessità di ripagare gli
investimenti sulle reti IP, insieme alla prospettiva di sviluppo di una rete integrata
(capace cioè di trasportare tutti i tipi di servizi con un’unica piattaforma di rete),
spinge gli operatori di reti IP a fornire su queste reti anche i servizi di
telecomunicazione tradizionali. Lo sviluppo di una rete integrata multiservizio è
stato da sempre perseguito dai principali operatori di rete, e ciò ha portato a
sviluppi importanti delle reti come ad esempio l’ISDN e successivamente l’ATM.
Oggi la prospettiva di una rete integrata multiservizio basata su tecnologia IP
comincia a concretizzarsi con reti di operatori, sia emergenti che storici, in grado
di offrire anche servizi fonici e video. L’integrazione dei servizi di fonia e dati
assume attualmente una valenza anche più forte che nel passato, in quanto apre la
possibilità di sviluppo di nuovi servizi e di nuovi modi di comunicazione. Oltre ai
servizi multimediali già considerati nel passato, come ad esempio la
videocomunicazione e la multivideoconferenza, è possibile fornire servizi come la
8
messaggistica unificata (unified messaging con e-mail, fax e casella vocale),
conferenze multimediali, accessi contemporanei a pagine WWW e a servizi
informativi,
computing
e
progettazione
collaborative,
home
working,
teleshopping, giochi interattivi, e cosi via.
La crescita del volume dei dati da trasportare e la fornitura di servizi con requisiti
di tempo reale pongono, insieme alle esigenze di affidabilità e di sicurezza, una
serie di nuovi requisiti per le reti e gli apparati IP.
Lo scopo di questo lavoro è appunto quello di analizzare i trend di sviluppo delle
architetture di rete, i requisiti emergenti per i router e le loro tendenze strutturali in
un’ottica di rete integrata multiservizio. A partire da un’analisi dei servizi da
supportare, si concentra in prima istanza l’attenzione sulle caratteristiche richieste
alle nuove reti ottiche metropolitane (MAN; Metropolitan Area Network) che
costituiscono i nuclei di base delle nuove reti IP. Si analizza in particolare il ruolo
della tecnologia Ethernet sia sulla rete di accesso, dove essa si va affermando
come la soluzione più favorevole per l’insieme dei benefici che comporta, sia
come livello di trasporto nella MAN stessa.
Le tecnologie Internet ed in particolare l’architettura protocollare IP, da un lato
soddisfano in pieno i requisiti di flessibilità e scalabilità richieste, dall’altro però
necessitano di significativi adeguamenti architetturali che consentano alle
prossime reti di essere in grado di assicurare adatte prestazioni in termini di QoS
e robustezza ai guasti. Per raggiungere questi obiettivi occorre lavorare su due
aspetti chiave: l’ Ingegneria del Traffico e la differenziazione dei servizi.
Le reti di trasporto ad alta velocità cui si fa riferimento comprendono le reti di
giunzione e le reti dorsali. Queste ultime in particolare hanno sperimentato in
tempi recenti un notevole potenziamento in Italia: migliaia di Km di fibra sono
stati stesi su tutto il territorio nazionale con grande impegno economico dovuto
agli alti costi del cablaggio. Le fibre ottiche, oltre a rappresentare un vero e
proprio patrimonio infrastrutturale, costituiscono il mezzo trasmissivo più veloce.
Ne consegue che gli eventuali cambiamenti necessari per rispondere alle nuove
esigenze di traffico riguarderanno soprattutto gli apparati di rete. Si prevede a
questo proposito un impiego sempre più elevato di dispositivi ottici e di router più
flessibili.
9
La gestione della rete deve essere accompagnata da un adeguato piano di controllo
che tenga conto dei problemi di disponibilità di risorse e di tipologia di traffico
offerto.
Lo scenario che si prospetta è quello di una rete ottica, eterogenea, multiservizio,
basata sul protocollo IP e gestita in modo distribuito. Gli apparati di rete devono
avere la capacità di instradare il traffico in modo veloce ed efficiente, e soprattutto
devono essere in grado di gestire in modo opportuno le politiche di QoS
(Quality of Service).
In questo contesto si colloca questo Progetto svolto dalla Fondazione Ugo
Bordoni in collaborazione con l’ISCOM (Istituto Superiore per le Comunicazioni
e delle Tecnologie dell’Informazione).
La principale finalità è stata lo studio di reti ottiche dinamiche in presenza di
diverse condizioni di traffico e di politiche di QoS; a tal scopo è stato realizzato
un test-bed sperimentale di rete ottica utilizzando come modalità di accesso la
soluzione nota come FTTB (Fiber To The Bilding).
Le architetture di rete basate sul protocollo Ethernet per il trasporto di pacchetti
IP/MPLS direttamente su fibra ottica (1 e 10 Gigabit Ethernet) costituisono una
soluzione efficiente per il superamento delle congestioni che da sempre limitano
la velocità di trasmissione dati fra reti locali e reti geografiche. Sistemi basati su
connessioni GbE ottiche trovano oggi impiego non solo per il collegamento fra
switch di livello 2 in reti locali, ma anche per il collegamento diretto fra router che
operano a livello 3 in reti metropolitane. Tuttavia la completa diffusione di GbE è
inficiata dalla mancanza di alcune importanti funzioni per la gestione e
manutenzione della rete (OAM), come la protezione delle connessioni in caso di
guasto. Lo schema di protezione di tipo 1+1, estremamente semplice e veloce, è
quello più usato, per contro richiede la duplicazione delle risorse quali costose
interfacce sui router e fibre ottiche.
Soluzioni più avanzate basate su tecnologia WDM riducono le necessità di fibre
aumentano però il costo complessivo dell’infrastruttura di rete.
In questo lavoro viene dapprima implementato un test-bed per la riservazione
della qualità del servizi secondo l’approccio “DiffServ over MPLS”, poi vengono
valutati sperimentalmente i principali limiti che caratterizzano la protezione di
10
connessione punto-punto GbE su fibra ottica fra router commerciali di ultima
generazione destinati ad un utilizzo in ambito metropolitano. Si evidenzia, in
particolare, il tempo impiegato dai router per rilevare e gestire il guasto della
connessione, valutando la tempistica richiesta dal protocollo di instradamento
Open Shortest Path First (OSPF) per il ripristino del corretto scambio di pacchetti
dopo che è stata riattivata fisicamente la connessione.
Al fine di migliorare il comportamente dei router nelle situazioni considerate,
vengono proposte delle linee di riferimento. Lo studio presenta infine
l’implementazione di uno schema di protezione potenzialmente condivisibile,
veloce ed economico che evita i problemi e le inefficienze evidenziate
sperimentalmente dai router. Lo schema si basa sull’impiego di dispositivi di
commutazione
ottica
(PXC)
controllati
da
segnalazione
fuori-banda.
L’implementazione mostra la possibilità di sfruttare le potenzialità del sistema di
protezione per ridurre l’impiego di risorse pregiate dell’infrastruttura di rete
(interfacce sui router e fibre ottiche) pur garantendo tempi di ripristino della
connessione di pochi millisecondi.
11
Capitolo 1
STATO ATTUALE DELLE RETI E
PROSPETTIVE DI EVOLUZIONE FUTURE
1.1 ARCHITETTURA DELLA RETE FISSA
In generale quando si parla di reti bisogna distinguere tra:
•
Infrastrutture di trasmissione (portanti e tecniche di trasferimento)
•
Infrastrutture di commutazione (nodi e procedure di smistamento e
instradamento)
Una rete di telecomunicazione è costituita da un insieme di apparecchiature e
risorse per la trasmissione e la commutazione dei segnali.
Dal punto di vista dell’architettura, una rete fissa può essere suddivisa in tre parti
principali: accesso, giunzione (o raccolta), dorsale. In letteratura è molto spesso
utilizzato il concetto di “rete di trasporto”, come l’insieme di portanti e apparati
trasmissivi che permette di collegare tra loro i nodi di una rete di TLC.
La rete di accesso permette la connessione dell’utente alla centrale, in particolare
si può dividere in rete primaria, che riguarda la connessione dalla centrale
all’armadio di distribuzione, e in rete secondaria, che riguarda la connessione
dall’armadio all’utente.
Va precisato che per la struttura utilizzata da Telecom Italia gli armadi in realtà
sono due: il primo è connesso alla centrale ed è chiamato armadio di
permutazione ed il secondo che connette l’armadio di permutazione con l’utente;
quest’ultimo è detto armadio di distribuzione.
__________________________________________________________________
La rete di raccolta o rete di giunzione è quella che connette le centrali in ambito
cittadino.
La rete dorsale connette le città o i grandi centri abitati.
Tutto ciò rappresenta una schematizzazione di principio della rete di TLC, è molto
probabile, infatti, che nel futuro questa schematizzazione sarà sempre meno
realistica, nel senso che saranno più comuni connessioni tra domini che oggi
sembrano profondamente distinti.
Figura 0.1 : Architettura di rete fissa
1.1.1 Infrastrutture di Trasmissione
L’ avvento della fibra, quale mezzo trasmissivo principale nelle reti
geograficamente estese, ha condotto, sin dai primi anni Novanta, ad un abbandono
dei portanti coassiali in rame. L’uso delle fibre ha inizialmente interessato solo la
rete dorsale, sin dalla metà degli anni Novanta però si è assistito ad un lento ma
inesorabile affermarsi di questo mezzo anche nella rete di giunzione, come
conseguenza dell’ introduzione dei sistemi SDH (Syncronous Digital Hierarchy).
Sempre nei primi anni Novanta la rete ha subito una profonda ristrutturazione che
ha consentito la posa di alcuni milioni di nuovi rilevamenti d’utente in coppia
simmetrica (doppini telefonici), che hanno consentito al gestore, allora
13
__________________________________________________________________
monopolista, di rimediare ad una situazione di profonda carenza, soprattutto nelle
grandi metropoli, per quello che riguarda il servizio telefonico di base.
I grossi investimenti effettuati sulla rete d’accesso in doppino negli anni Novanta
consentono oggi di poter offrire un’infrastruttura importante per la fornitura dei
servizi a larga banda attraverso la tecnologie xDSL (Syncronous Subscriber Line).
Tuttavia, per fare fronte all’incremento di richiesta di banda sono necessarie altre
soluzioni che vanno individuate nel portare una terminazione in una fibra ottica
sempre più prossima a casa dell’utente.
1.1.2 La rete di accesso
Accesso commutato su doppino telefonico
Il mezzo trasmissivo attualmente più utilizzato per la rete di accesso, nonché
l’unico che copra completamente il territorio, è la coppia simmetrica in rame
denominata usualmente “doppino telefonico”. Un doppino è costituito da due fili
in rame, “twistati” e non schermati, e costituisce il portante storicamente
utilizzato per la telefonia analogica in area d’accesso. Il doppino collega
fisicamente la centrale locale dei servizi di telecomunicazioni (voce ed internet)
con l’abitazione dell’utente per tratte che possono andare dalle centinaia di metri
fino a qualche Km, da cui il nome di “ultimo miglio”. I collegamenti sono dedicati
e permanenti, portando a reti con la tipica configurazione a stella.
Attualmente per ragioni storiche la principale rete d’accesso su doppino
appartiene a Telecom Italia. La rete dispone di circa 50 milioni di doppini di cui
poco più della metà sfruttati dalla clientela d’accesso.
In generale si tratta di una buona rete d’accesso con una vita residua di qualche
decina d’anni.
Accesso su doppino: la tecnologia xDSL
Negli anni Ottanta, attraverso la ricerca sulla modulazione, è stato definito un
modem di concezione innovativa, la cosiddetta tecnologia DSL (Digital
Subscriber Loop) di cui l’accesso base alla rete ISDN ( Integrated Service Digital
Network ) costituisce un primo esempio.
14
__________________________________________________________________
Con il termine xDSL si intende una famiglia di tecniche trasmissive che
consentono di fornire servizi a larga banda in area d’utente utilizzando come
mezzi di trasporto i portanti in rame già istallati.
La realizzazione di un collegamento xDSL prevede l’istallazione di un DSLAM
(Digital Subscriber Line Access Multiplexer) in una sede centrale e di un NT
(Network Termiation) in casa dell’utente, comunemente chiamato modem. Si
separa, tramite filtri, la banda fonica da quella dati, senza la necessità di
intervenire sul collegamento fisico e riducendo così i costi di fornitura dei servizi.
Va però osservato che, considerato lo stato di degrado di alcuni doppini, problemi
di diafonia1 rendono disponibili, per i servizi a banda larga, solo il 50% di quelli
esistenti.
Una caratteristica delle tecniche xDSL è la possibilità di commercializzare
all’utente finale un insieme di soluzioni molto variegate in termini di capacità da e
verso la rete.
L’ADSL (Asymmetric Digital Subscriber Line) è una tecnica trasmissiva
asimmetrica che prevede una maggiore capacità dalla rete “downlink” ed una
minore verso la rete “uplink”. Per utenze di tipo business sono dedicati accessi di
tipo SDSL (Symmetric Digital Subscriber Line) , ed inoltre esiste una piattaforma
xDSL che può essere resa disponibile anche per utenze domestiche e prende il
nome di VDSL (Very Hight bit rate Digital Subscriber Line). Si tratta di
un’evoluzione dei sistemi asimmetrici ADSL verso capacità fino a 52 Mbit/s
verso l’utente e di alcuni Mbit/s verso la rete.
E’ importante sottolineare che le prestazioni trasmissive delle tecniche xDSL
dipendono fortemente dalla lunghezza del doppino telefonico, essendo
l’attenuazione proporzionale alla radice della frequenza, e dagli effetti della
diafonia su sistemi trasmissivi utilizzanti lo stesso settore di cavo.
Accesso dedicato in fibra ottica
La fibra ottica costituisce la modalità d’accesso più importante in termini di
sviluppo futuro della rete, soprattutto considerando le esigenze dell’industria e
1
Fenomeno di accoppiamento elettromagnetico tra i segnali che viaggiano su portanti affasciati
nello stesso cavo.
15
__________________________________________________________________
degli enti che necessitano di capacità ben più elevate di quelle disponibili con
l’ADSL. Il costo delle tecnologie per l’accesso ottico risulta meno elevato, per
questo motivo, ad oggi, le fibre ottiche sono arrivate sino alla connessione degli
armadi e non mancano soluzioni che tendono a portare la fibra, quindi l’alta
capacità, sempre più in prossimità dell’utente. In questa maniera si tende a
diffondere la fibra sia a livello d’accesso primario che secondario.
In letteratura sono presenti tre soluzioni d’accesso per le fibre:
♦
la FTTH (Fiber To The Home), che consiste nel raggiungere i singoli
utenti finali direttamente con la fibra ottica;
♦
la FTTB (Fiber To The Building), che consiste nell’effettuare il
cablaggio ottico fino agli edifici, adottando nell’ultimo tratto il doppino
con sistemi xDSL, o un cavo UTP Fast ethernet;
♦
la FTTC (Fibre To The Curb), che consiste nell’effettuare il cablaggio
fino al marciapiede, cioè in prossimità degli edifici, con una soluzione
intermedia che è molto vicina a quella alla FTTB.
Esistono al momento molti esempi di applicazione in Italia della FTTB
soprattutto per grandi aziende, banche, università etc.
Allo stato attuale Telecom Italia possiede una rete d’accesso in fibra stimabile
intorno a 400000 km, con una lunghezza media dei collegamenti tra centrale ed
utilizzatore di circa 2 Km. Su questa rete sono forniti direttamente accessi SDH e,
cosa che riguarda più da vicino questo lavoro, accessi di tipo GbE (Gigabit
Ethernet).
1.1.3 La rete di giunzione
Il traffico generato dai singoli utenti o da piccoli gruppi nella rete d’accesso,
prima di andare sulla dorsale, viene aggregato nella rete, secondo modalità
opportune, nella rete di giunzione o raccolta.
Caratteristica tipica delle reti di raccolta è la presenza di architetture ad anello, che
possono essere articolate su più livelli, in cui sono effettuate le operazioni di
concentrazione del traffico. Si comincia da piccoli anelli di raccolta locali, in
pratica le centrali di un quartiere, fino ad anelli più grandi, metropolitani, in cui
16
__________________________________________________________________
sono inglobati nel percorso dell’anello i nodi di transito più importanti della zona
urbana.
Nel caso di accesso in fibra, che realizza la soluzione FTTB, il collegamento tra
utente e centrale locale è realizzato mediante anelli in fibra ottica, dedicati e
condivisi, secondo la tipologia degli utenti, che hanno lo scopo di convogliare il
traffico sugli anelli metropolitani, sempre in fibra a più elevata capacità.
La tecnologia più utilizzata è l’SDH ma, per il trattamento del traffico Internet, si
sta diffondendo quella della LAN estesa con interfacce GbE.
Già da qualche anno le reti di raccolta usano sistemi e tecnologie più moderni
basate sulla trasmissione in WDM (Wavelength Division Multiplexig), che
consentono d’incrementare notevolmente la capacità disponibile su ogni singola
fibra ottica.
1.1.4 La rete dorsale
Il panorama nazionale sulle reti dorsali evidenzia a breve termine una capacità
ampiamente superiore alla domanda effettiva.
Per motivi storici è opportuno trattare della rete dorsale di Telecom Italia, poiché
data la condizione di ex monopolista è di fatto la più grande compagnia
proprietaria di infrastrutture di telecomunicazione.
La dorsale è oggi costituita, in prevalenza, da cavi in fibra ottica: circa 260000
Km di fibra in 85000 Km di cavo ottico.
Una della caratteristiche della dorsale Telecom è aver opportunamente sfruttato la
geografia del Paese installando la cosiddetta “rete a festoni”, che consiste nel
collegamento delle città che si affacciano sul mare mediante cavi sottomarini:
anziché effettuare onerosi scavi per collegare tutto il paese, si è preferito
l’installazione di cavi che costeggiano tutto il paese.
Un cavo a festoni ha una lunghezza che si aggira tra i 100 ed i 200 Km. La rete
dorsale è per la maggior parte cablata con fibre G.653 o dispersion shifted , fibre
che hanno la particolarità di avere una dispersione cromatica prossima allo zero
nelle lunghezze d’onda degli amplificatori convenzionali (1530-1560 nm).
Sfortunatamente la regione con dispersione cromatica prossima allo zero ha una
forte controindicazione per i sistemi WDM, poiché si generano forti effetti non
17
__________________________________________________________________
lineari. Va però osservato che, negli ultimi anni, sono stati messi a punto nuovi
amplificatori ottici che lavorano in una regione dello spettro (1570-1610 nm) in
cui il valore della dispersione cromatica riduce fortemente gli effetti non lineari.
A partire dal 1999 la dorsale Telecom Italia è passata da una tradizionale struttura
magliata ad una struttura ad anelli interconnessi, riducendo il numero dei nodi
principali.
1.1.5 Numerizzazione delle centrali di Commutazione nella rete
pubblica
La progressiva sostituzione delle centrali analogiche con quelle numeriche nella
rete di commutazione, e l’utilizzo della segnalazione SSN7, hanno permesso
l’introduzione di nuovi servizi come l’ISDN, l’integrazione completa con la rete
di trasporto numerica, inizialmente PDH (Plesiochronous Digital Hierarchy) e
successivamente SDH.
I vantaggi ottenuti con la numerizzazione delle centrali si possono elencare nei
seguenti punti:
♦
Maggiore qualità del servizio telefonico in termini d’intelleggibilità,
affidabilità e disponibilità;
♦
Integrazione della voce con la trasmissione dati;
♦
Servizi di segnalazione automatica a tutti i livelli gerarchici della rete di
commutazione;
♦
Ottimizzazione della rete;
♦
Introduzione della flessibilità nella rete e centralizzazione del controllo e
della gestione;
♦
Maggiore efficacia nella gestione.
La migrazione dalla tecnica analogica a quella numerica ha consentito al Paese di
adeguarsi agli standard mondiali di qualità sul servizio telefonico, così come
previsto dalle raccomandazioni ITU (International Telecomuncation Union) della
serie G.
18
__________________________________________________________________
1.2 TECNOLOGIE DI COMMUTAZIONE
1.2.1 I Sistemi SDH
La tecnologia PDH, che aveva caratterizzato fino agli inizi degli anni Novanta le
infrastrutture delle reti di trasporto numeriche, è stata affiancata e quasi
completamente sostituita dai sistemi SDH anche detti “sistemi sincroni”.
Gli apparati fondamentali dell’ SDH sono gli ADM (Add Drop Multiplexer) per
l’inserimento e il prelievo di flussi numerici e i DXC ( Digital Cross Connect )
per la permutazione del traffico a livello di flussi aggregati. Nella seconda parte
degli anni Novanta questi sistemi sono stati inseriti in grande quantità sia nella
rete dorsale con frequenze di cifra di 622 Mbit/s e 2,5 Gbit/s (STM-4 e 16, DXC
4/4 ), sia nella rete di giunzione con sistemi a frequenze di cifra di 155 Mbit/s e
622 Mbit/s (STM-1 e 4, DXC 4/3/1, ADM-1).
Figura 0.2 : Blocchi funzionali di un DXC e di un ADM
Allo stato attuale la massima penetrazione dei sistemi SDH si ha nella rete
nazionale dorsale, in cui gli apparati raggiungono il 90% di presenza mentre i
sistemi PDH vengono progressivamente dimessi.
In area metropolitana sono presenti e molto diffusi anelli di raccolta SDH che
aggregano il traffico nell’ area di accesso e lo canalizzano verso l’ area di
giunzione.
Gli apparati della rete SDH hanno favorito un netto miglioramento per quanto
concerne la trasmissione numerica dei flussi:
19
__________________________________________________________________
♦
Razionalizzazione nella gestione complessiva della rete, con un’unica
potenziale struttura di trasporto capace di supportare qualsiasi tipo di
traffico (voce, dati, traffico ATM e IP, segnali video);
♦
Automatizzazione completa delle operazioni di permutazione a livello di
flussi aggregati;
♦
Compatibilità con tutti i sistemi numerici precedenti;
♦
Introduzione di potenti strumenti per la gestione, il controllo, la
protezione e la manutenzione della rete su base nazionale.
1.2.2 La tecnologia ATM
Dal ’94 Telecom ha avviato la realizzazione di una rete ATM (Asyncronous
Transfer Mode), prima in ambito sperimentale all’interno di un progetto con altri
operatori europei e dal 1996 in ambito commerciale, sostenendo investimenti in
infrastrutture di rete ATM in più di venti città italiane.
Questa rete attualmente costituisce il supporto della larga banda ed è impiegata
per gestire il traffico dati proveniente dalle reti ADSL.
1.2.3 La tecnologia IP
L’affermazione del protocollo IP (Internet Protocol ) e dei servizi di Internet ha
fortemente condizionato lo sviluppo delle reti ATM che, di fatto, non
costituiscono più la struttura di riferimento per le reti future. Attualmente il
trasporto del traffico IP avviene con ATM per la trasmissione a livello di
pacchetto ed SDH per il trasporto del segnale. Sia ATM che SDH assicurano la
trasmissione del pacchetto IP, tuttavia questo doppio passaggio, IP over ATM
over SDH, risulta oneroso in termini di banda in primo luogo per il notevole
overhead, poi per tutta una serie di duplicazioni funzionali.
Oggi sono in fase di sperimentazione avanzata tecniche di trasporto più semplici e
meno costose come ad esempio IP over WDM; in queste tecniche si cerca di
eliminare le ridondanze presenti tra IP ed SDH poiché il protocollo IP,
20
__________________________________________________________________
intrinsecamente associato al TCP ( Transport Control Protocol ) già presenta di
per se molte tecniche di protezione.
1.3 LE RETI NAZIONALI E PROSSIMI SVILUPPI
1.3.1 Le reti di raccolta e le reti dorsali
La rete del trasporto sta divenendo sempre di più una rete “tutta ottica” nel senso
che non è solo ottica la trasmissione dei segnali ma diverrà ottica anche
l’elaborazione dei segnali nei nodi d’instradamento e rilancio. Esistono precise
normative che descrivono come deve essere realizzata una Rete di Trasporto
Ottica (OTN, Optical Transport Network) la cui definizione è formulata nella
raccomandazione ITU-T G.872.
Nonostante la capacità offerta dalle infrastrutture di telecomunicazione sia
superiore alla domanda gli attuali meccanismi di gestione non sembrano idonei a
soddisfare le esigenze di traffico future a causa della natura statistica del traffico
generato nei nuovi servizi a banda larga, completamente diversa da quella del
traffico telefonico. Il traffico subisce picchi molto intensi e con distribuzione
imprevedibile sui vari rami della rete, per questo si necessita che le reti di
prossima generazione siano gestite con tecniche in grado di assegnare circuiti in
maniera rapida e automatica. Sulla base di queste considerazioni ci si aspetta di
qui a poco un cambiamento nelle reti di trasporto.
Questi cambiamenti avverranno sotto diversi aspetti, non necessariamente
disgiunti, ma con due fattori in comune: pervasività delle tecniche ottiche e
trasporto “tutto IP” direttamente sulla fibra, senza protocolli di livello intermedio.
L’evoluzione della rete interesserà tre campi distinti:
♦
Collegamento tra nodi
♦
Piano di controllo2
♦
Trattamento del traffico da parte dei nodi.
2
Nella terminologia IETF il piano di controllo identifica l’insieme delle procedure di controllo e
l’istradamento dei pacchetti.
21
__________________________________________________________________
Collegamento tra nodi
I collegamenti tra nodi sfruttano in gran parte le fibra ottiche
già stese, e
l’incremento delle capacità avviene tramite l’introduzione sia di sistemi a singolo
canale con capacità elevate (10 Gbit/s e 40 Gbit/s) sia di sistemi WDM.
Vengono utilizzate tecniche particolari per adattare le fibre già installate alle
esigenze dei nuovi sistemi come ad esempio la compensazione della dispersione
cromatica nelle fibre G.652 e l’amplificazione in banda L nelle fibre G.653,
tuttavia non sono escluse anche installazioni di nuovi cavi, in particolare abbiamo
in opera la stesura delle G.655 realizzate proprio per sistemi WDM ad alta
capacità.
Per quanto riguarda i formati di trasferimento, oggi si è orientati ad utilizzare
sistemi più semplici ed economici dell’SDH.
Attualmente la soluzione più indicata è la trasmissione GbE (Gigabit-Ethernet),
dal costo molto inferiore rispetto a quello della tecnica SDH, inoltre offre delle
capacità molto competitive visti i profili di traffico attuale: 1.25 Gbit/s e
recentemente in commercio anche versioni 10 Gbit/s. L’unico vero inconveniente
è che la GbE non può essere utilizzata per collegamenti superiori ai 70 Km.
La breve distanza che mette a disposizione questa soluzione è tale che consentirne
l’utilizzo esclusivamente in area metropolitana mentre sulla dorsale rimane
l’SDH.
Piano di Controllo
Una delle caratteristiche fondamentali che deve avere una rete di nuova
generazione è quella di poter assegnare flussi numerici diretti tra due nodi
prefissati in maniera automatica e dinamica per far fronte al traffico di Internet,
per ora ci sono due possibilità: la prima è costituita dal piano di controllo GMPLS
(Generalised Multi-Protocol Label Switching) definito nell’ambito dell’organismo
IETF (Internet Engineering Task Force) e l’ASON ( Automatic Switched Optical
Network), definito in ambito ITU-T. L’aspetto più rilevante sia di GMPLS che di
ASON è che permettono un’assegnazione automatica di banda , basata su una
verifica del piano di controllo sullo stato delle risorse tra i nodi.
22
__________________________________________________________________
L’adozione del Bandwidth on Demand, oltre che ad offrire un innovativo servizio
di rete, consente, di ridurre i costi di servizi tradizionali (CAPEX3 e OPEX4)
grazie ad una gestione più snella di rete.
Trattamento del traffico da parte dei nodi
Una gestione del segnale a livello ottico favorisce una notevole diminuzione dei
tempi di commutazione nonchè un risparmio sui costi di gestione della rete.
Nei sistemi WDM questo già avviene, tramite gli OADM (Optical Add Drop
Multiplexer) i canali ottici sono inseriti ed estratti dalla rete, gli OADM sono
dispositivi base per gli anelli ottici. Gli OXC (Optical Cross Connect) sono una
classe di dispositivi per le nuove reti, questi consentono lo scambio di segnali
all’interno di matrici con moltissime porte.
Un altro dispositivo chiave è il convertitore di frequenza, questi consente il
cambiamento del colore del segnale secondo le esigenze di traffico, di
congestione della rete e di ripristino. Infine un altro dispositivo importante per la
rete ottica è l’impiego di “rigeneratori ottici 3R” (rigenerazione, risagomatura,
recupero), sigla che indica l’integrazione di tre processi cui sottoporre il segnale:
amplificazione, reshaping dell’impulso ed eliminazione delle fluttuazioni nel
ritardo di trasferimento (jitter).
Nel prossimo paragrafo verrà approfondita la descrizione degli apparati appena
citati.
1.4 SVILUPPO DEL CONTROL-PLANE ED EVOLUZIONE
DELLE RETI DI TELECOMUNICAZIONI IN AREA
METRO E CORE
Le reti trasmissive, in particolare nelle aree metropolitane e lunga distanza (core),
sono oggetto di un’evoluzione che si dipana su due direttrici principali: l’aumento
dell’intelligenza degli apparati di rete, attraverso lo sviluppo di un piano di
controllo (parzialmente distribuito), e l’integrazione dei livelli di switching
all’interno del nodo. La Figura 1.3 mostra uno scenario di rete che fotografa la
3
4
CAPEX: Costi infrastrutturali
OPEX: Costi di manutenzione legati all’intervento umano
23
__________________________________________________________________
situazione attuale o che si prospetta nel breve termine (2006-2007). Tale scenario
vede la presenza di un’evoluzione della tecnologia SDH (chiamata SDH agile) che
permette, attraverso GFP (Generic Framing Procedure) e LCAS (Link Capacity
Adjustment Scheme), la modellizzazione del profilo di un traffico a pacchetti
(generalmente basato su trama Ethernet) in un numero variabile di VC-4 sulla rete
trasmissiva
server.
Particolarmente
interessanti
le
opportunità
offerte
dall’integrazione delle funzionalità del controllore LCAS con il piano di controllo
ASON/GMPLS.
Figura 0.3 :Scenario rete attuale
Il più importante punto di innovazione della rete rappresentata dalla Figura 1.4,
rispetto allo scenario di più breve termine (Figura 1.3), è l’integrazione verticale
(che comprende più livelli della pila ISO/OSI) del piano di controllo; tale
integrazione interessa in particolare i livelli 1 e 2, ma meno il livello 3 che, in
questo scenario, è rappresentato dai protocolli IP/MPLS attraverso un proprio
piano di controllo.
Questo scenario rende di fatto possibile il servizio di BoD (Bandwidth on
Demand), vale a dire l’offerta di servizi di connettività a banda variabile su
richiesta del cliente.
24
__________________________________________________________________
Figura 0.4 : Integrazione verticale del piano di controllo
L’evoluzione in termini di intelligenza e di integrazione delle funzionalità porta
allo scenario rappresentato in Figura 1.5. Questo modello, proiettato in uno
scenario di lungo termine (2010-2015), viene chiamato peer-to-peer in quanto
elimina di fatto il rapporto client/server tra i piani di controllo dei diversi strati di
rete.
Figura 0.5 : Modello Peer to Peer
25
__________________________________________________________________
In questo modello, le reti dati, basate sul protocollo IP, e le reti ottiche
condividono il medesimo protocollo di routing (concetto storicamente nato in
ambito IP), ovviamente dotato di estensioni che lo rendono fruibile anche per reti
trasmissive.
Questo fatto permette ad un router di calcolare il percorso end-to-end anche se i
vari router sono connessi tra loro attraverso una complessa rete di trasporto. In
definitiva, apparati IP e trasmissivi condividono un’unica visione di rete.
1.4.1 Nuovi servizi e vantaggi economici dall’adozione di reti
ASON/GMPLS
Le reti con funzionalità ASON/GMPLS prevedono la presenza di un piano di
controllo in grado di eseguire automaticamente alcune funzioni di base (routing,
discovery, segnalazione) per l’instaurazione o l’abbattimento di connessioni a
larga banda end-to-end.
A partire da queste, si possono predisporre funzionalità più complesse che mirano,
in generale, ad ottenere una migliore efficienza ed una maggiore flessibilità e
rapidità di risposta, attraverso l’utilizzo dinamico delle risorse di rete.
Il fatto di adottare reti trasmissive dotate di un piano di controllo oppure, nel caso
del GMPLS, la possibilità che tale piano di controllo sia comune a più livelli di
rete, può condurre al contenimento degli investimenti (CAPEX) e alla riduzione
dei costi operativi (OPEX).
In particolare, le funzionalità considerate, abilitate dal piano di controllo
nell’ambito delle tecnologie ASON e GMPLS, che possono portare a vantaggi
economici per l’operatore di rete (riduzione CAPEX e OPEX) sono:
♦
Circuit Re-organization
♦
Installazione automatica / Network Inventory automatico
♦
Provisioning automatico
♦
Multi-layer resilience
♦
Multi-layer traffic engineering
♦
Trasparenza ottica
26
__________________________________________________________________
1.4.1.1 Circuit Re-organization
Il vantaggio primario della Circuit Re-organization riguarda principalmente il
recupero di risorse trasmissive, che consente di posticipare interventi di
espansione della rete, e quindi permette di ridurre gli investimenti (CAPEX).
L’entità del risparmio che si ottiene adottando tecniche di circuit reorganization
automatiche dipende da numerosi fattori, i più importanti dei quali sono:
♦
topologia della rete (numero di nodi e grado di magliatura);
♦
risorse disponibili
♦
distribuzione ed evoluzione temporale del traffico;
♦
frequenza dei riordini;
L’esecuzione di procedure di Circuit Re-organization in una rete convenzionale
richiederebbe un significativo intervento di risorse umane (accesso ai data-base,
progettazione dei percorsi, esecuzione dei ribaltamenti). La disponibilità di una
rete ASON consente invece l’esecuzione completamente automatica della
procedura, rendendo praticamente attuabile questa procedura, altrimenti di
difficile realizzazione.
1.4.1.2 Installazione automatica degli apparati
La funzionalità di installazione automatica permette di installare gli elementi di
rete configurando, in modo automatico, le informazioni relative ai collegamenti
tra essi senza necessità di un intervento manuale sugli apparati.
I vantaggi di questa procedura automatica impattano principalmente sui costi
operativi (OPEX), dal momento che si può ottenere un potenziale risparmio
attraverso una riduzione delle risorse impegnate nella configurazione degli
apparati.
1.4.1.3 Network Inventory automatico
Grazie al resource discovery, la funzionalità di network inventory automatico
permette di aggiornare in maniera automatica i data-base di rete, mantenendoli
27
__________________________________________________________________
costantemente allineati con la situazione reale senza la necessità di complessi
interventi manuali.
Il network inventory automatico si traduce quindi in una riduzione degli OPEX
derivante dall’automazione di operazioni che oggi vengono ancora compiute da
operatori umani. L’allineamento automatico, e in tempo reale, fra la situazione
della rete e i dati registrati nel data base impedisce inoltre di commettere errori di
inserimento, rimuovendo alla radice la necessità di verificare e correggere il data
base e contribuendo così ad un’ulteriore significativo risparmio di tempo e risorse.
1.4.1.4 Provisioning automatico
È bene evidenziare che nelle reti ASON/GMPLS il primo passo dello schema
(Figura 0.6) del provisioning di una connessione (cioè l'inoltro della richiesta da
parte di un cliente e la relativa attivazione del processo di provisioning) può
essere realizzato in tre modalità:
♦
tradizionale (richiesta inviata al front-end commerciale);
♦
semi-automatica (ad esempio richiesta inoltrata dal cliente via Web
direttamente verso il piano di gestione);
♦
automatica (richiesta attraverso interfaccia UNI, o interfaccia interna nel
caso del GMPLS).
Le prime due modalità abilitano connessioni di tipo soft-permanent, mentre la
terza instaura connessioni di tipo switched. Indipendentemente dalla modalità di
richiesta della connessione, grazie alle funzionalità del piano di controllo
(resource discovery, routing e connection management) i passi 2, 3 e 4 di
Figura1.6 nel provisioning della connessione (sia soft-permanent sia switched)
possono avvenire in maniera automatica.
28
__________________________________________________________________
Figura 0.6 : Provisioning della connessione
In sintesi, a prescindere da come il cliente inoltri la richiesta (tradizionale, semiautomatica, automatica) di connessione, il possibile elemento di valore/risparmio
risiede nello snellimento, in virtù degli automatismi introdotti dal piano di
controllo, della procedura di provisioning.
1.4.1.5 Multi-layer resilience
La multi-layer resilience consiste in una tecnica per cui i meccanismi di resilience
(ad esempio restoration e protezione) sono applicati in modo coordinato e
dinamico dalle piattaforme IP e trasmissiva. Questo abilita una situazione
particolarmente vantaggiosa in quanto lo strato IP richiede in modo permanente
esclusivamente la connettività necessaria in condizioni nominali, mentre solo in
presenza di guasto richiede la capacità aggiuntiva, ma limitatamente a dove è
strettamente necessaria. Questa strategia richiede un’interazione molto stretta tra i
due strati di rete, che, in tecnologia ASON GMPLS, può essere realizzata dal
piano di controllo e da interfacce (UNI o interfacce interne) tra router IP e crossconnect ottici.
29
__________________________________________________________________
1.4.1.6 Multi-layer traffic engineering
Una delle principali tecniche adottate nel traffic engineering tradizionale (ad es. in
reti IP/MPLS) per garantire i requisiti di QoS e per ottimizzare l'uso delle risorse
di rete, prevede il re-instradamento del traffico (LSP MPLS). Estendendo questo
concetto ad una rete IP su Ottico (ASON/GMPLS), il traffic engineering
multilivello offrirebbe la possibilità di reinstradare in maniera integrata ed
automatica sia il traffico IP (traffic engineering) sia effettuare connessioni ottiche
preposte al suo trasporto (circuit re-organisation). Questo potrebbe permettere, a
parità di traffico IP, un'ulteriore ottimizzazione delle risorse di rete preposte al suo
trasporto e ciò implicherebbe un ulteriore risparmio sul numero di circuiti e di
conseguenza sugli investimenti (CAPEX).
Più in dettaglio, la possibilità di implementare il Traffic Engineering Multilivello
porta ad un risparmio per quanto riguarda:
♦
Banda. Grazie alle funzionalità di Traffic Engineering Multilivello non
è più necessario allocare risorse sul picco di traffico o tenendo libere
delle risorse per far fronte a eventi improvvisi che potrebbero generare
degli aumenti non programmati/bili della domanda.
♦
Dimensioni dei Router. La cooperazione tra il livello dati e quello
trasmissivo permette di delegare al secondo tutte le problematiche legate
all’allocazione e all’utilizzo delle risorse, quindi è proprio sullo strato IP
che si possono avvertire i maggiori risparmi in termini di banda,
risparmio che si traduce in un numero minore di porte sui router e
talvolta in apparati di livello 3 di taglia più piccola.
1.4.1.7 Trasparenza ottica
Un modo vantaggioso di sfruttare la disponibilità di matrici di commutazione
ottiche consiste nella definizione di algoritmi/procedure che abilitano il routing
dinamico (in una rete con funzionalità ASON/GMPLS), finalizzato al risparmio di
risorse di rete ed in particolar modo di rigeneratori OEO e convertitori di
30
__________________________________________________________________
lunghezza d’onda). L’idea è quella di poter disporre, per la progettazione del path
di una connessione, di un piano di controllo evoluto, in grado di valutare il
degrado fisico del segnale e di scegliere il percorso che consente di minimizzare
l’impiego di conversioni in elettrico.
1.4.1.8 Aumento Revenues
L’adozione delle tecnologie ASON/GMPLS (ed in particolare la possibilità di
instaurare connessioni on-demand) permette la fornitura di alcuni servizi di
connettività dinamica per il trasporto di informazioni generate da particolari
applicazioni (ad. esempio alcune applicazioni di computing grid) che sarebbe
impossibile o troppo costoso fornire altrimenti.
Inoltre il bandwidth on-demand abilita la riduzione del costo industriale di un
collegamento
grazie
all’ottimizzazione
dell’uso
delle
risorse
di
rete,
all’automazione di alcune complesse procedure e soprattutto grazie al fatto di
poter condividere alcune risorse trasmissive tra più clienti che non le utilizzano
contemporaneamente. Tale diminuzione del costo industriale può riflettersi in un
aumento dei guadagni dovuto semplicemente ad una minore spesa per fornire gli
stessi servizi, oppure grazie all’attrazione di nuovi clienti abilitata dalla possibilità
di praticare prezzi più bassi.
1.5 CONCLUSIONI
Per più di un decennio le reti SDH/SONET sono state alla base delle infrastrutture
di trasporto nelle reti metropolitane e a lunga distanza, consentendo gestione
efficiente della banda e garanzia di qualita' del servizio. Piu' recentemente, l'ITU
ha standardizzato l' OTN (recc. G709 e correlate), estendendo i concetti
"tradizionali" delle reti di trasporto alla tecnologia WDM. In questi ultimi anni si
registra una diffusa tendenza a considerare obsolete tali tecnologie di trasporto, le
quali (pur presentando caratteristiche vantaggiose) risultano costose e poco
efficienti. Si ritiene quindi che Ethernet possa essere una migliore alternativa per
l'aggregazione ed il trasporto nelle reti pubbliche, a partire da quelle di accesso
31
__________________________________________________________________
metropolitano. Nel capitolo seguente si analizzerà tale prospettiva sulla base delle
caratteristiche di tale tecnologia per come e’ descritta negli standard già approvati
(principalmente ITU ed IEEE) e per come potrebbe diventare grazie agli standard
in via di definizione, cercando di individuare il ruolo che tali caratteristiche le
assegnano in una rete di trasporto "ideale" e, di conseguenza, il ruolo che essa
potrà effettivamente giocare nelle reti del futuro.
32
Capitolo 2
EVOLUZIONE DELLO STANDARD ETHERNET
NELLE RETI MAN
2.1 INTRODUZIONE
In questo capitolo verrà illustrato nel dettaglio lo standard Ethernet e la sua rapida
evoluzione. Verranno quindi descritti i processi di standardizzazione attualmente
in corso che hanno come obiettivo primario quello di rendere l’Ethernet la
tecnologia dominante per il trasporto dati.
2.2 LO STANDARD ETHERNET
Lo standard Ethernet si sta affermando in questi ultimi anni come tecnologia
dominante non solo a livello di rete locale, ma anche a livello di rete
metropolitana e geografica. I maggiori vantaggi derivanti dalla migrazione della
tecnologia Ethernet a livello di area metropolitana si possono riassumere nei
seguenti punti: velocità, scalabilità, semplicità operazionale, convenienza
economica della soluzione. In questo contesto i principali costruttori e i principali
operatori di telecomunicazioni si stanno focalizzando sulla Ethernet nativa come
soluzione primaria per l’infrastruttura della rete di accesso metropolitana per
fornire alla clientela finale servizi di connessione Ethernet dedicati e/o condivisi.
Ethernet è una tecnologia nata per le reti locali di computer, quindi per consentire
lo scambio diretto di dati in formato elettronico tra più di due computer. La natura
generale di qualsiasi Local Area Network, e quella di Ethernet in particolare, è di
consentire il libero colloquio con qualsiasi macchina collegata e di trasmettere le
__________________________________________________________________
stesse informazione contemporaneamente a tutte le macchine in ascolto
(broadcasting).
Ethernet non è necessariamente la migliore delle tecnologie possibili, ma si è
dimostrata la più economica e la più facile da utilizzare il che ne ha decretato un
enorme successo a tutti i livelli d'impiego e in qualsiasi area geografica del
mondo. La tecnologia Ethernet fu sviluppata da tre società, Digital, Intel, Xerox.
Successivamente, considerando le potenzialità di diffusione mondiale la sua
standardizzazione fu affidata ad un ente al di sopra delle parti, all’ Institute of
Electrical and Electronics Engineers (IEEE), un ente statunitense con sede a New
York che riunisce scienziati, ingegneri e studenti e che nella prima metà degli anni
Ottanta creò un comitato, identificato dalla sigla IEEE 802, il cui compito è di
codificare tutti i tipi primari di rete locale, incluso naturalmente Ethernet. Lo
standard Ethernet è l’IEEE 802.3, in cui inizialmente si definirono le specifiche
elettriche e fisiche per una rete Ethernet a 10 Mbit/s
su cavo coassiale.
Successivamente lo standard è stato ampliato e perfezionato a più riprese,
cominciando dal 1985 con la definizione del metodo di accesso e proseguendo,
poi, con l'aggiunta di versioni capaci di funzionare anche su cavi di tipo
differente, coassiali, doppini multipli e fibra ottica, e a velocità diverse, 100
Megabit/s, 1 Gigabit/s e 10Gigabit/s. Per identificare un’interfaccia Ethernet, si
utilizza un sistema di sigle dove il primo numero indica la velocità in megabit (10,
100, 1000, 10Giga), segue una sigla alfanumerica per identificare il tipo di mezzo
(Base T per doppini in rame, Base SX, Base LX, Base LH, Base ZX per fibra
ottica e distanze crescenti).
Ethernet usa un solo cavo per collegare decine di stazioni di lavoro, ciascuna delle
quali riceve contemporaneamente tutto quel che passa sulla rete, mentre solo una
stazione alla volta ha la facoltà di trasmettere. Ogni stazione è indipendente e non
esiste una singola entità che funzioni da arbitro. Per inciso, esiste anche una
particolare versione di Ethernet che consente la trasmissione contemporanea da
diverse
stazioni
multiple,
usando
canali
separati
che
occupano
contemporaneamente lo stesso cavo coassiale, seguendo un approccio analogo a
quello usato per la televisione via cavo. In tal caso si parla di Ethernet broadband
(a banda larga) e ogni scheda di rete deve montare speciali modem ad alta
34
__________________________________________________________________
frequenza per trasmettere e ricevere sul cavo. Viene usata molto di rado e solo in
ambienti particolari, in ragione dell'elevato costo delle schede. Tornando
all'Ethernet convenzionale, vediamo che le informazioni sono trasmesse nella
forma d'impulsi che si propagano a partire dalla stazione emittente verso i due
estremi della rete (a destra e a sinistra) fino a raggiungere il punto in cui il cavo
termina ai due estremi. In questo percorso incontrano altri nodi che sono collegati
lungo il cavo e che ascoltano tutto quello che passa cercando di scoprire se è
indirizzato a loro. Ogni messaggio in transito sulla rete (detto anche trama o
frame, all'inglese, perché composto da una sequenza di bit tra loro combinati) reca
al proprio interno l'indirizzo di origine e quello di destinazione, perciò ogni
macchina lo copia in una piccola porzione di memoria (buffer) di cui dispone
nella scheda d'interfaccia, legge l'indirizzo di destinazione e, se non coincide con
il proprio, lo scarta.
Figura 0.1 : Trama Ethernet
Con questo meccanismo, assicurandosi che una sola macchina alla volta abbia la
possibilità di trasmettere mentre tutte le altre sono in ascolto, si costruisce in
modo semplice una rete a cui è facile aggiungere nodi, visto che ogni nuovo nodo
riceve automaticamente tutto quel che transita sul cavo e diventa immediatamente
parte del gruppo di lavoro, acquistando anche la facoltà di trasmettere ogni volta
che la linea è libera. Questo sistema vale per qualsiasi genere di rete Ethernet,
indipendentemente dalla sua velocità di funzionamento o dal tipo di cavo
utilizzato. Ogni scheda di rete disponibile in commercio dispone di un proprio
35
__________________________________________________________________
indirizzo permanente, detto MAC address, unico al mondo, espresso in numeri
esadecimali e lungo 48 bit. I primi 24 bit di questo indirizzo indicano il costruttore
e vengono conservati in un registro mondiale così da evitare duplicazioni. Gli altri
24 bit vengono assegnati dal costruttore medesimo, scheda per scheda, così da
creare una combinazione univoca per ciascun pezzo. Grazie a questo metodo, è
possibile risalire in ogni momento a chi ha fabbricato la scheda e non esiste la
benché minima possibilità che sulla stessa rete esistano due nodi con il medesimo
indirizzo fisico.
La connessione di varie macchine sullo stesso cavo prende il nome di topologia
elettrica a "bus" in quanto tutti i dispositivi sono collegati al medesimo percorso di
trasmissione e ricevono contemporaneamente lo stesso segnale. Nelle prime reti
Ethernet la topologia elettrica corrispondeva anche alla topologia fisica, cioè al
modo in cui fisicamente le varie stazioni venivano collegate tra loro.
Successivamente, con l'adozione del doppino, si è mantenuto una topologia
elettrica a bus (elemento invariabile nella natura di Ethernet), ma la topologia
fisica, cioè il modo in cui i cavi vengono distribuiti, è diventata una stella: tutte le
macchine si collegano a un punto centrale.
Figura 0.2 : Esempi di topologie fisiche
Qualunque sia la topologia fisica e qualunque sia la velocità, la tecnica di
trasmissione su rame rimane invariata e consiste nel trasmettere un segnale,
un'onda quadra, che oscilla tra valori di tensione negativi e positivi e ogni
transizione (da negativo a positivo o viceversa) indica la presenza di una cifra
binaria, rispettivamente 1 e 0. Questo sistema prende il nome di codifica di
Manchester e ha il vantaggio di rendere molto più sicuro il riconoscimento degli 1
e degli 0 visto che non si misura l'ampiezza dell'impulso ma si usa l'inversione di
36
__________________________________________________________________
polarità, facilmente riconoscibile anche in caso di presenza di disturbi. Inoltre,
oltre a convogliare le informazioni digitali, questo genere di codifica fornisce la
sincronizzazione per tutte le interfacce collegate alla rete.
2.3 IL MECCANISMO DI ACCESSO CSMA/CD
Nella rete Ethernet non esiste un arbitro degli accessi bensì un meccanismo in
base al quale le singole stazioni di lavoro si "autodisciplinano", astenendosi dal
trasmettere quando qualcun'altra lo sta già facendo. Tecnicamente questo sistema
prende il nome di CSMA/CD (Carrier Sense Multiple Access/Collision Detection
- accesso multiplo a rilevazione di portante con segnalazione di collisione).
Interpretando il significato di questa sigla si comprende anche l'anatomia del
meccanismo. La prima azione che qualsiasi interfaccia esegue prima d'iniziare a
trasmettere consiste nell'ascoltare se qualcuno lo sta già facendo, questa è la
rilevazione della portante. Nel caso di un sistema ad interfacce Ethernet 10BaseT,
se qualcuno sta trasmettendo, sul cavo sarà presente un segnale a 20 MHz su cui
viaggiano 10 Mbit per secondo (codificati con il sistema di Manchester). In caso
di "occupato" la work-station desiste e tenta di ritrasmettere più tardi. L'accesso
alla rete è multiplo, perciò tutte le stazioni hanno la stessa facoltà di parlare a
condizione di accertarsi prima che la linea sia libera, operazione che possono
eseguire tutte in contemporanea. Supponiamo, a questo punto, che due stazioni
siano pronte a trasmettere e che abbiano trovato la linea libera. La trasmissione
parte nello stesso momento e quella della prima inevitabilmente collide con quella
della seconda provocando la sovrapposizione dei due segnali elettrici sulla linea e
l'impossibilità di riconoscere i bit che vi erano contenuti. Se non esistesse nessun
sistema che segnalasse l'avvenuta collisione, le due stazioni continuerebbero a
trasmettere i rispettivi messaggi per intero, nella convinzione che questi
arriveranno a buon fine.
Per questo motivo si è previsto nella interfaccia un ulteriore circuito che rimane
sempre in ascolto, anche quando la scheda d’interfaccia medesima sta
trasmettendo, per verificare che non siano avvenute collisioni. Il circuito deve
37
__________________________________________________________________
verificare la presenza sulla linea di valori di tensione superiori alla norma. In caso
di collisione, infatti, i segnali elettrici delle due stazioni si mescolano e finiscono
anche per sommarsi, perciò la tensione risultante che circola in rete è maggiore.
Non appena la collisione viene rilevata, le schede d'interfaccia di entrambe le
stazioni non interrompono immediatamente la trasmissione, ma continuano a
inviare bit fino a raggiungere la dimensione minima di un pacchetto di 64 Byte.
Questo per fare in modo che anche tutte le altre macchine sulla rete si accorgano
che la collisione è in corso e che la rete è momentaneamente bloccata. Dopo di
che interrompono la trasmissione e attivano un timer di durata casuale prima di
ritentare la trasmissione. Il fatto che il timer sia casuale impedisce che entrambe
ripartano nello stesso istante, causando una nuova collisione. Se, nonostante l'uso
dei timer, la collisione si verificasse ancora, il timer verrebbe allungato
progressivamente fino a un punto in cui il continuare delle collisioni indicherebbe
un guasto fisico sulla rete e le singole schede d'interfaccia comunicherebbero al
rispettivo computer l'impossibilità di trasmettere.
Nella realtà le collisioni sono più frequenti di quello che a prima vista potrebbe
sembrare. Infatti, oltre al caso fortuito visto prima di due stazioni che trasmettono
esattamente nello stesso momento, esistono anche altri casi in cui due o più
macchine cercano di prendere possesso della linea con la convinzione che sia
libera, quando questa in realtà non lo è, e c'è già qualcun altro che ha cominciato a
trasmettere.
Per capire come questo possa accadere dobbiamo parlare di tempi: alla velocità di
10 Mbit per secondo ci vogliono 100 nanosecondi per inviare un singolo bit.
Trattandosi di un impulso elettrico che viaggia alla velocità della luce, la
propagazione non è istantanea anche se molto veloce. Si verifica quello che in
termini tecnici si chiama "ritardo di propagazione". Ci vuole circa un
nanosecondo per percorrere 30 centimetri e, prima che il secondo bit sia uscito
dalla scheda di rete che sta trasmettendo, il primo bit ha circa trenta metri di
vantaggio. Le reti Ethernet hanno lunghezze di centinaia di metri perciò può
benissimo accadere che una seconda stazione, diciamo a 90 di metri distanza dalla
prima, ascolti la linea nel momento in cui la prima ha iniziato a trasmettere e la
trovi comunque libera, visto che il primo bit non è ancora arrivato fino a lei. In tal
38
__________________________________________________________________
caso la seconda stazione inizierebbe la propria trasmissione e quasi subito si
troverebbe coinvolta in una collisione. Anzi, anche una terza stazione, ancora più
distante, potrebbe partire nel frattempo e provocare un vero e proprio
"tamponamento a catena". Questo ci fa capire per quale motivo, al crescere del
numero di stazioni presenti sulla rete, aumenti anche il numero di collisioni e ci
spiega anche perché una rete Ethernet non possa superare una certa lunghezza. Il
problema viene ulteriormente complicato dal fatto che, mentre la seconda e la
terza stazione si accorgono della collisione quasi immediatamente, la prima non se
ne rende conto fino a quando il segnale di collisione rimbalza indietro lungo la
rete e ritorna fino a lei. Quindi si aggiungono ulteriori tempi morti perché, come
abbiamo visto prima, bisogna continuare a trasmettere almeno 64 Byte anche in
caso di collisione, così da far proseguire la collisione abbastanza a lungo da
consentire a tutte le stazioni coinvolte di accorgersene. La quantità di Byte da
trasmettere è legata al tempo che il segnale elettrico impiega per completare un
viaggio di andata e ritorno (round trip) sull'intera rete. Per l'Ethernet a 10 Mbps,
10BaseX, le specifiche dicono che, qualunque sia il tipo di cavo utilizzato, un
singolo bit non deve impiegare più di 50 µs per coprire l'intera lunghezza della
rete nei due sensi, il che equivale a trasmettere 500 bit, cioè 62,5 Byte, arrotondati
a 64. Da questi parametri di partenza deriva una serie di vincoli di lunghezza del
cavo, di numero massimo delle stazioni per tratta di cavo e di numero massimo di
ripetitori. Questi vincoli cambiano per i vari tipi di Ethernet. Per estendere il
limite della rete oltre il valore di 50 µs , per l'andata e ritorno, è necessario creare
una seconda rete e collegarla alla prima attraverso un dispositivo "ponte"
(chiamato bridge) che memorizza ogni messaggio in arrivo da una parte e lo
ritrasmette alla rete successiva solo se è destinato a questa, oppure lo scarta se si
tratta di un messaggio che deve rimanere all'interno della prima rete. Così facendo
si svincolano le temporizzazioni della prima rete (che dal punto di vista del bridge
diventa un "segmento") dalla temporizzazione della seconda. Inoltre così facendo
si riduce il traffico generale e le collisioni, visto che si evita il propagarsi di
traffico inutile tra le due.
39
__________________________________________________________________
2.4 IL DOMINIO DI COLLISIONE
Ethernet si è evoluta moltissimo negli ultimi dodici anni perciò era inevitabile che
alcuni dei suoi termini originali cambiassero significato oppure che scomparissero
dall'uso comune. Esistono in effetti numerosi termini che ricorrono nei vari
standard, ma che qui non abbiamo neanche citato perché ormai sostituiti da parole
più semplici oppure semplicemente non più usati. La parola "segmento"
costituisce un caso particolare, poiché, col tempo, ha ampliato il proprio
significato per abbracciare cose nuove senza abbandonare al contempo le vecchie,
perciò cambia sfumatura a seconda del contesto in cui viene impiegata e può
indurre in confusione non avendo confini ben delimitati.
Le prime reti Ethernet funzionavano su cavo coassiale (10Base-5 e 10Base-2) e
identificavano nel segmento la tratta di coassiale che costituiva un singolo
percorso elettrico non interrotto, un singolo lungo pezzo di cavo, chiuso alle due
estremità dai terminatori. Quando si aggiungeva un ripetitore, si allargava la rete
creando un secondo segmento, fino a un massimo di cinque segmenti, di cui due
riservati unicamente all'interconnessione di ripetitori (segmenti di collegamento) e
tre capaci di ospitare nodi (stazioni di lavoro, server, eccetera) al loro interno
(segmenti popolati).
I ripetitori erano oggetti costosi e venivano usati solo in reti di grandi dimensioni.
Spesso, soprattutto con le reti su coassiale sottile, esisteva un solo segmento e
questo veniva di fatto identificato con l'intera rete e con il traffico che vi
circolava. Perciò il concetto si estese all'insieme delle stazioni collegate tra loro
da un percorso elettrico ininterrotto con tutto il traffico relativo. Con l'avvento
delle reti su doppino, il segmento, nella definizione originale, finisce per essere
composto solo da due nodi: da una parte l’apparato (stazione di lavoro, server o
stampante) e dall'altra la porta del concentratore. In particolare ogni concentratore,
o HUB, funziona da ripetitore nei confronti di ciascuna porta perciò, quello che
una volta era molto costoso e usato solo in casi particolari adesso diventa talmente
comune da trovare un ripetitore per ogni singola stazione collegata. Perciò, benché
nelle reti 10Base-T sia sempre necessario usare la definizione originale di
segmento al fine di avere uniformità con gli altri standard 10Base-X, cioè tratto il
40
__________________________________________________________________
cavo elettricamente ininterrotto che collega i nodi, l'abitudine del recente passato
ci porta ad associare al segmento l'idea di numerosi nodi e quindi ad estenderne il
significato fino a coprire l'intero dominio di collisione.
Ogni singola macchina collegata alla rete 10Base-T costituisce un segmento
elettrico a sé stante, ma fa parte di un singolo dominio di collisione che unisce a
tutte le altre macchine collegate allo stesso hub e tutti gli altri hub e le relative
macchine dei rimanenti quattro segmenti in cascata. Il dominio di collisione
unifica tutti i segmenti della rete e tutti i ripetitori per il fatto che questi ultimi si
limitano ad amplificare il segnale di modo che possa proseguire nel segmento
successivo, amplificando allo stesso modo anche le collisioni. Quindi, tutte le
macchine collegate allo stesso dominio di collisione condividono non solo il
medesimo traffico ma anche le stesse collisioni, indipendentemente da quale sia il
concentratore a cui sono collegate. Chiunque colleghi almeno due macchine a un
hub 10Base-T ha creato un dominio di collisione composto da due segmenti, e le
sue dimensioni aumentano con l'aggiunta di altre connessioni.
Sfortunatamente la parola "dominio di collisione" è alquanto roboante e non è
molto pratica da usare, perciò è caduta in disuso e lo stesso è accaduto ai
segmenti. Si è cominciato a parlare in generale di "rete" riferendosi all'insieme
delle macchine legate tra loro dai vari hub. Tutto è andato bene fino a che queste
reti sono cresciute al punto da portare le collisioni a livelli vertiginosi
compromettendone il funzionamento. Allora si è deciso di "segmentarle" vale a
dire di suddividerle in diversi domini di collisione usando un altro oggetto, più
sofisticato e costoso di un ripetitore, che funge da ponte tra i due domini,
lasciando passare solo il traffico incrociato e filtrando tutte le collisioni e tutto il
traffico che deve rimanere all'interno di un solo dominio di collisione, alias
segmento. Questo genere di apparecchiatura prende il nome di bridge e non solo
svolge le funzioni di ripetitore, ma memorizza e filtra tutti i messaggi in transito
facendo passare solo quelli che sono effettivamente diretti al segmento dall'altra
parte.
Oggi la parola segmento è pronta per una nuova rivalutazione e per sostituire un
qualche altro "dominio" di fascia più alta che nel frattempo si sia costituito. Infatti
il bridge, da principio, era un'apparecchiatura abbastanza costosa. Si trattava di un
41
__________________________________________________________________
vero e proprio computer che svolgeva il lavoro di filtro via software. Col tempo,
la tecnologia elettronica è progredita al punto che le funzioni software sono state
registrate permanentemente in circuiti hardware dedicati a svolgere esplicitamente
questa funzione e perciò molto veloci oltre che relativamente economici. Sono
nati così gli switch (commutatori) che altro non sono che tanti bridge
miniaturizzati e completamente integrati in hardware, ciascuno assegnato a una
porta individuale dello switch. A questa porta si può collegare un intero segmento
Ethernet (dominio di collisione) oppure una singola stazione. In questo ultimo
caso la singola stazione può usare tutta la linea (10 o 100 Mbps) per sé senza il
rischio d'incorrere in collisioni, salvo quelle dovute accidentalmente a disturbi
incontrati sulla linea. In tal modo l'efficienza si spinge fino alla quasi totalità della
capacità di trasmissione teorica della rete Ethernet. Gli switch sono ancora
relativamente costosi, ma il prezzo scende rapidamente e quando sarà sceso a
sufficienza da diventare di uso comune, "segmento" probabilmente cambierà
ancora una volta il proprio significato.
2.5 DALLE LAN ALLE MAN: SWITCHING ETHERNET
Perchè potesse assumere il ruolo di tecnologia unificante multiservizio, e quindi
poter realizzare tutte le funzioni del trasporto (trasmissione, commutazione,
gestione, ecc) per servizi come la fonia, la videocomunicazione, il video on
demand, lo standard Ethernet originario è stato modificato. In particolare, tramite
gli standards IEEE 802.1p/q, sono state aggiunte le funzionalità necessarie per
suddividere e sottocanalizzare il flusso trasmissivo in una molteplicità di
connessioni logiche denominate Virtual LAN (VLAN), ciascuna con le proprie
opzioni di prestazioni QoS. Queste funzioni sono basate su etichettatura (tagging)
delle trame fatta con l’aggiunta di un campo di quattro byte all’header MAC
(Medium Access Control) delle trame Ethernet tradizionali. Il campo aggiunto, o
tag, è fatto come indicato in
Figura 0.3; esso è utilizzato per identificare i flussi di traffico (VLAN identifierID) e per stabilire differenti classi di servizio (Class Of Services, COS), cioè
differenti priorità con cui i flussi relativi a tali classi devono essere trattati in rete.
42
__________________________________________________________________
INDIRIZZO DI
DESTINAZIO
NE 6 BYTE
INDIRIZZO DI
SORGENTE
6 BYTE
TIPO DI TRAMA
TAGGATA 2
CAMPO DI
CONTROLL
4 BYTE
PRIORITA’
3BIT
TIPO/
LUNG.
2 BYTE
CANONIC
O
PAYLOAD
N BYTE
FCS
VLAN ID
12 BIT
Figura 0.3: Composizione del campo di controllo IEEE 802.1p/q nell’header Ethernet.
Il campo VLAN ID è di 12 bit e consente quindi l’identificazione, su uno stesso
flusso trasmissivo, di 4096 VLAN, ciascuna delle quali può essere associata a un
cliente o a specifici servizi dei vari clienti. Il campo “Priorità” è costituito da tre
bit consentendo quindi fino a otto differenti COS. Questo permette agli operatori
di offrire una grande varietà di servizi e di personalizzare l’offerta degli stessi ai
vari clienti; infatti su ciascuna VLAN, si possono applicare differenti politiche di
QoS, di shaping della banda, di filtraggio dei flussi, ecc., come schematicamente
indicato in Figura 0.4.
Per quanto concerne la QoS nelle norme IEEE si definiscono quattro classi di
servizio, ciascuna con uno specifico insieme di prestazioni e tipo di trattamento
dei pacchetti nei nodi di rete.
La tecnologia delle VLAN, realizzate in conformità allo standard IEEE 802.1q,
costituisce dunque la base per realizzare una MAN con Ethernet switching. La
MAN in questo caso è costituita da nodi di tipo Switch Ethernet interconnessi o
con topologia ad anello o a maglia. In questa struttura si usa il protocollo IP come
piano di controllo e le VLAN nel piano del trasporto (forwarding) del traffico.
La topologia ad anello o a maglia è scelta in relazione al meccanismo di
protezione attuato dagli switch; quella più comune è la topologia ad anello con
protezione basata sul protocollo Spanning Tree. Il protocollo STP (Spanning Tree
Protocol) è utilizzato dagli switch di livello 2 per ricavare una topologia priva di
43
__________________________________________________________________
loop a partire da un struttura di rete generalmente magliata. Prendendo come
riferimento uno degli switch (root bridge), tramite lo scambio di opportuni
pacchetti informativi (Bridge Protocol Data Unit), ciascuno switch pone alcune
interfacce in stato di blocco in modo da eliminare i loop e costruire una topologia
ad albero. Nel caso in cui uno dei link attivi diventi indisponibile, l’algoritmo STP
viene eseguito di nuovo per tentare di ripristinare la connettività; tale processo
può eventualmente provocare per qualche link la transizione dallo stato di blocco
a quello di esercizio normale (forwarding).
In effetti quella della protezione da guasti di rete e dei relativi meccanismi di
riconfigurazione e ripristino del traffico costituisce uno dei principali problemi
ancora aperti per le reti geografiche basate su Ethernet. Infatti il protocollo
Ethernet Spanning Tree, sulle topologie di rete ad anello presenta tipicamente un
tempo di convergenza di circa 1 secondo; per altre topologie e in particolare per
reti magliate, i tempi di convergenza possono essere ben superiori e non essere
adeguati per reti pubbliche. Anche il Rapid Spanning Tree presenta tempi ben più
lunghi dei 50 ms, tipici dei sistemi SDH, che sono ormai presi come riferimento
nelle reti pubbliche di telecomunicazioni.
Come per molti altri aspetti delle reti Ethernet, esistono diverse soluzioni
proprietarie per ottenere tempi di ripristino più brevi, o con miglioramenti dei
protocolli sopramenzionati o con soluzioni alternative.
TR
1
VLAN 1
2
TR
ROUTER/
SWITCH
DI EDGE
SWITCH
ETHERNET
N
TR
VLAN N
LO SWITCH DI
ACCESSO INSERISCE
LE VLAN ID ALLE
TRAME ETHERNET
RETE MAN
GIGABIT
ETHERNET
CIASCUN CLIENTE PUO’
AVERE DIFFERENTI
SERVIZI SULLA BASE DEI
VLAN ID
Figura 0.4 : Le VLAN nello standard IEEE 802.1q
44
__________________________________________________________________
2.6 SERVIZI DI CONNETTIVITA’ ETHERNET
PUNTO-PUNTO
In una MAN basata su Ethernet switching i servizi di connettività Ethernet puntopunto sono implementati utilizzando le VLAN realizzate in conformità allo
standard IEEE 802.1q. Tuttavia queste soluzioni presentano, oltre ai problemi di
protezione discussi precedentemente, anche limitazioni di scalabilità.
Lo standard IEEE 802.1q VLAN infatti, prevede un massimo di 4096 VLAN; ciò
significa che, in ciascuna MAN, si possono realizzare al massimo 4096
connessioni. Questo costituisce un limite piuttosto stringente tenendo presente che
ciascun utente può richiedere più di una VLAN per realizzare le sue reti, come ad
esempio Intranet, Extranet, accesso a Internet e cosi via.
ciascun apparato switch della MAN deve conoscere l’indirizzo MAC Ethernet di
tutti i dispositivi degli utenti connessi alla MAN stessa. Ciò comporta una
notevole dimensione delle tabelle MAC, con lunghi tempi di look-up in fase di
instradamento dei pacchetti, e di ripristino delle normali condizioni in caso di
guasto di rete.
Per risolvere o alleviare queste limitazioni proprie dello standard IEEE 802.1q,
alcuni manifatturieri propongono soluzioni proprietarie per la creazione di pile di
VLAN, con l’aggiunta di un campo di quattro byte nell’header della trama
Ethernet. Di questi quattro byte, dodici bit sono usati per identificare VLAN, che
assumono significato solo all’interno della MAN, gli altri sono usati per
identificare i MAC per ciascuna VLAN. Questa soluzione porta due benefici. Essa
isola le tabelle di forwarding MAC degli swiching dagli indirizzi MAC dei
dispositivi d’utente, rendendo dette tavole molto più maneggevoli; il secondo
beneficio consiste nel fatto che ciascuna connessione può trasportare una
moltitudine di VLAN d’utente. Rimane tuttavia il limite delle 4096 connessioni
contemporanee.
45
__________________________________________________________________
2.7 LA GIGABIT ETHERNET
La Gigabit Ethernet ha mediamente le stesse caratteristiche di Ethernet e Fast
Ethernet.
L’estensione della portante espande il frame timing al fine di garantire al minimo
uno slot time di 512-byte (4096 bit) per half-duplex Ethernet. Tale estensione
della portante avviene dopo il campo FCS in modo da non variare la dimensione
del frame, infatti essa altera solamente il tempo in cui il frame passa sul cavo.
E’ mantenuta quindi la compatibilità con i frame Ethernet precedenti anche se
esiste un inevitabile aumento del costo in termini di overhead, in quanto i bit di
“carrier extension” su un frame breve ledono l’efficienza in banda.
Figura 0.5:Confronto tra la trama Ethernet originale e la trama Gigabit Ethernet
Tramite la tecnica del Packet Bursting, che consiste nella capacità di trasferire
pacchetti in stream unici viene neutralizzato l’overhead della carrier extension.
Possono infatti essere trasmessi più di 1500 Byte in un solo burst e, per evitare
che altre stazioni trasmettano nel frattempo, vengono trasmessi dei segnali tra i
frame.
2.8 LA STANDARDIZZAZIONE DEI SERVIZI ETHERNET
La standardizzazione dei servizi Ethernet è portata avanti in modo coordinato da
ITU-T, IEEE, IETF e dal Metro-Ethernet Forum (MEF), un’organizzazione senza
46
__________________________________________________________________
scopo di lucro costituita dai maggiori operatori di telecomunicazione e dalle
principali aziende del settore che si è posta l’obiettivo di accelerare l’adozione
dell’Ethernet come tecnologia di riferimento per le reti metropolitane a livello
mondiale. Il MEF definisce, dal punto di vista dell’utente finale e quindi
indipendentemente dalla tecnologia utilizzata all’interno della rete di trasporto
(Ethernet, SDH, DWDM…), due generiche topologie di servizi, che stanno alla
base di tutte le possibili applicazioni Ethernet in ambito metropolitano:
♦ Ethernet Line (E-Line): connessione punto-punto
♦ Ethernet LAN (E-LAN): connessione multipunto-multipunto
Le due topologie sono schematizzate in Figura 0.6.
Figura 0.6 : Servizi E-Line ed E-LAN (CE=Customer Edge)
La descrizione completa di un servizio Ethernet comprende una serie di attributi
con dei parametri associati (i.e. Physical Medium, Speed, Ingress Bandwidth
Profile...). Al variare dei valori di questi parametri possono essere create diverse
tipologie di servizi Ethernet. Gli attributi definiti dal MEF si applicano alla UNI
(User to Network Interface) o all’EVC (Ethernet Virtual Connection). Con EVC
si intende l’associazione di due (point-to-point EVC) o più UNI (Multipoint-toMultipoint EVC). Dal punto di vista dell’utente finale la specifica completa degli
attributi di un servizio Ethernet corrisponde alla definizione di un Service Level
Agreement (SLA) col fornitore di servizi.
La serie di raccomandazioni ITU-T G.8011.x/Y.1307.x definisce, dal punto di
vista dell’operatore di telecomunicazioni, dei servizi Ethernet che sono in linea
con quelli previsti dal MEF: Ethernet Private Line (EPL), Ethernet Virtual Private
Line (EVPL), Ethernet Private LAN (EPLAN) e Ethernet Virtual Private LAN. La
struttura di questi servizi di rete è specificata in modo generico nella
47
__________________________________________________________________
raccomandazione ITU-T G.8011 che si basa sull’architettura di “Ethernet over
Transport” descritta nella racc. G.8010. L’ITU-T G.8011 definisce tre insiemi di
attributi a livello di Ethernet Connection (EC), UNI e NNI. L’Ethernet in the First
Mile Task Force ha redatto la raccomandazione IEEE 802.3ah con i
seguenti
obiettivi:
♦ definire i livelli fisici delle seguenti topologie di accesso: Ethernet over
Point-to-Point copper (EoVDSL), Ethernet over Point-to-Point Optical
Fiber, EPON;
♦ standardizzare un livello di OAM, in modo da garantire nel mondo
Ethernet uno standard “Carrier Class” per le funzioni di Operation,
Administration, Maintenance e Provisioning (OAM&P) e in modo da
assicurare l’interoperabilità in un ambiente di tipo multivendor.
L’IEEE 802.3ah OAM prevede il trasporto dell’informazione di supervisione in
banda, a livello di trama, senza aggiunta di overhead, evitando quindi uno spreco
della banda destinata all’utente e garantendo allo stesso tempo che la connessione
Ethernet a casa dell’utente venga gestita dall’operatore come un servizio
tradizionale. L’EFM-OAM garantisce le funzionalità di monitoraggio del
collegamento, riporto degli allarmi e gestione delle performance.
2.9 SDH/SONET, OTH ED ETHERNET NELLE RETI DI
TRASPORTO:VISIONE DEGLI STANDARD
INTERNAZIONALI E PROSPETTIVE PER IL FUTURO
2.9.1 Un modello semplificato per una rete di trasporto
In Figura 0.7 e’ descritto un modello semplificato, tipicamente orientato alla
connessione, per una rete di trasporto, nel tentativo di evidenziarne gli elementi
costitutivi essenziali e la loro funzione. Scopo della rete e’ la fornitura di un
servizio di trasporto, idealmente trasparente, per un generico cliente (ad esempio
un flusso Ethernet) attraverso la rete stessa, con caratteristiche di affidabilità e
disponibilità, che possono essere in generale espresse come percentuale di tempo
48
__________________________________________________________________
per cui il servizio supera determinati requisiti di qualità.
Figura 0.7 : Modello semplificato di rete di trasporto
A tale fine il servizio deve essere tipicamente:
♦
proteggibile (mediante contromisure a breve termine verso guasti)
♦
manutenibile (mediante contromisure a medio termine verso guasti)
♦
misurabile (per la verifica dei requisiti di qualità)
Gli elementi costitutivi essenziali della rete, come si desume dalla figura, sono:
♦ connessioni logiche (che sono associate al cliente, lo accompagnano dall’
ingresso all’uscita della rete e di fatto realizzano il servizio di trasporto,
portando con se le informazioni necessarie per misurarne la qualità)
♦ connessioni fisiche (il mezzo fisico, su cui diversi servizi, e quindi clienti,
devono essere aggregati per poterne consentire un utilizzo efficiente)
♦ matrici di interconnessione (che operando sulle connessioni logiche
consentono da un lato di instradare i servizi e dall’ altro di aggregarli sul
mezzo fisico).
49
__________________________________________________________________
Le reti di trasporto reali, rispetto al modello qui proposto, tipicamente variano per
la ricorsività del concetto di connessione logica e la possibilità di terminare e
monitorare segmenti di connessione.
2.9.2 Descrizione funzionale del modello
In Figura 0.8 il semplice modello già introdotto e’ arricchito con l’ ulteriore
dettaglio dei blocchi funzionali che lo compongono, allo scopo di mostrarne il
fine rispetto alle citate caratteristiche di proteggibilità, manutenibilità,
misurabilità.
Figura 0.8 : Modello funzionale di rete di trasporto
La descrizione a strati è ricorsiva, e comprende per ogni strato una terminazione,
una connessione, possibilità di monitoraggio non intrusivo ed un adattamento allo
strato successivo. Nel nostro modello gli strati sono solo 3: il cliente (per cui
esiste la sola possibilità di monitoraggio non intrusivo), la connessione logica, il
mezzo fisico. Cercando di riassumere quanto è espresso in Figura 0.8 è possibile
dire che in generale, a livello di terminazioni e monitoraggi non intrusivi, si
verificano:
♦ l’ integrità
50
__________________________________________________________________
♦ la congruenza (rispetto al tipo di servizio atteso)
♦ la corretta connessione
♦ la qualità (secondo parametri che dipendono dalla connessione stessa)
di una connessione. Di più, in una terminazione si generano:
♦ un segnale informativo sull’ integrità del segnale ricevuto verso il
terminale lontano
♦ un segnale informativo sulla qualità del segnale ricevuto verso il terminale
lontano.
A carico delle funzioni di adattamento e’ invece la generazione di
♦ un segnale di silenziamento allarmi a valle (storicamente definito come
Alarm Indication Signal – AIS – e con il segnificato di indicare al generico
cliente che lo strato “servitore” e’ indisponibile).
Le funzioni di connessione sono, come già detto, demandate all’ instradamento ed
all’ aggregazione. Risultati delle verifiche e segnali possono essere diversamente
utilizzati secondo le diverse politiche dei gestori dei servizi di trasporto. Un caso
“esemplare” può essere quello in cui la protezione e’ fatta sia a livello di mezzo
fisico (perchè tipicamente e’ quello che “si rompe” e perchè impatta diversi
servizi allo stesso tempo) utilizzando come criteri per l’ attivazione di percorsi
alternativi i risultati delle verifiche fatte a livello di terminazione, sia a livello di
connessione logica (perchè in questo modo si ha l’assoluta certezza di proteggere
“quel” servizio dall’ inizio alla fine del percorso in rete, comprendendo anche gli
apparati) utilizzando come criteri i risultati delle verifiche fatte a livello di
monitoraggio non intrusivo. La manutenzione e’ principalmente basata sulle
verifiche fatte a livello di terminazione del mezzo fisico, ed e’ facilitata dall’
utilizzo del segnale di AIS per risalire alle cause prime del guasto. La misura della
qualità è basata sulle verifiche fatte a livello di terminazione della connessione
logica, eventualmente utilizzando anche le informazioni di qualità e integrità
remote, che consentono la valutazione contemporanea di entrambe le direzioni
senza ricorrere a correlazioni fra i dati provenienti da diversi apparati. Il
51
__________________________________________________________________
monitoraggio non intrusivo del cliente consente al fornitore di integrare le
informazioni inerenti alla qualità del proprio trasporto con quelle relative al
segnale trasportato.
2.9.3 SDH ED OTH
La modellizzazione sin qui descritta e’ facilmente rinvenibile negli standard ITU
che descrivono la Gerarchia di Multiplazione Sincrona (SDH) e la Rete di
Trasporto Ottica (OTN), che su tali modellizzazioni sono state costruite e proprio
per questo sono in grado di garantire la proteggibilità, la manutenibilità, la
misurabilità della qualità del servizio dei clienti trasportati e quindi di definirne la
disponibilità. In Tabella 0.1 sono sinteticamente descritti gli strumenti (allarmi,
conteggi, segnalazioni) che SDH mette a disposizione relativamente alla
modellizzazione introdotta. Una tabella del tutto analoga descrive OTN, con
qualche variante di nomenclatura. In questo ultimo caso e’ particolarmente
rilevante il fatto che lo standard introduca 2 mezzi fisici: l’ OTU (Optical
Transport Unit), equivalente ad una singola λ, e l’OMS/OTS (Optical Multiplex
Section/Optical Transport Section), equivalente al segnale ottico multiplato e
quindi in definitiva alla fibra. Per entrambi sono individuabili gli elementi
essenziali sopra descritti, con qualche limitazione per il segnale ottico.
SDH
Integrità
Terminazione
&
monitoraggio
non intrusivo
Congruenza
Connessione
Qualità
Integrità remota
Terminazione
Qualità remota
Adattamento
Silenziamento
Connessione logica
(Virtual Container)
Server Signal Fail
Payload Label
Mismatch
Trail Id Mismatch
Bit Error Rate
(mediante
verifica di parita’)
Remote Defect
Indication
Remote Error
Indication
Connessione fisica
(STM-N)
Loss of Signal
Loss of Frame
Section Id Mismatch
Bit Error Rate
(mediante
verifica di parita’)
Remote Defect
Indication
Remote Error Indication
Alarm Indication Signal (server ⇒ client)
Tabella 0.1 : OAM SDH (allarmi, conteggi, segnalazioni)
52
__________________________________________________________________
2.9.4 ETHERNET: STANDARD FUTURI
Ethernet nasce come tecnologia dedicata a reti a commutazione di pacchetto
locali, e come tale non supporta in modo nativo molte delle caratteristiche sin qui
enunciate. Non è orientata alla connessione, non definisce una connessione logica
end-to-end e pertanto non ne consente una misura di qualità (le cifre di parità
inserite in ogni pacchetto Ethernet sono terminate in ogni nodo e ricalcolate), non
distingue connessione logica da connessione fisica, non incorpora meccanismi di
protezione veloci (ordine dei 50 msec.) ne di silenziamento allarmi. La mancanza
principale, da cui discendono tutte le altre, e’ la natura “connectionless” di
Ethernet: non e’ un caso che ATM, tecnologia a pacchetto concepita per essere
“onnicomprensiva”, sia orientata alla connessione. Di fatto, tutte le attività di
standardizzazione, cui assistiamo in questi anni, tese a generare soluzioni a
commutazione di pacchetto “affidabili” passano invariabilmente per il tentativo,
più o meno occulto, di “orientare alla connessione” tecnologie che in origine non
lo sarebbero. E’ il caso di IP in modo palese con MPLS (Multi Protocol Label
Switching); e’ il caso di Ethernet in modo molto più sottile.
2.9.5 ETHERNET SU MPLS (MPLS ED OAM)
MPLS nasce in ambito IETF come evoluzione di IP orientata alla connessione, di
fatto replicando il concetto fondamentale già presente in ATM di identificare con
un’ etichetta non già la destinazione o la sorgente, ma un segmento di percorso in
rete, e di modificarne il valore nodo per nodo (per scalabilità). Lo stesso
meccanismo e’ applicabile ad Ethernet, oltre che ad IP, e come tale e’ indirizzato
da diversi standard. Il trasporto su MPLS e’ sicuramente una metodologia che
avvicina Ethernet alle caratteristiche di affidabilità che abbiamo sin qui descritto.
Questo risultato e’ ottenuto in modo “non nativo”, aggiungendo un layer ed il
piano di controllo relativo basato su OSPF (Open Short Path First) e RSVP-TE
(ReSerVation Protocol – Traffic Engineering), orientato alla connessione, che va a
sostituire quello Ethernet basato su STP (Spanning Tree Protocol), connectionless.
Particolarmente di rilievo sono le attività di standard, sia ITU che IETF, volte a
completare la definizione di MPLS con capacità di OAM e protezione, che,
53
__________________________________________________________________
soprattutto nel caso ITU, tendono a replicare gli analoghi meccanismi già definiti
per ATM.
2.9.6 ETHERNET PROVIDER BRIDGE
Il primo tentativo evidente di far evolvere Ethernet come tale oltre l’orizzonte
limitato delle reti locali è di IEEE, con la specifica dell’ applicazione provider
bridge. In essa si generalizza un meccanismo pre-esistente, nato con lo scopo
primario di partizionare reti complesse in sottoreti entro cui confinare il traffico
broadcast (cioè indirizzato a tutti i nodi, necessario per l’apprendimento degli
indirizzi di rete), al fine di generare di fatto l’equivalente di una connessione
logica distinta dalla connessione fisica. Il meccanismo originale consiste nell’
identificare le sottoreti (dette VLAN, o Virtual LAN) con un’ apposita etichetta
appesa ad ogni trama Ethernet. In essa si definisce l’ utilizzo di un etichetta
analoga, sovrapposta alla precedente all’ ingresso della rete dal fornitore di
servizio (provider) ed eliminata all’ uscita, da utilizzarsi per il partizionamento di
tale rete, così come la prima partiziona la rete del cliente. Tale partizionamento, se
limitato ad un unico punto di ingresso ed un unico punto di uscita della rete del
provider, genera di fatto un percorso punto-punto, cioè una connessione logica, in
cui l’instradamento è rigido e non richiede neppure più l’ ispezione dell’ indirizzo
MAC di destinazione (basta l’ identificativo di VLAN). La limitazione più
evidente di questa tecnica, se usata estensivamente, è la scalabilità, in quanto l’
identificativo di VLAN e’ di fatto univocamente associato ad un percorso in rete,
e i 12 bit dell’ etichetta consentono al più 4096 possibili codifiche. Il superamento
di questa difficoltà non è ancora stato standardizzato, anche se esistono proposte
in tal senso, ma per quel che riguarda il piano di traffico è abbastanza ovvio e
consiste nella possibilità di commutare il valore dell’ etichetta nodo per nodo,
associando in tal modo i 4096 possibili valori alle sezioni di percorso
congiungenti due nodi qualsiasi e non all’ intero percorso, esattamente come è
specificato per ATM ed MPLS. Relativamente al piano di controllo il discorso è
più complesso, ma una soluzione potrebbe essere quella di applicare ad Ethernet
uno di quelli esistenti orientati alla connessione (e.g. derivato da MPLS, oppure
da GMPLS, oppure da ATM).
54
__________________________________________________________________
2.9.7 ETHERNET PROVIDER BACKBONE BRIDGE
Un’ ulteriore tentativo di consentire ad Ethernet prestazioni analoghe a quelle
delle reti di trasporto tradizionali è riconoscibile in una norma che è solo all’inizio
del suo percorso di standardizzazione. Se il provider bridge consente al fornitore
del servizio un utilizzo dell’ identificativo di VLAN indipendente da quello che ne
fa il cliente, il provider backbone bridge estende lo stesso concetto agli indirizzi
MAC, definendo una struttura di trama Ethernet che comprende 2 livelli di
indirizzamento sovrapposti, dei quali quello più esterno è aggiunto ed utilizzato
dal provider, che lo elimina prima di restituire la trama al cliente. Tale tecnica
consente, come il provider bridge, una separazione di principio fra connettività
logica e connettività fisica, ma non rende la tecnologia orientata alla connessione
e come tale non consente di superare tutte le difficoltà native di Ethernet rispetto a
tecnologie di trasporto più consolidate. Di fatto consente al fornitore del servizio
di realizzare una rete basata su connessioni multipunto-multipunto del tutto
svincolata da quella analoga del cliente. Come tale consente di impilare i piani di
controllo basati su STP e di migliorare la scalabilità dell’ applicazione provider
bridge creando isole con campi dei valori di VLAN indipendenti, ma non facilita
il superamento del paradigma “best effort”.
2.9.8 ETHERNET OAM
Se è vero che la possibilità di Ethernet di giocare nelle reti di trasporto un ruolo
analogo a quello di SDH e OTH passa per una modalità di utilizzo orientata alla
connessione, è anche vero che ciò non sarebbe comunque sufficiente senza
adeguati meccanismi di OAM (Operation, Administration & Maintenance),
analoghi a quelli che abbiamo indirizzato. A tale proposito sono in corso attività
di standardizzazione sia in ITU che in IEEE, non ancora finalizzate, ma
sicuramente promettenti. Un esempio di quello che potrebbe diventare una rete
Ethernet in cui le procedure di OAM in corso di definizione siano applicate è
mostrata in Figura 0.9. La rete del fornitore di servizio è partizionata mediante
VLAN, come descritto in precedenza, in 3 sottoreti di cui 2 punto-punto. Lo
55
__________________________________________________________________
standard consente di definire punti terminali di monitoraggio (MEP), ossia
terminazioni, e punti di monitoraggio intermedi (MIP), ossia monitoraggi non
intrusivi. Il fatto di ammettere diversi livelli (1, 2, 3... in figura) rende conto della
possibilità di terminare e monitorare segmenti di connessione, anche in modo
ricorsivo, come può rendersi necessario in scenari di tipo “carriers’ carrier”. La
Tabella 0.2 descrive sinteticamente i meccanismi di OAM in corso di definizione,
in modo direttamente confrontabile con quelli equivalenti SDH ed OTN.
Connessione logica
Ethernet
Integrità
Terminazione
&
monitoraggio
non intrusivo
Congruenza
Connessione
Qualità
Terminazione
Integrità remota
Qualità remota
Adattamento
Silenziamento
Connessione fisica
(Mainten. Entity
operator-providercustomer)
(ME physical level)
Loss of Continuity
Loss of Continuity
Loopback Fail Link
Trace Mismatch
Link Trace Mismatch
Frame PM parameters
(FR Delay, FR Loss,
ecc)
Ethernet Remote
Defect Indication
-
Loopback Fail
(Link Trace Mismatch)
Port PM parameters
(FRTx, FrRx,FrDrop,
ecc)
Ethernet Remote
Defect Indication
-
Ethernet Alarm Indication Signal (server ⇒
client)
Tabella 0.2 : OAM Ethernet (allarmi, conteggi, segnalazioni)
2.9.9 CONSIDERAZIONI FINALI
Le reti tradizionali di trasporto, come SDH ed OTN, implementano un’
architettura a strati e meccanismi consolidati di OAM che consentono di fornire
servizi con elevate caratteristiche di affidabilità e disponibilità su reti geografiche.
Ethernet nasce come tecnologia dedicata alle reti locali ed è caratterizzata da un’
architettura “piatta” e dall’ assenza di tali meccanismi. Diverse attività di standard
internazionale sono attualmente in corso nel tentativo di colmare il divario
esistente. Questo percorso non è ancora consolidato, ma sin d’ ora è evidente che
dal punto di vista puramente tecnico è possibile evolvere Ethernet ed arricchirla
56
__________________________________________________________________
delle prestazioni necessarie a competere, anche in ambito geografico, con le
tecnologie tradizionali di trasporto, sia aggiungendo un layer orientato alla
connessione, come MPLS, sia in modo nativo. E’ però altrettanto evidente che
tale percorso richiederà modifiche profonde degli apparati attualmente esistenti,
nel senso di aumentarne la complessità e quindi il costo, in quanto tipicamente le
funzionalità di OAM, se applicate estensivamente, vanno realizzate in HW. Di
più, esso è caratterizzato da estrema incertezza sulla destinazione finale, dal
momento che le alternative possibili sono diverse, tutte simili dal punto di vista
tecnico ma non compatibili fra loro, ne essendosi ancora consolidata una
posizione univoca in ambito standard, che ad oggi appare difficile da raggiungere.
In questa situazione di incertezza è difficile supporre che tecnologie consolidate
come SDH possano essere messe rapidamente in crisi dalle nuove soluzioni
emergenti, che fra l’altro inizialmente aumentando in prestazioni perderanno
molto probabilmente l’iniziale vantaggio di costo. Pur riconoscendo che la mutata
natura del servizio, che da circuito è divenuto pacchetto, tende inevitabilmente a
privilegiare tecnologie di trasporto affini, e’ verosimile pensare che l’introduzione
sarà graduale e la completa transizione, se mai vi sarà, richiederà un lungo arco
temporale.
Figura 0.9 : Rete Ethernet con OAM
57
__________________________________________________________________
In questo contesto si colloca questo lavoro nel quale viene proposto un sistema
automatico Software\Hardware di protezione ad un guasto in una connesione
ottica punto-punto Gigabit Ethernet. Viene quindi proposto un sistema in grado di
gestire una connessione di questo tipo con una tempistica paragonabile a quella
delle consolidate tecnologie di trasporto come SDH. Inoltre la soluzione realizzata
in questo lavoro presenta costi di implementazione decisamente contenuti, e
quindi risulta essere una valida proposta ed un punto di partenza per un
evoluzione dell’OAM&P nelle reti Ethernet.
58
__________________________________________________________________
Capitolo 3
QUALITA’ DEL SERVIZIO: CARATTERIZZAZIONE ED
IMPLEMENTAZIONE
In questo capitolo si mettono in luce le tematiche fondamentali di questo lavoro
che sono la QoS e la sua implementazione, per mezzo dell’approccio DiffServ,
sul paradigma MPLS. L’integrazione di questi due aspetti, la QoS fornita da
DiffServ da un lato, ed i percorsi end-to-end forniti da MPLS dall’altro,
costituisce una solida base per la garanzia di servizi real-time che sono ad oggi i
più critici per la rete.
Nel capitolo viene fatta anche una panoramica generale sulla tecnologia Ethernet e
del suo ruolo, argomento dal quale è impossibile prescindere data la sua
diffusione. In questo lavoro Ehernet è essenzialmente utilizzata in termini di
trasmissione dati.
3.1 QUALITA’ DEL SERVIZIO
Il problema della qualità del servizio e della sua gestione nasce con l’introduzione
di nuovi servizi che per loro natura non posso essere trattati allo stesso modo
del semplice traffico dati.
Per descrivere la QoS è opportuno riportare due esempi esplicativi dell’esigenza
di questo servizio.
•
Un utente stipula un contratto, SLA ( Service Level Agreement), con il
proprio Service Provider per navigare in Internet e ricevere a casa propria
la televisione tramite rete fissa. E’ immediato capire come i due servizi
richiesti abbiano caratteristiche profondamente diverse: la navigazione in
Internet è un semplice trasferimento dati, è un servizio non real-time che
non ha vincoli temporali o di perdita di pacchetti ed è senza garanzia di
banda . Per contro la televisione è un servizio real-time, uno streaming
59
__________________________________________________________________
audio/video che necessita di ritardi, jitter e perdite di informazione entro
limiti ben precisi affinché l’utente sia soddisfatto del servizio ricevuto.
•
Un altro utente vuole navigare in Internet ma con una certa banda
garantita, ovvero senza subire quelle flessioni dovute, ad esempio, alle
congestioni della rete nelle ore di punta.
In entrambi i casi si parla di QoS: nel primo si effettua la differenziazione dei
servizi, dove il trattamento dei pacchetti dipende dal tipo di servizio a cui
appartengono, nel secondo la garanzia delle prestazioni in cui vengono garantite
le prestazioni di rete indipendentemente dal servizio. Il concetto di QoS, in base
alle considerazioni fatte può essere definito nel modo seguente:
“E’ la capacità di un sistema di garantire livelli di servizio prestabiliti,
differenziati per classe e tipologia, in regime di risorse limitate.”
Il livello di QoS richiesto da un utente o caratteristico di un particolare servizio
viene deciso sulla base di opportuni parametri e deve essere rispettato in accordo
con il SLA (Service Level Agreement) stipulato tra Service Provider e utente.
Va osservato che quando si stipula un contratto questi deve essere rispettato non
solo dal gestore, ma anche dall’utente.
I parametri che definiscono la QoS sono principalmente sei:
1- One Way Delay: è il ritardo ad una via che un pacchetto sperimenta
attraversando tutta la rete, dalla sorgente al destinatario. Esso è dato dalla
somma di tre termini: il tempo di propagazione all’interno dei mezzi
trasmessivi, il tempo di processamento e il tempo di accodamento dei
pacchetti all’interno dei nodi (routers). I primi due si possono considerare
costanti, mentre il tempo di accodamento determina in modo
preponderante la variabilità del one-way delay e il suo aumento in caso di
rete congestionata.
60
__________________________________________________________________
2- Latency: si definisce latenza il tempo che intercorre tra la ricezione e
l’inoltro di un pacchetto all’interno di un router.
3- Jitter: è un parametro fondamentale per quanto riguarda soprattutto i
servizi real-time ed è tipico delle reti a commutazione di pacchetto
TCP/IP. Il fatto che ogni pacchetto, appartenente allo stesso flusso, venga
trattato indipendentemente dagli altri causa tempi di ritardo variabili da
pacchetto a pacchetto: la variazione del one-way delay viene chiamata
jitter.
Figura 3.1: Distribuzione delle Latenza e del Jitter
4- Bandwidth: è la misura della capacità di trasmissione dei dati ed è
espressa generalmente in kilobit per secondo (Kbps) o megabits per
secondo (Mpbs). Bandwidth indica la teorica capacità massima di una
connessione, molti fattori però possono influenzare questo dato. Le
specifiche per la capacità possono includere parametri quali il “maximum
burst size” (la banda di picco), la banda minima garantita o la capacità
garantita di accesso.
5- Packet Loss: con questo parametro viene misurata la percentuale di
pacchetti persi calcolata facendo il rapporto tra quelli ricevuti e quelli
61
__________________________________________________________________
inviati; comprende anche la ricezione errata dei pacchetti. Questo
parametro non ha molta rilevanza per il trasporto di dati TCP/IP in quanto
il protocollo di trasporto provvede alla ritrasmissione dei pacchetti in caso
di perdita. Il Packet Loss diventa invece molto importante quando si
utilizza il protocollo RTP (Real Time Protocol) in quanto, essendo
realizzato ad hoc per servizi real-time, non prevede il recupero dei
pacchetti persi.
6- Availability: indica la disponibilità di un determinato servizio in un arco di
tempo prefissato.
3.1.1 SLA: Service Level Agreement
E’ il contratto che viene stipulato tra il Service Provider e l’utente riguardo a
determinati servizi ed è basato proprio sui parametri di controllo della QoS. Gli
SLA, oltre a garantire un determinato livello di QoS stabiliscono anche delle
penali da pagare nel caso in cui il contratto non venisse rispettato; questo è un
ulteriore motivo della grande importanza che ha la gestione della QoS nelle reti
attuali. Un SLA è composto da due parti principali:
1- Service Level Specification. I dettagli operazionali del SLA sono definiti
in termini di Service Level Specifications (SLS). Le SLS comprendono:
•
il rendimento aspettato
•
la probabilità di cancellazioni
•
i ritardi
•
i vincoli sui punti di entrata e uscita dal servizio
•
lo scopo del servizio
•
le caratteristiche del traffico necessarie per far sì che una richiesta
sia fornita
62
__________________________________________________________________
•
i metodi di gestione del traffico che eccede il profilo specificato
•
la classificazione e la manipolazione dei servizi forniti.
2- Traffic Conditioning Specifications. Il TCS è un accordo che classifica le
regole e tutte le corrispondenze tra i vari profili e le metriche di traffico da
applicare. Il TCS rafforza tutte le condizioni del traffico e i requisiti del
servizio già specificati nel SLA.
Figura 3.2: Esempio di SLA
3.2 LA GESTIONE DELLA QUALITA’ DEL SERVIZIO
Circa la gestione della qualità del servizio si è visto che è realizzabile direttamente
su Ethernet oltre che su IP e l’una non esclude l’altra. La QoS implementata su
Ethernet assume però un aspetto locale ed esula dagli obiettivi di questo lavoro,
per questo motivo nel seguito verrà preso in considerazione il solo aspetto
dell’implementazione della qualità del servizio su IP.
Le reti attuali sono fondate sul protocollo IP e offrono un solo tipo di servizio: il
“best effort”. Infatti il protocollo IP non fa nessuna ipotesi sul tipo di servizio
fornito dagli strati inferiori e svolge la sola funzione di trasferimento dati senza
63
__________________________________________________________________
offrire garanzia sulla qualità del servizio. Tale garanzia è demandata ai protocolli
dello strato di trasporto, tipicamente il TCP (Trasmission Control Protocol), e
residenti sui terminali della connessione, che provvedono al riordinamento dei
pacchetti fuori sequenza ed alla richiesta di ritrasmissione nel caso di perdita o di
errore. Questo tipo di sistema però, che è risultato vincente per i servizi di solo
trasferimento dati, è inadatto per i servizi real-time; i protocolli di trasporto infatti,
non offrono nessuna garanzia sui ritardi e sulla portata. I soli meccanismi di
controllo posti sui terminali sono dunque inefficienti nelle reti multiservizio ed è
quindi necessario intervenire all’interno della rete. Le metodologie che affrontate
nel seguito per la gestione della QoS riguardano dunque l’architettura della rete e
non i terminali dell’utenza, tali tecnologie sono IntServ ( Integrated Service) e
DiffServ ( Differentiated Service).
3.2.1 IntServ: Integrated Service
Le reti odierne essendo basate sul protocollo IP sono connectionless:
l’assegnazione della banda è su domanda, non vi è una fase di instaurazione della
connessione e l’utente può inviare pacchetti in qualsiasi momento senza chiedere
preventivamente il permesso all’operatore. Le risorse della rete quindi vengono
condivise da tutti gli utenti, nessuna richiesta di accesso viene rifiutata ma non
può essere garantita la qualità del servizio.
La tecnologia IntServ si basa sul concetto di pre-assegnazione5 collettiva delle reti
ATM e risulta essere un’architettura di riferimento, ottenuta integrando quella
classica Internet, per supportare diverse classi di servizio in aggiunta a quella già
esistente chiamata Best Effort. Per avere garanzie di QoS è necessario avere una
connessione e il controllo di accesso. Poiché in una rete IP è connection-less viene
5
Durante la fase di instaurazione l’utente chiede l’assegnazione di una determinata quantità di
risorse e l’operatore, nel caso in cui tali risorse siano disponibili, le assegna i modo virtuale: le
risorse vengono assegnate collettivamente a tutti gli utenti abilitati.
64
__________________________________________________________________
introdotto il concetto di flusso6 e le classi di servizio IntServ garantiscono al
flusso stesso pre-determinate prestazioni di rete. I livelli prestazionali forniti da
una data classe di servizio sono richiedibili su base flusso: una certa applicazione
terminale richiede determinate prestazioni e il relativo flusso informativo sarà
trattato dalla rete in modo da soddisfare le richieste dell’applicazione. Le risorse
necessarie a soddisfare le richieste di ciascuna applicazione vengono allocate in
maniera soft mediante il protocollo RSVP ( ReSource reserVation Protocol ) che
verrà trattato in seguito.
Per il problema del controllo di accesso, ogni router deve esercitare una funzione
di Admission Control per assicurare che le richieste siano accettate solo se
esistono risorse sufficienti a garantire le prestazioni volute. Una volta che questa
procedura è stata eseguita da tutti i routers attraversati dal flusso potranno essere
garantite le caratteristiche prestazionali richieste.
Le classi di servizio previste dal IntServ , oltre a quella Best Effort, sono due:
1- Guaranteed Service ( Servizio Garantito): questo servizio fornisce un fissato
ritmo binario di trasferimento, un limite superiore al one-way delay e
l’assenza di perdita delle unità informative. E’ stato concepito per
applicazioni hard real-time che sono altamente sensibili a valori di
aspettazione e varianza del ritardo end-to-end. L’applicazione che richiede il
servizio dovrà fornire un insieme di parametri che descrivono il traffico che
emetterà, il cosiddetto TSpec (5 parametri), ed un altro insieme di parametri
che specificano le prestazioni attese, RSpec ( 2 parametri ). L’insieme
formato dalle precedenti dichiarazioni viene detto Call Admission e necessita
del protocollo di segnalazione RSVP. Il traffico appartenente a questo
servizio viene controllato all’ingresso della rete e “modellato” all’interno di
essa affinchè rispetti le specifiche indicate in TSpec; in caso negativo, i
datagrammi non conformi vengono trattati come traffico Best Effort oppure
scartati.
6
Per flusso si intende un aggregato di dati appartenenti alla stessa applicazione.
65
__________________________________________________________________
2- Controlled Load Service ( Servizio a carico controllato): questo servizio
non offre particolari garanzie di prestazioni. L’applicazione, diversamente
dal Servizio Garantito, comunica solo i parametri di traffico TSpec e il
relativo flusso informativo verrà trattato come un traffico di tipo Best Effort
in una rete poco carica. Tale servizio è stato concepito per applicazioni soft
real-time della rete IP che funzionano bene in una rete non sovraccarica.
Anche per questo tipo di servizio è previsto sia il controllo di ammissione
all’ingresso della rete e sia lo “shaping” del traffico all’interno della rete
stessa per verificare la conformità del flusso rispetto alle specifiche TSpec. In
caso di non conformità del traffico i datagrammi vengono trattati come
traffico best effort oppure scartati. La differenza sostanziale tra il servizio a
carico controllato e il servizio best effort è il controllo di accesso mentre le
differenze con il servizio garantito sono: le politiche di ammissione più
flessibili, le garanzie prestazionali meno restrittive e dipendenza dalla
capacità di adattamento dell’applicazione che richiede il servizio.
Vediamo ora più dettagliatamente il protocollo di segnalazione RSVP e il
protocollo di trasporto RTP, realizzati appositamente per l’ IntServ e poi ripresi
anche per la tecnologia DiffServ.
3.2.2
Il Protocollo RSVP
Il protocollo RSVP è un protocollo che permette la riservazione “soft” delle
risorse all'interno della rete in modo da garantire una fissata QoS a determinati
flussi di dati all'interno di una sessione. Per sessione si intende un insieme di uno
o più flussi di dati caratterizzati da una certa destinazione ed un certo protocollo di
trasporto.
Il protocollo RSVP usa dei messaggi di controllo, incapsulati in pacchetti IP.
Quando un host richiede un insieme di risorse per avere una certa QoS, invia un
messaggio RSVP denominato Path con lo stesso indirizzo IP di destinazione dei
dati. Con questo messaggio la sorgente notifica ai possibili host riceventi e ai
router intermedi la presenza di un flusso di dati e le proprie caratteristiche di
66
__________________________________________________________________
traffico. Un host destinatario che abbia ricevuto un messaggio Path, nel caso in
cui sia interessato a ricevere i dati con QoS garantita, invia un messaggio di
richiesta di prenotazione di risorse, detto Resv, nel quale specifica la QoS con cui
vuole ricevere il flusso di dati generato dalla sorgente; di conseguenza, in una
trasmissione di tipo multipunto-multipunto ciascun host ricevente può indicare
esplicitamente le sorgenti dalle quali ricevere con QoS garantita e quale QoS
riservare a ciascun flusso di dati. Il protocollo RSVP offre quindi sotto questo
aspetto la massima flessibilità ed evita inutili sprechi di risorse.
Figura 3.3: Diagramma delle operazioni svolte in un nodo alla ricezione di un messaggio Resv
Affinchè ogni nodo presente sul cammino dalla sorgente agli host riceventi possa
allocare le risorse necessarie ad assicurare la QoS richiesta, i messaggi Resv
devono percorrere a ritroso lo stesso cammino seguito dai messaggi Path e dal
flusso di dati vero e proprio. Quando un messaggio Resv giunge ad un nodo,
questi esegue determinati controlli per verificare se sono presenti risorse
67
__________________________________________________________________
sufficienti per soddisfare la richiesta. Se in tutti i nodi presenti sul cammino questi
controlli hanno un esito positivo allora vengono allocate lungo l'intero percorso
dalla sorgente al destinatario le risorse necessarie al trasporto del flusso di dati in
questione con la QoS richiesta.
In ogni nodo i messaggi Resv provenienti dai nodi a valle e relativi allo stesso
flusso di dati vengono fusi insieme prima di essere ulteriormente propagati verso
la sorgente; se ad un nodo giungono due richieste di prenotazione da parte di due
host relative allo stesso flusso di dati, tale nodo propaga verso la sorgente di tale
flusso un'unica richiesta contenente la QoS più stringente in termini di qualità.
Figura 10: Schema semplificato dello scambio dei messaggi RSVP tra sorgenti e destinatari
Le risorse allocate in ciascun nodo e necessarie ad assicurare ad un certo flusso di
dati la QoS richiesta non vengono tenute riservate indefinitamente, dopo un certo
periodo di tempo vengono liberate. Quindi gli host sorgente e ricevente
rispettivamente devono periodicamente inviare dei messaggi Path e Resv di
“refresh” per notificare ai nodi l'intenzione di continuare a ricevere con una certa
QoS una data sessione. Il meccanismo di refresh permette inoltre al protocollo
RSVP di adattarsi in maniera dinamica ai cambiamenti dei percorsi di
instradamento seguiti dai dati.
Nel protocollo RSVP sono previsti due tipi di messaggi di errore: ResvErr e
PathErr. Il messaggio di tipo PathErr è semplicemente trasmesso verso l'host
sorgente che ha causato l'errore e non provoca alcun cambiamento nei router che
attraversa. Sono pochi i motivi che possono causare un PathErr. Ad esempio
un'applicazione potrebbe specificare nel messaggio Path parametri di traffico non
congruenti, oppure indicare nell'identificatore di sessione un numero di porta
incompatibile col valore di ProtocolID.
68
__________________________________________________________________
Sono invece più frequenti i messaggi del tipo ResvErr, e sono generalmente
causati dalla mancanza di risorse in rete necessarie per accogliere una certa
richiesta, o dalla mancanza dei requisiti per effettuare la prenotazione da parte del
richiedente. La gestione dei messaggi ResvErr è anche più complessa, in quanto,
a causa del meccanismo di fusione, una richiesta di prenotazione di risorse è
usualmente il frutto di più richieste, per cui un messaggio ResvErr deve essere
notificato a tutti gli host riceventi che sono gli iniziatori di quelle richieste.
Ogni richiesta di prenotazione delle risorse contiene al suo interno un oggetto
attraverso cui l'host ricevente specifica la QoS richiesta ed identifica il flusso di
dati cui riservare quella QoS. Tale oggetto è detto flow descriptor, ed è a sua
volta costituito dalla coppia (flowspec, filter spec). Il flowspec7 specifica la
QoS desiderata, mentre il filter spec identifica il flusso di dati al quale
riservare la QoS indicata dal flowspec. In ogni nodo ogni richiesta di
prenotazione di risorse interagisce con due entità locali: l'admission control ed il
policy control: l'admission control verifica se la richiesta può essere esaudita,
ovvero se sono presenti risorse sufficienti a garantire la QoS specificata nel
flowspec senza incorrere nel rischio che si deteriori la QoS riservata agli altri
flussi di dati che in quel momento stanno attraversando il nodo in oggetto; il
policy control verifica invece che l'host richiedente sia autorizzato ad inoltrare tale
richiesta, ed in più memorizza dei dati necessari successivamente alla tariffazione
del servizio offerto. Se entrambi i controlli sono positivi, le informazioni
contenute negli oggetti flowspec e filter spec vengono rispettivamente
utilizzate per configurare i parametri di due moduli: il packet scheduler, che ha il
compito di dividere i pacchetti che giungono al nodo sulla base della QoS loro
assegnata, ed il packet classifier, che invia i datagrammi IP sul mezzo fisico in
maniera da rispettare la QoS negoziata selezionando i pacchetti dalle code ed
inoltrandoli in rete al momento opportuno.
7
Il flowspec in una richiesta di prenotazione è in generale composto da due set di parametri:
Rspec, che specifica la QoS richiesta, e Tspec, che descrive le caratteristiche del flusso di
dati cui assegnare la QoS richiesta
69
__________________________________________________________________
Figura 11: Sezione di I/O di un nodo IP
Ogni richiesta di prenotazione delle risorse è caratterizzata da uno "stile di
prenotazione" (reservation style). Attualmente sono definiti tre stili di
prenotazione:
•
Wildcard Filter (WF) style: se un ricevitore, appartenente ad un certo
gruppo multicast, utilizza in una sua richiesta lo stile WF, allora esso vuole
ricevere con la QoS specificata tutti i pacchetti indirizzati a quel gruppo
multicast, indipendentemente da chi li trasmette: di conseguenza le risorse
allocate nella rete sulla base di quanto indicato nel flowspec saranno
condivise tra tutti coloro che in un certo istante trasmettono all'indirizzo IP
multicast cui appartiene l'host che ha richiesto la prenotazione.
•
Fixed Filter (FF) style: in una richiesta con stile FF l'host ricevente indica
esplicitamente quali flussi di dati vuole ricevere e con quale QoS; in altri
termini esso specifica nella sua richiesta una serie di flow descriptor,
ognuno associato ad un determinato flusso di dati.
•
Shared Explicit (SE) style: in una richiesta con stile SE l'host ricevente
indica una serie di flussi di dati che vuole ricevere (vale a dire una serie di
sorgenti), ma associa ad essi un unico flowspec da condividere tra tutti i
trasmettitori.
Ogni richiesta di prenotazione delle risorse Resv deve essere soggetta ad un
controllo amministrativo per verificarne la leggittimità, ovvero per controllare che
le risorse richieste non eccedano un certo limite prestabilito e che il richiedente sia
70
__________________________________________________________________
autorizzato ad inoltrare richieste. A tal scopo i messaggi Resv possono
comprendere dei "policy data" che contengono dei dati identificativi dell'utente
che chiede le risorse. Il protocollo RSVP non interpreta i policy data, ma li
trasporta in modo trasparente e li passa ad un Local Policy Module (LPM) che
esegue gli opportuni controlli e gestisce la tariffazione per I servizi richiesti.
Non tutti i nodi sono dotati del LPM, in quanto il policy control viene usualmente
eseguito ai confini di un dominio amministrativo. In un nodo il modulo LPM
svolge essenzialmente tre funzioni: anzitutto, riceve i policy data contenuti nei
messaggi Resv che arrivano al nodo; poi, interpreta tali dati e modifica il proprio
stato di conseguenza, ad esempio aggiornando il numero di scatti dei vari utenti
necessari poi per la tariffazione del servizio offerto, infine, deve generare i policy
data da includere nei messaggi Resv che il nodo invia a sua volta sulla rete.
3.2.3 Il protocollo RTP
Il protocollo RTP ( Real-time Trasport Protocol ) è stato creato per estendere le
funzionalità del protocollo TCP in modo da poterlo utilizzare anche per il
trasporto di traffico real-time. Il protocollo RTP può operare appoggiandosi su
protocolli sia di tipo connection-oriented che connection-less e richiede che i
servizi di frammentazione e riassemblaggio dei pacchetti siano a carico degli strati
inferiori. Il protocollo RTP non offre nessun meccanismo per assicurare la
consegna dei pacchetti entro tempi prestabiliti o alcun genere di garanzia circa la
qualità del servizio, ma si appoggia ai servizi forniti dai livelli inferiori nella
gerarchia ISO-OSI come, per esempio, all’UDP/IP.
Il pacchetto RTP rappresenta l’unità minima di informazione utilizzata dal
protocollo RTP per trasportare i dati forniti dall'applicazione e le informazioni
descrittive di tali dati: esso è formato da un’intestazione e dai dati.
Header
L’header costituisce la parte iniziale di ogni pacchetto RTP e contiene
informazioni di controllo che sono utili alla gestione del flusso di dati. È
71
__________________________________________________________________
composto da una parte fissa e da un’eventuale parte opzionale. La parte fissa
dell’intestazione trasporta informazioni utili per la corretta interpretazione,
identificazione e sincronizzazione dei dati contenuti nel payload.
La parte fissa dell’header ha il seguente formato:
Figura 3.6: Parte fissa dell’ header di un pacchetto RTP
Tra le funzioni principali del RTP sono incluse l’identificazione del carico
pagante, il payload, la serializzazione dei pacchetti ( Sequence Number ), per
determinare le perdite e le inversioni nella sequenza dei pacchetti, e il “timestamping”, necessario per equalizzare i tempi di ritardo dei pacchetti. E’ noto,
infatti, che nelle reti a commutazione di pacchetto, ogni unità informativa viene
trattata in modo indipendente dalle altre, sperimentando all’interno della rete
tempi di propagazione diversi: la rete introduce il jitter. Questo vuol dire che la
rete non è temporalmente trasparente, caratteristica che invece è essenziale per i
servizi real-time che richiedono un jitter molto basso o al limite nullo.
Per equalizzare i ritardi dei pacchetti, questi ultimi vengono memorizzati, prima di
essere passati all’applicazione interessata, in un buffer detto di play-out che
introduce a sua volta un ulteriore ritardo: per i pacchetti con ritardo maggiore
verrà aggiunto un piccolo ritardo mentre quelli con ritardo minore verranno
maggiormente ritardati.
72
__________________________________________________________________
Figura 12: Ritardo di play-out
Perchè questo sistema funzioni bisogna conoscere l’istante in cui è stata emessa
l’unità informativa per poter stabilire in quale istante deve essere consegnata
all’applicazione ricevente. Se la sorgente è a ritmo binario costante è sufficiente
conoscere l’intervallo che intercorre tra l’emissione di due unità informative
consecutive; se il ritmo è variabile viene utilizzata la procedura “time stamping”,
ad ogni pacchetto viene aggiunta una ulteriore informazione: l’istante di
emissione.
Al protocollo RTP viene affiancato un protocollo ausiliario, denominato RTCP
(RTP Control Protocol) per la rilevazione della qualità del servizio, per il
controllo della sessione e per le funzioni di identificazione dei partecipanti.
L’RTP Control Protocol (RTCP) è la componente del protocollo RTP che si
occupa del controllo e del monitoraggio del flusso dei dati trasportati nei pacchetti
RTP. Lo scopo di RTCP è quello di fornire alle applicazioni un meccanismo che
consenta di valutare la qualità del servizio che la rete, per mezzo di RTP, può
offrire e di gestire, allo stesso tempo, il controllo dei partecipanti ad una sessione.
RTCP si basa sulla trasmissione periodica di pacchetti di controllo a tutti i
partecipanti di una sessione utilizzando lo stesso meccanismo di distribuzione dei
pacchetti di dati: la separazione tra pacchetti di dati e di controllo deve essere
fornita dai protocolli sottostanti, per esempio utilizzando due porte separate in
UDP.
73
__________________________________________________________________
Ogni pacchetto RTCP inizia con una parte fissa simile a quella dei pacchetti dati
RTP, seguita da elementi strutturati che possono essere di lunghezza variabile in
base al tipo di pacchetto, ma sempre multipli di 32 bit. Tale caratteristica, unita
all’indicazione della lunghezza contenuta nella parte fissa, permette di
concatenare più pacchetti RTCP in un unico pacchetto del protocollo di livello
inferiore. Non esiste neanche un esplicito conteggio delle singole porzioni
contenute in un pacchetto composto, in quanto è previsto che l’indicazione della
lunghezza totale venga indicata dai livelli inferiori.
Il protocollo RTP si appoggia sui protocolli sottostanti per distinguere i flussi di
dati dai flussi di controllo: nel caso di UDP e protocolli simili, per RTP utilizza un
numero di porta pari e per i pacchetti RTCP corrispondenti, la porta
immediatamente superiore.
Figura 13: Esempio di applicazione real-time con protocollo RTP
74
__________________________________________________________________
3.2.4 DiffServ (Differentiated Services)
La tecnologia DiffServ si fonda sul meccanismo di allocazione preferenziale delle
risorse: vengono introdotti dei livelli di priorità e in base ad essi il traffico viene
trattato in un determinato modo. Il concetto di flusso informativo, introdotto nel
IntServ, non ha più significato in questo modello: i router non devono più gestire
una connessione per ogni flusso ma prendono decisioni direttamente sul singolo
datagramma.
L’informazione sul trattamento che un datagramma deve ricevere è trasportata dal
datagramma stesso evitando così la necessità dello scambio delle informazioni di
controllo tra i routers e il mantenimento degli stati nei sistemi attraversati (tramite
RSVP).
L’idea del DiffServ è quella di fornire differenti servizi creando delle classi con
diverse priorità; per fare questo viene usato il campo DSCP ( DiffServ Code
Point), ottenuto dal campo type-of-service (TOS) del pacchetto IPv4 o dal campo
traffic class di IPv6. Con le classi di servizio tutti i datagrammi vengono riuniti in
pochi flussi aggregati,
BA8 – Behaviour Aggregate, ai quali sono assegnati
diversi trattamenti all’interno della rete.
All’interno della rete non esiste nessuna richiesta fatta da un flusso per ottenere un
determinato trattamento in termini di QoS.
Il meccanismo DiffServ può essere riassunto nel modo seguente:
- ai bordi della rete i singoli pacchetti vengono classificati dagli Edge Router9 che
marcano il campo DSCP presente nella loro intestazione in base ai requisisti
prestazionali richiesti;
- ogni valore del campo DSCP corrisponde ad una classe di servizio e tutti i
pacchetti aventi lo stesso campo DSCP riceveranno lo stesso trattamento
all’interno della rete;
8
Behaviour Aggregate ( BA): un insieme di pacchetti con lo stesso DSCP che attraversano un link
in una particolare direzione
9
Edge Router: sono i router ai bordi di un dominio DS. Essi svolgono le funzioni fondamentali
che prevede l’architettura DiffServ quali la classificazione dei pacchetti, la marcatura del campo
DSCP e la policing-shaping del traffico.
75
__________________________________________________________________
- i pacchetti, una volta classificati, vengono immessi nella rete;
- all’interno della rete in ogni router vengono definiti i PHB10 ( Per Hop
Behaviour) ovvero i comportamenti corrispondenti alle classi di servizio con le
quali sono classificati i pacchetti;
- quando un pacchetto arriva in un Core Router11, quest’ultimo esamina il campo
DSCP e tratterà il pacchetto in base alla classe di servizio corrispondente.
Si osservi inoltre che DiffServ specifica solo il campo DSCP, e dunque le classi di
servizio, e i PHBs dei routers mentre spetta all’operatore decidere quali particolari
prestazioni far corrispondere alla singola coppia DSCP-PHB; inoltre DiffServ non
specifica dei servizi: il servizio percepito dall’utente è semplicemente il risultato
dei vari PHB. Come per la tecnologia IntServ, un utente che vuole ricevere un
servizio differenziato si deve accordare con il Service Provider stipulando un
SLA.
10
Per Hop Behaviour ( PHB ): una descrizione del modo di instradare un particolare aggregato da
parte di un router DS, così come lo si vede esternamente; è definito dai parametri dell’algoritmo di
scheduling, dalla quota di buffer e dalla quota di banda che di fatto consentono di ottenere un
diverso servizio
11
Core Router: sono router ad altissima capacità all’interno del dominio DS. Essi hanno il solo
compito di eseguire i PHB sui datagrammi già classificati e marcati dagli edge-router
76
__________________________________________________________________
3.2.5 Il campo DSCP
Il campo DSCP è composto di sei bit ed è usato per identificare i flussi
appartenenti ad un aggregato e associarli ad un PHB, deriva dal campo TOS
( Type Of Service ) introdotto già da tempo in IPv4.
Figura 14: Campo DSCP ottenuto dalla ridefinizione del campo TOS
Come si vede dalla figura il campo TOS è stato ridefinito dal IETF appositamente
per DiffServ: i sei bit più significativi sono stati definiti DSCP mentre gli ultimi
due rappresentano il campo CU che per ora non viene utilizzato e che si
raccomanda di non utilizzare in nessuna implementazione.
77
__________________________________________________________________
3.2.6 PHB: Per-Hop Behaviour
Nell’architettura DiffServ abbiamo, oltre al Best Effort, due classi di servizio:
Figura 15: Classi di Servizio nella metodologia DiffServ
1- Expedited Forwarding: Il PHB Expedited Forwarding permette di offrire
le prestazioni di una linea dedicata virtuale, caratterizzata da:
•
•
•
•
basse perdite;
basse latenze;
basso jitter;
garanzia di larghezza di banda.
Il concetto su cui si basa l’implementazione di questo PHB è la seguente: gli
eventi che introducono variabilità nelle caratteristiche dette sopra si collocano
nelle code dei router e sono causati dalla differenza tra la velocità di trasmissione
del flusso aggregato in entrata e quella riservata a quella determinata coda in
uscita. Per l’Expedited Forwarding deve essere sempre garantita l’assenza di
congestione della coda associata ad esso e tale garanzia deve essere salvaguardata
indipendentemente dall'intensità del resto del traffico appartenente ad altri PHB:
78
__________________________________________________________________
le varie classi di servizio non si devono influenzare tra loro. Un modo per
implementare questo PHB consiste nel predisporre una coda con priorità
superiore: per evitare interferenze (pre-emptions) non dovrebbero essere tuttavia
presenti altre code a priorità superiore.
2-Assured Forwarding : Il PHB Assured Forwarding rappresenta un servizio
end-to-end con caratteristiche di garanzia sul recapito del pacchetto;viene definita
una certa larghezza di banda "di profilo", ed il traffico che rientra in quella
larghezza di banda viene recapitato con alta probabilità. L’ Assured Forwarding
permette di configurare diversi livelli di affidabilità e di priorità di inoltro del
traffico. Sono presenti quattro classi di servizio e per ognuna ci sono tre differenti
livelli relativi di scarto (drop); i pacchetti vengono marcati e inseriti in una delle
classi in base ai servizi sottoscritti dal cliente e in caso di congestione i nodi
scartano in base ai livelli di priorità. Questo PHB si adatta molto bene a tutte
quelle applicazioni che non hanno richieste assolute di banda ma che hanno
bisogno di una priorità maggiore del normale traffico.
3.3 SCHEDULING E ALGORITMI
Per implementare il DiffServ si necessita di una gestione ottimale delle code
presenti nei routers e per farlo bisogna ricorrere ad opportune procedure di
scheduling. Lo Scheduling è il meccanismo con il quale si programma in quale
sequenza e modo devono essere servite le code, nel caso di buffer multiplo, o i
pacchetti, nel caso di buffer singolo. Nel Test-bed sperimentale che verrà descritto
dettagliatamente nel Capitolo 3 sono presenti due router Juniper provvisti di
quattro code e quindi gli algoritmi che più interessano sono quelli a buffer
multiplo.
79
__________________________________________________________________
Figura 16: Struttura di un router a buffer multiplo con queuing e scheduling
La maggior parte degli algoritmi a buffer multiplo sono basati sulla tecnica
Round-Robin perchè è la più adatta quando si vogliono isolare più flussi. Il
funzionamento del Round-Robin è il seguente: lo scheduler scorre tutte le code
ciclicamente e se quella che sta analizzando non è vuota spedisce il primo
pacchetto presente, altrimenti passa alla coda successiva. Questo algoritmo
dipende dalla lunghezza media dei pacchetti presenti nelle code e non dalla
lunghezza effettiva. Per ovviare questo problema viene introdotto il cosiddetto
quantum che rappresenta numero di byte che lo scheduler può spedire da ogni
coda in un determinato istante.
L’algoritmo che utilizza il quantum viene detto Deficit Round-Robin ( DRR ) e
funziona nel modo seguente: prima di servire la coda lo scheduler confronta la
grandezza del pacchetto con il valore del quantum; se il pacchetto è maggiore del
quantum non viene spedito e il quantum incrementa altrimenti il pacchetto viene
spedito e il quantum decrementato al valore della grandezza del pacchetto spedito.
3.3.1 WRR: Weighted Round Robin
Questa tecnica, che poi è quella implementata nei router Juniper utilizzati, prende
in considerazione il peso di ogni classe di servizio: i pesi determinano il numero
massimo di ottetti che possono uscire da una coda nello stesso turno. In questo
modo ad ogni coda viene riservata una percentuale di banda differente e quindi le
80
__________________________________________________________________
code a più alta priorità verranno servite più spesso rispetto a quelle con più bassa
priorità: è come se nel DRR ci fossero valori di quantum diversi per ogni coda.
3.3.2 Priority queuing
Il concetto di base di questo algoritmo è di assegnare ad ogni classe di servizio un
numero che rappresenta la sua priorità. La classe con priorità più alta sarà servita
ad ogni giro dello scheduler e, finché questa avrà pacchetti da servire, essi saranno
spediti. Non appena la coda si svuota lo scheduler passa a servire i pacchetti di
quella successiva, finché anche questi non terminano e cosi via. Quando un
pacchetto arriva nella coda con priorità minore, questa viene servita non appena lo
scheduler finisce di spedire i pacchetti del servizio corrente. Il difetto di questo
algoritmo è che le classi con priorità minore possono cadere in starvation, e cioè
non vengono servite per molto tempo in presenza di un flusso continuo di
pacchetti appartenenti a classi a priorità maggiore. Una soluzione a tale problema
è il quantum, come per il WRR, che limita il numero di ottetti che possono essere
spediti consecutivamente da una stessa coda.
3.3.3 Controllo della Congestione
Il controllo della congestione delle code interne ai router è molto importante per
ottimizzare le prestazioni di rete. Come visto precedentemente il tempo di ritardo
dei pacchetti (one-way delay), è costituito dalla somma di tre fattori di cui solo
uno è altamente variabile: il tempo di accodamento. Inizialmente è stata utilizzata
la tecnica F.I.F.O. ( First In First Out): se il ritmo di entrata dei pacchetti è
maggiore di quello di uscita, questi vengono memorizzati e quando la coda si
riempie vengono scartati. Questa tecnica è molto semplice ma ha degli svantaggi
che la rendono inefficiente nelle reti multiservizio:
81
__________________________________________________________________
-
se le code sono troppo piene i ritardi dei pacchetti aumentano
notevolmente;
-
ci possono essere problemi di sincronizzazione in quanto i pacchetti
scartati sono spesso consecutivi;
-
le sorgenti a ritmo variabile, che in alcuni momenti raggiungono
picchi alti di traffico, sono penalizzate rispetto alle sorgenti a ritmo
costante.
Di seguito vengono descritti i principali algoritmi oggi utilizzati nei router per il
controllo ottimale della congestione delle code.
R.E.D. ( Random Early Discard ): I router in cui è implementato questo
algoritmo scartano uno o più pacchetti prima che la coda si sia completamente
riempita. Ogni volta che un pacchetto arriva, l’algoritmo RED calcola la
lunghezza media della coda, avg , e il router può assumere tre comportamenti:
- se tale lunghezza è inferiore ad una soglia minima, la coda viene considerata non
congestionata e il router memorizza i pacchetti;
- se la lunghezza media è maggiore della soglia massima, la coda è considerata
congestionata e il router scarta i pacchetti con probabilità del 100%;
- se la lunghezza media si trova tra la soglia minima e massima, l’algoritmo
calcola la probabilità di scarto dei pacchetti in base alla congestione della coda.
82
__________________________________________________________________
Figura 17: Probabilità di scarto dei pacchetti al variare della lunghezza media della coda.
Come si vede in figura, all’aumentare della congestione della coda, indicata dal
parametro avg, viene scartato un numero sempre maggiore di pacchetti fino ad
arrivare alla soglia massima thmax dopo la quale tutti i pacchetti entranti vengono
scartati.
Usando lo scarto probabilistico si evita la cancellazione di pacchetti consecutivi e
la probabilità di cancellazione non è casuale ma calcolata sulla base del numero di
pacchetti del flusso di appartenenza presenti nella coda.
Lo svantaggio di questo algoritmo è che funziona male nel caso in cui i flussi che
congestionano la coda siano “non-responsive” : se infatti si è in presenza di
multimedia non adattativi, ovvero se le sorgenti non possono abbassare le velocità
di emissione, la coda rimarrà sempre congestionata e i pacchetti verranno
continuamente scartati.
Weighted R.E.D.: Questo algoritmo è una evoluzione del RED appena visto ed è
stato proposto originariamente dal CISCO. Rispetto al precedente vengono usati
differenti parametri per i vari flussi entranti: in questo modo, infatti, è possibile
differenziare la distribuzione dei pacchetti persi. Questa soluzione può non essere
però conforme al modello DiffServ, infatti con il WRED i router devono
memorizzare i parametri delle code per ogni singolo flusso e questo comporta
83
__________________________________________________________________
problemi di scalabilità, tipici delle architetture ATM per le quali è stato realizzato
questo algoritmo.
Figura 18: Andamento della funzione di probabilità di cancellazione nel WRED
RED with IN and OUT ( RIO ): Questo algoritmo è tra i primi che supportano i
servizi differenziati. Inizialmente RIO supportava due livelli di precedenza (In e
Out), ma in seguito, è stato modificato per essere in grado supportarne di più. Le
differenza rispetto alle altre metodologie riguarda soprattutto la grandezza media
delle code. A differenza del WRED, RIO calcola questo valore per ogni livello di
precedenza, ovvero il valore avgn viene aggiornato ogni volta che arriva nella coda
un pacchetto con precedenza n. In questo modo è possibile isolare le probabilità di
eliminazione per ogni livello di precedenza. Per esempio per cancellare un
pacchetto di bassa precedenza deve verificarsi un eccesso di pacchetti con lo
stesso livello, invece per eliminarne uno con alta precedenza, basta che si verifichi
un eccesso generale di pacchetti.
Per potenziare l’algoritmo RIO è previsto l’uso di differenti parametri (pmax, thmin
e thmax) per ogni livello di precedenza, come per il WRED. In questo modo,
potrebbero essere usate soglie meno rigide, per far sì che la grandezza media delle
code per i pacchetti con alta priorità possa aumentare più rapidamente rispetto al
WRED o al RED, rendendo così questo sistema applicabile nella rete.
84
__________________________________________________________________
3.3.4 Coesistenza IntServ , DiffServ
Il modello DiffServ nasce per far fronte ai problemi di scalabilità di IntServ e si
basa su un concetto completamente diverso dal suo predecessore. Nel IntServ
l’applicazione che richiede una certa QoS deve generare un’informazione di
controllo ( tramite protocollo RSVP ) per avvertire tutti i router coinvolti nel
cammino origine-destinazione di trattare il suo flusso informativo in un
determinato modo. Perchè la rete possa garantire le prestazioni richieste, ogni
router deve mantenere delle opportune informazioni di stato ( ad esempio la banda
e il buffer da riservare a un certo flusso informativo) che vengono aggiornate
durante la connessione. Nella metodologia IntServ la gestione della QoS è su base
flusso e ogni router deve avere informazioni di stato per tutti i flussi che lo
attraversano, in quella DiffServ invece viene meno la necessità di memorizzare le
informazioni di stato del singolo flusso in quanto non vi è più riservazione delle
risorse, infatti vengono definiti dei PHB. Quindi se per IntServ si hanno garanzie
maggiori delle prestazioni ma problemi di scalabilità legati al numero di flussi da
gestire, il DiffServ risulta invece essere una architettura molto meno complessa
ma tuttavia manca della capacità di “isolare” le singole richieste di QoS.
Anche se queste tecnologie sono state definite separatamente, non è detto che
debbano essere utilizzate in modo esclusivo. IntServ è efficiente nelle piccole reti,
come ad esempio le LAN, dove i flussi da gestire sono pochi e non si hanno
problemi di scalabilità; DiffServ al contrario consente la gestione della QoS per
grossi aggregati di traffico e può quindi essere implementato su reti trasporto
metropolitane o backbone. Uno scenario futuro di rete multiservizio con gestione
della QoS potrebbe essere il seguente:
85
__________________________________________________________________
Figura 19: Architettura di rete con metodogie DiffServ e IntServ
3.4 DIFFSERV OVER MPLS
Le condizioni da soddisfare per la QoS si possono riassumere come segue:
•
È necessaria l’allocazione garantita
di
una
certa
misura
di
risorse
trasmissive in tutto il percorso effettuato dai dati dell’applicazione di
interesse. Questa condizione di tipo end-to-end non deve venire meno
neanche in situazioni di congestione o malfunzionamento di nodi della
rete.E’ necessaria inoltre la funzione di Admission Control;
•
Il flusso dati dell’applicazione deve sperimentare nei nodi della rete un
trattamento specifico, scelto tra diverse possibili classi di servizio, che
rispetti determinati vincoli sulla perdita di pacchetti e sui ritardi nelle code.
La metodologia DiffServ rappresenta un primo reale passo avanti per
l’implementazione e gestione della QoS nelle reti fisse ma è anche da considerarsi
incompleta in quanto non offre le garanzie quantitative end-to-end richieste dal
primo dei due requisiti. MPLS (Multiprotocol Label Switching) è una architettura
86
__________________________________________________________________
di rete emersa negli ultimi anni e spesso viene erroneamente citata come
architettura per la qualità del servizio; in realtà essa non fornisce di per sé alcun
meccanismo per la gestione della QoS. Ciò che MPLS offre è la possibilità di
lavorare in un ambiente connection oriented, nel quale è possibile riservare risorse
ed utilizzare in modo efficiente la rete mediante applicazioni di traffic
engineering. MPLS è quindi un’architettura che può fornire il supporto per una
completa gestione end-to-end della QoS.
3.4.1 L’architettura MPLS
Un dominio MPLS è costituito da una serie di nodi contigui che supportano la
tecnologia Multiprotocol Label Switching, detti LSR (Label Switching Router). In
questo scenario sono di particolare importanza i nodi al confine del dominio, che
nella terminologia MPLS vengono chiamati LER (Label Edge Router). Essi
rappresentano l’interfaccia del dominio MPLS con il resto della rete, quindi
devono implementare sia l’algoritmo di forwarding label switching sia quello
tradizionale IP. Un altro loro compito è quello di assegnare le label al traffico in
ingresso. Un percorso effettuato dai pacchetti instradati tramite label switching
all’interno del dominio MPLS prende il nome di LSP (Label Switched Path). Da
un punto di vista funzionale, l’architettura MPLS può essere divisa (come del
resto anche l’architettura tradizionale IP) in componente di forwarding e
componente di controllo. La componente di forwarding consiste nella procedura
mediante la quale in un nodo si estraggono dai pacchetti le informazioni per
identificare l’appropriato next hop nella forwarding table. Un LER esegue il
mapping del traffico in classi di equivalenza per il forwarding (FEC), ossia in
gruppi di pacchetti che devono essere tutti inoltrati nella stessa maniera. Di
seguito associa l’etichetta ai pacchetti in base alla loro FEC di appartenenza.
All’interno del dominio MPLS, ogni LSR ha una tabella di forwarding nella quale
ad un determinato label corrisponde un next hop. L’indirizzo di destinazione
finale dei pacchetti non è più preso in considerazione nelle decisioni riguardo al
loro inoltro. Un parametro importante per la componente di forwarding è la
87
__________________________________________________________________
granularità con cui i flussi in ingresso al dominio MPLS vengono associati nelle
FEC. In linea teorica sarebbe possibile associare una diversa etichetta ad ogni
singolo flusso, ma questo comporterebbe i medesimi problemi dell’architettura
IntServ. Il pregio di MPLS da questo punto di vista è la possibilità di selezionare
arbitrariamente i criteri per l’aggregazione di più flussi in classi di equivalenza per
il forwarding.
Dal momento che solo alcuni protocolli di livello 3 (ATM, Frame Relay)
supportano la presenza di un label, si è deciso di creare in ambito MPLS un
header di 32 bit da inserire tra quello di livello 2 e quello di livello 3, detto shim
header. Tutti i protocolli di livello 3 che non prevedono la presenza di una label
(tra i quali rientra IP) possono fare uso dello shim header per trasportare le
informazioni per il label switching.
Figura 20: Shim Header MPLS
Il campo di 20 bit Label è l’etichetta vera e propria. Il campo Exp, di tre bit, è
stato riservato ad uso sperimentale ed è spesso utilizzato per il supporto della QoS
in ambito MPLS.
La componente di controllo nell’architettura MPLS consiste nelle procedure
utilizzate per scambiare informazioni di routing tra gli LSR e per convertire tali
informazioni in una tabella di forwarding. Come la componente di controllo
dell’architettura tradizionale IP, anche quella di MPLS include dei protocolli di
routing come ad esempio OSPF ( Open Shortest Path First ). Per la creazione
delle tabelle di forwarding sono però necessarie in un LSR ulteriori funzionalità
88
__________________________________________________________________
oltre ai protocolli di routing. Un LSR, infatti, deve essere in grado di creare
associazioni (bindings) tra label e FEC, informare gli altri LSR dei bindings ed
aggiornare le tabelle di forwarding in base ai bindings creati localmente e a quelli
di cui viene informato dagli altri LSR. I protocolli di routing consentono di
effettuare il passaggio da FEC a next hop; le procedure di creazione e
distribuzione dei bindings portano alla conversione da FEC a label.
Complessivamente si ottiene la relazione tra label e next hop necessaria per la
creazione delle tabelle di forwarding,
Figura 21: Procedura per la creazione della Forwarding Table
La distribuzione delle label bindings tra gli LSR viene affidata preferibilmente a
protocolli tradizionali come RSVP ma può anche essere demandata ad un apposito
protocollo detto LDP (Label Distribution Protocol).
3.4.2 MPLS e ingegneria del traffico
L’architettura MPLS è nata per aumentare le prestazioni dei nodi della rete,
introducendo per il forwarding un campo di dimensione fissa che consentisse un
processing più rapido dei pacchetti. Tuttavia questo tipo di necessità è
progressivamente venuto meno in conseguenza delle continue innovazioni
tecnologiche che hanno portato a router sempre più veloci. Il vero vantaggio di
MPLS, che non rientrava tra i suoi scopi originari, è quello di consentire ai
Service Provider di implementare il TE (traffic engineering) nelle reti,
aumentandone l’efficienza e le prestazioni. Il TE permette di bilanciare il traffico
89
__________________________________________________________________
in una rete in modo da non avere link congestionati né scarsamente utilizzati, cosa
che porta ad un pieno sfruttamento della rete, con il conseguente guadagno per i
provider che possono servire più utenza a parità di risorse. Inoltre il TE consente
l’allocazione delle risorse trasmissive per un aggregato di flussi, rendendo
possibile lo sviluppo di meccanismi di QoS end-to-end.
Figura 22: Rete MPLS
Lo sviluppo del TE ha importanti implicazioni per le procedure di routing.
Nell’architettura IP tradizionale la selezione del percorso per l’instradamento del
traffico viene effettuata minimizzando una determinata metrica, rappresentata ad
esempio dal numero di nodi attraversati o dalla somma di termini di costo
assegnati staticamente ai link. La conseguenza di ciò è uno sbilanciamento del
traffico che viene instradato per la maggior parte su percorsi preferenziali
risultando spesso soggetti a congestione. In questo contesto poco flessibile
mancano le premesse per poter sviluppare il TE. MPLS supera i limiti
dell’architettura tradizionale supportando un nuovo tipo di routing, detto
Constraint-based Routing (CR). L’idea alla base di questa innovazione sta nel
fatto che per avere un routing efficiente bisogna instradare il traffico lungo
percorsi a costo minimo, rispettando contemporaneamente determinati vincoli
(constraints) sullo sfruttamento delle risorse di rete. Per poter effettuare il CR
90
__________________________________________________________________
sono necessarie funzionalità aggiuntive nella rete, tra le quali la presenza di
protocolli di routing opportunamente estesi (come ad esempio OSPF-TE o ISISTE) per portare le informazioni relative al TE. Servono poi algoritmi per il calcolo
dei percorsi che rispettino i vincoli, ed un protocollo per l’allocazione delle risorse
esteso per il TE; il più famoso è senz’altro RSVP-TE (ReSerVation Protocol with
Tunneling Extension), che è molto utilizzato per la distribuzione dei label nelle
reti che implementano il traffic engineering e la QoS.
3.4.3 Implementazione della QoS DiffServ su MPLS
L ‘architettura MPLS grazie ai protocolli di routing estesi per fornire TE può
offrire un ambiente connection-oriented, necessario per l’implementazione della
QoS, garantendo risorse trasmissive ad aggregati di traffico ma non discriminando
i pacchetti nel trattamento ad essi riservato nei nodi. L’architettura DiffServ,
invece, permette la classificazione dei pacchetti in BA e il loro trattamento
diversificato rappresentato dai PHB. L’integrazione delle due architetture porta
quindi allo sviluppo di una meccanismo per gestire in modo completo la QoS.
Affinché MPLS possa supportare DiffServ, è necessario che gli LSR riescano a
distinguere i vari pacchetti in base al loro DSCP per inoltrarli secondo il PHB
corrispondente. Sorge allora un problema in quanto gli LSR si basano
esclusivamente sulla label dello shim header MPLS per il forwarding dei
pacchetti, e non esaminano l’header IP. Le soluzioni che sono state proposte sono
due:
- E-LSP ( Experimental bit inferred LSP ) : Viene utilizzato il campo EXP
dello shim header come sostituto del campo DSCP per portare l’informazione sul
DSCP all’interno del dominio MPLS. L’inconveniente di questo approccio
consiste nella dimensione del campo EXP, di soli tre bit contro i sei del campo
DSCP: in questo modo si possono supportare al massimo otto diversi DSCP e
quindi otto diversi PHB. Nel caso di una rete nella quale siano effettivamente
91
__________________________________________________________________
implementati o richiesti al massimo otto PHB, le funzioni DiffServ possono essere
esplicate semplicemente leggendo negli LSR il valore del campo Exp ed
assegnando di conseguenza i pacchetti al corretto BA. Questo metodo ha il pregio
di essere semplice e non richiedere alcuna segnalazione di controllo aggiuntiva.
Figura 23: I bit del campo TOS o i primi 3 bit del campo DSCP sono copiati nel campo Exp ai
bordi della rete.
- L-LSP ( Label inferred LSP ) : La seconda soluzione proposta è utile qualora
si debbano trattare più di otto PHB. In tal caso il campo Exp non è più sufficiente,
e lo shim header necessita di essere in qualche modo rivisitato per consentire il
trasporto dell’informazione sul DSCP. Si è deciso di incrementare il significato
del campo label, che deve indicare sia l’appartenenza ad una certa FEC che
l’appartenenza ad un certo BA; il campo Exp viene in questo caso utilizzato per
esprimere il valore della drop precedence, in modo da trattare i pacchetti secondo
l’opportuno PHB. Parlando ad esempio della categoria di PHB AF, nella label si
troverebbe l’informazione sullo scheduling e quindi riguardo alla coda sulla quale
instradare il pacchetto; nel campo Exp si troverebbe il valore (tra i tre possibili per
ogni classe di scheduling di AF) della drop precedence.
92
__________________________________________________________________
Figura 24: Il PHB è indicato dal valore della label mentre la drop precedence dal valore del
campo Exp.
E’ necessario far confluire i pacchetti del medesimo BA in un L-LSP comune,
poiché sono destinati tutti alla stessa coda: un L-LSP può trasportare una sola
classe di servizio. Questo modo di procedere consente di avere quanti PHB si
vogliano, a spese di una complicazione nella componente di controllo MPLS.
Infatti è necessario estendere i protocolli per la distribuzione dei binding tra label
e FEC, che adesso devono includere anche il binding tra label e PHB. La
distribuzione deve essere effettuata al momento della creazione di un L-LSP.
Le due alternative per gli LSP con supporto di DiffServ non sono mutuamente
esclusive e possono coesistere non solo a livello di dominio MPLS ma anche a
livello di un singolo link.
93
__________________________________________________________________
3.5 ARCHITETTURA GMPLS
L’architettura GMPLS è nata per far fronte ai limiti dell’architettura MPLS nelle
reti completamente ottiche di prossima generazione. Il concetto di base del
GMPLS è lo stesso del MPLS: tra lo strato 2 e lo strato 3 di ogni pacchetto viene
inserita una label e l’instradamento avviene proprio tramite questa label. In uno
scenario di rete ottica l’architettura MPLS risulta insufficiente per la gestione
degli OXC, PXC e OADM, dispositivi che svolgono commutazione nel dominio
del tempo, dello spazio e della lunghezza d’onda, ed è così stata estesa evolvendo
nell’architettura GMPLS: l’insieme dei protocolli IP che gestiscono e controllano
gli LSP che attraversano le reti ottiche a pacchetto o TDM vengono modificati ed
estesi all’interno del GMPLS.
Nell’architettura GMPLS gli LSR ( Label Switching Router ) comprendono
dispositivi che instradano su base time-slot, lunghezza d’onda o phisycal port. Le
interfacce presenti suli LSR possono essere classificate in:
- Packets Switch Capable ( PSC ): in cui l’instradamento si basa sul contenuto
del header del pacchetto, come ad esempio l’header IP;
- Layer -2 Switch Capable ( LSC ): l’instradamento avviene tramite il contenuto
del frame/cell boundaries header, come ad esempio le interfacce ATM-LSR che
instradano in base all’ ATM-VPI/VCI;
- Time Division Multiplex Capable ( TDM ): in cui l’instradamento si basa
sull’informazione contenuta in un determinato time-slot;
- Lamda Switch Capable ( LSC ): l’instradamento avviene sulla base della
lunghezza d’onda;
- Fiber Switch Capable ( FSC ): in cui l’instradamento è effettuato nel dominio
dello spazio.
Ogni LSP inizia e termina su interfacce dello stesso tipo ed un nuovo LSP può
essere annidato in un LSP già esistente ma di ordine superiore: esiste dunque una
gerarchia tra gli LSP che si basa sulla capacità di multiplazione dei nodi della rete.
94
__________________________________________________________________
Figura 25: Annidamento degli LSP
Diversi PSC-LSP possono essere annidati in un TDM-LSP e diversi TDM-LSP
possono a loro volta essere annidati in un LSC-LSP. Al vertice della gerarchia vi
sono gli FSC-LSP nei quali possono essere annidati diversi LSC-LSP. Tutti gli
LSP sono presenti nel database di routine dei protocolli di link state IS-IS/OSPF
come nuovi tipi di collegamento. Mediante la tecnica del floading ogni nodo della
rete si costruisce al suo interno un Link State Database, che contiene non solo
informazioni riguardanti i link tradizionali, con tutti i loro attributi, ma anche tutti
gli LSP attivi. Poichè con il DWDM si possono avere molti link paralleli con
conseguente aumento delle dimensione del Link State Database, nell’architettura
GMPLS è stato introdotto il concetto di Link Bundling, secondo il quale vengono
aggregati gli attributi di collegamento di numerosi collegamenti paralleli, aventi
caratteristiche simili, e poi assegnati ad un singolo Link (Bundling Link). Un altro
cambiamento introdotto nel GMPLS riguarda la direzionalità degli LSP.
Nell’architettura MPLS gli LSP sono unidirezionali, quindi per instaurare un LSP
bidirezionale, devono essere instaurati due LSP unidirezionali indipendenti,
questo approccio presenta diversi svantaggi:
95
__________________________________________________________________
-
Ritardo di instaurazione
-
Scelta d’instradamento
-
Dimensione dell’overhead.
In GMPLS sono stati introdotti dei metodi addizionali per permettere
l’instaurazione
di LSP bidirezionali utilizzando un singolo messaggio del
protocollo di segnalazione. Questo riduce il tempo di ritardo essenzialmente a un
solo round-trip tra il nodo di potenza ed il nodo di destinazione, più il tempo di
elaborazione.
Poichè il GMPLS permette le commutazioni di fibra, di lunghezza d’onda e di
time-slot, la label è stata necessariamente modificata. Infatti essa non è più
associata solo ad un determinato pacchetto, ma anche ad una fibra, ad una
lunghezza d’onda o ad un time-slot. Le informazioni che una generalized label
deve contenere riguardano:
- LSP encoding type: indica il tipo di label a cui deve essere associato l’LSP;
- Switching type: indica il tipo di commutazione che si può effettuare su un
determinato link;
- Payload Identifier: indica il tipo di payload trasportato da quel determinato LSP.
96
__________________________________________________________________
Capitolo 4
STRUTTURA ED ELEMENTI DEL
TEST- BED
In questo capitolo vengono illustrati nel dettaglio la struttura del test-bed
utilizzato e le strumentazioni che lo costituiscono.
Particolare attenzione viene data ai Router Juniper M10, nucleo del test-bed, alle
loro funzionalità ed al linguaggio proprietario di configurazione JUNOS.
Verranno descritti i principi di funzionamento del sistema da me proposto e
verranno analizzate in dettaglio le parti hardware e software utilizzate per lasua
effettiva realizzazione.
97
4.1 TEST-BED MPLS PER LE MISURE OGGETTIVE DELLA
QUALITA’ DEL SERVIZIO.
4.1.1 Struttura del test-bed
Al fine di valutare il comportamento della tecnica E-LSP12 dell’ approccio
“DiffServ over MPLS” è stato implementato un test-bed sperimentale. Il test-bed
realizzato
in
collaborazione
con
l’ISCOM
(Istituto
Superiore
delle
Comunicazioni) è rappresentato in figura e prevede la collaborazione di tre
laboratori distinti:
•
Trasmissioni ottiche (ufficio III ISCOM)
•
Valutazione della QoS multimediale (ufficio IV ISCOM)
•
Reti ottiche dinamiche (primo piano ISCOM)
Tra i laboratori è stato creato un collegamento ad hoc in fibra ottica multimodale.
Laboratorio trasmissioni ottiche.
In questo laboratorio è attestato un collegamento all’anello ottico Roma-Pomezia;
il link che collega in anello Roma e Pomezia è lungo 24 Km “one way” ed è
costituito da 80 fibre di cui 30 ds (dispersion shifted) 20 nzd (non zero dispersion)
e 30 sf.
A questo link ottico sotto test sono connessi i due Router Juniper M10.
12
Experimental bit Inferred LSP: Viene utilizzato il campo EXP dello shim header come
sostituto del campo DSCP per portare l’informazione del DSCP all’interno del dominio MPLS.
__________________________________________________________________
Link sotto test
Link di collegamento fra laboratori in fibra ottica mmf
Link di collegamento in fibra ottica smf
Link di collegamento FastEthernet
MULTIMEDIA SERVER
SERVER CHARIOT
Hub
conv e/o
Laboratorio valutazione della QoS multimediale – Ufficio IV ISCOM
1,25 GBE
ANELLO OTTICO
ROMA-POMEZIA
Fibra ottica mmf
Fibra ottica smf
1550
Laboratorio trasmissivo reti ottiche
-ISCOM-
conv e/o
fe
CLIENT-1 CHARIOT
fe
1,25 GBE
1,25 GBE
GENERATORE-ANALIZZATORE DI
CLIENT-2 CHARIOT
laboratorio reti ottiche dinamiche – Ufficio III ISCOM
Figura 4.1: Schema del Test-Bed utilizzato per la valutazione Oggettiva della QoS
Laboratorio reti ottiche dinamiche.
In questo laboratorio sono presenti:
•
due router Juniper M10 ed un terzo sotto test.
•
un generatore/analizzatore di traffico Anritsu MD1230A
•
un attenuatore ottico variabile Anritzu MD9610B
•
due Client Chariot
•
un convertitore elettro-ottico che collega con il laboratorio per la
valutazione della QoS multimediale.
99
__________________________________________________________________
Laboratorio per la valutazione della QoS multimediale.
In questo laboratorio è presente il Server Chariot, col quale si effettuano le misure
oggettive, e tutta la strumentazione che verrà utilizzata in seguito per le prove
soggettive.
4.1.2 Presentazione del Test-bed
All’ anello ottico, cui sono collegati i due router Juniper, viene inserito il
generatore analizzatore di traffico Anritsu presente nel “laboratorio reti ottiche
dinamiche”. Questo strumento è dotato di due interfacce ottiche GbE sulle quali è
possibile generare traffico fino a 800 Mbit/s ed otto interfacce FastEthernet in
grado di produrre traffico per 100 Mbit/s ognuna.
Tramite questo generatore è possibile saturare fino al limite (1,25 Gbit/s) il link
ottico sotto test, avendo così la possibilità di effettuare delle misure in ogni
condizione di carico della rete.
Il traffico di saturazione può essere etichettato in accordo con l’approccio
DiffServ.
Ai due router Juniper M10 sono stati collegati due PC, il primo è un Atlon dotato
di un processore MD con CPU da 1.40 GHz, 512 MB di RAM, sistema operativo
Microsoft Windows XP Professional versione 2002 e Service Pack 1, scheda di
rete Intel® PRO/100 VE Network Connection; il secondo PC è una Dell
Workstation PWS 650 con doppio processore Intel® Xeon 240TM, clock della
CPU a 2.40GHz, 1,25 GB di Ram, sistema operativo Microsoft Windows XP
PRO versione 2002 e Service Pack 1, scheda di rete Intel® PRO/1000 MTW
Network Connection.
Tramite un collegamento in fibra multimodale il laboratorio dell’ufficio III è stato
collegato con quello al sesto piano della QoS multimediale dell’ufficio VI.
In questo laboratorio è presente un server di dati realizzato mediante l’istallazione
del software Chariot prodotto dalla NetIQ. La versione client di questo
100
__________________________________________________________________
programma è stata istallata sui PC del laboratorio 1S. Dopo alcune prove inziali
tra tutti i PC cui era stata istallata la versione client la scelta è andata su due PC
descritti sopra. Mediante l’interazione tra di queste tre macchine (server più due
client) è possibile effettuare uno scambio di traffico dati tra i client collegati ai
due diversi router e dunque alle estremità dell’anello, e misurarne i parametri
significativi col server. I dati scambiati posso essere di diverso tipo, ad esempio
video conferenza realizzata mediante sessione Netmeeting, “download” di dati di
tipo FTP (File Transfer Protocol), sessioni di VoIP (Voice over IP) etc; inoltre
tramite il server Chariot è possibile decidere il rate del traffico inviato e marcare il
campo DSCP dei pacchetti IPv4 in accordo con l’approccio DiffServ.
Quando i flussi etichettati dal Chariot giungono ad uno dei due router viene subito
esaminato il campo DSCP, questo determina il trattamento che subirà il pacchetto.
In seguito il pacchetto viene inoltrato sull’interfaccia GigabitEthernet di uscita
verso l’interfaccia GigabitEthernet di ingresso dell’altro router il quale, in seguito
ad un ulteriore studio del campo DSCP, adotterà una opportuna politica di QoS ed
instraderà i flussi verso la sua interfaccia di uscita che in questo caso è una
FastEthernet.
Circa la descrizione del test-bed in esame va osservato che la totalità del traffico
che entra ed esce dalle interfacce dei router Juniper, ovvero il traffico di
saturazione dell’Anritsu e quello di test del Chariot, è traffico etichettato; i due
router non svolgono alcuna operazione sui pacchetti ma applicano semplicemente
il PHB relativamente alla classe di servizio cui appartengono. I due router Juniper
sono configurati come Core Router.
101
__________________________________________________________________
Figura 4.26: Particolare del laboratorio reti ottiche dinamiche
Figura 4.27: Particolare del laboratorio reti ottiche dinamiche
102
__________________________________________________________________
4.2 ELEMENTI DELLA RETE
4.2.1 Router Juniper M10
Per la realizzazione del test-bed sono stati impiegati due router Juniper M10.
Ogni router può montare fino ad 8 PIC (Physical Interface Card), ognuna delle
quali ospita una o più interfacce dello stesso tipo.
Figura 4.4: Particolare delle PIC del router Juniper M10 e degli attenuatori variabili.
I router utilizzati nel test-bed sono equipaggiati entrambi delle stesse schede:
103
__________________________________________________________________
•
Una PIC con 4 interfacce Fast Ethernet (100 BASE TX), come risorse
trasmissive vengono utilizzati cavi in rame intrecciati, e si può trasmettere
fino a 100Mbit/s. Nei router sono state indicate con le sigle fe-0/1/0, fe0/1/1, fe-0/1/2, fe-0/1/3 da sinistra verso destra.
•
Due PIC con 1 interfaccia Gigabit Ethernet (1000 BASE LX – 1550 nm)
ciascuna. Il mezzo trasmissivo di questo modulo è costituito da fibra ottica
utilizzata in terza finestra. La fibra viene di solito impiegata per
collegamenti ad alta velocità e molto capacitivi su reti LAN e MAN, va
però osservato che esistono dei moduli Gigabit Ethernet con portante in
rame. Nei router le interfacce sono state indicate con le sigle ge-0/0/0
quella di destra che si collega all’anello Roma-Pomezia, e ge-0/2/0 quella
di sinistra che si collega al generatore/analizzatore di traffico Anritsu.
Le interfacce disponibili appena descritte dei router sono state utilizzate in
questo modo:
™ 2 Fast Ethernet ed 1 Gigabit Ethernet sono state collegate al
generatore/analizzatore di traffico Anritsu, per congestionare la
rete e metterci nelle probabili condizioni in cui può trovarsi una
rete di trasporto metropolitana.
™ 1 Fast Ethernet è stata collegata ai Client Chariot per misurare lo
scambio di traffico etichettato tra i due terminali di rete.
™ 1 Gigabit Ethernet è stata utilizzata per collegare i due router con
l’anello Roma-Pomezia (ge-0/0/0).
™ Per quanto concerne la quarta porta Fast Ethernet disponibile, nel
primo router è stata collegata ad un convertitore elettro-ottico per
permettere il collegamento tra i due laboratori, mentre nell’altro
router all’interfaccia è connesso un access point.
104
__________________________________________________________________
4.2.2 Architettura generale dei router
L’ architettura complessiva
dei router è costituita essenzialmente da tre
componenti fondamentali:
1. Componente di controllo: gestisce le politiche di instadamento e dunque si
occupa del calcolo del percorso migliore che ogni pacchetto deve fare.
2. Componente di forwarding: gestisce l’inoltro dei pacchetti dalle porte di
ingresso alle porte di uscita per la trasmissione attraverso la rete.
3. Componente di memorizzazione ed accoramento dei pacchetti: il sistema
di memorizzazione ed accoramento ha la funzione di memorizzare
temporaneamente i pacchetti in grandi buffer per assorbire i burst di traffico.
Figura 4.28: Architettura generale di un router
105
__________________________________________________________________
Attualmente le funzioni di controllo e quelle di forwarding sono totalmente
separate in modo da evitare colli di bottiglia e mantenere costantemente
prestazioni elevate.
La componente di controllo viene denominata Routine Engine (R.E.) ed è
realizzata mediante software specifico, provvede ad implementare protocolli di
routing ed a creare le tabelle di forwarding. Le funzionalità della R.E. sono svolte
in maniera indipendente dal traffico.
La componente di forwarding è realizzata completamente i hardware mediante
l’utilizzo di dispositivi di dispositivi dedicati e l’architettura complessiva viene
chiamata Packet Forwarding Engine (P.F.E.).
Le principale funzioni svolte dal Packet Forwarding Engine sono:
9 Analisi ed elaborazione dell’intestazione dei pacchetti.
9 Consultazione delle tabelle di routing per le decisioni di instradamento.
9 Classificazione ed accoramento dei pacchetti.
La capacità di forwarding di un router dipende dalla velocità di identificazione
dell’interfaccia di uscita fatta tramite la consultazione delle tabelle di
instradamento.
Il trasferimento dei pacchetti dalle porte di ingresso alle porte di uscita è attuato
mediante sistemi di interconnessione (switch fabric) e di accodamento dei
pacchetti. La parte di interconnessione può essere realizzata con diverse soluzioni:
9 Bus
9 Matrici Crossbar
9 Memorie condivise
4.2.3 Router Juniper M10: architettura
L’architettura hardware della serie M di Juniper segue il modello logico di
architettura centralizzata, con P.F.E. a processori paralleli e condivisi, indipendente
dalla Routing Engine.
Questo tipo di architettura è costituita logicamente da una parte centrale che
contiene una matrice di connessione (switch fabric), da un insieme di P.F.E. a
106
__________________________________________________________________
processori paralleli e da una memoria condivisa di grandi dimensioni. Il Router
Juniper M10 presenta un unico Packet Forwarding.
La componente di forwarding del router Juniper M10 è implementata mediante
processori di pacchetto ASIC (Application Specific IntegratedCircuit) ed è
composta da:
1- Physical Interface Card (PIC): connettono fisicamente il router alla fibra
ottica o agli altri mezzi trasmessivi come i cavi di rete. Un controllore
ASIC effettua specifiche funzioni per ogni tipo di PIC, a seconda del
mezzo trasmissivo.
2- Flexible PIC Concentrator (FPC): ospita le PIC e fornisce la memoria
condivisa per il
processamento dei pacchetti entranti. Le F.P.C.
contengono anche due I/0 Manager ASIC che dividono i pacchetti entranti
in blocchi di memoria (celle) e li riassemblano quando sono pronti per la
trasmissione.
3- Internet Processor II: è responsabile delle decisioni di forwarding.
4- Distributed Buffer Manager ASIC: sono due, uno di essi distribuisce le
celle di dati nella memoria condivisa delle Flexible Pic Concentrator,
l’altro informa le F.P.C. delle decisioni prese dall’Internet Processor II per
i pacchetti uscenti.
Il funzionamento della Packet Forwarding Engine può essere compreso seguendo il
percorso di un pacchetto attraverso il router. I pacchetti arrivano ad una interfaccia
PIC di ingresso, il controller della PIC effettua alcune operazioni di controllo, come
ad esempio la verifica del checksum, e poi l’interfaccia PIC cede i pacchetti alla
FPC che a sua volta li dirige verso l’I/0 Manager ASIC. L’I/0 Manager processa
l’header dei pacchetti identificando se si tratta di un pacchetto IPv4 o di un home
MPLS, li divide in celle di 64 byte e passa ogni blocco di memoria ad un
Distributed Buffer Manager ASIC; quest’ultimo le distribuisce su tutte le memorie
condivise posizionate su ogni FPC e contemporaneamente invia l’header del
pacchetto all’Internet Processor II per il lookup. Se l’unità di dati è un pacchetto
IPv4 il Distributed Buffer Manager invia al processore ASIC le seguenti
informazioni: interfaccia di arrivo, indirizzo IP di destinazione, indirizzo IP di
107
__________________________________________________________________
origine, il numero di protocollo ed il campo porta di origine e destinazione nel caso
di UDP e TCP. Se, invece, il pacchetto è MPLS l’unico valore da estrarre è la label
in testa al pacchetto. A questo punto l’Internet Processor II accede alla forwarding
table per individuare l’interfaccia di uscita e lo specifico next-hop, quindi notifica al
secondo Distributed Buffer Manager ASIC la decisione presa. Quest’ultimo invia la
notifica alla FPC che ospita la giusta interfaccia di uscita. Ogni porta di uscita ha
quattro code, ognuna delle quali ha a disposizione parte della banda del
collegamento; quando un pacchetto giunge in testa alla coda ed è pronto per la
trasmissione viene riassemblato dall’I/O Manager e poi inviato alla specifica PIC
per la trasmissione in linea.
In un’architettura centralizzata, come quella del Router Juniper M10, le risorse di
processamento, logicamente centralizzate, sono condivise da tutte le schede di linea
consentendo un’utilizzazione molto efficace delle stesse. Infatti, non essendo
necessario che le informazioni di forwarding vengano distribuite su ogni line card,
gli aggiornamenti della tabella di forwarding non provocano interruzioni delle
operazioni di ogni scheda di linea. In un’architettura distribuita invece
l’aggiornamento della tabella di forwarding centrale determina un aggiornamento di
tutte le forwarding table residenti sulle schede i linea che quindi incorrono in un
periodo di blocco pari al tempo di aggiornamento della propria tabella di
forwarding.
Figura 4.29: Architettura del router Juniper M10
108
__________________________________________________________________
I due router Juniper sono configurati con il protocollo OSPF ed RSVP per la
creazione e l’aggiornamento delle tabelle di routing e la riservazione delle risorse;
inoltre sulle GigabitEthernet ge-0/0/0 (anello Roma-Pomezia), oltre al protocollo
IP, è stato configurato anche il protocollo MPLS ed i relativi LSP unidirezionali.
Figura 4.30: Foto di uno dei due router Juniper M10
4.2.4 Software JUNOS
Il software JUNOS gira sulla Routing Engine del router ed è costituito da tanti
processi software che: supportano i protocolli di routing, controllano le interfacce
ed inoltre permettono la gestione di tutto il router. I processi girano tutti sul
Kernel che permette la comunicazione tra i processi ed ha un collegamento diretto
con il software della Packet Forwarding Engine. Il software Junos permette di
configurare i protocolli di routine e le proprietà delle interfacce, può anche essere
usato per monitorare il router e analizzare i problemi di routing o di connessione
della rete. L’insieme di tutti i processi che costituiscono lo Junos è suddiviso in
diversi gruppi:
109
__________________________________________________________________
- Processo protocolli di routing: questo processo controlla i protocolli di
routing configurati sul router ed è responsabile dell’inizializzazione dei
protocolli stessi. Il processo mantiene aggiornate le tabelle di routing e dalle
informazioni ottenute dai protocolli, determina gli instradamenti opportuni
verso il router di destinazione e installa tali route nella Routing Engine
forwarding table. Svolte queste operazioni, il processo esegue la routing
policy che permette la gestione delle informazioni di routing scambiate tra i
protocolli di routing e la tabella di routing. I protocolli di routing supportati
dallo Junos sono il IS-IS, OSPF, RIP, ICMP, BGP, i procolli multicast come
IGMP e SAP/SDP, e i protocolli relativi all’architettura MPLS quali MPLS,
RSVP e LDP.
-
Processo interfaccia: tale processo permette di configurare e controllare le
interfacce fisiche e logiche installate nel router. Il processo di intefaccia dello
Junos comunica, attraverso il kernel Junos con il processo di interfaccia nella
Packet Forwarding Engine che abilita il software Junos ad analizzare e
tracciare lo stato e la condizione delle interfacce del router.
-
Processo chassis: permette la configurazione e il controllo delle proprietà
del router, inclusi allarmi e sorgenti di clock.
-
Processo di gestione: nel sofware Junos esiste un processo per il controllo
dei processi che attivato controlla tutti i processi sofware che girano sul
router. Nel momento del boot del router è proprio questo processo a far
partire tutti i processi software e la CLI ( Command-Line Interface ).
-
Routing Engine Kernel: è l’infrastuttura base sulla quale si appoggiano tutti
i processi software dello Junos; mette a disposizione un link per la
comunicazione tra le tabelle di routing e la Routing Engine forwarding table
ed è inoltre responsabile di tutte le comunicazioni tra Routing Engine e
Packet Forwarding Engine.
110
__________________________________________________________________
Per configurare il router viene messa a disposizione una interfaccia utente/Junos
detta CLI ( Command-Line Interface ) che si attiva quando finisce il boot del
router. La linea di comando CLI fornisce i comandi per la configurazione del
router e del software Junos e sono previste due modalità di funzionamento:
-
operational: è la modalità di default della CLI. Essa permette di monitorare
le operazioni che sta svolgendo il router o il traffico che fluisce in esso, sia di
servizio che di dati.
-
configuration: con il comando “configure” si passa dalla
modalità
operational alla modalità configuration ed è proprio in essa che è possibile
configurare tutte le proprietà messe a disposizione dal software Junos, come
la configurazione delle interfacce, dei protocolli di routing e nel caso di
questo lavoro le classi di servizio.
Il software Junos presenta molte caratteristiche simili con il software Ios
proprietario delle macchine CISCO ma in particolare differisce da quest’ultimo
in quanto “meno ad alto livello”. Nel software Ios una buona parte di comandi
gode di un alto grado di aumatizzazione, ad esempio quando si abilita un
protocollo su un’interfaccia non si ha poi la necessità di abilitare la stessa
interfaccia nella dichiarazione del protocollo, nel software Junos invece questo
modo di procedere è obbligatorio.
Circa la gestione del management il software Ios ha un protocollo proprietario
simile al protocollo SMNP ma più semplice e user frendly nel software Junos
invece si deve ricorrere all’impiego dell’ SMNP in modo pienamente conforme
all’RFC di riferimento.
111
__________________________________________________________________
4.2.5 Generatore/analizzatore di traffico
Per produrre il traffico etichettato di simulazione è stato impiegato un
generatore/analizzatore di traffico Anritsu. Questo dispositivo è composto da
quattro moduli ma quello utilizzato ne ha attivi due: uno con 8 FastEthernet e uno
con due GigabitEthernet13 (a 1310 nm ). Delle 8 FastEthernet ne sono state
utilizzate quattro, due per router, mentre sono state impiegate tutte e due le
GigabitEthernet (vedi figura). Ogni porta è gestita in modo separato, può produrre
qualsiasi tipo di traffico indipendentemente dalle altre e la velocità di trasmissione
può essere settata dall’operatore variando il tempo di inter-frame. Il traffico
generato per saturare la rete in esame è il seguente:
- 2 GigabitEthernet sono state configurate per generare traffico Best-Effort al
massimo del throughput: 800 Mbit/s;
- 1 FastEthernet è stata settata per generare traffico Assured-Forwarding al massimo
della velocità di trasmissione, ovvero 80 Mb/s;
- 1 FastEthernet è stata impiegata per il traffico Expedited-Forwarding con una
velocità di trasmissione di 32 Mb/s.
I motivi per cui la descrizione è così dettagliata nascono dal fatto che questi valori
rappresentano i limiti massimi cui si è spinto il carico di rete per garantire la qualità
del servizio rimanendo entro i limiti forniti dalle normative di riferimento. Tutto ciò
verrà spiegato nel dettaglio in seguito.
13
Le lunghezze d’onda delle GigabitEthernet dei router Juniper e del generatore di traffico
Anritsu sono diverse ( III° e II° finestra) ma la comunicazione può avvenire lo stesso grazie
all’ampio spettro di guadagno dei fotodiodi in ricezione.
112
__________________________________________________________________
Figura 4.31: Particolare dei moduli già configurati per le prove.
Figura 4.32: throughput prodotto dalle GigabitEthernet destinato alla saturazione dell’anello
Roma-Pomezia
113
__________________________________________________________________
4.2.6 Chariot: Server e Client
Per la valutazione della QoS in termini di prestazioni di rete è stato utilizzato il
sistema software client-server Chariot. Il software Server è stato installato nel
laboratorio per la valutazione della QoS multimediale mentre il software Client su
due PC presenti nel laboratorio reti ottiche dinamiche. Il funzionamento del sistema
software è il seguente:
•
Tramite il Server si stabilisce il tipo di traffico che i due Client si devono
scambiare, i protocolli di trasporto, le velocità di trasmissione e la classe
di servizio dei pacchetti;
•
Dopo aver configurato il tipo di traffico,
il Server stabilisce una
connessione TCP/IP con i Client e simula la sessione, impostata
precedentemente, tra i due Client;
•
Terminata la sessione, di durata anch’essa configurabile sul Server, i
Client restituiscono al Server i dati ricavati sui singoli pacchetti
riguardanti i tempi di interarrivo, le perdite ecc.
•
Il Server, ottenuti tutti i dati disponibili, calcola i parametri che
caratterizzano le prestazioni di rete quali one-way delay, jitter,
throughput, perdite ecc.; i risultati vengono poi presentati all’operatore
sia graficamente sia in forma tabulare.
N.B. la sessione TCP/IP iniziata dal Chariot verso i client, dopo aver configurato
il traffico viene usata esclusivamente per istaurare una connessione, ma non
necessariamente tenuta durante la prova. Ad esempio, se si procede all’apertura di
una sessione Netmeeting tra due client, la sessione comincerà sul protocollo
TCP/IP e una volta avviata i dati Netmeeting verranno scambiati su RTP, i risultati
ottenuti verranno poi ritrasmessi al Chariot con una nuova sessione TCP.
114
__________________________________________________________________
4.2.7 U.S.Robotics Wireless AP US5450
Per una maggiore completezza delle prove è stato introdotto un access point per lo
studio del mantenimento della qualità del servizio anche su un supporto di tipo
Wi-Fi in considerazione del crescente impiego di questo tipo di dispositivi. Le
prove vere e proprie che implicano l’uso di questo apparecchio saranno quelle di
tipo soggettivo che verranno spiegate in dettaglio nel prossimo capitolo, per ora ci
si limita a fornire una breve descrizione delle caratteristiche di questo dispositivo.
Si tratta di un dispositivo Wireless con doppia antenna e rate in trasmissione fino
a 54 Mbit/s. E’ stato configurato con setting mode di tipo access point, non è stata
introdotta nessuna chiave di crittografia WEP ed è stato utilizzato il canale 11 in
modo statico. Il rate è settato in modo da operare dinamicamente.
Figura 4.33: U.S. Robotica Wireless AP 5450
115
__________________________________________________________________
4.2.8 Anrtitsu MN9610B
Il dispositivo Anritsu MN9610B è un attenuatore ottico con attenuazione
regolabile dall’operatore. E’ stato impiegato per attenuare la potenza ottica
generata dall’Anritsu MD1230A. Nel test-bed il percoso ottico Roma-Pomezia
diventa un anello poiché viene chiuso tramite l’analizzatore generatore di traffico,
la lunghezza delle fibre che uniscono l’MD1230A con le PIC ottiche del router è
molto breve ed il segnale viene attenuato in maniera trascurabile, si genera così
una situazione fortemente sconsigliata dai manuali del router. Per ovviare a questo
problema sono state analizzate tre soluzioni differenti: la prima consiste nel porre
un attenuatore ottico statico direttamente sull’attacco della fibra in trasmissione, la
seconda consiste nel collegare l’MD1230A ai router tramite l’impiego di rocchetti
di fibra di 15 Km messi a disposizione dalla Fondazione Bordoni, la terza ed
ultima quella di impiegare in modalità passante gli attenuatori regolabili Anritsu
MN9610B. Per le prove oggettive di cui si parlerà tra breve è stata scelta la prima
soluzione, la terza è stata adottata durante la conferenza NGI e verrà spiegata più
avanti.
4.3 PRINCIPIO DI FUNZIONAMENTO DEL SISTEMA
Passiamo ora a descrivere nel particolare il principio di funzionamento del sistema
di protezione da me proposto.
La topologia di rete su cui si è realizzato il lavoro è di tipo lineare punto-punto. Ai
capi del collegamento vi sono due router Juniper M10 la cui configurazione
completa sarà riportata in appendice. La struttura del sistema è mostrata in figura.
116
__________________________________________________________________
ROUTER 1
LINEA DI SERVIZIO
PXC
PXC
ROUTER 2
LINEA DI BACKUP
LINUX BOX
LINUX BOX
Traffico dati
Collegamenti Fast Ethernet
Collegamento ottico Gbe primario
Collegamento ottico Gbe Secondario
CLIENT A
CLIENT B
Figura 0.11 : Topologia di rete utilizzata
Ricordando quanto detto sulle diverse tecniche di protezione esaminate nel terzo
capitolo, è possibile rivedere in questo schema un classico sistema di protezione
1:1. Si tratta di fatto di un meccanismo hardware di ridondanza del collegamento
in fibra ottica. In caso di interruzione del link di servizio, il router invia un
messaggio di allarme ad un determinato indirizzo, su una determinata porta.
Gli indirizzi a cui viene inviato il pacchetto di allarme sono quelli corrispondenti
ai PC di management opportunamente configurati. E’ di enorme importanza
sottolineare che tutto il traffico utile alla gestione del sistema si trova
costantemente fuori banda. Ciò è stato reso possibile utilizzando la Fast Ethernet
di management di cui sono forniti i Router Juniper M10, come ogni altro apparato
di telecomunicazioni. E’ stato possibile così, separare il piano di controllo dal
piano dati.
117
__________________________________________________________________
Figura 0.12 : Interfaccia di management
Il protocollo utilizzato per la gestione dell’allarme è il Simple Network
Management Protocol (SNMP). La parte di configurazione relativa alla gestione
dell’allarme è di seguito riportata (l’indirizzo 192.168.200.110 è appartente alla
sottorete di management).
syslog {
user * {
any emergency;
}
host 192.168.200.110 {
any notice;
port 7574;
}
file messages {
any notice;
authorization info;
}
file cli {
interactive-commands any;
}
Figura 0.13 : Configurazione relativa all'invio dell'allarme
Ogni apparato di telecomunicazioni è dotato di una serie di allarmi gestibili da
remoto. Dopo un attento studio, è stato possibile riconoscere un allarme capace di
118
__________________________________________________________________
rilevare uno stato di ‘fuori servizio’ del link ottico roma-pomezia: LOL (loss of
Light) - SNMP TRAP_LINK_DOWN.
La gestione di questo allarme è configurabile all’interno del software JUNOS
sotto il campo SYSLOG.
Il messaggio di allarme LOL viene inviato nel momento in cui viene percepita una
mancanza di potenza ottica sull’interfaccia sotto test. Tale allarme viene inviato
nello stesso istante sia dal router in ricezione che dal router in trasmissione
evitando così l’esigenza di implementare un protocollo di comunicazione tra RX e
TX sul piano di controllo. Ciò è possibile in quanto, essendo i collegamenti in
fibra ottica bidirezionali su due fibre, entrambe le interfacce dei router terminali
sono dotate di un apparato di ricezione che percepisce la mancanza di potenza in
caso di guasto. Questo tipo di allarme viene inviato in tempo reale al momento del
Link failure.
I test da me effettuati sono stati interamente eseguiti simulando la rottura su una
delle due fibre ottiche che costituisce il collegamento tra i due router Juniper.
Anche in questa situazione l’allarme viene inviato da entrambi gli apparati
terminali, infatti, nel momento in cui avviene un guasto su una delle due direzioni,
l’interfaccia in ricezione percepisce il guasto ed istantaneamente passa nello stato
di down, cessando di trasmettere potenza ottica sulla fibra di ritorno. In questo
modo anche il router a monte del guasto non ricevendo più potenza ottica invia
l’allarme LOL rendendo possibile, anche in questo caso, la coordinazione della
fase di scambio senza l’attivazione di un protocollo esplicito di comunicazione tra
i due PC di controllo.
In Figura 0.1414 è mostrato ciò che viene percepito dalla sottorete di
management, in caso di link-failure. L’immagine è stata ottenuta grazie
all’utilizzo di un analizzatore di protocollo ( ETHEREAL ).
119
__________________________________________________________________
Figura 0.14 : Dettaglio relativo all'allarme ‘Loss Of Light’
Sulle due linux box, collegati ai router con collegamenti Fast Ethernet, è stato
implementato un software in linguaggio C, capace di eseguire le seguenti
operazioni:
♦ Ricevere il messaggio proveniente dal router
♦ analizzare il messaggio
♦ Gestire la commutazione degli switch ottici nel caso in cui il messaggio
ricevuto venga riconosciuto come allarme.
La commutazione degli switch ottici è permessa tramite la gestione diretta della
porta parallela dei pc di management. Gli switch hanno il compito di deviare tutto
il traffico dalla risorsa primaria verso la risorsa di back up eliminando di fatto il
fuori servizio. La spiegazione dettagliata del Software utilizzato verrà fornita nel
seguito del capitolo. Le fasi appena descritte sono riportate cronologicamente in
Figura 0. nella pagina seguente.
120
__________________________________________________________________
Situazione di partenza
ROUTER 1
PXC
LINEA DI SERVIZIO
PXC
ROUTER 2
LINEA DI BACKUP
CLIENT A
LINUX BOX
LINUX BOX
CLIENT B
Guasto della risorsa primaria
ROUTER 1
PXC
LINEA DI SERVIZIO
PXC
LINEA DI BACKUP
CLIENT A
LINUX BOX
CLIENT B
LINUX BOX
Invio messaggio di allarme
ROUTER 1
PXC
PXC
LINEA DI BACKUP
SNMP
CLIENT A
LINEA DI SERVIZIO
LINUX BOX
ROUTER 2
SNMP
LINUX BOX
CLIENT B
Commutazione e ripristino del servizio
ROUTER 1
PXC
LINEA DI SERVIZIO
PXC
LINEA DI BACKUP
CLIENT B
CLIENT A
LINUX BOX
LINUX BOX
Figura 0.15 : Fasi cronologiche del sistema di protezione in caso di guasto del link di servizio
121