Virtualizzazione di reti wireless definite a livello software

Transcript

Virtualizzazione di reti wireless definite a livello software
Scuola Politecnica e delle Scienze di Base
Corso di Laurea in Ingegneria Informatica
Elaborato finale in Teoria dei Segnali
Virtualizzazione di reti wireless definite a
livello software
Anno Accademico 2013 / 2014
Relatore:
Prof. Francesco Verde
Candidato:
Roberto Fummo
matr. N46/000160
Alla mia famiglia e ai miei amici, fonti
di supporto e motivazione durante
questo percorso..
Indice
Indice
Introduzione
Capitolo 1: Approccio SDN e NFV
1.1 Software-Defined Networking
1.1.1 Nuova architettura di rete
III
4
5
6
7
1.2 Network Function Virtualization
1.2.1 Benefici di NFV
9
11
1.3 Sinergie tra SDN e NFV
13
Capitolo 2: Applicazione di SDN alle reti wireless
2.1 Software-Defined Wireless Networking
2.1.1 Virtualizzazione
2.1.2 Quality of Experience
2.1.3 Selezione dell’accesso alla rete
15
16
18
20
22
2.2 Architettura SDWN
23
2.3 C-RAN
2.3.1 Vantaggi di C-RAN
2.3.2 Applicazioni concrete
27
29
32
Capitolo 3: SoftRAN e OpenRAN
3.1 Analisi delle proposte
3.2 Strategie di controllo
37
38
42
Conclusioni
Bibliografia
44
45
Introduzione
I nuovi approcci di rete rappresentati da Software-Defined Networking (SDN) e Network
Function Virtualization (NFV), applicati congiuntamente, consentono oggi di avere una
visione futura delle reti Internet basata su scenari centralizzati, mediante la
virtualizzazione dei dispositivi di rete fisici.
Lo scopo di questa tesi è quello di esplorare tali scenari e di comprendere il ruolo della
virtualizzazione dei componenti di rete, sotto forma di macchine virtuali, applicata ad un
contesto wireless. Si affronteranno le problematiche, i vantaggi e gli obbiettivi futuri
derivanti dall’applicazione dei concetti SDN nell’ambito mobile, mostrando come
un’architettura di controllo centralizzata possa oltrepassare le limitazioni poste dall’attuale
sistema reti di telecomunicazioni.
4
Capitolo 1: Approccio SDN e NFV
Nell’attuale scenario delle reti di comunicazione, il piano di controllo e quello d’inoltro
come anche le funzioni di rete, sono realizzati tramite dispositivi hardware che pongono
diverse problematiche inerenti la gestione degli utenti e delle risorse di rete, che di
conseguenza portano alla perdita d’efficienza nella struttura sottostante. Infatti, trovare lo
spazio e le strutture per accogliere i dispositivi fisici è sempre più difficile e la situazione
generale viene peggiorata dai crescenti costi energetici, dalle sfide per l’investimento di
capitali e dalla mancanza di personale in possesso delle competenze necessarie per
progettare e gestire dispositivi hardware sempre più complessi. Inoltre, la distribuzione di
un nuovo servizio di rete e l’aggiornamento di uno già esistente richiedono spesso un
intervento fisico sulla struttura, che grava di conseguenza sui costi dei servizi e sui tempi
di mercato. Peggio ancora, i cicli di vita dell'hardware molto brevi rispetto al rapido
aumento dell’innovazione tecnologica, inibiscono le entrate dovute al lancio di nuovi
servizi e vincolano l'innovazione ad un mercato sempre più chiuso e centrato sulla rete.
Gli approcci SDN (software-defined networking) ed NFV (network functions
virtualization) si propongono di affrontare queste problematiche facendo leva sulle
tecnologie di virtualizzazione IT (Information Technology) e disaccoppiando il piano di
controllo da quello dati, che viene reso programmabile, per mantenere i vantaggi di
apparati e funzionalità di rete consolidati su server standard, fornendo però una maggiore
flessibilità.
5
1.1 Software-Defined Networking
Il Software-Defined Networking (SDN) è un approccio all’organizzazione dell’architettura
di rete che permette agli amministratori di gestire i servizi attraverso l’astrazione delle
funzionalità di basso livello.
Queste funzionalità, che finora sono strettamente legate a dispositivi hardware proprietari,
organizzati seguendo un approccio monolitico, migrano verso la gestione della rete da
parte di controller SDN.
L’astrazione degli elementi di rete viene resa possibile disaccoppiando il sistema che
prende decisioni su dove il traffico debba essere spedito (piano di controllo), dal sistema
sottostante che inoltra il traffico alla destinazione selezionata (piano dati).
SDN richiede alcuni meccanismi di comunicazione tra il piano di controllo e il piano dati,
stabiliti dal protocollo OpenFlow che costituisce la cosiddetta Application Programming
Interface (API) di basso livello.
OpenFlow è definito come la prima interfaccia di comunicazione standard tra il piano di
controllo e il piano dati di un'architettura SDN. Esso inoltre, consente la gestione e
l'accesso diretto al piano d’inoltro dei dispositivi di rete (es. router e switch), sia fisici che
virtuali. Effettivamente, il fatto che questi dispositivi siano etichettati attualmente come
“monolitici e chiusi” è dovuto proprio all’assenza di un’interfaccia aperta e accessibile al
piano d’inoltro.
La separazione del piano di controllo da quello dati permette una gestione dell'inoltro dei
pacchetti più efficiente rispetto a quella che si avrebbe utilizzando i classici protocolli di
routing. La promozione e l'adozione di SDN è attuata da parte di Open Networking
Foundation (ONF), un’organizzazione fondata nel 2011, che gestisce lo standard
OpenFlow.
L’approccio SDN si basa su di un’architettura flessibile ed adattabile, cercando di
soddisfare i requisiti di banda larga e di natura dinamica delle applicazioni.
6
Venire in contro ai requisiti di mercato e garantire un’alta affidabilità e qualità dei servizi
è virtualmente impossibile con le architetture di rete tradizionali, in uno scenario di
distribuzione sovraccarico e denso come quello odierno. Le attuali architetture infatti, non
sono progettate per far fronte alle necessità degli utenti e delle aziende, essendo limitate da
alcune problematiche che affliggono la rete, tra le quali troviamo:
-La complessità della struttura di rete che conduce alla stasi del sistema;
-Le politiche inconsistenti che portano a falle nella sicurezza e a conseguenze negative;
-L’incapacità di rendere il sistema scalabile, con conseguente calo nelle prestazioni;
-La dipendenza dai venditori e conseguente mancanza di interfacce standard e aperte;
In risposta a queste diverse problematiche, l’industria delle telecomunicazioni ha
sviluppando e sta cercando di distribuire delle nuove architetture di rete basate sul
paradigma SDN.
1.1.1 Nuova architettura di rete
A causa dell’enorme diffusione dei dispositivi e dei contenuti mobili a cui si assiste
oggigiorno, l’industria delle telecomunicazioni è stata indotta a riesaminare l’architettura
di rete tradizionale. Molte reti convenzionali sono organizzate in maniera gerarchica, con
dispositivi di rete distribuiti in una struttura ad albero. Tuttavia questo tipo di
organizzazione non rispecchia le necessità di memoria e di calcolo richieste dagli ambienti
di comunicazione moderni.
7
Figura 1: Architettura SDN
L’architettura di rete basata su un approccio SDN prevede uno schema come quello in
figura 1, con controller SDN centrali situati nel piano di controllo che si interfacciano con
il piano applicazione e quello dati.
Tra i principali componenti architetturali che compongono la struttura di SDN troviamo le
SDN Application; queste sono costituite da programmi che comunicano, in modo esplicito
e programmabile, le loro esigenze di rete al controller SDN tramite un'interfaccia di alto
livello (NorthBound Interface). Una SDN Application si trova al piano applicazione ed è
composta da una SDN Application Logic e da uno o più driver NBI. Le SDN App possono
comunicare con più livelli di controllo astratti, offrendo così una o più NBI ai rispettivi
NBI Agent situati nel controller SDN. Questo si trova al piano di controllo e rappresenta
un'entità logica centralizzata adibita a tradurre le richieste delle SDN App, inoltrandole
all’SDN Datapath, e a fornire queste ultime di una visione astratta della rete. Un controller
SDN è composto da uno o più NBI Agent, da una logica di controllo SDN, e da un driver
d’interfaccia di controllo del data-plane (CDPI) che permette di creare il collegamento con
il piano dati tramite l’SDN CDPI, in cui è situato OpenFlow. C’è da notare inoltre che, la
definizione di “entità logica centralizzata” non impedisce l’organizzazione della struttura
8
dei controller sotto forma di collegamento gerarchico tra più controllori o di interfacce di
comunicazione tra essi, né preclude la virtualizzazione o il risparmio delle risorse di rete.
L’SDN Datapath è un dispositivo di rete logico situato al piano dati che espone visibilità e
controllo al livello superiore attraverso le sue capacità di inoltro e di elaborazione dei dati.
La rappresentazione logica delle risorse può comprendere tutte le risorse fisiche sottostanti
o parte di esse. Un SDN Datapath può essere definito logicamente su più elementi di rete
fisici ed è composto da un CDPI Agent, da uno o più motori di inoltro del traffico e da una
o più funzioni di elaborazione del traffico.
Questo tipo di architettura dà vita ad un sistema centralizzato e programmabile in cui il
piano dati e quello di controllo, che solitamente agiscono in modo congiunto, sono
disaccoppiati. Questo sistema viene gestito in modo centralizzato dall’SDN controller, che
ne aumenta le prestazioni e migliora la gestione delle risorse sull’intera rete.
1.2 Network Functions Virtualization
La virtualizzazione delle funzioni di rete (NFV) è un concetto che propone di ricorrere a
tecnologie standard di virtualizzazione IT che concorrono a virtualizzare intere classi di
funzioni, distribuite nei nodi della rete, in blocchi che possono essere interconnessi per
creare servizi di comunicazione. NFV è applicabile a qualsiasi funzione di elaborazione
dei pacchetti nel piano dati e a qualsiasi funzione del piano di controllo, in infrastrutture di
rete sia fisse che mobili. Essa si basa su tecniche tradizionali di virtualizzazione dei server
implementate tramite funzioni di rete virtuali.
Una funzione di rete virtuale (VNF), può essere costituita da diversi software e processi in
esecuzione su una o più macchine virtuali (VM), allocate sullo stesso dispositivo fisico. Le
diverse VM sono istanziate su server standard ad alto volume di traffico, switch, o anche
su infrastrutture di cloud computing, anziché su dispositivi hardware personalizzati per
ogni funzione di rete. Si potrebbe distribuire, per esempio, una funzione virtualizzata di
controllo della sessione di frontiera, per proteggere la rete senza i tipici costi e le
complessità derivanti dall’acquisto e dall’installazione di unità fisiche.
9
Figura 2: Struttura di rete fornita dalla NFV
In figura 2 possiamo notare il passaggio della struttura di rete dall’approccio architetturale
classico a quello proposto da NFV.
Il meccanismo utilizzato da NFV è analogo a quello utilizzato oggi dai servizi di IT in
esecuzione su piattaforme di cloud computing, ad eccezione del fatto che le VNF possono
richiedere opportune ottimizzazioni a livello hardware per soddisfare i requisiti di
ridondanza geografica, ritardo e scalabilità, tipici delle reti di telecomunicazioni.
L’impiego delle tecniche di virtualizzazione utilizzate da NFV permette di creare
indipendenza tra il software e l’hardware sottostante, le cui caratteristiche vengono
mascherate dal sistema. Si ricorda inoltre che, le operazioni inerenti la gestione delle VNF
durante il loro intero ciclo di vita nonché quelle che forniscono gli automatismi e gli
strumenti necessari alla gestione dei fallimenti e della scalabilità, vengono svolte dai
moduli Orchestrator e VNF Manager tramite un’attività di coordinamento, detta
Orchestrazione.
10
1.2.1 Benefici di NFV
NFV è applicabile a qualsiasi funzione di elaborazione dei pacchetti nel piano dati e a
qualsiasi funzione del piano di controllo, sia in un ambiente cablato che in uno wireless.
La proposta di virtualizzare le funzioni di rete genera diversi benefici agli operatori,
contribuendo ad un drastico cambiamento apportato allo scenario generale nel settore delle
telecomunicazioni. Tra i diversi vantaggi ottenuti, ricordiamo che l’utilizzo del paradigma
NFV porta ad una riduzione sostanziale dei costi delle attrezzature e dei consumi,
attraverso lo sfruttamento delle economie di scala nel settore dell’Information Technology.
Infatti i servizi di rete virtualizzati tramite software permettono agli operatori di ridurre il
CapEx (CapitalExpenditure), diminuendo il bisogno di acquistare hardware proprietario e
promuovendo l’utilizzo di modelli basati sul “pay as you grow” per eliminare gli
approvvigionamenti superflui. Inoltre, gli operatori ottengono anche una riduzione
dell’OpEx (OperatingExpenditure), restringendo lo spazio richiesto dalle attrezzature,
diminuendo il consumo elettrico ed i requisiti di raffreddamento dei dispositivi di rete.
L’adozione di NFV aumenta l’efficienza operazionale, traendo vantaggio dalla maggiore
uniformità della piattaforma fisica e dalla sua omogeneità con altre piattaforme di
supporto. Infatti:
-I meccanismi di orchestrazione forniscono capacità di “scaling-up” e “scaling-down”,
installazione automatizzata e abilitano al riuso delle macchine virtuali (VM) allocate.
-Eliminando la necessità di un hardware specifico per ogni applicazione, la base di
competenze richieste per la gestione di server ad elevato volume di traffico, è molto più
ampia e meno frammentata rispetto a quella attualmente riscontrata per le apparecchiature
“embedded” delle reti di telecomunicazioni.
-Si può ottenere maggiore efficienza tra l’Information Technology e le operazioni di rete.
-E’ possibile supportare l’In-Service Software Upgrade (ISSU) con un semplice ripristino,
installando la versione aggiornata di un Virtual Network Appliance (VNA) come se fosse
una nuova macchina virtuale. Si suppone che il traffico possa essere trasferito dalla
vecchia VM alla nuova, senza interrompere il servizio.
Tra gli altri vantaggi ricordiamo anche l’accelerazione dei tempi di mercato attuata per
11
mezzo della riduzione dei tempi di distribuzione dei nuovi servizi di rete, la diminuzione
dei rischi correlati al lancio di questi servizi e la possibilità, da parte dei providers, di poter
testare e migliorare i servizi per determinare quali siano quelli che rispecchiano in maniera
migliore, le necessità dell’utenza.
Sebbene NFV porti diversi vantaggi nel settore delle telecomunicazioni, una possibile
conseguenza del suo utilizzo potrebbe essere rappresentata da una trasformazione nello
scenario riguardante gli operatori di rete. Ognuno di essi infatti, dovrà riposizionarsi sul
nuovo mercato della virtualizzazione.
Questa situazione non è poi così dirompente come potrebbe sembrare, poiché i fornitori di
apparecchiature di rete già implementano alcune delle loro soluzioni combinando il
proprio software con componenti hardware e software standard, ma in modo proprietario.
Alcuni principali operatori di rete del settore si stanno già muovendo in questa direzione,
offrendo versioni virtualizzate dei loro prodotti. La sfida che gli si pone dinanzi è quella di
trovare il modo di migrare le proprie attività, in un ambiente basato sul software,
massimizzando il riutilizzo dei sistemi e dei processi già esistenti.
12
1.3 Sinergie tra SDN e NFV
Figura 3: Interconnessione tra gli approcci NFV ed SDN
Come mostrato in figura 3 Network Functions Virtualization (NFV) è complementare al
Software-Defined Networking (SDN) ma non dipende da esso. La virtualizzazione delle
funzioni di rete, può quindi essere implementata anche senza la necessita di applicare il
paradigma SDN, sebbene i differenti concetti e i diversi benefici derivanti dai due
approcci possano essere combinati tra loro per ottenere risultati potenzialmente migliori.
Gli obiettivi della virtualizzazione delle funzioni di rete (NFV) possono essere raggiunti
utilizzando meccanismi che non si basano su SDN ma, ricorrono alle tecniche attualmente
in uso in molti centri di elaborazione dati.
Sebbene sia possibile una realizzazione delle funzioni virtualizzate (VFN) mediante queste
tecniche, l’utilizzo di approcci basati sul disaccoppiamento dei piani di controllo e di
inoltro, proposti da SDN, sono in grado di migliorare le prestazioni della rete, semplificare
la compatibilità delle distribuzioni esistenti e facilitare le procedure di utilizzo e di
manutenzione del sistema.
La virtualizzazione delle funzioni di rete è in grado di supportare il Software-Defined
Networking (SDN), fornendo l'infrastruttura sulla quale il software SDN può essere
eseguito. Inoltre gli obbiettivi di NFV, di utilizzare in modo intelligente i server e gli
swich, si allineano a quelli di SDN.
13
L’architettura NFV richiede di essere supportata da meccanismi efficienti per la gestione
dinamica della connettività, a livello sia fisico che virtuale, in modo da collegare tra loro le
diverse VFN; questo è proprio il compito al quale normalmente si presta l’approccio SDN.
Il controllo dinamico sull’inoltro del traffico, fornito dalla programmabilità introdotta
nell’architettura SDN, consente di supportare in modo efficiente e generalizzato i requisiti
di “policy routing”, cioè la possibilità di controllare il percorso dei flussi di traffico,
introducendo così delle eccezioni alla logica standard dello “shortest path”. Per questo
motivo, una delle applicazioni SDN che attualmente riveste particolare importanza è
rappresentata dal “service function composition” (SFC), che si occupa dell’inserimento di
un certo numero di VFN sul percorso d’inoltro del traffico, destinate a svolgere funzioni di
servizio (es. Firewall e DPI).
Per questo motivo SDN rappresenta una struttura ideale e complementare a NFV,
fornendo l’interconnessione tra le funzioni di rete richiesta dall’architettura di Network
Functions Virtualization, al fine di realizzare il collegamento tra le varie VFN.
Un esempio dei benefici mutui tratti dall’utilizzo congiunto di SDN e NFV è rappresentato
dal fatto che, mentre NFV può aumentare l’efficienza e la flessibilità sui servizi offerti dal
piano di controllo di SDN, quest’ultimo assicura la consegna affidabile e la qualità del
traffico di rete alle funzioni virtualizzate ottenute da NFV.
14
Capitolo 2: Applicazione di SDN alle reti wireless
Il settore delle telecomunicazioni sta vivendo oggi una grande rivoluzione, che darà luogo
alle tipologie di reti e di servizi progettate e distribuiti per il futuro.
Siamo testimoni dell’aumento vertiginoso del numero delle applicazioni e dei servizi
richiesti dagli utenti, a cui si è in grado di accedere anche in movimento grazie alle
tecnologie wireless. Per far fronte a questa richiesta alcuni operatori di rete stanno
adoperando paradigmi di Cloud Computing, che permettono una riduzione dei costi
complessivi tramite la migrazione dei servizi di comunicazione, dagli hardware dedicati
agli operatori mobili. Come passo successivo, questi operatori avranno bisogno di
ridefinire e migliorare le infrastrutture di rete già esistenti oltre che implementare metodi
per distribuirne di nuove, al fine di affrontare le sfide proposte sia dall’aumento di
domanda da parte dei clienti che dalla forte competizione di mercato.
Il paradigma Software-Defined Networking, caratterizzato dalla netta separazione tra il
piano di controllo e quello dati, viene attualmente adottato per ridefinire la struttura delle
reti cablate. Tramite questo paradigma infatti, gli operatori di rete possono eseguire le loro
infrastrutture in maniera più efficiente, sostenendo una distribuzione più veloce dei nuovi
servizi, mentre procedono all’abilitazione di caratteristiche importanti come la
virtualizzazione.
Di seguito verrà mostrato come l’approccio SDN possa essere applicato alle reti wireless
mobili, che non solo traggono benefici dalle caratteristiche intrinseche delle reti cablate,
ma fanno leva sulle caratteristiche distinte della distribuzione mobile, per trarne vantaggi
ancora maggiori.
15
2.1 Software-Defined Wireless Networking
I tanti cambiamenti che si sono verificati nello scenario delle telecomunicazioni hanno
portato la necessità di modificare il modo in cui gli operatori di rete ed i provider dei
servizi gestiscono le proprie infrastrutture, al fine di ridurre significativamente i costi
sostenuti per lo sviluppo e per la distribuzione di nuovi servizi.
Tuttavia, a causa dell’elevata dipendenza da protocolli ed interfacce proprietarie (talvolta
oscurate), non è semplice implementare nuovi meccanismi di gestione su una rete già in
uso e operativa.
SDN è attualmente considerata la migliore alternativa agli approcci classici distribuiti, che
si basano su hardware altamente dedicato, sul quale vengono eseguiti i protocolli standard.
Finora la maggior parte dei casi d’uso impiegati per presentare i principali vantaggi
dell’architettura SDN sono stati limitati ad ambienti cablati (es. Google), sebbene il
paradigma sia applicabile in maniera concreta anche ad ambienti wireless.
Tramite quest’architettura, gli amministratori di rete possono programmare, in modo
centralizzato, il comportamento sia della rete che dei flussi di traffico senza richiedere
l’accesso o la configurazione di ognuno dei dispositivi hardware. Come visto in
precedenza, SDN disaccoppia il sistema che prende decisioni da quello che inoltra il
traffico verso la destinazione selezionata.
In aggiunta, abilitando la programmabilità sul traffico e sui dispositivi, una rete SDN
risulta essere molto più flessibile ed efficiente di una tradizionale. In questo tipo di
architettura infatti, la strategia di controllo è di tipo centralizzato, si basa sul software ed è
gestita da controller SDN che hanno una visione globale dello stato della rete e sono in
grado di controllare i dispositivi in maniera indipendente dal produttore. Questi dispositivi
non sono più tenuti ad eseguire e comprendere i molteplici protocolli di rete, bensì
accettano istruzioni da parte del controller.
Un requisito fondamentale per una corretta implementazione dell’architettura SDN (figura
4) è quello di avere un’interfaccia standard tra il livello di controllo e quello d’inoltro.
Quest’interfaccia è garantita, come già detto in precedenza, dal protocollo OpenFlow che
facilita l’integrazione dei dispositivi eterogenei, semplificando le operazioni definite
16
all’interno di un’infrastruttura multivendor, presente tipicamente nel
settore delle telecomunicazioni.
Grazie ad OpenFlow, collocato nel
Control DataPlane Interface (CDPI)
si ottiene quindi il collegamento tra il
livello di controllo e quello d’inoltro.
Si può dimostrare che la separazione
tra i due livelli, in una rete di
Figura 4: Struttura di rete SDN
comunicazione SDN, persiste in una certa misura anche nel dominio Wireless (SDWN).
Infatti l’Internet Engineering Task Force (IETF) ha standardizzato, diversi anni fa, il
Control And Provisioning of Wireless Access Point (CAPWAP), che rappresenta un
protocollo mediante il quale viene centralizzato il piano di controllo nelle reti Wireless.
La configurazione radio viene espressa in termini di elementi di base per la gestione delle
informazioni, che sono inclusi nello standard (es. potenza trasmissiva, intervallo beacon,
parametri di contesa ecc..).
Con lo standard CAPWAP, i frame di controllo vengono inviati ad un controller
centralizzato, responsabile del controllo di accesso al mezzo (MAC), in modo simile a
quello in cui OpenFlow fornisce le informazioni di controllo sui nuovi flussi in ingresso.
Seguendo le stesse direttive, ma con un approccio più visionario, possiamo proporre lo
studio di un nuovo paradigma in cui i nodi mobili eseguono un processore wireless MAC,
responsabile della gestione dei “MAClets” (cioè di quei programmi che specificano il
protocollo MAC). In questo modo il controller centralizzato può caricare dinamicamente il
protocollo da utilizzare in un determinato momento; ad esempio, quando il carico di
traffico aumenta, si potrebbe passare da un protocollo Carrier Sense Multiple Access /
Collision Avoidance (CSMA/CA) ad uno Time Division Multiple Access (TDMA).
Le applicazioni di SDN proposte finora, sono state concentrate per lo più su reti cablate,
ottenendo diversi benefici in questi scenari, tuttavia l’adozione di questo paradigma in
17
ambienti wireless e di backhaul potrebbe portare ancora più vantaggi. Il piano di controllo
delle reti wireless, infatti, è più complesso di quello delle reti cablate e quindi i vantaggi
ottenibili dalla maggiore flessibilità fornita da un approccio SDN, sarebbero maggiori.
2.1.1 Virtualizzazione
L’attuale distribuzione supporta la virtualizzazione in alcune estensioni, ma i dispositivi ed
i meccanismi di rete esistenti non sono progettati per supportare la riconfigurazione
dinamica richiesta per una condivisione efficiente e tempestiva delle risorse di rete.
Tramite approcci per la virtualizzazione della rete principale (es. PlanetLab e GENI) sono
state implementate differenti reti di copertura che permettono ai ricercatori di eseguire i
propri esperimenti mediante l’accesso time-sharing alle risorse di rete condivise.
Tuttavia, seguendo questi approcci si opera su una scala temporale imprecisa, che ha
bisogno di pianificazione e dimensionamento manuali e che non rispetta le scadenze di
mercato richieste per operare su una rete di produzione. L’utilizzo di questi metodi
differisce dalle tendenze attuali della virtualizzazione delle reti di accesso, che sono
focalizzate sul rafforzamento e sulla condivisione delle risorse radio tra i diversi operatori.
L’adozione di SDN (supportato da sistemi come OpenFlow e ForCES), viene in contro a
queste tendenze e dovrebbe migliorare la base di supporto per una virtualizzazione
tempestiva ed efficiente delle reti wireless. Ci sono tuttavia, due problemi da affrontare:
1) Per fornire la flessibilità richiesta, in termini di topologia ed architettura di rete, una
rete SDWN dev’essere in grado di implementare una vasta gamma di logiche di
controllo che saranno applicate simultaneamente su un insieme di risorse fisiche.
Proprio il supporto di queste logiche fa sorgere problematiche di scalabilità e di
compatibilità. Supposto infatti, che ogni logica di controllo possa lavorare in cima ad
una differente realizzazione della rete, ognuna di esse deve reagire in modo tempestivo
ai cambi nell’infrastruttura sottostante. Si necessita quindi di un meccanismo di
orchestrazione di rete scalabile, che coordini il controller SDN con le operazioni
18
attuate al piano dati e che risolva ogni contesa tra le differenti logiche di controllo.
Inoltre, per fare in modo che ciascuna di esse operi in maniera indipendente dalle altre
si possono seguire due strade: da una parte, isolando il traffico istanziato da diversi
operatori virtuali, per garantire la sicurezza e la privacy. Dall’altra, isolando le
modifiche eseguite sull’infrastruttura di un operatore virtuale dal resto della rete; così
un cambio nell’infrastruttura virtuale, non inciderà sulle altre istanze eseguite in cima
alla distribuzione reale.
2) Un altro problema fondamentale da affrontare riguarda l’allocazione e la condivisione
delle risorse di rete nel rispetto dell’isolamento e della scala temporale. In questo
modo, non solo si previene lo spreco di risorse dovuto alla condivisione ed al
coordinamento tra gli elementi rete, ma si ottiene anche un guadagno dalla
multiplazione statistica. Questa soluzione, quindi, è sostanzialmente più efficiente di
avere implementazioni indipendenti.
La virtualizzazione proposta da SDWN sull’infrastruttura wireless è indipendente e
complementare a quella fornita da NFV, che mira ad abilitare la virtualizzazione sui
servizi e sulle funzioni di rete come il NAT, il Firewall e le principali funzioni cellulari, in
modo da ridurre il tempo di distribuzione dei servizi e diminuire sia il CapEx che l’OpEx.
19
2.1.2 Quality of Experience
Le reti odierne sono gestite in modo tale da fornire un certo livello di Quality of Service
(QoS), tuttavia non sempre garantiscono un livello minimo di Quality of Experience
(QoE). Esso è determinato da tre fattori:
-Architettura di servizio (es. compatibilità e locazione dei server).
-Performance della rete principale.
-Servizi forniti sul “last mile wireless” (cioè sulla rete d’accesso), che costituisce la
combinazione dei collegamenti wireless (compresa la rete di backhaul) tra gli utenti finali
ed i provider.
Con le architetture di rete attuali, i provider dei servizi devono prevedere le proprie
necessità in termini d’infrastrutture, negoziare ServiceLevelAgreement (SLA), e tentare di
migliorare l’esperienza degli utenti, ad esempio cambiando la codifica video di un video
che si sta servendo (come fa YouTube).
E’ chiaro che, questo tipo di scenario preclude un uso efficiente delle risorse di rete, di
conseguenza il provider dei servizi non è in grado di rispondere in maniera tempestiva a
situazioni di cambiamento poiché non possiede informazioni sufficienti, in tempo reale,
riguardo le performance degli utenti e quindi non è capace di distribuire velocemente
elementi architetturali o migliorare i ServiceLevelAgreement con i provider di rete.
Inoltre, le architetture mobili presentano intrinsecamente la necessità di integrare
obbiettivi di QoS nella parte radio (al livello di servizio) e sulla rete di backhaul (a livello
di trasporto). Questo porta al bisogno di orchestrare dinamicamente risorse in entrambi i
livelli, per fornire una QoE uniforme ed efficiente.
L’utilizzo di un’architettura SDWN consentirebbe di offrire delle API (Application
Programming Interface) ai provider dei servizi, abilitandoli a controllare come si comporta
la rete nel servire il traffico (ovviamente il grado di controllo dipenderebbe dagli accordi
stipulati tra gli operatori di rete ed i provider dei servizi). Attraverso queste API, il
provider è anche in grado di cambiare dinamicamente l’inoltro dei flussi di traffico in
entrambe le direzioni.
20
Infine sempre il provider dei servizi, può utilizzare le API per cambiare il comportamento
della rete d’accesso (cioè del last mile wireless) agendo in tre modi:
1) Fornendo priorità dinamica al traffico sull’ultimo hop, cosicché in caso di condizioni
scadenti del segnale di copertura, alcuni pacchetti (es. I-Frames o VideoStreaming)
vengano forniti di servizi migliori rispetto ad altri (es. B-Frames), poiché
contrassegnati come “più importanti”.
2) Ricavando informazioni sulle performance del servizio sperimentato dall’utente, così
da adattarlo tempestivamente alle sue esigenze.
3) Supportando il traffico in upload e in download, basandosi sulle preferenze dell’utenza
e sulla disponibilità dei diversi collegamenti di comunicazione (ognuno con differenti
performance). In questo modo il provider personalizza i servizi tenendo conto delle
preferenze e dei comportamenti degli utenti.
Quanto detto finora richiede la progettazione di servizi di gestione del traffico orientato al
cliente, capaci di connettere differenti applicazioni con diverse tecnologie e adattarne i
contenuti sia alle condizioni della rete che alle risorse disponibili. Così facendo potrebbero
essere forniti differenti servizi per ciascun flusso di traffico.
21
2.1.3 Selezione dell’accesso alla rete
I terminali mobili esistenti sono tipicamente equipaggiati con interfacce di rete multiple,
generalmente Wi-Fi e Cellulare. Questi terminali, insieme alla proliferazione degli hotspot
Wi-Fi, delle femtocelle, e delle reti fisse Wi-Fi residenziali, hanno complicato il processo
di selezione della migliore tecnologia d’accesso alla rete. Nonostante gli operatori possano
offrire entrambi i servizi di rete, mobile o fissa residenziale, essi non gestiscono gli accessi
agli hotspot Wi-Fi, che a causa delle loro caratteristiche rendono impegnativo garantire
una certa QoS. La decisione di come selezionare ed utilizzare opportunamente un accesso
eterogeneo alla rete tra quelli disponibili, non è banale. Inoltre la rete potrebbe voler
mantenere il controllo sulle modalità d’inoltro del traffico verso i diversi terminali mobili.
Utilizzando una soluzione SDWN, tramite delle API fornite a soggetti esterni (es. provider
dei servizi) si potrebbe influenzare la decisione di quale tecnologia d’accesso utilizzare per
distribuire un certo tipo di traffico ad uno specifico terminale mobile o a gruppi di utenti.
In aggiunta, questo particolare tipo di scenario potrebbe anche beneficiare dell’attivazione
di programmabilità sul nodo mobile in modo tale da abilitare, per esempio, un semplice
controllo dal lato rete che consente di capire come siano utilizzati i diversi accessi da parte
del traffico generato dalle applicazioni, in esecuzione su un dispositivo.
22
2.2 Architettura SDWN
Figura 5: Architettura per le reti mobili basata su approccio SDN (SDWN)
L’architettura definita per SDWN mira a mantenere i benefici di un orchestrazione logica,
fornendo interfacce ben definite per le funzionalità del piano di controllo e abilitando un
ampio grado di flessibilità sulla consegna del traffico nel piano utente.
Per collegare i concetti proposti da SDWN ad un sistema architetturale ben noto e definito
prendiamo come riferimento l’architettura proposta da Evolved Packet System (EPS)
definita in 3rd Generation Partnership Project (3GPP).
Una rete mobile, è composta tipicamente da molteplici Radio Access Network (RAN)
eterogenee connesse tra loro da una rete di trasporto principale (Core Transport) condivisa.
Si noti che il collegamento tra l’ultima entità fornita dalla RAN e la Core Transport
Network potrebbe coinvolgere il backhaul di rete, cablata o wireless, (rappresentato in
figura 5 come parte della RAN) mediante una combinazione di tecnologie (es. fibra ottica,
microonde ecc..) e topologie di rete definite sul segmento di backhaul.
Tra i diversi tipi di RAN, come si può notare in figura 5, troviamo le UTRAN (UMTS), le
E-UTRAN (LTE) e gli hotspot Wi-Fi. Si ricorda inoltre che in SDWN le RAN sono
migliorate dalla presenza di programmabilità, che consente diversi livelli di funzionalità,
permettendo un aumento della distribuzione. Va notato che l’architettura proposta è
abbastanza generica, così da poter supportare altri tipi di tecnologie RAN già esistenti (es.
WiMAX) o future.
23
Il nucleo di trasporto è composto da switch e router programmabili che consentono la
configurazione del livello d’inoltro del flusso di traffico, sia unicast che multicast (come
avviene in OpenFlow). Questa rete programmabile necessita di essere interconnessa con le
entità principali del piano di controllo (responsabili di funzioni come l’autenticazione, la
gestione dei clienti e della mobilità, il QoS ecc..), poiché diversi operatori virtuali
potrebbero richiedere la condivisione di elementi radio, porzioni di backhaul o parte della
rete principale di trasporto.
Un’architettura SDWN potrebbe essere sviluppata seguendo due modelli differenti:
-Modello “Evolutionary”
-Modello “Clean Slate”
Il modello evolutionary consente una distribuzione incrementale sulle reti già in uso:
gli operatori di rete in grado di connettersi alla rete principale di trasporto ereditano il
piano di controllo senza modificare le interfacce già esistenti. In questo modello il
controller SDN implementa interfacce standardizzate, eseguite in un ambiente virtuale
noto come vEPC (virtual EPC), per sostenere l’interconnessione con le entità ereditarie
esistenti.
Nel modello clean slate le funzioni del piano di controllo sono implementate direttamente
sul controller SDN sotto forma di applicazioni, utilizzando delle API software tra gli
operatori virtuali ed il controller. Quest’approccio non consente però una semplice
distribuzione incrementale, ma mantiene tutti i vantaggi di un’architettura programmabile
rendendo ad esempio più semplice e veloce la distribuzione di nuove funzioni di rete, dal
momento che queste verrebbero direttamente implementate sul controller.
Il cuore dell’architettura SDWN, rappresentato dal controller SDN, viene connesso ad
ogni entità programmabile. Va notato che esso rappresenta un’entità logica e potrebbe
essere decentralizzato e frazionato su differenti unità fisiche, al fine di aumentare la
scalabilità e le performance del sistema. Per consentire ai terzi di influenzare e controllare
il comportamento della rete vengono abilitate delle API, che permettono di accedere alle
24
Figura 6: Struttura delle Application Programming Interface (API)
risorse di rete, in modo simile a come un sistema operativo accede alle applicazioni, alle
periferiche e alle risorse di calcolo.
L’interfaccia programmabile (API) offerta dal controller SDN supporta differenti livelli di
accesso ai terzi, cosicché la personalizzazione possa variare su diverse categorie: per
applicazione, per utente, per operatore virtuale o per una combinazione di essi.
In figura 6 sono mostrate le cinque principali tipologie di interfacce programmabili (API)
presenti nell’architettura SDWN:
-Un’interfaccia northbound (ad alto livello) fornita agli operatori virtuali, che condividono
lo stesso insieme di risorse fisiche di rete, permette loro di cambiare in ogni momento e
adattare dinamicamente le risorse da condividere, ad esempio, con il carico di traffico o
con il profilo degli utenti connessi alla rete fisica. Tramite quest’interfaccia si potrebbe
implementare un SLA più sostanzioso rispetto a quello attuale e sarebbe possibile attuare
una riconfigurazione di rete in modo più dinamico e quasi in tempo reale. Ogni operatore
(virtuale) dovrebbe poter accedere ad una vista astratta delle risorse assegnategli, così da
essere in grado di programmare la rete (virtuale) come una fisica.
25
-Un’interfaccia northbound fornita ai terzi (es. provider dei servizi e fornitori di
applicazioni), autorizzati ad influenzare il comportamento della rete, viene adeguatamente
assicurata garantendo l’accesso tramite diversi permessi. Quest’interfaccia potrebbe essere
abbastanza potente da consentire ai fornitori di applicazioni di influenzare la gestione del
traffico di rete, tenendo in considerazione anche gli operatori virtuali dai quali l’utenza del
traffico ha ottenuto l’accesso. Si noti che quanto detto è reso possibile grazie alla
centralizzazione ottenuta dall’utilizzo di un approccio SDN, sebbene ciò possa introdurre
problemi di scalabilità che devono essere considerati.
-Un’interfaccia southbound (di basso livello) è fornita alle entità fisiche del livello utente,
nella rete principale di backbone (Core Transport Backbone).
Quest’interfaccia viene utilizzata dal controller SDN per implementare differenti politiche
di comportamento in accordo con le richieste di gruppi esterni, con gli operatori virtuali
associati ai diversi utenti connessi alla rete e con le condizioni di quest’ultima. Inoltre essa
abilita l’effettiva condivisione delle reti di backbone e di backhaul tra i diversi operatori,
che possono anche connettersi ad internet attraverso differenti gateway.
-Una seconda interfaccia southbound viene fornita al piano utente della RAN. Questa
permette l’effettiva virtualizzazione della rete d’accesso, condividendo le stesse risorse
fisiche tra i diversi operatori. Quest’interfaccia dovrebbe abilitare la programmabilità sulla
rete d’accesso wireless, fornendo così i comportamenti desiderati che dipenderanno dalle
specifiche necessità e caratteristiche dei nodi mobili, dalle richieste di provider esterni e
dai diversi SLA stipulati dagli operatori di rete verso i propri clienti.
-Un’ultima interfaccia southbound per i nodi mobili, fornisce la rete di alcune funzioni di
programmabilità sui terminali. Potrebbe essere utilizzata, ad esempio, per aumentare
l’esperienza in mobilità migliorando lo sfruttamento dell’utilizzo simultaneo delle reti
d’accesso wireless disponibili.
26
2.3 C-RAN
La RAN, come visto finora, rappresenta lo strumento più importante per gli operatori di
telefonia mobile, poiché consente di fornire dati di alta qualità e ad alta velocità ai clienti
mobili. La tradizionale architettura RAN presenta caratteristiche note, che possiamo
riassumere in grandi linee: in primo luogo, ogni stazione base (BS) è connessa solitamente
ad un numero fisso di antenne a settore, le quali coprono una piccola area geografica e
gestiscono i segnali in trasmissione/ricezione limitandosi alla propria area di copertura.
Un’altra caratteristica delle RAN odierne è rappresentata dalla ridotta capacità in banda del
sistema, limitata dalle interferenze, che rendono difficili i miglioramenti sullo spettro. Le
stazioni base, infine, sono attualmente costruite su piattaforme proprietarie utilizzando un
approccio verticale, cioè aumentando la capacità di calcolo sulle singole BS.
Per migliorare la RAN, tenendo conto di queste caratteristiche si stanno affrontando oggi
diverse sfide, introdotte dalle problematiche sollevate da questo tipo di architettura. Ad
esempio, il gran numero di stazioni necessarie su una certa area geografica, richiede un
corrispondente investimento iniziale, il noleggio del sito ed il supporto alla gestione di
quest’ultimo. Quindi, di conseguenza, questo porta ad un incremento del CAPEX e del
OPEX. Un’altra problematica che possiamo riscontrare è rappresentata dal fatto che, di
solito, il tasso di utilizzo delle stazioni è basso poiché il carico medio di rete è di gran
lunga inferiore al carico massimo supportato ed inoltre una stazione non può condividere la
propria potenza di calcolo con altre stazioni nella sua area di copertura. Infine, l’utilizzo di
una piattaforma proprietaria porta gli operatori mobili a dover gestire più piattaforme non
compatibili, nel caso in cui i provider dei servizi decidessero di acquistare sistemi da
diversi fornitori. Questo costringe gli operatori ad avere piani di rete più complessi e
costosi per quanto riguarda l'espansione e l'aggiornamento della RAN, infatti per venire in
contro alla rapida crescita dei servizi, essi hanno bisogno di aggiornare la propria rete di
frequente e renderla accessibile a differenti standard di telefonia mobile, tra cui GSM,
WCDMA/TD-SCDMA ed LTE.
27
Centralized processing pool, Co-operative radio and real-time Cloud RadioAccessNetwork
(C-RAN), a volte anche indicata come Centralized-RAN, è una nuova architettura di rete
cellulare, proposta da China Mobile per le future infrastrutture di rete mobili ed applicata
attualmente a scenari concreti. In particolare, C-RAN si basa sull’adattamento ai paradigmi
di cloud computing centralizzato delle nuove architetture RAN, in grado di supportare
tecnologie 2G, 3G, 4G e futuri standard di comunicazione wireless.
Le future reti di accesso dovrebbero garantire l'accesso ad Internet Mobile a banda larga
per i clienti wireless, a prezzi ridotti e con un’alta efficienza spettrale ed energetica.
C-RAN affronta le problematiche sollevate in precedenza e va in contro ai requisiti di alta
efficienza spettrale, di riduzione dei costi (CAPEX e OPEX), di diminuzione dei consumi
energetici e supporto di standard wireless differenti, che le nuove reti di accesso radio
dovrebbero avere. Inoltre, quest’architettura è applicabile ai più classici ambienti di
distribuzione RAN come le macro-celle, le micro-celle, le pico-celle e le coperture indoor.
L’elaborazione del segnale in maniera centralizzata riduce notevolmente il numero delle
attrezzature necessarie in una certa area geografica; l’azione radio cooperativa, effettuata
tramite antenne distribuite equipaggiate con Remote Radio Head (RRH), fornisce una
maggiore efficienza spettrale; l’infrastruttura Cloud real time basata su piattaforma aperta e
sulla virtualizzazione delle stazioni, consente l'allocazione dinamica e l'elaborazione
associata all’area di copertura di competenza, portando conseguentemente una riduzione
del consumo energetico e un aumento del tasso di utilizzo dell'infrastruttura.
Queste nuove tecnologie consentono agli operatori non solo di soddisfare i requisiti
necessari negli scenari di rete odierni, ma sono in grado anche di far progredire la rete per
fornire una copertura maggiore, nuovi servizi e minori costi di manutenzione.
C-RAN non sostituisce gli standard 3G/B3G ma, viene proposto solamente come un
approccio alternativo ad essi. Guardando al futuro, C-RAN fornirà agli operatori mobili
un’architettura di rete ecologica, a basso costo e con alte prestazioni.
28
2.3.1 Vantaggi di C-RAN
L’architettura C-RAN è un’evoluzione di quella che contraddistingue i sistemi distribuiti
Base Transceiver Station (BTS), composti da Unità a Banda Base (BBU) e da RRH. A
seconda delle diverse funzionalità attribuite alle varie BBU e RRH, si possono distinguere
due tipi di approcci C-RAN: quello totalmente centralizzato e quello parzialmente
centralizzato. Il primo è caratterizzato dal fatto che la banda base e le funzioni BTS (di alto
livello) si trovano nelle BBU, mentre nel secondo approccio le RRH non solo integrano le
funzioni radio ma si occupano anche di quelle a banda base, lasciando solo le funzioni di
alto livello all’interno delle BBU.
In base al metodo di divisione delle funzionalità tra le BBU e le RRH, si distinguono due
tipi distinti di architetture C-RAN, entrambe composte da tre parti principali:
1) Le unità radio distribuite con le quali ci si può riferire alle Remote Radio Heads (RRH)
più le antenne collocate in un sito remoto.
2) La rete di trasporto ottica a banda larga e bassa latenza, che connette le RRH e
l’insieme delle BBU.
3) Le BBU, costituite da processori programmabili con alto livello di performance e
dotate di tecnologie di virtualizzazione real time.
L'architettura C-RAN “totalmente centralizzata", presenta i vantaggi di poter espandere e
potenziare facilmente la capacità della rete. Con essa si abilita il supporto al funzionamento
multistandard e la condivisione di massima delle risorse. Il suo principale svantaggio è
rappresentato dal requisito di banda larga richiesto alla BBU per trasportare un segnale I/Q.
Nel peggiore dei casi, una antenna TDLTE-8 con larghezza di banda pari a 20MHz avrà
bisogno di una velocità di 10Gpbs per trasmettere.
L’architettura C-RAN "parzialmente centralizzata", ha il vantaggio di necessitare di una
banda molto più stretta tra BBU ed RRH. Rispetto alla "totalmente centralizzata", la
connessione BBU-RRH trasporta solo dati demodulati, che valgono circa 1/20 ~ 1/50 dei
dati I/Q a banda base. Tuttavia, anche quest’architettura presenta i suoi difetti. Infatti
poiché l'elaborazione in banda base è integrata nelle RRH, si ottengono meno flessibilità e
meno condivisione delle risorse di calcolo tra le differenti celle.
29
Figura 7: Struttura di rete C-RAN con approccio “totalmente centralizzato”
Si elencheranno adesso i principali vantaggi ottenuti dall’utilizzo di C-RAN, facendo
riferimento all’architettura totalmente centralizzata, riportata in figura 7.
Il primo vantaggio rilevante di quest’architettura di rete è dato dal risparmio ottenuto sui
costi di OPEX e CAPEX. Siccome l'apparecchiatura formata dalle BBU e i macchinari di
supporto del sito sono tutti aggregati in pochi grandi fabbricati, diventa molto più semplice
la gestione centralizzata della RAN, risparmiando di conseguenza sui costi Operativi e di
Manutenzione (O&M), associati al gran numero di stazioni che si trovano in una RAN
tradizionale. Inoltre, sebbene il numero di RRH non possa essere ridotto, ne vengono
semplificate le funzionalità e ridotte le dimensioni così come i consumi. Le RRH
richiedono solamente l'installazione dei sistemi d’alimentazione ausiliaria dell'antenna,
consentendo agli operatori di accelerare la costruzione della rete. In questo modo, si
possono ottenere grandi risparmi sui costi di noleggio e quelli O&M del sito.
30
Un altro principale vantaggio è costituito dal sostanziale risparmio energetico ottenuto
dall’utilizzo di infrastrutture ecologiche. C-RAN, infatti è una soluzione a basso impatto
ambientale. In primo luogo, con l'elaborazione centralizzata ottenuta dall'architettura
C-RAN, il numero di stazioni nella RAN può essere ridotto di diverse unità, così da
limitare la maggior parte delle attrezzature di supporto al sito ed il consumo di energia. In
secondo luogo, la distanza tra le RRH ed i dispositivi mobili, può essere anch’essa ridotta
siccome la tecnologia radio cooperativa permette di moderare le interferenze tra le diverse
RRH e consente, di conseguenza, una maggiore densità di unità radio nell’area di
competenza. Utilizzando quest’architettura si possono implementare celle più piccole, con
potenza trasmissiva inferiore, lasciando invariata la qualità di copertura di rete. L'energia
utilizzata in trasmissione viene ridotta, portando ad una diminuzione sostanziale del
consumo energetico che permette di estendere l’autonomia della batteria nei dispositivi
mobili. Infine, se una stazione virtuale è inattiva, ad esempio durante la notte quando la
maggior parte della potenza di elaborazione non è necessaria, potrà essere selettivamente
spenta senza alterare il servizio.
C-RAN è anche adatto alla gestione del traffico distribuito non uniformemente, poiché
l’architettura è dotata di capacità di bilanciamento del carico all’interno dell’area di
aggregazione delle BBU. Sebbene le RRH in servizio cambino dinamicamente in base al
movimento del nodo mobile, la BBU di servizio si trova ancora nello stesso pool
distribuito. Allora, poiché la copertura di un pool di BBU è maggiore di quella fornita da
una singola BS tradizionale, il traffico non uniformemente distribuito, generato dal
dispositivo mobile, può essere distribuito in una stazione virtuale situata nello stesso pool.
Infine, utilizzando l’architettura C-RAN, diverse stazioni virtuali possono cooperare
all’interno di una grande distribuzione fisica di unità a banda base e sono inoltre in grado
di condividere facilmente le risorse radio come i dati di traffico, le segnalazioni e le
informazioni sullo stato del canale (CSI) fornite dagli utenti attivi nel sistema.
31
2.3.2 Applicazioni concrete
Durante il 2010, China Mobile ha condotto il suo primo studio sull’applicazione di C-RAN
con i partner. Le prime prove di distribuzione centralizzata furono effettuate all'interno del
sistema Time Division-Synchronous Code Division Multiple Access, di solito riportato
come TD-SCDMA (interfaccia di telecomunicazione UMTS) nella città di Zhuhai, situata
nella provincia meridionale di Guangdong, in Cina. Successivamente, i test effettuati
sull’utilizzo dell’architettura C-RAN, in campo GSM, sono stati condotti in diverse altre
città in tutto il territorio cinese, tra le quali ricordiamo Changsha, Baoding e Jilin. Per
semplicità saranno trattati i due casi più importanti, la distribuzione di prova
sull’interfaccia TD-SCDMA nella città di Zhuhai ed il caso di test sulla rete GSM nella
città di Changsha.
Nella città di Zhuhai sono stati necessari solamente tre mesi per effettuare i test.
Complessivamente l’area di riferimento disponeva di diciotto macro siti TD-SCDMA, con
un area di copertura totale di circa 30 km quadrati. Lo studio effettuato ha verificato la
fattibilità d’applicazione di alcune tecnologie di distribuzione centralizzata. La costruzione
e la gestione di questo nuovo ambiente ha evidenziato i vantaggi portati dall’utilizzo di
C-RAN rispetto alla RAN tradizionale, in termini di costi, flessibilità e risparmio
energetico. Allo stesso tempo, si sono avviate diverse sfide riguardanti l’utilizzo della fibra
ottica, così come per la costruzione di nuovi mezzi di trasmissione. Per quanto riguarda la
distribuzione centralizzata sul sistema GSM, sono stati condotti diversi studi ed effettuati
diversi test in varie città, tra cui Changsha. Il layout di rete costituito per questo scopo
venne creato principalmente sostituendo ed aggiornando i siti già esistenti. L’area di
riferimento comprende un totale di quindici siti, di cui solo due nuovi, i quali coprono circa
15 km quadrati sulla zona. Rispetto al caso delle reti TD-SCDMA, le soluzioni GSM
hanno caratteristiche uniche, ad esempio, si potrebbero gestire diciotto RRH in un unico
sito, utilizzando solamente una coppia di fibre. Questo significa che, è possibile ridurre
significativamente il numero di risorse in fibra necessarie alla distribuzione centralizzata di
C-RAN adottando una soluzione a fibra spenta (dark fibre).
Per comprendere la struttura dei test effettuati analizziamo le caratteristiche dei due
territori in questione: l'area di prova nella città di Zhuhai si compone fondamentalmente di
32
una zona di sviluppo nazionale ad alto livello tecnologico, di residence, e di alcuni campus
universitari. All’interno dell’area di test, diverse zone hanno presentato un significativo
aumento del traffico, predicibile a seconda del luogo, l’ora o di un particolare evento. Ad
esempio, nella zona di sviluppo ad alta tecnologia si constata che la maggior parte del
traffico di rete generato dalle persone, viene rilevato durante l'orario di lavoro. Lo stesso
gruppo di clienti, inoltre, ritorna solitamente dopo il lavoro nei residence vicini, dove si
rileva un sostanzioso aumento nel flusso del traffico. Gli studenti dei campus invece,
tendono a non utilizzare i dispositivi wireless durante l'orario di lezione, ma effettuano la
maggior parte delle attività cellulari durante la notte.
Solitamente, la pianificazione di rete dovrebbe supportare un carico di picco del traffico
per ogni singolo sito, che viene stimato, di solito 10 volte superiore a quello previsto nelle
ore di inattività. Proprio per questo, si riscontra un tasso medio di utilizzo dei dispositivi
BTS molto basso che si traduce quindi in un sostanziale spreco di risorse, introducendo
inoltre difficoltà di progettazione e ottimizzazione della rete. Una soluzione facilmente
adottabile con C-RAN è quella di creare un pool di unità a banda base che permettono
l'allocazione dinamica della portante. Nelle zone di test ci saranno dunque nove siti
co-locati nei siti GSM già esistenti, mentre altri nove saranno nuovi e dovranno essere
collegati tramite canali di trasmissione in fibra ottica diffusi per circa 30 km quadrati.
L'area di prova nella città di Changsha, invece è costituita da un paio di campus situati in
prossimità delle Yuelu Mountains. Il carico e la densità del traffico è abbastanza alto in
queste zone, dove inoltre, sono presenti moltissimi dormitori e appartamenti residenziali.
In questo scenario troviamo un'ambiente di propagazione molto complesso che lascia
ancora spazio al miglioramento della copertura di rete e che lo rende adatto a verificare le
prestazioni e la capacità del sistema, ottenute dall’utilizzo di C-RAN in ambienti urbani.
Vediamo ora come sono state implementate le due soluzioni e quali sono i diversi benefici
raggiunti, iniziando con la trattazione del sistema di distribuzione centralizzato nella città
di Zhuhai. Qui, ciascun sito TD-SCDMA ha una configurazione di tipo 4/4/4, che indica la
presenza di tre settori in ogni sito, ciascuno dei quali utilizza quattro portanti. Questo
33
implica che i diciotto siti di prova necessitano complessivamente di 216 portanti e quindi,
considerando la capacità delle BBU, viene progettato un insieme complessivo di unità a
banda base per supportare il massimo traffico concorrente sulla stessa area.
Ci sono due tipi di portanti TD-SCDMA, la R4 che viene utilizzata principalmente per il
traffico voce, mentre l’HSDPA che è più adatta al traffico dati. Sulla base dei requisiti di
pianificazione di China Mobile, il carico del traffico per ogni sito non deve mai superare il
75%. Di conseguenza, ciascuna portante R4 supporta fino a 203 utenti voce ed ogni
HSDPA può supportare fino ad un massimo 93 utenti. In totale, nell’area test di Zhuhai
erano presenti circa 17.000 utenti effettivi. Tuttavia, considerando il pool di BBU
distribuito, si è stati in grado di supportare 20.000 utenti effettivi utilizzando solamente
160 portanti. Questo indica che la distribuzione centralizzata ottenuta da C-RAN, fa
risparmiare circa il 25% della capacità nelle unità a banda base rispetto ai metodi di
distribuzione tradizionali. Analogamente, sono stati utilizzati gli stessi principi anche per il
processo di testing sulle reti GSM nella città di Changsha, per stabilire la capacità totale
del pool BBU.
Nella seconda parte dei test l’attenzione si è centrata principalmente sull’allocazione
dinamica delle portanti. Per un sistema TD-SCDMA, ogni RRH/settore è in grado di
supportare un massimo di 6 portanti R4 ed una HSDPA. Durante i periodi di inattività,
ogni RRH/settore ha a disposizione una sola portante sia di tipo R4 che HSDPA.
Per operare sull’assegnazione dinamica sono stati stabiliti diversi criteri di decisione che si
adoperano quando c’è necessità di aumentare il numero delle portanti R4 ed HSDPA. Ad
esempio, ogni qualvolta che il carico delle R4 supera una certa soglia, si decide di
aggiungere più portanti di questo tipo nel sito di competenza; anche per le HSDPA,
valgono regole simili. Se, al contrario il carico è minore di una certa soglia e sono stanziate
diverse portanti R4 o HSDPA, è anche possibile ridurne il numero evitando così sprechi di
banda. Anche nel caso di GSM valgono regole analoghe, utilizzando però un criterio di
decisone basato sul tasso di utilizzo di ciascuna portante GSM.
Durante la terza parte dell’analisi sono state trattate sia la struttura di interconnessione
delle RRH di tipo daisy-chain, che le tecnologie di protezione ai guasti sulla fibra. Queste
34
tecnologie derivano dal metodo di distribuzione impiegato per questo tipo di reti, che
utilizza di solito connessioni point-to-point in fibra spenta. Quando le BBU e le RRH si
trovano a grande distanza tra loro, è importante tenere in considerazione sia il risparmio di
risorse in termini di fibra ottica da utilizzare, che la protezione contro guasti imprevedibili
ai mezzi trasmissivi causati da fattori esterni. Mediante l’interfaccia TD-SCDMA, ogni
collegamento in fibra è in grado di gestire fino a 6,14Gbps in trasmissione, ragion per cui
riesce a sostenere fino a 15 portanti da 410Mbps. Nella città di Zhuhai, ogni accesso alla
rete si compone da nove siti, che utilizzano nove coppie di mezzi trasmissivi in fibra ottica
per supportare i collegati ad anello tra i vari siti.
Per quanto riguarda le prove effettuate sui sistemi GSM, si necessita di una banda di gran
lunga inferiore rispetto al caso precedente, a causa della natura a banda stretta di questi
sistemi, che riescono quindi ad ottenere maggiore capacità spettrale in configurazione
daisy-chain. Infatti, utilizzando solamente una coppia di fibre spente, si è in grado di
supportare dalle 18 alle 21 RRH configurate in questo modo.
Infine, dai test effettuati sul campo sono state verificate tecnologie fondamentali per la
distribuzione esterna. Uno dei problemi riscontrati dai test di Zhuhai, era rappresentato
dalla mancanza di spazio per le apparecchiature BTS fisiche disposte nei nove siti di nuova
costruzione, così come per l’alimentazione in corrente continua. Si è optato allora, per
l’utilizzo di una cabina d’alimentazione esterna che permette di soddisfare le necessità
della rete di distribuzione: una temperatura compresa tra i -40 ℃ ~ + 70 ℃, un livello di
protezione a prova di furto che garantisce la sicurezza del dispositivo senza che sia
necessaria una supervisione costante ed una schermatura anti-flash contro le radiazioni
termiche. Questa soluzione è stata applicata sia per i test su GSM, nella città di Changsha,
che per quelli su TD-SCDMA effettuati a Zhuhai.
Passiamo adesso ad analizzare le performance tecniche ottenute da C-RAN nei due casi
concreti. In figura è rappresentato il carico del traffico e l’allocazione dinamica per settore
delle portanti, in una giornata tipica nella città di Zhuhai. Possiamo notare in figura 8 che
la superficie blu indica la capacità totale della portante in una certo settore, mentre quella
35
violetta rappresenta il carico di rete
effettivo a diverse ore del giorno. Allora è
semplice vedere che le portanti vengono
allocate dinamicamente per adattarsi al
carico che si registra durante la giornata.
Nei casi di test effettuati in Changsha,
l’architettura centralizzata fornita da C-RAN
Figura 8: Allocazione dinamica delle portanti
ha portato prestazioni radio migliori ed una più gradevole esperienza utente, fornite grazie
all’introduzione di RRH co-locate, installate sullo stesso sito. Tramite questa tecnologia
diverse RRH trasmettono e ricevono dalla stessa cella, proprio come succede con la
trasmissione su fibra, fornendo però ulteriori benefici. Infatti vengono migliorate le
prestazioni radio, come ad esempio la ricezione in uplink (potenziata del 2% ~ 3%), il tasso
di perdita di connessione viene ridotto al minimo o quasi eliminato in alcuni siti ed inoltre,
dato che la procedura di consegna (handover) effettuata ai confini tra due celle, diviene
interna ad un pool di unità a banda base di conseguenza si riduce il ritardo di consegna.
Infine, la protezione sulla trasmissione in fibra fa sì che se questa venisse danneggiata
accidentalmente, verrebbe attivata automaticamente un'altra rotta per il traffico tra BBU ed
RRH, inalterando la comunicazione all’interno del sistema.
In sintesi, l'implementazione centralizzata di C-RAN non influisce negativamente sulle
prestazioni radio, ma al contrario, fornisce alla rete ulteriori vantaggi. Inoltre,
interconnettendo le RRH in configurazione daisy-chain, le risorse necessarie all’utilizzo di
sistemi di trasmissione su fibra spenta potrebbero essere ridotte.
In termini di funzionalità, la rete C-RAN sfrutta e trae vantaggio dall’efficienza energetica
a basso costo fornita dalle RRH. La centralizzazione dell’unità a banda base, rende
semplice la manutenzione e flessibile l'aggiornamento della rete. L'utilizzo globale della
RAN può inoltre essere migliorato tramite tecnologie di virtualizzazione e condivisione
ottimale delle risorse, non solo per aumentarne l'utilizzo, ma anche al fine di ridurne il
consumo elettrico complessivo mediante vari sistemi di gestione energetica.
36
Capitolo 3: OpenRAN e SoftRAN
Con la rapida crescita di Internet Mobile, le reti wireless si sono estese a gran velocità.
Tuttavia se è vero che sono presenti varie reti eterogenee, queste sono difficilmente
interconnesse tra loro, portando ad un’abbondante spreco di infrastrutture wireless e di
risorse spettrali. Inoltre la distribuzione sempre maggiore di nuovi servizi porta alla
necessita di avere differenti caratteristiche di rete, ma siccome l’infrastruttura alla base è
chiusa e consolidata questi servizi vengono tutti supportati con le stesse caratteristiche,
portando di conseguenza a bassi valori di QoS e di QoE.
Un altro problema da affrontare è dovuto alla necessità di supportare traffico mobile
esponenzialmente crescente avendo a disposizione banda spettrale limitata. Si pensi che,
negli Stati Uniti, AT&T e Verizon dispongono di uno spettro di banda a livello nazionale
pari a 100Mhz, utilizzabile per gli standard LTE. Proprio per cercare di aumentare la
capacità di banda, la rete è stata resa densa, aumentando il numero di stazioni base (BS)
all’interno delle RAN. Queste reti di distribuzione presentano un fattore di riuso di
frequenza pari ad uno. Conseguentemente, gestire reti dense con riuso di frequenza
unitario diventa decisamente più complesso a causa dello stretto accoppiamento sulle
decisioni prese nel piano di controllo delle stazioni vicine tra loro. Infatti, la gestione delle
decisioni riguardanti le risorse radio (es. decidere spettro e potenza da utilizzare in
trasmissione) prese da una determinata stazione, influenza sostanzialmente le stazioni
vicine. L’alto riuso di frequenza e la natura broadcast dell’infrastruttura wireless portano i
clienti agganciati ad una BS a subire numerose interferenze provenienti dalle stazioni nelle
vicinanze che, se non gestite, degradano significativamente la capacità spettrale della rete.
37
Per affrontare queste problematiche si richiede un’architettura radio più aperta ed
efficiente, ottenibile applicando paradigmi SDN ed NFV, che permettono di ottenere
maggiore flessibilità e controllabilità sulle Radio Access Network. China Mobile, come
visto, propone C-RAN, un’architettura generale che introduce un pool di cloud per
l’elaborazione di dati wireless a banda base. OpenRAN e SoftRAN sono invece delle
proposte future, che hanno lo scopo di risolvere rispettivamente i problemi specifici
sollevati riguardo l’infrastruttura chiusa delle RAN e la gestione ottima delle risorse radio.
3.1 Analisi delle proposte
Iniziamo descrivendo l’architettura sulla quale sono fondati OpenRAN e SoftRAN, per poi
mostrare le strategie di controllo utilizzate dalle due soluzioni proposte.
OpenRAN
L’architettura alla base di OpenRAN si compone di tre elementi principali:
-Il pool di risorse spettrali wireless (WSRP)
-Il pool di risorse di cloud computing (CCRP)
-Il controller SDN
Il WSRP è composto da molteplici Remote Radio Unit (RRU) fisiche, che sono distribuite
in varie locazioni geografiche. Per supportare efficientemente la strategia di controllo
basata su SDN per le reti wireless eterogenee, WSRP virtualizza lo spettro disponibile
tramite tecnologie di virtualizzazione Radio Frequency (RF) mediante le quali si abilitano
diverse RRU virtuali (vRRU), aventi protocolli wireless differenti, a coesistere in un'unica
RRU fisica (pRRU).
Il CCRP è formato da un grande ammontare di processori fisici che realizzano, tramite
interconnessioni multiple, una rete di cloud computing ad alta velocità. A differenza delle
architetture di rete verticali (in cui si predilige l’aumento di capacità di calcolo sulle
38
Figura 9: Architettura OpenRAN
singole stazioni) adatte alle reti d’accesso wireless attuali, in una architettura di rete
orizzontale basata sul cloud computing (in cui si predilige l’aumento dei processori fisici),
le unità a banda base (BBU) ed i controller delle stazioni base (BSC) vengono sostituiti
con BBU e BSC virtuali (vBBU e vBSC), distribuiti in processori fisici condivisi mediante
tecnologie di virtualizzazione.
L’insieme di tutti gli elementi di accesso virtualizzati (vRRU, vBBU, vBSC), come
mostrato in figura 9, compone una RAN completa e funzionante.
Il controller SDN costituisce il piano di controllo di questa RAN eterogenea. Esso astrae e
combina le funzioni di controllo fornite dagli elementi di accesso, determinando inoltre sia
le strategie che ciascuna vBBU e vBSC dovrà attuare, che gli elementi di accesso virtuali
contenti in un SDN Agent, adibiti a comunicare con il controller seguendo il protocollo
SDN.
L’architettura OpenRAN fornisce inoltre, quattro livelli di astrazione:
39
1) A livello applicazione, dove lo spazio dedicato ai flussi di traffico è suddiviso in più
flussi virtuali (associati a diversi operatori o servizi di rete), ognuno dei quali opera e
gestisce le proprie strategie di controllo.
2) A livello cloud, dove il controller SDN crea e gestisce vBBU e vBSC in modo da
virtualizzare i processori fisici, allocando appropriate risorse di calcolo e di memoria.
3) A livello spettrale, riferita alla virtualizzazione della banda spettrale tramite tecnologie
di virtualizzazione RF, che istanziano diverse vRRU, con protocolli wireless differenti,
su un'unica pRRU condivisa.
4) A livello cooperativo, costituendo diverse reti virtuali (che includono ad esempio, nodi
e collegamenti virtuali) all’interno delle quali avvengono comunicazioni cooperative,
richieste sia tra i vari vBSC e vBBU che tra le diverse vRRU, mediante le quali si
ottiene l’eliminazione delle interferenze inter-cella.
SoftRAN
L’architettura centralizzata proposta da SoftRAN è un’alternativa al piano di controllo
distribuito, attualmente implementato per le reti LTE. Tramite quest’architettura, tutte le
stazioni (BS) collocate in una certa area geografica vengono astratte, considerate come
semplici elementi radio aventi una minima logica di controllo, diventando parte di
un’unica grande stazione virtuale (Big-BS). Questi elementi fisici verranno poi gestiti da
un’entità centralizzata, che prenderà decisioni sul piano di controllo per tutte le stazioni
appartenenti all’area geografica di competenza. L’entità logica adibita a questo compito
sarà detta controller della Big-BS. Esso mantiene una vista globale della RAN e fornisce
la struttura sulla quale potranno essere implementati gli algoritmi di controllo. Il controller
centralizzato riceve periodici aggiornamenti dagli elementi radio appartenenti alla stessa
area geografica, riguardo lo stato locale della rete in modo tale da avere sempre una
visione aggiornata dello stato globale della RAN, che viene mantenuto sotto forma di
database. Quest’ultimo è detto RAN Information Base (RIB) ed è costituito da tre elementi
principali:
40
Figura 10: Architettura SoftRAN
1) La mappa d’interferenza: è un grafo ponderato nel quale ogni nodo rappresenta un
elemento radio o un’utente attivo nella specifica area geografica, mentre l’intensità dei
bordi di ciascun nodo indica la potenza di collegamento sul canale tra due nodi.
2) Il record dei flussi: sul quale sono memorizzati i parametri rilevanti di un flusso di
traffico continuo (es. il numero di byte trasmessi, quello dei pacchetti in coda, ecc..).
3) Le preferenze dell’operatore di rete: il quale eventualmente necessita di priorizzare
alcuni flussi rispetto ad altri, immettendo le sue preferenze in questa sezione.
Il RIB viene accesso dai diversi moduli di controllo (distribuiti dagli operatori di rete), che
prendono le decisioni necessarie per la gestione delle risorse radio. Questi moduli
assegnano gruppi di risorse agli utenti, specificando simultaneamente alle stazioni la
potenza di trasmissione da utilizzare per ogni blocco di risorse.
Le risorse radio sono astratte in una tabella tridimensionale, sulla quale sono definite
l’indice della stazione, il tempo e la frequenza. Per ogni blocco in questa tabella, il
controller dovrà assegnare una certa potenza trasmissiva ed il flusso di traffico da servire.
Dal punto di vista dei clienti tuttavia, non è possibile ottenere una stretta astrazione della
Big-BS senza apportare modifiche agli standard LTE. Infatti il cliente continuerà a
percepire le diverse stazioni, necessitando di ottenere un handshake tradizionale sia con la
stazione precedente che con la nuova, ogni volta che si sposta dal campo di copertura.
41
3.2 Strategie di controllo
In entrambi i casi viene adottato un metodo di controllo centralizzato.
In OpenRAN il controller crea e ottimizza dinamicamente gli elementi di accesso virtuale,
astraendo e allocando in modo equo ed efficiente spettro, risorse di calcolo e di memoria.
Si adotta una strategia di controllo sul flusso del traffico basata sul match-action, che
prevede l’utilizzo di vari campi di match, situati nell’header dei pacchetti appartenenti a
ciascun flusso (es. indirizzo IP, MAC address ed il porto). Ogni elemento d’accesso
virtuale è associato ad un SDN agent unificato che permette di controllare il flusso. Il
controller pone delle regole in ciascun elemento d’accesso, cosicché quando un pacchetto
viene ricevuto, si verifica che queste regole di controllo possano essere associate ad un
determinato flusso; se ciò è possibile, l’elemento virtuale esegue l’azione corrispondente
(es. l’instradamento dei dati da parte delle vBSC o un eventuale controllo di potenza
richiesto dalle vBBU). Questa strategia di controllo basata su SDN rende la RAN più
aperta e flessibile.
Nel piano dati, sebbene i diversi protocolli wireless operino in maniera differente gli uni
dagli altri, essi condividono alcuni moduli come quello di codifica, modulazione ed
interleaving. Quindi, ispirandosi al Software-Defined Radio (SDR), OpenRAN astrae i
protocolli wireless come vBBU, ognuna delle quali sceglie e combina i moduli appropriati
per implementare il protocollo desiderato.
Utilizzando SoftRAN invece, si dovrebbe assicurare che il ritardo sul traffico tra il
controller e l’elemento radio non incida negativamente sulle performance, così da rendere
efficiente l’astrazione di una Big-BS. Questo ritardo indica che le stazioni nella RAN
hanno una vista locale dello stato della rete, più aggiornata rispetto a quella del controller.
Pertanto, nonostante il coordinamento fornito da un approccio centralizzato, le decisioni di
controllo dipendenti dai parametri di rete che variano rapidamente possono essere
ottimizzate solamente dagli elementi radio. Si necessita quindi di rifattorizzare il piano di
controllo basandosi su due principi fondamentali:
42
-Tutte le decisioni che influenzano quelle prese dagli elementi radio nelle vicinanze,
dovrebbero essere assegnate al controller, poiché si necessita di coordinazione tra le varie
stazioni della RAN.
-Tutte le decisioni che coinvolgono le variazioni frequenti dei parametri, dovrebbero essere
prese preferibilmente dal singolo elemento radio, siccome il ritardo di trasmissione tra le
stazioni ed il controller aumenta il tempo di risposta a queste variazioni.
Da notare che sul downlink (collegamento tra la stazione ed il nodo mobile), l’allocazione
del blocco di risorse non influenza le decisioni prese dalle celle vicine. Allora finché la
potenza di trasmissione di un certo elemento radio è nota, i nodi vicini non hanno bisogno
di conoscere quali siano gli utenti serviti e quali blocchi di risorse gli sono stati assegnati.
Inoltre l’allocazione delle risorse tra i clienti contendenti sarà influenzata dalle misure del
canale, riportate dagli utenti con una frequenza che può raggiunge anche i 2 ms. Seguendo
il secondo principio, dato che le decisioni sono basate sui parametri che variano
rapidamente, l’allocazione del blocco di risorse sul downlink sarà a carico dell’elemento
radio. Tuttavia, a meno che quest’ultimo non abbia una vista aggiornata dell’ambiente
wireless, sarà ancora il controller a suggerire il blocco di risorse che dovrebbe essere
allocato.
Va notato che in uplink (collegamento tra il nodo mobile e la stazione) lo scenario è
completamente opposto. Infatti dovrebbe essere proprio questo collegamento a decidere a
quale cliente allocare un particolare blocco di risorse ma, questa decisione provocherebbe
interferenze sull’uplink causate, come visto, dalle stazioni vicine. Per questo motivo, in
accordo con il primo principio, l’allocazione del blocco di risorse viene gestita dal
controller SDN.
43
Conclusioni
In definitiva, con l'avvento dell'era basata sull’Internet Mobile, l’architettura di rete si trova
oggi a dover affrontare sempre più sfide sorte a causa delle diverse problematiche
riscontrate, quali il drastico aumento dei dati mobili, l'inefficienza spettrale, la mancanza di
flessibilità multi-standard ed il carico non dinamico sul traffico di rete. C-RAN, come
SoftRAN ed OpenRAN sono soluzioni promettenti per affrontare le problematiche di cui
sopra. Grazie all'impiego di queste nuove tecnologie, saremo in grado di cambiare il modo
di costruire e distribuire la rete; utilizzando l’approccio definito sul software si potrà infatti
cambiare radicalmente la struttura della RAN ed i costi sostenuti dagli operatori, riuscendo
in questo modo a fornire servizi sempre più flessibili ed efficienti. Tramite le diverse
architetture centralizzate, presentate in questa tesi, che implementano metodi di
trasmissione/ricezione ottima, supporto multi-standard, tecnologie di virtualizzazione
hardware, condivisione ottimale delle risorse radio ed alta efficienza spettrale si potrà
fornire, in un futuro prossimo, un'infrastruttura competitiva agli operatori di telefonia
mobile che permetterà di mantenere una crescita di mercato redditizia e dinamica.
Infine, attraverso l’astrazione software, è stato esaminato un ambiente che consente la
gestione efficiente e dinamica di gran parte delle risorse radio in ambito dell’Internet
Mobile, anche se va fatto presente che le tecnologie SoftRAN ed OpenRAN sono ancora in
fase di sperimentazione ma, come già successo per C-RAN, ci si aspetta una loro futura
applicazione concreta, operata da parte di chi dedicherà intelligenza e risorse alla ricerca,
per creare nuovi ambienti wireless che renderanno queste idee innovative una solida realtà.
44
Bibliografia
[1]
Carlos J. Bernardos, Antonio De La Oliva, Pablo Serrano, Albert Banchs, Luis M.
Contreras, Hao Jin, Juan Carlos Zúñiga, An Architecture for Software Defined Wireless
Networking, IEEE Wireless Communications, 06/2014
[2]
Kenneth J. Kerpez, John M. Cioffi, George Ginis, Marc Goldburg, Stefano Galli, Peter
Silverman, Software-Defined Access Networks, IEEE Communications Magazine,
09/2014
[3]
Li Erran Li, Z. Morley Mao, Jennifer Rexford, Toward Software-Defined Cellular
Networks, 2012
[4]
Aditya Gudipati, Daniel Perry, Li Erran Li, Sachin Katti, SoftRAN: Software Defined
Radio Access Network, ACM New York (NY)–USA, SIGCOMM Hong Kong,
2013
[5]
Mao Yangy, Yong Liy, Depeng Jiny, Li Suy, Shaowu Maz, Lieguang Zengy, OpenRAN: A
Software-defined RAN Architecture Via Virtualization, ACM New York (NY)-USA,
10/2013
[6]
China Mobile Research Institute 中国移动通信, C-RAN The Road Towards Green
RAN, 10/2011
[7]
Open Networking Foundation (ONF), Software-Defined Networking: The New
Norm for Networks, 04/2012
[8]
European Telecommunications Standards Institute (ETSI), Network Functions
Virtualisation - Introductory White Paper, 10/2012
[9]
Open Networking Foundation (ONF), SDN Architecture Overview, 12/2013
45