Dispense di Teoria dei Segnali Aleatori

Transcript

Dispense di Teoria dei Segnali Aleatori
Università degli Studi di Siena
Dispense di
Teoria dei Segnali Aleatori
Mauro Barni
Ilaria Sbragi
Giacomo Cancelli
Gennaio 2009
Indice
Tabella dei Simboli
iii
1 Teoria dei processi ergodici
1.1
1.2
1.3
Limiti di Successioni di Variabili Aleatorie
1.1.1 Convergenza Ovunque . . . . . . .
1.1.2 Convergenza Quasi Ovunque . . .
1.1.3 Convergenza in Media . . . . . . .
1.1.4 Convergenza in Probabilità . . . .
1.1.5 Convergenza in Distribuzione . . .
Ergodicità in Media . . . . . . . . . . . .
Ergodicità in Potenza Media . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2 Processi gaussiani
2.1
2.2
2.3
Variabili aleatorie gaussiane . . . . . . . . . . . . . . . . . . .
2.1.1 Proprietà della variabile aleatoria gaussiana . . . . . .
2.1.2 La funzione caratteristica . . . . . . . . . . . . . . . .
2.1.3 Dimostrazione che la trasformata di Fourier di una
gaussiana è ancora una gaussiana . . . . . . . . . . .
2.1.4 Teorema del limite centrale . . . . . . . . . . . . . . .
Variabili aleatorie congiuntamente gaussiane . . . . . . . . .
2.2.1 Proprietà delle variabili aleatorie congiuntamente gaussiane . . . . . . . . . . . . . . . . . . . . . . . . . . .
Processi gaussiani . . . . . . . . . . . . . . . . . . . . . . . .
3 Segnali e processi a banda stretta
3.1
3.2
Segnali deterministici (segnali a banda stretta) . . . . . . . .
3.1.1 Simulazione in banda base di un sistema a radiofrequenza, sistemi LTI . . . . . . . . . . . . . . . . . . . .
3.1.2 Applicazioni sui segnali a banda stretta . . . . . . . .
Segnali aleatori complessi (processi a banda stretta) . . . . .
3.2.1 Cifra di rumore introdotta dal demodulatore DSB . .
i
1
3
3
3
3
4
5
5
9
10
10
10
13
14
17
19
21
24
25
26
30
32
33
38
INDICE
ii
4 Processi ciclostazionari
4.1
4.2
4.3
Modulazioni numeriche . . . .
Modulazioni in banda base . .
4.2.1 Modulazione NRZ . . .
4.2.2 Modulazione RZ . . . .
4.2.3 Codici duobinari . . . .
Modulazioni in banda passante
4.3.1 M-PAM . . . . . . . . .
4.3.2 M-PSK . . . . . . . . .
4.3.3 D-PSK . . . . . . . . .
4.3.4 QAM . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
42
47
49
49
50
53
55
55
56
58
59
Tabella dei Simboli
N
R
Re{·}
Im{·}
x
s(t)
F{·}
­
|·|
k·k
⊗
P{S}
x
Fx
fx
E[·]
µx
µT
σx
σx2
x(k, t)
Hxx (τ )
Cxx (τ )
Ex
Px
Sxx
Cxx
c
Sxx
s+ (t)
s̃(t)
si (t)
sq (t)
insieme dei numeri naturali
insieme dei numeri reali
parte reale di un numero complesso
parte immaginaria di un numero complesso
variabile deterministica
segnale deterministico
Trasformata di Fourier
relazione tra un segnale e la relativa Trasformata di Fourier
valore assoluto
norma
operatore di convoluzione
probabilità dell'insieme S
variabile aleatoria
distribuzione di probabilità
densità di probabilità
operatore valore atteso
valore medio di x
media temporale
deviazione standard di x
varianza di x
processo stocastico
autocorrelazione di x(k, t)
autocovarianza di x(k, t)
energia media
potenza media
densità spettrale di potenza media
autocovarianza
spettro dell'autocovarianza
preinviluppo complesso di s(t)
inviluppo complesso di s(t)
componente in fase di s(t)
componente in quadratura di s(t)
iii
Capitolo 1
Teoria dei processi ergodici
Nei processi stocastici si hanno a disposizione due possibili tipi di analisi
che mettono in risalto dierenti aspetti del processo: analisi temporale e
analisi d'insieme.
L'analisi temporale di un processo stocastico x(k, t) si eettua ssando k ; ci si concentra quindi su una particolare realizzazione e se ne studia
l'evoluzione temporale. Cambiando k si ottiene una nuova realizzazione e
quindi un diverso andamento temporale.
Per eettuare un'analisi temporale bisogna calcolare:
Z +T
1
lim
x(k, t) dt
T →+∞ 2T −T
Z +T
1
x(k, t + τ ) · x(k, t) dt
lim
T →+∞ 2T −T
Considerando l'esempio di una analisi della corrente che passa in una resistenza, è come avere inniti circuiti `identici' (o più esattamente simili) e
studiarne uno alla volta. Le correnti che si otterranno saranno simili, ma
non identiche (ad esempio a causa del rumore termico, dell'aleatorietà della resistenza e delle caratteristiche dello stesso amperometro utilizzato per
eettuare la misura). La gura di sinistra della tabella 1.1 mostra gracamente una particolare realizzazione di un processo stocastico. Il graco mette
in risalto l'evoluzione temporale della particolare realizzazione del processo.
Osservando altre realizzazioni si ottengono dierenti andamenti.
L'analisi d'insieme di un processo stocastico x(k, t) si eettua ssando
l'istante temporale di osservazione. Si calcola:
Z
µx (t) = E[x(k, t)] =
xfx(k,t) (x)dx
R
Z Z
Hxx (t1 , t2 ) = E[x(k, t1 )x(k, t2 )] =
R
1
R
x1 x2 fx(k,t1 )x(k,t2 ) (x1 , x2 )dx1 dx2
CAPITOLO 1.
2
analisi temporale
analisi d'insieme
Tabella 1.1: Analisi temporale (sinistra) e analisi d'insieme (destra).
In questo caso è come accendere tutti i circuiti contemporaneamente e, ssato t = t∗ , andare a studiare gli inniti valori ottenuti, da considerare più
semplicemente come realizzazioni della variabile aleatoria x(k, t∗ ). La gura
di destra della Tabella 1.1 mostra più realizzazioni sovrapposte di uno stesso
processo stocastico. Fissando l'indice temporale si ottiene una v.a. descritta da una particolare funzione di densità di probabilità. Al variare di t∗ si
ottengono nuove v.a. con nuove fx .
Dunque eettuando la media d'insieme si ottiene una funzione dipendente da t, mentre con la media temporale si ottengono valori dipendenti
dalla specica realizzazione k . In generale, quindi, non è possibile scambiare
l'analisi temporale con quella d'insieme. Nei particolari casi in cui ciò risulta realizzabile (identici risultati per entrambe le analisi), il processo si dice
ergodico. Se ogni caratterizzazione d'insieme dà gli stessi risultati della corrispondente caratterizzazione temporale, allora il processo si dice ergodico in
senso stretto. L'ergodicità in senso stretto è abbastanza dicile da studiare,
e risulta inutilmente restrittiva quando si è interessati ad una sola analisi del
secondo ordine tramite valori medi. Per questo motivo nel resto del capitolo
ci occuperemo solo dell'ergodocità in senso lato, e, ancora più in particolare,
dell'ergodicità in media:
1
µx (t) = E[x(k, t)] = lim
T →+∞ 2T
Z
+T
−T
x(k, t)dt = lim µT
T →+∞
(1.1)
Osserviamo che µx (t) è un segnale, invece µT è una variabile aleatoria
dunque, per essere uguali, µx (t) non deve dipendere dal tempo; allora condizione necessaria per l'ergodicità in media è che x(k, t) sia SSL (cioè la
media non deve dipendere dal tempo).
CAPITOLO 1.
3
Se la condizione necessaria è soddisfatta allora si può scrivere:
µx = lim µT
T →+∞
Il termine a destra è il limite di una successione di variabili aleatorie, apriamo
dunque una parentesi su tale argomento.
1.1 Limiti di Successioni di Variabili Aleatorie
Per un'esposizione rigorosa del concetto di ergodicità in media è necessario chiarire il concetto di limite di una successione di variabili aleatorie:
lim xn .
(1.2)
n→+∞
Il signicato di convergenza di una successione di v.a. può assumere dierenti
signicati a seconda del contesto, per questo motivo occorre specicare ogni
volta il signicato assunto dal termine convergenza.
1.1.1 Convergenza Ovunque
Si dice che xn (k) converge a x(k) ovunque se:
lim xn (k) = x(k)
n→+∞
∀ k,
(1.3)
dove l'indice k è stato inserito per esplicitare in maniera più chiara il carattere
aleatorio sia dei singoli termini della successione che del valore assunto dal
limite. La 1.3 è la denizione di convergenza più restrittiva.
1.1.2 Convergenza Quasi Ovunque
Si dice che xn (k) converge a x(k) quasi ovunque se:
n
o
n
o
P
lim xn (k) 6= x(k) = 0 oppure P
lim xn (k) = x(k) = 1
n→+∞
n→+∞
(1.4)
È immediato vericare che la convergenza ovunque ⇒ la convergenza
quasi ovunque.
1.1.3 Convergenza in Media
Si dice che xn (k) converge a x(k) in media e si scrive:
l.i.m. 1
n→+∞
1
Limit In the Mean.
xn (k) = x(k)
CAPITOLO 1.
se:
4
h¡
¢2 i
lim E xn (k) − x(k)
=0
n→+∞
(1.5)
La convergenza ovunque ⇒ la convergenza in media, ma la convergenza
in media non implica quella quasi ovunque, che, d'altra parte, non implica
la convergenza in media.
È possibile quindi trovare dei processi che convergono in media ma non
quasi ovunque e viceversa2 . Ad esempio se si hanno delle realizzazioni che
saltuariamente, ma no all'innito, hanno dei picchi, la convergenza in media
non sarà vericata perché, a causa di tali picchi, nessuna delle realizzazioni
convergerà a zero. Invece la convergenza in media sarà vericata perché anche nel caso più sfortunato, ossia prendere il campione xn in corrispondenza
del punto di picco, si avrà comunque il limite che andrà a zero.
Viceversa, se si hanno delle realizzazioni che vanno a zero più o meno velocemente, ma ce n'è almeno una che va all'innito, allora ovviamente si avrà
convergenza quasi ovunque, ma non convergenza in media. Infatti, quando
si va a calcolarla, il limite va all'innito.
1.1.4 Convergenza in Probabilità
Si dice che xn (k) converge a x(k) in probabilità se:
©
ª
∀ε>0
lim P |xn (k) − x(k)| > ε = 0
n→+∞
(1.6)
cioè ssata una tolleranza ε > 0 piccola a piacere, la probabilità che il limite
della successione si discosti da x per una valore maggiore di ε > 0, è zero.
Le convergenze precedentemente esposte implicano la convergenza in
probabilità.
Il fatto che la convergenza in media implichi la convergenza in probabilità è
vero per la disuguaglianza di ƒeby£ëv dopo che si è passati al limite:
©
ª
E[(xn (k) − x(k))2 ]
lim P |xn (k) − x(k)| > ε ≤ lim
n→+∞
n→+∞
ε2
(1.7)
Partendo dall'ipotesi di avere convergenza in media, il termine a destra è zero
per denizione; quello a sinistra è una probabilità dunque è positivo. Poiché il
termine di destra è nullo, il termine di sinistra dovrà essere obbligatoriamente
zero e quindi si ha proprio la denizione di convergenza in probabilità.
Ma il contrario non è vero quindi la convergenza in probabilità non implica
la convergenza in media.
2
A. Papoulis - Probability, random variables and stochastic processes - 1991,
McGraw-Hill.
CAPITOLO 1.
5
1.1.5 Convergenza in Distribuzione
Si dice che xn (k) converge a x(k) in distribuzione se:
lim Fxn (k) (x) = Fx(k) (x)
n→+∞
∀ x.
(1.8)
La convergenza in probabilità ⇒ la convergenza in distribuzione.
La gura 1.1 descrive gracamente i legami fra i tipi di convergenza sopra
esposti.
Figura 1.1: Relazioni esistenti tra i vari tipi di convergenza.
Le leggi di convergenza percedentemente elencate, sono scritte in ordine:
dalla più forte alla più debole. A noi basterebbe la convergenza in probabilità, anche se poco restrittiva; però la convergenza in media è molto più facile
da trattare matematicamente! Usando la convergenza in media, anziché
quella in probabilità, si lasciano fuori solamente quei processi che ad un
certo punto vanno all'innito, ma certi processi, nella realtà sono veramente
rari, quindi usare la convergenza in media è un buon compromesso.
1.2 Ergodicità in Media
Siamo ora in grado di dare una denizione esatta di ergodicità in media
di un processo: un processo si dice ergodico in media se:
1
T →+∞ 2T
|
µx = lim
Z
+T
−T
x(k, t) dt
{z
}
(1.9)
µT
dove µT è chiaramente una v.a. dipendente dalla realizzazione k , e dove si è
sfruttata l'ipotesi di stazionarietà in senso lato del processo.
CAPITOLO 1.
6
Dato che l'operazione di limite viene applicata ad una successione di v.a.,
va specicata la denizione di convergenza che si intende utilizzare. A tale
proposito osserviamo che, operativamente, è necessario (e suciente) che,
ssato un errore piccolo a piacere, la probabilità, che la sostituzione della
media d'insieme con quella temporale porti ad un errore maggiore di quello
ssato, sia piccola a piacere. Non è dicile riconoscere nella condizione
appena descritta la denizione di convergenza in probabilità. Purtroppo la
convergenza in probabilità ha lo svantaggio di essere complessa da trattare.
Prendere invece in considerazione la denizione di convergenza in media (eq.
1.5) agevola l'analisi e, se vericata, implica la convergenza in probabilità.
Di contro vengono scartati alcuni processi che convergono in probabilità ma
non in media3 .
Applicando la denizione di convergenza in media all'equazione 1.9 si
ottiene:
£
¤
(1.10)
lim E (µT − µx )2 = 0
T →+∞ |
{z
}
2 =σ 2
σµ
T
T
£
¤
dove si è osservato come la quantità E (µT − µx )2 corrisponda alla varianza
della v.a. µT , infatti:
¸
·
Z +T
Z +T
1
1
x(k, t) dt =
E[x(k, t)] dt = µx
E[µT ] = E
2T −T
2T −T
Tale proprietà viene di solito riassunta dicendo che µT è una stima corretta
(non polarizzata) di µx . I risultato fondamentale della teoria dei processi
ergodici in media è riassunto nel seguente teorema:
Teorema di ƒeby²ëv. Un processo SSL è ergodico in media se e solo se:
1
lim
T →+∞ T
Z
0
2T
¶
µ
τ
dτ = 0
Cxx (τ ) · 1 −
2T
Dimostrazione. Partendo dalla denizione di µT si può scrivere:
Z +T
1
µT =
x(k, t) dt
2T −T
µ ¶
Z +∞
t
1
· rect
· x(k, t) dt
=
2T
2T
−∞
¯
µ
¶
Z +∞
¯
1
τ −t
=
· rect
· x(k, t) dt¯¯
2T
−∞ 2T
τ =0
Si introduce un nuovo segnale derivato dal passaggio
¡ t ¢ di x(k, t) in un
1
sistema LTI con risposta impulsiva h(t) = 2T · rect 2T :
µ ¶
1
t
y(k, t) = x(k, t) ⊗
· rect
2T
2T
3
I processi scartati a causa di tale scelta sono di scarso interesse pratico.
CAPITOLO 1.
7
Il segnale y(k, t) così ottenuto è caratterizzato da media, autocorrelazione
e densità spettrale di potenza media date da:
µy = µx · H(0)
Hyy (τ ) = Hxx (τ ) ⊗ h(τ ) ⊗ h(−τ )
Syy (f ) = Sxx (f )· k H(f ) k2
La varianza σT2 può dunque essere interpretata come la varianza dell'uscita del ltro all'istante t = 0. In formule:
h
i
h
i2
σT2 = E y(k, 0)2 − E y(k, 0)
= Hyy (0) − µ2y
= Hxx (τ ) ⊗ h(τ ) ⊗ h(−τ )|τ =0 − µ2x · H(0)2 .
L'autocorrelazione del processo x(k, t) può essere così riscritta:
Hxx (τ ) = Cxx (τ ) + µ2x
Quindi:
σT2 = (Cxx (τ ) + µ2x ) ⊗ h(τ ) ⊗ h(−τ )|τ =0 − µ2x · H(0)2
= Cxx (τ ) ⊗ h(τ ) ⊗ h(−τ )|τ =0 + µ2x ⊗ h(τ ) ⊗ h(−τ )|τ =0 − µ2x · H(0)2
Sviluppando il secondo termine:
¯
Z Z
¯
2
2
0
0
00
00 ¯
µx ⊗ h(τ ) ⊗ h(−τ )|τ =0 =
µx · h(τ ) dτ · h(τ − τ ) dτ ¯
R R
τ =0
Z
Z
2
0
0
00
00
= µx ·
h(τ ) dτ ·
h(τ ) dτ
R
R
= µ2x · H(0)2
si può riscrivere σT2 come:
σT2 = Cxx (τ ) ⊗ h(τ ) ⊗ h(−τ )|τ =0
µ ¶¯
1
τ ¯¯
= Cxx (τ ) ⊗
· tr
2T
2T ¯τ =0
µ
¶ ¯
Z 2T
¯
1
|τ − t|
=
Cxx (t) · 1 −
dt¯¯
2T −2T
2T
τ =0
Osservando che la covarianza e la funzione tr(·) sono funzioni pari e inserendo
anche l'operazione di limite, si ottiene:
µ
¶
Z
1 2T
τ
lim σT2 = lim
Cxx (τ ) · 1 −
dτ = 0.
T →+∞
T →+∞ T 0
2T
Segue la tesi.
CAPITOLO 1.
8
Con considerazioni analoghe al teorema precedente, possono essere anche
dimostrate le seguenti condizioni sucienti per l'ergodicità in media di un
processo:
1. Condizione suciente per l'ergodicità in media del processo x(k, t) è
che:
∃ d : Cxx (τ ) = 0 |τ | > d
2. Condizione suciente per l'ergodicità in media del processo x(k, t) è
che si verichi:
lim Cxx (τ ) = 0
τ →+∞
La dimostrazione della seconda condizione, che implica la prima, è la seguente:
µ
¶
Z
1 2T
τ
⇒
Cxx (τ ) · 1 −
dτ
T 0
2T
Z
Z
1 2T
1 2T
τ
dτ
=
Cxx (τ ) dτ −
Cxx (τ ) ·
T 0
T 0
2T
Z
Z
¯ τ ¯
1 2T
1 2T
¯ ¯
≤
|Cxx (τ )| dτ +
|Cxx (τ )| · ¯ ¯ dτ
T 0
T 0
2T
Z 2T
Z 2T
Z
1
1
2 2T
≤
|Cxx (τ )| dτ +
|Cxx (τ )| dτ =
|Cxx (τ )| dτ
T 0
T 0
T 0
Sfruttando la denizione di limite:
∀ ε > 0 ∃ T0
:
|Cxx (τ )| < ε ∀ τ > T0
e dividendo l'integrale in due parti, si ricava una sua maggiorazione:
Z
Z
2 T0
2 2T
⇒ =
|Cxx (τ )| dτ +
|Cxx (τ )| dτ
T 0
T T0
Z
Z
2 T0
2 2T
ε dτ
≤
|Cxx (τ )| dτ +
T 0
T T0
2K
2
=
+ · ε · (2T − T0 )
T
T
dove K è il massimo valore assunto da |Cxx (τ )| nell'intervallo [0, T0 ].
Considerando poi che σT2 ≥ 0, si ottiene:
µ
¶
2K
2
0 ≤ lim σT2 ≤ lim
+ · ε · (2T − T0 ) = 4ε.
T →+∞
T →+∞
T
T
Poiché la relazione precedente vale ∀ ε > 0, la sucienza è vericata.
¤
CAPITOLO 1.
9
Oltre alle condizioni sopra descritte, il teorema seguente fornisce una
condizione necessaria e suciente per l'ergodicità in media di un processo.
Teorema di Slutsky. Un processo è ergodico in media se e solo se:
1
T →+∞ T
Z
lim
0
T
Cxx (τ ) dτ = 0
Introducendo il concetto di spettro dell'autocovarianza :
c
Sxx
(f ) = F{Cxx (τ )} = Sxx (f ) − µ2x · δ(f )
(1.11)
è possibile riscrivere nel dominio della frequenza il teorema di Slutsky:
Z
c (0)
Sxx
1 T
Cxx (τ ) dτ = lim
=0
(1.12)
lim
T →+∞ T 0
T →+∞ 2T
c (0) < ∞
che è vero se e solo se Sxx
Se nell'origine dello spettro della covarianza non sono presenti δ(·), allora
il processo x(k, t) è ergodico in media.
1.3 Ergodicità in Potenza Media
Analogamente alla denizione di ergodicità in media, il processo x(k, t)
si dice ergodico in potenza media quando si può invertire l'analisi d'insieme
della potenza con quella temporale:
Z T
1
2
= lim
(1.13)
P=
E[x (k, t)]
x2 (k, t)dt
| {z }
T →+∞ 2T −T
{z
}
studio d'insieme |
studio temporale
Sostituendo v(k, t) = x2 (k, t), studiare l'ergodicità in potenza media del processo x(k, t) diventa equivalente a studiare l'ergodicità in media del processo
v(k, t). Applicando il teorema di Slutsky si ottiene:
Z
1 T
Cvv (τ ) dτ = 0
lim
T →+∞ T 0
da cui, svolgendo i passaggi, si arriva a:
Cvv (τ ) = Hvv (τ ) − µ2v
= E[x2 (k, t + τ )x2 (k, t)] − E[x2 (k, t)]2
2
= Hx2 x2 (τ ) − Hxx
(0)
Z T
1
2
Hx2 x2 (τ ) dτ = Hxx
(0)
⇒
lim
T →+∞ T 0
(1.14)
L'equazione (1.14) fornisce una condizione necessaria e suciente per l'ergodicità in media del processo x(k, t).
Capitolo 2
Processi gaussiani
Per prima cosa introdurremo le variabili aleatorie gaussiane, poi parleremo delle variabili aleatorie congiuntamente gaussiane ed inne dei processi
gaussiani.
2.1 Variabili aleatorie gaussiane
Una variabile aleatoria x è gaussiana (oppure normale ) se la sua densità
di probabilità è:
(x−µx )2
1
−
fx (x) = p
(2.1)
e 2σx2
2πσx2
dove µx è lil valor medio e σx2 la varianza.
2.1.1 Proprietà della variabile aleatoria gaussiana
Qui di seguito sono elencate le proprietà che possiede una variabile aleatoria gaussiana:
• E' una densità di probabilità e l'integrale vale 1.
Per dimostrarlo si pone per semplicità il valor medio nullo, µx = 0 e quindi
si avrà : fx (x) = √ 1
e
2
2πσx
−
(x)2
2σx2
.
Si calcola questo integrale, che ci servirà dopo:
Z
Z
Z Z
³Z
´2
2
2
−x2
−x2
−y 2
e dx
=
e dx ·
e dy =
e−(x +y ) dxdy
R
R
R
R R
Z 2π Z ∞
2
2
2
=
e−ρ (cos θ+sin θ) ρdθdρ
0
{z
}
|0
coord. polari: x=ρ cos θ ; y=ρ sin θ ; θ²[0,2π] ; ρ²[0,∞)
Z ∞
Z ∞
−ρ2
−ρ2
= 2π
= π
ρe
dρ = −π
0
−2ρe
0
10
¯
2 ¯∞
dρ = −πe−ρ ¯
0
CAPITOLO 2.
11
Allora:
Z
2
e−x dx =
√
π
(2.2)
R
Si riconsidera la densità di probabilità e si calcola l'integrale:
√
Z
Z
Z
(x)2
1
1
π
2
− 2
−u
2σ
x dx = √
p
fx (x)dx =
e
e du = √ = 1
2
π R
π
2πσx
R
R
| {z }
|
{z
}
√
π
x2
2σx2
si pone u2 =
• Il valor medio è proprio µx .
Z +∞
E[x] =
xfx dx
−∞
=
=
=
Z
p
1
2πσx2
p
1
2πσx2
1
p
|
+∞
−∞
Z
{z
x
} dx
porre x−µx =t
(t + µx ) e
+∞
−
t·e
2πσx2
(x−µx )2
2σ 2
+∞
−∞
Z
−
x e|
(t)2
2σx2
−∞
−
(t)2
2σ 2
x
dt
dt + µx · p
{z
}
|
1
2πσx2
2σx
¯
¯
+∞
−
e
−∞
{z
(t)2
2σx2
dt
}
1
moltiplicare e dividere per σx2
¯
³ − (t)2 ¯+∞
σx2
2 ¯
= −p
e
2πσx2
{z
|
Z
+ µx
−∞
}
0
• La varianza è proprio σx2 .
h
i
E (x − µx )2 =
p
=
p
1
2πσx2
1
2πσx2
Z
+∞
−
x2 e
−∞
Z +∞
x2
2σx2
−
x · xe
dx
x2
2σx2
dx ·
−∞
σx2
σx2
g0
z }| {
+∞ f
x2
z}|{ x − 2σ
σx2
p
x · 2 e x2 dx
σ
2πσx2 −∞
|
{z x
}
R
R
Z
=
per parti:
=
f g 0 =f g− f 0 g
Z +∞
2 ¯+∞
2
σ2
σx2
− x2¯
−x
p
+p x
(−xe 2σx ¯¯
e 2σx2 · 1 dx
2πσx2
2πσx2 −∞
|
{z −∞} |
{z
}
tende a 0
2
= σx
σx2
CAPITOLO 2.
12
• I momenti centrali di ordine dispari sono nulli.
Se si vuole descrivere la densità di probabilità, è possibile farlo dando tutti
i momenti:
- momento di ordine 1 −→ media
- momento di ordine 2 −→ varianza
- momento di ordine 3 −→ asimmetria
- momento di ordine 4 −→ curtosi
Per calcolare i momenti di qualsiasi ordine (n qualsiasi) si suppone per
semplicità µx = 0, quindi:
Z
2
1
−x
E[X n ] = p
xn e 2σx2 dx
(2.3)
2πσx2 R
dispari
{
R z n }|
x
fx (x) dx = 0
- Se n è dispari ⇒ E[X n ] = 0 perché E[X n ] = R |{z}
|{z}
dispari pari
³
´
- Se n è pari ⇒ E[X n ] = σ n 1 · 3 · 5 . . . (n − 1)
³
´
dove con la scrittura 1 · 3 · 5 . . . (n − 1) si intende il prodotto dei primi
(n − 1) numeri dispari.
Dimostrazione :
u2
z}|{
r
Z
2
π
− αx
−u2 du
√ =
e
dx =
e
α
α
R
R
Z
Si consideri la derivata n-esima rispetto ad α:
r
Z
∂n
π
∂n
−αx2
e
dx =
n
n
∂α R
∂α
α
(2.4)
Il termine di sinistra della (2.4) sarà:
Z
Z
Z
∂n
∂ n −αx2
2
−αx2
e
dx
=
e
dx
=
(−1)n (x2 )n e−αx dx
n
∂αn R
∂α
R
R
(2.5)
Il termine di destra della (2.4) sarà:
r
∂n
∂αn
³
∂n
∂n
√ −1 √
√
1
1
π
=
πα 2 = π n α− 2 = πα(− 2 −n) (−1)n
n
α
∂α
∂α
´
1 · 3 · 5 . . . (n − 1)
Si eguaglino i risultati della (2.5) e della (2.6):
³
´
k
z}|{
1
·
3
·
5
.
.
.
(n
−
1)
√
1
2
(−1)n x 2n e−αx dx = πα(− 2 −n) (−1)n
2n
R
2n
(2.6)
Z
(2.7)
CAPITOLO 2.
13
E' possibile scegliere un qualsiasi valore di α; per semplicità si scelga α =
³
´
µ
¶−( k+1 ) 1 · 3 · 5 . . . (k − 1)
Z
2
2
x
√
1
⇒
xk e 2σ2 dx = π
⇒
k
2
2σ
R
22
³
´
Z
1
·
3
·
5
.
.
.
(k
−
1)
2
x
√
k+1
⇒
⇒
xk e 2σ2 dx = π(2σ 2 ) 2
k
R
22
³
´
Z
1
·
3
·
5
.
.
.
(k
−
1)
2
√
x
√
k
⇒
xk e 2σ2 dx = π(2σ 2 ) 2 2σ 2
⇒
k
R
22
´
³
Z
1
·
3
·
5
.
.
.
(k
−
1)
2
√
x
k
⇒
xk e 2σ2 dx = 2πσ 2 2 2 σ k
⇒
k
R
22
Z
´
³
x2
1
⇒√
xk e 2σ2 dx = σ k 1 · 3 · 5 . . . (k − 1)
2 R
| 2πσ {z
}
1
2σ 2
E[X k ]
Per vedere le dierenze tra i vari processi è utile calcolare i momenti di
ordine superiore al II:
3
x) ]
-Skewness (asimmetria) E[(X−µ
; più un processo è skewness, più è asimσ3
metrico rispetto al valor medio
4
x) ]
-Kurtosis (curtosi) E[(X−µ
; dice quanto sono pesanti (heavy) le code della
σ4
densità di probabilità. Per le gaussiane la curtosi vale 3 ed è inferiore a
quella delle laplaciane.
2.1.2 La funzione caratteristica
La funzione caratteristica è la trasformata di Fourier della densità di
probabilità:
Z
φx (f ) = F{fx (x)} =
e−j2πf x fx (x)dx
(2.8)
R
Poiché:
fx (x) ­ φx (f )
∂
φx (f )
∂f
∂n
⇒ (−j2πx)n fx (x) ­
φx (f )
∂f n
⇒ −j2πxfx (x) ­
(−1)n ∂ n
φx (f )
(j2π)n ∂f n
La trasformata calcolata in zero è proprio l'integrale su R, cioè il momento
di ordine n :
Z
(−1)n (n)
n
E[X ] =
xn fx (x)dx =
φ (0)
(2.9)
(j2π)n x
R
⇒ xn fx (x) ­
CAPITOLO 2.
14
Quindi se si conosce tutto sui momenti allora si conosce tutto sulla densità
di probabilità, allora si conosce tutto sulla variabile aleatoria.
2.1.3 Dimostrazione che la trasformata di Fourier di una
gaussiana è ancora una gaussiana
Si dimostri adesso che la trasformata di Fourier di una variabile aleatoria
gaussiana è ancora una variabile aleatoria gaussiana.
Per semplicità si consideri una gaussiana a valor medio nullo: µx = 0.
(Se il valor medio non fosse nullo allora occorrerebbe fare una traslazione).
½
¾
2
1
− x2
φx (f ) = F{fx (x)} = F √
e 2σ
2
2πσ
Z
x2
1
√
=
e− 2σ2 · e−j2πf x dx
2πσ 2
³ 2
´
ZR
1
− x 2 +j2πf x
2σ
√
=
e
dx
(2.10)
2πσ 2
R
L'esponente della (2.10) è utile vederlo come un quadrato:
!2
r
µ 2
¶ Ãr 2
√
x
x
x2
2
2σ 2 πf
+
j2πf
x
=
+
α
⇒
α
=
j
−α
⇒
j2πf
x
=
2α
2σ 2
2σ 2
2σ 2
Quindi l'esponente sarà:
!2
µ 2
¶2
¶ Ãr 2
µ 2
√
x
x
x
2
2
+ j2πf x =
+α −α =
+ j 2σ πf + 2σ 2 π 2 f 2
2σ 2
2σ 2
2σ 2
Allora la (2.10) diventa:
φx (f ) =
1
√
2πσ 2
"µ
Z
√x
−
2σ 2
e
2 2 2
Si pone s =
√x
2σ 2
#
¶2
+2π 2 σ 2 f 2
dx
R
z
µ
=
√
+j 2σπf
e−2π σ f
√
2πσ 2
Z
−
e
s2
x
√
2σ 2
}|
¶{2
√
+ j 2σπf
dx
R
√
+ j 2σπf e allora:
2 2 2
φx (f ) =
e−2π σ f
√
2πσ 2
2 2f 2
=
e−2π σ
√
π
Z
√
+∞+j 2σπf
√
−∞+j 2σπf
Z +∞+j √2σπf
√
−∞+j 2σπf
e−s
2
2
√
2σ ds
e−s ds
CAPITOLO 2.
15
Quindi si deve calcolare l'integrale sulla linea in gura 2.1:
Figura 2.1: Linea in cui si deve calcolare l'integrale. √
Si noti che il punto di
intersezione tra la linea blu e l'asse immaginario è: j 2σπf
Per risolvere l'integrale, si consideri la linea chiusa in gura 2.2:
Figura 2.2: Circuito con chiusure all'innito
In questo modo infatti è possibile ricorrere al lemma di Jordan e dunque al
teorema dei residui. Per quanto riguarda l'integrale di una funzione su una
linea chiusa, è noto che se la funzione è analitica (cioè non ha singolarità)
allora l'integrale è nullo; altrimenti bisogna calcolare i residui relativi ad ogni
singolarità e il risultato dell'integrale sarà la somma dei residui.
2
2
e−s = e−(a+jb) = e−a
2 +b2 −2jab
Se la parte reale (a) tende all'innito, ma la parte immaginaria (b) no, allora
tutto tende a zero.
CAPITOLO 2.
16
Se la parte immaginaria (b) tende all'innito, ma la parte reale (a) no, allora
tutto tende all'innito.
Se sia la parte reale che quella immaginaria tendono all'innito allora il
risultato dipende da chi delle due parti ha più inuenza.
Nel caso in esame, nella zona del circuito in gura, domina la parte reale,
2
dunque tutto tende a zero, quindi la funzione e−s è analitica e allora, per il
lemma di Jordan si ha la (2.11):
I
2
e−s ds = 0
(2.11)
I
L'integrale della linea chiusa si scrive come la somma degli integrali delle
singole componenti, (2.12):
I
I
I
I
I
2
−s2
−s2
−s2
−s2
e ds =
e ds +
e ds +
e ds +
e−s ds = 0 (2.12)
I
I1
I2
I3
I4
I2 eI4 sono chiusure all'innito della funzione, ma lì essa vale zero, dunque
questi integrali sono nulli e quindi la (2.12) diventa:
I
I
I
2
−s2
−s2
e ds =
e ds +
e−s ds = 0
(2.13)
I
I1
Allora :
I3
I
I
2
2
e−s ds = −
I1
e−s ds
(2.14)
I3
Poiché in gura 2.2, il verso di I3 era opposto a quello di gura 2.1, e si è
interessati a calcolare l'integrale su I3 orientato
nel verso Hconcorde con la
H
2
2
gura 2.1, allora si vuole calcolare proprio − I3 e−s ds cioè I1 e−s ds, dove:
I
Z +∞
2
2
e−s ds =
e−s ds
(2.15)
Dalla (2.2) si sa che
In conclusione:
R +∞
−∞
I1
e
−∞
−s2
√
ds = π
2 2f 2
φx (f ) =
e−2π σ
√
π
=
e−2π σ
√
π
2 2f 2
= e−2π
Z
√
+∞+j 2σπf
√
−∞+j 2σπf
Z +∞
−s2
e
2
e−s ds
ds
−∞
2 σ2 f 2
Quindi la trasformata di Fourier di una gaussiana è di nuovo una gaussiana:
φx (f ) = F{fx (x)} = e−2π
2 σ2 f 2
(2.16)
Con questo risultato ottenuto è possibile inoltre dimostrare che la somma
di due gaussiane sarà una gaussiana con valor medio uguale alla somma dei
valor medi e varianza uguale alla somme delle varianze.
2
2
Inne, un altro risultato importante è che e−πt ­ e−πf .
CAPITOLO 2.
17
2.1.4 Teorema del limite centrale
Hp: Siano Xi n variabili aleatorie indipendenti continue.
Si supponga che:
n
X
lim
σx2i < ∞
n→∞
(2.17)
i
per ogni variabile aleatoria Xi ,
Z
xα fxi (x)dx < k
∃α > 2, ∃k < ∞ :
(2.18)
cioè si supponga che i momenti strettamente maggiori di 2 siano niti.
Si denisce:
n
X
Zn =
Xi
i=1
Thesi:
X
X
lim Zn = ℵ(
µi ,
σi2 )
n→∞
i
(2.19)
i
Il teorema del limite centrale spiega che se si hanno tante variabili aleatorie
indipendenti e si sommano, si otterrà una variabile aleatoria con densità di
probabilità gaussiana con valor medio uguale alla somma dei valor medi e
varianza uguale alla somma delle varianze.
Supponendo Xi a media nulla, allora:
φzn (f ) =
n
Y
φxi (f )
⇒
fzn (z) =
i=1
n
O
fxi (z)
(2.20)
i=1
Intuitivamente, se si moltiplicano molte funzioni, purché siano positive e
abbiano integrale 1, alla ne si ottiene una gaussiana. Il che è equivalente ad
aermare che se si convolvono tante funzioni che son trasformate di funzioni
positive e con integrale 1, si ottiene come risultato una gaussiana.
Infatti:
Z
(2.21)
φxi (0) = fxi (x) = 1 ⇒ φxi (0) = 1
¯Z
¯ Z
Z
¯
¯
−j2πf x
−j2πf x
¯
¯
k fxi (x) k · k e
k dx = fxi (x) = 1
φxi (f ) = ¯ fxi (x)e
dx¯ ≤
R
⇒ φxi (f ) ≤ 1
(2.22)
Nella (2.22) se Xi è continua vale il minore stretto e quindi il valore 1 viene
raggiunto solo nell'origine (Xi è continua nel tempo se non vi sono δ , che in
frequenza diventano seni e coseni, cioè funzioni oscillanti). Le varie φxi (f )
saranno 1 solo nell'origine e lontane dall'origine avranno valore minore di 1.
Tanti numeri reali positivi minori di 1, moltiplicati tra loro, daranno come
risultato un valore che tende a zero. Quindi col teorema del limite centrale
CAPITOLO 2.
18
si osserva solo quello che succede nell'intorno dell'origine perché comunque,
lontano dall'origine, si hanno valori che tendono a zero.
Si va a studiare quello che succede nell'intorno dell'origine: si vanno a fare
gli sviluppi di Taylor. Per comodità, anziché scrivere gli sviluppi di Taylor
della φxi (f ), si scrivono quelli del suo logaritmo:
(2.23)
ψxi (f ) = log φxi (f )
0
ψxi (f ) = ψxi (0) + f ψxi (0) +
Dove:
f 2 00
ψ (0) + o(f 2 )
2 xi
(2.24)
1
z }| {
ψxi (0) = log φxi (0) = 0
0
φx (0)
ψxi (0) = d (log φxi (0)) = i
=0
φxi (0)
0
0
00
0
φx (0)φxi (0) − φxi (0)φxi (0)
ψxi (0) = d (log φxi (0)) = i
= −4π 2 σx2i
(φxi (0))2
00
2
0
00
Per ricavare φxi (0) e φxi (0) si applica la formula del momento n-esimo:
E[X n ] =
(−1)n (n)
φ (0)
(j2π)n
(2.25)
0
z}|{
⇒ φxi (0) = E[X](−j2π) = µx j2π = 0
0
00
⇒ φxi (0) = E[X 2 ](j2π)2 = (σx2 + µ2x )(−4π 2 ) = −4π 2 σx2
Quindi:
0
ψxi (f ) = ψxi (0) + f ψxi (0) +
f 2 00
ψ (0) + o(f 2 )
2 xi
f2
+ o(f 2 )
2
= −2π 2 σx2i f 2 + o(f 2 )
= −4π 2 σx2i
Allora:
φxi (f ) ' e−2π
2 σ2 f 2
xi
(2.26)
ed è una gaussiana. Dalle (2.20) e (2.26) si dimostra che:
φzn (f ) =
n
Y
e−2π
2 σ2 f 2
xi
= e−2π
2f 2
Pn
i=1
σx2i
(2.27)
i=1
cioè si ottiene una gaussiana che ha come varianza la somma delle varianze
(ed avrebbe come valor medio la somma dei valor medi, ma essi sono stati
posti a zero per semplicità).
CAPITOLO 2.
19
2.2 Variabili aleatorie congiuntamente gaussiane
Considerate le variabili aleatorie X1 , X2 , . . . , Xn , si vuole che il vettore
→
−
X (2.28) sia congiuntamente gaussiano.


X1

−
→ 
 X2 
(2.28)
X = . 
 .. 
Xn
Un vettore di variabili aleatorie si dice congiuntamente gaussiano se una
qualsiasi combinazione lineare delle Xi è gaussiana. Introducendo il vettore
→
dei coecienti −
a:


a1
 a2 


→
−
a = . 
 .. 
an
allora si può scrivere:
→
→
→
→
Z=−
a T−
x =< −
a ,−
x >=
n
X
ai Xi
i=1
Quindi:
Z=
n
X
(2.29)
ai Xi
i=1
Adesso non si impone più che le Xi siano indipendenti, perché imporre
la proprietà (2.29) è suciente a determinare poi la densità di probabilità
congiunta.
L'obiettivo è calcolare la funzione caratteristica di un vettore di variabili
→
−
→
aleatorie gaussiane φ−
x ( f ); per fare ciò, si calcola prima la funzione caratteristica di una variabile aleatoria semplice gaussiana φz (f ). Nel farlo, ci si
−
→
→
accorge che φz (1) è proprio uguale a φ−
x ( a ) cioè a ciò che si stava cercando.
La funzione caratteristica di un vettore di variabili aleatorie gaussiane è:
Z
P
P
−
→ →
−
→
−
→ −
→
−j2π f T −
x
−j2π i fi xi
→
−
→
] = E[e
]=
e−j2π i fi xi f−
φ x ( f ) = E[e
x ( x )d x
Rn
(2.30)
L'integrale è la trasformata di Fourier n-dimensionale della densità di probabilità congiunta, ma svolgere tale calcolo richiede ulteriori competenze. Per
semplicità, si calcoli allora φz (f ). La funzione caratteristica di una variabile
aleatoria gaussiana è:
2 2 2
φz (f ) = e−2π f σz
(2.31)
CAPITOLO 2.
20
Si supponga valor medio nullo (nel caso fosse diverso da zero, ci avrebbe una
traslazione) e si calcoli σz2 :
−
−
−
→
→
→
σz2 = E[(z − µz )2 ] = E[z2 ] = E[(→
a T→
x )2 ] = E[(→
a T−
x )(−
a T−
x )T ]
|{z}
0
→
→
→
→
−
→
→
→
−
→
= E[(−
a T−
x )(−
x T−
a )] = →
a T E[−
x−
x T ]−
a =→
a T C−
a
Nella posizione Cij c'è la correlazione E[xi xj ] tra la variabile aleatoria i e la
variabile aleatoria j. Poiché si sta considerando un vettore a valor medio nullo
allora la correlazione è uguale alla covarianza (infatti Hxx (τ ) = Cxx (τ ) + µ2x ),
→
quindi C è la matrice di covarianza di −
x.
−
→
−
→
2
T
Sostituendo σz = a C a nella (2.31) si ottiene:
φz (f ) = e−2π
Allora:
φz (1) = e−2π
→
→
2f 2−
a T C−
a
→
→
2−
a T C−
a
(2.32)
−
= φx (→
a)
(2.33)
→
−
→
Sostituendo −
a con f , si ottiene proprio la funzione caratteristica di un
vettore di variabili aleatorie gaussiane:
→
−T
−
→
−2π 2 f
C f
|{z}
|{z}
|{z}
−
→
nxn
1xn
nx1
→
φ−
(2.34)
x(f ) = e
−
→
→
Inoltre la (2.34) mostra che φ−
x ( f ) è uno scalare.
Antitrasfomando la (2.34), si ottiene:
−
−
−
−
(→
x −→
µ )T C −1 (→
x −→
µ)
1
→
−
−
2
→
p
e
f−
(
x
)
=
x
2n π n |C|
(2.35)
dove n è la lunghezza del vettore e |C| il determinante della matrice di
covarianza.
E' necessario che la matrice C sia invertibile infatti se non lo fosse, si
avrebbe determinante nullo. La matrice C è reale, simmetrica e semidenita
→
→
→
→
→
positiva: −
a T C−
a ≥ 0 ∀−
a , perché E[(−
a T−
x )2 ] è una forma quadratica. Ma
→
−
anché C sia sempre invertibile, deve essere denita positiva:−
a T C→
a > 0,
−
→
cioè deve valere l'uguale solo per a = 0
→
→
−
→
E[(−
a T→
x )2 ] = 0 sse −
a T−
x =0
cioè se
X
ai Xi = 0
i
ossia se le variabili aleatorie X1 X2 . . . Xn non sono linearmente indipendenti
(perché in tal caso una variabile aleatoria potrebbe essere scritta come combinazione lineare delle altre e dunque, nel caso che le altre variabili fossero
note, essa diventerebbe deterministica).
⇒ se le variabili aleatorie che si considerano sono linearmente indipendenti, allora la matrice è denita positiva e dunque è sempre invertibile.
CAPITOLO 2.
21
2.2.1 Proprietà delle variabili aleatorie congiuntamente gaussiane
1) Le densità di probabilità marginali sono ancora gaussiane; un qualsiasi
sottoinsieme di variabili aleatorie gaussiane è ancora gaussiano.
Dimostrazione:
Z
−
→
→
→
e−j2π(f1 x1 +f2 x2 +···+fn xn ) f−
φ−
x (x1 x2 . . . xn )dx1 dx2 . . . dxn
x(f ) =
Rn
Per calcolare la densità di probabilità marginale, si toglie la i-esima componente, quindi si toglie la fi :
→
φ−
x (f1 , . . . , fi−1 , 0, fi+1 , . . . , fn ) =
Z
=
Rn
−j2π(f1 x1 +···+fi−1 xi−1 +0+fi+1 xi+1 +···+fn xn )
→
f−
dx1 dx2 . . . dxn
x (x1 x2 . . . xn )e
Adesso si integra su xi e dunque si toglie anche la xi :
→
φ−
x (f1 , . . . , fi−1 , 0, fi+1 , . . . , fn ) =
Z
=
Rn−1
vedi sopra
z }| {
(. . . . . . . . . ) dx dx . . . dx dx . . . dx
−j2π
→ (x1 x2 . . . xi−1 xi+1 . . . xn )e
f−
1
2
i−1
i+1
n
x−i
→
→
L'obiettivo è dimostrare che la funzione caratteristica φ−
x −i (f−
x −i ), è ancora
gaussiana. La i-esima componente è posta a 0, allora nella matrice C la riga
i-esima e la colonna i-esima verranno moltiplicate per 0, quindi tale riga e
tale colonna saranno azzerate:


−2π 2
³
f1 . . .
0 ...
fn
´



C11 . . .
..
..
.
.
Cn1 . . .
→
→
φ−
x −i (f−
x −i ) = e


C1n 


.. 

. 


Cnn 


f1
..
.
0
..
.












fn
→
⇒ la −
x rimane ancora un vettore gaussiano.
Iterando si riesce a farlo per qualsiasi sottoinsieme.
2) Per le gaussiane l'analisi no al secondo ordine (cioè su valor medio
→
−
µ x e varianza C) dice già tutto.
3) Per le gaussiane l'indipendenza e la scorrelalatezza sono la stessa cosa.
In generale indipendenza ⇒ scorrelatezza e il contrario non è sempre vero.
Per le gaussiane è possibile dimostrare che indipendenza ⇐ scorrelatezza.
CAPITOLO 2.
22
Dimostrazione:
Si parte dall'ipotesi di scorrelatezza; se le variabili sono scorrelate allora
la matrice C è diagonale e sulla diagonale ciQsono le varianze, allora il
determinante è il prodotto delle varianze |C| = i σi2 , quindi:

− 21
−
→
→
f−
x(x) =
=
1
p
e
n
2 π n |C|
1
q
e
Q
2n π n i σi2
−
n
Y
e
q
=
i
=
³
n
Y
1
σ12
´
 .
xn 
 ..

x ...
0
...
..
.
...
0
..
.
1
2
σn






x
..
.





xn
µ
¶
x2
− 12 Σi i2
σ
i
x2
2σ 2
i
2πσi2
fxi (xi )
i
Partendo dall'ipotesi di scorrelatezza si può dunque vericare che la densità
di probabilità congiunta è il prodotto delle singole densità di probabilità
quindi le variabili sono indipendenti.
Allora se le variabili aleatorie sono scorrelate e gaussiane, esse sono anche
indipendenti.
4) Le curve di livello della gaussiana multivariata sono ellissi.
Dimostrazione:
Per tracciare le curve di livello di una gaussiana in due dimensioni si pone
la densità di probabilità congiunta uguale ad una costante:
1
fxy (x, y) = p
e
4π 2 |C|
Ciò vuol dire porre:
¡
x y
¢
− 21
³
µ
C
−1
x y
x
y
´

C −1 
x
y


=k
¶
= k0
Poiché il termine di sinistra è una forma quadratica, allora è una conica
(ellissi, parabola, iperbole). Se C −1 è denita positiva allora tale conica è
un'ellisse.
• Se X e Y sono indipendenti, si avrà una matrice diagonale e dunque un'ellisse con l' asse maggiore parallelo all'asse x (se σx2 > σy2 ), oppure con l' asse
maggiore parallelo all'asse y (se σx2 < σy2 ), oppure delle circonferenze nel caso
CAPITOLO 2.
23
in cui σx2 = σy2 .
µ
C=
σx2 0
0 σy2
Ã
¶
⇒ C −1 =
1
σx2
0
!
0
⇒
1
σy2
y2
x2
+
=k
σx2 σy2
|
{z
}
ellisse
• Se X e Y non sono indipendenti allora si avrà un'ellisse orientata non nella
stessa direzione di x o y.
→
−
5) Si supponga di avere un vettore X di n elementi si considerino due
−
→ →
−
→
−
→
→
sottoinsiemi di X : X 1 e X 2 , si avrà che f (−
x 1 |−
x 2 ) è ancora una gaussiana
multivariata. Cioè la densità di probabilità di un sottoinsieme condizionato
ad un altro sottoinsieme, è ancora gaussiana. Questa proprietà ci limitiamo
ad enunciarla, senza proporre una dimostrazione formale.
6) Prendendo m combinazioni lineari delle n variabili aleatorie gaussiane,
si ottengono m variabili aleatorie che saranno congiuntamente gaussiane:
−
→
−
→
A |{z}
X = |{z}
Y
|{z}
mxn nx1
(2.36)
mx1
Dimostrazione:
→
−
φy ( f )
| {z }
−
→T
= E[e−j2π f
Y
−
→T −
→
AX
] = E[e−j2π f
−
→
] = φx ( f T A)
| {z }
vettore lungo n
vettore lungo m
−
→
Il vettore φx ( f T A) è ancora una gaussiana infatti:
−
→
−2π 2 f T
→
−
φx ( f T A) = e
Si ottiene:
−
→
−
→
−2π 2 f T ACx ( f T A)T
=e
−
→
ACx AT f
| {z }
Cy
Cy = A Cx AT
|{z} |{z} |{z} |{z}
mxm
mxn nxn nxm
−
→
−
→
Si osservi che se la matrice A è quadrata (nxn), allora con A X = Y si fa
un cambio di coordinate e si ottiene ancora un vettore di variabili aleatorie
gaussiane.
Potendo scegliere A, la si sceglie tale che essa diagonalizzi la matrice Cx
−
→
in modo da ottenere Cy diagonale e dunque avere un vettore Y a variabili
aleatorie indipendenti. Da qui ci si riconduce alla Kalhunen-Loeve Transform
(KLT), trasformata che, applicata al vettore di variabili aleatorie, rende di→
−
agonale la matrice di covarianza, cioè produce un vettore Y di variabili
aleatorie indipendenti (gaussiane).
CAPITOLO 2.
24
2.3 Processi gaussiani
Un processo si dice gaussiano se comunque si scelgano t1 , t2 , ..., tn , le
n variabili aleatorie che si ottengono sono congiuntamente gaussiane. Ciò
equivale a dire che se si campiona il processo x(k, t), ogni campione è gaussiano.
Per un processo gaussiano è semplice dare una sua descrizione completa
perché la caratte-rizzazione completa è del tutto equivalente ad una caratterizzazione no al II ordine.
Sia il processo x(k, t) gaussiano e SSL (Stazionario in Senso Lato), allora
µx e Hxx (τ ) sono sucienti a descrivere in maniera completa il processo:
−
→ = (µ (t ), µ (t ), ...., µ (t )) ma essendo il processo SSL ⇒ −
→ = (µ , µ , ..., µ )
µ
µ
x
x 1
x 2
x n
x
x x
x
´³
´i
h³
Cij = E x(k, ti )−µx x(k, tj )−µx = Cxx (ti , tj ) = Cxx (ti − tj ) = Hxx (ti −tj )−µ2x
|
{z
}
essendo stazionari in senso lato
Se si pone in ingresso ad un sistema LTI un processo gaussiano x(k, t),
allora anche l'uscita y(k, t) sarà gaussiana:
Z
y(k, t) = x(k, t)h(t − τ )dτ
Ingresso e uscita sono congiuntamente gaussiani quando: presi h istanti sul
primo processo e k istanti sul secondo processo, le h + k variabili aleatorie
sono congiuntamente gaussiane.
x(k, t1 )x(k, t2 )...x(k, th )
|
{z
}
y(k, th+1 )y(k, th+2 )...y(k, th+k )
|
{z
}
h
k
Capitolo 3
Segnali e processi a banda
stretta
Si deniscono segnali a banda stretta quei segnali il cui spettro ha una
larghezza molto piccola rispetto alla sua posizione sull'asse delle frequenze.
Ad esempio un possibile segnale a banda stretta x(t) può essere costruito
(ma non è l'unico modo) a partire da una modulazione fra un cos(2πf0 t) e
un segnale x0 (t) in banda base:
x(t) = x0 (t) · cos(2πf0 t)
con f0 À B 0
(3.1)
con B 0 banda di s0 (t).
Per esempio i segnali emessi da un'emittente televisiva, radiofonica, o da
una scheda di rete wireless sono tutti segnali a banda stretta. La gura 3 dà
una rappresentazione graca dello spettro di un segnale a banda stretta.
Analizzando tali segnali con gli usuali strumenti utilizzati per i segnali
passa basso si presentano alcuni eetti indesiderati. Il principale problema si
Figura 3.1: Trasformata di Fourier di un segnale a banda stretta
25
CAPITOLO 3.
26
riscontra applicando al segnale il teorema di Shannon (o del campionamento).
Si supponga per esempio di dover memorizzare un minuto di un segnale
vocale di banda B 0 = 4 KHz che per essere trasmesso è stato centrato
in f0 = 5 GHz . In questo caso, la banda del segnale da memorizzare è
B = 5 000 004 000 Hz . Per Shannon la frequenza di campionamento minima
per poter ricostruire completamente il segnale è:
fc = 2B ' 10GHz
Questo signica che per memorizzare un minuto di segnale occorrono
600·109 campioni. Un approccio non praticabile nemmeno con i moderni calcolatori. Sfruttando il teorema del campionamento non è possibile scendere
al di sotto dei 2B campioni se si vuole ricostruire senza perdita il segnale.
In questo esempio il vero problema è che il segnale da memorizzare è
solamente quello centrato in f0 = 5 GHz , ma con supporto 2B 0 = 8 KHz .
Applicando invece il teorema, si ottengono campioni che contengono al loro
interno anche l'informazione della nullità dello spettro compresa in [ 0 ; f0 −
B 0 ].
3.1 Segnali deterministici (segnali a banda stretta)
Per risolvere le problematiche derivanti dall'analisi dei segnali a banda
stretta, si ricorre ad un cambio di rappresentazione: facendo passare il segnale attraverso alcuni sistemi LTI in cascata si deve riuscire a scrivere x(t)
come derivante da una funzione g(x0 (t)) con la speranza che x0 (t) sia un
segnale in banda base. Così facendo, con la conoscenza di g e dei campioni
prodotti da x0 (t), diventerebbe possibile ricostruire completamente il segnale
di partenza.
L'analisi che svolgeremo nel seguito, si basa su due ipotesi fondamentali:
• x(t) reale
• x(t) generico a banda stretta
Avendo assunto x(t) reale, segue che X(f ) (x(t) ­ X(f )) ha simmetria hermitiana, in particolare Re{X(f )} è pari e Im{X(f )} è dispari. Ne discende
che la parte destra dello spettro, cioè i valori di X(f ) per f ≥ 0 contengono
tutta l'informazione necessaria per descrivere in frequenza x(t). Il segnale di
partenza deve quindi potersi ricostruire esattamente a partire da una funzione del tipo α · X(f ) · U (f ) con u(t) ­ U (f ) funzione gradino unitario e
α una costante nota. In particolare si può scrivere:
x+ (t) = x(t) + x(t) ⊗
j
= x(t) + j x̂(t) ­
πt
CAPITOLO 3.
27
b )
­ X + (f ) = X(f ) + j X(f
³
´
= X(f ) + j − jsgn(f )X(F )
= X(f ) + sgn(f )X(f )
= X(f )(1 + sgn(f ))
= 2 · X(f ) · U (f )
La quantità x+ (t) si chiama preinviluppo complesso di x(t), mentre x̂(t)
indica la trasformata di Hilbert di x(t).
Così facendo si ottiene un solo intervallo di frequenze dove lo spettro non
è nullo. Il passo successivo è il seguente:
x̃(t) = x+ (t) · e−j 2πf0 t
­
e ) = X + (f + f0 )
X(f
(3.2)
Il segnale x̃(t) è chiamata inviluppo complesso e in generale la sua trasformata
non gode della simmetria Hermitiana. È possibile perciò scrivere l'inviluppo
complesso di x(t) come Re{x̃(t)} + j Im{x̃(t)}:
¡
¢
x̃(t) = x(t) + j x̂(t) · e−j 2πf0 t
¡
¢ ¡
¢
= x(t) + j x̂(t) · cos(2πf0 t) − j sin(2πf0 t)
= x(t) cos(2πf0 t) + j x̂(t) cos(2πf0 t) − j x(t) sin(2πf0 t) + x̂(t) sin(2πf0 t)
= xi (t) + j xq (t)
xi (t) è chiamata componente in fase del segnale x(t) e xq (t) è chiamata
componente in quadratura.
La tabella 3.1 riassume i passaggi precedenti nel dominio della frequenza.
Segnale a banda stretta
Preinviluppo complesso
Inviluppo complesso
Tabella 3.1: Rappresentazione in frequenza di x(t)
Le formule che permettono di ricavare la componente in fase e quella in
quadratura del segnale possono essere raggruppate in forma vettoriale per
una rappresentazione più compatta.
µ
¶ µ
¶ µ
¶
xi (t)
cos(2πf0 t) sin(2πf0 t)
x(t)
=
·
(3.3)
xq (t)
− sin(2πf0 t) cos(2πf0 t)
x̂(t)
CAPITOLO 3.
28
Tale rappresentazione prende il nome di equazioni di analisi del segnale.
Invertendo il sistema (3.3) si ottengono l'equazioni di sintesi del segnale :
µ
¶ µ
¶ µ
¶
x(t)
cos(2πf0 t) − sin(2πf0 t)
xi (t)
=
·
(3.4)
x̂(t)
sin(2πf0 t)
cos(2πf0 t)
xq (t)
Date le componenti in fase e in quadratura del segnale e la frequenza f0 , si
risale attraverso la (3.4) al segnale x(t) di partenza. Il sistema fornisce anche
un metodo per ricavare la trasformata Hilbert a partire dalle funzioni xi (t)
e xq (t).
Dalle equazioni di sintesi si nota anche che un segnale a banda stretta può
essere espresso anche come:
x(t) = xi (t) · cos(2πf0 t) − xq (t) · sin(2πf0 t)
µ
¶
q
xq (t)
2
2
xi (t) + xq (t) · cos 2πf0 t + arctan
=
x (t)
{z
}
|
|
{z i }
Ampiezza
F ase
dove le componenti xi (t) e xq (t), opportunamente combinate, modulano
ampiezza e fase della portante cos(2πf0 t). Da questo derivano i nomi di
fase e quadratura della rappresentazione analitica dei segnali a banda stretta. Inoltre si evidenzia anche che tutti i segnali a banda stretta si possono
vedere come un coseno modulato in ampiezza e fase.
A tal proposito elenchiamo qui diseguito alcuni tipi di modulazione: AM,
DSB(Double Side Band), SSB(Single Side Band).
• mAM (t) = V0 (1 + kx(t)) cos(2πf0 t)
• mDSB (t) = x(t) cos(2πf0 t)
xi (t) = x(t)
xq (t) = 0
x
e(t) = xq
e
= x(t)
i (t) + jxq (t) ⇒ m(t)
a(t) =
x2i (t) + x2q (t) = |x(t)|
• mSSB (t) = x(t) cos(2πf0 t) ± x̂(t) sin(2πf0 t)
(Si usa il + se vogliamo trasmettere la semibanda di sinistra, il - se
vogliamo trasmettere quella di destra).
xi (t) = x(t)
xq (t) = ±x̂(t) x
e(t) = xi (t) + jxq (t) ⇒ m(t)
e
= x(t) − j x̂(t)
f(f ) = X(F )−j(−jsgn(f )X(f )) = X(f )−sgn(f )X(f ) = −2X(f )U (f )
⇒M
q
p
a(t) = x2i (t) + x2q (t) = x2 (t) + x̂2 (t)
CAPITOLO 3.
29
Osservando il comportamento in frequenza dell'inviluppo complesso è
facile dimostrare che:
·
¸
µ
¶
f
Xi (f ) = X(f + f0 ) + X(f − f0 ) · rect
(3.5)
2f0
e
¶
·
¸
µ
f
Xq (f ) = j X(f − f0 ) − X(f + f0 ) · rect
2f0
(3.6)
Infatti:
xi (t) = x(t) cos(2πf0 t) + x̂(t) sin(2πf0 t) ­
­ Xi (f ) =
=
=
=
=
b − f0 ) + X(f
b + f0 )
X(f − f0 ) + X(f + f0 ) X(f
+
2
2j
X(f − f0 ) + X(f + f0 ) −jsgn(f − f0 )X(f − f0 ) + jsgn(f + f0 )X(f + f0 )
+
2
2j
³
´
³
´
X(f − f0 )
X(f + f0 )
1 − sgn(f − f0 ) +
1 + sgn(f + f0 )
2
2
X(f − f0 )U (−f + f0 ) + X(f + f0 )U (f + f0 )
(
X(f − f0 ) + X(f + f0 ) se |f | < f0
0
altrove
=⇒ la componente in fase Xi (f ) della SSB è il segnale originale.
xq (t) = −x(t) sin(2πf0 t) + x̂(t) cos(2πf0 t) ­
³ X(f − f ) − X(f + f ) ´ X(f
b − f0 ) + X(f
b + f0 )
0
0
­ Xq (f ) = −
+
2j
2
−X(f − f0 ) + X(f + f0 ) ³ −jsgn(f − f0 )X(f − f0 ) − jsgn(f + f0 )X(f + f0 ) ´
=
+
2j
2
−X(f − f0 ) + X(f + f0 ) + sgn(f − f0 )X(f − f0 ) + sgn(f + f0 )X(f + f0 )
=
2j
³
´
³
´
X(f − f0 ) − 1 + sgn(f − f0 ) + X(f + f0 ) 1 + sgn(f + f0 )
=
2j
−2X(f − f0 )U (−f − f0 ) + 2X(f + f0 )U (f + f0 )
=
2j
= jX(f − f0 )U (−f − f0 ) − jX(f + f0 )U (f + f0 )
´
( ³
j X(f − f0 ) − X(f + f0 )
se |f | < f0
=
0
altrove
CAPITOLO 3.
30
=⇒ la componente in quadratura Xq (f ) della SSB è esattamente la trasformata di Hilbert del segnale.
Le equazioni (3.5) (3.6) sono un ulteriore modo per ricavare (in frequenza)
le componenti in fase e in quadratura. Come si può notare tali componenti
sono in banda base.
La frequenza f0 non è vincolante (può essere scelta arbitrariamente), ma
si può dimostrare che ssandola a metà dello spettro non nullo si ottiene la
scelta ottima (ovvero quella che minimizza la banda di xi (t) e di xq (t)).
In riferimento all'esempio sopra esposto sulla memorizzazione di un minuto del segnale x(t), con l'introduzione della forma canonica di segnali a
banda stretta il problema (da una complessità iniziale di 600 · 109 campioni)
si riduce al campionamento di due segnali1 (la componente in fase e quella
in quadratura) di banda B 0 . In questo modo con solo 60 · 2 · 2B 0 = 960000
campioni e l'informazione f0 = 5 GHz si memorizza senza perdita il segnale
di partenza x(t).
3.1.1 Simulazione in banda base di un sistema a radiofrequenza, sistemi LTI
È interessante studiare come opera un sistema LTI con risposta impulsiva
a banda stretta2 quando viene attraversato da un segnale x(t) anch'esso a
banda stretta.
Chiamando y(t) ­ Y (f ) l'uscita e h(t) ­ H(f ) la risposta del sistema
si ha che:
Y (f ) = H(f ) · X(f )
ne deriva che anche y(t) è a banda stretta quindi l'uscita può essere rappresentata in banda base. In questo modo si può simulare un sistema a
radiofrequenza lavorando invece in banda base.
1
contro
2
il solo segnale dell'applicazione diretta del teorema di Shannon.
In realtà quest'ipotesi non è a causa della natura a banda stretta del segnale in ingresso
al sistema.
CAPITOLO 3.
31
Calcoliamo il preinviluppo complesso:
Y + (f ) = Y (f ) + jY + (f )
= Y (f ) + j (−jsgn(f )Y (f ))
= Y (f ) + sgn(f )Y (f )
= Y (f ) (1 + sgn(f ))
= 2Y (f )U (f )
= 2X(f )H(f )U (f )
= 2X(f )H(f )U (f )U (f )
2H(f )U (f )
= 2X(f )U (f ) ·
|
{z
} |
2
{z
}
X + (f )
=
H + (f )
2
¢
1¡ +
X (f ) + H + (f )
2
Allora:
¢
1¡ +
X (f ) + H + (f )
(3.7)
2
Perché U (f ) vale 0 oppure 1 allora si può moltiplicare per inniti U (f ) senza
alterare il risultato; successivamente si moltiplica e divide per 2 in maniera
tale da ottenere l'espressione di H + (f ).
Ma il preinviluppo complesso non è un segnale molto utile perché continua
ad essere un segnale a radiofrequenza; vediamo allora l'inviluppo complesso:
Y + (f ) =
1e
1
e )
)H(f
Ye (f ) = Y + (f + f0 ) = X + (f + f0 )H + (f + f0 ) = X(f
2
2
Allora:
1e
e )
)H(f
Ye (f ) = X(f
2
(3.8)
Nel tempo si ha che:
£
¤
ye(t) = yi (t) + j yq (t)
·
¸
¢ ¡
¢
1 ¡
· si (t) + j sq (t) ⊗ hi (t) + j hq (t)
=
2
¤
1 £
=
· si (t) ⊗ hi (t) + j sq (t) ⊗ hi (t) + j si (t) ⊗ hq (t) − sq (t) ⊗ hq (t)
2
£
¤

 yi (t) = 21 · si (t) ⊗ hi (t) − sq (t) ⊗ hq (t)
=⇒
£
¤

yq (t) = 21 · sq (t) ⊗ hi (t) + si (t) ⊗ hq (t)
Si osservi come il calcolo dell'uscita del sistema possa essere eseguito tutto
in banda base (per passare in banda passante solo alla ne del procedimento).
CAPITOLO 3.
32
Questa possibilità è di importanza fondamentale per la simulazione numerica
dei sistemi, in quanto permette di simulare il comportamento del sistema
utilizzando delle frequenze di campionamento decisamente più basse di quelle
a cui sarebbe necessario operare per lo studio diretto in banda passante.
3.1.2 Applicazioni sui segnali a banda stretta
Supponiamo che un segnale modulato DSB oppure AM entri in un sistema la cui risposta in fase sia:
H(f ) = Aejβ(f )
Anché il sistema non sia distorcente:
- A dovrebbe essere costante nella banda del segnale di ingresso in modo da
avere kH(f )k costante;
- β(f ) dovrebbe essere lineare e la retta che approssima linearmente ∠H(f )
dovrebbe passare per l'origine.
Supponiamo di essere nel caso in cui essa non passi per l'origine, dunque si
ha distorsione.
Si denicono il ritardo di fase (3.9) ed il ritardo di gruppo (3.10):
τf =
−β(f0 )
2πf0
(3.9)
τg =
−β(f0 )
2π
(3.10)
Se τf 6= τg ⇒ si ha distorsione
Studiamo il sistema nella rappresentazione in banda base.
Il segnale che si vuole trasmettere è:
• x(t) = m(t) cos(2πf0 t) nel caso della modulazione DSB
• x(t) = (m(t) + 1) cos(2πf0 t) nel caso della modulazione AM
e ) per ricavarsi
Il procedimento da seguire è quello di partire da x
e(f ) e H(f
+
e
Y (f ); da quest'ultima ricavarsi Y (f ), antitrasformare per calcolare y + (t),
prenderne la parte reale e trovare così il segnale in uscita y(t).
Si consideri, ad esempio, il caso della modulazione DSB:
x(t) = m(t) cos(2πf0 t)
e ) = M (f )
x
e(t) = xi (t) +j xq (t) = m(t) ­ X(f
| {z }
| {z }
m(t)
0
H(f ) può essere considerato a banda stretta:
³f + f ´
³f − f ´
0
0
+ Aejβ(f ) rect
H(f ) = Aejβ(f ) rect
2B
2B
e ) si trova eliminando le frequenze negative, moltiplicando tutto per 2 e
H(f
traslando verso sinistra:
³
´
e ) = 2Aejβ(f +f0 ) rect f
H(f
2B
CAPITOLO 3.
33
A questo punto si hanno tutti gli elementi per calcolare Ye (f ):
1e
e ) = AM (f ) ejβ(f +f0 )
Ye (f ) = X(f
)H(f
2
Y + (f ) = Ye (f − f0 ) = AM (f − f0 ) ejβ(f )
Si applica Taylor per linearizzare la fase:
β(f ) = β(f0 ) + β 0 (f0 )(f − f0 ) = −2πf0 τf − 2πτg (f − f0 )
Y + (f ) = AM (f − f0 )ej(−2πf0 τf −2πτg (f −f0 ))
= Ae−j2πf0 τf M (f − f0 )e−j2πτg (f −f0 )
y + (t) = Ae−j2πf0 τf m(t − τg )ej2πf0 t
y(t) = Re{y + (t)} = A m(t − τg ) cos(2πf0 (t − τf ))
| {z }
| {z }
inviluppo
(3.11)
portante
L'equazione (3.11) esprime un risultato importante infatti, nonostante il segnale sia distorto, a causa del fatto che τf > τg , tuttavia l'inviluppo, che è ciò
che realmente interessa, è solo traslato.
3.2 Segnali aleatori complessi (processi a banda stretta)
Abbiamo visto che x(t) era reale, dunque la sua trasformata X(f ) aveva
simmetria hermitiana.
Adesso invece trattiamo segnali complessi, quindi per far vedere che x+ (k, t) =
x(k, t) + j x̂(k, t) elimina le frequenze negative del segnale, non si può più
sfruttare la trasformata (perché non esiste), si deve quindi passare attraverso l'autocorrelazione (nella quale si usa in coniugato, poiché si hanno segnali
complessi):
Hxx (τ ) = E[x(k, t + τ )x∗ (k, t)]
Hx+ x+ (τ ) = E[x+ (k, t + τ )x+ (k, t)∗ ]
³
´³
´
= E[ x(k, t + τ ) + j x̂(k, t + τ ) x(k, t) − j x̂(k, t) ]
= Hxx (τ ) − jHxx̂ (τ ) + jHx̂x (τ ) + Hx̂x̂ (τ )
= 2Hxx (τ ) + 2j
H (τ )
{z }
| x̂x
d
Hxx (τ )⊗h(τ )=H
xx (τ )
d
= 2Hxx (τ ) + 2j H
xx (τ )
+
= 2Hxx
(τ )
Perché la trasformata di Hilbert é come il passaggio attraverso un sistema
LTI:
CAPITOLO 3.
34
Sx̂x̂ (f ) = Sxx (f )kH(f )k2 = Sxx (f )k − jsgn(f )k2 = Sxx (f ) · 1 ⇒
⇒ Sx̂x̂ (f ) = Sxx (f ) ⇒ Hx̂x̂ (τ ) = Hxx (τ ).
Invece Sx̂x (f ) è immaginario dispari (perché è il prodotto di Sxx (f ) che è reale
pari e di −jsgn(f ) che è immaginario dispari) quindi la sua trasformata, ossia
Hx̂x̂ (τ ) sarà reale dispari ⇒ Hx̂x (τ ) = Hx̂x (−τ ) = −Hx̂x (τ ) .
³
´
Sx+ x+ (f ) = 2Sxx (f ) + 2jSxx (f ) − jsgn(f )
= 2Sxx (f ) + 2Sxx (f )sgn(f )
= 2Sxx (f )[1 + sgn(f )]
= 2Sxx (f )2U (f )
= 4Sxx (f )U (f )
Hx̃x̃ (τ ) = E[x̃(k, t + τ )x̃(k, t)∗ ]
= E[x+ (k, t + τ )−j2πf0 (t+τ ) x+ (k, t)ej2πf0 t ]
= Hx+ x+ (τ )e−j2πf0 τ
Quindi:
Sx̃x̃ (f ) = Sx+ x+ (f + f0 )
In analogia con i risultati ricavati dalla rappresentazione analitica di segnali determinati a banda stretta, si introducono le componenti in fase e in
quadratura di processi stocastici a banda stretta3 :

 xi (k, t) = x(k, t) · cos(2πf0 t) + x̂(k, t) · sin(2πf0 t)
(3.12)

xq (k, t) = −x(k, t) · sin(2πf0 t) + x̂(k, t) · cos(2πf0 t)
Essendo anche le componenti in fase e in quadratura dei processi stocastici, è innanzitutto necessario studiare la loro stazionarietà in senso lato
ipotizzando la stazionarietà in senso lato di x(k, t).
Teorema 1. Siano xi (k, t) e xq (k, t) le componenti in fase e quadratura di
un processo x(k, t) a banda stretta, SSL e con µx = 0
Allora:
• xi (k, t) e xq (k, t) sono congiuntamente SSL
• Hxi xi (τ ) = Hxq xq (τ )
• Hxi xq (τ ) = −Hxq xq (τ )
³
• Sxi xi (f ) = Sxq xq (f ) = (Sxx (f − f0 ) + Sxx (f + f0 )) rect
f
2f0
´
• Sxi xq (f ) = −Sxq xi (f ) = −j (Sxx (f − f0 ) − Sxx (f + f0 )) rect
3
³
f
2f0
´
La denizione di banda stretta si riferisce alla densità spettrale di potenza media Sxx .
CAPITOLO 3.
35
Dimostrazioni:
E[xi (k, t)] = E[x(k, t)] · cos(2πf0 t) + E[x̂(k, t)] · sin(2πf0 t)
= µx · cos(2πf0 t) + µx̂ · sin(2πf0 t)
= 0
perché µx = 0 per ipotesi e µx̂ = µx H0 è zero perché se è nullo l'ingresso al
sistema LTI allora è nulla anche l'uscita.
E[xq (k, t)] = −E[x(k, t)] · sin(2πf0 t) + E[x̂(k, t)] · cos(2πf0 t)
= −µx · sin(2πf0 t) + µx̂ · cos(2πf0 t)
= 0
Per quanto riguarda l'autocorrelazione della componente in fase si ha:
Hxi xi (τ ) = E[xi (k, t + τ )xi (k, t)]
h¡
¢
= E x(k, t + τ ) · cos(2πf0 (t + τ )) + x̂(k, t + τ ) · sin(2πf0 (t + τ )) ·
¡
¢i
· x(k, t) · cos(2πf0 t) + x̂(k, t) · sin(2πf0 t)
£
= E x(k, t + τ ) · x(k, t) · cos(2πf0 (t + τ )) · cos(2πf0 t) +
+ x̂(k, t + τ ) · x(k, t) · sin(2πf0 (t + τ )) · cos(2πf0 t) +
+ x(k, t + τ ) · x̂(k, t) · cos(2πf0 (t + τ )) · sin(2πf0 t) +
¤
+ x̂(k, t + τ ) · x̂(k, t) · sin(2πf0 (t + τ )) · sin(2πf0 t)
= Hxx (τ ) · cos(2πf0 (t + τ )) · cos(2πf0 t) +
+Hx̂x (τ ) · sin(2πf0 (t + τ )) · cos(2πf0 t) +
+Hxx̂ (τ ) · cos(2πf0 (t + τ )) · sin(2πf0 t) +
+Hx̂x̂ (τ ) · sin(2πf0 (t + τ )) · sin(2πf0 t)
Occorre a questo punto fare delle semplicazioni tenendo conto dei legami
esistenti fra le correlazioni.
La densità spettrale di potenza media del processo x̂(k, t) è così denita:
Sx̂x̂ (f ) = Sxx (f ) · k H(f ) k2 = Sxx (f )
| {z }
k−j sgn(f )k2 =1
⇒
Hxx (τ ) = Hx̂x̂ (τ )
Per la cross-correlazione si ha:
Hxx̂ (τ ) = Hx̂x (−τ )
Inoltre:
Sx̂x (f ) = Sxx (f ) · H(f ) = −j sgn(f ) · Sxx (f ).
CAPITOLO 3.
36
Ma essendo Sxx pari e H(f ) immaginaria dispari (perché risposta in frequenza di un sistema LTI che applica la trasformata Hilbert), si ha che
Sx̂x è immaginaria dispari, cioè che Hx̂x è reale dispari (per le proprietà di
simmetria della trasformata di Fourier). Quindi:
Hx̂x (−τ ) = −Hx̂x (τ )
Applicando le semplicazioni ricavate si ottiene che:
Hxi xi (τ ) = Hxx (τ ) · cos(2πf0 τ ) + Hx̂x (τ ) · sin(2πf0 τ )
(3.13)
e quindi xi (k, t) è stazionario in senso lato.
Per quanto riguarda la autocorrelazione della componente in quadratura
si fa un ragionamento analogo:
Hxq xq (τ ) = E[xq (k, t + τ )xq (k, t)]
nh
i
= E − x(k, t + τ ) · sin(2πf0 (t + τ )) + x̂(k, t + τ ) · cos(2πf0 (t + τ )) ·
h
io
· − x(k, t) · sin(2πf0 t) + x̂(k, t) · cos(2πf0 t)
= Hxx (τ ) · sin(2πf0 (t + τ )) · sin(2πf0 t) +
−Hxx̂ (τ ) · sin(2πf0 (t + τ )) · cos(2πf0 t) +
−Hx̂x (τ ) · cos(2πf0 (t + τ )) · sin(2πf0 t) +
+Hx̂x̂ (τ ) · cos(2πf0 (t + τ )) · cos(2πf0 t)
= Hxx (τ )[sin(2πf0 (t + τ )) · sin(2πf0 t) + cos(2πf0 (t + τ )) · cos(2πf0 t)] +
+Hx̂x (τ )[sin(2πf0 (t + τ )) · cos(2πf0 t) − cos(2πf0 (t + τ )) · sin(2πf0 t)]
= Hxx (τ ) · cos(2πf0 τ ) + Hx̂x (τ ) · sin(2πf0 τ )
Quindi anche la componente xq (k, t) è stazionaria in senso lato.
Inoltre si è vericato che : Hxi xi (τ ) = Hxq xq (τ )
CAPITOLO 3.
37
Con accorgimenti simili, si verica la mutua stazionarietà fra xi (k, t) e
xq (k, t):
Hxi xq (τ ) = E[xi (k, t + τ )xq (k, t)]
nh
i
= E x(k, t + τ ) · cos(2πf0 (t + τ )) + x̂(k, t + τ ) · sin(2πf0 (t + τ )) ·
h
io
· − x(k, t) · sin(2πf0 t) + x̂(k, t) · cos(2πf0 t)
= −Hxx (τ ) · cos(2πf0 (t + τ )) · sin(2πf0 t) +
+Hxx̂ (τ ) · cos(2πf0 (t + τ )) · cos(2πf0 t) +
−Hx̂x (τ ) · sin(2πf0 (t + τ )) · sin(2πf0 t) +
+Hx̂x̂ (τ ) · sin(2πf0 (t + τ )) · cos(2πf0 t)
= Hxx (τ )[− cos(2πf0 (t + τ )) · sin(2πf0 t) + sin(2πf0 (t + τ )) · cos(2πf0 t)] +
−Hx̂x (τ )[cos(2πf0 (t + τ )) · cos(2πf0 t) + sin(2πf0 (t + τ )) · sin(2πf0 t)]
= Hxx (τ ) · sin(2πf0 τ ) − Hx̂x (τ ) · cos(2πf0 τ )
Poiché Hxx (τ ) · sin(2πf0 τ ) è dispari (perché prodotto di un segnale pari per
uno dispari) e −Hx̂x (τ ) · cos(2πf0 τ ) è dispari (perché prodotto di un segnale
dispari per uno pari), allora Hxi xq (τ ) è dispari, quindi:
Hxi xq (τ ) = Hxq xi (−τ ) = −Hxi xq (τ )
Inoltre, dato che Hxi xq (τ ) è dispari, allora Hxi xq (0) = 0. Questo indica
che ad istanti di tempo corrispondenti, la componente in fase e la componente in quadratura sono scorrelate (se fossero gaussiane sarebbero anche
indipendenti).
Vadiamo adesso la densità spettarale di potenza media:
Sxi xi (f ) = F{Hxi xi (τ )}
= F{Hxx (τ ) · cos(2πf0 τ ) + Hx̂x (τ ) · sin(2πf0 τ )}
Sxx (f − f0 ) + Sxx (f + f0 ) Sx̂x (f − f0 ) − Sx̂x (f + f0 )
=
+
2
2j
h
Sxx (f − f0 ) + Sxx (f + f0 )
−jsgn(f − f0 )Sxx (f − f0 ) + jsgn(f + f0 )Sxx (f + f0 ) i
=
+
2
2j
³
´
³
´i
1h
=
Sxx (f − f0 ) 1 − sgn(f − f0 ) + Sxx (f + f0 ) 1 + sgn(f + f0 )
2
= Sxx (f − f0 )U (−(f − f0 )) + Sxx (f + f0 )U (f + f0 )
h
i
³ f ´
= Sxx (f − f0 ) + Sxx (f + f0 ) rect
2f0
Essendo Hxi xi (τ ) = Hxq xq (τ ) ⇒ Sxi xi (f ) = Sxq xq (f ) e la conseguenza immediata è che:
Pxi = Pxq = Px
CAPITOLO 3.
38
dove la potenza è l'integrale in frequenza, oppure si può denire anche come
l'autocorrelazione in zero ed infatti Hxi xi (0) = Hxx (0) · 1 + 0 ⇒ Pxi = Px
La densità spettrale di potenza media incrociata:
Sxi xq (f ) = F{Hxi xq (τ )}
= F{Hxx (τ ) · sin(2πf0 τ ) − Hx̂x (τ ) · cos(2πf0 τ )}
Sxx (f − f0 ) − Sxx (f + f0 ) ³ Sx̂x (f − f0 ) + Sx̂x (f + f0 ) ´
=
−
2j
2
Sxx (f − f0 ) − Sxx (f + f0 ) h −jsgn(f − f0 )Sxx (f − f0 ) − jsgn(f + f0 )Sxx (f + f0 ) i
=
−
2j
2
i
1h
=
Sxx (f − f0 ) − Sxx (f + f0 ) − sgn(f − f0 )Sxx (f − f0 ) − sgn(f + f0 )Sxx (f + f0 )
2j
³
´
³
´i
1h
=
Sxx (f − f0 ) 1 − sgn(f − f0 ) − Sxx (f + f0 ) 1 + sgn(f + f0 )
2j
i
1h
Sxx (f − f0 )U (−(f − f0 )) − Sxx (f + f0 )U (f + f0 )
=
2j
h
i
³ f ´
= −j Sxx (f − f0 ) − Sxx (f + f0 ) rect
2f0
Inoltre:
Sxi xq (f ) = −Sxq xi (f )
perché Sxi xq (f ) = F{Hxi xq (τ )} = −F{Hxq xi (τ )} = −Sxq xi (f ).
3.2.1 Cifra di rumore introdotta dal demodulatore DSB
Consideriamo il demodulatore in gura 3.2:
Figura 3.2: Schema del demodulatore
Il segnale di ingresso è:
x(k, t) cos(2πf0 t − Θ) + n(k, t)
(3.14)
dove x(k, t) è il segnale modulante, n(k, t) è un rumore bianco, Θ è un ritardo
casuale, distribuito uniformemente tra 0 e 2π , indipendente da x(k, t).
Il segnale di uscita, ossia il segnale demodulato, lo indichiamo con y(k, t).
CAPITOLO 3.
39
Demodulazione sincrona
All'uscita del ltro passa banda, il segnale sarà moltiplicato per un coseno
traslato (3.15).
cos(2πf0 t − Θ)
(3.15)
Nel caso in cui si abbia demodulazione sincrona tale coseno sarà traslato di
un ritardo casuale Θ uguale a quello del segnale in ingresso al demodulatore.
Quindi avremo due Θ aleatori, ma tra loro uguali.
L' obiettivo è calcolare la cifra di rumore (NF, dall'inglese Noise Figure),
che è denita come:
SN Rin
NF =
(3.16)
SN Rout
La potenza di segnale in ingresso è:
Si = E[(x(k, t) cos(2πf0 t − Θ))2 ]
= E[x2 (k, t)]E[cos2 (2πf0 t − Θ)]
·
¸
1 + cos(4πf0 t − Θ)
= Px E
2
Px
=
2
Invece la potenza di rumore è:
Ni =
N0
· 2B = N0 B
2
Quindi:
Si
Px
=
(3.17)
Ni
2N0 B
La potenza di segnale in uscita Su si calcola mettendo in ingresso solo il segnale. In uscita dal ltro passa banda, si ritrova di nuovo il segnale
x(k, t) cos(2πf0 t−Θ); si moltiplica per il coseno e si ottiene x(k, t) cos2 (2πf0 t−
Θ) cioè x(k,t)
2 (1 + cos(4πf0 t − 2Θ)). Il ltro passa basso elimina la componenete a 2f0 quindi l'uscita sarà: y(k, t) = x(k,t)
2 . Allora la potenza di
segnale in uscita è:
"µ
¶ #
x(k, t) 2
1
Px
2
Su = E[y (k, t)] = E
= E[x2 (k, t)] =
2
4
4
SN Rin =
La potenza di rumore in uscita si calcola mettendo in ingresso solo il
rumore n(k, t) che è bianco ed ha ampiezza costante Sνν (f ) = N20 . All'uscita
del ltro passa banda si avrà il segnale ν(k, t) che è costituito da due rect
alti N20 e larghi 2B , uno centrato in −f0 e l'altro in f0 . Per trattare questo
segnale si ricorre la scomposizione in fase e quadratura:
ν(k, t) = νi (k, t) cos(2πf0 t) − νq (k, t) sin(2πf0 t)
CAPITOLO 3.
40
Moltiplicando per il coseno si ottiene:
ν 0 (k, t) = νi (k, t) cos(2πf0 t) cos(2πf0 t − Θ) − νq (k, t) sin(2πf0 t) cos(2πf0 t − Θ)
νq (k, t)
νi (k, t)
=
[cos(4πf0 t) + cos Θ] −
[sin(4πf0 t) − sin(−Θ)]
2
2
E' noto che − sin(−Θ) = sin(Θ); inoltre il ltro passa basso elimina le
componenti a 2f0 , dunque rimane:
y(k, t) =
νq (k, t)
νi (k, t)
cos(Θ) −
sin(Θ)
2
2
Allora la potenza di rumore in uscita sarà:
"µ
¶2 #
νq (k, t)
νi (k, t)
2
cos(Θ) −
sin(Θ)
Nu = E[y (k, t)] = E
2
2
ª
1©
E[νi2 (k, t) cos2 (Θ)]E[νq2 (k, t) sin2 (Θ)] − 2E[νi (k, t)νq (k, t) cos(Θ) sin(Θ)]
=
4
ª
1©
=
Pν E[cos2 (Θ)] + Pν E[sin2 (Θ)]
4
Pν
=
E[cos2 (Θ) + sin2 (Θ)]
4
Pν
=
4
Pν è l'area dei due rect alti N20 , larghi 2B , centrati rispettivamente in −f0 e
f0 , quindi:
µ
¶
N0
1
N0 B
Pν
=2
· 2B
=
Nu =
4
2
4
2
Allora:
SN Rout =
Su
Px
=
Nu
2N0 B
(3.18)
Quindi la cifra di rumore (eq.(3.16)) sarà:
NF =
SN Rin
=1
SN Rout
(3.19)
Demodulazione asincrona
Nel caso in cui si abbia demodulazione asincrona, il coseno (3.20) che
moltiplica il segnale in uscita dal ltro passa banda, sarà traslato di un ritardo casuale ϕ distribuito uniformemente tra 0 e 2π , indipendente da Θ.
cos(2πf0 t − ϕ)
(3.20)
L' obiettivo è calcolare la cifra di rumore e confrontarla con quella relativa
alla modulazione sincrona.
CAPITOLO 3.
41
Il rapporto segnale-rumore in ingresso sarà ovviamente uguale a quello calcolato per la modulazione sincrona (vedi equazione(3.17)):
SN Rin =
Px
2N0 B
Anche la potenza di rumore in uscita Nu sarà uguale a quella calcolata
precedentemente:
N0 B
Nu =
2
Invece la potenza di segnale in uscita è diversa rispetto al caso del modulatore sincrono. In uscita dal ltro passa banda, si ritrova di nuovo il
segnale x(k, t) cos(2πf0 t − Θ).
Si moltiplica per il coseno e si ottiene x(k, t) cos(2πf0 t − Θ) cos(2πf0 t − ϕ),
cioè x(k,t)
2 (1 + cos(4πf0 t − Θ − ϕ) + cos(Θ − ϕ)).
Il ltro passa basso elimina la componenete a 2f0 quindi l'uscita sarà:
y(k, t) = x(k,t)
2 cos(Θ − ϕ).
Allora la potenza di segnale in uscita è:
·
¸
1
1
1 + cos(2Θ − 2ϕ)
Px
2
2
2
Su = E[y (k, t)] = E[x (k, t)]E[cos (Θ−ϕ)] = Px E
=
4
4
2
8
Quindi il rapporto segnale rumore in uscita sarà:
SN Rout =
Su
Px
=
Nu
4N0 B
(3.21)
Quindi la cifra di rumore (eq.(3.16)) sarà:
NF =
SN Rin
=2
SN Rout
ossia
(3.22)
SN Rin
2
ciò denota che usando la modulazione asincrona si riceve una potenza che è
in media 3dB inferiore. Possono capitare collagamenti particolari in cui ad
esempio Θ − ϕ = π2 e il tal caso non si riceve nulla, oppure Θ − ϕ = 0 e
il tal caso si riceve tutto; ma in media (media di insieme) si ricevono 3dB
in meno. Può succedere che Θ oppure ϕ varino nel tempo: consideriamo
un dispositivo radiomobile in mano ad una persona che cammina. In questo
caso il percorso dell'onda cambia di volta in volta. Supponiamo di avere
un Θ(t) che vari lentamente rispetto al resto: la media d' insieme la si può
vedere come una media temporale quindi si potrebbe avere un collegamento
che in certi momenti va bene e in altri va male ma, in media, si riceveranno
3dB in meno. Se invece si avesse un Θ(t) che varia velocemente, allora si
avrebbe un segnale distorto.
SN Rout =
Capitolo 4
Processi ciclostazionari
Nella realtà abbiamo a che fare con dei processi che non sono stazionari:
• x(k, t) cos(2πf0 t) non è stazionario;
¡ t−kT ¢
P
•
(onda quadra casuale) non è stazionario.
k Ak rect
T
Invece:
• x(k, t) cos(2πf0 t − θ) è stazionario;
¡ t−kT
¢
P
•
k Ak rect
T − τ è stazionario.
Fino ad ora abbiamo parlato di processi SSL (Stazionari in Senso Lato);
introduciamo adesso altre denizioni e teoremi a riguardo.
Stazionarietà in Senso Stretto (SSS)
Un processo si dice stazionario in senso stretto (SSS) se la caratterizzazione completa non cambia se c'è traslazione nell'asse temporale:
fx(k,t1 )...x(k,tn ) (x1 , . . . , xn ) = fx(k,t1 +c)...x(k,tn +c) (x1 , . . . , xn )
(4.1)
La (4.1) deve valere per qualsiasi n, qualsiasi istante di campionamento
t1 , t2 . . . tn e qualsiasi traslazione c
Ciclo-Stazionarietà in Senso Stretto (CSSS)
Un processo si dice ciclostazionario in senso stretto (CSSS) quando la
variazione è periodica, cioè la densità di probabilità cambia, ma in maniera
periodica:
∃ T : fx(k,t1 )...x(k,tn ) (x1 , . . . , xn ) = fx(k,t1 +T )...x(k,tn +T ) (x1 , . . . , xn )
(4.2)
La (4.2) deve valere per qualsiasi n, qualsiasi istante di campionamento
t1 , t2 . . . tn e deve essere vera per un particolare periodo T e per i suoi multipli: 2T, 3T , ecc..
42
CAPITOLO 4.
43
Va precisato che non è che il segnale si ripete, perchè in tal caso esso sarebbe
determinato, non aleatorio. E' la densità di probabilità che si ripete per un
particolare periodo T, cioè è la caratterizzazione statistica che si ripete in
maniera periodica.
Teorema: Sia x(k, t) CSSS di periodo T, sia θ una variabile aleatoria
indipendente da x(k, t) e distribuita uniformemente in [0, T ]. Denito:
x(k, t) = x(k, t − θ) SSS
fx(k,t1 )...x(k,tn ) (x1 , . . . , xn ) =
1
T
Z
0
T
fx(k,t1 −α)...x(k,tn −α) (x1 , . . . , xn )dα
Il concetto di base è che, preso un qualsiasi processo CSSS x(k, t), è possibile
costruire un processo SSS x(k, t) tale che la sua densità di probabilità è
uguale alla media sul periodo della densità di probabilità del processo di
partenza. Quindi conviene studiare il processo x(k, t) che è stazionario.
Dimostrazione: Si vuole far vedere che x(k, t) è SSS, allora bisogna
dimostrare che fx(k,t1 +c)x(k,t2 +c)...x(k,tn +c) (x1 , x2 , . . . , xn ) non dipende da c.
Questa dimostrazione si fa sulla distribuzione di probabilità F.
Fx(k,t1 +c)...x(k,tn +c) (x1 , x2 , . . . , xn ) =
= P r{x(k, t1 + c) ≤ x1 , · · · ≤ x(k, tn + c) ≤ xn } =
= P r{x(k, t1 − θ + c) ≤ x1 , · · · ≤ x(k, tn − θ + c) ≤ xn } =
Z
=
P r{x(k, t1 − θ + c) ≤ x1 , · · · ≤ x(k, tn − θ + c) ≤ xn /θ}fθ (θ)dθ =
R
Z
1 T
F
(x1 , x2 , . . . , xn )dθ =
=
T 0 x(k,t1 −θ+c)...x(k,tn −θ+c)
Z
1 T −c
=
Fx(k,t1 −α)...x(k,tn −α) (x1 , x2 , . . . , xn )dα =
T −c
Z
1 T
=
F
(x1 , x2 , . . . , xn )dα
T 0 x(k,t1 −α)...x(k,tn −α)
Perché si applica il teorema della probabilità totale. Inoltre la F, in α,
è periodica di periodo T e l'integrale è in un intervallo largo un periodo,
dunque gli estremi dell'integrale possono essere presi da 0 a T.
Ciclo-Stazionarietà in Senso Lato (CSSL)
Un processo è CSSL se esiste T tale che il valor medio del processo è
periodico di periodo T per ogni t (4.3) e l'autocorrelazione è periodica in
entrambi gli istanti di tempo t1 e t2 (4.4):
µx (t) = µx (t + T )
(4.3)
Hxx (t1 , t2 ) = Hxx (t1 + T, t2 + T )
(4.4)
CAPITOLO 4.
44
Teorema: Sia x(k, t) = x(k, t − θ) SSL, allora:
dove:
µx = µx
(4.5)
Hxx (τ ) = Hxx (τ )
(4.6)
1
µx =
T
e
Hxx (t1 , t2 ) =
1
T
=
1
T
=
1
T
Z
0
µx (t)dt
Hxx (t1 + α, t2 + α) dα
| {z }
u
t2 +T
t2
Z
0
T
T
0
Z
Z
Hxx (t1 − t2 +u, u) du
| {z }
τ
T
Hxx (τ + u, u) du = Hxx (τ )
Dimostrazione:
µx = E[x(k, t)] = E[x(k, t − θ)]
Z
=
E[x(k, t − θ/θ)]fθ (θ)dθ
R
Z
1 T
=
µx (t| −
{z θ})dθ
T 0
u
Z t
1
=
µx (u)du
T tT
Z
1 T
=
µx (u)du
T 0
= µx
Hxx (τ ) = E[x(k, t + τ )x(k, t)] = E[x(k, t + τ − θ) + x(k, t − θ)]
Z
1 T
=
E[x(k, t + τ − θ) + x(k, t − θ)/θ]dθ
T 0
Z
1 T
=
Hxx (t + τ − θ, t| −
{z θ})dθ
T 0
u
Z t
1
=
Hxx (u + τ, u)du
T t−T
Z
1 T
=
Hxx (u + τ, u)du
T 0
= Hxx (τ )
CAPITOLO 4.
45
Sistema LTI con segnale di ingresso non stazionario
Si consideri lo lo schema in gura 4.1:
Figura 4.1: sistema LTI con ingresso ciclostazionario
Quando l'ingresso al sistema LTI non è stazionario, le relazioni ingressouscita del sistema sono la (4.7) e la (4.8):
(4.7)
µy (t) = µx (t) ⊗ h(t)
dimostrazione:
·Z
µy (t) = E[y(k, t)] = E
Z
¸
+∞
h(t − τ )x(k, τ )dτ
−∞
+∞
=
Z
+∞
h(t − τ )E[x(k, τ )]dτ =
−∞
−∞
h(t − τ )µx (τ )dτ
= h(t) ⊗ µx (t)
Hyy (t1 , t2 ) = Hxx (t1 , t2 ) ⊗ h(t1 ) ⊗ h(t2 )
(4.8)
dimostrazione:
Hyy (t1 , t2 ) = E[y(k, t1 )y(k, t2 )]
·Z +∞
¸
Z +∞
= E
h(t1 − τ1 )x(k, τ1 )dτ1
h(t2 − τ2 )x(k, τ2 )dτ2
−∞
−∞
Z Z +∞
=
h(t1 − τ1 )h(t2 − τ2 )E[x(k, τ1 )x(k, τ2 )]dτ1 dτ2
−∞
Z Z +∞
=
h(t1 − τ1 )h(t2 − τ2 )Hxx (τ1 , τ2 )dτ1 dτ2
−∞
·Z +∞
¸
Z +∞
=
h(t2 − τ2 )
h(t1 − τ1 )Hxx (τ1 , τ2 )dτ1 dτ2
−∞
+∞
−∞
Z
=
h(t2 − τ2 ) · Hxx (t1 , τ2 ) ⊗ h(t1 ) dτ2
Z +∞
= h(t1 ) ⊗
h(t2 − τ2 )Hxx (t1 , τ2 ) dτ2
−∞
−∞
= h(t1 ) ⊗ h(t2 ) ⊗ Hxx (t1 , t2 )
CAPITOLO 4.
46
Dalla (4.7) e dalla (4.8) si dimostra che il processo di uscita, y(k, t), è
ciclostazionario, infatti:
Z
µy (t) = µx (t) ⊗ h(t) ⇒ µy (t) =
µx (t − τ )h(τ )dτ
R
Z
µx (t + τ − τ )h(τ )dτ
⇒ µy (t + τ ) =
R
⇒ µy (t + τ ) = µx (t)H(0)
quindi y(k, t) è ciclostazionaria in media, inoltre:
Hyy (t1 , t2 ) = Hxx (t1 , t2 ) ⊗ h(t1 ) ⊗ h(t2 )
¶
Z µZ
⇒ Hyy (t1 , t2 ) =
Hxx (t1 − τ, t2 − τ ) ⊗ h(τ1 )dτ1 h(τ2 )dτ2
R
R
da qui si vede che Hxx è periodica di periodo T in t1 , t2 , allora anche la Hyy
è periodica di periodo T in t1 , t2 , quindi è dimostrato che l'uscita y(k, t) è
ciclostazionaria.
Riassumendo, se in ingresso ad un sistema LTI vi è un processo x(k, t)
ciclostazionario, è stato dimostrato che anche l'uscita y(k, t) è un processo
ciclostazionario.
Considerando i segnali stazionari associati, ossia riferendoci alla gura
4.2:
Figura 4.2: sistema LTI con ingresso stazionario
dove:
- x(k, t) = x(k, t − θ)
- y(k, t) = y(k, t − θ)
si arriva a concludere che:
Syy (f ) = Sxx (f )kH(f )k2
{z
}
|
processi stazionari
⇒
Syy (f ) = Sxx (f )kH(f )k2
{z
}
|
processi ciclostazionari
(4.9)
CAPITOLO 4.
47
4.1 Modulazioni numeriche
L' obiettivo è studiare lo spettro di questo processo:
X
x(k, t) =
Cn g(t − nT )
(4.10)
n
dove:
• Cn½è una sequenza di variabili aleatorie SSL:
E[Cn ] = µc ,
(non dipende da n);
=⇒
E[Cn+k Cn ] = Hxx (k), (non dip. da n, dip. solo dalla distanza delle v.a.).
Questi Cn possono essere +1, −1, +1, . . . oppure possono essere altri valori,
oppure variabili aleatorie continue.
• g(t − nT ) è l'impulso che si usa: rect, oppure tr, oppure coseno rialzato.
Non è necessario che l'impulso duri quanto il tempo di bit: può essere anche
più largo di [−Tb , Tb ] e in quel caso si avrà interferenza intersimbolica.
• Non si suppone più che le ampiezze di impulsi successivi siano tra loro
scorrelate (infatti non si dice che Hxx (k) debba essere zero); è possibile avere
una correlazione, come nel caso dell'esempio del fax: i bianchi (1) sono molto
più frequenti dei neri (0) e inoltre, poichè le lettere hanno uno spessore, dopo
aver ricevuto un bit nero è P
altamente probabile riceverne un altro nero.
• Si dimostra che x(k, t) = n Cn g(t − nT ) è ciclostazionario :
X
µc g(t − nT )
(4.11)
µx (t) =
n
µx (t + T ) =
X
µc g(t + T − nT )
(4.12)
n
La (4.11) e la (4.12) sono uguali quindi il processo è ciclostazionario in media.
#
"
X
X
Hxx (t1 , t2 ) = E
Cn g(t1 − nT )
Cm g(t2 − mT )
n
=
=
=
Hxx (t1 + T, t2 + T ) =
=
XX
n
m
n
m
k
m
XX
XX
m
E[Cn Cm ]g(t1 − nT )g(t2 − mT )
Hcc (n
|−
{zm})g(t1 − nT )g(t2 − mT )
k
Hcc (k)g(t1 − mT − kT )g(t2 − mT )
XX
n
m
k
l
XX
Hcc (k)g(t1 +T
− mT} −kT )g(t2 + T − mT )
| {z
1−m=−l
Hcc (k)g(t1 − lT − kT )g(t2 − lT )
CAPITOLO 4.
48
Poichè il processo è anche ciclostazionario in correlazione, allora è ciclostazionario.
• Si consideriP
il processo stazionario associato :
x(k, t − θ) = n Cn g(t − nT − θ) con θ uniforme in [0, T ] e indipendente da
Cn .
X
µx =
E[Cn g(t − nT − θ)]
n
=
X
µc E[g(t − nT − θ)]
n
X1Z T
= µc
g(t| − nT
{z − θ})dθ
T 0
n
u
X 1 Z t−nT
= µc
g(u)du
T t−nT −T
n
Z
µc
=
g(u)du
T R
µc
=
G(0)
T
Hxx (τ ) = E[x(k, t + τ − θ)x(k, t − θ)]
"
#
X
= E
Cn g(t − nT + τ − θ)Cm g(t − mT − θ)
n
=
XX
n
=
=
=
=
=
E[Cn Cm ]E[g(t − nT + τ − θ)g(t − mT − θ)]
m
Z
1 T
Hcc (n
|−
{zm}) T 0 g(t − nT + τ − θ)g(t − mT − θ)dθ
n m
k
Z
XX
1 T
Hcc (k)
g(t − nT + τ − θ)g(t| − mT
{z − θ})dθ
T 0
m
k
u
X Hcc (k) X Z t−mT
g(u − kT + τ )g(u)du
T
t−mT −T
m
k
X Hcc (k) Z
g(u − kT = τ )g(u)du
T
R
k
X Hcc (k)Rg (τ − kT )
XX
k
T
CAPITOLO 4.
49
Sxx (f ) = F{Hxx (τ )}
(
)
X Hcc (k)Rg (τ − kT )
= F
T
k
1X
=
Hcc (k) k G(f ) k2 e−j2πf kT
T
k
=
k G(f ) k2 X
Hcc (k)e−j2πf kT
T
k
k2
k G(f )
Scc (f )
T
Quindi si ottiene un importante risultato:
=
Scc (f ) k G(f ) k2
(4.13)
T
dove Scc (f ) è la densità di potenza media della sequenza Cn , cioè più i Cn
sono correlati, più lo spettro Scc (f ) sarà stretto; k G(f ) k2 è la densità
spettrale di energia dell'impulso.
Sxx (f ) =
4.2 Modulazioni in banda base
4.2.1 Modulazione NRZ
La modulazione NRZ (Non Ritorno a Zero) è chiamata così perché, appena nito l'impulso, non c'è alcun ritorno a zero prima che arrivi l'impulso
successivo. Si consideri l'onda quadra casuale:
µ
¶
X
t − nT
An rect
dove An i.i.d.
x(k, t)N RZ =
T
n
L'obiettivo è calcolare:
Sxx (f ) =
SAA (f ) k G(f ) k2
T
Nel caso in esame:
µ ¶
t
g(t) = rect
­ G(f ) = T sinc(T f ) ⇒k G(f ) k2 = T 2 sinc2 (f T )
T
½ 2
2
µA + σA
per k=0;
2
2
HAA (k) = E[An+k An ] = µA + σA δk =
(4.14)
2
µA
per k 6= 0.
X
X
2
SAA (f ) =
HAA (k)e−j2πf kT =
(µ2A + σA
δk )e−j2πf kT
k
X
k
X
=
µ2A
=
µ2A X ³
n´
2
δ f−
+ σA
T n
T
k
e
−j2πf kT
+
2
σA
δk e−j2πf kT
k
(4.15)
CAPITOLO 4.
Sxx (f ) =
50
"
#
´ T 2 sinc2 (f T )
X ³
SAA (f ) k G(f ) k2
n
1
2
= σA
+ µ2A
δ f−
T
T n
T
T
2
= T σA
sinc2 (f T ) + µ2A δ(f )
(4.16)
Dalla (4.21) si osserva l'esistenza di una delta nell'origine, dunque la presenza
di potenza in continua. Se non si vuole avere potenza in continua bisogna
porre µ2A = 0.
Le altre delta sono posizionate dove il sinc vale 0, quindi si annullano.
La banda null-to-null (ossia il lobo principale) è T1 , dove T è il tempo di bit.
La banda sarebbe innita ma, a causa della presenza del sinc2 , tende a 0
come f12 , quindi abbastanza velocemente.
Figura 4.3: Spettro modulazione NRZ
4.2.2 Modulazione RZ
La modulazione RZ (Ritorno a Zero) è illustrata in gura 4.4. Ovviamente questa modulazione si sincronizza con più facilità perché si conosce
esattamente dove nisce un impulso e dove comincia il successivo. In questo
caso però gli implusi hanno una durata che è metà del periodo T, quindi si
deve considerare un'onda quadra casuale così fatta:
Ã
!
X
t − nT
An rect
x(k, t)RZ =
T
n
2
dove il T a numeratore si riferisce al periodo, ossia alla slottizzazione del tempo, cioè il tempo di bit; invece il T a denominatore si riferisce alla lunghezza
del rect.
à !
µ
¶
µ
¶
t
T
T2
T
2
2
g(t) = rect T ­ G(f ) = T sinc
f ⇒k G(f ) k =
sinc f
2
4
2
2
La HAA (k) è uguale alla (4.39), quindi anche la SAA (f ) è uguale alla (4.15).
CAPITOLO 4.
51
Allora:
"
#
µ
¶
X ³
SAA (f ) k G(f ) k2
n´ T2
T
2
2 1
Sxx (f ) =
= σA + µA
δ f−
sinc2 f
T
T n
T
4T
2
¶
µ
³n´
X ³
T
n´
2 T
= σA
sinc2 f
+ µ2A
δ f−
sinc2
(4.17)
4
2
T
2
n
Dalla (4.17) si osserva che si hanno delle delta per gli n dispari (per n pari,
si annullano a causa del sinc2 ). Tali delta da un lato sono svantaggiose, ma
dall'altro servono a sincronizzare, possono servire a recuperare il rate. Se
ad esempio il soggetto si sta muovendo, il tempo di bit potrebbe non essere
noto a causa dell'eetto doppler.
Le banda null-to-null è T2 , quindi è il doppio di quella che sia aveva nel caso
della modulazione NRZ.
Figura 4.4: Spettro modulazione RZ
Confronto tra la modulazione NRZ e RZ
Possiamo riassumere il confronto analizzando tre punti:
• sincronizzazione −→ si sincronizza meglio la modulazione RZ;
• probabilità di errore −→ è la stessa per entrambe le modulazioni. Infatti tale probabilià dipende solo dall'energia che viene associata al bit,
che però è la stessa sia per la modulazione NRZ che RZ;
• banda −→ con la modulazione RZ si ultilizza il doppio della banda.
Considerazioni di miglioramento
Sarebbe utile che lo spettro andasse a zero più velocemente di f12 perché
in questo modo, trascurare i lobi secondari del sinc2 , signicherebbe perdere
meno informazione.
Per far andare lo spettro più velocemente a zero, bisogna eliminare le discontinuità.
CAPITOLO 4.
52
Consideriamo un impulso triangolare:
x(k, t) =
X
µ
An tr
n
µ ¶
t
g(t) = tr
­ G(f ) = T sinc2 (f T )
T
2
SAA (f ) = F{µ2A + σA
δk } =
Sxx (f ) =
t − nT
T
¶
(4.18)
kG(f )k2 = T 2 sinc4 (f T )
⇒
µ2A X ³
n´
2
δ f−
+ σA
T n
T
"
#
2
4
µ2A X ³
SAA (f ) k G(f ) k2
n´
2 T sinc (f T )
=
δ f−
+ σA
T
T n
T
T
2
= T σA
sinc4 (f T ) + µ2A δ(f )
(4.19)
In questo caso si ha una delta solamente nell'origine e inoltre lo spettro va a
zero come f14 .
Però il tempo di bit è T, ma il triangolo dura 2T , allora si ha interferenza
intersimbolica.
Per ovviare al problema dell'interferenza intersimbolica, che causerebbe
dei problemi nella sincronizzazione, si ricorre all'uso di un impulso più stretto.
Consideriamo un impulso triangolare più stretto:
Ã
!
X
t − nT
x(k, t) =
An tr
(4.20)
T
2
n
g(t) = tr
à !
t
T
2
µ
¶
T
T
2
­ G(f ) = sinc f
2
2
2
SAA (f ) = F{µ2A + σA
δk } =
⇒
µ
¶
T2
T
4
kG(f )k =
sinc f
4
2
2
µ2A X ³
n´
2
δ f−
+ σA
T n
T
"
#
2
4
µ2A X ³
SAA (f ) k G(f ) k2
n´
2 T sinc (f T )
Sxx (f ) =
=
δ f−
+ σA
T
T n
T
4T
µ
¶
³n´
µ2 ³
T
n´
2 T
sinc4 f
+ Aδ f −
sinc4
(4.21)
= σA
4
2
4
T
2
Il sinc si annulla in T2 allora la banda è raddoppiata rispetto al caso precedente. Per n dispari si hanno la delta, per n pari si annullano.
Se si desidera uno spettro che vada a zero ancora più velocemente, occorre
un segnale più smooth. Si è considerato il rect, che è un segnale discontinuo,
il triangolo, che è un segnale continuo ma con derivata discontinua. Allora
CAPITOLO 4.
53
adesso consideriamo un impulso coseno rialzato (rialzato perché almeno è
sempre positivo) che è un segnale continuo e con derivata prima continua:
·
µ
¶
µ ¶
¸
1
2πt
t
x(k, t) =
cos
rect
+1
(4.22)
2
T
T
Svolgendo i conti si arriva al risultato che:
G(f ) =
T
2 sinc(f T )
1 − f 2T 2
che per f → ∞, va a zero come
1
f3
Allora kG(f )k2 , per f → ∞, va a zero come f16 . Si osserva che il sinc si
annulla in T1 , ma lì si annulla anche il denominatore, allora si ha una forma
indeterminata. Quindi se ne deduce che il sinc si annulla per la prima volta
in T2 , poi in T3 , etc. Quindi anche in qeusto caso, la banda è allargata.
Andrebbe trovato il compromesso migliore, ossia segnale smooth ma che
abbia spettro che non si allarghi troppo.
4.2.3 Codici duobinari
Fino ad adesso abbiamo lavorato su G(f), dunque nell'analogico; adesso
lavoriamo su Scc (f ), dunque sul numerico.
2 = 1. Con
Si consideri An i.i.d. e per ipotesi si supponga µA = 0 e σA
queste variabili aleatorie si formino due nuove sequenze ossia i cosiddetti codici duobinari. Nel fare ciò si intoduce una correlazione e dunque si introduce
memoria.
Cn = An + An−1
(4.23)
Cn = An − An−1
(4.24)
Per entrambi i codici (4.23) (4.24), l'impulso è rappresentato da:
g(t) = rect
³t´
T
­ G(f ) = T sinc(f T )
(4.25)
Si calcola la correlazione dei coecienti e poi la densità spettrale di potenza
media del processo per quanto riguarda il codice (4.23):
Hcc (k) = E[Cn+k Cn ]
= E[(An+k + An+k−1 )(An + An−1 )]
= HAA (k) + HAA (k + 1) + HAA (k − 1) + HAA (k)
= 2HAA (k) + HAA (k + 1) + HAA (k − 1)
2
2
2
= 2(µ2A + σA
δk ) + µ2A + σA
δk+1 + µ2A + σA
δk−1
= 2δk + δk+1 + δk−1
CAPITOLO 4.
54
Scc (f ) =
X
Hcc (k)e−j2πf kT
k
=
X
(2δk + δk+1 + δk−1 )e−j2πf kT
k
= 2 + ej2πf T + e−j2πf T
= 2 + 2 cos(2πf T )
Sxx (f ) =
=
=
=
=
=
Scc (f )kG(f )k2
T
2(1 + cos(2πf T ))T 2 sinc2 (f T )
T
T sinc2 (f T )4 cos2 (πf T )
sin2 (πf T )
4T
cos2 πf T
(πf T )2
sin2 (πf T )
4T
(2πf T )2
4T sinc2 (2f T )
1
allora signica che la banda si è dimezzata;
quindi Sxx (f ) si annulla in 2T
ciò è logico perché, introducendo memoria, si trasmette qualcosa che varia
meno.
Qui di seguito sono illustrati gli stessi calcoli per quanto riguarda invece
il codice (4.24)
Hcc (k) = E[Cn+k Cn ]
= E[(An+k − An+k−1 )(An − An−1 )]
= HAA (k) − HAA (k + 1) − HAA (k − 1) + HAA (k)
= 2HAA (k) − HAA (k + 1) − HAA (k − 1)
2
2
2
= 2(µ2A + σA
δk ) − (µ2A + σA
δk+1 ) − (µ2A + σA
δk−1 )
= 2δk − δk+1 − δk−1
Scc (f ) =
X
Hcc (k)e−j2πf kT
k
=
X
(2δk − δk+1 − δk−1 )e−j2πf kT
k
= 2 − ej2πf T − e−j2πf T
= 2 − 2 cos(2πf T )
CAPITOLO 4.
55
Scc (f )kG(f )k2
T
2(1 − cos(2πf T ))T 2 sinc2 (f T )
=
T
= T sinc2 (f T )4 sin2 (πf T )
Sxx (f ) =
E' presente un sinc2 che moltiplica un sin2 , allora l'origine va a zero. Ciò è
importante perché questo codice duobinario, lasciando la banda inalterata,
permette di non avere componente in continua. Ci sono alcuni canali, come
ad esempio il lo di rame telfonico, che azzerano la componente in continua
e dunque distorcerebbero il segnale in caso esso avesse tale componente.
Se invece si usa questo codice duobinario, non si hanno questi problemi di
distorsione.
4.3 Modulazioni in banda passante
Sono elencati adesso i vari tipi di modulazioni in banda passante, tenendo
presente questa relazione:
x(k, t) −→ x+ (k, t) −→ x
e(k, t)
(4.26)
infatti si studierà x
e(k, t)
4.3.1 M-PAM
Modulare M-PAM signica prendere un coseno e modularlo in ampiezza
con M possibili livelli:
X
x(k, t) =
An g(t − nT ) cos(2πf0 (t − nT ))
(4.27)
n
infatti An è un valore fra m possibili valori.
x+ (k, t) = x(k, t) + jb
x(k, t)
X
=
An g(t − nT )[cos(2πf0 (t − nT )) + j sin(2πf0 (t − nT ))]
n
=
X
An g(t − nT )ej2πf0 (t−nT )
n
infatti x
b(k, t) è la trasformata di Hilbert di x(k, t); g(t − nT ) è un passa
basso e quindi avrà una frequenza massima molto minore del coseno. La
trasformata di Hilbert di un passa basso per un passa banda è la trasformata
di Hilbert di un passa banda. Tale trasformata scambia la componente in
CAPITOLO 4.
56
fase con la
Pcomponente in quadratura, quindi:
x
b(k, t) = n An g(t − nT ) sin(2πf0 (t − nT )).
x
e(k, t) = x+ (k, t)e−j2πf0 t
X
−j2πf0 t
0 nT
=
An g(t − nT )ej2πf0 t |e−j2πf
{z } e
n
1
X
=
An g(t − nT )
n
Si dice che e−j2πf0 nT = 1 perchè si suppone che f0 T = L (dove f0 è la
frequenza della portante, T è il tempo di bit e L è un numero intero). Ciò
vuol dire aermare che nel tempo di bit la portante ha un numero intero di
periodi. Tale ragionamento è logico perché prima si varia l'altezza dei g(t),
poi si modula per il coseno, allora non ci importa della sincronia del tempo
di bit perché poi si modula tutto insieme.
4.3.2 M-PSK
La M-PSK è una modulazione di fase:
X
x(k, t) =
g(t − nT ) cos(2πf0 (t − nT ) − Θn )
(4.28)
n
dove Θn sono v.a. indipendenti identicamente distribuite (i.i.d.) ed inoltre Θn = 2π
M i, con i = 0, 1, . . . , M − 1 cioè la fase può assumere M valori
equiprobabili.
x+ (k, t) = x(k, t) + jb
x(k, t)
X
g(t − nT )[cos(2πf0 (t − nT ) − Θn ) + j sin(2πf0 (t − nT ) − Θn )]
=
n
=
X
g(t − nT )ej(2πf0 (t−nT )−Θn )
n
x
e(k, t) = x+ (k, t)e−j2πf0 t
X
−jΘn −j2πf0 t
0 nT
=
g(t − nT )ej2πf0 t e|−j2πf
e
{z } e
n
1
X
=
g(t − nT )e−jΘn
n
quindi i coecienti che moltiplicano l'impulso in banda base sono esponenziali complessi.
Si calcolia l'autocorrelazione dei coecienti per poi calcolarne la trasformata
di Fourier:
Hcc (k) = E[Cn+k C∗n ] = E[e−jΘn+k ejΘn ] = δ(k) ­ Scc (f ) = 1
(4.29)
CAPITOLO 4.
57
perché E[e−jΘn+k ejΘn ], per k = 0, vale banalmente 1. Invece per k 6= 0
vale 0 infatti abbiamo E[e−jΘn+k ] E[ejΘn ] ed il secondo termine assomiglia
ad una DFT (Discrete Fourier Transform):
jΘn
E[e
]=
M
−1
X
i=0
M −1
1 j 2π i
1 X j 2π i
M
e
=
e M
M
M
(4.30)
i=0
E' noto che la DFT di x(k) è:
x(k) =
M −1
2π
1 X
x(n)ej M nk
M
(4.31)
i=0
Anché l'espressione (4.30) sia uguale alla (4.31), bisogna porre k = 1 e
x(n) = 1 quindi la (4.30) è la DFT di x(1). Poiché x(k) è una δ(k) allora
x(1) è δ(1) che è uguale a 0.
Dalla (4.29) si ottiene che:
Sexex (f ) =
1 k G(f ) k2
Scc (f ) k G(f ) k2
=
T
T
(4.32)
L'equazione (4.32) evidenzia un risultato molto importante: la densità spettrale di potenza media dipende solo dall'impulso, non dipende da M.
Riguardo ad M si possono fare alcune considerazioni importanti.
Aumentare M vuol dire aumentare la velocità di trasmissione (ad esempio
se M=1024 allora si trasmettono log2 1024 = 10 bit) e ciò avviene senza
sprecare banda perché, come abbiamo visto, la SM −P SK (f ) non dipende da
M. Ma aumentando M, anche la probabilità di errore aumenta infatti i punti
che delimitano le regioni di decisione, diventano tra loro più stretti. Tuttavia
se M aumenta, anche l'energia E aumenta e poiché quest'ultima è data dalla
distanza dei punti dall'origine, aumentare E vuol dire allargare il cerchio e
dunque aumentare la distanza tra i punti.
Dunque da una parte si ha inttimento dei punti (conseguenza dell'aumento
di M), dall'altra si ha allargamento dei punti (conseguenza dell'aumento di E
causato dall'aumento di M). In questo trade-o ha più peso l'inttimento dei
punti e dunque se i livelli aumentano allora l'energia aumenta, ma aumenta
anche la probabilità di errore e quindi si dovrà aumentare la potenza che si
utilizza in trasmissione:
M ↑ =⇒ E ↑ =⇒ Pe ↑ =⇒ P ↑
(4.33)
A tal proposito si osservi il graco 4.3.2 che illustra il bit rate raggiungibile
legato ad una certa potenza e ad una certa banda. La curva segna il cosiddetto limite di Shannon: la regione possibile è quella sotto la curva, la cosa
migliore sarebbe stare sulla curva.
Per quanto riguarda la M-PSK, se M aumenta, i bit aumentano, ma la
banda rimane la stessa allora nel graco ci si sposta verso l'alto; ssando
CAPITOLO 4.
58
invece la probabilità di errore, se si aumenta M allora si aumenta Eb . Da
queste condiderazioni si ottiene la curva spezzata in gura. Si dice che la
M-PSK è una modulazione eciente in banda.
Per quanto concerne la FSK (Frequency Shift Keying) ossia la modulazione di frequenza, che però noi non trattiamo, a simboli diversi si assegna
una frequenza diversa. Allora se si desidera aumentare il numero di possibili
simboli, bisogna aumentare le frequenze disponibili: se M ↑ ⇒ B ↑. Ma
se M ↑ ⇒ Pe ↓ perché ogni volta che si aggiunge un simbolo bisogna aumentare di una dimensione (con M simboli si arriva ad avere ipersfere). Per
questo motivo si dice che la modulazione FSK è eciente in potenza. ma
spreca banda. Il miglior compromesso banda-potenza è la codica di canali.
4.3.3 D-PSK
Per demodulare in maniera asincrona il PSK si usa la modulazione DPSK (Dierential Phase Shift Keying), cioè si trasmette informazione nella
dierenza tra due fasi:
X
g(t − nT ) cos(2πf0 (t − nT ) − ϕn ) dove ϕn = θn − θn−1
x(k, t) =
n
(4.34)
Questa dierenza di fase ϕn mi fa perdere 3dB in potenza, ma la banda è
uguale a quella che si aveva con la modulazione PSK:
SD−P SK (f ) =
1 k G(f ) k2
Scc (f ) k G(f ) k2
=
T
T
(4.35)
Figura 4.5: Limite di Shannon: la regione possibile è quella sotto la curva e
la cosa migliore sarebbe stare sulla curva
CAPITOLO 4.
59
infatti:
Hcc (k) = E[e−jϕn+k ejϕn ] = E[ejθn+k e−jθn+k−1 e−jθn ejθn−1 ] = δ(k) ­ Scc (f ) = 1
(4.36)
jθ
−jθ
−jθ
jθ
n
n−1
n+k
n+k−1
perché E[e
e
e
e
] per k = 0 è banalmente 1; per k 6= 0
vale 0 perché si ha indipendenza e allora il valor medio dei prodotti è uguale
al prodotto dei singoli valori medi che però sono nulli.
4.3.4 QAM
Se si usa la modulazione QAM (Quadrature Amplitude Modulation) si
modula sia in fase che in ampiezza.
Si possono scrivere due espressioni analitiche diverse, la prima è:
X
x(k, t) =
An g(t − nT ) cos(2πf0 (t − nT ) − Θn )
(4.37)
n
dove An mi indica su quale circonferenza ci si trova e Θn ci fa muovere sul
cerchio.
L'altra espressione è:
i
Xh
x(k, t) =
An g(t−nT ) cos(2πf0 (t−nT )+Bn g(t−nT ) sin(2πf0 (t−nT ))
n
(4.38)
Analizziamo la (4.37):
x+ (k, t) = x(k, t) + jb
x(k, t)
X
=
An g(t − nT )ej(2πf0 (t−nT ) e−jΘn
n
x
e(k, t) = x+ (k, t)e−j2πf0 t
X
−jΘn −j2πf0 t
0 nT
=
An g(t − nT )ej2πf0 t |e−j2πf
e
{z } e
n
1
X
=
An g(t − nT )e−jΘn
n
½
−jθn+k
Hcc (k) = E[An+k e
An e
jθn
]=
E[A2 ]
0
per k=0;
per k 6= 0.
CAPITOLO 4.
60
Analizziamo la (4.38):
x+ (k, t) = x(k, t) + jb
x(k, t)
Xh
An g(t − nT ) cos(2πf0 (t − nT )) + Bn g(t − nT ) sin(2πf0 (t − nT )) +
=
n
i
+jAn g(t − nT ) sin(2πf0 (t − nT )) − jBn g(t − nT ) cos(2πf0 (t − nT ))
Xh
=
An g(t − nT )ej2πf0 (t−nT ) + Bn g(t − nT ) ·
n
³
´ ji
· sin(2πf0 (t − nT )) − j cos(2πf0 (t − nT )) ·
j
Xh
Bn g(t − nT ) j2πf0 (t−nT ) i
=
An g(t − nT )ej2πf0 (t−nT ) +
e
j
n
X
(An − jBn )g(t − nT )ej2πf0 (t−nT )
=
n
x
e(k, t) = x+ (k, t)e−j2πf0 t
X
−j2πf0 t
0 nT
(An − jBn ) ej2πf0 t e|−j2πf
=
{z } g(t − nT ) e
n
1
X
(An − jBn ) g(t − nT )
=
n
Hcc (k) = E[(An+k − jBn+k )(An + jBn )]
= HAA (k) + jHAB (k) − jHBA (k) + HBB (k)
2
2
= ( µ2A +σA
δk ) + ( µ2B +σB
δk )
|{z}
|{z}
0
0
½ 2
2
σA + σB per k=0;
=
0
per k 6= 0.
La modulazione QAM è eciente in banda ; inoltre la QAM è più eciente
in potenza rispetto alla PSK perché se M ↑, R ↑, Pe ↑ ma aumenta meno
rispetto al PSK perché nella QAM c'è più spazio.