Dispense di Teoria dei Segnali Aleatori
Transcript
Dispense di Teoria dei Segnali Aleatori
Università degli Studi di Siena Dispense di Teoria dei Segnali Aleatori Mauro Barni Ilaria Sbragi Giacomo Cancelli Gennaio 2009 Indice Tabella dei Simboli iii 1 Teoria dei processi ergodici 1.1 1.2 1.3 Limiti di Successioni di Variabili Aleatorie 1.1.1 Convergenza Ovunque . . . . . . . 1.1.2 Convergenza Quasi Ovunque . . . 1.1.3 Convergenza in Media . . . . . . . 1.1.4 Convergenza in Probabilità . . . . 1.1.5 Convergenza in Distribuzione . . . Ergodicità in Media . . . . . . . . . . . . Ergodicità in Potenza Media . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Processi gaussiani 2.1 2.2 2.3 Variabili aleatorie gaussiane . . . . . . . . . . . . . . . . . . . 2.1.1 Proprietà della variabile aleatoria gaussiana . . . . . . 2.1.2 La funzione caratteristica . . . . . . . . . . . . . . . . 2.1.3 Dimostrazione che la trasformata di Fourier di una gaussiana è ancora una gaussiana . . . . . . . . . . . 2.1.4 Teorema del limite centrale . . . . . . . . . . . . . . . Variabili aleatorie congiuntamente gaussiane . . . . . . . . . 2.2.1 Proprietà delle variabili aleatorie congiuntamente gaussiane . . . . . . . . . . . . . . . . . . . . . . . . . . . Processi gaussiani . . . . . . . . . . . . . . . . . . . . . . . . 3 Segnali e processi a banda stretta 3.1 3.2 Segnali deterministici (segnali a banda stretta) . . . . . . . . 3.1.1 Simulazione in banda base di un sistema a radiofrequenza, sistemi LTI . . . . . . . . . . . . . . . . . . . . 3.1.2 Applicazioni sui segnali a banda stretta . . . . . . . . Segnali aleatori complessi (processi a banda stretta) . . . . . 3.2.1 Cifra di rumore introdotta dal demodulatore DSB . . i 1 3 3 3 3 4 5 5 9 10 10 10 13 14 17 19 21 24 25 26 30 32 33 38 INDICE ii 4 Processi ciclostazionari 4.1 4.2 4.3 Modulazioni numeriche . . . . Modulazioni in banda base . . 4.2.1 Modulazione NRZ . . . 4.2.2 Modulazione RZ . . . . 4.2.3 Codici duobinari . . . . Modulazioni in banda passante 4.3.1 M-PAM . . . . . . . . . 4.3.2 M-PSK . . . . . . . . . 4.3.3 D-PSK . . . . . . . . . 4.3.4 QAM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 47 49 49 50 53 55 55 56 58 59 Tabella dei Simboli N R Re{·} Im{·} x s(t) F{·} |·| k·k ⊗ P{S} x Fx fx E[·] µx µT σx σx2 x(k, t) Hxx (τ ) Cxx (τ ) Ex Px Sxx Cxx c Sxx s+ (t) s̃(t) si (t) sq (t) insieme dei numeri naturali insieme dei numeri reali parte reale di un numero complesso parte immaginaria di un numero complesso variabile deterministica segnale deterministico Trasformata di Fourier relazione tra un segnale e la relativa Trasformata di Fourier valore assoluto norma operatore di convoluzione probabilità dell'insieme S variabile aleatoria distribuzione di probabilità densità di probabilità operatore valore atteso valore medio di x media temporale deviazione standard di x varianza di x processo stocastico autocorrelazione di x(k, t) autocovarianza di x(k, t) energia media potenza media densità spettrale di potenza media autocovarianza spettro dell'autocovarianza preinviluppo complesso di s(t) inviluppo complesso di s(t) componente in fase di s(t) componente in quadratura di s(t) iii Capitolo 1 Teoria dei processi ergodici Nei processi stocastici si hanno a disposizione due possibili tipi di analisi che mettono in risalto dierenti aspetti del processo: analisi temporale e analisi d'insieme. L'analisi temporale di un processo stocastico x(k, t) si eettua ssando k ; ci si concentra quindi su una particolare realizzazione e se ne studia l'evoluzione temporale. Cambiando k si ottiene una nuova realizzazione e quindi un diverso andamento temporale. Per eettuare un'analisi temporale bisogna calcolare: Z +T 1 lim x(k, t) dt T →+∞ 2T −T Z +T 1 x(k, t + τ ) · x(k, t) dt lim T →+∞ 2T −T Considerando l'esempio di una analisi della corrente che passa in una resistenza, è come avere inniti circuiti `identici' (o più esattamente simili) e studiarne uno alla volta. Le correnti che si otterranno saranno simili, ma non identiche (ad esempio a causa del rumore termico, dell'aleatorietà della resistenza e delle caratteristiche dello stesso amperometro utilizzato per eettuare la misura). La gura di sinistra della tabella 1.1 mostra gracamente una particolare realizzazione di un processo stocastico. Il graco mette in risalto l'evoluzione temporale della particolare realizzazione del processo. Osservando altre realizzazioni si ottengono dierenti andamenti. L'analisi d'insieme di un processo stocastico x(k, t) si eettua ssando l'istante temporale di osservazione. Si calcola: Z µx (t) = E[x(k, t)] = xfx(k,t) (x)dx R Z Z Hxx (t1 , t2 ) = E[x(k, t1 )x(k, t2 )] = R 1 R x1 x2 fx(k,t1 )x(k,t2 ) (x1 , x2 )dx1 dx2 CAPITOLO 1. 2 analisi temporale analisi d'insieme Tabella 1.1: Analisi temporale (sinistra) e analisi d'insieme (destra). In questo caso è come accendere tutti i circuiti contemporaneamente e, ssato t = t∗ , andare a studiare gli inniti valori ottenuti, da considerare più semplicemente come realizzazioni della variabile aleatoria x(k, t∗ ). La gura di destra della Tabella 1.1 mostra più realizzazioni sovrapposte di uno stesso processo stocastico. Fissando l'indice temporale si ottiene una v.a. descritta da una particolare funzione di densità di probabilità. Al variare di t∗ si ottengono nuove v.a. con nuove fx . Dunque eettuando la media d'insieme si ottiene una funzione dipendente da t, mentre con la media temporale si ottengono valori dipendenti dalla specica realizzazione k . In generale, quindi, non è possibile scambiare l'analisi temporale con quella d'insieme. Nei particolari casi in cui ciò risulta realizzabile (identici risultati per entrambe le analisi), il processo si dice ergodico. Se ogni caratterizzazione d'insieme dà gli stessi risultati della corrispondente caratterizzazione temporale, allora il processo si dice ergodico in senso stretto. L'ergodicità in senso stretto è abbastanza dicile da studiare, e risulta inutilmente restrittiva quando si è interessati ad una sola analisi del secondo ordine tramite valori medi. Per questo motivo nel resto del capitolo ci occuperemo solo dell'ergodocità in senso lato, e, ancora più in particolare, dell'ergodicità in media: 1 µx (t) = E[x(k, t)] = lim T →+∞ 2T Z +T −T x(k, t)dt = lim µT T →+∞ (1.1) Osserviamo che µx (t) è un segnale, invece µT è una variabile aleatoria dunque, per essere uguali, µx (t) non deve dipendere dal tempo; allora condizione necessaria per l'ergodicità in media è che x(k, t) sia SSL (cioè la media non deve dipendere dal tempo). CAPITOLO 1. 3 Se la condizione necessaria è soddisfatta allora si può scrivere: µx = lim µT T →+∞ Il termine a destra è il limite di una successione di variabili aleatorie, apriamo dunque una parentesi su tale argomento. 1.1 Limiti di Successioni di Variabili Aleatorie Per un'esposizione rigorosa del concetto di ergodicità in media è necessario chiarire il concetto di limite di una successione di variabili aleatorie: lim xn . (1.2) n→+∞ Il signicato di convergenza di una successione di v.a. può assumere dierenti signicati a seconda del contesto, per questo motivo occorre specicare ogni volta il signicato assunto dal termine convergenza. 1.1.1 Convergenza Ovunque Si dice che xn (k) converge a x(k) ovunque se: lim xn (k) = x(k) n→+∞ ∀ k, (1.3) dove l'indice k è stato inserito per esplicitare in maniera più chiara il carattere aleatorio sia dei singoli termini della successione che del valore assunto dal limite. La 1.3 è la denizione di convergenza più restrittiva. 1.1.2 Convergenza Quasi Ovunque Si dice che xn (k) converge a x(k) quasi ovunque se: n o n o P lim xn (k) 6= x(k) = 0 oppure P lim xn (k) = x(k) = 1 n→+∞ n→+∞ (1.4) È immediato vericare che la convergenza ovunque ⇒ la convergenza quasi ovunque. 1.1.3 Convergenza in Media Si dice che xn (k) converge a x(k) in media e si scrive: l.i.m. 1 n→+∞ 1 Limit In the Mean. xn (k) = x(k) CAPITOLO 1. se: 4 h¡ ¢2 i lim E xn (k) − x(k) =0 n→+∞ (1.5) La convergenza ovunque ⇒ la convergenza in media, ma la convergenza in media non implica quella quasi ovunque, che, d'altra parte, non implica la convergenza in media. È possibile quindi trovare dei processi che convergono in media ma non quasi ovunque e viceversa2 . Ad esempio se si hanno delle realizzazioni che saltuariamente, ma no all'innito, hanno dei picchi, la convergenza in media non sarà vericata perché, a causa di tali picchi, nessuna delle realizzazioni convergerà a zero. Invece la convergenza in media sarà vericata perché anche nel caso più sfortunato, ossia prendere il campione xn in corrispondenza del punto di picco, si avrà comunque il limite che andrà a zero. Viceversa, se si hanno delle realizzazioni che vanno a zero più o meno velocemente, ma ce n'è almeno una che va all'innito, allora ovviamente si avrà convergenza quasi ovunque, ma non convergenza in media. Infatti, quando si va a calcolarla, il limite va all'innito. 1.1.4 Convergenza in Probabilità Si dice che xn (k) converge a x(k) in probabilità se: © ª ∀ε>0 lim P |xn (k) − x(k)| > ε = 0 n→+∞ (1.6) cioè ssata una tolleranza ε > 0 piccola a piacere, la probabilità che il limite della successione si discosti da x per una valore maggiore di ε > 0, è zero. Le convergenze precedentemente esposte implicano la convergenza in probabilità. Il fatto che la convergenza in media implichi la convergenza in probabilità è vero per la disuguaglianza di eby£ëv dopo che si è passati al limite: © ª E[(xn (k) − x(k))2 ] lim P |xn (k) − x(k)| > ε ≤ lim n→+∞ n→+∞ ε2 (1.7) Partendo dall'ipotesi di avere convergenza in media, il termine a destra è zero per denizione; quello a sinistra è una probabilità dunque è positivo. Poiché il termine di destra è nullo, il termine di sinistra dovrà essere obbligatoriamente zero e quindi si ha proprio la denizione di convergenza in probabilità. Ma il contrario non è vero quindi la convergenza in probabilità non implica la convergenza in media. 2 A. Papoulis - Probability, random variables and stochastic processes - 1991, McGraw-Hill. CAPITOLO 1. 5 1.1.5 Convergenza in Distribuzione Si dice che xn (k) converge a x(k) in distribuzione se: lim Fxn (k) (x) = Fx(k) (x) n→+∞ ∀ x. (1.8) La convergenza in probabilità ⇒ la convergenza in distribuzione. La gura 1.1 descrive gracamente i legami fra i tipi di convergenza sopra esposti. Figura 1.1: Relazioni esistenti tra i vari tipi di convergenza. Le leggi di convergenza percedentemente elencate, sono scritte in ordine: dalla più forte alla più debole. A noi basterebbe la convergenza in probabilità, anche se poco restrittiva; però la convergenza in media è molto più facile da trattare matematicamente! Usando la convergenza in media, anziché quella in probabilità, si lasciano fuori solamente quei processi che ad un certo punto vanno all'innito, ma certi processi, nella realtà sono veramente rari, quindi usare la convergenza in media è un buon compromesso. 1.2 Ergodicità in Media Siamo ora in grado di dare una denizione esatta di ergodicità in media di un processo: un processo si dice ergodico in media se: 1 T →+∞ 2T | µx = lim Z +T −T x(k, t) dt {z } (1.9) µT dove µT è chiaramente una v.a. dipendente dalla realizzazione k , e dove si è sfruttata l'ipotesi di stazionarietà in senso lato del processo. CAPITOLO 1. 6 Dato che l'operazione di limite viene applicata ad una successione di v.a., va specicata la denizione di convergenza che si intende utilizzare. A tale proposito osserviamo che, operativamente, è necessario (e suciente) che, ssato un errore piccolo a piacere, la probabilità, che la sostituzione della media d'insieme con quella temporale porti ad un errore maggiore di quello ssato, sia piccola a piacere. Non è dicile riconoscere nella condizione appena descritta la denizione di convergenza in probabilità. Purtroppo la convergenza in probabilità ha lo svantaggio di essere complessa da trattare. Prendere invece in considerazione la denizione di convergenza in media (eq. 1.5) agevola l'analisi e, se vericata, implica la convergenza in probabilità. Di contro vengono scartati alcuni processi che convergono in probabilità ma non in media3 . Applicando la denizione di convergenza in media all'equazione 1.9 si ottiene: £ ¤ (1.10) lim E (µT − µx )2 = 0 T →+∞ | {z } 2 =σ 2 σµ T T £ ¤ dove si è osservato come la quantità E (µT − µx )2 corrisponda alla varianza della v.a. µT , infatti: ¸ · Z +T Z +T 1 1 x(k, t) dt = E[x(k, t)] dt = µx E[µT ] = E 2T −T 2T −T Tale proprietà viene di solito riassunta dicendo che µT è una stima corretta (non polarizzata) di µx . I risultato fondamentale della teoria dei processi ergodici in media è riassunto nel seguente teorema: Teorema di eby²ëv. Un processo SSL è ergodico in media se e solo se: 1 lim T →+∞ T Z 0 2T ¶ µ τ dτ = 0 Cxx (τ ) · 1 − 2T Dimostrazione. Partendo dalla denizione di µT si può scrivere: Z +T 1 µT = x(k, t) dt 2T −T µ ¶ Z +∞ t 1 · rect · x(k, t) dt = 2T 2T −∞ ¯ µ ¶ Z +∞ ¯ 1 τ −t = · rect · x(k, t) dt¯¯ 2T −∞ 2T τ =0 Si introduce un nuovo segnale derivato dal passaggio ¡ t ¢ di x(k, t) in un 1 sistema LTI con risposta impulsiva h(t) = 2T · rect 2T : µ ¶ 1 t y(k, t) = x(k, t) ⊗ · rect 2T 2T 3 I processi scartati a causa di tale scelta sono di scarso interesse pratico. CAPITOLO 1. 7 Il segnale y(k, t) così ottenuto è caratterizzato da media, autocorrelazione e densità spettrale di potenza media date da: µy = µx · H(0) Hyy (τ ) = Hxx (τ ) ⊗ h(τ ) ⊗ h(−τ ) Syy (f ) = Sxx (f )· k H(f ) k2 La varianza σT2 può dunque essere interpretata come la varianza dell'uscita del ltro all'istante t = 0. In formule: h i h i2 σT2 = E y(k, 0)2 − E y(k, 0) = Hyy (0) − µ2y = Hxx (τ ) ⊗ h(τ ) ⊗ h(−τ )|τ =0 − µ2x · H(0)2 . L'autocorrelazione del processo x(k, t) può essere così riscritta: Hxx (τ ) = Cxx (τ ) + µ2x Quindi: σT2 = (Cxx (τ ) + µ2x ) ⊗ h(τ ) ⊗ h(−τ )|τ =0 − µ2x · H(0)2 = Cxx (τ ) ⊗ h(τ ) ⊗ h(−τ )|τ =0 + µ2x ⊗ h(τ ) ⊗ h(−τ )|τ =0 − µ2x · H(0)2 Sviluppando il secondo termine: ¯ Z Z ¯ 2 2 0 0 00 00 ¯ µx ⊗ h(τ ) ⊗ h(−τ )|τ =0 = µx · h(τ ) dτ · h(τ − τ ) dτ ¯ R R τ =0 Z Z 2 0 0 00 00 = µx · h(τ ) dτ · h(τ ) dτ R R = µ2x · H(0)2 si può riscrivere σT2 come: σT2 = Cxx (τ ) ⊗ h(τ ) ⊗ h(−τ )|τ =0 µ ¶¯ 1 τ ¯¯ = Cxx (τ ) ⊗ · tr 2T 2T ¯τ =0 µ ¶ ¯ Z 2T ¯ 1 |τ − t| = Cxx (t) · 1 − dt¯¯ 2T −2T 2T τ =0 Osservando che la covarianza e la funzione tr(·) sono funzioni pari e inserendo anche l'operazione di limite, si ottiene: µ ¶ Z 1 2T τ lim σT2 = lim Cxx (τ ) · 1 − dτ = 0. T →+∞ T →+∞ T 0 2T Segue la tesi. CAPITOLO 1. 8 Con considerazioni analoghe al teorema precedente, possono essere anche dimostrate le seguenti condizioni sucienti per l'ergodicità in media di un processo: 1. Condizione suciente per l'ergodicità in media del processo x(k, t) è che: ∃ d : Cxx (τ ) = 0 |τ | > d 2. Condizione suciente per l'ergodicità in media del processo x(k, t) è che si verichi: lim Cxx (τ ) = 0 τ →+∞ La dimostrazione della seconda condizione, che implica la prima, è la seguente: µ ¶ Z 1 2T τ ⇒ Cxx (τ ) · 1 − dτ T 0 2T Z Z 1 2T 1 2T τ dτ = Cxx (τ ) dτ − Cxx (τ ) · T 0 T 0 2T Z Z ¯ τ ¯ 1 2T 1 2T ¯ ¯ ≤ |Cxx (τ )| dτ + |Cxx (τ )| · ¯ ¯ dτ T 0 T 0 2T Z 2T Z 2T Z 1 1 2 2T ≤ |Cxx (τ )| dτ + |Cxx (τ )| dτ = |Cxx (τ )| dτ T 0 T 0 T 0 Sfruttando la denizione di limite: ∀ ε > 0 ∃ T0 : |Cxx (τ )| < ε ∀ τ > T0 e dividendo l'integrale in due parti, si ricava una sua maggiorazione: Z Z 2 T0 2 2T ⇒ = |Cxx (τ )| dτ + |Cxx (τ )| dτ T 0 T T0 Z Z 2 T0 2 2T ε dτ ≤ |Cxx (τ )| dτ + T 0 T T0 2K 2 = + · ε · (2T − T0 ) T T dove K è il massimo valore assunto da |Cxx (τ )| nell'intervallo [0, T0 ]. Considerando poi che σT2 ≥ 0, si ottiene: µ ¶ 2K 2 0 ≤ lim σT2 ≤ lim + · ε · (2T − T0 ) = 4ε. T →+∞ T →+∞ T T Poiché la relazione precedente vale ∀ ε > 0, la sucienza è vericata. ¤ CAPITOLO 1. 9 Oltre alle condizioni sopra descritte, il teorema seguente fornisce una condizione necessaria e suciente per l'ergodicità in media di un processo. Teorema di Slutsky. Un processo è ergodico in media se e solo se: 1 T →+∞ T Z lim 0 T Cxx (τ ) dτ = 0 Introducendo il concetto di spettro dell'autocovarianza : c Sxx (f ) = F{Cxx (τ )} = Sxx (f ) − µ2x · δ(f ) (1.11) è possibile riscrivere nel dominio della frequenza il teorema di Slutsky: Z c (0) Sxx 1 T Cxx (τ ) dτ = lim =0 (1.12) lim T →+∞ T 0 T →+∞ 2T c (0) < ∞ che è vero se e solo se Sxx Se nell'origine dello spettro della covarianza non sono presenti δ(·), allora il processo x(k, t) è ergodico in media. 1.3 Ergodicità in Potenza Media Analogamente alla denizione di ergodicità in media, il processo x(k, t) si dice ergodico in potenza media quando si può invertire l'analisi d'insieme della potenza con quella temporale: Z T 1 2 = lim (1.13) P= E[x (k, t)] x2 (k, t)dt | {z } T →+∞ 2T −T {z } studio d'insieme | studio temporale Sostituendo v(k, t) = x2 (k, t), studiare l'ergodicità in potenza media del processo x(k, t) diventa equivalente a studiare l'ergodicità in media del processo v(k, t). Applicando il teorema di Slutsky si ottiene: Z 1 T Cvv (τ ) dτ = 0 lim T →+∞ T 0 da cui, svolgendo i passaggi, si arriva a: Cvv (τ ) = Hvv (τ ) − µ2v = E[x2 (k, t + τ )x2 (k, t)] − E[x2 (k, t)]2 2 = Hx2 x2 (τ ) − Hxx (0) Z T 1 2 Hx2 x2 (τ ) dτ = Hxx (0) ⇒ lim T →+∞ T 0 (1.14) L'equazione (1.14) fornisce una condizione necessaria e suciente per l'ergodicità in media del processo x(k, t). Capitolo 2 Processi gaussiani Per prima cosa introdurremo le variabili aleatorie gaussiane, poi parleremo delle variabili aleatorie congiuntamente gaussiane ed inne dei processi gaussiani. 2.1 Variabili aleatorie gaussiane Una variabile aleatoria x è gaussiana (oppure normale ) se la sua densità di probabilità è: (x−µx )2 1 − fx (x) = p (2.1) e 2σx2 2πσx2 dove µx è lil valor medio e σx2 la varianza. 2.1.1 Proprietà della variabile aleatoria gaussiana Qui di seguito sono elencate le proprietà che possiede una variabile aleatoria gaussiana: • E' una densità di probabilità e l'integrale vale 1. Per dimostrarlo si pone per semplicità il valor medio nullo, µx = 0 e quindi si avrà : fx (x) = √ 1 e 2 2πσx − (x)2 2σx2 . Si calcola questo integrale, che ci servirà dopo: Z Z Z Z ³Z ´2 2 2 −x2 −x2 −y 2 e dx = e dx · e dy = e−(x +y ) dxdy R R R R R Z 2π Z ∞ 2 2 2 = e−ρ (cos θ+sin θ) ρdθdρ 0 {z } |0 coord. polari: x=ρ cos θ ; y=ρ sin θ ; θ²[0,2π] ; ρ²[0,∞) Z ∞ Z ∞ −ρ2 −ρ2 = 2π = π ρe dρ = −π 0 −2ρe 0 10 ¯ 2 ¯∞ dρ = −πe−ρ ¯ 0 CAPITOLO 2. 11 Allora: Z 2 e−x dx = √ π (2.2) R Si riconsidera la densità di probabilità e si calcola l'integrale: √ Z Z Z (x)2 1 1 π 2 − 2 −u 2σ x dx = √ p fx (x)dx = e e du = √ = 1 2 π R π 2πσx R R | {z } | {z } √ π x2 2σx2 si pone u2 = • Il valor medio è proprio µx . Z +∞ E[x] = xfx dx −∞ = = = Z p 1 2πσx2 p 1 2πσx2 1 p | +∞ −∞ Z {z x } dx porre x−µx =t (t + µx ) e +∞ − t·e 2πσx2 (x−µx )2 2σ 2 +∞ −∞ Z − x e| (t)2 2σx2 −∞ − (t)2 2σ 2 x dt dt + µx · p {z } | 1 2πσx2 2σx ¯ ¯ +∞ − e −∞ {z (t)2 2σx2 dt } 1 moltiplicare e dividere per σx2 ¯ ³ − (t)2 ¯+∞ σx2 2 ¯ = −p e 2πσx2 {z | Z + µx −∞ } 0 • La varianza è proprio σx2 . h i E (x − µx )2 = p = p 1 2πσx2 1 2πσx2 Z +∞ − x2 e −∞ Z +∞ x2 2σx2 − x · xe dx x2 2σx2 dx · −∞ σx2 σx2 g0 z }| { +∞ f x2 z}|{ x − 2σ σx2 p x · 2 e x2 dx σ 2πσx2 −∞ | {z x } R R Z = per parti: = f g 0 =f g− f 0 g Z +∞ 2 ¯+∞ 2 σ2 σx2 − x2¯ −x p +p x (−xe 2σx ¯¯ e 2σx2 · 1 dx 2πσx2 2πσx2 −∞ | {z −∞} | {z } tende a 0 2 = σx σx2 CAPITOLO 2. 12 • I momenti centrali di ordine dispari sono nulli. Se si vuole descrivere la densità di probabilità, è possibile farlo dando tutti i momenti: - momento di ordine 1 −→ media - momento di ordine 2 −→ varianza - momento di ordine 3 −→ asimmetria - momento di ordine 4 −→ curtosi Per calcolare i momenti di qualsiasi ordine (n qualsiasi) si suppone per semplicità µx = 0, quindi: Z 2 1 −x E[X n ] = p xn e 2σx2 dx (2.3) 2πσx2 R dispari { R z n }| x fx (x) dx = 0 - Se n è dispari ⇒ E[X n ] = 0 perché E[X n ] = R |{z} |{z} dispari pari ³ ´ - Se n è pari ⇒ E[X n ] = σ n 1 · 3 · 5 . . . (n − 1) ³ ´ dove con la scrittura 1 · 3 · 5 . . . (n − 1) si intende il prodotto dei primi (n − 1) numeri dispari. Dimostrazione : u2 z}|{ r Z 2 π − αx −u2 du √ = e dx = e α α R R Z Si consideri la derivata n-esima rispetto ad α: r Z ∂n π ∂n −αx2 e dx = n n ∂α R ∂α α (2.4) Il termine di sinistra della (2.4) sarà: Z Z Z ∂n ∂ n −αx2 2 −αx2 e dx = e dx = (−1)n (x2 )n e−αx dx n ∂αn R ∂α R R (2.5) Il termine di destra della (2.4) sarà: r ∂n ∂αn ³ ∂n ∂n √ −1 √ √ 1 1 π = πα 2 = π n α− 2 = πα(− 2 −n) (−1)n n α ∂α ∂α ´ 1 · 3 · 5 . . . (n − 1) Si eguaglino i risultati della (2.5) e della (2.6): ³ ´ k z}|{ 1 · 3 · 5 . . . (n − 1) √ 1 2 (−1)n x 2n e−αx dx = πα(− 2 −n) (−1)n 2n R 2n (2.6) Z (2.7) CAPITOLO 2. 13 E' possibile scegliere un qualsiasi valore di α; per semplicità si scelga α = ³ ´ µ ¶−( k+1 ) 1 · 3 · 5 . . . (k − 1) Z 2 2 x √ 1 ⇒ xk e 2σ2 dx = π ⇒ k 2 2σ R 22 ³ ´ Z 1 · 3 · 5 . . . (k − 1) 2 x √ k+1 ⇒ ⇒ xk e 2σ2 dx = π(2σ 2 ) 2 k R 22 ³ ´ Z 1 · 3 · 5 . . . (k − 1) 2 √ x √ k ⇒ xk e 2σ2 dx = π(2σ 2 ) 2 2σ 2 ⇒ k R 22 ´ ³ Z 1 · 3 · 5 . . . (k − 1) 2 √ x k ⇒ xk e 2σ2 dx = 2πσ 2 2 2 σ k ⇒ k R 22 Z ´ ³ x2 1 ⇒√ xk e 2σ2 dx = σ k 1 · 3 · 5 . . . (k − 1) 2 R | 2πσ {z } 1 2σ 2 E[X k ] Per vedere le dierenze tra i vari processi è utile calcolare i momenti di ordine superiore al II: 3 x) ] -Skewness (asimmetria) E[(X−µ ; più un processo è skewness, più è asimσ3 metrico rispetto al valor medio 4 x) ] -Kurtosis (curtosi) E[(X−µ ; dice quanto sono pesanti (heavy) le code della σ4 densità di probabilità. Per le gaussiane la curtosi vale 3 ed è inferiore a quella delle laplaciane. 2.1.2 La funzione caratteristica La funzione caratteristica è la trasformata di Fourier della densità di probabilità: Z φx (f ) = F{fx (x)} = e−j2πf x fx (x)dx (2.8) R Poiché: fx (x) φx (f ) ∂ φx (f ) ∂f ∂n ⇒ (−j2πx)n fx (x) φx (f ) ∂f n ⇒ −j2πxfx (x) (−1)n ∂ n φx (f ) (j2π)n ∂f n La trasformata calcolata in zero è proprio l'integrale su R, cioè il momento di ordine n : Z (−1)n (n) n E[X ] = xn fx (x)dx = φ (0) (2.9) (j2π)n x R ⇒ xn fx (x) CAPITOLO 2. 14 Quindi se si conosce tutto sui momenti allora si conosce tutto sulla densità di probabilità, allora si conosce tutto sulla variabile aleatoria. 2.1.3 Dimostrazione che la trasformata di Fourier di una gaussiana è ancora una gaussiana Si dimostri adesso che la trasformata di Fourier di una variabile aleatoria gaussiana è ancora una variabile aleatoria gaussiana. Per semplicità si consideri una gaussiana a valor medio nullo: µx = 0. (Se il valor medio non fosse nullo allora occorrerebbe fare una traslazione). ½ ¾ 2 1 − x2 φx (f ) = F{fx (x)} = F √ e 2σ 2 2πσ Z x2 1 √ = e− 2σ2 · e−j2πf x dx 2πσ 2 ³ 2 ´ ZR 1 − x 2 +j2πf x 2σ √ = e dx (2.10) 2πσ 2 R L'esponente della (2.10) è utile vederlo come un quadrato: !2 r µ 2 ¶ Ãr 2 √ x x x2 2 2σ 2 πf + j2πf x = + α ⇒ α = j −α ⇒ j2πf x = 2α 2σ 2 2σ 2 2σ 2 Quindi l'esponente sarà: !2 µ 2 ¶2 ¶ Ãr 2 µ 2 √ x x x 2 2 + j2πf x = +α −α = + j 2σ πf + 2σ 2 π 2 f 2 2σ 2 2σ 2 2σ 2 Allora la (2.10) diventa: φx (f ) = 1 √ 2πσ 2 "µ Z √x − 2σ 2 e 2 2 2 Si pone s = √x 2σ 2 # ¶2 +2π 2 σ 2 f 2 dx R z µ = √ +j 2σπf e−2π σ f √ 2πσ 2 Z − e s2 x √ 2σ 2 }| ¶{2 √ + j 2σπf dx R √ + j 2σπf e allora: 2 2 2 φx (f ) = e−2π σ f √ 2πσ 2 2 2f 2 = e−2π σ √ π Z √ +∞+j 2σπf √ −∞+j 2σπf Z +∞+j √2σπf √ −∞+j 2σπf e−s 2 2 √ 2σ ds e−s ds CAPITOLO 2. 15 Quindi si deve calcolare l'integrale sulla linea in gura 2.1: Figura 2.1: Linea in cui si deve calcolare l'integrale. √ Si noti che il punto di intersezione tra la linea blu e l'asse immaginario è: j 2σπf Per risolvere l'integrale, si consideri la linea chiusa in gura 2.2: Figura 2.2: Circuito con chiusure all'innito In questo modo infatti è possibile ricorrere al lemma di Jordan e dunque al teorema dei residui. Per quanto riguarda l'integrale di una funzione su una linea chiusa, è noto che se la funzione è analitica (cioè non ha singolarità) allora l'integrale è nullo; altrimenti bisogna calcolare i residui relativi ad ogni singolarità e il risultato dell'integrale sarà la somma dei residui. 2 2 e−s = e−(a+jb) = e−a 2 +b2 −2jab Se la parte reale (a) tende all'innito, ma la parte immaginaria (b) no, allora tutto tende a zero. CAPITOLO 2. 16 Se la parte immaginaria (b) tende all'innito, ma la parte reale (a) no, allora tutto tende all'innito. Se sia la parte reale che quella immaginaria tendono all'innito allora il risultato dipende da chi delle due parti ha più inuenza. Nel caso in esame, nella zona del circuito in gura, domina la parte reale, 2 dunque tutto tende a zero, quindi la funzione e−s è analitica e allora, per il lemma di Jordan si ha la (2.11): I 2 e−s ds = 0 (2.11) I L'integrale della linea chiusa si scrive come la somma degli integrali delle singole componenti, (2.12): I I I I I 2 −s2 −s2 −s2 −s2 e ds = e ds + e ds + e ds + e−s ds = 0 (2.12) I I1 I2 I3 I4 I2 eI4 sono chiusure all'innito della funzione, ma lì essa vale zero, dunque questi integrali sono nulli e quindi la (2.12) diventa: I I I 2 −s2 −s2 e ds = e ds + e−s ds = 0 (2.13) I I1 Allora : I3 I I 2 2 e−s ds = − I1 e−s ds (2.14) I3 Poiché in gura 2.2, il verso di I3 era opposto a quello di gura 2.1, e si è interessati a calcolare l'integrale su I3 orientato nel verso Hconcorde con la H 2 2 gura 2.1, allora si vuole calcolare proprio − I3 e−s ds cioè I1 e−s ds, dove: I Z +∞ 2 2 e−s ds = e−s ds (2.15) Dalla (2.2) si sa che In conclusione: R +∞ −∞ I1 e −∞ −s2 √ ds = π 2 2f 2 φx (f ) = e−2π σ √ π = e−2π σ √ π 2 2f 2 = e−2π Z √ +∞+j 2σπf √ −∞+j 2σπf Z +∞ −s2 e 2 e−s ds ds −∞ 2 σ2 f 2 Quindi la trasformata di Fourier di una gaussiana è di nuovo una gaussiana: φx (f ) = F{fx (x)} = e−2π 2 σ2 f 2 (2.16) Con questo risultato ottenuto è possibile inoltre dimostrare che la somma di due gaussiane sarà una gaussiana con valor medio uguale alla somma dei valor medi e varianza uguale alla somme delle varianze. 2 2 Inne, un altro risultato importante è che e−πt e−πf . CAPITOLO 2. 17 2.1.4 Teorema del limite centrale Hp: Siano Xi n variabili aleatorie indipendenti continue. Si supponga che: n X lim σx2i < ∞ n→∞ (2.17) i per ogni variabile aleatoria Xi , Z xα fxi (x)dx < k ∃α > 2, ∃k < ∞ : (2.18) cioè si supponga che i momenti strettamente maggiori di 2 siano niti. Si denisce: n X Zn = Xi i=1 Thesi: X X lim Zn = ℵ( µi , σi2 ) n→∞ i (2.19) i Il teorema del limite centrale spiega che se si hanno tante variabili aleatorie indipendenti e si sommano, si otterrà una variabile aleatoria con densità di probabilità gaussiana con valor medio uguale alla somma dei valor medi e varianza uguale alla somma delle varianze. Supponendo Xi a media nulla, allora: φzn (f ) = n Y φxi (f ) ⇒ fzn (z) = i=1 n O fxi (z) (2.20) i=1 Intuitivamente, se si moltiplicano molte funzioni, purché siano positive e abbiano integrale 1, alla ne si ottiene una gaussiana. Il che è equivalente ad aermare che se si convolvono tante funzioni che son trasformate di funzioni positive e con integrale 1, si ottiene come risultato una gaussiana. Infatti: Z (2.21) φxi (0) = fxi (x) = 1 ⇒ φxi (0) = 1 ¯Z ¯ Z Z ¯ ¯ −j2πf x −j2πf x ¯ ¯ k fxi (x) k · k e k dx = fxi (x) = 1 φxi (f ) = ¯ fxi (x)e dx¯ ≤ R ⇒ φxi (f ) ≤ 1 (2.22) Nella (2.22) se Xi è continua vale il minore stretto e quindi il valore 1 viene raggiunto solo nell'origine (Xi è continua nel tempo se non vi sono δ , che in frequenza diventano seni e coseni, cioè funzioni oscillanti). Le varie φxi (f ) saranno 1 solo nell'origine e lontane dall'origine avranno valore minore di 1. Tanti numeri reali positivi minori di 1, moltiplicati tra loro, daranno come risultato un valore che tende a zero. Quindi col teorema del limite centrale CAPITOLO 2. 18 si osserva solo quello che succede nell'intorno dell'origine perché comunque, lontano dall'origine, si hanno valori che tendono a zero. Si va a studiare quello che succede nell'intorno dell'origine: si vanno a fare gli sviluppi di Taylor. Per comodità, anziché scrivere gli sviluppi di Taylor della φxi (f ), si scrivono quelli del suo logaritmo: (2.23) ψxi (f ) = log φxi (f ) 0 ψxi (f ) = ψxi (0) + f ψxi (0) + Dove: f 2 00 ψ (0) + o(f 2 ) 2 xi (2.24) 1 z }| { ψxi (0) = log φxi (0) = 0 0 φx (0) ψxi (0) = d (log φxi (0)) = i =0 φxi (0) 0 0 00 0 φx (0)φxi (0) − φxi (0)φxi (0) ψxi (0) = d (log φxi (0)) = i = −4π 2 σx2i (φxi (0))2 00 2 0 00 Per ricavare φxi (0) e φxi (0) si applica la formula del momento n-esimo: E[X n ] = (−1)n (n) φ (0) (j2π)n (2.25) 0 z}|{ ⇒ φxi (0) = E[X](−j2π) = µx j2π = 0 0 00 ⇒ φxi (0) = E[X 2 ](j2π)2 = (σx2 + µ2x )(−4π 2 ) = −4π 2 σx2 Quindi: 0 ψxi (f ) = ψxi (0) + f ψxi (0) + f 2 00 ψ (0) + o(f 2 ) 2 xi f2 + o(f 2 ) 2 = −2π 2 σx2i f 2 + o(f 2 ) = −4π 2 σx2i Allora: φxi (f ) ' e−2π 2 σ2 f 2 xi (2.26) ed è una gaussiana. Dalle (2.20) e (2.26) si dimostra che: φzn (f ) = n Y e−2π 2 σ2 f 2 xi = e−2π 2f 2 Pn i=1 σx2i (2.27) i=1 cioè si ottiene una gaussiana che ha come varianza la somma delle varianze (ed avrebbe come valor medio la somma dei valor medi, ma essi sono stati posti a zero per semplicità). CAPITOLO 2. 19 2.2 Variabili aleatorie congiuntamente gaussiane Considerate le variabili aleatorie X1 , X2 , . . . , Xn , si vuole che il vettore → − X (2.28) sia congiuntamente gaussiano. X1 − → X2 (2.28) X = . .. Xn Un vettore di variabili aleatorie si dice congiuntamente gaussiano se una qualsiasi combinazione lineare delle Xi è gaussiana. Introducendo il vettore → dei coecienti − a: a1 a2 → − a = . .. an allora si può scrivere: → → → → Z=− a T− x =< − a ,− x >= n X ai Xi i=1 Quindi: Z= n X (2.29) ai Xi i=1 Adesso non si impone più che le Xi siano indipendenti, perché imporre la proprietà (2.29) è suciente a determinare poi la densità di probabilità congiunta. L'obiettivo è calcolare la funzione caratteristica di un vettore di variabili → − → aleatorie gaussiane φ− x ( f ); per fare ciò, si calcola prima la funzione caratteristica di una variabile aleatoria semplice gaussiana φz (f ). Nel farlo, ci si − → → accorge che φz (1) è proprio uguale a φ− x ( a ) cioè a ciò che si stava cercando. La funzione caratteristica di un vettore di variabili aleatorie gaussiane è: Z P P − → → − → − → − → −j2π f T − x −j2π i fi xi → − → ] = E[e ]= e−j2π i fi xi f− φ x ( f ) = E[e x ( x )d x Rn (2.30) L'integrale è la trasformata di Fourier n-dimensionale della densità di probabilità congiunta, ma svolgere tale calcolo richiede ulteriori competenze. Per semplicità, si calcoli allora φz (f ). La funzione caratteristica di una variabile aleatoria gaussiana è: 2 2 2 φz (f ) = e−2π f σz (2.31) CAPITOLO 2. 20 Si supponga valor medio nullo (nel caso fosse diverso da zero, ci avrebbe una traslazione) e si calcoli σz2 : − − − → → → σz2 = E[(z − µz )2 ] = E[z2 ] = E[(→ a T→ x )2 ] = E[(→ a T− x )(− a T− x )T ] |{z} 0 → → → → − → → → − → = E[(− a T− x )(− x T− a )] = → a T E[− x− x T ]− a =→ a T C− a Nella posizione Cij c'è la correlazione E[xi xj ] tra la variabile aleatoria i e la variabile aleatoria j. Poiché si sta considerando un vettore a valor medio nullo allora la correlazione è uguale alla covarianza (infatti Hxx (τ ) = Cxx (τ ) + µ2x ), → quindi C è la matrice di covarianza di − x. − → − → 2 T Sostituendo σz = a C a nella (2.31) si ottiene: φz (f ) = e−2π Allora: φz (1) = e−2π → → 2f 2− a T C− a → → 2− a T C− a (2.32) − = φx (→ a) (2.33) → − → Sostituendo − a con f , si ottiene proprio la funzione caratteristica di un vettore di variabili aleatorie gaussiane: → −T − → −2π 2 f C f |{z} |{z} |{z} − → nxn 1xn nx1 → φ− (2.34) x(f ) = e − → → Inoltre la (2.34) mostra che φ− x ( f ) è uno scalare. Antitrasfomando la (2.34), si ottiene: − − − − (→ x −→ µ )T C −1 (→ x −→ µ) 1 → − − 2 → p e f− ( x ) = x 2n π n |C| (2.35) dove n è la lunghezza del vettore e |C| il determinante della matrice di covarianza. E' necessario che la matrice C sia invertibile infatti se non lo fosse, si avrebbe determinante nullo. La matrice C è reale, simmetrica e semidenita → → → → → positiva: − a T C− a ≥ 0 ∀− a , perché E[(− a T− x )2 ] è una forma quadratica. Ma → − anché C sia sempre invertibile, deve essere denita positiva:− a T C→ a > 0, − → cioè deve valere l'uguale solo per a = 0 → → − → E[(− a T→ x )2 ] = 0 sse − a T− x =0 cioè se X ai Xi = 0 i ossia se le variabili aleatorie X1 X2 . . . Xn non sono linearmente indipendenti (perché in tal caso una variabile aleatoria potrebbe essere scritta come combinazione lineare delle altre e dunque, nel caso che le altre variabili fossero note, essa diventerebbe deterministica). ⇒ se le variabili aleatorie che si considerano sono linearmente indipendenti, allora la matrice è denita positiva e dunque è sempre invertibile. CAPITOLO 2. 21 2.2.1 Proprietà delle variabili aleatorie congiuntamente gaussiane 1) Le densità di probabilità marginali sono ancora gaussiane; un qualsiasi sottoinsieme di variabili aleatorie gaussiane è ancora gaussiano. Dimostrazione: Z − → → → e−j2π(f1 x1 +f2 x2 +···+fn xn ) f− φ− x (x1 x2 . . . xn )dx1 dx2 . . . dxn x(f ) = Rn Per calcolare la densità di probabilità marginale, si toglie la i-esima componente, quindi si toglie la fi : → φ− x (f1 , . . . , fi−1 , 0, fi+1 , . . . , fn ) = Z = Rn −j2π(f1 x1 +···+fi−1 xi−1 +0+fi+1 xi+1 +···+fn xn ) → f− dx1 dx2 . . . dxn x (x1 x2 . . . xn )e Adesso si integra su xi e dunque si toglie anche la xi : → φ− x (f1 , . . . , fi−1 , 0, fi+1 , . . . , fn ) = Z = Rn−1 vedi sopra z }| { (. . . . . . . . . ) dx dx . . . dx dx . . . dx −j2π → (x1 x2 . . . xi−1 xi+1 . . . xn )e f− 1 2 i−1 i+1 n x−i → → L'obiettivo è dimostrare che la funzione caratteristica φ− x −i (f− x −i ), è ancora gaussiana. La i-esima componente è posta a 0, allora nella matrice C la riga i-esima e la colonna i-esima verranno moltiplicate per 0, quindi tale riga e tale colonna saranno azzerate: −2π 2 ³ f1 . . . 0 ... fn ´ C11 . . . .. .. . . Cn1 . . . → → φ− x −i (f− x −i ) = e C1n .. . Cnn f1 .. . 0 .. . fn → ⇒ la − x rimane ancora un vettore gaussiano. Iterando si riesce a farlo per qualsiasi sottoinsieme. 2) Per le gaussiane l'analisi no al secondo ordine (cioè su valor medio → − µ x e varianza C) dice già tutto. 3) Per le gaussiane l'indipendenza e la scorrelalatezza sono la stessa cosa. In generale indipendenza ⇒ scorrelatezza e il contrario non è sempre vero. Per le gaussiane è possibile dimostrare che indipendenza ⇐ scorrelatezza. CAPITOLO 2. 22 Dimostrazione: Si parte dall'ipotesi di scorrelatezza; se le variabili sono scorrelate allora la matrice C è diagonale e sulla diagonale ciQsono le varianze, allora il determinante è il prodotto delle varianze |C| = i σi2 , quindi: − 21 − → → f− x(x) = = 1 p e n 2 π n |C| 1 q e Q 2n π n i σi2 − n Y e q = i = ³ n Y 1 σ12 ´ . xn .. x ... 0 ... .. . ... 0 .. . 1 2 σn x .. . xn µ ¶ x2 − 12 Σi i2 σ i x2 2σ 2 i 2πσi2 fxi (xi ) i Partendo dall'ipotesi di scorrelatezza si può dunque vericare che la densità di probabilità congiunta è il prodotto delle singole densità di probabilità quindi le variabili sono indipendenti. Allora se le variabili aleatorie sono scorrelate e gaussiane, esse sono anche indipendenti. 4) Le curve di livello della gaussiana multivariata sono ellissi. Dimostrazione: Per tracciare le curve di livello di una gaussiana in due dimensioni si pone la densità di probabilità congiunta uguale ad una costante: 1 fxy (x, y) = p e 4π 2 |C| Ciò vuol dire porre: ¡ x y ¢ − 21 ³ µ C −1 x y x y ´ C −1 x y =k ¶ = k0 Poiché il termine di sinistra è una forma quadratica, allora è una conica (ellissi, parabola, iperbole). Se C −1 è denita positiva allora tale conica è un'ellisse. • Se X e Y sono indipendenti, si avrà una matrice diagonale e dunque un'ellisse con l' asse maggiore parallelo all'asse x (se σx2 > σy2 ), oppure con l' asse maggiore parallelo all'asse y (se σx2 < σy2 ), oppure delle circonferenze nel caso CAPITOLO 2. 23 in cui σx2 = σy2 . µ C= σx2 0 0 σy2 à ¶ ⇒ C −1 = 1 σx2 0 ! 0 ⇒ 1 σy2 y2 x2 + =k σx2 σy2 | {z } ellisse • Se X e Y non sono indipendenti allora si avrà un'ellisse orientata non nella stessa direzione di x o y. → − 5) Si supponga di avere un vettore X di n elementi si considerino due − → → − → − → → sottoinsiemi di X : X 1 e X 2 , si avrà che f (− x 1 |− x 2 ) è ancora una gaussiana multivariata. Cioè la densità di probabilità di un sottoinsieme condizionato ad un altro sottoinsieme, è ancora gaussiana. Questa proprietà ci limitiamo ad enunciarla, senza proporre una dimostrazione formale. 6) Prendendo m combinazioni lineari delle n variabili aleatorie gaussiane, si ottengono m variabili aleatorie che saranno congiuntamente gaussiane: − → − → A |{z} X = |{z} Y |{z} mxn nx1 (2.36) mx1 Dimostrazione: → − φy ( f ) | {z } − →T = E[e−j2π f Y − →T − → AX ] = E[e−j2π f − → ] = φx ( f T A) | {z } vettore lungo n vettore lungo m − → Il vettore φx ( f T A) è ancora una gaussiana infatti: − → −2π 2 f T → − φx ( f T A) = e Si ottiene: − → − → −2π 2 f T ACx ( f T A)T =e − → ACx AT f | {z } Cy Cy = A Cx AT |{z} |{z} |{z} |{z} mxm mxn nxn nxm − → − → Si osservi che se la matrice A è quadrata (nxn), allora con A X = Y si fa un cambio di coordinate e si ottiene ancora un vettore di variabili aleatorie gaussiane. Potendo scegliere A, la si sceglie tale che essa diagonalizzi la matrice Cx − → in modo da ottenere Cy diagonale e dunque avere un vettore Y a variabili aleatorie indipendenti. Da qui ci si riconduce alla Kalhunen-Loeve Transform (KLT), trasformata che, applicata al vettore di variabili aleatorie, rende di→ − agonale la matrice di covarianza, cioè produce un vettore Y di variabili aleatorie indipendenti (gaussiane). CAPITOLO 2. 24 2.3 Processi gaussiani Un processo si dice gaussiano se comunque si scelgano t1 , t2 , ..., tn , le n variabili aleatorie che si ottengono sono congiuntamente gaussiane. Ciò equivale a dire che se si campiona il processo x(k, t), ogni campione è gaussiano. Per un processo gaussiano è semplice dare una sua descrizione completa perché la caratte-rizzazione completa è del tutto equivalente ad una caratterizzazione no al II ordine. Sia il processo x(k, t) gaussiano e SSL (Stazionario in Senso Lato), allora µx e Hxx (τ ) sono sucienti a descrivere in maniera completa il processo: − → = (µ (t ), µ (t ), ...., µ (t )) ma essendo il processo SSL ⇒ − → = (µ , µ , ..., µ ) µ µ x x 1 x 2 x n x x x x ´³ ´i h³ Cij = E x(k, ti )−µx x(k, tj )−µx = Cxx (ti , tj ) = Cxx (ti − tj ) = Hxx (ti −tj )−µ2x | {z } essendo stazionari in senso lato Se si pone in ingresso ad un sistema LTI un processo gaussiano x(k, t), allora anche l'uscita y(k, t) sarà gaussiana: Z y(k, t) = x(k, t)h(t − τ )dτ Ingresso e uscita sono congiuntamente gaussiani quando: presi h istanti sul primo processo e k istanti sul secondo processo, le h + k variabili aleatorie sono congiuntamente gaussiane. x(k, t1 )x(k, t2 )...x(k, th ) | {z } y(k, th+1 )y(k, th+2 )...y(k, th+k ) | {z } h k Capitolo 3 Segnali e processi a banda stretta Si deniscono segnali a banda stretta quei segnali il cui spettro ha una larghezza molto piccola rispetto alla sua posizione sull'asse delle frequenze. Ad esempio un possibile segnale a banda stretta x(t) può essere costruito (ma non è l'unico modo) a partire da una modulazione fra un cos(2πf0 t) e un segnale x0 (t) in banda base: x(t) = x0 (t) · cos(2πf0 t) con f0 À B 0 (3.1) con B 0 banda di s0 (t). Per esempio i segnali emessi da un'emittente televisiva, radiofonica, o da una scheda di rete wireless sono tutti segnali a banda stretta. La gura 3 dà una rappresentazione graca dello spettro di un segnale a banda stretta. Analizzando tali segnali con gli usuali strumenti utilizzati per i segnali passa basso si presentano alcuni eetti indesiderati. Il principale problema si Figura 3.1: Trasformata di Fourier di un segnale a banda stretta 25 CAPITOLO 3. 26 riscontra applicando al segnale il teorema di Shannon (o del campionamento). Si supponga per esempio di dover memorizzare un minuto di un segnale vocale di banda B 0 = 4 KHz che per essere trasmesso è stato centrato in f0 = 5 GHz . In questo caso, la banda del segnale da memorizzare è B = 5 000 004 000 Hz . Per Shannon la frequenza di campionamento minima per poter ricostruire completamente il segnale è: fc = 2B ' 10GHz Questo signica che per memorizzare un minuto di segnale occorrono 600·109 campioni. Un approccio non praticabile nemmeno con i moderni calcolatori. Sfruttando il teorema del campionamento non è possibile scendere al di sotto dei 2B campioni se si vuole ricostruire senza perdita il segnale. In questo esempio il vero problema è che il segnale da memorizzare è solamente quello centrato in f0 = 5 GHz , ma con supporto 2B 0 = 8 KHz . Applicando invece il teorema, si ottengono campioni che contengono al loro interno anche l'informazione della nullità dello spettro compresa in [ 0 ; f0 − B 0 ]. 3.1 Segnali deterministici (segnali a banda stretta) Per risolvere le problematiche derivanti dall'analisi dei segnali a banda stretta, si ricorre ad un cambio di rappresentazione: facendo passare il segnale attraverso alcuni sistemi LTI in cascata si deve riuscire a scrivere x(t) come derivante da una funzione g(x0 (t)) con la speranza che x0 (t) sia un segnale in banda base. Così facendo, con la conoscenza di g e dei campioni prodotti da x0 (t), diventerebbe possibile ricostruire completamente il segnale di partenza. L'analisi che svolgeremo nel seguito, si basa su due ipotesi fondamentali: • x(t) reale • x(t) generico a banda stretta Avendo assunto x(t) reale, segue che X(f ) (x(t) X(f )) ha simmetria hermitiana, in particolare Re{X(f )} è pari e Im{X(f )} è dispari. Ne discende che la parte destra dello spettro, cioè i valori di X(f ) per f ≥ 0 contengono tutta l'informazione necessaria per descrivere in frequenza x(t). Il segnale di partenza deve quindi potersi ricostruire esattamente a partire da una funzione del tipo α · X(f ) · U (f ) con u(t) U (f ) funzione gradino unitario e α una costante nota. In particolare si può scrivere: x+ (t) = x(t) + x(t) ⊗ j = x(t) + j x̂(t) πt CAPITOLO 3. 27 b ) X + (f ) = X(f ) + j X(f ³ ´ = X(f ) + j − jsgn(f )X(F ) = X(f ) + sgn(f )X(f ) = X(f )(1 + sgn(f )) = 2 · X(f ) · U (f ) La quantità x+ (t) si chiama preinviluppo complesso di x(t), mentre x̂(t) indica la trasformata di Hilbert di x(t). Così facendo si ottiene un solo intervallo di frequenze dove lo spettro non è nullo. Il passo successivo è il seguente: x̃(t) = x+ (t) · e−j 2πf0 t e ) = X + (f + f0 ) X(f (3.2) Il segnale x̃(t) è chiamata inviluppo complesso e in generale la sua trasformata non gode della simmetria Hermitiana. È possibile perciò scrivere l'inviluppo complesso di x(t) come Re{x̃(t)} + j Im{x̃(t)}: ¡ ¢ x̃(t) = x(t) + j x̂(t) · e−j 2πf0 t ¡ ¢ ¡ ¢ = x(t) + j x̂(t) · cos(2πf0 t) − j sin(2πf0 t) = x(t) cos(2πf0 t) + j x̂(t) cos(2πf0 t) − j x(t) sin(2πf0 t) + x̂(t) sin(2πf0 t) = xi (t) + j xq (t) xi (t) è chiamata componente in fase del segnale x(t) e xq (t) è chiamata componente in quadratura. La tabella 3.1 riassume i passaggi precedenti nel dominio della frequenza. Segnale a banda stretta Preinviluppo complesso Inviluppo complesso Tabella 3.1: Rappresentazione in frequenza di x(t) Le formule che permettono di ricavare la componente in fase e quella in quadratura del segnale possono essere raggruppate in forma vettoriale per una rappresentazione più compatta. µ ¶ µ ¶ µ ¶ xi (t) cos(2πf0 t) sin(2πf0 t) x(t) = · (3.3) xq (t) − sin(2πf0 t) cos(2πf0 t) x̂(t) CAPITOLO 3. 28 Tale rappresentazione prende il nome di equazioni di analisi del segnale. Invertendo il sistema (3.3) si ottengono l'equazioni di sintesi del segnale : µ ¶ µ ¶ µ ¶ x(t) cos(2πf0 t) − sin(2πf0 t) xi (t) = · (3.4) x̂(t) sin(2πf0 t) cos(2πf0 t) xq (t) Date le componenti in fase e in quadratura del segnale e la frequenza f0 , si risale attraverso la (3.4) al segnale x(t) di partenza. Il sistema fornisce anche un metodo per ricavare la trasformata Hilbert a partire dalle funzioni xi (t) e xq (t). Dalle equazioni di sintesi si nota anche che un segnale a banda stretta può essere espresso anche come: x(t) = xi (t) · cos(2πf0 t) − xq (t) · sin(2πf0 t) µ ¶ q xq (t) 2 2 xi (t) + xq (t) · cos 2πf0 t + arctan = x (t) {z } | | {z i } Ampiezza F ase dove le componenti xi (t) e xq (t), opportunamente combinate, modulano ampiezza e fase della portante cos(2πf0 t). Da questo derivano i nomi di fase e quadratura della rappresentazione analitica dei segnali a banda stretta. Inoltre si evidenzia anche che tutti i segnali a banda stretta si possono vedere come un coseno modulato in ampiezza e fase. A tal proposito elenchiamo qui diseguito alcuni tipi di modulazione: AM, DSB(Double Side Band), SSB(Single Side Band). • mAM (t) = V0 (1 + kx(t)) cos(2πf0 t) • mDSB (t) = x(t) cos(2πf0 t) xi (t) = x(t) xq (t) = 0 x e(t) = xq e = x(t) i (t) + jxq (t) ⇒ m(t) a(t) = x2i (t) + x2q (t) = |x(t)| • mSSB (t) = x(t) cos(2πf0 t) ± x̂(t) sin(2πf0 t) (Si usa il + se vogliamo trasmettere la semibanda di sinistra, il - se vogliamo trasmettere quella di destra). xi (t) = x(t) xq (t) = ±x̂(t) x e(t) = xi (t) + jxq (t) ⇒ m(t) e = x(t) − j x̂(t) f(f ) = X(F )−j(−jsgn(f )X(f )) = X(f )−sgn(f )X(f ) = −2X(f )U (f ) ⇒M q p a(t) = x2i (t) + x2q (t) = x2 (t) + x̂2 (t) CAPITOLO 3. 29 Osservando il comportamento in frequenza dell'inviluppo complesso è facile dimostrare che: · ¸ µ ¶ f Xi (f ) = X(f + f0 ) + X(f − f0 ) · rect (3.5) 2f0 e ¶ · ¸ µ f Xq (f ) = j X(f − f0 ) − X(f + f0 ) · rect 2f0 (3.6) Infatti: xi (t) = x(t) cos(2πf0 t) + x̂(t) sin(2πf0 t) Xi (f ) = = = = = b − f0 ) + X(f b + f0 ) X(f − f0 ) + X(f + f0 ) X(f + 2 2j X(f − f0 ) + X(f + f0 ) −jsgn(f − f0 )X(f − f0 ) + jsgn(f + f0 )X(f + f0 ) + 2 2j ³ ´ ³ ´ X(f − f0 ) X(f + f0 ) 1 − sgn(f − f0 ) + 1 + sgn(f + f0 ) 2 2 X(f − f0 )U (−f + f0 ) + X(f + f0 )U (f + f0 ) ( X(f − f0 ) + X(f + f0 ) se |f | < f0 0 altrove =⇒ la componente in fase Xi (f ) della SSB è il segnale originale. xq (t) = −x(t) sin(2πf0 t) + x̂(t) cos(2πf0 t) ³ X(f − f ) − X(f + f ) ´ X(f b − f0 ) + X(f b + f0 ) 0 0 Xq (f ) = − + 2j 2 −X(f − f0 ) + X(f + f0 ) ³ −jsgn(f − f0 )X(f − f0 ) − jsgn(f + f0 )X(f + f0 ) ´ = + 2j 2 −X(f − f0 ) + X(f + f0 ) + sgn(f − f0 )X(f − f0 ) + sgn(f + f0 )X(f + f0 ) = 2j ³ ´ ³ ´ X(f − f0 ) − 1 + sgn(f − f0 ) + X(f + f0 ) 1 + sgn(f + f0 ) = 2j −2X(f − f0 )U (−f − f0 ) + 2X(f + f0 )U (f + f0 ) = 2j = jX(f − f0 )U (−f − f0 ) − jX(f + f0 )U (f + f0 ) ´ ( ³ j X(f − f0 ) − X(f + f0 ) se |f | < f0 = 0 altrove CAPITOLO 3. 30 =⇒ la componente in quadratura Xq (f ) della SSB è esattamente la trasformata di Hilbert del segnale. Le equazioni (3.5) (3.6) sono un ulteriore modo per ricavare (in frequenza) le componenti in fase e in quadratura. Come si può notare tali componenti sono in banda base. La frequenza f0 non è vincolante (può essere scelta arbitrariamente), ma si può dimostrare che ssandola a metà dello spettro non nullo si ottiene la scelta ottima (ovvero quella che minimizza la banda di xi (t) e di xq (t)). In riferimento all'esempio sopra esposto sulla memorizzazione di un minuto del segnale x(t), con l'introduzione della forma canonica di segnali a banda stretta il problema (da una complessità iniziale di 600 · 109 campioni) si riduce al campionamento di due segnali1 (la componente in fase e quella in quadratura) di banda B 0 . In questo modo con solo 60 · 2 · 2B 0 = 960000 campioni e l'informazione f0 = 5 GHz si memorizza senza perdita il segnale di partenza x(t). 3.1.1 Simulazione in banda base di un sistema a radiofrequenza, sistemi LTI È interessante studiare come opera un sistema LTI con risposta impulsiva a banda stretta2 quando viene attraversato da un segnale x(t) anch'esso a banda stretta. Chiamando y(t) Y (f ) l'uscita e h(t) H(f ) la risposta del sistema si ha che: Y (f ) = H(f ) · X(f ) ne deriva che anche y(t) è a banda stretta quindi l'uscita può essere rappresentata in banda base. In questo modo si può simulare un sistema a radiofrequenza lavorando invece in banda base. 1 contro 2 il solo segnale dell'applicazione diretta del teorema di Shannon. In realtà quest'ipotesi non è a causa della natura a banda stretta del segnale in ingresso al sistema. CAPITOLO 3. 31 Calcoliamo il preinviluppo complesso: Y + (f ) = Y (f ) + jY + (f ) = Y (f ) + j (−jsgn(f )Y (f )) = Y (f ) + sgn(f )Y (f ) = Y (f ) (1 + sgn(f )) = 2Y (f )U (f ) = 2X(f )H(f )U (f ) = 2X(f )H(f )U (f )U (f ) 2H(f )U (f ) = 2X(f )U (f ) · | {z } | 2 {z } X + (f ) = H + (f ) 2 ¢ 1¡ + X (f ) + H + (f ) 2 Allora: ¢ 1¡ + X (f ) + H + (f ) (3.7) 2 Perché U (f ) vale 0 oppure 1 allora si può moltiplicare per inniti U (f ) senza alterare il risultato; successivamente si moltiplica e divide per 2 in maniera tale da ottenere l'espressione di H + (f ). Ma il preinviluppo complesso non è un segnale molto utile perché continua ad essere un segnale a radiofrequenza; vediamo allora l'inviluppo complesso: Y + (f ) = 1e 1 e ) )H(f Ye (f ) = Y + (f + f0 ) = X + (f + f0 )H + (f + f0 ) = X(f 2 2 Allora: 1e e ) )H(f Ye (f ) = X(f 2 (3.8) Nel tempo si ha che: £ ¤ ye(t) = yi (t) + j yq (t) · ¸ ¢ ¡ ¢ 1 ¡ · si (t) + j sq (t) ⊗ hi (t) + j hq (t) = 2 ¤ 1 £ = · si (t) ⊗ hi (t) + j sq (t) ⊗ hi (t) + j si (t) ⊗ hq (t) − sq (t) ⊗ hq (t) 2 £ ¤ yi (t) = 21 · si (t) ⊗ hi (t) − sq (t) ⊗ hq (t) =⇒ £ ¤ yq (t) = 21 · sq (t) ⊗ hi (t) + si (t) ⊗ hq (t) Si osservi come il calcolo dell'uscita del sistema possa essere eseguito tutto in banda base (per passare in banda passante solo alla ne del procedimento). CAPITOLO 3. 32 Questa possibilità è di importanza fondamentale per la simulazione numerica dei sistemi, in quanto permette di simulare il comportamento del sistema utilizzando delle frequenze di campionamento decisamente più basse di quelle a cui sarebbe necessario operare per lo studio diretto in banda passante. 3.1.2 Applicazioni sui segnali a banda stretta Supponiamo che un segnale modulato DSB oppure AM entri in un sistema la cui risposta in fase sia: H(f ) = Aejβ(f ) Anché il sistema non sia distorcente: - A dovrebbe essere costante nella banda del segnale di ingresso in modo da avere kH(f )k costante; - β(f ) dovrebbe essere lineare e la retta che approssima linearmente ∠H(f ) dovrebbe passare per l'origine. Supponiamo di essere nel caso in cui essa non passi per l'origine, dunque si ha distorsione. Si denicono il ritardo di fase (3.9) ed il ritardo di gruppo (3.10): τf = −β(f0 ) 2πf0 (3.9) τg = −β(f0 ) 2π (3.10) Se τf 6= τg ⇒ si ha distorsione Studiamo il sistema nella rappresentazione in banda base. Il segnale che si vuole trasmettere è: • x(t) = m(t) cos(2πf0 t) nel caso della modulazione DSB • x(t) = (m(t) + 1) cos(2πf0 t) nel caso della modulazione AM e ) per ricavarsi Il procedimento da seguire è quello di partire da x e(f ) e H(f + e Y (f ); da quest'ultima ricavarsi Y (f ), antitrasformare per calcolare y + (t), prenderne la parte reale e trovare così il segnale in uscita y(t). Si consideri, ad esempio, il caso della modulazione DSB: x(t) = m(t) cos(2πf0 t) e ) = M (f ) x e(t) = xi (t) +j xq (t) = m(t) X(f | {z } | {z } m(t) 0 H(f ) può essere considerato a banda stretta: ³f + f ´ ³f − f ´ 0 0 + Aejβ(f ) rect H(f ) = Aejβ(f ) rect 2B 2B e ) si trova eliminando le frequenze negative, moltiplicando tutto per 2 e H(f traslando verso sinistra: ³ ´ e ) = 2Aejβ(f +f0 ) rect f H(f 2B CAPITOLO 3. 33 A questo punto si hanno tutti gli elementi per calcolare Ye (f ): 1e e ) = AM (f ) ejβ(f +f0 ) Ye (f ) = X(f )H(f 2 Y + (f ) = Ye (f − f0 ) = AM (f − f0 ) ejβ(f ) Si applica Taylor per linearizzare la fase: β(f ) = β(f0 ) + β 0 (f0 )(f − f0 ) = −2πf0 τf − 2πτg (f − f0 ) Y + (f ) = AM (f − f0 )ej(−2πf0 τf −2πτg (f −f0 )) = Ae−j2πf0 τf M (f − f0 )e−j2πτg (f −f0 ) y + (t) = Ae−j2πf0 τf m(t − τg )ej2πf0 t y(t) = Re{y + (t)} = A m(t − τg ) cos(2πf0 (t − τf )) | {z } | {z } inviluppo (3.11) portante L'equazione (3.11) esprime un risultato importante infatti, nonostante il segnale sia distorto, a causa del fatto che τf > τg , tuttavia l'inviluppo, che è ciò che realmente interessa, è solo traslato. 3.2 Segnali aleatori complessi (processi a banda stretta) Abbiamo visto che x(t) era reale, dunque la sua trasformata X(f ) aveva simmetria hermitiana. Adesso invece trattiamo segnali complessi, quindi per far vedere che x+ (k, t) = x(k, t) + j x̂(k, t) elimina le frequenze negative del segnale, non si può più sfruttare la trasformata (perché non esiste), si deve quindi passare attraverso l'autocorrelazione (nella quale si usa in coniugato, poiché si hanno segnali complessi): Hxx (τ ) = E[x(k, t + τ )x∗ (k, t)] Hx+ x+ (τ ) = E[x+ (k, t + τ )x+ (k, t)∗ ] ³ ´³ ´ = E[ x(k, t + τ ) + j x̂(k, t + τ ) x(k, t) − j x̂(k, t) ] = Hxx (τ ) − jHxx̂ (τ ) + jHx̂x (τ ) + Hx̂x̂ (τ ) = 2Hxx (τ ) + 2j H (τ ) {z } | x̂x d Hxx (τ )⊗h(τ )=H xx (τ ) d = 2Hxx (τ ) + 2j H xx (τ ) + = 2Hxx (τ ) Perché la trasformata di Hilbert é come il passaggio attraverso un sistema LTI: CAPITOLO 3. 34 Sx̂x̂ (f ) = Sxx (f )kH(f )k2 = Sxx (f )k − jsgn(f )k2 = Sxx (f ) · 1 ⇒ ⇒ Sx̂x̂ (f ) = Sxx (f ) ⇒ Hx̂x̂ (τ ) = Hxx (τ ). Invece Sx̂x (f ) è immaginario dispari (perché è il prodotto di Sxx (f ) che è reale pari e di −jsgn(f ) che è immaginario dispari) quindi la sua trasformata, ossia Hx̂x̂ (τ ) sarà reale dispari ⇒ Hx̂x (τ ) = Hx̂x (−τ ) = −Hx̂x (τ ) . ³ ´ Sx+ x+ (f ) = 2Sxx (f ) + 2jSxx (f ) − jsgn(f ) = 2Sxx (f ) + 2Sxx (f )sgn(f ) = 2Sxx (f )[1 + sgn(f )] = 2Sxx (f )2U (f ) = 4Sxx (f )U (f ) Hx̃x̃ (τ ) = E[x̃(k, t + τ )x̃(k, t)∗ ] = E[x+ (k, t + τ )−j2πf0 (t+τ ) x+ (k, t)ej2πf0 t ] = Hx+ x+ (τ )e−j2πf0 τ Quindi: Sx̃x̃ (f ) = Sx+ x+ (f + f0 ) In analogia con i risultati ricavati dalla rappresentazione analitica di segnali determinati a banda stretta, si introducono le componenti in fase e in quadratura di processi stocastici a banda stretta3 : xi (k, t) = x(k, t) · cos(2πf0 t) + x̂(k, t) · sin(2πf0 t) (3.12) xq (k, t) = −x(k, t) · sin(2πf0 t) + x̂(k, t) · cos(2πf0 t) Essendo anche le componenti in fase e in quadratura dei processi stocastici, è innanzitutto necessario studiare la loro stazionarietà in senso lato ipotizzando la stazionarietà in senso lato di x(k, t). Teorema 1. Siano xi (k, t) e xq (k, t) le componenti in fase e quadratura di un processo x(k, t) a banda stretta, SSL e con µx = 0 Allora: • xi (k, t) e xq (k, t) sono congiuntamente SSL • Hxi xi (τ ) = Hxq xq (τ ) • Hxi xq (τ ) = −Hxq xq (τ ) ³ • Sxi xi (f ) = Sxq xq (f ) = (Sxx (f − f0 ) + Sxx (f + f0 )) rect f 2f0 ´ • Sxi xq (f ) = −Sxq xi (f ) = −j (Sxx (f − f0 ) − Sxx (f + f0 )) rect 3 ³ f 2f0 ´ La denizione di banda stretta si riferisce alla densità spettrale di potenza media Sxx . CAPITOLO 3. 35 Dimostrazioni: E[xi (k, t)] = E[x(k, t)] · cos(2πf0 t) + E[x̂(k, t)] · sin(2πf0 t) = µx · cos(2πf0 t) + µx̂ · sin(2πf0 t) = 0 perché µx = 0 per ipotesi e µx̂ = µx H0 è zero perché se è nullo l'ingresso al sistema LTI allora è nulla anche l'uscita. E[xq (k, t)] = −E[x(k, t)] · sin(2πf0 t) + E[x̂(k, t)] · cos(2πf0 t) = −µx · sin(2πf0 t) + µx̂ · cos(2πf0 t) = 0 Per quanto riguarda l'autocorrelazione della componente in fase si ha: Hxi xi (τ ) = E[xi (k, t + τ )xi (k, t)] h¡ ¢ = E x(k, t + τ ) · cos(2πf0 (t + τ )) + x̂(k, t + τ ) · sin(2πf0 (t + τ )) · ¡ ¢i · x(k, t) · cos(2πf0 t) + x̂(k, t) · sin(2πf0 t) £ = E x(k, t + τ ) · x(k, t) · cos(2πf0 (t + τ )) · cos(2πf0 t) + + x̂(k, t + τ ) · x(k, t) · sin(2πf0 (t + τ )) · cos(2πf0 t) + + x(k, t + τ ) · x̂(k, t) · cos(2πf0 (t + τ )) · sin(2πf0 t) + ¤ + x̂(k, t + τ ) · x̂(k, t) · sin(2πf0 (t + τ )) · sin(2πf0 t) = Hxx (τ ) · cos(2πf0 (t + τ )) · cos(2πf0 t) + +Hx̂x (τ ) · sin(2πf0 (t + τ )) · cos(2πf0 t) + +Hxx̂ (τ ) · cos(2πf0 (t + τ )) · sin(2πf0 t) + +Hx̂x̂ (τ ) · sin(2πf0 (t + τ )) · sin(2πf0 t) Occorre a questo punto fare delle semplicazioni tenendo conto dei legami esistenti fra le correlazioni. La densità spettrale di potenza media del processo x̂(k, t) è così denita: Sx̂x̂ (f ) = Sxx (f ) · k H(f ) k2 = Sxx (f ) | {z } k−j sgn(f )k2 =1 ⇒ Hxx (τ ) = Hx̂x̂ (τ ) Per la cross-correlazione si ha: Hxx̂ (τ ) = Hx̂x (−τ ) Inoltre: Sx̂x (f ) = Sxx (f ) · H(f ) = −j sgn(f ) · Sxx (f ). CAPITOLO 3. 36 Ma essendo Sxx pari e H(f ) immaginaria dispari (perché risposta in frequenza di un sistema LTI che applica la trasformata Hilbert), si ha che Sx̂x è immaginaria dispari, cioè che Hx̂x è reale dispari (per le proprietà di simmetria della trasformata di Fourier). Quindi: Hx̂x (−τ ) = −Hx̂x (τ ) Applicando le semplicazioni ricavate si ottiene che: Hxi xi (τ ) = Hxx (τ ) · cos(2πf0 τ ) + Hx̂x (τ ) · sin(2πf0 τ ) (3.13) e quindi xi (k, t) è stazionario in senso lato. Per quanto riguarda la autocorrelazione della componente in quadratura si fa un ragionamento analogo: Hxq xq (τ ) = E[xq (k, t + τ )xq (k, t)] nh i = E − x(k, t + τ ) · sin(2πf0 (t + τ )) + x̂(k, t + τ ) · cos(2πf0 (t + τ )) · h io · − x(k, t) · sin(2πf0 t) + x̂(k, t) · cos(2πf0 t) = Hxx (τ ) · sin(2πf0 (t + τ )) · sin(2πf0 t) + −Hxx̂ (τ ) · sin(2πf0 (t + τ )) · cos(2πf0 t) + −Hx̂x (τ ) · cos(2πf0 (t + τ )) · sin(2πf0 t) + +Hx̂x̂ (τ ) · cos(2πf0 (t + τ )) · cos(2πf0 t) = Hxx (τ )[sin(2πf0 (t + τ )) · sin(2πf0 t) + cos(2πf0 (t + τ )) · cos(2πf0 t)] + +Hx̂x (τ )[sin(2πf0 (t + τ )) · cos(2πf0 t) − cos(2πf0 (t + τ )) · sin(2πf0 t)] = Hxx (τ ) · cos(2πf0 τ ) + Hx̂x (τ ) · sin(2πf0 τ ) Quindi anche la componente xq (k, t) è stazionaria in senso lato. Inoltre si è vericato che : Hxi xi (τ ) = Hxq xq (τ ) CAPITOLO 3. 37 Con accorgimenti simili, si verica la mutua stazionarietà fra xi (k, t) e xq (k, t): Hxi xq (τ ) = E[xi (k, t + τ )xq (k, t)] nh i = E x(k, t + τ ) · cos(2πf0 (t + τ )) + x̂(k, t + τ ) · sin(2πf0 (t + τ )) · h io · − x(k, t) · sin(2πf0 t) + x̂(k, t) · cos(2πf0 t) = −Hxx (τ ) · cos(2πf0 (t + τ )) · sin(2πf0 t) + +Hxx̂ (τ ) · cos(2πf0 (t + τ )) · cos(2πf0 t) + −Hx̂x (τ ) · sin(2πf0 (t + τ )) · sin(2πf0 t) + +Hx̂x̂ (τ ) · sin(2πf0 (t + τ )) · cos(2πf0 t) = Hxx (τ )[− cos(2πf0 (t + τ )) · sin(2πf0 t) + sin(2πf0 (t + τ )) · cos(2πf0 t)] + −Hx̂x (τ )[cos(2πf0 (t + τ )) · cos(2πf0 t) + sin(2πf0 (t + τ )) · sin(2πf0 t)] = Hxx (τ ) · sin(2πf0 τ ) − Hx̂x (τ ) · cos(2πf0 τ ) Poiché Hxx (τ ) · sin(2πf0 τ ) è dispari (perché prodotto di un segnale pari per uno dispari) e −Hx̂x (τ ) · cos(2πf0 τ ) è dispari (perché prodotto di un segnale dispari per uno pari), allora Hxi xq (τ ) è dispari, quindi: Hxi xq (τ ) = Hxq xi (−τ ) = −Hxi xq (τ ) Inoltre, dato che Hxi xq (τ ) è dispari, allora Hxi xq (0) = 0. Questo indica che ad istanti di tempo corrispondenti, la componente in fase e la componente in quadratura sono scorrelate (se fossero gaussiane sarebbero anche indipendenti). Vadiamo adesso la densità spettarale di potenza media: Sxi xi (f ) = F{Hxi xi (τ )} = F{Hxx (τ ) · cos(2πf0 τ ) + Hx̂x (τ ) · sin(2πf0 τ )} Sxx (f − f0 ) + Sxx (f + f0 ) Sx̂x (f − f0 ) − Sx̂x (f + f0 ) = + 2 2j h Sxx (f − f0 ) + Sxx (f + f0 ) −jsgn(f − f0 )Sxx (f − f0 ) + jsgn(f + f0 )Sxx (f + f0 ) i = + 2 2j ³ ´ ³ ´i 1h = Sxx (f − f0 ) 1 − sgn(f − f0 ) + Sxx (f + f0 ) 1 + sgn(f + f0 ) 2 = Sxx (f − f0 )U (−(f − f0 )) + Sxx (f + f0 )U (f + f0 ) h i ³ f ´ = Sxx (f − f0 ) + Sxx (f + f0 ) rect 2f0 Essendo Hxi xi (τ ) = Hxq xq (τ ) ⇒ Sxi xi (f ) = Sxq xq (f ) e la conseguenza immediata è che: Pxi = Pxq = Px CAPITOLO 3. 38 dove la potenza è l'integrale in frequenza, oppure si può denire anche come l'autocorrelazione in zero ed infatti Hxi xi (0) = Hxx (0) · 1 + 0 ⇒ Pxi = Px La densità spettrale di potenza media incrociata: Sxi xq (f ) = F{Hxi xq (τ )} = F{Hxx (τ ) · sin(2πf0 τ ) − Hx̂x (τ ) · cos(2πf0 τ )} Sxx (f − f0 ) − Sxx (f + f0 ) ³ Sx̂x (f − f0 ) + Sx̂x (f + f0 ) ´ = − 2j 2 Sxx (f − f0 ) − Sxx (f + f0 ) h −jsgn(f − f0 )Sxx (f − f0 ) − jsgn(f + f0 )Sxx (f + f0 ) i = − 2j 2 i 1h = Sxx (f − f0 ) − Sxx (f + f0 ) − sgn(f − f0 )Sxx (f − f0 ) − sgn(f + f0 )Sxx (f + f0 ) 2j ³ ´ ³ ´i 1h = Sxx (f − f0 ) 1 − sgn(f − f0 ) − Sxx (f + f0 ) 1 + sgn(f + f0 ) 2j i 1h Sxx (f − f0 )U (−(f − f0 )) − Sxx (f + f0 )U (f + f0 ) = 2j h i ³ f ´ = −j Sxx (f − f0 ) − Sxx (f + f0 ) rect 2f0 Inoltre: Sxi xq (f ) = −Sxq xi (f ) perché Sxi xq (f ) = F{Hxi xq (τ )} = −F{Hxq xi (τ )} = −Sxq xi (f ). 3.2.1 Cifra di rumore introdotta dal demodulatore DSB Consideriamo il demodulatore in gura 3.2: Figura 3.2: Schema del demodulatore Il segnale di ingresso è: x(k, t) cos(2πf0 t − Θ) + n(k, t) (3.14) dove x(k, t) è il segnale modulante, n(k, t) è un rumore bianco, Θ è un ritardo casuale, distribuito uniformemente tra 0 e 2π , indipendente da x(k, t). Il segnale di uscita, ossia il segnale demodulato, lo indichiamo con y(k, t). CAPITOLO 3. 39 Demodulazione sincrona All'uscita del ltro passa banda, il segnale sarà moltiplicato per un coseno traslato (3.15). cos(2πf0 t − Θ) (3.15) Nel caso in cui si abbia demodulazione sincrona tale coseno sarà traslato di un ritardo casuale Θ uguale a quello del segnale in ingresso al demodulatore. Quindi avremo due Θ aleatori, ma tra loro uguali. L' obiettivo è calcolare la cifra di rumore (NF, dall'inglese Noise Figure), che è denita come: SN Rin NF = (3.16) SN Rout La potenza di segnale in ingresso è: Si = E[(x(k, t) cos(2πf0 t − Θ))2 ] = E[x2 (k, t)]E[cos2 (2πf0 t − Θ)] · ¸ 1 + cos(4πf0 t − Θ) = Px E 2 Px = 2 Invece la potenza di rumore è: Ni = N0 · 2B = N0 B 2 Quindi: Si Px = (3.17) Ni 2N0 B La potenza di segnale in uscita Su si calcola mettendo in ingresso solo il segnale. In uscita dal ltro passa banda, si ritrova di nuovo il segnale x(k, t) cos(2πf0 t−Θ); si moltiplica per il coseno e si ottiene x(k, t) cos2 (2πf0 t− Θ) cioè x(k,t) 2 (1 + cos(4πf0 t − 2Θ)). Il ltro passa basso elimina la componenete a 2f0 quindi l'uscita sarà: y(k, t) = x(k,t) 2 . Allora la potenza di segnale in uscita è: "µ ¶ # x(k, t) 2 1 Px 2 Su = E[y (k, t)] = E = E[x2 (k, t)] = 2 4 4 SN Rin = La potenza di rumore in uscita si calcola mettendo in ingresso solo il rumore n(k, t) che è bianco ed ha ampiezza costante Sνν (f ) = N20 . All'uscita del ltro passa banda si avrà il segnale ν(k, t) che è costituito da due rect alti N20 e larghi 2B , uno centrato in −f0 e l'altro in f0 . Per trattare questo segnale si ricorre la scomposizione in fase e quadratura: ν(k, t) = νi (k, t) cos(2πf0 t) − νq (k, t) sin(2πf0 t) CAPITOLO 3. 40 Moltiplicando per il coseno si ottiene: ν 0 (k, t) = νi (k, t) cos(2πf0 t) cos(2πf0 t − Θ) − νq (k, t) sin(2πf0 t) cos(2πf0 t − Θ) νq (k, t) νi (k, t) = [cos(4πf0 t) + cos Θ] − [sin(4πf0 t) − sin(−Θ)] 2 2 E' noto che − sin(−Θ) = sin(Θ); inoltre il ltro passa basso elimina le componenti a 2f0 , dunque rimane: y(k, t) = νq (k, t) νi (k, t) cos(Θ) − sin(Θ) 2 2 Allora la potenza di rumore in uscita sarà: "µ ¶2 # νq (k, t) νi (k, t) 2 cos(Θ) − sin(Θ) Nu = E[y (k, t)] = E 2 2 ª 1© E[νi2 (k, t) cos2 (Θ)]E[νq2 (k, t) sin2 (Θ)] − 2E[νi (k, t)νq (k, t) cos(Θ) sin(Θ)] = 4 ª 1© = Pν E[cos2 (Θ)] + Pν E[sin2 (Θ)] 4 Pν = E[cos2 (Θ) + sin2 (Θ)] 4 Pν = 4 Pν è l'area dei due rect alti N20 , larghi 2B , centrati rispettivamente in −f0 e f0 , quindi: µ ¶ N0 1 N0 B Pν =2 · 2B = Nu = 4 2 4 2 Allora: SN Rout = Su Px = Nu 2N0 B (3.18) Quindi la cifra di rumore (eq.(3.16)) sarà: NF = SN Rin =1 SN Rout (3.19) Demodulazione asincrona Nel caso in cui si abbia demodulazione asincrona, il coseno (3.20) che moltiplica il segnale in uscita dal ltro passa banda, sarà traslato di un ritardo casuale ϕ distribuito uniformemente tra 0 e 2π , indipendente da Θ. cos(2πf0 t − ϕ) (3.20) L' obiettivo è calcolare la cifra di rumore e confrontarla con quella relativa alla modulazione sincrona. CAPITOLO 3. 41 Il rapporto segnale-rumore in ingresso sarà ovviamente uguale a quello calcolato per la modulazione sincrona (vedi equazione(3.17)): SN Rin = Px 2N0 B Anche la potenza di rumore in uscita Nu sarà uguale a quella calcolata precedentemente: N0 B Nu = 2 Invece la potenza di segnale in uscita è diversa rispetto al caso del modulatore sincrono. In uscita dal ltro passa banda, si ritrova di nuovo il segnale x(k, t) cos(2πf0 t − Θ). Si moltiplica per il coseno e si ottiene x(k, t) cos(2πf0 t − Θ) cos(2πf0 t − ϕ), cioè x(k,t) 2 (1 + cos(4πf0 t − Θ − ϕ) + cos(Θ − ϕ)). Il ltro passa basso elimina la componenete a 2f0 quindi l'uscita sarà: y(k, t) = x(k,t) 2 cos(Θ − ϕ). Allora la potenza di segnale in uscita è: · ¸ 1 1 1 + cos(2Θ − 2ϕ) Px 2 2 2 Su = E[y (k, t)] = E[x (k, t)]E[cos (Θ−ϕ)] = Px E = 4 4 2 8 Quindi il rapporto segnale rumore in uscita sarà: SN Rout = Su Px = Nu 4N0 B (3.21) Quindi la cifra di rumore (eq.(3.16)) sarà: NF = SN Rin =2 SN Rout ossia (3.22) SN Rin 2 ciò denota che usando la modulazione asincrona si riceve una potenza che è in media 3dB inferiore. Possono capitare collagamenti particolari in cui ad esempio Θ − ϕ = π2 e il tal caso non si riceve nulla, oppure Θ − ϕ = 0 e il tal caso si riceve tutto; ma in media (media di insieme) si ricevono 3dB in meno. Può succedere che Θ oppure ϕ varino nel tempo: consideriamo un dispositivo radiomobile in mano ad una persona che cammina. In questo caso il percorso dell'onda cambia di volta in volta. Supponiamo di avere un Θ(t) che vari lentamente rispetto al resto: la media d' insieme la si può vedere come una media temporale quindi si potrebbe avere un collegamento che in certi momenti va bene e in altri va male ma, in media, si riceveranno 3dB in meno. Se invece si avesse un Θ(t) che varia velocemente, allora si avrebbe un segnale distorto. SN Rout = Capitolo 4 Processi ciclostazionari Nella realtà abbiamo a che fare con dei processi che non sono stazionari: • x(k, t) cos(2πf0 t) non è stazionario; ¡ t−kT ¢ P • (onda quadra casuale) non è stazionario. k Ak rect T Invece: • x(k, t) cos(2πf0 t − θ) è stazionario; ¡ t−kT ¢ P • k Ak rect T − τ è stazionario. Fino ad ora abbiamo parlato di processi SSL (Stazionari in Senso Lato); introduciamo adesso altre denizioni e teoremi a riguardo. Stazionarietà in Senso Stretto (SSS) Un processo si dice stazionario in senso stretto (SSS) se la caratterizzazione completa non cambia se c'è traslazione nell'asse temporale: fx(k,t1 )...x(k,tn ) (x1 , . . . , xn ) = fx(k,t1 +c)...x(k,tn +c) (x1 , . . . , xn ) (4.1) La (4.1) deve valere per qualsiasi n, qualsiasi istante di campionamento t1 , t2 . . . tn e qualsiasi traslazione c Ciclo-Stazionarietà in Senso Stretto (CSSS) Un processo si dice ciclostazionario in senso stretto (CSSS) quando la variazione è periodica, cioè la densità di probabilità cambia, ma in maniera periodica: ∃ T : fx(k,t1 )...x(k,tn ) (x1 , . . . , xn ) = fx(k,t1 +T )...x(k,tn +T ) (x1 , . . . , xn ) (4.2) La (4.2) deve valere per qualsiasi n, qualsiasi istante di campionamento t1 , t2 . . . tn e deve essere vera per un particolare periodo T e per i suoi multipli: 2T, 3T , ecc.. 42 CAPITOLO 4. 43 Va precisato che non è che il segnale si ripete, perchè in tal caso esso sarebbe determinato, non aleatorio. E' la densità di probabilità che si ripete per un particolare periodo T, cioè è la caratterizzazione statistica che si ripete in maniera periodica. Teorema: Sia x(k, t) CSSS di periodo T, sia θ una variabile aleatoria indipendente da x(k, t) e distribuita uniformemente in [0, T ]. Denito: x(k, t) = x(k, t − θ) SSS fx(k,t1 )...x(k,tn ) (x1 , . . . , xn ) = 1 T Z 0 T fx(k,t1 −α)...x(k,tn −α) (x1 , . . . , xn )dα Il concetto di base è che, preso un qualsiasi processo CSSS x(k, t), è possibile costruire un processo SSS x(k, t) tale che la sua densità di probabilità è uguale alla media sul periodo della densità di probabilità del processo di partenza. Quindi conviene studiare il processo x(k, t) che è stazionario. Dimostrazione: Si vuole far vedere che x(k, t) è SSS, allora bisogna dimostrare che fx(k,t1 +c)x(k,t2 +c)...x(k,tn +c) (x1 , x2 , . . . , xn ) non dipende da c. Questa dimostrazione si fa sulla distribuzione di probabilità F. Fx(k,t1 +c)...x(k,tn +c) (x1 , x2 , . . . , xn ) = = P r{x(k, t1 + c) ≤ x1 , · · · ≤ x(k, tn + c) ≤ xn } = = P r{x(k, t1 − θ + c) ≤ x1 , · · · ≤ x(k, tn − θ + c) ≤ xn } = Z = P r{x(k, t1 − θ + c) ≤ x1 , · · · ≤ x(k, tn − θ + c) ≤ xn /θ}fθ (θ)dθ = R Z 1 T F (x1 , x2 , . . . , xn )dθ = = T 0 x(k,t1 −θ+c)...x(k,tn −θ+c) Z 1 T −c = Fx(k,t1 −α)...x(k,tn −α) (x1 , x2 , . . . , xn )dα = T −c Z 1 T = F (x1 , x2 , . . . , xn )dα T 0 x(k,t1 −α)...x(k,tn −α) Perché si applica il teorema della probabilità totale. Inoltre la F, in α, è periodica di periodo T e l'integrale è in un intervallo largo un periodo, dunque gli estremi dell'integrale possono essere presi da 0 a T. Ciclo-Stazionarietà in Senso Lato (CSSL) Un processo è CSSL se esiste T tale che il valor medio del processo è periodico di periodo T per ogni t (4.3) e l'autocorrelazione è periodica in entrambi gli istanti di tempo t1 e t2 (4.4): µx (t) = µx (t + T ) (4.3) Hxx (t1 , t2 ) = Hxx (t1 + T, t2 + T ) (4.4) CAPITOLO 4. 44 Teorema: Sia x(k, t) = x(k, t − θ) SSL, allora: dove: µx = µx (4.5) Hxx (τ ) = Hxx (τ ) (4.6) 1 µx = T e Hxx (t1 , t2 ) = 1 T = 1 T = 1 T Z 0 µx (t)dt Hxx (t1 + α, t2 + α) dα | {z } u t2 +T t2 Z 0 T T 0 Z Z Hxx (t1 − t2 +u, u) du | {z } τ T Hxx (τ + u, u) du = Hxx (τ ) Dimostrazione: µx = E[x(k, t)] = E[x(k, t − θ)] Z = E[x(k, t − θ/θ)]fθ (θ)dθ R Z 1 T = µx (t| − {z θ})dθ T 0 u Z t 1 = µx (u)du T tT Z 1 T = µx (u)du T 0 = µx Hxx (τ ) = E[x(k, t + τ )x(k, t)] = E[x(k, t + τ − θ) + x(k, t − θ)] Z 1 T = E[x(k, t + τ − θ) + x(k, t − θ)/θ]dθ T 0 Z 1 T = Hxx (t + τ − θ, t| − {z θ})dθ T 0 u Z t 1 = Hxx (u + τ, u)du T t−T Z 1 T = Hxx (u + τ, u)du T 0 = Hxx (τ ) CAPITOLO 4. 45 Sistema LTI con segnale di ingresso non stazionario Si consideri lo lo schema in gura 4.1: Figura 4.1: sistema LTI con ingresso ciclostazionario Quando l'ingresso al sistema LTI non è stazionario, le relazioni ingressouscita del sistema sono la (4.7) e la (4.8): (4.7) µy (t) = µx (t) ⊗ h(t) dimostrazione: ·Z µy (t) = E[y(k, t)] = E Z ¸ +∞ h(t − τ )x(k, τ )dτ −∞ +∞ = Z +∞ h(t − τ )E[x(k, τ )]dτ = −∞ −∞ h(t − τ )µx (τ )dτ = h(t) ⊗ µx (t) Hyy (t1 , t2 ) = Hxx (t1 , t2 ) ⊗ h(t1 ) ⊗ h(t2 ) (4.8) dimostrazione: Hyy (t1 , t2 ) = E[y(k, t1 )y(k, t2 )] ·Z +∞ ¸ Z +∞ = E h(t1 − τ1 )x(k, τ1 )dτ1 h(t2 − τ2 )x(k, τ2 )dτ2 −∞ −∞ Z Z +∞ = h(t1 − τ1 )h(t2 − τ2 )E[x(k, τ1 )x(k, τ2 )]dτ1 dτ2 −∞ Z Z +∞ = h(t1 − τ1 )h(t2 − τ2 )Hxx (τ1 , τ2 )dτ1 dτ2 −∞ ·Z +∞ ¸ Z +∞ = h(t2 − τ2 ) h(t1 − τ1 )Hxx (τ1 , τ2 )dτ1 dτ2 −∞ +∞ −∞ Z = h(t2 − τ2 ) · Hxx (t1 , τ2 ) ⊗ h(t1 ) dτ2 Z +∞ = h(t1 ) ⊗ h(t2 − τ2 )Hxx (t1 , τ2 ) dτ2 −∞ −∞ = h(t1 ) ⊗ h(t2 ) ⊗ Hxx (t1 , t2 ) CAPITOLO 4. 46 Dalla (4.7) e dalla (4.8) si dimostra che il processo di uscita, y(k, t), è ciclostazionario, infatti: Z µy (t) = µx (t) ⊗ h(t) ⇒ µy (t) = µx (t − τ )h(τ )dτ R Z µx (t + τ − τ )h(τ )dτ ⇒ µy (t + τ ) = R ⇒ µy (t + τ ) = µx (t)H(0) quindi y(k, t) è ciclostazionaria in media, inoltre: Hyy (t1 , t2 ) = Hxx (t1 , t2 ) ⊗ h(t1 ) ⊗ h(t2 ) ¶ Z µZ ⇒ Hyy (t1 , t2 ) = Hxx (t1 − τ, t2 − τ ) ⊗ h(τ1 )dτ1 h(τ2 )dτ2 R R da qui si vede che Hxx è periodica di periodo T in t1 , t2 , allora anche la Hyy è periodica di periodo T in t1 , t2 , quindi è dimostrato che l'uscita y(k, t) è ciclostazionaria. Riassumendo, se in ingresso ad un sistema LTI vi è un processo x(k, t) ciclostazionario, è stato dimostrato che anche l'uscita y(k, t) è un processo ciclostazionario. Considerando i segnali stazionari associati, ossia riferendoci alla gura 4.2: Figura 4.2: sistema LTI con ingresso stazionario dove: - x(k, t) = x(k, t − θ) - y(k, t) = y(k, t − θ) si arriva a concludere che: Syy (f ) = Sxx (f )kH(f )k2 {z } | processi stazionari ⇒ Syy (f ) = Sxx (f )kH(f )k2 {z } | processi ciclostazionari (4.9) CAPITOLO 4. 47 4.1 Modulazioni numeriche L' obiettivo è studiare lo spettro di questo processo: X x(k, t) = Cn g(t − nT ) (4.10) n dove: • Cn½è una sequenza di variabili aleatorie SSL: E[Cn ] = µc , (non dipende da n); =⇒ E[Cn+k Cn ] = Hxx (k), (non dip. da n, dip. solo dalla distanza delle v.a.). Questi Cn possono essere +1, −1, +1, . . . oppure possono essere altri valori, oppure variabili aleatorie continue. • g(t − nT ) è l'impulso che si usa: rect, oppure tr, oppure coseno rialzato. Non è necessario che l'impulso duri quanto il tempo di bit: può essere anche più largo di [−Tb , Tb ] e in quel caso si avrà interferenza intersimbolica. • Non si suppone più che le ampiezze di impulsi successivi siano tra loro scorrelate (infatti non si dice che Hxx (k) debba essere zero); è possibile avere una correlazione, come nel caso dell'esempio del fax: i bianchi (1) sono molto più frequenti dei neri (0) e inoltre, poichè le lettere hanno uno spessore, dopo aver ricevuto un bit nero è P altamente probabile riceverne un altro nero. • Si dimostra che x(k, t) = n Cn g(t − nT ) è ciclostazionario : X µc g(t − nT ) (4.11) µx (t) = n µx (t + T ) = X µc g(t + T − nT ) (4.12) n La (4.11) e la (4.12) sono uguali quindi il processo è ciclostazionario in media. # " X X Hxx (t1 , t2 ) = E Cn g(t1 − nT ) Cm g(t2 − mT ) n = = = Hxx (t1 + T, t2 + T ) = = XX n m n m k m XX XX m E[Cn Cm ]g(t1 − nT )g(t2 − mT ) Hcc (n |− {zm})g(t1 − nT )g(t2 − mT ) k Hcc (k)g(t1 − mT − kT )g(t2 − mT ) XX n m k l XX Hcc (k)g(t1 +T − mT} −kT )g(t2 + T − mT ) | {z 1−m=−l Hcc (k)g(t1 − lT − kT )g(t2 − lT ) CAPITOLO 4. 48 Poichè il processo è anche ciclostazionario in correlazione, allora è ciclostazionario. • Si consideriP il processo stazionario associato : x(k, t − θ) = n Cn g(t − nT − θ) con θ uniforme in [0, T ] e indipendente da Cn . X µx = E[Cn g(t − nT − θ)] n = X µc E[g(t − nT − θ)] n X1Z T = µc g(t| − nT {z − θ})dθ T 0 n u X 1 Z t−nT = µc g(u)du T t−nT −T n Z µc = g(u)du T R µc = G(0) T Hxx (τ ) = E[x(k, t + τ − θ)x(k, t − θ)] " # X = E Cn g(t − nT + τ − θ)Cm g(t − mT − θ) n = XX n = = = = = E[Cn Cm ]E[g(t − nT + τ − θ)g(t − mT − θ)] m Z 1 T Hcc (n |− {zm}) T 0 g(t − nT + τ − θ)g(t − mT − θ)dθ n m k Z XX 1 T Hcc (k) g(t − nT + τ − θ)g(t| − mT {z − θ})dθ T 0 m k u X Hcc (k) X Z t−mT g(u − kT + τ )g(u)du T t−mT −T m k X Hcc (k) Z g(u − kT = τ )g(u)du T R k X Hcc (k)Rg (τ − kT ) XX k T CAPITOLO 4. 49 Sxx (f ) = F{Hxx (τ )} ( ) X Hcc (k)Rg (τ − kT ) = F T k 1X = Hcc (k) k G(f ) k2 e−j2πf kT T k = k G(f ) k2 X Hcc (k)e−j2πf kT T k k2 k G(f ) Scc (f ) T Quindi si ottiene un importante risultato: = Scc (f ) k G(f ) k2 (4.13) T dove Scc (f ) è la densità di potenza media della sequenza Cn , cioè più i Cn sono correlati, più lo spettro Scc (f ) sarà stretto; k G(f ) k2 è la densità spettrale di energia dell'impulso. Sxx (f ) = 4.2 Modulazioni in banda base 4.2.1 Modulazione NRZ La modulazione NRZ (Non Ritorno a Zero) è chiamata così perché, appena nito l'impulso, non c'è alcun ritorno a zero prima che arrivi l'impulso successivo. Si consideri l'onda quadra casuale: µ ¶ X t − nT An rect dove An i.i.d. x(k, t)N RZ = T n L'obiettivo è calcolare: Sxx (f ) = SAA (f ) k G(f ) k2 T Nel caso in esame: µ ¶ t g(t) = rect G(f ) = T sinc(T f ) ⇒k G(f ) k2 = T 2 sinc2 (f T ) T ½ 2 2 µA + σA per k=0; 2 2 HAA (k) = E[An+k An ] = µA + σA δk = (4.14) 2 µA per k 6= 0. X X 2 SAA (f ) = HAA (k)e−j2πf kT = (µ2A + σA δk )e−j2πf kT k X k X = µ2A = µ2A X ³ n´ 2 δ f− + σA T n T k e −j2πf kT + 2 σA δk e−j2πf kT k (4.15) CAPITOLO 4. Sxx (f ) = 50 " # ´ T 2 sinc2 (f T ) X ³ SAA (f ) k G(f ) k2 n 1 2 = σA + µ2A δ f− T T n T T 2 = T σA sinc2 (f T ) + µ2A δ(f ) (4.16) Dalla (4.21) si osserva l'esistenza di una delta nell'origine, dunque la presenza di potenza in continua. Se non si vuole avere potenza in continua bisogna porre µ2A = 0. Le altre delta sono posizionate dove il sinc vale 0, quindi si annullano. La banda null-to-null (ossia il lobo principale) è T1 , dove T è il tempo di bit. La banda sarebbe innita ma, a causa della presenza del sinc2 , tende a 0 come f12 , quindi abbastanza velocemente. Figura 4.3: Spettro modulazione NRZ 4.2.2 Modulazione RZ La modulazione RZ (Ritorno a Zero) è illustrata in gura 4.4. Ovviamente questa modulazione si sincronizza con più facilità perché si conosce esattamente dove nisce un impulso e dove comincia il successivo. In questo caso però gli implusi hanno una durata che è metà del periodo T, quindi si deve considerare un'onda quadra casuale così fatta: à ! X t − nT An rect x(k, t)RZ = T n 2 dove il T a numeratore si riferisce al periodo, ossia alla slottizzazione del tempo, cioè il tempo di bit; invece il T a denominatore si riferisce alla lunghezza del rect. à ! µ ¶ µ ¶ t T T2 T 2 2 g(t) = rect T G(f ) = T sinc f ⇒k G(f ) k = sinc f 2 4 2 2 La HAA (k) è uguale alla (4.39), quindi anche la SAA (f ) è uguale alla (4.15). CAPITOLO 4. 51 Allora: " # µ ¶ X ³ SAA (f ) k G(f ) k2 n´ T2 T 2 2 1 Sxx (f ) = = σA + µA δ f− sinc2 f T T n T 4T 2 ¶ µ ³n´ X ³ T n´ 2 T = σA sinc2 f + µ2A δ f− sinc2 (4.17) 4 2 T 2 n Dalla (4.17) si osserva che si hanno delle delta per gli n dispari (per n pari, si annullano a causa del sinc2 ). Tali delta da un lato sono svantaggiose, ma dall'altro servono a sincronizzare, possono servire a recuperare il rate. Se ad esempio il soggetto si sta muovendo, il tempo di bit potrebbe non essere noto a causa dell'eetto doppler. Le banda null-to-null è T2 , quindi è il doppio di quella che sia aveva nel caso della modulazione NRZ. Figura 4.4: Spettro modulazione RZ Confronto tra la modulazione NRZ e RZ Possiamo riassumere il confronto analizzando tre punti: • sincronizzazione −→ si sincronizza meglio la modulazione RZ; • probabilità di errore −→ è la stessa per entrambe le modulazioni. Infatti tale probabilià dipende solo dall'energia che viene associata al bit, che però è la stessa sia per la modulazione NRZ che RZ; • banda −→ con la modulazione RZ si ultilizza il doppio della banda. Considerazioni di miglioramento Sarebbe utile che lo spettro andasse a zero più velocemente di f12 perché in questo modo, trascurare i lobi secondari del sinc2 , signicherebbe perdere meno informazione. Per far andare lo spettro più velocemente a zero, bisogna eliminare le discontinuità. CAPITOLO 4. 52 Consideriamo un impulso triangolare: x(k, t) = X µ An tr n µ ¶ t g(t) = tr G(f ) = T sinc2 (f T ) T 2 SAA (f ) = F{µ2A + σA δk } = Sxx (f ) = t − nT T ¶ (4.18) kG(f )k2 = T 2 sinc4 (f T ) ⇒ µ2A X ³ n´ 2 δ f− + σA T n T " # 2 4 µ2A X ³ SAA (f ) k G(f ) k2 n´ 2 T sinc (f T ) = δ f− + σA T T n T T 2 = T σA sinc4 (f T ) + µ2A δ(f ) (4.19) In questo caso si ha una delta solamente nell'origine e inoltre lo spettro va a zero come f14 . Però il tempo di bit è T, ma il triangolo dura 2T , allora si ha interferenza intersimbolica. Per ovviare al problema dell'interferenza intersimbolica, che causerebbe dei problemi nella sincronizzazione, si ricorre all'uso di un impulso più stretto. Consideriamo un impulso triangolare più stretto: à ! X t − nT x(k, t) = An tr (4.20) T 2 n g(t) = tr à ! t T 2 µ ¶ T T 2 G(f ) = sinc f 2 2 2 SAA (f ) = F{µ2A + σA δk } = ⇒ µ ¶ T2 T 4 kG(f )k = sinc f 4 2 2 µ2A X ³ n´ 2 δ f− + σA T n T " # 2 4 µ2A X ³ SAA (f ) k G(f ) k2 n´ 2 T sinc (f T ) Sxx (f ) = = δ f− + σA T T n T 4T µ ¶ ³n´ µ2 ³ T n´ 2 T sinc4 f + Aδ f − sinc4 (4.21) = σA 4 2 4 T 2 Il sinc si annulla in T2 allora la banda è raddoppiata rispetto al caso precedente. Per n dispari si hanno la delta, per n pari si annullano. Se si desidera uno spettro che vada a zero ancora più velocemente, occorre un segnale più smooth. Si è considerato il rect, che è un segnale discontinuo, il triangolo, che è un segnale continuo ma con derivata discontinua. Allora CAPITOLO 4. 53 adesso consideriamo un impulso coseno rialzato (rialzato perché almeno è sempre positivo) che è un segnale continuo e con derivata prima continua: · µ ¶ µ ¶ ¸ 1 2πt t x(k, t) = cos rect +1 (4.22) 2 T T Svolgendo i conti si arriva al risultato che: G(f ) = T 2 sinc(f T ) 1 − f 2T 2 che per f → ∞, va a zero come 1 f3 Allora kG(f )k2 , per f → ∞, va a zero come f16 . Si osserva che il sinc si annulla in T1 , ma lì si annulla anche il denominatore, allora si ha una forma indeterminata. Quindi se ne deduce che il sinc si annulla per la prima volta in T2 , poi in T3 , etc. Quindi anche in qeusto caso, la banda è allargata. Andrebbe trovato il compromesso migliore, ossia segnale smooth ma che abbia spettro che non si allarghi troppo. 4.2.3 Codici duobinari Fino ad adesso abbiamo lavorato su G(f), dunque nell'analogico; adesso lavoriamo su Scc (f ), dunque sul numerico. 2 = 1. Con Si consideri An i.i.d. e per ipotesi si supponga µA = 0 e σA queste variabili aleatorie si formino due nuove sequenze ossia i cosiddetti codici duobinari. Nel fare ciò si intoduce una correlazione e dunque si introduce memoria. Cn = An + An−1 (4.23) Cn = An − An−1 (4.24) Per entrambi i codici (4.23) (4.24), l'impulso è rappresentato da: g(t) = rect ³t´ T G(f ) = T sinc(f T ) (4.25) Si calcola la correlazione dei coecienti e poi la densità spettrale di potenza media del processo per quanto riguarda il codice (4.23): Hcc (k) = E[Cn+k Cn ] = E[(An+k + An+k−1 )(An + An−1 )] = HAA (k) + HAA (k + 1) + HAA (k − 1) + HAA (k) = 2HAA (k) + HAA (k + 1) + HAA (k − 1) 2 2 2 = 2(µ2A + σA δk ) + µ2A + σA δk+1 + µ2A + σA δk−1 = 2δk + δk+1 + δk−1 CAPITOLO 4. 54 Scc (f ) = X Hcc (k)e−j2πf kT k = X (2δk + δk+1 + δk−1 )e−j2πf kT k = 2 + ej2πf T + e−j2πf T = 2 + 2 cos(2πf T ) Sxx (f ) = = = = = = Scc (f )kG(f )k2 T 2(1 + cos(2πf T ))T 2 sinc2 (f T ) T T sinc2 (f T )4 cos2 (πf T ) sin2 (πf T ) 4T cos2 πf T (πf T )2 sin2 (πf T ) 4T (2πf T )2 4T sinc2 (2f T ) 1 allora signica che la banda si è dimezzata; quindi Sxx (f ) si annulla in 2T ciò è logico perché, introducendo memoria, si trasmette qualcosa che varia meno. Qui di seguito sono illustrati gli stessi calcoli per quanto riguarda invece il codice (4.24) Hcc (k) = E[Cn+k Cn ] = E[(An+k − An+k−1 )(An − An−1 )] = HAA (k) − HAA (k + 1) − HAA (k − 1) + HAA (k) = 2HAA (k) − HAA (k + 1) − HAA (k − 1) 2 2 2 = 2(µ2A + σA δk ) − (µ2A + σA δk+1 ) − (µ2A + σA δk−1 ) = 2δk − δk+1 − δk−1 Scc (f ) = X Hcc (k)e−j2πf kT k = X (2δk − δk+1 − δk−1 )e−j2πf kT k = 2 − ej2πf T − e−j2πf T = 2 − 2 cos(2πf T ) CAPITOLO 4. 55 Scc (f )kG(f )k2 T 2(1 − cos(2πf T ))T 2 sinc2 (f T ) = T = T sinc2 (f T )4 sin2 (πf T ) Sxx (f ) = E' presente un sinc2 che moltiplica un sin2 , allora l'origine va a zero. Ciò è importante perché questo codice duobinario, lasciando la banda inalterata, permette di non avere componente in continua. Ci sono alcuni canali, come ad esempio il lo di rame telfonico, che azzerano la componente in continua e dunque distorcerebbero il segnale in caso esso avesse tale componente. Se invece si usa questo codice duobinario, non si hanno questi problemi di distorsione. 4.3 Modulazioni in banda passante Sono elencati adesso i vari tipi di modulazioni in banda passante, tenendo presente questa relazione: x(k, t) −→ x+ (k, t) −→ x e(k, t) (4.26) infatti si studierà x e(k, t) 4.3.1 M-PAM Modulare M-PAM signica prendere un coseno e modularlo in ampiezza con M possibili livelli: X x(k, t) = An g(t − nT ) cos(2πf0 (t − nT )) (4.27) n infatti An è un valore fra m possibili valori. x+ (k, t) = x(k, t) + jb x(k, t) X = An g(t − nT )[cos(2πf0 (t − nT )) + j sin(2πf0 (t − nT ))] n = X An g(t − nT )ej2πf0 (t−nT ) n infatti x b(k, t) è la trasformata di Hilbert di x(k, t); g(t − nT ) è un passa basso e quindi avrà una frequenza massima molto minore del coseno. La trasformata di Hilbert di un passa basso per un passa banda è la trasformata di Hilbert di un passa banda. Tale trasformata scambia la componente in CAPITOLO 4. 56 fase con la Pcomponente in quadratura, quindi: x b(k, t) = n An g(t − nT ) sin(2πf0 (t − nT )). x e(k, t) = x+ (k, t)e−j2πf0 t X −j2πf0 t 0 nT = An g(t − nT )ej2πf0 t |e−j2πf {z } e n 1 X = An g(t − nT ) n Si dice che e−j2πf0 nT = 1 perchè si suppone che f0 T = L (dove f0 è la frequenza della portante, T è il tempo di bit e L è un numero intero). Ciò vuol dire aermare che nel tempo di bit la portante ha un numero intero di periodi. Tale ragionamento è logico perché prima si varia l'altezza dei g(t), poi si modula per il coseno, allora non ci importa della sincronia del tempo di bit perché poi si modula tutto insieme. 4.3.2 M-PSK La M-PSK è una modulazione di fase: X x(k, t) = g(t − nT ) cos(2πf0 (t − nT ) − Θn ) (4.28) n dove Θn sono v.a. indipendenti identicamente distribuite (i.i.d.) ed inoltre Θn = 2π M i, con i = 0, 1, . . . , M − 1 cioè la fase può assumere M valori equiprobabili. x+ (k, t) = x(k, t) + jb x(k, t) X g(t − nT )[cos(2πf0 (t − nT ) − Θn ) + j sin(2πf0 (t − nT ) − Θn )] = n = X g(t − nT )ej(2πf0 (t−nT )−Θn ) n x e(k, t) = x+ (k, t)e−j2πf0 t X −jΘn −j2πf0 t 0 nT = g(t − nT )ej2πf0 t e|−j2πf e {z } e n 1 X = g(t − nT )e−jΘn n quindi i coecienti che moltiplicano l'impulso in banda base sono esponenziali complessi. Si calcolia l'autocorrelazione dei coecienti per poi calcolarne la trasformata di Fourier: Hcc (k) = E[Cn+k C∗n ] = E[e−jΘn+k ejΘn ] = δ(k) Scc (f ) = 1 (4.29) CAPITOLO 4. 57 perché E[e−jΘn+k ejΘn ], per k = 0, vale banalmente 1. Invece per k 6= 0 vale 0 infatti abbiamo E[e−jΘn+k ] E[ejΘn ] ed il secondo termine assomiglia ad una DFT (Discrete Fourier Transform): jΘn E[e ]= M −1 X i=0 M −1 1 j 2π i 1 X j 2π i M e = e M M M (4.30) i=0 E' noto che la DFT di x(k) è: x(k) = M −1 2π 1 X x(n)ej M nk M (4.31) i=0 Anché l'espressione (4.30) sia uguale alla (4.31), bisogna porre k = 1 e x(n) = 1 quindi la (4.30) è la DFT di x(1). Poiché x(k) è una δ(k) allora x(1) è δ(1) che è uguale a 0. Dalla (4.29) si ottiene che: Sexex (f ) = 1 k G(f ) k2 Scc (f ) k G(f ) k2 = T T (4.32) L'equazione (4.32) evidenzia un risultato molto importante: la densità spettrale di potenza media dipende solo dall'impulso, non dipende da M. Riguardo ad M si possono fare alcune considerazioni importanti. Aumentare M vuol dire aumentare la velocità di trasmissione (ad esempio se M=1024 allora si trasmettono log2 1024 = 10 bit) e ciò avviene senza sprecare banda perché, come abbiamo visto, la SM −P SK (f ) non dipende da M. Ma aumentando M, anche la probabilità di errore aumenta infatti i punti che delimitano le regioni di decisione, diventano tra loro più stretti. Tuttavia se M aumenta, anche l'energia E aumenta e poiché quest'ultima è data dalla distanza dei punti dall'origine, aumentare E vuol dire allargare il cerchio e dunque aumentare la distanza tra i punti. Dunque da una parte si ha inttimento dei punti (conseguenza dell'aumento di M), dall'altra si ha allargamento dei punti (conseguenza dell'aumento di E causato dall'aumento di M). In questo trade-o ha più peso l'inttimento dei punti e dunque se i livelli aumentano allora l'energia aumenta, ma aumenta anche la probabilità di errore e quindi si dovrà aumentare la potenza che si utilizza in trasmissione: M ↑ =⇒ E ↑ =⇒ Pe ↑ =⇒ P ↑ (4.33) A tal proposito si osservi il graco 4.3.2 che illustra il bit rate raggiungibile legato ad una certa potenza e ad una certa banda. La curva segna il cosiddetto limite di Shannon: la regione possibile è quella sotto la curva, la cosa migliore sarebbe stare sulla curva. Per quanto riguarda la M-PSK, se M aumenta, i bit aumentano, ma la banda rimane la stessa allora nel graco ci si sposta verso l'alto; ssando CAPITOLO 4. 58 invece la probabilità di errore, se si aumenta M allora si aumenta Eb . Da queste condiderazioni si ottiene la curva spezzata in gura. Si dice che la M-PSK è una modulazione eciente in banda. Per quanto concerne la FSK (Frequency Shift Keying) ossia la modulazione di frequenza, che però noi non trattiamo, a simboli diversi si assegna una frequenza diversa. Allora se si desidera aumentare il numero di possibili simboli, bisogna aumentare le frequenze disponibili: se M ↑ ⇒ B ↑. Ma se M ↑ ⇒ Pe ↓ perché ogni volta che si aggiunge un simbolo bisogna aumentare di una dimensione (con M simboli si arriva ad avere ipersfere). Per questo motivo si dice che la modulazione FSK è eciente in potenza. ma spreca banda. Il miglior compromesso banda-potenza è la codica di canali. 4.3.3 D-PSK Per demodulare in maniera asincrona il PSK si usa la modulazione DPSK (Dierential Phase Shift Keying), cioè si trasmette informazione nella dierenza tra due fasi: X g(t − nT ) cos(2πf0 (t − nT ) − ϕn ) dove ϕn = θn − θn−1 x(k, t) = n (4.34) Questa dierenza di fase ϕn mi fa perdere 3dB in potenza, ma la banda è uguale a quella che si aveva con la modulazione PSK: SD−P SK (f ) = 1 k G(f ) k2 Scc (f ) k G(f ) k2 = T T (4.35) Figura 4.5: Limite di Shannon: la regione possibile è quella sotto la curva e la cosa migliore sarebbe stare sulla curva CAPITOLO 4. 59 infatti: Hcc (k) = E[e−jϕn+k ejϕn ] = E[ejθn+k e−jθn+k−1 e−jθn ejθn−1 ] = δ(k) Scc (f ) = 1 (4.36) jθ −jθ −jθ jθ n n−1 n+k n+k−1 perché E[e e e e ] per k = 0 è banalmente 1; per k 6= 0 vale 0 perché si ha indipendenza e allora il valor medio dei prodotti è uguale al prodotto dei singoli valori medi che però sono nulli. 4.3.4 QAM Se si usa la modulazione QAM (Quadrature Amplitude Modulation) si modula sia in fase che in ampiezza. Si possono scrivere due espressioni analitiche diverse, la prima è: X x(k, t) = An g(t − nT ) cos(2πf0 (t − nT ) − Θn ) (4.37) n dove An mi indica su quale circonferenza ci si trova e Θn ci fa muovere sul cerchio. L'altra espressione è: i Xh x(k, t) = An g(t−nT ) cos(2πf0 (t−nT )+Bn g(t−nT ) sin(2πf0 (t−nT )) n (4.38) Analizziamo la (4.37): x+ (k, t) = x(k, t) + jb x(k, t) X = An g(t − nT )ej(2πf0 (t−nT ) e−jΘn n x e(k, t) = x+ (k, t)e−j2πf0 t X −jΘn −j2πf0 t 0 nT = An g(t − nT )ej2πf0 t |e−j2πf e {z } e n 1 X = An g(t − nT )e−jΘn n ½ −jθn+k Hcc (k) = E[An+k e An e jθn ]= E[A2 ] 0 per k=0; per k 6= 0. CAPITOLO 4. 60 Analizziamo la (4.38): x+ (k, t) = x(k, t) + jb x(k, t) Xh An g(t − nT ) cos(2πf0 (t − nT )) + Bn g(t − nT ) sin(2πf0 (t − nT )) + = n i +jAn g(t − nT ) sin(2πf0 (t − nT )) − jBn g(t − nT ) cos(2πf0 (t − nT )) Xh = An g(t − nT )ej2πf0 (t−nT ) + Bn g(t − nT ) · n ³ ´ ji · sin(2πf0 (t − nT )) − j cos(2πf0 (t − nT )) · j Xh Bn g(t − nT ) j2πf0 (t−nT ) i = An g(t − nT )ej2πf0 (t−nT ) + e j n X (An − jBn )g(t − nT )ej2πf0 (t−nT ) = n x e(k, t) = x+ (k, t)e−j2πf0 t X −j2πf0 t 0 nT (An − jBn ) ej2πf0 t e|−j2πf = {z } g(t − nT ) e n 1 X (An − jBn ) g(t − nT ) = n Hcc (k) = E[(An+k − jBn+k )(An + jBn )] = HAA (k) + jHAB (k) − jHBA (k) + HBB (k) 2 2 = ( µ2A +σA δk ) + ( µ2B +σB δk ) |{z} |{z} 0 0 ½ 2 2 σA + σB per k=0; = 0 per k 6= 0. La modulazione QAM è eciente in banda ; inoltre la QAM è più eciente in potenza rispetto alla PSK perché se M ↑, R ↑, Pe ↑ ma aumenta meno rispetto al PSK perché nella QAM c'è più spazio.