Vettori di variabili aleatorie - Università degli Studi della Basilicata

Transcript

Vettori di variabili aleatorie - Università degli Studi della Basilicata
VETTORI DI VARIABILI ALEATORIE
E. DI NARDO
1. Funzioni di ripartizione congiunte e marginali
Definizione 1.1. Siano X1 , X2 , . . . , Xn v.a. definite su uno stesso spazio di probabilità (Ω, F, P ). La n-pla (X1 , X2 , . . . , Xn ) viene detta v.a. n-dimensionale o vettore
casuale e verrà indicata con X. Le singole v.a. Xi vengono dette componenti.
Si osservi che per ogni vettore n-dimensionale di numeri reali x = (x1 , x2 , . . . , xn )
si ha
{ω ∈ Ω : X1 (ω) ≤ x1 , X2 (ω) ≤ x2 , . . . , Xn (ω) ≤ xn } = ∩ni=1 {ω ∈ Ω : Xi (ω) ≤ xi },
tale evento, essendo intersezione di elementi in F, appartiene ancora ad F.
Definizione 1.2. Si dice funzione di ripartizione congiunta del vettore casuale X
la funzione FX : Rn → [0, 1] cosı̀ definita
FX (x) = FX1 ,X2 ,...,Xn (x1 , x2 , . . . , xn ) = P (X1 ≤ x1 , X2 ≤ x2 , . . . , Xn ≤ xn ).
Si noti che scegliendo una qualsiasi componente del vettore aleatorio X ed effettuando il limite per xi che tende a −∞ si ha
lim FX1 ,X2 ,...,Xn (x1 , x2 , . . . , xn ) = 0
xi →−∞
ed allo stesso modo
lim FX1 ,X2 ,...,Xi−1 ,Xi ,Xi+1 ,...,Xn (x1 , x2 , . . . , xi−1 , xi , xi+1 , . . . , xn )
xi →∞
= FX1 ,X2 ,...,Xi−1 ,Xi+1 ,...,Xn (x1 , x2 , . . . , xi−1 , xi+1 , . . . , xn )
mentre
lim FX1 ,X2 ,...,Xn (x1 , x2 , . . . , xn ) = 1.
x→∞
La funzione di ripartizione FX1 ,X2 ,...,Xi−1 ,Xi+1 ,...,Xn (x1 , x2 , . . . , xi−1 , xi+1 , . . . , xn )
viene detta marginale. Procedendo allo stesso modo si può determinare la funzione
di ripartizione marginale di m variabili aleatorie scelte tra le n del vettore X.
La funzione di ripartizione congiunta è non decrescente, ossia
x00 ,x00 ,...,x00
∆x01 ,x02,...,x0n FX1 ,X2 ,...,Xn (x1 , x2 , . . . , xn ) ≥ 0,
1
2
n
utilizzando la medesima notazione del capitolo precedente. Omettiamo la dimostrazione
che segue le stesse linee di quella del caso bidimensionale.
Come nel caso bidimensionale, scriveremo
Z
P [(X1 , X2 , . . . , Xn ) ∈ B] =
dFX1 ,X2 ,...,Xn (x1 , x2 , . . . , xn )
B
dove B ∈ B(Rn ).
Ad integrazione della Lezione 11 - Calcolo delle Probabilità e Statistica Matematica II.
1
2
E. DI NARDO
1.1. Caso discreto. Dato un vettore aleatorio (X1 , X2 , . . . , Xn ) si definisce
pr,s,...,t = P (X1 = x1,r , X2 = x2,s , . . . , Xn = xn,t ) r = 1, 2, . . . , s = 1, 2, . . .
P
massa di probabilità congiunta. Ovviamente risulta pr,s,...,t ≥ 0 e r,s,...,t pr,s,...,t =
1. I valori che si ottengono sommando su un indice la massa di probabilità congiunta
sono detti probabilità marginali. Un esempio di vettore aleatorio discreto è quello
con legge multinomiale.
1.2. Caso assolutamente continue. Diremo assolutamente continua una v.a. ndimensionale con funzione di ripartizione congiunta FX1 ,X2 ,...,Xn (x1 , x2 , . . . , xn ) se
esiste una funzione non negativa fX1 ,X2 ,...,Xn (x1 , x2 , . . . , xn ) : Rn → R tale che per
ogni n-pla (x1 , x2 , . . . , xn ) di reali distinti si abbia
Z xn
Z x1
dvn fX1 ,X2 ,...,Xn (v1 , v2 , . . . , vn ).
dv1 · · ·
FX1 ,X2 ,...,Xn (x1 , x2 , . . . , xn ) =
−∞
−∞
La funzione densità fX1 ,X2 ,...,Xn (x1 , x2 , . . . , xn ) viene detta densità di probabilità
congiunta del vettore X. Ovviamente risulta
∂n
FX ,X ,...,Xn (x1 , x2 , . . . , xn ) = f (x1 , x2 , . . . , xn ).
∂x1 · · · ∂xn 1 2
Si ha poi
Z +∞
Z +∞
···
f (x1 , x2 , . . . , xn )dx1 · · · dxn = 1
−∞
−∞
e
Z
P [(X1 , X2 , . . . , Xn ) ∈ B] =
fX1 ,X2 ,...,Xn (x1 , x2 , . . . , xn )dx1 · · · dxn
B
dove B ∈ B(Rn ).
Un cenno a parte meritano le densità marginali che si ottengono integrando la
densità congiunta su un certo numero di componenti, ossia
Z
Z
fX1 ,X2 ,...,Xm (x1 , x2 , . . . , xm ) =
dxm+1 · · · f (x1 , x2 , . . . , xn )dxn .
R
R
2. Relazioni tra n variabili aleatorie
2.1. Indipendenza. Per vettori di variabili aleatorie valgono le medesime nozioni
di somiglianza e di indipendenza di cui al capitolo precedente.
Definizione 2.1. Assegnato un vettore aleatorio (X1 , X2 , . . . , Xn ) esso è costituito
da v.a. indipendenti, se
(2.1)
FX1 ,X2 ,...,Xn (x1 , x2 , . . . , xn ) = FX1 (x1 )FX2 (x2 ) · · · FXn (xn ).
Dalla definizione precedente segue che comunque scelte k v.a. tra le n, con
k ∈ {1, 2, . . . , n}, si ha
FXi1 ,Xi2 ,...,Xik (xi1 , xi2 , . . . , xik ) =
k
Y
FXij (xij ).
j=1
Infatti è sufficiente effettuare il limite per xi che tende a ∞ su quelle componenti del
vettore che non appartengono all’insieme {Xi1 , Xi2 , . . . , Xik }, in modo da “eliminarle”dal vettore, affinché al primo membro della (2.1) si riottenga la funzione di
ripartizione marginale di X nelle Xi1 , Xi2 , . . . , Xik mentre nel prodotto che figura
al secondo membro restino le funzioni di ripartizione delle singole Xit .
VETTORI DI VARIABILI ALEATORIE
3
2.1.1. Campione casuale. Una delle più importanti applicazioni dei vettori casuali
è quella relativa ad osservazioni ripetute di una qualche v.a. X. Supponiamo che il
tempo di vita di una lampadina sia descritto da una v.a. X. Un’azienda produce
queste lampadine in gran quantità e vogliamo testarne n. Sia Xi il tempo di vita
della i-esima lampadina testata. Allora il vettore (X1 , X2 , · · · , Xn ) è un vettore
aleatorio. Se assumiamo che le Xi sono simili (sono tutte prodotte dalla stessa
azienda e quindi dovrebbero avere medesima legge di probabilità) e sono indipendenti (la produzione di una lampadina non dovrebbe influenzare la produzione delle
altre) il vettore X prende il nome di campione casuale.
2.1.2. Minimo e massimo. Siano X1 , X2 , . . . , Xn variabili aleatorie indipendenti e
somiglianti. Caratterizziamo la legge di probabilità di
Y = max Xi
1≤i≤n
T = min Xi .
1≤i≤n
Risulta
FY (y)
= P (Y ≤ y) = P ( max Xi ≤ y)
1≤i≤n
= P (X1 ≤ y, X2 ≤ y, . . . , Xn ≤ y) =
n
Y
P (Xi ≤ y) = [FX (y)]n
i=1
Se le v.a. Xi sono assolutamente continue, allora
fY (y) = n[FX (y)]n−1 fX (y).
Invece si ha
1 − FT (t)
= P (T > t) = P ( min Xi > t)
1≤i≤n
= P (X1 > t, X2 > t, . . . , Xn > t) =
n
Y
P (Xi > t) = [1 − FX (t)]n
i=1
Se le v.a. Xi sono assolutamente continue, allora
fT (t) = n[1 − FX (t)]n−1 fX (t).
Esercizio Siano Xi per i = 1, 2, . . . , n v.a. indipendenti esponenziali di parametro
λ. Studiare le v.a. Y = max1≤i≤n Xi e T = min1≤i≤n Xi . Studiare il caso in cui
le v.a. sono esponenziali, ciascuna di parametro λi . Applicazioni in affidabilità dei
sistemi composti.
2.2. Condizionamento. Siano X = (X1 , X2 , · · · , Xn ) e Y = (Y1 , Y2 , · · · , Ym )
vettori casuali definiti sullo stesso spazio di probabilità (Ω, F, P ) e siano FX , FY e
FX,Y le funzioni di ripartizioni di X, di Y e di (X, Y). Sia B l’evento
B = {ω ∈ Ω : Y1 (ω) ≤ y1 , . . . , Ym (ω) ≤ ym }
e
Ah,k = {ω ∈ Ω : x1 − h1 < X1 (ω) ≤ x1 + k1 , . . . , xn − hn < Xn (ω) ≤ xn + kn }
dove h = (h1 , · · · , hn ) e k = (k1 , · · · , kn ) con hi , ki costanti non negative. Si
scelgano h, k in modo che P (Ah,k ) > 0. Pertanto ha senso definire
P (B|Ah,k ) =
P {(Y ≤ y) ∩ (x − h < X ≤ x + k)}
P (B ∩ Ah,k )
=
P (Ah,k )
P (x − h < X ≤ x + k)
dove con la scrittura U ≤ u si intende Ui ≤ ui per ogni componente.
4
E. DI NARDO
Definizione 2.2. Dati i vettori casuali X e Y e i vettori costanti h e k tali che
P (Ah,k ) > 0 se esiste finito il limite
P {(Y ≤ y) ∩ (x − h < X ≤ x + k)}
P (x − h < X ≤ x + k)
esso prende il nome di funzione di ripartizione di Y dato X e viene indicato con
FY|X (y|x).
lim
h,k→0
I risultati ottenuti nel capitolo precedente possono estendersi a questo caso e in
particolare si potrà scrivere
f (x, y)
f (x, y)
fX|Y (x|y) =
.
(2.2)
fY|X (y|x) =
fX (x)
fY (y)
Se poi i vettori casuali sono indipendenti allora
fY|X (y|x) = fY (y) fX|Y (x|y) = fY (y).
Una generalizzazione della nozione di vettore aleatorio è costituito dal processo
stocastico, nozione che verrà esaminata nel paragrafo successivo.
3. Processo stocastico
Un processo stocastico è una famiglia di v.a. dipendenti da un parametro t ∈ T ⊂
R, che in genere viene denominato tempo. Pertanto può essere considerato come una
funzione X(ω, t) con ω ∈ Ω e t ∈ T. Per un valore fissato t∗ , la funzione di ω X(ω, t∗ )
è una v.a. Invece fissare ω = ω ∗ equivale a fissare una prova, si ottiene allora una
funzione del tempo X(ω ∗ , t) che viene detta traiettoria o realizzazione del processo.
Se T è un sottoinsieme finito di R con cardinalità n, allora il processo stocastico è
un vettore aleatorio n-dimensionale. Se T è l’insieme dei numeri naturali, allora il
processo stocastico è una successione di v.a. (esempio: processo di Bernoulli) e viene
detto discreto nel tempo. Se T è un sottoinsieme non finito di R, il processo è detto
continuo nel tempo (esempio: processo di Poisson). L’insieme dei valori assunti
dalle v.a. che costituiscono il processo prende il nome di spazio degli stati. Anche
lo spazio degli stati può essere finito, numerabile o avere la potenza del continuo.
Nei primi due casi si dice che il processo stocastico è discreto nello spazio, mentre
nell’ultimo caso si dice che è continuo nello spazio.
Definizione 3.1. Un processo stocastico si dice noto quando, comunque fissata una
n-pla di istanti in T, ossia t1 < t2 < · · · < tn , si conosce la funzione di ripartizione
congiunta delle v.a. X(t1 ), X(t2 ), . . . , X(tn ).
Se si assume che il processo è costituito da v.a. assolutamente continue, questo
equivale a conoscere la funzione densità congiunta, usualmente indicata con
∂n
f (x1 , t1 ; x2 , t2 ; . . . , xn , tn ) =
FX(t1 ),...,X(tn ) (x1 , . . . , xn )
∂x1 · · · ∂xn
con t1 < t2 < . . . < tn . Vale il seguente teorema.
Teorema 3.2. Sia {X(t), t ∈ T } un processo stocastico costituito da v.a. assolutamente continue. Si ha
n
Y
f (x1 , t1 ; x2 , t2 ; . . . , xn , tn ) =
f (xi , ti |xi−1 , ti−1 ; . . . ; x1 , t1 )
i=1
dove il termine per i = 1 corrisponde alla densità unidimensionale f (x1 , t1 ).
VETTORI DI VARIABILI ALEATORIE
Proof. Il risultato segue applicando iterativamente la (2.2)
5
Il risultato del teorema dice che il processo stocastico è noto, se si conoscono
le densità condizionate di ordine inferiore. Questo perchè lo stato del processo
all’istante tn dipende da quello che è accaduto in tutti gli stati precedenti. Ovviamente tale studio presenta grosse difficoltà. Un caso speciale è rappresentato dai
processi stocastici di Markov.
Definizione 3.3. Un processo stocastico si dice di Markov se comunque fissata
una n-pla di istanti in T, ossia t1 < t2 < · · · < tn , si ha
f (xn , tn |xn−1 , tn−1 ; . . . ; x1 , t1 ) = f (xn , tn |xn−1 , tn−1 ).
La funzione densità f (x, t|y, τ ) con τ < t prende il nome di funzione densità di
transizione. Per i processi di Markov, quando si conosce la densità di transizione e
la densità unidimensionale, è possibile determinare la densità congiunta di qualsiasi
ordine. Si noti che i processi di Markov sono caratterizzati da limitata memoria, in
quanto se indichiamo con tn il generico istante futuro, con tn−1 l’istante presente
e con ti per i = 1, 2, . . . , n − 2 gli istanti passati, la proprietà di markovianità si
può enunciare dicendo che il futuro dipende solo dal presente e non dal passato.
Quando lo spazio degli stati è discreto o numerabile, si parla di catena di Markov.
Un esempio di catena di Markov è il processo di Poisson.
Teorema 3.4. Equazione di Chapman-Kolmogorov La densità di transizione
di un processo di Markov soddisfa la seguente relazione
Z
f (x, t|x0 , t0 ) =
f (x, t|y, τ )f (y, τ |x0 , t0 )dy.
R
Proof. Si ha
Z
f (x, t; x0 , t0 ) =
Z
f (x, t; y, τ ; x0 , t0 )dy =
R
f (x, t|y, τ ; x0 , t0 )f (y, τ ; x0 , t0 )dy.
R
Trattandosi di un processo di Markov si ha
Z
Z
f (x, t; x0 , t0 ) =
f (x, t|y, τ )f (y, τ ; x0 , t0 )dy =
f (x, t|y, τ )f (y, τ |x0 , t0 )f (x0 , t0 )dy.
R
R
Il primo membro della precedente eguaglianza può scriversi come
f (x, t; x0 , t0 ) = f (x, t|x0 , t0 )f (x0 , t0 )
da cui il risultato.
Si chiamano invece processi stocastici senza memoria quei processi di Markov
per i quali la densità di transizione soddisfa la seguente proprietà:
f (x, t|y, τ ) = f (x, t) τ < t.
Sono ovviamente processi stocastici le cui variabili aleatorie risultano indipendenti.
Esempi sono il rumore bianco ed il rumore termico.