Vettori di variabili aleatorie - Università degli Studi della Basilicata
Transcript
Vettori di variabili aleatorie - Università degli Studi della Basilicata
VETTORI DI VARIABILI ALEATORIE E. DI NARDO 1. Funzioni di ripartizione congiunte e marginali Definizione 1.1. Siano X1 , X2 , . . . , Xn v.a. definite su uno stesso spazio di probabilità (Ω, F, P ). La n-pla (X1 , X2 , . . . , Xn ) viene detta v.a. n-dimensionale o vettore casuale e verrà indicata con X. Le singole v.a. Xi vengono dette componenti. Si osservi che per ogni vettore n-dimensionale di numeri reali x = (x1 , x2 , . . . , xn ) si ha {ω ∈ Ω : X1 (ω) ≤ x1 , X2 (ω) ≤ x2 , . . . , Xn (ω) ≤ xn } = ∩ni=1 {ω ∈ Ω : Xi (ω) ≤ xi }, tale evento, essendo intersezione di elementi in F, appartiene ancora ad F. Definizione 1.2. Si dice funzione di ripartizione congiunta del vettore casuale X la funzione FX : Rn → [0, 1] cosı̀ definita FX (x) = FX1 ,X2 ,...,Xn (x1 , x2 , . . . , xn ) = P (X1 ≤ x1 , X2 ≤ x2 , . . . , Xn ≤ xn ). Si noti che scegliendo una qualsiasi componente del vettore aleatorio X ed effettuando il limite per xi che tende a −∞ si ha lim FX1 ,X2 ,...,Xn (x1 , x2 , . . . , xn ) = 0 xi →−∞ ed allo stesso modo lim FX1 ,X2 ,...,Xi−1 ,Xi ,Xi+1 ,...,Xn (x1 , x2 , . . . , xi−1 , xi , xi+1 , . . . , xn ) xi →∞ = FX1 ,X2 ,...,Xi−1 ,Xi+1 ,...,Xn (x1 , x2 , . . . , xi−1 , xi+1 , . . . , xn ) mentre lim FX1 ,X2 ,...,Xn (x1 , x2 , . . . , xn ) = 1. x→∞ La funzione di ripartizione FX1 ,X2 ,...,Xi−1 ,Xi+1 ,...,Xn (x1 , x2 , . . . , xi−1 , xi+1 , . . . , xn ) viene detta marginale. Procedendo allo stesso modo si può determinare la funzione di ripartizione marginale di m variabili aleatorie scelte tra le n del vettore X. La funzione di ripartizione congiunta è non decrescente, ossia x00 ,x00 ,...,x00 ∆x01 ,x02,...,x0n FX1 ,X2 ,...,Xn (x1 , x2 , . . . , xn ) ≥ 0, 1 2 n utilizzando la medesima notazione del capitolo precedente. Omettiamo la dimostrazione che segue le stesse linee di quella del caso bidimensionale. Come nel caso bidimensionale, scriveremo Z P [(X1 , X2 , . . . , Xn ) ∈ B] = dFX1 ,X2 ,...,Xn (x1 , x2 , . . . , xn ) B dove B ∈ B(Rn ). Ad integrazione della Lezione 11 - Calcolo delle Probabilità e Statistica Matematica II. 1 2 E. DI NARDO 1.1. Caso discreto. Dato un vettore aleatorio (X1 , X2 , . . . , Xn ) si definisce pr,s,...,t = P (X1 = x1,r , X2 = x2,s , . . . , Xn = xn,t ) r = 1, 2, . . . , s = 1, 2, . . . P massa di probabilità congiunta. Ovviamente risulta pr,s,...,t ≥ 0 e r,s,...,t pr,s,...,t = 1. I valori che si ottengono sommando su un indice la massa di probabilità congiunta sono detti probabilità marginali. Un esempio di vettore aleatorio discreto è quello con legge multinomiale. 1.2. Caso assolutamente continue. Diremo assolutamente continua una v.a. ndimensionale con funzione di ripartizione congiunta FX1 ,X2 ,...,Xn (x1 , x2 , . . . , xn ) se esiste una funzione non negativa fX1 ,X2 ,...,Xn (x1 , x2 , . . . , xn ) : Rn → R tale che per ogni n-pla (x1 , x2 , . . . , xn ) di reali distinti si abbia Z xn Z x1 dvn fX1 ,X2 ,...,Xn (v1 , v2 , . . . , vn ). dv1 · · · FX1 ,X2 ,...,Xn (x1 , x2 , . . . , xn ) = −∞ −∞ La funzione densità fX1 ,X2 ,...,Xn (x1 , x2 , . . . , xn ) viene detta densità di probabilità congiunta del vettore X. Ovviamente risulta ∂n FX ,X ,...,Xn (x1 , x2 , . . . , xn ) = f (x1 , x2 , . . . , xn ). ∂x1 · · · ∂xn 1 2 Si ha poi Z +∞ Z +∞ ··· f (x1 , x2 , . . . , xn )dx1 · · · dxn = 1 −∞ −∞ e Z P [(X1 , X2 , . . . , Xn ) ∈ B] = fX1 ,X2 ,...,Xn (x1 , x2 , . . . , xn )dx1 · · · dxn B dove B ∈ B(Rn ). Un cenno a parte meritano le densità marginali che si ottengono integrando la densità congiunta su un certo numero di componenti, ossia Z Z fX1 ,X2 ,...,Xm (x1 , x2 , . . . , xm ) = dxm+1 · · · f (x1 , x2 , . . . , xn )dxn . R R 2. Relazioni tra n variabili aleatorie 2.1. Indipendenza. Per vettori di variabili aleatorie valgono le medesime nozioni di somiglianza e di indipendenza di cui al capitolo precedente. Definizione 2.1. Assegnato un vettore aleatorio (X1 , X2 , . . . , Xn ) esso è costituito da v.a. indipendenti, se (2.1) FX1 ,X2 ,...,Xn (x1 , x2 , . . . , xn ) = FX1 (x1 )FX2 (x2 ) · · · FXn (xn ). Dalla definizione precedente segue che comunque scelte k v.a. tra le n, con k ∈ {1, 2, . . . , n}, si ha FXi1 ,Xi2 ,...,Xik (xi1 , xi2 , . . . , xik ) = k Y FXij (xij ). j=1 Infatti è sufficiente effettuare il limite per xi che tende a ∞ su quelle componenti del vettore che non appartengono all’insieme {Xi1 , Xi2 , . . . , Xik }, in modo da “eliminarle”dal vettore, affinché al primo membro della (2.1) si riottenga la funzione di ripartizione marginale di X nelle Xi1 , Xi2 , . . . , Xik mentre nel prodotto che figura al secondo membro restino le funzioni di ripartizione delle singole Xit . VETTORI DI VARIABILI ALEATORIE 3 2.1.1. Campione casuale. Una delle più importanti applicazioni dei vettori casuali è quella relativa ad osservazioni ripetute di una qualche v.a. X. Supponiamo che il tempo di vita di una lampadina sia descritto da una v.a. X. Un’azienda produce queste lampadine in gran quantità e vogliamo testarne n. Sia Xi il tempo di vita della i-esima lampadina testata. Allora il vettore (X1 , X2 , · · · , Xn ) è un vettore aleatorio. Se assumiamo che le Xi sono simili (sono tutte prodotte dalla stessa azienda e quindi dovrebbero avere medesima legge di probabilità) e sono indipendenti (la produzione di una lampadina non dovrebbe influenzare la produzione delle altre) il vettore X prende il nome di campione casuale. 2.1.2. Minimo e massimo. Siano X1 , X2 , . . . , Xn variabili aleatorie indipendenti e somiglianti. Caratterizziamo la legge di probabilità di Y = max Xi 1≤i≤n T = min Xi . 1≤i≤n Risulta FY (y) = P (Y ≤ y) = P ( max Xi ≤ y) 1≤i≤n = P (X1 ≤ y, X2 ≤ y, . . . , Xn ≤ y) = n Y P (Xi ≤ y) = [FX (y)]n i=1 Se le v.a. Xi sono assolutamente continue, allora fY (y) = n[FX (y)]n−1 fX (y). Invece si ha 1 − FT (t) = P (T > t) = P ( min Xi > t) 1≤i≤n = P (X1 > t, X2 > t, . . . , Xn > t) = n Y P (Xi > t) = [1 − FX (t)]n i=1 Se le v.a. Xi sono assolutamente continue, allora fT (t) = n[1 − FX (t)]n−1 fX (t). Esercizio Siano Xi per i = 1, 2, . . . , n v.a. indipendenti esponenziali di parametro λ. Studiare le v.a. Y = max1≤i≤n Xi e T = min1≤i≤n Xi . Studiare il caso in cui le v.a. sono esponenziali, ciascuna di parametro λi . Applicazioni in affidabilità dei sistemi composti. 2.2. Condizionamento. Siano X = (X1 , X2 , · · · , Xn ) e Y = (Y1 , Y2 , · · · , Ym ) vettori casuali definiti sullo stesso spazio di probabilità (Ω, F, P ) e siano FX , FY e FX,Y le funzioni di ripartizioni di X, di Y e di (X, Y). Sia B l’evento B = {ω ∈ Ω : Y1 (ω) ≤ y1 , . . . , Ym (ω) ≤ ym } e Ah,k = {ω ∈ Ω : x1 − h1 < X1 (ω) ≤ x1 + k1 , . . . , xn − hn < Xn (ω) ≤ xn + kn } dove h = (h1 , · · · , hn ) e k = (k1 , · · · , kn ) con hi , ki costanti non negative. Si scelgano h, k in modo che P (Ah,k ) > 0. Pertanto ha senso definire P (B|Ah,k ) = P {(Y ≤ y) ∩ (x − h < X ≤ x + k)} P (B ∩ Ah,k ) = P (Ah,k ) P (x − h < X ≤ x + k) dove con la scrittura U ≤ u si intende Ui ≤ ui per ogni componente. 4 E. DI NARDO Definizione 2.2. Dati i vettori casuali X e Y e i vettori costanti h e k tali che P (Ah,k ) > 0 se esiste finito il limite P {(Y ≤ y) ∩ (x − h < X ≤ x + k)} P (x − h < X ≤ x + k) esso prende il nome di funzione di ripartizione di Y dato X e viene indicato con FY|X (y|x). lim h,k→0 I risultati ottenuti nel capitolo precedente possono estendersi a questo caso e in particolare si potrà scrivere f (x, y) f (x, y) fX|Y (x|y) = . (2.2) fY|X (y|x) = fX (x) fY (y) Se poi i vettori casuali sono indipendenti allora fY|X (y|x) = fY (y) fX|Y (x|y) = fY (y). Una generalizzazione della nozione di vettore aleatorio è costituito dal processo stocastico, nozione che verrà esaminata nel paragrafo successivo. 3. Processo stocastico Un processo stocastico è una famiglia di v.a. dipendenti da un parametro t ∈ T ⊂ R, che in genere viene denominato tempo. Pertanto può essere considerato come una funzione X(ω, t) con ω ∈ Ω e t ∈ T. Per un valore fissato t∗ , la funzione di ω X(ω, t∗ ) è una v.a. Invece fissare ω = ω ∗ equivale a fissare una prova, si ottiene allora una funzione del tempo X(ω ∗ , t) che viene detta traiettoria o realizzazione del processo. Se T è un sottoinsieme finito di R con cardinalità n, allora il processo stocastico è un vettore aleatorio n-dimensionale. Se T è l’insieme dei numeri naturali, allora il processo stocastico è una successione di v.a. (esempio: processo di Bernoulli) e viene detto discreto nel tempo. Se T è un sottoinsieme non finito di R, il processo è detto continuo nel tempo (esempio: processo di Poisson). L’insieme dei valori assunti dalle v.a. che costituiscono il processo prende il nome di spazio degli stati. Anche lo spazio degli stati può essere finito, numerabile o avere la potenza del continuo. Nei primi due casi si dice che il processo stocastico è discreto nello spazio, mentre nell’ultimo caso si dice che è continuo nello spazio. Definizione 3.1. Un processo stocastico si dice noto quando, comunque fissata una n-pla di istanti in T, ossia t1 < t2 < · · · < tn , si conosce la funzione di ripartizione congiunta delle v.a. X(t1 ), X(t2 ), . . . , X(tn ). Se si assume che il processo è costituito da v.a. assolutamente continue, questo equivale a conoscere la funzione densità congiunta, usualmente indicata con ∂n f (x1 , t1 ; x2 , t2 ; . . . , xn , tn ) = FX(t1 ),...,X(tn ) (x1 , . . . , xn ) ∂x1 · · · ∂xn con t1 < t2 < . . . < tn . Vale il seguente teorema. Teorema 3.2. Sia {X(t), t ∈ T } un processo stocastico costituito da v.a. assolutamente continue. Si ha n Y f (x1 , t1 ; x2 , t2 ; . . . , xn , tn ) = f (xi , ti |xi−1 , ti−1 ; . . . ; x1 , t1 ) i=1 dove il termine per i = 1 corrisponde alla densità unidimensionale f (x1 , t1 ). VETTORI DI VARIABILI ALEATORIE Proof. Il risultato segue applicando iterativamente la (2.2) 5 Il risultato del teorema dice che il processo stocastico è noto, se si conoscono le densità condizionate di ordine inferiore. Questo perchè lo stato del processo all’istante tn dipende da quello che è accaduto in tutti gli stati precedenti. Ovviamente tale studio presenta grosse difficoltà. Un caso speciale è rappresentato dai processi stocastici di Markov. Definizione 3.3. Un processo stocastico si dice di Markov se comunque fissata una n-pla di istanti in T, ossia t1 < t2 < · · · < tn , si ha f (xn , tn |xn−1 , tn−1 ; . . . ; x1 , t1 ) = f (xn , tn |xn−1 , tn−1 ). La funzione densità f (x, t|y, τ ) con τ < t prende il nome di funzione densità di transizione. Per i processi di Markov, quando si conosce la densità di transizione e la densità unidimensionale, è possibile determinare la densità congiunta di qualsiasi ordine. Si noti che i processi di Markov sono caratterizzati da limitata memoria, in quanto se indichiamo con tn il generico istante futuro, con tn−1 l’istante presente e con ti per i = 1, 2, . . . , n − 2 gli istanti passati, la proprietà di markovianità si può enunciare dicendo che il futuro dipende solo dal presente e non dal passato. Quando lo spazio degli stati è discreto o numerabile, si parla di catena di Markov. Un esempio di catena di Markov è il processo di Poisson. Teorema 3.4. Equazione di Chapman-Kolmogorov La densità di transizione di un processo di Markov soddisfa la seguente relazione Z f (x, t|x0 , t0 ) = f (x, t|y, τ )f (y, τ |x0 , t0 )dy. R Proof. Si ha Z f (x, t; x0 , t0 ) = Z f (x, t; y, τ ; x0 , t0 )dy = R f (x, t|y, τ ; x0 , t0 )f (y, τ ; x0 , t0 )dy. R Trattandosi di un processo di Markov si ha Z Z f (x, t; x0 , t0 ) = f (x, t|y, τ )f (y, τ ; x0 , t0 )dy = f (x, t|y, τ )f (y, τ |x0 , t0 )f (x0 , t0 )dy. R R Il primo membro della precedente eguaglianza può scriversi come f (x, t; x0 , t0 ) = f (x, t|x0 , t0 )f (x0 , t0 ) da cui il risultato. Si chiamano invece processi stocastici senza memoria quei processi di Markov per i quali la densità di transizione soddisfa la seguente proprietà: f (x, t|y, τ ) = f (x, t) τ < t. Sono ovviamente processi stocastici le cui variabili aleatorie risultano indipendenti. Esempi sono il rumore bianco ed il rumore termico.