Esercitazione 9 Valori attesi Capitolo 5 Problema 1. Sia (X, Y ) un

Transcript

Esercitazione 9 Valori attesi Capitolo 5 Problema 1. Sia (X, Y ) un
Esercitazione 9
Valori attesi
Capitolo 5
Problema 1. Sia (X, Y ) un vettore aleatorio con densità congiunta
f (x, y) = cx2 yI{0 < y < x < 1}.
i) Si determini c.
ii) Si determinino le densità marginali di X e di Y .
iii) Si determinino le densità condizionali di X dato Y e di Y dato X, ossia f1|2 (x|y) e f2|1 (y|x).
iv) Si determini E[Y |X = x] e E[X|Y = y].
Problema 2 (Esempi 5.5.7, 5.5.9, 5.5.10). Sia X una variabile aleatoria geometrica di parametro θ, ossia
P {X = k} = θ(1 − θ)k per k = 0, 1, . . . . Sia Y una variabile aleatoria gaussiana con densità
f (x) = √
1
2πσ 2
e−
(x−µ)2
2σ 2
.
Sia Z una variabilie aleatoria Beta(a, b), ossia con densità
f (x) =
Γ(a + b) a−1
x
(1 − x)b−1
Γ(a)Γ(b)
con a > 0, b > 0. Calcolare E[X], E[Y ], V ar(X), V ar(Y ).
Problema 3 (21/6/2013). Siano X, Y, Z numeri aleatori indipendenti. Il numero aleatorio X abbia distribuzione esponenziale negativa di parametro 1, ossia con densità fX (x) = e−x I{x > 0}, il numero Y abbia
distribuzione Gamma di parametri (λ, m), ossia con densità fY (y) = (λm /Γ(m))y m−1 e−λy I{y > 0}, e Z sia
tale che P {Z = 1} = 1 − P {X = −1} = 1/2. Si ponga R = X/Y e S = ZX.
(i) Si determinino la funzione di ripartizione e la densità di S.
(ii) Si dimostri che P {R > r} = E[exp{−rY }] per ogni r > 0.
(iii) Usando il punto precedente, si dimostri che la funzione di ripartizione di R è
λ m I{r > 0}.
F (r) = 1 −
λ+r
Esercizi consigliati.
Problema 4 (Pulci*). Inizialmente il cane A ha n pulci Rosse e il cane B ha n pulci Nere. Ad ogni istante
k = 1, 2, . . . una pulce a caso dal cane A salta sul cane B e viceversa. Supponiamo che le pulci Rosse siano
numerate da 1 ad n. Determinare la probabilità che dopo k istanti la pulce Rossa i si trovi sul cane A.
Indicato con Nk il numero di pulci Rosse sul cane A dopo k istanti calcolare
E(Nk ).
N.B. Il modello può essere visto come un modello di due gas che si miscelano. Cosa succede al numero medio
di particelle (pulci) di un colore contenute nel primo recipiente (cane) quando il tempo (k) diverge?
[(1 + (1 − 2/n)k )/2, E(Nk ) = (1 + (1 − 2/n)k )n/2. Suggerimenti: la prob cercata è uguale alla prob che
una pallina su n sia pescata un numero pari ≤ k di volte.]
1
Problema
5. Siano
Pn
Pk X1 , . . . , Xn variabili aleatorie indipendenti ed identicamente distribuite. Si ponga Sn =
X
e
S
=
k
i=1 i
i=1 Xi (k ≤ n). Si dimostri che se E[|X1 |/|Sn |] < +∞, allora E(Sk /Sn ) = k/n.
Dimostrare lo stesso risultato sostituento all’ipotesi X1 , . . . , Xn sono variabili aleatorie indipendenti ed
identicamente distribuite, l’ipotesi per ogni permutazione σ di {1, . . . , n}, il vettore aleatorio
(Xσ(1) , . . . , Xσ(1) )
ha la stessa legge di (X1 , . . . , Xn ).
Problema 6. Siano p1 e p2 due densità di probabilità (discrete) su {x1 , x2 , . . . } ⊂ R tali che pj (xi ) > 0 per
j = 1, 2 e i ≥ 1. Sia X una variabile aleatoria discreta con densità p1 . Usare la relazione
log(x) ≤ x − 1
(x ≥ 0)
per dimostrare che
E log(p2 (X)) ≤ E log(p1 (X))
quando i valori attesi indicati esistono.
Problema 7. Siano (N, X1 , . . . , Xn , . . . ) variabili aleatorie indipendenti, con Xi (i = 1, . . . ) identicamente
distribuite e N a valori interi non negativi. Supponiamo che E(N 2 ) < +∞ e che E(X12 ) < +∞. Posto
S=
T
X
Xi
i=1
dimostrare che
V ar(S) = E(X1 )2 V ar(T ) + E(T )V ar(X1 ).
Problema 8 (Kafka*). Una persona sfortunata deve scegliere, per ritirare un documento, una coda fra
un’infinità
di code. La coda i-esima (scelta dal malcapitato con probabilità pari a 6/(π 2 i2 ), dove
P numerabile
2
−2
π /6 = i i ) ha un tempo d’attesa aleatorio con legge P oisson(i). Quale sarà il tempo medio di attesa
del mal capitato?
[infinito, del resto è una persona sfortunata...]
Problema 9 (**). Per una certa compagnia di assicurazioni sia N il numero (aleatorio) di sinistri fra gli
assicurati. Si supponga che P {N = n} = e−λ λn /n! (λ > 0). Siano poi X1 il numero di sinistri risarciti al
50 per cento e X2 il numero di sinistri risarciti completamente. Supponiamo che la probabilità di risarcire un
sinistro (condizionatamente al numero totale di sinistri) sia indipendente da quella di ogni altro risarcimento
e che il singolo sinistro venga risarcito al 50 per cento con probabilità p1 e completamente con probabiltà p2
(p1 + p2 < 1). Si dimostri che
k
• P {X1 = k1 , X2 = k2 |N = n} =
• P {Xi = ki |N = n} =
ki
n!
ki !(n−ki )! pi !(1
• P {X1 = k1 , X2 = k2 } =
k
n−k1 −k2
1
2
n! p1 p2 (1−p1 −p2 )
k1 !k2 !
(n−k1 −k2 )!
− pi )n−ki (i = 1, 2);
(λp1 )k1 −λp1 (λp2 )k2 −λp2
k1 ! e
k2 ! e
2
se k1 + k2 ≤ n, 0 altrimenti;