Statistica 2 Esercitazioni

Transcript

Statistica 2 Esercitazioni
Luigi Augugliaro
Statistica 2
Esercitazioni
Dott. Luigi Augugliaro1
1
Dipartimento di Scienze Statistiche e Matematiche “S. Vianelli”,
Università di Palermo
ricevimento:
lunedı̀ ore 15-17
mercoledı̀ ore 15-17
e-mail: [email protected]
http://dssm.unipa.it/augugliaro
(Dipartimento
1 / 124
di S
Variabile aleatoria
Nello studio degli esperimenti casuali, spesso oggetto di interesse è una funzione
degli eventi aleatori.
Ad esempio, nell’esperimento casuale lancio di due dadi possiamo essere
interessati alla funzione somma dei valori ottenuti, piuttosto che sapere quale
sequenza si sia realizzata. Le funzioni definite sullo spazio campionario a valori
reali sono note come variabili aleatorie o casuali.
Definizione
Si definisce variabile aleatoria, denotata con X , una qualsiasi funzione misurabile
definita sullo spazio campionario a valori reali, formalmente
Luigi Augugliaro
X : S → R.
(Dipartimento
2 / 124
di S
Rappresentazione grafica
Luigi Augugliaro
(Dipartimento
3 / 124
di S
Se indichiamo con Ei un generico evento dello spazio campionario, la variabile
aleatoria X assumerà il valore
X (Ei ) = xi .
La relazione precedente consente di definire la probabilità sui valori assunti dalla
variabile aleatoria X , più formalmente, la probabilità che la variabile aleatoria X
assuma il valore xi è definita nel seguente modo:
P(X (Ei ) = xi ) = P(Ei ).
Notazione: Nel seguito verrà omessa la dipendenza della variabile aleatoria
dall’evento aleatorio Ei ; in questo caso la definizione precedente può essere scritta
come
P(X = xi ) = p(xi ) = P(Ei ).
Luigi Augugliaro
(Dipartimento
4 / 124
di S
Esempio. Si consideri l’esperimento casuale consistente nel lancio di tre monete
equilibrate. Se indichiamo con X il numero di teste che si ottengono, allora X è
una variabile aleatoria che può assumere i valori 0,1,2 e 3 (dominio della variabile
aleatoria).
Le probabilità associate ai valori del dominio di X sono le seguenti:
Luigi Augugliaro
P(X = 0)
= P({C , C , C }) = 1/8
P(X = 1)
= P({T , C , C } ∪ {C , T , C } ∪ {C , C , T }) = 3/8
P(X = 2)
= P({T , T , C } ∪ {T , C , T } ∪ {C , T , T }) = 3/8
P(X = 3)
= P({T , T , C } ∪ {T , C , T } ∪ {C , T , T }) = 1/8
(Dipartimento
5 / 124
di S
Esempio. Supponiamo di lanciare ripetutamente una moneta fino a quando non
appare per la prima volta la faccia testa. Se denotiamo con X il numero di lanci
necessari affinché appaia per la prima volta la faccia testa, si deduce che X
è una variabile aleatoria che assume i valori 1, 2, . . . (variabile aleatoria discreta)
con probabilità
Luigi Augugliaro
P(X = 1)
= P(T ) = 0.5
P(X = 2)
= P({C , T }) = 0.5 · 0.5 = 0.52
P(X = 3)
= P({C , C , T }) = 0.5 · 0.5 · 0.5 = 0.53
P(X = 4)
= P({C , C , C , T }) = 0.5 · 0.5 · 0.5 · 0.5 = 0.54
P(X = 5)
= P({C , C , C , C , T }) = 0.5 · 0.5 · 0.5 · 0.5 · 0.5 = 0.55
..
.
(Dipartimento
6 / 124
di S
Esempio. Si consideri un’urna contenente 5 palline nere e 3 palline bianche. Si
estraggono con reinserimento 4 palline e si indichi con X il numero di palline nere
estratte. In questo caso X è una variabile aleatoria che assume valori nell’insieme
discreto {0, 1, . . . , 4} con probabilità
x 4−x
4
5
5
P(X = x) =
1−
x
8
8
Esempio. Si consideri un’urna contenente 5 palline nere e 5 palline bianche. Si
estraggono senza reinserimento 4 palline e si indichi con X il numero di palline nere
estratte. In questo caso X è una variabile aleatoria che assume valori nell’insieme
discreto {0, 1, . . . , 4} con probabilità
5 5
Luigi Augugliaro
P(X = x) =
x
4−x
10
4
(Dipartimento
7 / 124
di S
Uno strumento fondamentale per lo studio del comportamento di una generica
variabile aleatoria è la funzione di ripartizione definita come
F (x) = P(X ≤ x).
Si dimostra che la funzione di ripartizione soddisfa le seguenti proprietà
i. F (x) è una funzione non decrescente, ovvero se x1 < x2 allora F (x1 ) ≤ F (x2 )
ii. limx→+∞ F (x) = 1
iii. limx→−∞ F (x) = 0
vi. La funzione di ripartizione è continua a destra, ovvero
Luigi Augugliaro
lim F (x) = F (x0 ).
x→x0+
(Dipartimento
8 / 124
di S
Variabili aleatorie discrete
Definizione
Sia X una variabile aleatoria e si indichi con D il suo dominio (insieme di valori
che X può assumere). Diremo che X è una variabile aleatoria discreta se D è un
insieme discreto, ovvero contiene al più un’infinità numerabile di valori.
Definizione
Si definisce funzione di distribuzione di probabilità (denotata con p(·)) la funzione
che associa ad ogni x appartenete al dominio di X la corrispondente probabilità
ovvero:
p(x) = P(X = x).
Si dimostra che ogni funzione di distribuzione di probabilità soddisfa le seguenti
proprietà:
Luigi Augugliaro
X
p(x) ≥
0
p(x)
1
=
∀ x ∈ D;
x∈D
(Dipartimento
9 / 124
di S
Quando X è una variabile aleatoria discreta, la funzione di ripartizione può essere
definita tramite la funzione di distribuzione di probabilità nel seguente modo:
X
X
F (x0 ) = P(X ≤ x0 ) =
P({X = x}) =
p(x)
x≤x0
x≤x0
Esempio. Si consideri l’esperimento casuale consistente nel lancio di tre monete
equilibrate. Se indichiamo con X il numero di teste che si ottengono, allora X è
una variabile aleatoria che può assumere i valori 0,1,2 e 3 (dominio della variabile
aleatoria). La funzione di distribuzione e di ripartizione della variabile aleatoria X
sono le seguenti:
Luigi Augugliaro
X
0
1
2
3
p(x)
F (x)
1
8
3
8
3
8
1
8
1
8
4
8
7
8
8
8
(Dipartimento
10 / 124
di S
I momenti e la funzione generatrice dei momenti
Analogamente a quanto fatto per le distribuzioni di frequenza, anche per le distribuzioni di probabilità è possibile definire degli indici di sintesi
Definizione
Sia X una variabile aleatoria discreta con dominio D. Si definisce valore atteso di
X , la quantità
X
E (X ) = µ =
x · p(x)
x∈D
Osservazione: il valore atteso può essere visto come una media aritmetica ponderata con pesi dati dalla funzione di distribuzione di probabilità.
Esempio
X p(x) F (x)
1
1
0
8
8
1
2
3
Luigi Augugliaro
3
8
3
8
1
8
4
8
7
8
8
8
1
3
3
1
E (X ) = µ = 0· +1· +2· +3· = 1.5
8
8
8
8
(Dipartimento
11 / 124
di S
Esercizio. Si consideri l’esperimento casuale lancio di un dado e si indichi con X la
variabile aleatoria che associa ad ogni faccia il valore riportato. Calcolare il valore
atteso.
Soluzione. In questo caso il dominio di X è definito come D = {1, 2, 3, 4, 5, 6}
e la funzione di distribuzione di probabilità è definita come p(x) = 1/6, ovvero
probabilità costante per ogni possibile valore di X . Si ricava che
1
1
1
1
1
1
+2· +3· +4· +5· +6·
6
6
6
6
6
6
1
= (1 + 2 + 3 + 4 + 5 + 6) · = 3.5
6
E (X ) = µ =
1·
Note: gli esempi precedenti mostrano una proprietà importante del valore atteso:
in generale µ non è un elemento del dominio di X .
Luigi Augugliaro
(Dipartimento
12 / 124
di S
Proprietà del valore atteso
Si definisce degenere una variabile aleatoria che assume un valore constante,
diciamo x0 , con probabilità 1, ovvero p(x0 ) = 1. In questo caso
E (X ) = x0 · p(x0 ) = x0 · 1 = x0
Si consideri la trasformata lineare Y = a + bX , dove a e b sono delle costanti note.
In questo caso
X
E (Y ) = E (a + bX ) =
(a + bx)p(x) =
Luigi Augugliaro
x
=
X
ap(x) +
bx p(x) = a
x∈D
x∈D
|
X
{z
=E (a)
}
|
X
x∈D
{z
=E (bX )
p(x) + b
X
xp(x) =
x∈D
}
= a + bE (X )
(Dipartimento
13 / 124
di S
Il valore atteso costituisce un caso particolare di quelli che sono noti in letteratura
come momenti.
Definizione
Sia X una variabile aleatoria discreta con dominio D. Si definisce momento teorico
di ordine r ed origine m la quantità
X
µm,r = E [(X − m)r ] =
(x − m)r · p(x).
x∈D
Quando m = µ = E (X ), allora parleremo di momento teorico centrato di ordine
r e semplificheremo la notazione con la seguente
X
(x − µ)r · p(x).
µr = E [(X − µ)r ] =
x∈D
Quando m = 0, allora parleremo di momento teorico di ordine r e semplificheremo
la notazione con la seguente
X
µ0r = E (X r ) =
x r · p(x).
Luigi Augugliaro
x∈D
(Dipartimento
14 / 124
di S
Dalla definizione si ricava che, se m = 0 ed r = 1 allora
X
µ01 = E [(X − 0)1 ] =
x · p(x) = E (X ) = µ,
x∈D
ovvero il valore atteso di X può essere definito come il momento teorico di ordine
1.
Fra i vari momenti centrati di una variabile aleatoria, quello che utilizzeremo per la
costruzione di un indice mediante il quale misurare la variabilità di X è il momento
teorico centrale di ordine 2, chiamato anche varianza e denotato con il simbolo σ 2 :
X
(x − µ)2 · p(x).
σ 2 = µ2 = E [(X − µ)2 ] =
x∈D
La radice quadrata della varianza è chiamata deviazione standard ed è denotata
σ.
Luigi Augugliaro
(Dipartimento
15 / 124
di S
Esempio
X p(x)
1
0
8
1
2
3
Luigi Augugliaro
3
8
3
8
1
8
F (x)
1
8
4
8
7
8
8
8
E (X )
=
1.5
V (X )
=
(0 − 1.5)2 ·
3
1
+ (1 − 1.5)2 · +
8
8
3
1
+(2 − 1.5)2 · + (3 − 1.5)2 · = 0.75
8
8
(Dipartimento
16 / 124
di S
La formula utilizzata per il calcolo della varianza può essere semplifica utilizzando
le proprietà del valore atteso introdotte in precedenza, ovvero:
V (X )
=
=
E [(X − µ)2 ] = E (X 2 + µ2 − 2µX ) =
E (X 2 ) + E (µ2 ) − E (2µX ).
Poiché E (X ) = µ è una costante si ricava che E (µ2 ) = µ2 ; inoltre
E (2µX ) = 2µE (X ) = 2µ · µ = 2µ2 ,
quindi, l’espressione precedente può essere scritta come
Luigi Augugliaro
V (X ) = E (X 2 ) +µ2 − 2µ2 = µ02 − µ2 .
| {z } | {z }
=µ02
=−µ2
(Dipartimento
17 / 124
di S
La precedente relazione può essere ottenuta utilizzando la formula per il calcolo
della varianza per variabili aleatorie discrete, ovvero:
Luigi Augugliaro
V (X )
= E [(X − µ)2 ] = E (X 2 + µ2 − 2µX ) =
X
=
(x 2 − µ2 − 2µx)p(x) =
x∈D
=
X
x 2 · p(x) +
x∈D
= E (X 2 ) +µ2
| {z }
=µ02
X
µ2 p(x) −
x∈D
X
p(x) −2µ
2µx · p(x) =
x∈D
X
x∈D
x∈D
| {z }
|
=1
X
x · p(x) =
{z
=E (X )=µ
}
= µ02 + µ2 − 2µ · µ =
= µ02 − µ2
(Dipartimento
18 / 124
di S
Esempio
X
0
p(x)
3
1
8
3
8
3
8
1
8
Totale
1
1
2
Luigi Augugliaro
X · p(x)
0
X 2 · p(x)
0
3
8
6
8
3
8
3
2
3
8
12
8
9
8
3
E (X )
=
V (X )
= µ02 − µ2 = 3 − 1.52 = 0.75
1.5
(Dipartimento
19 / 124
di S
Proprietà della varianza
Si consideri la trasformata Y = a + bX e la sua varianza, ovvero
V (Y ) = σY2
=
E {[Y − E (Y )]2 } = E {a + bX − [a + bE (X )]2 } =
=
E [a + bX − a − bE (X )]2 = E [bX − bE (X )]2 =
=
b 2 E [X − E (X )]2 = b 2 V (X ) = b 2 σX2
Dall’ultima equazione si ricava che
Luigi Augugliaro
σY = |b|σX .
(Dipartimento
20 / 124
di S
Sia X una variabile aleatoria e g (·) una funzione con domino contenente DX . In
questo caso l’applicazione della funzione g alla variabile aleatoria X , ovvero g (X )
definisce una nuova variabile aleatoria la quale verrà denotata con g (X ).
Il valore atteso della variabile aleatoria g (X ) è definito come
X
E [g (X )] =
g (x)p(x).
x∈DX
Note: I momento teorici di ordine r costituiscono un caso particolare della precedente espressione; i momenti teorici di ordine r si ottengono ponendo
Luigi Augugliaro
g (·) = (·)r .
(Dipartimento
21 / 124
di S
Fra le infinite possibili funzioni di variabili aleatorie, la funzione generatrice dei
momenti svolge un ruolo centrale a causa della sua relazione con i momenti teorici
di ordine r .
Definizione
Sia X una variabile aleatoria con dominio D e si consideri la funzione g (X ) = e t·X .
Si definisce funzione generatrice dei momenti, denotata con m(t), il valore atteso
della funzione g (X ) ovvero:
X
m(t) = E (e t·X ) =
e t·x p(x)
Luigi Augugliaro
x∈D
(Dipartimento
22 / 124
di S
Si dimostra che le derivate successive della funzione generatrice dei momenti valutate nel punto t = 0 sono uguali ai momenti teorici di ordine r , ovvero
dm(0)
=
dt
d2 m(0)
=
dt 2
..
. =
dr m(0)
=
dt r
..
. =
E (X ) = µ
E (X 2 ) = µ02
..
.
E (X r ) = µ0r
..
.
In altri termini, i momenti teorici di ordine r possono essere calcolati tramite derivate
successive della funzione generatrice di momenti (valutate in t = 0).
Luigi Augugliaro
(Dipartimento
23 / 124
di S
Famiglie parametriche di distribuzioni
Molte funzioni di distribuzione di probabilità dipendono, oltre che dal valore x,
anche da uno o più quantità dette parametri della distribuzione. Per questo
motivo utilizzeremo la notazione p(x; θ) dove il parametro θ può essere:
i. scalare, in questo caso il parametro θ è una sola quantità;
ii. vettoriale, in questo caso il parametro θ è un vettore di k parametri:
θ = (θ1 , θ2 , . . . , θk )T .
L’insieme dei valori assumibili dal parametro θ è denotato con il simbolo Θ ed è
definito spazio parametrico.
Luigi Augugliaro
(Dipartimento
24 / 124
di S
Definizione
Si definisce famiglia parametrica di distribuzioni l’insieme di tutte le possibili funzioni
di distribuzioni di probabilità individuabili al variare del parametro θ nello spazio
parametrico, ovvero:
F = {p(x; θ) : θ ∈ Θ}.
Note: la relazione che esiste tra la funzione di distribuzione di probabilità p(x; θ) e
il parametro θ è di natura biunivoca, ovvero per ogni valore di θ esiste una ed una
sola distribuzione di probabilità p(x; θ) e viceversa.
Luigi Augugliaro
(Dipartimento
25 / 124
di S
Famiglie parametriche di distribuzioni per variabili aleatorie
discrete
Distribuzione uniforme discreta
Definizione
Diremo che la variabile aleatoria X , con dominio D = {1, . . . , N}, si distribuisce
come una uniforme discreta di parametro N, e scriveremo X ∼ U(N), se la
funzione di distribuzione di probabilità può essere espressa nel seguente modo:
(
1/N se x ∈ D
p(x) = p(x; N) =
0
altrimenti,
dove il parametro N è un numero intero positivo (lo spazio parametrico coincide
con l’insieme dei numeri naturali N).
Luigi Augugliaro
(Dipartimento
26 / 124
di S
Se X si distribuisce come un’uniforme discreta di parametro N, allora
E (X ) =
N +1
2
e
V (X ) =
N2 − 1
12
Dimostrazione
E (X )
=
N
X
x · p(x) =
x=1
V (X )
N
X
x·
x=1
N
1 X
1
1
=
x = (1 + 2 + · · · + N) =
N
N x=1
N
=
1 N(N + 1)
N +1
=
N
2
2
=
E (X 2 ) − E (X )2 = E (X 2 ) −
(N + 1)2
4
Notando che
E (X 2 )
=
N
X
x 2 · p(x) =
x=1
=
x=1
x2 ·
N
1
1 X 2
1
=
x = (12 + 22 + · · · + N 2 ) =
N
N x=1
N
1 N(N + 1)(2N + 1)
(N + 1)(2N + 1)
=
N
6
6
si ricava che
Luigi Augugliaro
N
X
V (X ) =
(N + 1)(2N + 1)
(N + 1)2
N2 − 1
−
=
.
6
4
12
(Dipartimento
27 / 124
di S
La variabile aleatoria uniforme discreta è associata a tutti gli esperimenti casuali i
cui esisti, denotato con N, sono equiprobabili:
lancio di una moneta (N = 2);
lancio di un dado (N = 6);
lancio di una biglia nella roulette (N = 37);
etc.
Luigi Augugliaro
(Dipartimento
28 / 124
di S
Distribuzione di Bernoulli
Definizione
Diremo che la variabile aleatoria X , con dominio D = {0, 1}, si distribuisce come una Bernoulli di parametro π (e scriveremo X ∼ Ber (π)) se la funzione di
distribuzione di probabilità può essere espressa nel seguente modo:
(
π x (1 − π)1−x se x ∈ D
p(x) = p(x; π) =
0
altrimenti.
In questo caso lo spazio parametrico Θ è uguale all’intervallo [0; 1].
Luigi Augugliaro
(Dipartimento
29 / 124
di S
Se X si distribuisce come una Bernoulli, allora
E (X ) = π
e
V (X ) = π(1 − π).
Dimostrazione
Per dimostrare le precedenti identità faremo ricorso alla funzione generatrice dei
momenti della variabile aleatoria di Bernoulli.
Determinazione della funzione generatrice dei momenti
Luigi Augugliaro
m(t) = E (e t·X )
=
1
X
e t·x p(x) =
x=0
t·0 0
= e
=
π (1 − π)
1 − π + πe
1
X
e t·x π x (1 − π)1−x =
x=0
1−0
+ e t·1 π 1 (1 − π)1−1 =
t
(Dipartimento
30 / 124
di S
Calcolo della derivata della funzione generatrice dei momenti
Dalla proprietà della funzione generatrice dei momenti si ricava che, per calcolare il valore atteso
di una variabile aleatoria distribuita secondo una Bernoulli, è necessario calcolare la derivata
prima di m(t) nel punto t = 0.
d(1 − π + πe t )
dm(t)
=
= πe t .
dt
dt
Utilizzando l’identità
dm(0)
= πe 0 = π,
dt
si ricava che E (X ) = π. Per calcolare la varianza di X , utilizziamo le identità
E (X ) =
Poiché
V (X )
=
E (X 2 ) − E (X )2 = E (X 2 ) − π 2
E (X 2 )
=
d2 m(0)
.
dt 2
d2 m(t)
dπe t
=
= πe t ,
dt 2
dt
si ricava che
E (X 2 ) = πe 0 = π,
quindi
Luigi Augugliaro
V (X ) = π − π 2 = π(1 − π).
(Dipartimento
31 / 124
di S
I precedenti risultati possono essere ottenuti ricorrendo alle definizione di E (X ) e
V (X ), ovvero:
Luigi Augugliaro
E (X )
=
0 · p(0; π) + 1 · p(1; π) = p(1; π) = π 1 (1 − π)1−1 = π
V (X )
=
E (X 2 ) − E (X )2 = E (X 2 ) − π 2 =
=
02 · p(0; π) + 12 · p(1; π) − π 2 =
=
p(1; π) − π 2 = π − π 2 = π(1 − π)
(Dipartimento
32 / 124
di S
La variabile aleatoria di Bernoulli è associata a quelle che sono note come “prove
di Beronulli”, ovvero esperimenti casuali con 2 soli possibili esiti: “successo” ed
“insuccesso”. La variabile aleatoria di Bernoulli associa valore 1 all’evento successo
e valore 0 all’evento insuccesso. In questo caso il parametro π soddisfa le seguenti
indentità
P({successo}) = p(1) = π 1 (1 − π)1−1 = π
ovvero il parametro π è uguale alla probabilità dell’evento successo.
Esempi di prove di Bernoulli sono
i. il lancio di una moneta;
ii. l’estrazione di una pallina da un’urna contenente palline di due colori diversi;
iii. etc.
Luigi Augugliaro
(Dipartimento
33 / 124
di S
Distribuzione Binomiale
Definizione
Diremo che la variabile aleatoria X , con dominio D = {0, 1, . . . , N}, si distribuisce
come una Binomiale di parametri N e π (e scriveremo X ∼ Bin(N, π)) se la funzione
di distribuzione di probabilità può essere espressa nel seguente modo:
( N
x
N−x
se x ∈ D
x π (1 − π)
p(x) = p(x; N, π) =
0
altrimenti.
In questo caso lo spazio parametrico è definito nel seguente modo Θ = N × [0, 1].
Se X si distribuisce secondo una Binomiale di parametri N e π, allora
E (X ) = Nπ
e
V (X ) = Nπ(1 − π).
Note: la variabile aleatoria di Bernoulli è un caso particolare della variabile Binomiale ottenuta quanto il parametro N è uguale ad uno.
Luigi Augugliaro
(Dipartimento
34 / 124
di S
Per dimostrare che E (X ) = Nπ e che V (X ) = Nπ(1 − π) utilizzeremo la funzione generatrice dei
momenti.
Step 1: definizione della funzione generatrice dei momenti.
Dalla definizione di funzione generatrice dei momenti si ricava che
m(t) = E (e tX )
=
N
X
x=0
=
e tx
N N X
N tx x
e π (1 − π)N−x =
π x (1 − π)N−x =
x
x
x=0
N X
N
N X
N
x=0
x=0
( e t π )x (1 − π )N−x =
x |{z} | {z }
a
b
x
ax b N−x
La precedente espressione può essere semplificando ricordando la formula dello sviluppo del binomio
di Newton, ovvero:
N X
N x N−x
(a + b)N =
a b
,
x
x=0
da cui si ricava che la funzione generatrice dei momenti di una variabile aleatoria Binomiale è
definita nel seguente modo:
Luigi Augugliaro
m(t) = (a + b)N = (e t π + 1 − π)N .
(Dipartimento
35 / 124
di S
Step 2: calcolo delle derivate della funzione generatrice dei momenti.
dm(t)
dt
d2 m(t)
dt 2
Luigi Augugliaro
= Nπe t (e t π + 1 − π)N−1 ,
= N(N − 1)(e t π + 1 − π)N−2 (πe t )2 + Nπe t (e t π + 1 − π)N−1 .
(Dipartimento
36 / 124
di S
Step 3: calcolo dei momenti teorici di ordine 1 e 2.
I momenti teorici di ordine 1 (valore atteso) e di ordine 2 vengono ricavati dalle
precedenti definizione ponendo uguale a zero la variabile t:
dm(0)
dt
= Nπe 0 (e 0 π + 1 − π)N−1 = Nπ · 1(1 · π + 1 − π)N−1 =
= Nπ1N−1 = Nπ = µ01
d2 m(0)
dt 2
= N(N − 1)(e 0 π + 1 − π)N−2 (πe 0 )2 + Nπe 0 (e 0 π + 1 − π)N−1 =
= N(N − 1)π 2 + Nπ = N 2 π 2 − Nπ 2 + Nπ
=
= N 2 π 2 + Nπ(1 − π) = µ02
Step 4: calcolo del valore atteso e della varianza.
Il valore atteso e la varianza della variabile aleatoria Binomiale si ricavano
utilizzando le seguenti identità:
E (X )
V (X )
Luigi Augugliaro
dm(0)
= µ01 = Nπ
dt
= µ02 − µ2 = N 2 π 2 + Nπ(1 − π) − (Nπ)2 = Nπ(1 − π).
=
(Dipartimento
37 / 124
di S
Legame con la variabile aleatoria di Bernoulli
La variabile aleatoria Binomiale deriva dalla replicazione dell’esperimento di Bernoulli. Formalmente: si consideriamo N prove di Bernoulli indipendenti ed identicamente distribuite tali che la probabilità dell’evento successo sia sempre uguale
a π. Denotata con Xi la variabile aleatoria associata all’i-esima prova di Bernoulli,
allora la variabile aleatoria definita come
X = X1 + X2 + . . . + XN =
N
X
Xi = numero di successi su N prove
i=1
si distribuisce secondo una Binomiale di parametri N e π.
Luigi Augugliaro
(Dipartimento
38 / 124
di S
Esempio: la roulette è un gioco d’azzardo di origine italiana introdotto in Francia
nel XVIII secolo consistente in un disco diviso in 37 settori numerati da 0 a 36.
Supponendo che il croupier lanci 10 palline consecutivamente, calcolare:
i. la probabilità che 3 palline cadano in un settore riportante un valore compreso
tra 0 e 10, estremi compresi;
ii. la probabilità che al più 2 palline cadano in un settore riportante un valore
compreso tra 10 e 20, estremi compresi;
Luigi Augugliaro
(Dipartimento
39 / 124
di S
Soluzione
Sulla base della descrizione precedente di ricava che la variabile aleatoria X si distribuisce come
una binomiale con parametro n = 10, ovvero il numero di lanci.
i) Dalla descrizione dell’esperimento casuale si ricava che il parametro p della distribuzione di
probabilità della variabile aleatoria binomiale è uguale alla probabilità che una pallina cadano in
un settore riportante un valore compreso tra 0 e 10, estremi compresi, quindi, utilizzando la
definizione classica di probabilità, si ricava
p=
11
≈ 0, 30,
37
da cui si ricava che
10
· 0, 3x · 0, 710−x .
x
Sulla base del risultato precedente si ricava che
10
10!
P(X = 3) =
· 0, 33 · 0, 77 =
· 0, 33 · 0, 77
3
3!7!
10 · 9 · 8 · 7!
=
· 0, 33 · 0, 77 = 120 · 0, 33 · 0, 77 = 0, 27
3!7!
Luigi Augugliaro
P(X = x) =
(Dipartimento
40 / 124
di S
ii) Dalla descrizione dell’esperimento casuale si ricava che siamo interessati al calcolo della
seguente probabilità
P(X ≤ 2) = P(X = 0) + P(X = 1) + P(X = 2).
In questo caso il parametro p è uguale alla probabilità che una pallina cada in un settore
riportante un valore compreso tra 10 e 20, estremi compresi, quindi, mediante la definizione
classica di probabilità si ricava
11
≈ 0, 30,
p=
37
da cui si ricava che
10
P(X = 0) =
· 0, 30 · 0, 710 = 0, 710 ≈ 0, 03;
0
10
P(X = 1) =
· 0, 31 · 0, 79 = 10 · 0, 31 · 0, 79 ≈ 0, 12;
1
10
P(X = 2) =
· 0, 32 · 0, 78 = 45 · 0, 32 · 0, 78 ≈ 0, 23;
2
Sulla base dei risultati precedenti si ricava che
Luigi Augugliaro
P(X ≤ 2) = 0, 03 + 0, 12 + 0, 27 = 0, 38.
(Dipartimento
41 / 124
di S
Esempio: si consideri un mazzo di 52 carte e l’esperimento casuale consistente
nell’estrarre con reinserimento 10 carte. Sulla base della descrizione dell’esperimento
il candidato calcoli la probabilità che:
(a) delle 10 carte estratte 2 siano di cuori;
(b) delle 10 carte estratte almeno 2 siano di cuori;
(c) delle 10 carte estratte al più 2 siano di cuori.
Luigi Augugliaro
(Dipartimento
42 / 124
di S
Soluzione:sulla base della descrizione precedente di ricava che la variabile aleatoria X si distribuisce
come una binomiale con parametri n = 10, ovvero il numero di carte estratte con reinserimento,
e p = 1/4, ovvero la probabilità di estrarre una carta di cuori. Quindi
P(X = x) =
10
· 0, 25x · 0, 7510−x .
x
(a)
P(X = 2)
=
=
10
10!
· 0, 252 · 0, 758 =
· 0, 252 · 0, 758
2!8!
2
10 · 9 · 8!
· 0, 252 · 0, 758 = 45 · 0, 252 · 0, 758 = 0, 28
2!8!
(b)
Luigi Augugliaro
P(X ≥ 2)
=
1 − P(X ≤ 1) = 1 − (P(X = 0) + P(X = 1))
(Dipartimento
43 / 124
di S
Dato che
P(X = 0)
=
P(X = 1)
=
=
10
· 0, 250 · 0, 7510 = 0, 7510 ≈ 0, 06
0
10
10 · 9!
· 0, 251 · 0, 759
· 0, 251 · 0, 759 =
1! · 9!
1
10 · 0, 251 · 0, 759 ≈ 0.19
si ricava che
P(X ≥ 2) ≈ 1 − P(X ≤ 1) = 1 − (0, 06 + 0, 19) = 0, 75.
(c)
Luigi Augugliaro
P(X ≤ 2) = P(X = 0) + P(X = 1) + P(X = 2) ≈ 0, 06 + 0, 19 + 0, 28 = 0, 53
(Dipartimento
44 / 124
di S
Distribuzione Ipergeometrica
Definizione
Diremo che la variabile aleatoria X , con dominio D = {0, 1, . . . , n}, si distribuisce
come una Ipergeometrica di parametri M ∈ N, K (interro non negativo minore o
uguale a M) e n (intero positivo minore o uguale a M) (e scriveremo che X ∼
H(M, K , n) se la funzione di distribuzione di probabilità può essere espressa nel
seguente modo:
 K M−K
 ( x )( n−x ) se x ∈ D
(Mn )
p(x) = p(x; M, K , n) =
0
altrimenti.
Se X si distribuisce secondo una Ipergeometrica di parametri M, K , n allora:
Luigi Augugliaro
E (X ) = n
K
M
V (X ) = n
K M −K M −n
M M M −1
(Dipartimento
45 / 124
di S
La variabile aleatoria Ipergeometrica è associata ad esperimenti simili a quelli utilizzati per definire la variabile aleatoria Binomiale; si dispone di un insieme iniziale
(urna, mazzo di carte, etc) contenete M elementi diversi. L’insieme è diviso in
due sottogruppi (palline bianche/nere, carte di cuori/non cuori, assi/non assi, etc)
di numerosità K (il primo gruppo) ed M − K (il secondo gruppo). Se si estrae
senza reinserimento (in blocco) un campione di n elementi dall’insieme iniziale, la
funzione di distribuzione di probabilità della variabile ipergeometrica consente di
calcolare la probabilità che nel campione vi siano esattamente x elementi del primo
gruppo.
Luigi Augugliaro
(Dipartimento
46 / 124
di S
Esempio. Per assemblare un sistema elettrico, si prendono a caso 6 componenti
da un cassetto contenente 20 componenti usati. Il sistema montato funziona solo
se tra i 6 componenti estratti, quelli guasti non sono di più di 2. Se nel cassetto
vi sono 15 componenti funzionanti e 5 guasti, qual è la probabilità che il sistema
funzioni?
Luigi Augugliaro
(Dipartimento
47 / 124
di S
Soluzione. Per poter calcolare la probabilità richiesta è necessario identificare i
valori dei parametri che specificano la distribuzione ipergeometrica, ovvero M, K ed
n.
Dalla descrizione dell’esperimento casuale si deduce che l’insieme iniziale (cassetto),
da cui vengono estratti senza reinserimento gli elementi (componenti del sistema),
contiene M = 20 elementi i quali vengono distinti in due gruppi: funzionanti e
non funzionanti. Se indichiamo con X il numero di elementi guasti presenti nel
campione di numerosità n = 6 si deduce che il primo gruppo (gli elementi guasti) ha numerosità K = 5 mentre il secondo gruppo (gli elementi funzionanti) ha
numerosità M − K = 15.
Dato che il sistema funziona se vengono estratti al più 2 elementi difettosi, si ricava
che la probabilità richiesta può essere calcolata nel seguente modo
Luigi Augugliaro
P(X ≤ 2)
=
=
P(X = 0) + P(X = 1) + P(X = 2) =
5 15
5 15
5 15
0
6 +
20
6
1
5 +
20
6
2
4
20
6
≈ 0.8687.
(Dipartimento
48 / 124
di S
Esercizio. Un’urna contiene 15 palline di cui 3 palline bianche, 5 nere e 7 rosse. Calcolare la probabilità che un campione casuale di 3 palline estratte senza
reinserimento contenga:
i. tutte palline bianche;
ii. almeno una pallina rossa;
iii. almeno due palline nere.
Esercizio. Sei persone vengono estratte a caso da un gruppo costituito da 12
uomini e 8 donne. Calcolare la probabilità che il il gruppo selezionato contenga:
i. solamente un uomo;
ii. solamente una donna;
iii. un ugual numero di uomini e donne.
Luigi Augugliaro
(Dipartimento
49 / 124
di S
Distribuzione di Poisson
Definizione
Diremo che la variabile aleatoria X , con dominio D = {0, 1, . . .}, si distribuisce come
una Poisson di parametro λ (e scriveremo X ∼ P(λ)) se la funzione di distribuzione
di probabilità può essere espressa nel seguente modo:
( x −λ
λ e
se x ∈ D
x!
p(x) = p(x; λ) =
0
altrimenti.
In questo caso lo spazio parametrico è costituito da tutti i possibili valori reali
strettamente maggiori di zero (λ ≥ 0).
Se X si distribuisce secondo una Poisson di parametro λ, allora
Luigi Augugliaro
E (X ) = λ
e
V (X ) = λ
(Dipartimento
50 / 124
di S
Per dimostrare le precedenti identità, faremo ricorso alla funzione generatrice dei momenti di una
variabile aleatoria di Poisson.
Dalla definizione di funzione generatrice dei momenti si ricava che:
m(t)
=
E (e t·X ) =
+∞
X
e t·x p(x; λ) =
x=0
=
e −λ
+∞
X
x=0
(λe t )x
x!
+∞
X
x=0
e t·x
λx e −λ
=
x!
.
Ponendo λe t = k, la precedente espressione può essere riscritta come
m(t) = e −λ
+∞
X
x=0
kx
.
x!
L’espressione precedente può essere semplificata ricordando che, tramite lo sviluppo in serie di
Taylor della funzione esponenziale nel punto 0, è verificata l’identità
ek =
+∞
X
x=0
kx
,
x!
e quindi possiamo ricavare la formula della funzione generatrice dei momenti della variabile
aleatoria di Poisson:
t
m(t) = e −λ e k = e k−λ = e λe −λ .
Luigi Augugliaro
(Dipartimento
51 / 124
di S
Per calcolare E (X ), determiniamo la derivata prima di m(t) = e λe
utilizziamo l’identità E (X ) = dm(0)/dt.
t
−λ
e poi
Applicando le regole di derivazione delle funzioni composte si ricava:
t
t
t
t
dm(t)
de λe −λ
d(λe t − λ)
=
= e λe −λ ·
= e λe −λ λe t = λe λe −λ e t ,
dt
dt
dt
quindi
Luigi Augugliaro
λ·1−λ=0
=1
z }| { z}|{
0
dm(0)
E (X ) =
= λ e| λe{z− λ} e 0 = λ · 1 · 1 = λ.
dt
e 0 =1
(Dipartimento
52 / 124
di S
Per determinare la varianza di X utilizziamo l’identità V (X ) = E (X 2 ) − E (X )2 , e quindi
utilizziamo il metodo della funzione generatrice dei momenti per determinare E (X )2 tramite
l’identità
d2 m(0)
E (X 2 ) =
.
dt 2
Per calcolare la derivata seconda della funzione generatrice dei momenti osserviamo che la
derivata prima può essere scritta come
t
dm(t)
= λ e λe −λ e t = λ · m(t) · e t ,
| {z }
dt
=m(t)
quindi la derivata seconda può essere calcolata tramite la la regola di derivazione del di funzioni,
ovvero:
Luigi Augugliaro
d2 m(t)
dt 2
=
=
=
=
d dm(t)
d(λ · m(t) · e t )
=
=
dt
dt
dt
dm(t) t
de t
dm(t) t
λ
e + m(t)
=λ
e + m(t)e t =
dt
dt
dt
dm(t)
t
λ
+ m(t) e = λ λm(t)e t + m(t) e t =
dt
λ(λe t + 1)m(t)e t = λ(λe t + 1)e λe
t
−λ t
e .
(Dipartimento
53 / 124
di S
Dal risultato precedente si ricava che
E (X 2 ) =
0
d2 m(0)
= λ(λe 0 + 1)e λe −λ e 0 = λ(λ + 1) = λ2 + λ.
dt 2
e quindi
Luigi Augugliaro
V (X ) = E (X 2 ) − E (X )2 = λ2 + λ − λ2 = λ.
(Dipartimento
54 / 124
di S
Distribuzione geometrica
Definizione
Diremo che la variabile aleatoria X , con dominio D = {0, 1, . . .}, si distribuisce come una
Geometrica (o Pascal) di parametro π ∈ (0, 1] (e scriveremo X ∼ G (π)) se la funzione di
distribuzione di probabilità può essere espressa nel seguente modo:
(
π(1 − π)x se x ∈ D
p(x) = p(x; π) =
0
altrimenti.
In questo caso lo spazio parametrico è costituito da tutti i valori compresi nell’intervallo
(0, 1].
Se X è distribuita come una variabile aleatoria geometrica di parametro π, si dimostra che
E (X ) =
1−π
π
e
V (X ) =
1−π
.
π2
Osservazione
La variabile aleatoria di Pascal è strettamente legata ad una successione di prove di Bernoulli stocasticamente indipendenti dove il parametro π è la probabilità che si verifichi l’evento successo in una generica prova. Formalmente, x rappresenta il numero di insuccessi
osservati prima di ottenere il primo successo.
Luigi Augugliaro
(Dipartimento
55 / 124
di S
Per dimostrare le precedenti identità faremo ricorso alla funzione generatrice dei momenti della
variabile aleatoria di Pascal.
Dalla definizione di funzione generatrice dei momenti si ricava che:
m(t)
=
E (e t·X ) =
+∞
X
e t·x p(x; π) =
x=0
+∞
X
e t·x π(1 − π)x = π
x=0
+∞
X
[(1 − π)e t ]x .
x=0
Ponendo k = (1 − π)e t , la precedente espressione può essere riscritta come
m(t) = π
+∞
X
kx
x=0
L’espressione precedente può essere semplificata ricordando che, tramite lo sviluppo in serie di
Taylor della funzione f (x) = (1 − x)−1 nel punto 0, è verificata l’identità:
+∞
X
k x = (1 − k)−1
x=0
da cui si ricava
Luigi Augugliaro
m(t) =
π
.
1 − (1 − π)e t
(Dipartimento
56 / 124
di S
Per calcolare E (X ), determiniamo la derivata prima di m(t) = π(1−(1−π)e t )−1 e poi utilizziamo
l’identità E (X ) = dm(0)/dt.
Applicando le usuali regole di derivazione si ricava:
dm(t)
dt
=
=
dπ(1 − (1 − π)e t )−1
d(1 − (1 − π)e t )−1
=π
dt
dt
t
t −2 d(1 − (1 − π)e )
−π(1 − (1 − π)e )
dt
|
{z
}
=−(1−π)e t
=
π)e t
π(1 −
.
(1 − (1 − π)e t )2
Dal precedente risultato si ricava che:
Luigi Augugliaro
E (X ) =
dm(0)
π(1 − π)e 0
π(1 − π)
1−π
=
=
=
.
dt
(1 − (1 − π)e 0 )2
π2
π
(Dipartimento
57 / 124
di S
Per calcolare la varianza utilizziamo le relazioni
V (X ) = E (X 2 ) − E (X )2
d2 m(t)
dt 2
Luigi Augugliaro
e
E (X 2 ) =
d π(1 − π)e t (1 − (1 − π)e t )−2
=
dt
d2 m(0)
.
dt 2
d e t (1 − (1 − π)e t )−2
= π(1 − π)
=

 de t
d(1 − (1 − π)e t )−2

π(1 − π) 
·(1 − (1 − π)e t )−2 + e t
 dt
dt
|{z}
|
{z
}
=e t
=
π(1 − π)e t
=
dt



=

=2(1−π)e t (1−(1−π)e t )−3
1
2(1 − π)e t
.
+
(1 − (1 − π)e t )2
(1 − (1 − π)e t )3
(Dipartimento
58 / 124
di S
Dal precedente risultato si ricava
E (X 2 )
=
=
=
1
2(1 − π)e 0
+
(1 − (1 − π)e 0 )2
(1 − (1 − π)e 0 )3
1
2(1 − π)
π(1 − π)
2(1 − π)
π(1 − π)
+
=
1
+
=
π2
π3
π2
π
(1 − π) π + 2 − 2π
(1 − π)(2 − π)
=
π
π
π2
π(1 − π)e 0
quindi
Luigi Augugliaro
V (X )
=
=
(1 − π)(2 − π)
(1 − π)2
−
=
π2
π2
2
2
(2 + π − 3π) − (1 + π − 2π)
1−π
=
π2
π2
(Dipartimento
59 / 124
di S
Esempio. Si consideri un’urna con 10 palline bianche e 20 palline nere. L’esperimento casuale
consiste nell’estrazione con reinserimento di palline dall’urna fino a quando non viene estratta
una pallina bianca. Sulla base della precedente descrizione, calcolare la probabilità che vengano
estratte 3 palline nere prima di osservare una pallina bianca.
Soluzione: Nel precedente esempio, una singola prova di Bernoulli consiste nell’estrazione di una
pallina dall’urna e l’evento successo è definito nel seguente modo:
E = {“estrazione di una pallina bianca”}.
Dalla descrizione della composizione dell’urna, mediante l’applicazione della definizione classica di
probabilità, si ricava che
10
1
P(E ) =
= = π,
30
3
quindi, se indichiamo con X la variabile aleatoria di Pascal, la probabilità richiesta può essere
calcolata nel seguente modo
1 3
1
P(X = 3) = π(1 − π)3 =
1−
≈ 0.099.
3
3
E’ facile dedurre che la probabilità calcolata in precedenza può essere definita come la probabilità
che si verifichi la sequenza
N, N, N, B,
ovvero
Luigi Augugliaro
P({N, N, N, B}) =
1
3
1−
1
3
3
≈ 0.099.
(Dipartimento
60 / 124
di S
Distribuzione Binomiale Negativa
Definizione
Diremo che la variabile aleatoria X , con dominio D = {0, 1, . . .}, si distribuisce secondo una
Binomiale Negativa di parametri r = 1, 2, 3, . . . e π ∈ (0, 1] (e scriveremo X ∼ BN(r , π))
se la funzione di distribuzione di probabilità può essere espressa nel seguente modo:
(
r
r +x−1
π (1 − π)x se x ∈ D
x
p(x) = p(x; r , π) =
0
altrimenti.
Se X è distribuita come una variabile aleatoria distribuita secondo una binomiale negativa
di parametri r e π, si dimostra che
E (X ) = r
1−π
π
e
V (X ) = r
1−π
.
π2
Osservazione Dalla definizione di variabile aleatoria binomiale negativa, si ricava che la
distribuzione di Pascal è un caso particolare ottenuto quando il parametro r è uguale ad
uno, infatti:
!
1+x −1 1
p(x; 1, π) =
π (1 − π)x = π(1 − π)x .
x
Luigi Augugliaro
(Dipartimento
61 / 124
di S
Contesto applicativo
Il contesto applicativo è simile a quello utilizzato per la definizione della variabile aleatoria di Pascal, ovvero si considera una successione di prove di Bernoulli stocasticamente
indipendenti, dove con π denotiamo la probabilità che si verifiche l’evento successo. In
questo caso la variabile aleatoria X rappresenta il numero di insuccessi osservati prima di
osservare r -volte l’evento successo.
Esempio. Si consideri un’urna con 10 palline bianche e 20 palline nere. L’esperimento
casuale consiste nell’estrazione con reinserimento di palline dall’urna fino a quando non
vengono estratte 3 palline bianche. Sulla base della precedente descrizione calcolare la
probabilità che vengano estratte 2 palline nere prima delle 3 palline bianche.
Soluzione. Analogamente a quanto fatto nell’esercizio precedente, il parametro π è uguale
a 1/3. Il parametro r rappresenta il numero di volte che si verifica l’evento successo nella
sequenza di prove di Bernoulli (in questo caso vengono eseguite 5 prove), ovvero r = 3.
In conclusione, si ricava che
! 2
3 + 2 − 1 13
1
P(X = 2) =
1−
≈ 0.099
2
3
3
Luigi Augugliaro
(Dipartimento
62 / 124
di S
Esercizio. Sia X una variabile aleatoria distribuita secondo una binomiale negativa di
parametri r e π. Sapendo che la funzione generatrice dei momenti è definita nel seguente
modo:
r
π
,
m(t) =
1 − (1 − π)e t
si dimostri che
E (X ) = r
1−π
π
e
V (X ) = r
1−π
.
π2
Suggerimento. I calcoli possono essere semplificati osservando che, se denotiamo con
mp (t) =
π
1 − (1 − π)e t
la funzione generatrice dei momenti della distribuzione di Pascal, la funzione generatrice
dei momenti della variabile aleatoria binomiale negativa può essere scritta come:
Luigi Augugliaro
m(t) = [mp (t)]r .
(Dipartimento
63 / 124
di S
Variabile aleatorie continue
Definizione
Sia X una variabile aleatoria e si indichi con D il suo dominio (insieme di valori che X può
assumere). Diremo che X è una variabile aleatoria continua se D è un insieme con cardinalità del
continuo.
Definizione
Se X è una variabile aleatoria continua allora esiste una funzione f (x) tale per cui la funzione di
ripartizione può essere definita nel seguente modo:
Z x0
f (x)dx.
F (x0 ) = Prob(X ≤ x0 ) =
−∞
La funzione f (x) viene definita funzione di densità della variabile aleatoria continua X e soddisfa
le seguenti proprietà:
Z
f (x)
≥
0,
f (x)dx
=
1
∀x ∈ D
+∞
−∞
Note. E’ facile osservare che le proprietà della funzione di densità sono una naturale estensione
delle proprietà viste in precedenza per la funzione di distribuzione di probabilità di una variabile
aleatoria discreta.
Luigi Augugliaro
(Dipartimento
64 / 124
di S
I momenti e la funzione generatrice dei momenti
Le definizioni di momento e di funzione generatrice dei momenti di una variabile aleatoria discreta possono essere facilmente generalizzate alle variabili aleatorie
continue mediante l’utilizzo della funzione di densità.
Definizione
Sia X una variabile aleatoria continua con dominio l’insieme D e funzione di densità
di probabilità f (x). Si definisce lavoro atteso di X la quantità
Z
E (X ) = µ =
x f (x) dx.
D
Osservazione. In sintesi possiamo dire che il valore atteso di una variabile aleatoria
X può essere definito nel seguente modo
P

 x∈D x p(x) se X è una variabile aleatoria discreta
E (X ) = µ =

R
x f (x) dx se X è una variabile aleatoria continua
D
Luigi Augugliaro
(Dipartimento
65 / 124
di S
Proprietà del valore atteso Tramite le proprietà dell’integrale è facile dimostrare
che le proprietà del valore atteso, introdotte in precedenza per una variabile aleatoria
discreta, sono mantenute anche al caso di una variabile aleatoria continua.
In particolare, se si considera la trasformata lineare Y = a + bX , dove X è una
variabile aleatoria continua, allora
Luigi Augugliaro
E (Y ) = E (a + bX ) = a + bE (X ).
(Dipartimento
66 / 124
di S
Definizione
Sia X una variabile aleatoria continua con dominio D e funzione di densità f (x). Si definisce
momento teorico di ordine r ed origine m la quantità
Z
µm,r = E [(X − m)r ] =
(x − m)r f (x)dx.
D
Quando m = µ = E (X ), allora parleremo di momento teorico centrato di ordine r e
semplificheremo la notazione con la seguente
Z
µr = E [(X − µ)r ] =
(x − µ)r f (x)dx.
D
Quando m = 0, allora parleremo di momento teorico di ordine r e semplificheremo la notazione
con la seguente
Z
µ0r = E (X r ) =
x r f (x)dx.
D
Osservazione. In sintesi possiamo dire che il valore momento teorico di ordine r ed origine m di
una variabile aleatoria X può essere definito nel seguente modo:
P
r

 x∈D (x − m) p(x) se X è una variabile aleatoria discreta
r
µm,r = E [(X − m) ] =

R
r
se X è una variabile aleatoria continua
D (x − m) f (x)dx
Luigi Augugliaro
(Dipartimento
67 / 124
di S
Utilizzando la definizione di momento teorico di ordine r di una variabile aleatoria
continua si ricava che, se X è una variabile aleatoria continua, la varianza di X può
essere definita nel seguente modo:
Z
σ 2 = µ2 = E [(X − µ)2 ] = (x − µ)2 f (x)dx.
D
Utilizzando le usuali proprietà dell’integrale, è facile mostrare che, anche nel caso
di variabili aleatorie continue, sono soddisfatte la seguente identità:
V (X ) = E (X 2 ) − E (X )2
ed inoltre, se si considera la trasformata lineare Y = a + bX , si ottiene che:
Luigi Augugliaro
V (Y ) = b 2 V (X ).
(Dipartimento
68 / 124
di S
Definizione
Sia X una variabile aleatoria continua con D e funzione di densità f (x). Si definisce
funzione generatrice dei momenti della variabile aleatoria X , denotata con m(t),
il valore atteso della funzione e t·X ovvero:
Z
t·X
m(t) = E (e ) =
e t·x f (x)dx.
D
Anche nel caso di variabili aleatoria continue è soddisfatta la relazione che esiste il
momenti teorico di ordine r e la derivata r -esima di m(t), ovvero:
Luigi Augugliaro
E (X r ) = µ0r =
dr m(t)
dt r
(Dipartimento
69 / 124
di S
Famiglie parametriche di distribuzioni per variabili aleatorie
continue
Distribuzione uniforme (o rettangolare)
Definizione
Diremo che la variabile aleatoria X , con dominio D = [a, b], si distribuisce come una
uniforme uniforme (o rettangolare) di parametri a e b con a < b, e scriveremo
X ∼ U(a, b), se la funzione di distribuzione di densità può essere espressa nel
seguente modo:
(
1
se x ∈ D
f (x) = f (x; a, b) = b−a
0
altrimenti.
Se X si distribuisce secondo una uniforme, allora
Luigi Augugliaro
E (X ) =
b+a
2
e
V (X ) =
(a − b)2
12
(Dipartimento
70 / 124
di S
Per ricavare il valore atteso e la varianza di X è sufficiente applicare le definizioni, ovvero:
Z b
Z b
Z b
1
1
x f (x; a, b) dx =
x
E (X ) =
dx =
x dx =
b−a
b−a a
a
a
2 b
1
x
b 2 − a2
(b − a)(b + a)
b+a
=
=
=
=
b−a 2 a
2(b − a)
2(b − a)
2
Utilizzando l’identità V (X ) = E (X 2 ) − E (X )2 , e osservando che:
Z b
Z b
Z b
1
1
E (X 2 ) =
x 2 f (x; a, b) dx =
x2
dx =
x 2 dx =
b−a
b−a a
a
a
3 b
1
x
b 3 − a3
(b − a)(b 2 + ab + a2 )
=
=
=
=
b−a 3 a
3(b − a)
3(b − a)
=
b 2 + ab + a2
3
si ricava:
V (X )
Luigi Augugliaro
=
=
b 2 + ab + a2
a2 + 2ab + b 2
4b 2 + 4ab + 4a2 − 3a2 − 6ab − 3b 2
−
=
3
4
12
(a − b)2
a2 − 2ab + b 2
=
12
12
(Dipartimento
71 / 124
di S
Distribuzione Normale (o Gaussiana)
Definizione
Diremo che la variabile aleatoria X , con dominio R, è distribuita normalmente con parametri µ ∈ R e σ 2 > 0, e scriveremo X ∼ N(µ, σ 2 ), se la funzione di densità si può scrivere
nel seguente modo:
(x − µ)2
1
.
f (x; µ, σ 2 ) = √
exp −
2σ 2
2πσ 2
Se la variabile aleatoria X è distribuita normalmente con parametri µ e σ 2 , si dimostra che
Luigi Augugliaro
E (X ) = µ
e
V (X ) = σ 2 .
(Dipartimento
72 / 124
di S
Per dimostrare che i parametri µ e σ 2 della distribuzione normale corrispondono al valore atteso
e alla varianza di X , faremo ricorso alla funzione generatrice dei momenti. Dalla definizione di
funzione generatrice dei momenti si ricava che:
Z +∞
Z +∞
1
(x − µ)2
m(t) = E (e t X ) =
e t x f (x; µ, σ 2 )dx =
et x √
exp −
dx =
2σ 2
2πσ 2
−∞
−∞
Z +∞
(x − µ)2
1
√
=
exp −
+ tx dx =
2
2σ 2
2πσ
−∞
Z +∞
x 2 − 2xµ + µ2
1
√
exp −
=
+
tx
dx =
2σ 2
2πσ 2
−∞
Z +∞
1
x 2 − 2xµ + µ2 − 2xtσ 2
√
exp −
=
dx =
2σ 2
2πσ 2
−∞
Z +∞
1
x 2 − 2x(µ + tσ 2 ) + µ2
√
=
exp −
dx
2
2σ 2
2πσ
−∞
Luigi Augugliaro
(Dipartimento
73 / 124
di S
Per poter calcolare
m(t) = E (e t X ) =
Z
+∞
√
−∞
x 2 − 2x(µ + tσ 2 ) + µ2
exp −
dx
2
2σ
2πσ 2
1
poniamo
µ0 = µ + tσ 2
da cui si ricava che µ = µ0 −
tσ 2
e quindi
2
µ = (µ0 − tσ 2 )2 = µ20 − 2tµ0 σ 2 + t 2 σ 4 .
Sostituendo quanto appena trovato
Z +∞
1
√
m(t) =
2πσ 2
−∞
Z +∞
1
√
=
2πσ 2
−∞
Z +∞
1
√
=
2πσ 2
−∞
Z +∞
1
√
=
2πσ 2
−∞
Z +∞
1
√
=
2πσ 2
−∞
Luigi Augugliaro
all’interno del precedente integrale si ricava:
x 2 − 2x(µ + tσ 2 ) + µ2
exp −
dx =
2σ 2
x 2 − 2xµ0 + µ20 − 2tµ0 σ 2 + t 2 σ 4
exp −
dx =
2σ 2
x 2 − 2xµ0 + µ20
t 2 σ2
dx =
+ tµ0 −
exp −
2
2σ
2
x 2 − 2xµ0 + µ20
t 2 σ2
exp −
exp tµ0 −
dx =
2
2σ
2
(x − µ0 )2
t 2 σ2
exp −
exp tµ0 −
dx =
2
2σ
2
(Dipartimento
74 / 124
di S
Dall’espressione
+∞
Z
√
m(t) =
−∞
(x − µ0 )2
t 2 σ2
exp −
exp
tµ
−
dx
0
2σ 2
2
2πσ 2
1
si nota che il termine
t 2 σ2
exp tµ0 −
2
non dipende dalla variabile d’integrazione e quindi può essere portato fuori dall’integrale, ovvero:
Z +∞
t 2 σ2
1
(x − µ0 )2
√
m(t) = exp tµ0 −
exp −
dx.
2
2σ 2
2πσ 2
−∞
Infine, notando che l’argomento dell’integrale è la funzione di densità di una distribuzione normale
di parametri µ0 e σ 2 , si ricava dalle generiche proprietà della funzione di densità che:
Z +∞
1
(x − µ0 )2
√
exp −
dx = 1
2
2σ
2πσ 2
−∞
quindi
Luigi Augugliaro
m(t)
=
=
t 2 σ2
t 2 σ2
exp tµ0 −
= exp t(µ + tσ 2 ) −
=
2
2
t 2 σ2
t 2 σ2
exp tµ + t 2 σ 2 −
= exp tµ +
2
2
(Dipartimento
75 / 124
di S
n
Per calcolare E (X ), determiniamo la derivata prima di m(t) = exp tµ +
t 2 σ2
2
o
e poi utilizziamo
l’identità E (X ) = dm(0)/dt.
Applicando le usuali regole di derivazione si ricava:
d exp{tµ + t 2 σ 2 /2}
t 2 σ2
dm(t)
=
= exp tµ +
µ + tσ 2
dt
dt
2
quindi
Luigi Augugliaro
E (X ) =
dm(0)
02 σ 2
= exp 0µ +
µ + 0σ 2 = µ.
dt
2
| {z }
|
{z
}
=µ
=1
(Dipartimento
76 / 124
di S
Per determinare la varianza di X utilizziamo l’identità V (X ) = E (X 2 ) − E (X )2 , e quindi
utilizziamo il metodo della funzione generatrice dei momenti per determinare E (X )2 tramite
l’identità
d2 m(0)
E (X 2 ) =
.
dt 2
Per calcolare la derivata seconda della funzione generatrice dei momenti osserviamo che la
derivata prima può essere scritta come
t 2 σ2
dm(t)
= exp tµ +
µ + tσ 2 = m(t)(µ + tσ 2 )
dt
2
|
{z
}
=m(t)
quindi la derivata seconda può essere calcolata tramite la la regola di derivazione del di funzioni,
ovvero:
Luigi Augugliaro
d2 m(t)
dt 2
=
=
=
=
d
dt
dm(t)
dt
=
d[m(t)(µ + tσ 2 )]
=
dt
dm(t)
d(µ + tσ 2 )
(µ + tσ 2 ) + m(t)
=
dt
dt
2 2
2
m(t)(µ + tσ ) + m(t)σ = m(t)[(µ + tσ 2 )2 + σ 2 ] =
t 2 σ2
exp tµ +
[(µ + tσ 2 )2 + σ 2 ]
2
(Dipartimento
77 / 124
di S
Dal risultato precedente si ricava che
d2 m(0)
02 σ 2
2
E (X ) =
[(µ + 0σ 2 )2 +σ 2 ] = µ2 + σ 2
= exp 0µ +
| {z }
dt 2
2
|
{z
}
=µ2
=1
e quindi
Luigi Augugliaro
V (X ) = E (X 2 ) − E (X )2 = µ2 + σ 2 − µ2 = σ 2
(Dipartimento
78 / 124
di S
Distribuzione Esponenziale
Definizione
Diremo che la variabile aleatoria X , con dominio D = [0, +∞), è distribuita secondo una
esponenziale di parametri λ, con λ > 0, e scriveremo X ∼ Exp(λ), se la funzione di
densità può essere scritta nel seguente modo:
f (x; λ) = λe −λx
Se la variabile aleatoria X è distribuita come una esponenziale di parametro λ, si dimostra
che
1
1
e
V (X ) = 2 .
E (X ) =
λ
λ
Luigi Augugliaro
(Dipartimento
79 / 124
di S
Per dimostrare le precedenti identità, faremo ricorso alla funzione generatrice dei
momenti. Dalla definizione di funzione generatrice dei momenti si ricava che:
Z +∞
Z +∞
m(t) = E (e t X ) =
e t x f (x; λ)dx =
e t x λe −λx dx =
0
0
Z +∞
Z +∞
= λ
e −λx+tx dx = λ
e −(λ−t)x dx
0
0
Per risolvere il precedente integrale poniamo λ0 = λ − t, da cui si ricava:
Z +∞
Z +∞
m(t) = λ
e −(λ−t)x dx = λ
e −λ0 x dx =
0
0
Z
Z +∞
λ +∞
λ0 −λ0 x
e
dx =
λ0 e −λ0 x dx =
= λ
λ0
λ0 0
0
{z
}
|
Luigi Augugliaro
=1
=
λ
λ
=
λ0
λ−t
(Dipartimento
80 / 124
di S
Per calcolare E (X ), determiniamo la derivata prima di m(t) = λ(λ − t)−1 e dopo
utilizziamo l’identità E (X ) = dm(0)/dt.
Applicando le usuali regole di derivazione si ricava:
dm(t)
dλ(λ − t)−1
d(λ − t)−1
=
=λ
= λ(λ − t)−2
dt
dt
dt
quindi
Luigi Augugliaro
E (X ) =
dm(0)
λ
λ
1
=
= 2 = .
dt
(λ − 0)2
λ
λ
(Dipartimento
81 / 124
di S
Per determinare la varianza di X utilizziamo l’identità V (X ) = E (X 2 )−E (X )2 , e quindi utilizziamo
il metodo della funzione generatrice dei momenti per determinare E (X )2 tramite l’identità
E (X 2 ) =
d2 m(0)
.
dt 2
Dall’applicazione delle usuali regole di derivazione si ricava che:
d2 m(t)
dt 2
=
d
dt
dm(t)
dt
=
λ
=
2λ
(λ − t)3
=
d[λ(λ − t)−2 ]
=
dt
d[(λ − t)−2 ]
d[λ − t]
= −2λ(λ − t)−3
dt
dt
| {z }
=−1
Dal risultato pretendete si ricava che
E (X 2 ) =
2λ
2λ
2
= 3 = 2
(λ − 0)3
λ
λ
quindi
Luigi Augugliaro
V (X ) = E (X 2 ) − E (X )2 =
2
1
1
− 2 = 2
λ2
λ
λ
(Dipartimento
82 / 124
di S
Distribuzione Gamma
Definizione
Diremo che la variabile aleatoria X , con dominio D = [0, +∞), è distribuita secondo una
Gamma di parametri r e λ, con r > 0λ > 0, e scriveremo X ∼ Γ(r , λ), se la funzione di
densità può essere scritta nel seguente modo:
f (x; r , λ) =
λr x r −1 e −λx
Γ(r )
dove Γ(·) prende il nome di “funzione gamma” ed è definita nel seguente modo:
Z +∞
Γ(r ) =
λr x r −1 e −λx dx.
0
Note:
Quanto il parametro r è un intero, si dimostra che
Luigi Augugliaro
Γ(r ) = (r − 1)!
(Dipartimento
83 / 124
di S
Relazione con la variabile aleatoria Esponenziale
La variabile aleatoria Esponenziale costituisce un caso particolare della variabile
aleatoria Gamma; formalmente, una variabile aleatoria Gamma di parametri r = 1
e λ qualsiasi coincide con una variabile aleatoria Esponenziale di parametro λ.
Per dimostrare la precedente relazione è sufficiente riscrivere la funzione di densità
della variabile aleatoria Gamma imponendo l’uguaglianza r = 1, ovvero
f (x; 1, λ) =
λe −λx
λ1 x 1−1 e −λx
=
= λe −λx ,
Γ(1)
0!
e notare che la densità che ne deriva coincide con quella della variabile aleatoria
Esponenziale.
Luigi Augugliaro
(Dipartimento
84 / 124
di S
Se X si distribuisce secondo una Gamma di parametri r e λ, allora si dimostra che
r
r
E (X ) =
e
V (X ) = 2 .
λ
λ
Per dimostrare le precedenti identità, faremo ricorso alla funzione generatrice dei momenti.
Dalla definizione di funzione generatrice dei momenti si ricava che:
Z +∞
Z +∞
λr x r −1 e −λx
m(t) = E (e t X ) =
e t x f (x; r , λ)dx =
et x
dx =
Γ(r )
0
0
Z +∞ r −1 −λx+tx
Z +∞ r −1 −(λ−t)x
x e
x e
= λr
dx = λr
dx
Γ(r )
Γ(r )
0
0
Per risolvere il precedente integrale poniamo λ0 = λ − t, da cui si ricava:
Z +∞ r −1 −λ0 x
Z +∞ r −1 −(λ−t)x
x e
x e
dx = λr
dx =
m(t) = λr
Γ(r
)
Γ(r )
0
0
Z
Z +∞ r r −1 −λ0 x
λ0 x e
λr +∞ λr0 x r −1 e −λ0 x
= λr
dx = r
dx =
r
λ0
Γ(r )
λ0 0
Γ(r )
0
|
{z
}
Luigi Augugliaro
=1
r
=
r
λ
λ
=
=
λr0
(λ − t)r
λ
λ−t
r
.
(Dipartimento
85 / 124
di S
Per calcolare E (X ), determiniamo la derivata prima di m(t) = [λ(λ − t)−1 ]r e
dopo utilizziamo l’identità E (X ) = dm(0)/dt.
Applicando le usuali regole di derivazione si ricava:
dm(t)
dt
=
d[λ(λ − t)−1 ]r
= r [λ(λ − t)−1 ]r −1
dt
dλ(λ − t)−1
dt
{z
}
|
=
derivata prima della funzione
generatrice dei momenti della
variabile aleatoria esponenziale
=
r [λ(λ − t)−1 ]r −1 λ(λ − t)−2 = r
=
r λr
(λ − t)r +1
λ
λr −1
=
(λ − t)r −1 (λ − t)2
quindi
Luigi Augugliaro
E (X ) =
dm(0)
r λr
r λr
r
=
= r +1 = .
r
+1
dt
(λ − 0)
λ
λ
(Dipartimento
86 / 124
di S
Per determinare la varianza di X utilizziamo l’identità V (X ) = E (X 2 )−E (X )2 , e quindi utilizziamo
il metodo della funzione generatrice dei momenti per determinare E (X )2 tramite l’identità
E (X 2 ) =
d2 m(0)
.
dt 2
Dall’applicazione delle usuali regole di derivazione si ricava che:
d2 m(t)
dt 2
=
d
dt
=
r λr
=
dm(t)
dt
=
d[r λr (λ − t)−(r +1) ]
=
dt
d[(λ − t)−(r +1) ]
d(λ − t)
= −r (r + 1)λr (λ − t)−(r +1)−1
=
dt
dt
r
−(r +2)
r (r + 1)λ (λ − t)
Dal risultato pretendete si ricava che
E (X 2 ) =
r (r + 1)λr
r (r + 1)λr
r (r + 1)
=
=
(λ − 0)r +2
λr +2
λ2
quindi
Luigi Augugliaro
V (X ) = E (X 2 ) − E (X )2 =
r (r + 1)
r2
r2 + r − r2
r
− 2 =
= 2.
λ2
λ
λ2
λ
(Dipartimento
87 / 124
di S
Distribuzione Chi-quadrato
All’interno delle metodologie dell’inferenza statistica che vedremo in seguito, un ruolo
centrale è svolto da una variabile aleatoria ottenuta come caso particolare della variabile
aleatoria Gamma. La variabile aleatoria in questione prende il nome di Chi-quadrato ed è
ottenuta dalla variabile aleatoria Gamma imponendo le seguenti uguaglianze:
r=
k
2
e
λ=
1
2
dove k è in intero positivo.
Definizione
Diremo che la variabile aleatoria X , con dominio D = [0, +∞), è distribuita secondo una
Chi-quadrato con k gradi di libertà, e scriveremo X ∼ χ2k , se la funzione di densità può
essere scritta nel seguente modo:
f (x; k) =
(1/2)k/2 x k/2−1 e −1/2 x
Γ(k/2)
dove il parametro k è un intero positivo che prende il nome di grado di libertà.
Luigi Augugliaro
(Dipartimento
88 / 124
di S
Dato che la variabile aleatoria Chi-quadrato costituisce un caso particolare della
variabile aleatoria Gamma, possiamo ricavarne il valore atteso, varianza e funzione
generatrice dei momenti semplicemente utilizzando le identità
r=
k
2
e
λ=
1
2
nelle definizione di valore atteso, varianza e funzione generatrice dei momenti della
variabile aleatoria Gamma, ovvero
E (X )
V (X )
m(t)
k/2
r
=
=k
λ
1/2
r
k/2
=
=
= 2k
λ2
1/4
k/2
1/2
=
1/2 − t
=
in altri termini, il valore atteso di X coincide con i gradi di libertà mentre la varianza
è uguale a due volte i gradi di libertà.
Luigi Augugliaro
(Dipartimento
89 / 124
di S
Distribuzione di una funzione di una variabile aleatoria: il
metodo della funzione generatrice dei momenti
Negli appunti precedenti abbiamo visto che la funzione generatrice dei momenti
costituisce uno strumento fondamentale per la determinazione del valore atteso e
la varianza di una variabile aleatoria, e più in generale per la determinazione dei
momenti di una variabile aleatoria.
All’interno dell’inferenza statistica, la funzione generatrice dei momenti consente,
inoltre, di determinare la distribuzione di una funzione di una variabile aleatoria;
formalmente, sia X una variabile aleatoria con distribuzione nota e si consideri
la nuova variabile aleatoria definita come Y = g (X ), dove g (·) è una funzione
nota. Se la funzione generatrice dei momenti di Y , denotata con mY (t), ha forma
nota, ovvero esiste una variabile aleatoria Z con distribuzione nota e con funzione
generatrice dei momenti mZ (t) tale che:
mY (t) = mZ (t)
allora Y ha la stessa distribuzione di Z .
Luigi Augugliaro
(Dipartimento
90 / 124
di S
Il precedente risultato consente di dimostrare la seguente relazione che esiste tra
la variabile aleatoria normale standardizzata e la distribuzione Chi-quadrato con un
grado di libertà.
Teorema
Sia Z una variabile aleatoria con media 0 e varianza 1. Si dimostra che la variabile
aleatoria Y = Z 2 si distribuisce come una Chi-quadrato con un grado di libertà.
Dimostrazione
Per dimostrare il precedente teorema, utilizzeremo il metodo della funzione generatrice dei momenti, ovvero determineremo la funzione generatrice dei momenti della
variabile aleatoria Y = Z 2 e dimostreremo che essa è uguale a quella della variabile
aleatoria Chi-quadrato con un grado di libertà:
Luigi Augugliaro
m(t) =
1/2
1/2 − t
1/2
.
(Dipartimento
91 / 124
di S
Applicando la definizione di funzione generatrice dei momenti alla nuova variabile aleatoria Y = Z 2
si ricava:
Z ∞
2
1
z2
exp{tz 2 } √
mY (t) = E (e tY ) = E (e tZ ) =
exp −
dz =
2
2π
−∞
Z ∞
Z
∞
1
1
z2
−z 2 + 2tz 2
√
√
=
exp −
+ tz 2 dz =
exp
dz =
2
2
2π
2π
−∞
−∞
Z ∞
1
(1 − 2t)z 2
√
=
exp −
dz
2
2π
−∞
Al fine di semplificare il precedente integrale, poniamo
1 − 2t =
1
σ2
da cui si ricava che
Z ∞
1
1
(1 − 2t)z 2
z2
√
√
dz =
exp −
exp − 2 dz =
2
2σ
2π
2π
−∞
−∞
Z ∞
Z ∞
σ 1
z2
1
z2
√
√
exp − 2 dz = σ
exp − 2 dz
2σ
2σ
2π
2πσ 2
−∞ σ
−∞
Z
mY (t)
Luigi Augugliaro
=
=
∞
=
(Dipartimento
92 / 124
di S
Osservando che l’argomento dell’integrale è la funzione di densità di una variabile aleatoria normale
con media 0 e varianza σ 2 , si ricava che
1/2
Z ∞
z2
1
1
√
.
mY (t) = σ
exp − 2 dz = σ. =
2σ
1 − 2t
2πσ 2
−∞
{z
}
|
=1
Ricordando che
σ2 =
1
1 − 2t
1
1 − 2t
1/2
possiamo concludere che
mY (t) = σ. =
=
1/2
1/2 − t
1/2
,
dove l’ultimo termine dell’uguaglianza è la funzione generatrice dei momenti di una variabile
aleatoria Chi-quadrato con un grado di libertà.
In conclusione, possiamo passiamo dire che se Z ∼ N(0, 1) allora Z 2 ∼ χ21 .
Luigi Augugliaro
(Dipartimento
93 / 124
di S
Vettori aleatori
Definizione
Si definisce variabile aleatoria (o vettore aleatorio) n-dimensionale, il vettore
 
X1
X2 
 
X =  .  = (X1 , X2 , . . . , Xn )> .
 .. 
Xn
le cui n componenti ordinate, indicate con Xi , sono variabili aleatorie unidimensionali
con funzione di densità di probabilità f (xi ). La realizzazione di un vettore aleatorio
è la n-pla ordinata
 
x1
 x2 
 
x =  .  = (x1 , x2 , . . . , xn )> .
 .. 
xn
dove xi è la realizzazione dell’i-esima variabile aleatoria Xi .
Luigi Augugliaro
(Dipartimento
94 / 124
di S
Definizione
Il vettore aleatorio n-dimensionale X è definito discreto se tutte le variabili aleatorie
che lo compongono sono discrete; in questo caso, la funzione di distribuzione di
probabilità del vettore aleatorio è definita nel seguente modo:
p(x) = P(X = x) = Prob({X1 = x1 } ∩ {X2 = x2 } ∩ . . . ∩ {Xn = xn })
Definizione
Il vettore aleatorio n-dimensionale X è definito continuo se tutte le variabili aleatorie
che lo compongono sono continue; in questo caso, la funzione di densità del vettore
aleatorio è denotata nel seguente modo f (x).
Luigi Augugliaro
(Dipartimento
95 / 124
di S
Ipotesi semplificatrici
In generale la funzione di distribuzione di probabilità/densità del vettore aleatorio
X non può essere determinata senza opportune ipotesi semplificative; esistono due
ipotesi che semplificano la determinazione di p(x) o di f (x):
i. le n componenti del vettore aleatorio sono stocasticamente indipendenti. In
questo caso diremo che X è un vettore aleatorio a componenti stocasticamente
indipendenti e la funzione di distribuzione di probabilità (di densità) di X è
definita come prodotto delle funzioni di distribuzioni di probabilità (di densità)
delle variabili aleatorie Xi (ipotesi di stocastica indipendenza).
ii. le variabili aleatorie Xi , che compongono il vettore aleatorio X, hanno tutte
distribuzione uguale a quella di una variabile aleatoria di riferimento X utilizzata
come modello della popolazione (ipotesi di identica distribuzione).
Se il vettore aleatorio X soddisfa le precedenti ipotesi semplificatici, allora viene definito vettore aleatorio a componenti indipendenti e identicamente distribuiti
(i.i.d.).
Luigi Augugliaro
(Dipartimento
96 / 124
di S
Esercizio. Sia X = (X1 , X2 , . . . X5 ) un vettore aleatorio a componenti i.i.d. con
X ∼ P(λ). Determinare la funzione di distribuzione di probabilità del vettore
aleatorio X.
Esercizio. Sia X = (X1 , X2 , . . . X5 ) un vettore aleatorio a componenti i.i.d. con
X ∼ Ber (π). Determinare la funzione di distribuzione di probabilità del vettore
aleatorio X.
Esercizio. Sia X = (X1 , X2 , . . . X5 ) un vettore aleatorio a componenti i.i.d. con
X ∼ N(µ, σ 2 ). Determinare la funzione di densità del vettore aleatorio X.
Esercizio. Sia X = (X1 , X2 , . . . X5 ) un vettore aleatorio a componenti i.i.d. con
X ∼ Exp(λ). Determinare la funzione di densità del vettore aleatorio X.
Luigi Augugliaro
(Dipartimento
97 / 124
di S
Indipendentemente dalle assunzioni semplificatrici relative al vettore aleatorio X, in generale saremo
interessati a studiare una nuova variabile aleatoria definita come funzione del vettore aleatorio X:
Y = g (X1 , X2 , . . . , Xn )
Osservazione
Dato che Y è funzione di un vettore aleatorio, essa è una variabile aleatoria e quindi possiamo
definire la funzione di distribuzione di probabilità (densità), il valore atteso, la varianza e la
funzione generatrice dei momenti di Y .
Tra tutte le possibili funzioni di un vettore aleatorio, consideriamo la funzione combinazione lineare,
ovvero
n
X
Y =
ai Xi
i=1
dove le quantità ai sono delle costanti note.
Esempi:
i. se ai = 1, allora Y =
Pn
Xi ovvero Y è semplicemente la somma di n variabili aleatorie;
Pn
ii. se ai = 1/n, allora Y =
i=1 Xi /n, ovvero Y è la variabile aleatoria media, usualmente
denotata con il simbolo X̄ .
Luigi Augugliaro
i=1
(Dipartimento
98 / 124
di S
I teoremi che seguono consentono di determinare il valore atteso e la varianza di Y =
indipendentemente dalle assunzioni semplificatici.
Pn
i=1
ai X ,
Teorema
>
Sia
Pn X = (X1 , X2 , . . . , Xn ) un vettore aleatorio; il valore atteso della combinazione lineare Y =
a
X
è
uguale
alla
combinazione
lineare dei valori attesi, ovvero
i=1 i i
n
n
X
X
E (Y ) = E (
ai X i ) =
ai E (Xi ).
i=1
i=1
Corollario
Se i componenti del vettore aleatorio X sono identicamente distribuiti, ovvero le Xi hanno
distribuzione uguale ad una variabile aleatoria di riferimento denotata con X , allora
E (Y ) = E (X ) ×
n
X
ai .
i=1
Dimostrazione
P
Applicando il teorema precedente si ricava che E (Y ) = ni=1 ai E (Xi ); dato che il vettore aleatorio
è a componenti identicamente distribuiti si ricava che tutti i valore attesi delle variabili aleatorie
Xi sono uguali al valore atteso della variabile di riferimento X , ovvero E (Xi ) = E (X ), quindi
n
n
n
X
X
X
ai E (X ) = E (X ) ×
ai .
E (Y ) =
ai E (Xi ) =
Luigi Augugliaro
i=1
i=1
i=1
(Dipartimento
99 / 124
di S
Esercizio. Sia X = (X1 , X2 , . . . X5 ) un vettore aleatorio a componenti i.i.d. con
X ∼ P(λ). Determinare il valore atteso di Y = 2X1 + 3X2 + X3 + 5X4 − X5 .
Esercizio. Sia X = (X1 , X2 , . . . X5 ) un vettore aleatorio a componenti i.i.d. con
X ∼ Bin(n, π). Determinare il valore atteso di Y = −3X1 + 2X2 − 4X3 − 6X4 − X5 .
Esercizio. Sia X = (X1 , X2 , . . . X5 ) un vettore aleatorio a componenti i.i.d. con
X ∼ N(µ, σ 2 ). Determinare il valore atteso di Y = −X1 − X2 + 7X3 − 2X4 − 2X5 .
Luigi Augugliaro
(Dipartimento
100 / 124
di S
Il precedente teorema consente di ricavare una proprietà fondamentale della variabile
aleatoria X̄ quando il vettore aleatorio X è a componenti identicamente distribuiti.
Corollario
Sia X = (X1 , . . . , Xn ) un vettore aleatorio a componenti identicamente distribuiti.
Si dimostra che il valore atteso di X̄ è uguale al valore atteso della variabile aleatoria
di riferimento X , ovvero
E (X̄ ) = E (X ).
Dimostrazione
La dimostrazione si fonda sull’osservazione che X̄ può essere definita come una
combinazione lineare con pesi ai = 1/n. In questo caso, l’applicazione del corollario
precedente implica che
Luigi Augugliaro
E (X̄ ) = E (X ) ×
n
X
1
n
= E (X ) × = E (X ).
n
n
i=1
(Dipartimento
101 / 124
di S
Teorema
Sia X = (X1 , X2 , . . . , Xn )> un vettore aleatorio e si consideri la variabile aleatoria Y =
La varianza di Y è uguale alla seguente espressione
Pn
i=1
a i Xi .
n
n
n
n X
X
X
X
ai aj Cov (Xi , Xj ),
V (Y ) = V (
ai Xi ) =
ai2 V (Xi ) +
i=1
i=1 j=1
i=1
dove
Cov (Xi , Xj ) = E {[Xi − E (Xi )] × [Xj − E (Xj )]}
prende il come di covarianza.
Il teorema precedente può essere semplificato tramite l’utilizzo dell’ipotesi che il vettore aleatorio X
è a componenti stocasticamente indipendenti, poiché si dimostra che in questo caso la covarianza
è nulla, ovvero Cov (Xi , Xj ) = 0 se e solo se Xi e Xj sono stocasticamente indipendenti.
Corollario
Sia X = (X1 , X2 , . . . , Xn )> un vettore aleatorio a componenti stocasticamente indipendenti. La
varianza di Y è uguale alla seguente espressione
Luigi Augugliaro
V (Y ) = V (
n
X
i=1
ai X i ) =
n
X
ai2 V (Xi ).
i=1
(Dipartimento
102 / 124
di S
Corollario
Sia X = (X1 , X2 , . . . , Xn )> un vettore aleatorio a componenti i.i.d. La varianza di
Y è uguale alla seguente espressione
n
n
X
X
V (Y ) = V (
ai Xi ) = V (X ) ×
ai2 .
i=1
i=1
Osservazione
L’applicazione del corollario precedente permette di determinare la varianza della
variabile aleatoria X̄ quando il vettore aleatorio X è a componenti i.i.d., ovvero
V (X̄ ) = V (X ) ×
n
X
1
n
V (X )
= V (X ) × 2 =
.
n2
n
n
i=1
Il risultato pretendete ci dice che, se X è un vettore aleatoria a componenti i.i.d.,
allora la varianza di X̄ è uguale alla varianza della variabile aleatoria di riferimento
X diviso n.
Luigi Augugliaro
(Dipartimento
103 / 124
di S
Esercizio. Sia X = (X1 , X2 , . . . , X5 ) un vettore aleatorio a componenti i.i.d. con
X ∼ P(λ). Determinare la varianza di Y = 2X1 + 3X2 + X3 + 5X4 − X5 .
Esercizio. Sia X = (X1 , X2 , . . . , X5 ) un vettore aleatorio a componenti i.i.d. con
X ∼ Bin(n, π). Determinare la varianza di Y = −3X1 + 2X2 − 4X3 − 6X4 − X5 .
Esercizio. Sia X = (X1 , X2 , . . . , X5 ) un vettore aleatorio a componenti i.i.d. con
X ∼ N(µ, σ 2 ). Determinare il valore atteso di Y = −X1 − X2 + 7X3 − 2X4 − 2X5 .
Luigi Augugliaro
(Dipartimento
104 / 124
di S
Teorema
Sia X = (X1 , X2 , . . . , Xn )> un vettore aleatorio a componenti stocasticamente indipendenti e si indichi con mXi (t) la funzione generatrice dei momenti dell’i-esima
variabile aleatoria. Sotto ipotesi di stocastica indipendenza dei componenti del
vettore
Pnaleatorio X, la funzione generatrice dei momenti della variabile aleatoria
Y = i=1 Xi è definita nel seguente modo:
mY (t) =
n
Y
mXi (t),
i=1
ovvero, la funzione generatrice dei momenti della somma di variabili aleatorie stocasticamente indipendenti è definita come prodotto delle n funzioni generatrici dei
momenti.
Osservazione
Il risultato fornito dal precedente teorema consente di ricavare la cosiddetta proprietà
di riproducibilità per somma posseduta da alcune variabili aleatorie.
Luigi Augugliaro
(Dipartimento
105 / 124
di S
> un vettore aleatorio a componenti i.i.d. con X ∼ Ber (π).
Esercizio. Sia X = (X
1 , X2 , . . . , Xn )
P
Dimostrare che Y = ni=1 Xi si distribuisce secondo una binomiale di parametri N = n e π.
Soluzione
P
Per determinare la distribuzione della variabile aleatoria Y = ni=1 Xi utilizzeremo il metodo della
funzione generatrice dei momenti, ovvero determineremo la funzione generatrice dei momenti di
Y e dimostreremo che essa è uguale a quella di una binomiale di parametri N = n, e π:
m(t) = [πe t + (1 − π)]n .
Dato che per il vettore aleatorio X è a componenti stocasticamente indipendenti, l’applicazione
del teorema precedente ci permette di affermare che
mY (t) =
n
Y
mXi (t),
i=1
inoltre, dato che i componenti del vettore aleatorio X sono identicamente distribuiti si ricava che
mXi (t) = mX (t) = πe t + (1 − π),
ovvero, le funzioni generatrici dei momenti delle variabili Xi sono tutte uguali alla funzione
generatrice dei momenti di X . Combinando i precedenti risultati si ricava
mY (t) =
n
Y
i=1
mXi (t) =
n
Y
πe t + (1 − π) = [πe t + (1 − π)]n ,
i=1
dove l’ultimo termine dell’uguaglianza è esattamente la funzione generatrice dei momenti di una
variabile aleatoria binomiale di parametri N = n e π.
Luigi Augugliaro
(Dipartimento
106 / 124
di S
Esercizio 1. Sia X = (X1 , X2 , . . . , Xn )> un vettore P
aleatorio a componenti stocasticamente indipendenti con Xi ∼P
Bin(Ni , π). Dimostrare che Y = ni=1 Xi si distribuisce secondo una binomiale
di parametri N = ni=1 Ni e π.
Esercizio 2. Sia X =P
(X1 , X2 , . . . , Xn )> un vettore aleatorio a componenti i.i.d. con X ∼ P(λ).
Dimostrare che Y = ni=1 Xi si distribuisce secondo una Poisson di parametro λ = nλ.
Esercizio 3. Sia X = (X1 , X2 , . . . , Xn )> un vettore
a componenti stocasticamente indiPaleatorio
n
pendenti con XP
i ∼ P(λi ). Dimostrare che Y =
i=1 Xi si distribuisce secondo una Poisson di
parametro λ = ni=1 λi .
Esercizio 4. Sia X =P
(X1 , X2 , . . . , Xn )> un vettore aleatorio a componenti i.i.d. con X ∼ G (π).
Dimostrare che Y = ni=1 Xi si distribuisce secondo una Binomiale negativa di parametri r = n e
π.
Luigi Augugliaro
(Dipartimento
107 / 124
di S
Esercizio 5. Sia X = P
(X1 , X2 , . . . , Xn )> un vettore aleatorio a componenti i.i.d. con X ∼ Exp(λ).
Dimostrare che Y = ni=1 Xi si distribuisce secondo una Gamma di parametri r = n e λ.
Esercizio 6. Sia X = (X1 , X2 , . . . , Xn )> un vettorePaleatorio a componenti stocasticamente indin
pendenti con XP
i ∼ Γ(ri , λ). Dimostrare che Y =
i=1 Xi si distribuisce secondo una Gamma di
parametri r = ni=1 ri e λ.
Esercizio 7. Sia X =P(X1 , X2 , . . . , Xn )> un vettore aleatorio a componenti i.i.d. con Xi ∼ χ21 .
Dimostrare che Y = ni=1 Xi si distribuisce secondo una Chi-quadrato con n gradi di libertà.
Esercizio 8. Sia X = (X1 , X2 , . . . , Xn )> un vettore
Pn aleatorio a componenti stocasticamente indipendenti con Xi ∼ χ2k . Dimostrare che Y =
i=1 Xi si distribuisce secondo una Chi-quadrato
i
P
con gradi di libertà uguali a ni=1 ki .
Osservazione
La soluzione dell’esercizio 7 consente di definire la variabile aleatoria Chi-quadrato con k gradi di
libertà in due modi distinti:
1 la variabile aleatoria Chi-quadrato con k gradi di libertà è una Gamma di parametri r = k/2
e λ = 1/2.
2 la variabile aleatoria Chi-quadrato con k gradi di libertà è la somma di k variabili aleatorie
stocasticamente indipendenti distribuite secondo una Chi-quadrato con un grado di libertà.
Luigi Augugliaro
(Dipartimento
108 / 124
di S
> un vettore aleatorio a componenti i.i.d. con Z ∼ N(0, 1).
Esercizio 9. Sia Z = (Z
1 , Z 2 , . . . , Zn )
P
n
2
Dimostrare che Y =
i=1 Zi si distribuisce secondo una Chi-quadrato con n gradi di libertà
uguali.
Osservazione
La soluzione dell’esercizio 9 consente di ricavare una terza definizione della variabile aleatoria
Chi-quadrato con k gradi di libertà:
3 la variabile aleatoria Chi-quadrato con k gradi di libertà è la somma del quadrato di k normali
standardizzate stocasticamente indipendenti.
Soluzione
Se denotiamo con Xi la variabile aleatoria Zi2 si ricava che
n
n
X
X
Y =
Zi2 =
Xi
i=1
i=1
ovvero, Y può essere definita come somma delle n variabili aleatorie Xi le quali sono stocasticamente indipendenti dato che sono una trasformata delle Zi . In precedente abbiamo visto che il
quadrato di una normale standardizzata si distribuisce secondo una Chi-quadrato con un grado di
libertà, quindi dalla definizione
n
X
Y =
Xi
i=1
si ricava che Y è definita come somma di n variabili aleatorie stocasticamente indipendenti distribuite secondo una
P Chi-Quadrato con un grado di libertà, quindi, dalla soluzione dell’esercizio 8 si
ricava che Y = ni=1 Zi2 ∼ χ2n .
Luigi Augugliaro
(Dipartimento
109 / 124
di S
Esercizio 10. Sia X = (X1 , X2 , . . . , Xn )> un vettore aleatorio a componenti stocasticamente
indipendenti con Xi ∼ N(µi , σi2 ). Dimostrare che
Y =
n X
Xi − µi 2
σi
i=1
si distribuisce secondo una Chi-quadrato con n gradi di libertà uguali.
Luigi Augugliaro
(Dipartimento
110 / 124
di S
Teorema
Sia X = (X1 , X2 , . . . , Xn )> un vettore aleatorio a componenti
Pn stocasticamente indipendenti con Xi ∼ N(µi , σi2 ). La variabile aleatoria Y = i=1 ai Xi , dove
P ai sono
delle costanti
note,
si
distribuisce
secondo
una
normale
di
parametri
µ
=
i=1 ai µi
Pn
e σ 2 = i=1 ai2 σi2 . In altri termini
n
X
n
X
X
ai Xi ∼ N(
ai µi ,
ai2 σi2 ).
i=1
i=1
i=1
Dimostrazione
Per dimostrare il precedente teorema utilizzeremo il metodo della funzione generatrice dei momenti, ovvero determineremo la funzione generatrice dei momenti
di Y
Pn
e dimostreremo
che
è
uguale
a
quella
di
una
normale
di
parametri
µ
=
a
i=1 i µi e
Pn
σ 2 = i=1 ai2 σi2 , ovvero
(
)
n
X
1 X 2 2 2
m(t) = exp (
ai µi )t + (
ai σi )t .
2
Luigi Augugliaro
i=1
i=1
(Dipartimento
111 / 124
di S
Per dimostrare il teorema denotiamo con Xi0 = ai Xi , quindi
Y =
n
X
ai X i =
i=1
n
X
Xi0
i=1
ovvero Y può essere vista come somma delle n variabile aleatorie Xi0 , le quali sono stocasticamente indipendenti (conseguenza del fatto che le Xi sono stocasticamente indipendenti). Data la
stocastica indipendenza delle variabili aleatorie Xi0 , la funzione generatrice dei momenti di Y è il
prodotto delle singole funzioni generatrici dei momenti, ovvero
mY (t) =
n
Y
mX 0 (t).
i
i=1
Per determinare mX 0 (t) utilizziamo la definizione di funzione generatrice dei momenti, ovvero
i
0 mX 0 (t) = E e Xi t = E e ai Xi t = E e Xi (ai t)
i
Ponendo ti = ai t, la pretendete espressione può essere scritta nel seguente modo
mX 0 (t) = E e Xi ti = mXi (ti ).
i
ovvero la funzione generatrice dei momenti di Xi0 , valutata nel punto t, coincide con la funzione
generatrice dei momenti di Xi , valutata nel punto ti .
Luigi Augugliaro
(Dipartimento
112 / 124
di S
Dato che Xi ∼ N(µi , σi2 ) si ricava che
1
1
1
mX 0 (t) = mXi (ti ) = exp µi ti + σi2 ti2 = exp µi ai t + σi2 ai2 t 2 = exp (ai µi )t + (ai2 σi2 )t 2
i
2
2
2
ovvero, Xi0 = ai Xi ∼ N(ai µi , ai2 σi2 ). Utilizzando il risultato precedente si ricava che
mY (t)
=
=
n
Y
n
Y
1
exp (ai µi )t + (ai2 σi2 )t 2 =
i
2
i=1
i=1










( n
)


n
n


X
X
X
1 2 2 2
1
2 2 2
exp
[(ai µi )t + (ai σi )t ] = exp (
ai µi )t + (
ai σi )t ] =


2
2 i=1


i=1
 i=1





| {z }

 | {z }
mX 0 (t) =
µ
=
σ2
1
exp µt + σ 2 t 2
2
ovvero, dall’applicazione del metodo della funzione generatrice dei momenti si ricava che
!
n
n
X
X
X
ai Xi ∼ N
a i µi ,
ai2 σi2 .
Luigi Augugliaro
i=1
i=1
i=1
(Dipartimento
113 / 124
di S
Corollario
Sia X = (X1 , X2 , . . . , Xn )> un vettore
Pn aleatorio a componenti i.i.d con X ∼
N(µ, σ 2 ). La variabile aleatoria X̄ = i=1 Xi /n si distribuisce secondo una normale
con valore atteso µ e varianza σ 2 /n; in altri termini
σ2
.
X̄ ∼ N µ,
n
Dimostrazione
Il precedente risultato è ottenuto osservando che X̄ è una combinazione delle n
variabili aleatorie Xi con pesi ai = 1/n, quindi, dal precedente teorema si ricava che
!
n
n
X
µ X σ2
X̄ ∼ N
,
n
n2
i=1
i=1
σ2
∼ N µ,
n
Luigi Augugliaro
(Dipartimento
114 / 124
di S
Negli appunti precedenti abbiamo visto le principali proprietà della variabile aleatoria
media aritmetica campionaria, ovvero:
a) indipendentemente dall’assunzione distributiva, se il vettore X è ha componenti
indipendenti e identicamente distribuiti:
i. E (X̄ ) = E (X ) = µ
2
)
ii. V (X̄ ) = V (X
= σn
n
b) se inoltre si assume che X ∼ N(µ, σ 2 )
iii. X̄ ∼ N µ,
σ2
n
Le precedenti proprietà mostrano che la quantità X̄ è una delle principali statistiche
mediante la quale fare inferenza sul parametro µ.
All’interno della strumentazione statistica utilizzata per fare inferenza sul parametro
V (X ) = σ 2 , un ruolo centrale è svolto dalla variabile aleatoria (statistica) varianza
campionaria corretta, definita nel seguente modo
Pn
(Xi − X̄ )2
S 2 = i=1
n−1
I teoremi che seguono sono finalizzati alla determinazione delle principali proprietà
della variabile aleatoria S 2 .
Luigi Augugliaro
(Dipartimento
115 / 124
di S
Teorema
Sia X = (X1 , X2 , . . . , Xn )> un vettore a componenti stocasticamente indipendenti e identicamente
distribuiti e si indichi con X̄ la media aritmetica campionaria. Sotto le precedenti ipotesi, si
dimostra che
E (S 2 ) = σ 2
Dimostrazione
Data l’ipotesi di identica distribuzione, possiamo introdurre la seguente notazione
E [(Xi − µ)2 ] = V (Xi ) = σ 2 ,
E (Xi ) = µ,
E [(X̄ − µ)2 ] = V (X̄ ) =
σ2
.
n
Alfine di dimostrare che E (S 2 ) = σ 2 , osserviamo che il numeratore di S 2 può essere espresso nel
seguente modo:
n
X
(Xi − X̄ )2
=
i=1
Luigi Augugliaro
=
n
X
i=1
n
X
i=1
[(Xi − µ) + (µ − X̄ )]2 =
n
X
[(Xi − µ)2 + (µ − X̄ )2 + 2(Xi − µ)(µ − X̄ )] =
i=1
n
X
(Xi − µ)2 + n(X̄ − µ)2 + 2(µ − X̄ )(
Xi − nµ)
i=1
(Dipartimento
116 / 124
di S
Osservando che
Luigi Augugliaro
n
X
Pn
i=1
Xi = nX̄ , la precedente uguaglianza può essere scritta come
(Xi − X̄ )2
=
i=1
=
n
X
i=1
n
X
i=1
(Xi − µ)2 + n(X̄ − µ)2 + 2(µ − X̄ )(
n
X
Xi − nµ)
i=1
(Xi − µ)2 + n(X̄ − µ)2 − 2(X̄ − µ) (nX̄ − nµ) =
| {z }
=n(X̄ −µ)
=
=
n
X
i=1
n
X
(Xi − µ)2 + n(X̄ − µ)2 − 2n(X̄ − µ)2 =
(Xi − µ)2 − n(X̄ − µ)2 .
i=1
(Dipartimento
117 / 124
di S
Utilizzando la precedente identità si ricava che
Pn
Pn
Pn
2
2
2
2
n(X̄ − µ)2
i=1 (Xi − µ) − n(X̄ − µ)
i=1 (Xi − µ)
i=1 (Xi − X̄ )
=
=
−
.
S2 =
n−1
n−1
n−1
n−1
quindi
E (S 2 )
Pn
=
=
Pn
2
− µ)2
n(X̄ − µ)2
n(X̄ − µ)2
i=1 (Xi − µ)
−
=E
−E
=
n−1
n−1
n−1
n−1
n
n
n
1 X
1 X
n
E (Xi − µ)2 −
E [(X̄ − µ)2 ] =
V (Xi ) −
V (X̄ ) =
n − 1 i=1 |
n − 1 i=1 | {z } n − 1 | {z }
{z
} n−1 |
{z
}
E
i=1 (Xi
V (Xi )
=
n
1
σ2 −
σ2 =
n−1
n−1
σ2
V (X̄ )
n
1
−
n−1
n−1
σ2 =
σ 2 /n
n−1 2
σ = σ2 .
n−1
Osservazioni
Il precedente risultato ci permette di affermare che, data l’ipotesi di indipendenza ed identica
distribuzione del vettore aleatorio X, il valore atteso di S 2 è sempre uguale alla varianza della
variabile aleatoria X , utilizzata per modellare la popolazione di riferimento.
Luigi Augugliaro
(Dipartimento
118 / 124
di S
Il precedente risultato, relativo al valore atteso della variabile aleatoria S 2 , può
essere rafforzato quando si aggiunge l’ulteriore assunzione che X ∼ N̄(µ, σ 2 ). Il
seguente teorema si fonda sulla seguente identità
Pn
Pn
2
2
σ2
2
i=1 (Xi − X̄ )
i=1 (Xi − X̄ )
S =
=
,
n−1
n−1
σ2
la quale mostra che S 2 può essere espressa come prodotto di una costante, ovvero
il rapporto σ 2 /(n − 1), e la nuova variabile aleatoria
Pn
(Xi − X̄ )2
Y = i=1 2
σ
conseguentemente la distribuzione di S 2 è determinata dalla distribuzione di Y .
Luigi Augugliaro
(Dipartimento
119 / 124
di S
Teorema
Sia X = (X1 , X2 , . . . , Xn )> un vettore a componenti stocasticamente indipendenti e identicamente
distribuiti ed inoltre X ∼ N(µ, σ 2 ). Sotto le precedenti ipotesi, si dimostra che
Pn
2
i=1 (Xi − X̄ )
Y =
∼ χ2n−1 .
2
σ
Dimostrazione La dimostrazione si fonda sull’identità ottenuta in precedenza, ovvero:
n
X
i=1
(Xi − X̄ )2 =
n
X
(Xi − µ)2 − n(X̄ − µ)2 ,
i=1
da cui discende che la variabile aleatoria Y può essere definita nel seguente modo:
Pn
2
n(X̄ − µ)2
i=1 (Xi − µ)
−
,
Y =
2
σ
σ2
|
{z
} |
{z
}
V
W
in altri termini, la variabile
Pn aleatoria 2Y è2 definita come differenza di due variabile aleatori, ovvero
la variabile aleatoria
i=1 (Xi − µ) /σ (denotata nel seguito con V ) e la variabile aleatoria
n(X̄ − µ)2 /σ 2 (denotata nel seguito con W ).
Luigi Augugliaro
(Dipartimento
120 / 124
di S
Utilizzando la notazione precedentemente introdotta, la variabile aleatoria Y può essere definita
nel seguente modo:
Y =V −W
dalla quale si ricava che
V = Y + W.
Applicando del metodo della funzione generatrice dei momenti si ricava che
mV (t) = mY (t) × mW (t),
dove mV (t), ×mW (t) e ×my (t) so la funzione generatrice dei momenti di V , W e Y , rispettivamente. Dalla precedente identità si ricava che
mY (t) =
mV (t)
,
mW (t)
ovvero, per determinare la funzione generatrice dei momenti di Y è necessario determinare la
funzione generatrice dei momenti di V e W .
Luigi Augugliaro
(Dipartimento
121 / 124
di S
Consideriamo la variabile aleatoria V e notiamo che può essere definita nel seguente modo
Pn
n n
2
X
Xi − µ 2 X 2
i=1 (Xi − µ)
=
=
Zi ,
V =
2
σ
σ
i=1
i=1
dove Zi = (Xi − µ)/σ. Data l’ipotesi che Xi ∼ N(µ, σ 2 ), si ricava che Zi ∼ N(0, 1) e quindi Zi2
è distribuita come una Chi-quadrato con un grado di libertà (Zi2 ∼ chi12 ). Poiché gli elementi del
vettore aleatorio X sono stocasticamente indipendenti, si deduce che V è definita come somma
di n variabili aleatorie stocasticamente indipendenti distribuite secondo una Chi-quadrato con un
grado di libertà, quindi V è distribuita secondo una Chi-Quadrato con n gradi di libertà e la sua
funzione generatrice dei momenti è la seguente
n
2
1/2
mV (t) =
.
1/2 − t
Luigi Augugliaro
(Dipartimento
122 / 124
di S
Consideriamo la variabile aleatoria W e notiamo che può essere definita nel seguente modo

2
W =
n(X̄ − µ)2
(X̄ − µ)2
 X̄ − µ 
2
=q
=
 =Z ,
σ2
σ2
σ2
n
n
p
dove Z = (X̄ − µ)/ σ 2 /n. Data l’ipotesi che Xi ∼ N(µ, σ 2 ), si ricava che
σ2
X̄ ∼ N µ,
n
quindi la variabile aleatoria Z ∼ N(0, 1) e, conseguentemente, W è distribuita secondo una
Chi-quadrato con un grado di libertà e la sua funzione generatrice dei momenti è la seguente
mW (t) =
1/2
1/2 − t
1
2
.
Applicando i risultati precedente si ricava che
n
2
1/2
n−1
n−1
2
2
2
1/2
1/2
1/2−t
mY (t) = =
=
,
1
1/2 − t
1/2 − t
2
1/2
1/2−t
ovvero, la funzione generatrice dei momenti di Y coincide con la funzione generatrice dei momenti
di una Chi-quadrato con n − 1 gradi di libertà.
Luigi Augugliaro
(Dipartimento
123 / 124
di S
Il risultato precedente consente di determinare, oltre al valore atteso, la varianza
della variabile aleatoria S 2 , quando X è un campione a componenti i.i.d. con
X ∼ N(µ, σ 2 ), poiché
Pn
2
σ2
σ2
i=1 (Xi − X̄ )
S2 =
Y,
=
2
n−1
σ
n−1
dove Y ∼ χ2n−1 . Utilizzando il risultato precedente si ricava
σ2
σ2
σ2
Y =
E (Y ) =
× (n − 1) = σ 2
n−1
n−1
n−1
2
σ
σ4
σ4
2
V (S ) = V
Y =
V
(Y
)
=
× 2(n − 1) =
n−1
(n − 1)2
(n − 1)2
2σ 4
=
n−1
E (S 2 )
Luigi Augugliaro
= E
(Dipartimento
124 / 124
di S