Indipendenza Indipendenza probabilistica o stocastica A

Transcript

Indipendenza Indipendenza probabilistica o stocastica A
Indipendenza
Indipendenza probabilistica o stocastica
A indipendente da B se P (A | B) = P (A)
A indipendente da B ⇒ B indip. da A:
P (B | A) = P (A∩B)/P (A) = P (A | B)P (B)/P (A)
= P (A)P (B)/P (A) = P (B)
Caratterizzazione:
P (A ∩ B) = P (A | B)P (B) = P (A)P (B)
Se A e B indipendenti
⇒ A e B̄, Ā e B, Ā e B̄ indipendenti
P (A) = P (A ∩ B) + P (A ∩ B̄)
= P (A)P (B) + P (A ∩ B̄)
⇒ P (A ∩ B̄) = P (A) − P (A)P (B)
¯
= P (A)(1 − P (B)) = P (A)P (B)
L’indipendenza non è una proprietà strutturale
degli eventi, dipende dalle probabilità assegnate
41
3 eventi: non basta richiedere
P (A1 ∩ A2 ∩ A3) = P (A1)P (A2)P (A3) !
deve essere anche
P (A1 ∩ A2) = P (A1)P (A2)
P (A1 ∩ A3) = P (A1)P (A3)
P (A2 ∩ A3) = P (A2)P (A3)
In generale:
Eventi An in numero finito o infinito si dicono
indipendenti se comunque si prendano k tra
essi Aj1 , Aj2 , . . . , Ajk si ha che
P (Aj1 ∩Aj2 ∩· · ·∩Ajk ) = P (Aj1 )P (Aj2 ) · · · P (Ajk )
Se A1, A2, . . . An indipendenti
• A∗1, A∗2, . . . , A∗n indip. per A∗i = Ai oppure
A∗i = Āi
• P (A1 ∩ A2 ∩ . . . ∩ An)
= P (A1 ∩ . . . ∩ Ar )P (Ar+1 ∩ . . . ∩ An)
42
Es.: si lanciano indipendentemente 3 monete
regolari.
Si hanno 23 = 8 possibili risultati:
TTT, TTC, TCT, CTT, TCC, CTC, CCT,
CCC
Siano
A1 =“almeno 2 T ”
A2 =“un numero pari di T ”
A3 =“C sulla prima moneta”
P (A1) = P (A2) = P (A3) = 1/2
A1 ∩ A2 ∩ A3 =“CT T ” ⇒
P (A1 ∩ A2 ∩ A3) = 1/8 = P (A1)P (A2)P (A3)
P (A1 ∩ A2) = P (T T C, T CT, CT T )
= 3/8 6= P (A1)P (A2) = 1/4
I tre eventi non sono indipendenti.
43
Es.: si considerino 2 urne. La prima contiene
3 palline (B, R, N), la seconda contiene 4
palline (B, R, N, G).
Sia
B1 =“estratta pallina B dalla prima urna”
e analogamente per gli altri eventi
P (B1) = P (R1) = P (N1) = 1/3
P (B2) = P (R2) = P (N2) = P (G) = 1/4
Siano
E1 = B1 ∪ R1 e H1 = B1 ∪ N1
E1 ed H1 sono indipendenti?
P (E1) = P (B1) + P (R1) = 2/3;
P (H1) = P (B1) + P (N1) = 2/3
⇒ P (E1)P (H1) = 4/9
P (E1 ∩ H1) = P (B1) = 1/3 6= 4/9
E1 ed H1 non sono indipendenti. Ovvio perché
E1 ed H1 contengono entrambi B1? No!!
44
Siano
E2 = B2 ∪ R2 e H2 = B2 ∪ N2
E2 ed H2 contengono entrambi B2.
indipendenti?
Sono
P (E2) = 1/2; P (H2) = 1/2
⇒ P (E2)P (H2) = 1/4
P (E2 ∩ H2) = P (B2) = 1/4 = P (E2)P (H2)
E2 ed H2 sono indipendenti.
Conferma che l’indipendenza stocastica non
è una proprietà inerente solo al concetto di
evento.
Consideriamo l’evento A2 = B2 ∪ G.
A2, E2 ed H2 sono indipendenti?
P (A2) = 1/2 = P (E2) = P (H2)
P (E2 ∩ A2) = P (B2) = 1/4 = P (E2)P (A2)
P (H2 ∩ A2) = P (B2) = 1/4 = P (H2)P (A2)
P (E2 ∩ A2 ∩ H2) = P (B2) = 1/4 6= 1/8 =
P (E2)P (H2)P (A2)
A2, E2 ed H2 non sono indipendenti
45
Legge delle alternative
Sequenza di eventi A1, A2, ..., An, incompatibili e necessari. Sia E un evento che non
appartiene alla sequenza. Allora si può scrivere
E = (E ∩ A1) ∪ (E ∩ A2) ∪ ... ∪ (E ∩ An)
P (E) =
n
X
P (E ∩ Ai) =
i=1
n
X
P (E | Ai)P (Ai)
i=1
La formula di Bayes
E evento, {An} famiglia finita o numerabile di
eventi incompatibili, E ⊂ ∪nAn e P (E) 6= 0.
Allora
P (E | An)P (An)
P (An | E) = P
j P (E | Aj )P (Aj )
Si ottiene subito da
P (An ∩ E)
P (E | An)P (An)
P (An | E) =
=
P (E)
P (E)
e dalla legge delle alternative
46
La formula dice come si modifica l’incertezza
sui singoli eventi An, una volta osservato l’evento E il cui verificarsi implica il verificarsi
di almeno uno degli An.
P (An) probabilità a priori
P (An | E) probabilità a posteriori
P (E | An) verosimiglianza
Caso particolare: An anche necessari ⇒ ogni
evento ⊂ ∪nAn.
Se si considerano solo due alternative
P (B | A)P (A)
P (A | B) =
P (B | A)P (A) + P (B | Ā)P (Ā)
47
Es.: 10 monete, 9 normali e una truccata
(con 2 T). Si estrae una moneta a caso e,
senza guardarla, si lancia 6 volte, ottenendo
6 T. Qual è la probabilità che la moneta estratta sia quella truccata?
Sia
E = “si ottengono 6 T”
H = “la moneta estratta è truccata”
P (H) = 1/10 prima del lancio
P (E | H)P (H)
P (H | E) =
P (E | H)P (H) + P (E | H̄)P (H̄)
=
64
1 · 1/10
=
' 0.877
6
1 · 1/10 + 1/2 · 9/10
73
con la nuova informazione si è modificata la
probabilità che la moneta estratta sia quella
truccata
Se si lanciasse ancora la moneta si potrebbe
considerare la probabilità a posteriori come
probabilità a priori nel nuovo esperimento
48
Es.: Paolo divide gli amici che non gli scrivono
da oltre un anno in 2 categorie: quelli molto
indaffarati e quelli deceduti. Siano
E =“Luca non scrive a Paolo da oltre 1 anno”
H1 =“Luca è molto indaffarato da oltre 1
anno”
H2 =“Luca è deceduto da oltre 1 anno”
Sia α = P (E | H1) con α < 1 (ritenendo positiva la probabilità che uno molto indaffarato
trovi il tempo per scrivere)
P (E | H2) = 1 ⇒ dovremmo concludere che
Luca è deceduto perché questa ipotesi rende
più verosimile l’evento E?
P (H1 | E) =
P (E | H1)P (H1)
P (E | H1)P (H1) + P (E | H2)P (H2)
=
αP (H1)
αP (H1) + P (H2)
Allo stesso modo
P (H2)
P (H2 | E) =
αP (H1) + P (H2)
49
P (H1 | E) > P (H2 | E) ⇔ αP (H1) > P (H2)
La disuguaglianza è tanto più facilmente verificata quanto più è alta la probabilità a priori
di H1 rispetto a quella di H2.
Es.: M malattia che può provocare sintomo
S; medico osserva S e vuole valutare
P (M | S) =
P (S | M )P (M )
P (S | M )P (M ) + P (S | M̄ )P (M̄ )
P (M ) incidenza della malattia sulla popolazione
P (S | M ) probabilità che la malattia dia il
sintomo
P (S | M̄ ) probabilità che il sintomo sia dovuto
ad altre cause
50