Indipendenza Indipendenza probabilistica o stocastica A
Transcript
Indipendenza Indipendenza probabilistica o stocastica A
Indipendenza Indipendenza probabilistica o stocastica A indipendente da B se P (A | B) = P (A) A indipendente da B ⇒ B indip. da A: P (B | A) = P (A∩B)/P (A) = P (A | B)P (B)/P (A) = P (A)P (B)/P (A) = P (B) Caratterizzazione: P (A ∩ B) = P (A | B)P (B) = P (A)P (B) Se A e B indipendenti ⇒ A e B̄, Ā e B, Ā e B̄ indipendenti P (A) = P (A ∩ B) + P (A ∩ B̄) = P (A)P (B) + P (A ∩ B̄) ⇒ P (A ∩ B̄) = P (A) − P (A)P (B) ¯ = P (A)(1 − P (B)) = P (A)P (B) L’indipendenza non è una proprietà strutturale degli eventi, dipende dalle probabilità assegnate 41 3 eventi: non basta richiedere P (A1 ∩ A2 ∩ A3) = P (A1)P (A2)P (A3) ! deve essere anche P (A1 ∩ A2) = P (A1)P (A2) P (A1 ∩ A3) = P (A1)P (A3) P (A2 ∩ A3) = P (A2)P (A3) In generale: Eventi An in numero finito o infinito si dicono indipendenti se comunque si prendano k tra essi Aj1 , Aj2 , . . . , Ajk si ha che P (Aj1 ∩Aj2 ∩· · ·∩Ajk ) = P (Aj1 )P (Aj2 ) · · · P (Ajk ) Se A1, A2, . . . An indipendenti • A∗1, A∗2, . . . , A∗n indip. per A∗i = Ai oppure A∗i = Āi • P (A1 ∩ A2 ∩ . . . ∩ An) = P (A1 ∩ . . . ∩ Ar )P (Ar+1 ∩ . . . ∩ An) 42 Es.: si lanciano indipendentemente 3 monete regolari. Si hanno 23 = 8 possibili risultati: TTT, TTC, TCT, CTT, TCC, CTC, CCT, CCC Siano A1 =“almeno 2 T ” A2 =“un numero pari di T ” A3 =“C sulla prima moneta” P (A1) = P (A2) = P (A3) = 1/2 A1 ∩ A2 ∩ A3 =“CT T ” ⇒ P (A1 ∩ A2 ∩ A3) = 1/8 = P (A1)P (A2)P (A3) P (A1 ∩ A2) = P (T T C, T CT, CT T ) = 3/8 6= P (A1)P (A2) = 1/4 I tre eventi non sono indipendenti. 43 Es.: si considerino 2 urne. La prima contiene 3 palline (B, R, N), la seconda contiene 4 palline (B, R, N, G). Sia B1 =“estratta pallina B dalla prima urna” e analogamente per gli altri eventi P (B1) = P (R1) = P (N1) = 1/3 P (B2) = P (R2) = P (N2) = P (G) = 1/4 Siano E1 = B1 ∪ R1 e H1 = B1 ∪ N1 E1 ed H1 sono indipendenti? P (E1) = P (B1) + P (R1) = 2/3; P (H1) = P (B1) + P (N1) = 2/3 ⇒ P (E1)P (H1) = 4/9 P (E1 ∩ H1) = P (B1) = 1/3 6= 4/9 E1 ed H1 non sono indipendenti. Ovvio perché E1 ed H1 contengono entrambi B1? No!! 44 Siano E2 = B2 ∪ R2 e H2 = B2 ∪ N2 E2 ed H2 contengono entrambi B2. indipendenti? Sono P (E2) = 1/2; P (H2) = 1/2 ⇒ P (E2)P (H2) = 1/4 P (E2 ∩ H2) = P (B2) = 1/4 = P (E2)P (H2) E2 ed H2 sono indipendenti. Conferma che l’indipendenza stocastica non è una proprietà inerente solo al concetto di evento. Consideriamo l’evento A2 = B2 ∪ G. A2, E2 ed H2 sono indipendenti? P (A2) = 1/2 = P (E2) = P (H2) P (E2 ∩ A2) = P (B2) = 1/4 = P (E2)P (A2) P (H2 ∩ A2) = P (B2) = 1/4 = P (H2)P (A2) P (E2 ∩ A2 ∩ H2) = P (B2) = 1/4 6= 1/8 = P (E2)P (H2)P (A2) A2, E2 ed H2 non sono indipendenti 45 Legge delle alternative Sequenza di eventi A1, A2, ..., An, incompatibili e necessari. Sia E un evento che non appartiene alla sequenza. Allora si può scrivere E = (E ∩ A1) ∪ (E ∩ A2) ∪ ... ∪ (E ∩ An) P (E) = n X P (E ∩ Ai) = i=1 n X P (E | Ai)P (Ai) i=1 La formula di Bayes E evento, {An} famiglia finita o numerabile di eventi incompatibili, E ⊂ ∪nAn e P (E) 6= 0. Allora P (E | An)P (An) P (An | E) = P j P (E | Aj )P (Aj ) Si ottiene subito da P (An ∩ E) P (E | An)P (An) P (An | E) = = P (E) P (E) e dalla legge delle alternative 46 La formula dice come si modifica l’incertezza sui singoli eventi An, una volta osservato l’evento E il cui verificarsi implica il verificarsi di almeno uno degli An. P (An) probabilità a priori P (An | E) probabilità a posteriori P (E | An) verosimiglianza Caso particolare: An anche necessari ⇒ ogni evento ⊂ ∪nAn. Se si considerano solo due alternative P (B | A)P (A) P (A | B) = P (B | A)P (A) + P (B | Ā)P (Ā) 47 Es.: 10 monete, 9 normali e una truccata (con 2 T). Si estrae una moneta a caso e, senza guardarla, si lancia 6 volte, ottenendo 6 T. Qual è la probabilità che la moneta estratta sia quella truccata? Sia E = “si ottengono 6 T” H = “la moneta estratta è truccata” P (H) = 1/10 prima del lancio P (E | H)P (H) P (H | E) = P (E | H)P (H) + P (E | H̄)P (H̄) = 64 1 · 1/10 = ' 0.877 6 1 · 1/10 + 1/2 · 9/10 73 con la nuova informazione si è modificata la probabilità che la moneta estratta sia quella truccata Se si lanciasse ancora la moneta si potrebbe considerare la probabilità a posteriori come probabilità a priori nel nuovo esperimento 48 Es.: Paolo divide gli amici che non gli scrivono da oltre un anno in 2 categorie: quelli molto indaffarati e quelli deceduti. Siano E =“Luca non scrive a Paolo da oltre 1 anno” H1 =“Luca è molto indaffarato da oltre 1 anno” H2 =“Luca è deceduto da oltre 1 anno” Sia α = P (E | H1) con α < 1 (ritenendo positiva la probabilità che uno molto indaffarato trovi il tempo per scrivere) P (E | H2) = 1 ⇒ dovremmo concludere che Luca è deceduto perché questa ipotesi rende più verosimile l’evento E? P (H1 | E) = P (E | H1)P (H1) P (E | H1)P (H1) + P (E | H2)P (H2) = αP (H1) αP (H1) + P (H2) Allo stesso modo P (H2) P (H2 | E) = αP (H1) + P (H2) 49 P (H1 | E) > P (H2 | E) ⇔ αP (H1) > P (H2) La disuguaglianza è tanto più facilmente verificata quanto più è alta la probabilità a priori di H1 rispetto a quella di H2. Es.: M malattia che può provocare sintomo S; medico osserva S e vuole valutare P (M | S) = P (S | M )P (M ) P (S | M )P (M ) + P (S | M̄ )P (M̄ ) P (M ) incidenza della malattia sulla popolazione P (S | M ) probabilità che la malattia dia il sintomo P (S | M̄ ) probabilità che il sintomo sia dovuto ad altre cause 50