note PDF - Università degli Studi di Milano
Transcript
note PDF - Università degli Studi di Milano
1 Calcolo delle probabilità Lo studio delle leggi del caso va sotto il nome di calcolo delle probabilità. Ci fu un vigoroso sviluppo di questa disciplina a cavallo tra il cinquecento e il seicento e lo scopo, non fu certo quello nobile di porre le basi per una nuova branca della disciplina ma piuttosto riuscire a calcolare un giusto valore per le scommesse nei giochi d’azzardo! Non a caso il termine aleatorio è sinonimo di casualità e aleas era identificato con il gioco dei dadi (più che dai dadi stessi) sin dall’antichità. All’inizio del 1600 un tale Chevalier De Mere, si trovò di fronte al seguente quesito: supponiamo di disporre di dadi non truccati: è più facile realizzare un 6 su quattro lanci consecutivi oppure un doppio 6 in 24 lanci? Tentiamo di risolvere il problema à la De Mere. Se il dado non è truccato, si può assumere che su 6 lanci ogni faccia esca una sola volta, cioè possiamo dire che le possiblità di avere un 6 sono 1 su 6. Se lanciamo 4 volte il dado, queste possibilità dovrebbero essere 4*1/6 = 2/3. Se lanciamo due dadi possiamo avere 36 risultati possibili, cioè tutti gli accoppiamenti tra i valori di una faccia di un dado (che sono 6) e i valori della faccia dell’altro dado (che sono sempre 6), quindi 6*6 = 36. Sui 36 risultati possibili solo uno sarà un doppio sei, quindi la possibilità di fare un doppio 6 ad ogni lancio la possiamo porre uguale a 1/36. Se effettuiamo 24 lanci, la possibilità diventa 24*1/36 = 24/36 = 2/3. Cosı̀ ragionando quindi la risposta è che i due giochi di dadi ci danno le stesse probabilità di vittoria. Questo fu in effetti il ragionamento errato di De Mere e che fosse errato se ne accorse anche il suo portafogli. De Mere, accanito giocatore, si accorse infatti che uno dei due giochi era molto meno favorevole dell’altro. Il sospetto di aver fatto degli errori nei conti lo indusse a scrivere a Pierre De Fermat il quale, in una serie di scambi epistolari con Blaise Pascal, giunse alla soluzione: il doppio 6 su 24 lanci è un evento più difficile a realizzarsi di un singolo 6 su 4 lanci. La soluzione la vedremo più avanti! Abbiamo usato nella discussione i termini probabilità ed evento senza averli definiti ma, l’intuizione comune, dovrebbe lasciar intedere di cosa si tratta. Si può dire che gli eventi sono le entità per i quali è possibile calcolare le probabilità. Un evento contiene in se l’idea di aleatorietà, cioè l’evento è un qualcosa che può verificarsi o meno: passerò l’esame di statistica al primo appello? La risposta nella maggior parte dei casi dovrebbe essere si!, ma che c 2002-2003 S.M.Iacus 1 fiducia riponiamo nel verificarsi di tale evento? Ecco, possiamo associare alla fiducia del realizzarsi di un evento la sua probabilità. Pensiamo all’evento: E = “lo studente X passerà l’esame di statistica al primo appello”. Lo studente X assegnerà all’evento E una probabilità sulla base delle sue conoscenze individuali, su come sta seguendo e studiando la materia e sull’idea che si è fatto dell’esame. I vicini di banco e conoscenti di X assegneranno una probabilità diversa ad E per il fatto che hanno una conoscenza parziale di X e possono avere di lui un’opinione a priori basata sui risultati conseguiti in altre discipline. Gli altri studenti che sono in classe con X ma non conoscono direttamente X e probabilmente non hanno neanche un’opinione su X assegneranno un’altro valore a P (E), cioè probabilità di E. Il docente del corso, assegnerà ancora un altro valore (per inciso, questo valore in genere è sempre il più elevato... almeno fino alla correzione della prova d’esame). Su come sia possibile assegnare correttamente la probabilità al verificarsi di eventi si è dibattuto per circa 3 secoli (dal 1600 al 1930) e per risolvere il problema si è spostata l’attenzione su un altro aspetto della questione: supponiamo che io abbia definito un metodo qualsiasi per assegnare la probabilità ad un certo insieme di eventi. Che proprietà formali devo richiedere alla probabilità? Prima di elencarne le proprietà formali, introduciamo qualche notazione. Indichiamo con le lettere maiuscole dell’alfabeto latino gli eventi: E, A, B, etc. Si indica con la lettera dell’alfabeto greco Ω (omega) l’insieme di tutti i possibili risultati di un esperimento. L’esperimento è in sostanza una prova il cui esito è incerto. Ω viene anche chiamato evento certo o spazio campionario. Per indicare che un evento A è uno dei tanti possibili che possono realizzarsi in un esperimento, scriveremo A ⊂ Ω. Ad esempio, A = “domani pioverà”, B = domani ci sarà il sole”, C = “domani farà molto freddo”, etc. Se indichiamo con Ω l’insieme delle possibili condizioni climatiche di domani avremo che ciascuno di quegli eventi è contenuto “⊂” nell’insieme Ω. Cioè, A ⊂ Ω, B ⊂ Ω, C ⊂ Ω. Ogni evento E può verificarsi oppure no. Sembra lecito assegnare P (E) = 0 se pensiamo che l’evento non si verifichi – E si chiamerà evento quasi impossibile – e un qualsiasi valore positivo se c’è una pur minima possibilità che l’evento si verifichi, quindi P (E) > 0. Per ogni evento possiamo assumere che sia P (A) ≥ 0, cioè concordiamo che la probabilità non è mai un numero negativo. Sempre dalla notazione degli insiemi, l’insieme ∅, cioè quello che c 2002-2003 S.M.Iacus 2 non contiene elementi, è detto evento impossibile e la sua probabilità è nulla, P (∅) = 0. Pensiamo agli eventi A, B e C di sopra. Se risulta P (A) < P (B) allora saremo più propensi a concludere che domani ci sarà il sole piuttosto che la pioggia. Visto che ci stiamo dando delle regole, è bene che i valori che assegnamo alle probabilità degli eventi siano contenute entro un valore massimo. Se poniamo pari ad 1 tale valore massimo, sarà necessariamente vero che P (Ω) = P (“tutto quello che può accadere”) = 1. Un evento A per cui si verfichi P (A) = 1 viene chiamato quasi certo. Ad esempio, l’evento A = “domani sorgerà il sole” è chiaramente un evento di probabilità 1, ma A non è tutto quello che può accadere...potrebbe anche cascarci un meteorite sulla testa! Se due eventi A e B non possono verificarsi contemporaneamente diremo che sono incompatibili e scriveremo A ∩ B = ∅. Il simbolo “∩” indica l’intersezione e A ∩ B si legge “A intersecato B” o “A e B”. A ∩ B è un evento che consiste negli elementi comuni ad entrambi gli insiemi A e B. eventi incompatibili A ∩ B = ∅ ⇔ P (A ∩ B) = 0 Gli elementi che sono in “A oppure in B”, cioè quelli di A o B si indicano con A ∪ B, e il simbolo “∪” indica l’unione. A ∪ B si legge “A unito B”. Se A e B sono incompatibili, è lecito assumere che P (A ∪ B) = P (A) + P (B) (si veda a tal proposito la Figura 1). Possiamo riassumere quanto concordato sopra nei 3 assiomi del calcolo delle probabilità cosı̀ come stabiliti da Kolomogorov all’inizio degli anni trenta del secolo scorso. c 2002-2003 S.M.Iacus 3 Assiomi della probabilità 1. ∀ A ∈ Ω, P (A) ≥ 0 2. P (Ω) = 1 3. Se A ∩ B = ∅ allora P (A ∪ B) = P (A) + P (B) Dai tre assiomi del calcolo delle probabilità, che come abbiamo visto sono degli assunti naturali da chiedere alla probabilità, discendono tutte le regole del calcolo stesso. Per ogni evento A di Ω (∀ A ⊂ Ω) si indica con Ā l’evento complementare di A. Se A è l’evento “domani sarà nuvoloso”, Ā è evento che indica tutto quello che non è A, cioè: “domani non sarà nuvoloso”. In particolare vale sempre che A ∪ Ā = Ω quindi P (A) + P (Ā) = 1 e dunque P (A) = 1 − P (Ā) Infatti, 1 = P (Ω) = P (A ∪ Ā) = P (A) + P (Ā) per il terzo assioma. Inoltre si ha che, per ogni evento A, è sempre vero che 0 ≤ P (A) ≤ 1 Se A e B non sono eventi incompatibili, si ha che A ∩ B 6= ∅ quindi P (A ∪ B) = P (A) + P (B) − P (A ∩ B) La Figura 1 fornisce una rappresentazione grafica delle relazioni tra insiemi e probabilità. c 2002-2003 S.M.Iacus 4 Ω ........ ........ ............ ..... ... ... ... .. ... . ... ... ... .... ... .... ... ... .. ... . ... .. . . ... ... ... ... ..... ....... ........... .......... A Ω ........................... .............. ........ ........ ...... ...... ..... ..... ... . ... .... .. .... ... ... .. ... . . . ..... . . . . . ...... ...... ........ ............................................... B .................................... ................... .......... .......... ........ ........ ...... ..... ...... . . . . ..... ..... . . ................................................................ . . . . . . . . . .. . . . . . . . . . . . ............ ... ........ . . . . . ......... . . . .... . . ..... ...... . . . ... . .. . ..... ... .. ..... ... ... .. ... . . . . ..... ... .. . .. . . ..... . . ..... .. .... . . . . ...... . . . . . . . . . . . ........ ........ .... .... . . . . . . ........... . . . . . . .......... . . . . ...... ........ .......... .................. .............................................................................................................. A A∩B B Figura 1: Diagrammi di Venn. In alto: a sinistra la rappresentazione di due insiemi disgiunti: A ∩ B = ∅ (quindi P (A ∪ B) = P (A) + P (B)) e a destra il caso di due insiemi con intersezione non nulla A ∩ B 6= ∅ (allora P (A ∪ B) = P (A) + P (B) − P (A ∩ B)). Gli eventi A, B, etc sono, in generale, dal punto di vista insiemistico, degli insiemi contenenti più elementi al loro interno. Ci sono alcuni eventi chiamati elementari che possono essere considerati come insiemi contenenti un solo elemento. L’insieme Ω relativo ad un esperimento viene generalmente descritto in termini di eventi elementari che indichiamo con ω1 , ω2 , . . . , ωn , n ∈ N. C’è un caso molto particolare di esperimenti in cui è possibile calcolare senza troppe difficoltà le probabilità di eventi più complessi. Se gli eventi elementari sono tutti equiprobabili, cioè P ({ω1 }) = P ({ω2 }) = . . . = P ({ωn }), allora la probabilità di un evento qualsiasi A composto da più eventi elementari si calcola come eventi elementari equiprobabili P (A) = |A| # casi favorevoli (all’evento) = |Ω| # casi possibili (dell’esperimento) dove con |A| si intende il “numero di elementi contenuti in A” e il simbolo # si legge “numerosità” o “cardinalità”. Se pensiamo al lancio di una moneta non truccata, i possibili risultati sono T e C che sono anche equiprobabili. Quindi Ω = {T, C} e P (T ) = P (C) = 1/2. Analogamente se lanciamo un dado: ci sono 6 risultati possibili Ω = {1, 2, 3, 4, 5, 6} ciascuno di probabilità 1/6. Se pensiamo agli eventi A = “esce un numero pari” e B = “esce un numero maggiore o uguale 4” le loro probabilità si possono calcolare come c 2002-2003 S.M.Iacus 5 segue P (A) = P ({2, 4, 6}) = |{2, 4, 6}| 3 1 = = |Ω| 6 2 P (B) = P ({4, 5, 6}) = 3 1 |{4, 5, 6}| = = |Ω| 6 2 e Un altro importante concetto del calcolo della probabilità (e della statistica) è quello di indipendenza. Diremo che due eventi sono indipendenti se il verificarsi dell’uno non influenza il verificarsi dell’altro e viceversa. La nozione è quindi abbastanza intuitiva ed è anche quella che ci fornirà la soluzione del problema di Chevalier De Mere. Benché sia oggi una nozione di intuizione comune, i matematici hanno impiegato circa 250 anni per formalizzare la proprietà di indipendenza. Si pensi al seguente quesito di Kac : la probabilità che vi sia una bomba a bordo di un aereo di linea è pari a 0.35. Supponendo di dover effettuare un viaggio in aereo nei prossimi giorni, che accorgimenti prendereste per diminuire il rischio di attentati a bordo del vostro aereo? La risposta provocatoria che fornisce l’autore è: porto con me una bomba! In questo caso, la probabilità che vi siano due bombe sulle stesso aereo sarà sicuramente inferiore a 0.35 ed abbiamo diminuito il rischio di attentati. Il ragionamento ha una falla che ci aiuta a mettere in luce il significato di indipendenza. Se portiamo con noi una bomba nulla vieta all’attentatore di portare con se un altro ordigno dal momento che le scelte dell’attentatore non vengono minimamente influenzate dalle nostre. Il viceversa è ancora vero non sapendo noi chi sia o se vi sia un attentatore a bordo dell’areo. In sostanza i due comportamenti sono indipendenti, per cui il rischio rimane invariato! Kac ovviamente è l’autore che ha formalizzato per primo la nozione di indipendenza. Se abbiamo due eventi A e B e ne conosciamo le probabilità P (A) e P (B) possiamo chiederci se la probabilità del verificarsi dell’uno (ad esempio A) varia sapendo che si è già verificato l’altro (B) in simboli scriviamo P (A|B) che si legge probabilità di A dato B. La definizione formale è la seguente: Probabilità condizionata P (A|B) = c 2002-2003 S.M.Iacus P (A ∩ B) con P (B) > 0 P (B) 6 Se il verificarsi di A non è influenzato dal verificarsi di B vorremmo che sia P (A|B) = P (A) cioè che rimanga invariata la probabilità di A come nell’esempio delle bombe di Kac. Possiamo finalmente dare la definizione di indipendenza. Indipendenza tra eventi A e B sono indipendenti se e solo se P (A|B) = P (A) e P (B|A) = P (B) Poiché si ha che, se A e B sono indipendenti P (A|B) = P (A ∩ B) = P (A) ⇔ P (A ∩ B) = P (A) · P (B) P (B) allora un’altra definizione di indipendenza è la seguente: Indipendenza tra eventi (definizione alternativa) A e B sono indipendenti se e solo se P (A ∩ B) = P (A) · P (B) Se pensiamo all’esempio del lancio dei dadi ed ai due eventi A = “esce un numero pari” e B = “esce un numero maggiore o uguale a 4” , abbiamo visto che P (A) = 1/2 e P (B) = 1/2. Se sappiamo che si è già verificato B cosa possiamo dire sulla probabilità di A? Applichiamo la formula P (A ∩ B) P (numero pari maggiore o uguale a 4) = 1 P (B) 2 P ({4, 6}) 2 1 2 4 2 = = / = ·2= = 1 6 2 6 6 3 2 P (A|B) = Come si vede P (A) < P (A|B), cioè i due eventi non sono indipendenti e, in particolare, la conoscenza del fatto che B si sia verificato cambia le nostre aspettative sul fatto che anche A si sia verificato. c 2002-2003 S.M.Iacus 7 Dalla definizione di probabilità condizionata segue che, presi due eventi A e B qualsiasi valgono sempre le due relazioni: P (A ∩ B) = P (A|B) · P (B) P (A ∩ B) = P (B|A) · P (A) Veniamo ora alla soluzione del problema di Chevalier De Mere. Dobbiamo calcolare la probabilità di fare E = “un 6 su 4 lanci” di un dado e F = “un doppio 6 su 24 lanci”. Indichiamo con P (A) la probabilità di fare 6 in un lancio e con P (B) la probabilità di fare doppio 6 in un lancio di due dadi. Sarà dunque P (A) = 1/6 e P (B) = 1/36. Calcoliamo P (Ē) e P (F̄ ) al posto di P (E) e P (F ). 4 5 P (Ē) = P (Ā) · P (Ā) · · · P (Ā) (per 4 volte) = 6 usando la proprietà di indipendenza dei risultati nei singoli lanci. Quindi 4 5 P (E) = 1 − P (Ē) = 1 − = 0.518 6 Per l’evento F si ha P (F̄ ) = P (B̄) · P (B̄) · · · P (B̄) (per 24 volte) = 35 36 24 e quindi 24 35 P (F ) = 1 − P (F̄ ) = 1 − = 0.491 36 da cui ne discende che P (F ) < P (E), cioè conviene scommettere sul 6 in 4 lanci piuttosto che sul doppio 6 in 24 lanci! Chevalier De Mere capı̀ a sue spese – spendendo cifre ingenti – che il primo era il gioco più conveniente. Prima di svolgere gli esercizi di questa sezione richiamiamo ancora due proprietà intuitive ma molto utili negli esercizi. Se prendiamo un qualsiasi evento A e lo intersechiamo con Ω il risultato è che riotteniamo ancora A in quanto l’intersezione consiste di tutti gli elementi comuni a tutti e due gli insiemi. Se invece consideriamo l’unione tra A e Ω riotteniamo tutto Ω, infatti l’unione è l’insieme che contiene tutti gli elementi di A e tutti quelli di Ω, riassumendo c 2002-2003 S.M.Iacus 8 A Lanci di A TC TT B CC B TT TC CC CT CT B TT TC CC CT TT TC CC CT B Lanci di B TT TC CC CT Figura 2: Schema ad albero per la soluzione dell’Esercizio 1. Formule magiche A ∩ Ω = A quindi P (A ∩ Ω) = P (A) A ∪ Ω = Ω quindi P (A ∪ Ω) = 1 Esercizio 1. Due giocatori, A e B, lanciano 2 monete ciascuno. Qual è la probabilità che il giocatore A ottenga più teste del giocatore B? Nella Figura 2 viene riportato l’insieme di tutti gli esiti dell’esperimento, cioè Ω. Se la moneta non è truccata si assume che P (T ) = P (C) = 1/2. Lo spazio campionario ha dunque questo aspetto Ω = {(T T, T T ), (T T, T C), (T T, CC), (T T, CT ), (T C, T T ), (T C, T C), (T C, CC), (T C, CT ), (CC, T T ), (CC, T C), (CC, CC), (CC, CT ), (CT, T T ), (CT, T C), (CT, CC), (CT, CT )} dove con (T T, CT ) abbiamo indicato l’evento il giocatore A ha totalizzato 2 T e il giocatore B una C e una T . L’evento di cui ci interessa calcolare la probabilità è E = {(T T, T C) ∪ (T T, CT ) ∪ (T C, CC) ∪ (CT, CC) ∪ (T T, CC)} Tutti gli eventi di Ω sono equiprobabili, per cui la probabilità di ciascuno è 1/16, dove 16 è il numero totale degli eventi elementari di Ω. Quindi, P (E) = c 2002-2003 S.M.Iacus |E| 5 = |Ω| 16 9 oppure direttamente usando il terzo assioma P (E) = P ((T T, T C) ∪ (T T, CT ) ∪ (T C, CC) ∪ (CT, CC) ∪ (T T, CC)) = P (T T, T C) + P (T T, CT ) + P (T C, CC) + P (CT, CC) + P (T T, CC) 1 1 1 1 5 1 + + + + = = 16 16 16 16 16 16 Se gli eventi elementari non sono equiprobabili la formula non è più valida. Vediamo di spiegarci con un esempio. Esercizio 2. Un esperimento casuale consiste nell’estrarre una pallina da un’urna contenente cinque palline numerate da 1 a 5. Se si estrae una pallina contrassegnata con un numero dispari si lancia una moneta, mentre se si ottiene un numero pari si lancia un dado. Descrivere lo spazio campionario Ω di tale esperimento. Calcolare la probabilità dell’evento “esce testa”. Lo spazio campionario Ω è composto dai seguenti eventi (si veda la Figura 3) Ω = {1T, 1C, 3T, 3C, 5T, 5C, 21, 22, 23, 24, 25, 26, 41, 42, 43, 44, 45, 46} dove con 1T abbiamo indicato l’evento pallina numero 1 e T nel lancio della moneta mentre con gli eventi del tipo 24 abbiamo indicato pallina numero 2 e 4 sulla faccia del dado. Quindi Ω contiene tutti i possibili risultati dell’esperimento proposto dall’esercizio. Concentriamoci ora sull’evento “esce T ”: T può uscire in tre circostanze 1T , 3T , 5T , quindi possiamo calcolare direttamente la probabilità di tale evento P (T ) = P (1T ∪ 3T ∪ 5T ) = P (T |1) + P (T |3) + P (T |5) 1 1 1 1 1 1 = · + · + · 5 2 5 2 5 2 3 = 10 se invece avessimo usato la formula del caso di eventi elementari equiprobabili avremmo ottenuto 3/18! c 2002-2003 S.M.Iacus 10 1/2 1 T 1/2 C 1/5 2 1/6 2 1/6 3 1/6 4 1/6 1/2 5 6 T 3 1/2 1/5 1/5 1 1/6 1/5 1/5 1/6 C 4 1/6 1 1/6 2 1/6 1/6 5 1/2 T 3 1/6 4 1/6 5 6 1/2 C Figura 3: Schema ad albero per la soluzione dell’Esercizio 2. Per ottenere le probabilità dei risultati del nostro esperimento si devono moltiplicare le probabilità presenti sui rami dell’albero sino a giungere alle foglie finali poiché gli eventi sono indipendenti. Ad esempio per l’evento 3C si ha che P (3C) = P (3) · P (C) = 15 · 12 = 1 1 1 1 10 . Per l’evento 26 si ha P (26) = P (2) · P (6) = 4 · 6 = 24 . c 2002-2003 S.M.Iacus 11 Nel calcolo della probabilità di P (1T ∪ 3T ∪ 5T ) abbiamo utilizzato il terzo assioma che ci dice che se gli eventi sono incompatibili, cioè non si possono verificare contemporaneamente, allora la probabilità dell’unione diventa la somma delle probabilità dei singoli eventi. Nell’attribuzione delle probabilità agli eventi rappresentati dalle foglie dell’albero abbiamo usato la proprietà di indipendenza. Come si nota abbiamo semplicemente moltiplicato le probabilità che compaiono sui rami dell’albero fino a giungere alle foglie finali che rappresentano i risultati del nostro esperimento. Per concludere la lezione introduciamo le leggi di De Morgan che stabiliscono le relazioni tra intersezione, unione e complementazione. Leggi di De Morgan A ∩ B = Ā ∪ B̄ A ∪ B = Ā ∩ B̄ Si noti che l’operazione di “complementazione” scambia l’intersezione con l’unione e viceversa. Il prossimo è un esercizio riepilogativo su tutte le proprietà del calcolo delle probabilità ed essendo a carattere teorico può risultare più ostico. Il consiglio è di capirne tutti i passaggi. Esercizio 3. Siano A e B due eventi tali che P (A) = 2/7, P (B) = 1/3 e P (Ā ∩ B̄) = 11/21. Calcolare le probabilità dei seguenti eventi: a) P (A ∪ B); b) P (A ∩ B); c) P (Ā ∩ B); d) P (A ∪ B̄); e) P (Ā ∪ B̄). a) usando le leggi di De Morgan si ha P (A ∪ B) = 1 − P (A ∪ B) = 1 − P (Ā ∩ B̄) = 1 − 11 10 = 21 21 b) dalla probabilità dell’unione si ricava per differenza quella dell’intersezione, e quindi P (A ∩ B) = P (A) + P (B) − P (A ∪ B) 2 1 10 2 · 6 + ·7 − 10 = + − = 7 3 21 21 9 3 = = 21 7 c 2002-2003 S.M.Iacus 12 c) per calcolare P (Ā ∩ B) possiamo ricorrere al seguente trucco visto che già disponiamo di P (Ā ∩ B̄). P (Ā) = P (Ā ∩ Ω) per le formule magiche viste in precedenza. Ma Ω può sempre essere riscritto come Ω = B ∪ B̄ quindi P (Ā) = P (Ā ∩ Ω) = P (Ā ∩ (B ∪ B̄)) = P ((Ā ∩ B) ∪ (Ā ∩ B̄)) = P (Ā ∩ B) + P (Ā ∩ B̄) per le leggi di De Morgan abbiamo che P (Ā ∩ B̄) = 1 − P (A ∪ B) = 1 − 10 11 = 21 21 Quindi riassumendo P (Ā) = P (Ā ∩ B) + P (Ā ∩ B̄) cioè 11 2 = P (Ā ∩ B) + 7 21 4 da cui si ricava che P (Ā ∩ B) = 21 . 1− d) P (A ∪ B̄) = 1 − P (Ā ∩ B) = 1 − 4/21 = 17/21 dal punto precedente. e) P (Ā ∪ B̄) = 1 − P (A ∩ B) = 1 − 3/7 dal punto b). La nozione di indipendenza si può estendere al caso di tre eventi. Le condizioni che si devono verificare coinvolgono i tre eventi complesivamente e tutte le coppie. In sintesi Indipendenza nel caso di 3 eventi tre eventi A, B e C si dicono indipendenti se e solo se P (A ∩ B ∩ C) = P (A) · P (B) · P (C) P (A ∩ B) = P (A) · P (B) P (A ∩ C) = P (A) · P (C) P (B ∩ C) = P (B) · P (C) c 2002-2003 S.M.Iacus 13 Esercizio 4. Si supponga di lanciare due dadi e si considerino i seguenti tre eventi: A = “le due facce dei dadi sono uguali”, B = “la somma delle facce dei due dadi è compresa tra 7 e 10”, C = “il risultato della somma è pari a 2, 7 o 8”. Si dimostri che i tre eventi non sono indipendenti. Lo spazio campionario Ω è costituito da tutte le 36 coppie dei risultati del lancio dei due dadi, ciscuno con probabilità 1/36. I tre eventi A, B e C risultano essere costituiti come segue A = {(1, 1), (2, 2), (3, 3), (4, 4), (5, 5), (6, 6)} B = {(1, 6), (6, 1), (2, 5), (5, 2), (3, 4), (4, 3), (2, 6), (6, 2), (3, 5), (5, 3), (4, 4), (3, 6), (6, 3), (4, 5), (5, 4), (5, 5), (4, 6), (6, 4)} C = {(1, 1), (1, 6), (6, 1), (2, 5), (5, 2), (3, 4), (4, 3), (2, 6), (6, 2), (3, 5), (5, 3), (4, 4)} Le rispettive probabilità sono 1 P (A) = , 6 1 P (B) = , 2 P (C) = 1 3 Verifichiamo l’eventuale indipendenza P (A ∩ B ∩ C) = P ((4, 4)) = 1 1 1 1 = · · = P (A) · P (B) · P (C) 36 6 2 3 Se prendiamo una delle coppie di eventi troviamo che P (B ∩ C) = P ({(1, 6), (6, 1), (2, 5), (5, 2), (3, 4), (4, 3), (2, 6), (6, 2), (3, 5), (5, 3), (4, 4)}) 11 = 36 ma 1 11 1 1 · = = 6 2 3 6 36 e quindi gli eventi B e C non sono indipendenti. Si conclude che i tre eventi A, B e C non possono essere indipendenti. P (B) · P (C) = Esercizio 5. Sia Ω lo spazio degli eventi formato dalle 3! permutazioni dei tre elementi a, b e c più le triplette aaa, bbb, ccc. Sia Ai l’evento “l’i-esima posizione è occupata dalla lettera a”, i = 1, 2, 3. Gli eventi Ai , i = 1, 2, 3 sono indipendenti? c 2002-2003 S.M.Iacus 14 Con n! si indica il prodotto n · (n − 1) · (n − 2) · · · 2 · 1, quindi 3! = 3 · 2 · 1 = 6. Lo spazio campionario Ω è il seguente Ω = {abc, acb, bac, bca, cab, cba, aaa, bbb, ccc} Gli eventi Ai sono rappresentati dalle triplette che hanno la lettera a nella posizione i, quindi 3 1 A1 = {abc ∪ acb ∪ aaa}, P (A1 ) = = 9 3 3 1 A2 = {bac ∪ cab ∪ aaa}, P (A2 ) = = 9 3 3 1 A3 = {bca ∪ cba ∪ aaa}, P (A3 ) = = 9 3 Si verifica che 1 P (A1 ∩ A2 ) = P (aaa) = = P (A1 ) · P (A2 ) 9 1 P (A1 ∩ A3 ) = P (aaa) = = P (A1 ) · P (A3 ) 9 1 P (A2 ∩ A3 ) = P (aaa) = = P (A2 ) · P (A3 ) 9 ma 1 1 P (A1 ∩ A2 ∩ A3 ) = P (aaa) = 6= = P (A1 ) · P (A2 ) · P (A3 ) 9 27 quindi i tre eventi sono indipendenti a coppie ma non nel loro insieme. Esercizio 6. Nanni e Roberto decidono di andare assieme al cinema. La probabilità che Nanni arrivi in orario al cinema è pari a 0.7. Roberto arriverà in ritardo, con probabilità 0.9, solo se la sua bicicletta si rompe. Quest’ultimo evento ha probabilità 0.1. Con che probabilità Nanni e Roberto arriveranno entrambi in ritardo? Indichiamo con N l’evento “Nanni arriva in orario al cinema” e analogamente per R. Quindi P (N ) = 0.7. Indichiamo con B l’evento “la bicicletta si rompe”. Quindi P (R̄|B) = 0.9 e P (B) = 0.1. Dobbiamo cercare la probabilità dell’evento N̄ ∩ R̄. Supponiamo l’indipendenza tra il comportamento di R e N e quindi P (N̄ ∩ R̄) = P (N̄ ) · P (R̄) = (1 − P (N )) · P (R̄) c 2002-2003 S.M.Iacus 15 Se leggiamo il testo, ci rendiamo conto che l’evento R̄ si verifica solo quando l’evento B si è verificato, quindi se si verifica R̄ per certo sappiamo che B si è verificato (sul viceversa non possiamo dire nulla). Questo vuol dire, in termini di insiemi o diagrammi di Venn, che tutti gli elementi che appartengono a R̄ appartengono anche a B ma non tutti quelli di B appartengono (necessariamente) a R̄. Vale quindi l’inclusione R̄ ⊂ B e dunque R̄ ∩ B = R̄. Allora P (R̄) = P (R̄ ∩ B) = P (R̄|B) · P (B) = 0.9 · 0.1 e dunque P (N̄ ∩ R̄) = (1 − P (N )) · P (R̄) = (1 − 0.7) · 0.9 · 0.1 = 0.027 2 Tipologie di campionamento Abbiamo detto che uno degli scopi dello studio del calcolo della probabilità è effettuare dei campionamenti in ambito statistico e controllare quindi l’effetto della casualità sulle nostre analisi. Tralasciando le innumerevoli tecniche di campionamento utilizzate nella pratica statistica, presentiamo brevemente i due schemi principali di campionamento. Poiché in ambito probabilistico spesso per motivi di intuizione si associa il campionamento alle estrazioni da un’urna parleremo d’ora in avanti di campionamento con ripetizione e campionamento senza reimmissione (ripetizione, reissimissione, reinserimento etc sono tutti sinonimi per lo stesso concetto che qui si vuole discutere). Pensando al campionamento da popolazioni statistiche si potrà sempre associare l’urna all’intera popolazione e la pallina estratta all’individuo scelto (in modo casuale). Si consideri un’urna con 15 palline come quella della Figura 4. Se immaginiamo di pescare a caso dall’urna una delle palline, dovrebbe essere intuizione comune che ogni pallina abbia la stessa probabilità di essere estratta, quindi se con i si indica l’evento “estrazione della pallina numero i”, sarà P (i) = 1/15. Quindi prima di essere estratta la pallina 14 ha probabilità 1/15 di esserlo. Lo stesso è vero per tutte le altre palline. Supponiamo ora di voler effettuare una seconda estrazione. Con quale probabilità uscirà la pallina 3? Si possono verificare due casi: (a) rimettiamo la pallina 14 nell’urna, oppure (b) continuiamo ad estrarre dall’urna tenendo da parte quella già c 2002-2003 S.M.Iacus 16 estratta. È evidente che, come mostra la Figura 4, nel caso (a) la pallina 3 avrà probabilità P (3) = 1/15 come nella prima estrazione mentre nel caso (b) si deve tener presente che le palline rimaste nell’urna sono solo 14 e quindi P (3) = 1/14. Si parla di estrazione con reimmissione nel caso (a) e di estrazione senza ripetizione nel caso (b). Mentre nel caso di estrazione con ripetizione, ad ogni estrazione le probabilità rimangono invariate, nel caso (b) ad ogni estrazione le probabilità di estrazione cambiano. Un altro quesito a cui può essere interessante rispondere è relativo all’ordine con cui vengono estratte le palline ma ciò esula dagli obiettivi del corso. È invece interessante rispondere alla seguente domanda: consideriamo l’urna della Figura 4. Se pesco in una sola volta 3 palline, in quanti modi posso farlo? Cioè quante sono le combinazioni di 3 palline che posso estrarre in una sola volta? La risposta viene fornita dal Coefficiente Binomiale n n! = (n − k)! · k! k numero di modi di estrarre k oggetti da un gruppo di n dove n! è il numero di permutazioni di n oggetti, cioè in quanti modi posso ordinare n oggetti (ad esempio, in quanti modi posso disporre n persone attorno ad un tavolo rotondo o quanti sono gli anagrammi, anche senza senso, di una parola di n lettere). La formula, lo ricordiamo, è la seguente: n fattoriale n! = n · (n − 1) · (n − 2) · · · 2 · 1 Quindi se voglio sapere in quanti modo posso estrarre 3 palline da un’urna che ne contiene 15 dovrò calcolare 15 15! 15 · 14 · 13 · 12! 15 14 = = = · · 13 = 5 · 7 · 13 = 455 3 (15 − 3)! · 3! 12! · 3 · 2 · 1 5 2 c 2002-2003 S.M.Iacus 17 5 13 1 11 3 15 5 14 10 16 8 7 6 4 9 2 13 12 (a) 1 15 11 3 10 7 4 9 2 8 6 16 12 14 (b) Figura 4: Estrazione casuale da un’urna. (a) : dopo ogni estrazione la pallina viene reinserita nell’urna, quindi la composizione dell’urna rimane invariata; (b) : ad ogni estrazione il numero di palline nell’urna diminuisce, quindi ad ogni estrazione l’urna cambia di composizione. cioè ci sono 455 modi diversi di estrarre 3 palline da un’urna. Pensiamo alle estrazioni del gioco del Lotto. Vengono estratte 5 palline da un’urna che ne contiene 90. Quindi, ad ogni estrazione del Lotto possono essere estratte 90 cinquine, cioè ogni cinquina ha una probabilità di essere estratta pari a 5 1/43949268!!! Infatti, 90 · 89 · 88 · 87 · 86 90 90! = = = 43949268 85! · 5! 5·4·3·2 5 Per intendersi il simbolo nk si legge n su k e non n fratto k o n diviso k!!! Proprietà di n! e 0! = 1 , n = 1, 0 n k n n = = n, 1 n−1 n n = k n−k Esercizio 7. Un’urna contiene 5 palline bianche, 6 nere, 4 rosse. Se ne estraggono 2. Calcolare la probabilità che siano dello stesso colore distinguendo il caso in cui le palline vengano estratte in coppia oppure singolarmente rimettendo la prima pallina estratta nell’urna. c 2002-2003 S.M.Iacus 18 Indichiamo con B, N ed R rispettivamente: si estrare pallina bianca, nera e rossa. Nella Figura 5 sono indicati i due casi (a) con e (b) senza reimmissione. Noi siamo interessati a calcolare la probabilità dell’evento (R, R) ∪ (B, B) ∪ (N, N ) dove con (A, B) abbiamo indicato l’evento “pallina di tipo A alla prima estrazione e di tipo B nella seconda”. Come si vede, nel caso (a) le probabilità non cambiano da un’estrazione all’altra. Infatti P (R, R) = 4/15·4/15 poiché alla prima estrazione vi sono 15 palline nell’urna di cui 4 di tipo R. Gli eventi sono equiprobabili, per cui la formula: casi favorevoli (4) su casi possibili (15), fornisce 4/15. Alla seconda estrazione l’urna è rimasta invariata, per cui P (R) alla seconda estrazione è sempre 4/15. Lo stesso vale per gli altri due eventi (B, B) e (N, N ), dunque P (due palline di stesso colore) = P ((R, R) ∪ (B, B) ∪ (N, N )) = P (R, R) + P (B, B) + P (N, N ) 2 2 2 5 6 4 + + = 15 15 15 = 0.342 Veniamo ora caso di estrazione senza riposizione. Consideriamo il caso dell’evento (R, R). Alla prima estrazione nulla cambia rispetto al caso (a) P (R) = 4/15. Alla seconda estrazione l’urna contiene solo 15 - 1 = 14 palline ed è composta nel seguente modo: 3 R, 5 B e 6 N. Quindi, alla seconda estrazione P (R) = 3/14. Si noti che nel campionamento senza reimmissione si perde l’indipendenza tra gli eventi, infatti sapere che alla prima estrazione è uscita pallina rossa, cambia le probabilità di estrarre pallina R, B e N (la prima diminuisce mentre le altre due aumentano). Per rispondere all’esercizio si ha quindi P (due palline di stesso colore) = P ((R, R) ∪ (B, B) ∪ (N, N )) = P (R, R) + P (B, B) + P (N, N ) 4 3 5 4 6 4 = · + · + · 15 14 15 14 15 14 = 0.295 che, come era logico attendersi, è più bassa che nel caso (a). Si tenga presente che se l’urna contiene molte palline, i due metodi di campionamento sono pressoché simili. Infatti supponiamo di avere un’urna con 1000000 palline, la probabilità di estrarre una pallina è 1/1000000 nel caso (a) e 1/999999 nel c 2002-2003 S.M.Iacus 19 4/15 6/15 5/15 N R B 4/15 4/15 R 5/15 5/15 6/15 B R 6/15 B N N 4/15 5/15 R 6/15 N B (a) 4/15 6/15 5/15 N R B 4/14 3/14 5/14 R 5/14 6/14 B R N 5/14 B N 4/14 4/14 R 6/14 B N (b) Figura 5: Schema ad albero dello spazio campionario dell’Esercizio 7. (a) Estrazione con ripetizione, (b) estrazione senza ripetizione. c 2002-2003 S.M.Iacus 20 caso (b). La differenza tra le due probabilità è pari a 0.000001, ovvero una quantità insignificante. 3 Esercizi supplementari Esercizio 8. Guglielmo e Robin si sfidano al tiro con l’arco. La probabilità che Guglielmo centri il bersaglio è 0.35, mentre la probabilità che Robin non faccia centro è 0.6. Sapendo che la probabilità che almeno uno dei due sfidanti centri il bersaglio è pari a 0.75, determinare la probabilità che entrambi facciano centro. Indichiamo con G l’evento “Guglielmo centra il bersaglio” e con R l’evento “Robin centra il bersaglio”. Si ha dunque P (G) = 0.35 e P (R) = 1− P (R̄) = 1 − 0.6 = 0.4. Dire che almeno uno dei due centra il bersaglio equivale a dire che o Robin lo centra (evento R), o è Gugliemo a centrarlo (evento G) o tutti e due, si tratta dunque dell’evento unione R ∪ G. Il testo ci dice che questo evento ha probabilità P (G ∪ R) = 0.75. L’evento “entrambi fanno centro” corrisponde a G ∩ R e quindi P (G ∩ R) = P (G) + P (R) − P (A ∪ B) = 0.35 + 0.4 − 0.75 = 0. C’era da aspettarselo che non potessero fare entrambi centro conoscendo Robin e Guglielmo! Esercizio 9. Si supponga di estrarre, senza reinserirle nel mazzo, 3 carte da un mazzo da 52 carte Francesi. Si calcoli la probabilità di ottenenere: a) esattamente 2 figure; b) figura alla seconda estrazione. A questo esercizio non si risponde con: “non conosco le carte Francesi”. Le carte Francesi solo le usuali carte da Poker dove per ogni segno (♥, ♠, ♦, ♣) vi sono 13 carte: quelle con i numeri da 1 a 10 e poi le tre figure J, Q e K. Poiché il testo dell’esercizio non distingue per segno si può procedere come segue: alla prima estrazione nel mazzo vi sono 3 · 4 = 12 figure (F ) e le restanti 40 carte sono “non figure” (F̄ ). Quindi la probabilità di estrarre figura alla prima estrazione è P (F ) = 12/52. Se abbiamo estratto una figura, alla seconda estrazione il mazzo conterrà 51 carte di cui solo 11 sono figure, quindi la probabilità di estrarre figura alla seconda estrazione, avendo già estratto una figura nella prima estrazione, è P (F ) = 11/51. In sostanza la c 2002-2003 S.M.Iacus 21 sequenza (F, F ), cioè due figure consecutive, ha probabilità P (F, F ) = 12 11 · 52 51 La terza carta deve essere una non figura, e quindi poiché il mazzo contiene ora 50 carte di cui 40 sono non figure si ha P (F̄ ) = 40/50. In definitiva si ha che 12 11 40 P (F, F, F̄ ) = · · . 52 51 50 Ma questo non risolve l’esercizio, infatti l’evento A = “esattamente 2 figure” consiste nelle varie possibilità (F, F, F̄ ), (F, F̄ , F ), (F̄ , F, F ), quindi P (A) = P {(F, F, F̄ ) ∪ (F, F̄ , F ) ∪ (F̄ , F, F )} = P (F, F, F̄ ) + P (F, F̄ , F ) + P (F̄ , F, F ) 40 · 12 · 11 12 · 11 · 40 12 · 40 · 11 40 · 12 · 11 = + + =3· 52 · 51 · 50 52 · 51 · 50 52 · 51 · 50 52 · 51 · 50 Si poteva anche procedere nel seguente modo. Si devono formare gruppi di 3 carte composti da 2 figure e una non figura. I casi possibili sono i modi 52 in cui si estraggono 3 carte da un mazzo di 52, cioè 3 . I casi favorevoli, consistono nello scegliere le 2 figure tra le 12 disponibili e questo può essere 12 fatto in 2 modi e una non figura tra le quaranta a disposizione in 40 1 modi. Quindi 12 40 12·11·10! 40·39! · 39!·1! 40 · 12 · 11 2 1 10!·2! P (A) = = =3· 52 52·51·50·49! 52 · 51 · 50 49!·3·2! 3 che, evidentemente, è lo stesso risultato. Esercizio 10. Una squadra di calcio schiera ad ogni partita 1 portiere, 5 difensori e 5 attaccanti. La società “Aleas” sceglie in modo casuale ciascun gruppo di giocatori tra 2 portieri, 8 difensori e 12 attancanti disponibili. Quante sono le formazioni possibili? Se Bobo e Alex sono due attancanti, quante sono le formazioni in cui giocano entrambi? Se Franco è un difensore, qual è la probabilità che Franco e Alex giochino entrambi? I casi possibili di questo esperimento sono tutte le formazioni possibili che possono essere formate scegliendo un portiere tra due ( 21 = 2), cinque c 2002-2003 S.M.Iacus 22 difensori tra otto ( 85 = 56) e cinque attaccanti tra i dodici ( definitiva le formazioni possibili sono 2 8 12 · · = 2 · 56 · 792 = 88704 1 5 5 12 5 = 792). In Vediamo ora in quante formazioni possono giocare assieme Bobo ed Alex. Poiché sono entrambi attaccanti, vuol dire che, se Bobo e Alex sono già stati scelti, in formazione rimangono liberi solo 3 posti da attaccante da scegliere tra i restanti 10 attaccanti della rosa. Nulla cambia per il portiere e i difensori. Dunque, usando la formula casi favorevoli su casi possibili si ha 8 10 2 · · 3 formazioni con Bobo e Alex 13440 = = 12 58 12 = 0.15 formazioni possibili 88704 · 5 · 5 1 che corrisponde quindi alla probabilità con cui Bobo e Alex giocano assieme in formazione. In modo analogo si calcola la probabilità con cui Franco e Alex giocano assieme. Si deve tener presente che le formazioni in cui giocano assieme, i casi favorevoli, sono tali per cui in squadra rimangono liberi 4 posti da attaccante da scegliere tra gli 11 della rosa e 4 posti da difensore da scegliere tra i 7 in panchina. Quindi 7 11 2 · · 4 formazioni con Franco e Alex 23100 1 = = 2 84 12 = 0.26 . formazioni possibili 88704 · · 1 5 5 c 2002-2003 S.M.Iacus 23 1 Principio delle probabilità totali e formula di Bayes In questa sezione consideriamo un uso più proficuo del concetto di probabilità condizionata. Per illustrare il concetto ricorriamo ad un esempio proveniente dal campo clinico e noto con il nome di paradosso dei falsi positivi. Una grave malattia infettiva ha un’incidenza sulla popolazione pari a 0.001, cioè 1 persona su 1000 risulta esserne infetta. Si supponga di avere un test clinico concepito in modo tale che se un individuo è effettivamente malato il test da esito positivo nel 99% dei casi. Sempre lo stesso test, nel caso in cui l’individuo sia sano, sbaglia segnalando un caso di positività nel 2% dei casi. Ci proponiamo di calcolare la probabilità che un individuo scelto a caso risulti positivo al test e quella che lo sia effettivamente quando il test lo individua come positivo. Indichiamo con + l’evento “il test da esito positivo”, con I l’evento “individuo infetto”. Quindi P (I) = 0.001, P (+|I) = 0.99, ¯ = 0.02 P (+|I) Ricordiamo che I ∪ I¯ = Ω, cioè preso un individuo a caso nella popolazione possono verificarsi solo due eventi: l’individuo è infetto (evento I) o ¯ Diamo uno sguardo alla Figura 1. l’individuo è sano (evento I). Dalla figura si intuisce forse più chiaramente che l’evento + può essere ottenuto come unione dei due eventi intersezione + ∩ I (infetto e positivo al test) e + ∩ I¯ (sano ma positivo al test). Quindi diventa molto semplice risolvere il problema. Infatti, a) Calcoliamo P (+) ¯ P (+) = P (+ ∩ I) + P (+ ∩ I) ¯ · P (I) ¯ = P (+|I) · P (I) + P (+|I) = 0.99 · 0.001 + 0.02 · (1 − 0.001) = 0.02097 Scomporre un evento tramite l’utilizzo di altri eventi di cui si ha maggiore informazione è un prassi consolidata. Il risultato, che verrà illustrato nella sua generalità nel seguito, prende il nome di Principio delle probabilità totali. c 2002-2003 S.M.Iacus 1 Ω I ...... ..... ...... ..... ...... ...... ..... ..... ..... ..... ...... ..... ..... ..... ..... ..... ..... ..... ..... ..... .... . ................................................ . . . . . . . . . . . . . . . . . . . . . . . . . ............... . ................. . . ... . . . . . . . . . . . . . ............ ... ......... . . . . . ......... . . . . . .. ........ ........ ....... .. ....... . . . . ...... . . . .. .... ..... . . . . . . .. ... . . . ... . . . . . . . . . . . . ... ......... . . . . ..... . . .... . . . ... . ... . .... . ... .. . . . ... ..... ... . . . . . . . . . . . . ...... .... .... ....... ....... .... ........ ........ .... .......... .......... ............. ..... ............ . . ..................... . . . . . . . . . . . . . . .............................................................................. . ... .. .. .. .... ... .. .. ... ...... ............................................................. ....... ....................................... ...... ..... .... ... .. .. .. I¯ +∩I + ∩ I¯ Figura 1: I = “infetto”, I¯ = “sano”, + = “esito positivo al test”. Come si vede l’evento + può essere ottenuto come unione dei due eventi intersezione + ∩ I (infetto e positivo al test) e + ∩ I¯ (sano ma positivo al test). b) Il secondo punto ci chiede di calcolare P (I|+). Cioè da un informazione a priori su I, tramite l’esperienza (l’esito del test) arriviamo ad un aggiornamento, detto a posteriori, sulla probabilità di I: P (I|+). Ricorriamo alla definizione di probabilità condizionata P (I ∩ +) P (+|I) · P (I) = P (+) P (+) P (+|I) · P (I) = ¯ · P (I) ¯ P (+|I) · P (I) + P (+|I) P (I|+) = Quindi, una volta nota P (+) tramite il principio delle probabilità totali, siamo in grado di calcolare un probabilità a posteriori semplicemente aggiornando le nostre conoscenze a priori. Quella sopra è nota come formula di Bayes, dal nome del matematico del ’600 che l’ha formulata per primo. Quindi, tornando ai nostri conti: P (+|I) · P (I) P (+) 0.99 · 0.001 = = 0.0472 0.02097 P (I|+) = c 2002-2003 S.M.Iacus 2 Il test segnala circa il 2% di esiti positivi ma di questi solo 5 su 100 sono realmente infetti. Quindi se sottoponiamo ad analisi 10.000 individui, 200 di questi saranno segnalati come positivi ma solo 10 di questi sono realmente infetti. Ciò vuol dire che dei circa 200 segnalati come positivi circa 190 di essi rischiano un inutile infarto per la lieta notizia! Quanto segue è un approfondimento sul principio delle probabilità totali e la formula di Bayes. Benché la trattazione sia più generale di quanto esposto sopra, i passaggi logici sono esattamente gli stessi con l’unica differenza che Ω viene scomposto in termini di più eventi anziché uno solo (che nel caso appena visto era I). Il consiglio è quindi di leggere e capire il materiale che segue nonché lo svolgimento degli esercizi. Definiamo partizione una collezione di insiemi A1 , A2 , . . . , Ak con le seguenti proprietà: se ne consideriamo l’unione, questa ci restituisce Ω. Cioè, se li pensiamo come eventi non necessariamente elementari, allora gli Ai rappresentano tutto quello che può accadere. Richiediamo inoltre che, presi due insiemi a caso, diciamo Ai e Aj , essi risultano disgiunti (o incompatibili) cioè Ai ∩ Aj = ∅. Partizione di Ω k eventi A1 , A2 , . . . Ak sono una partizione se e solo se k S Ai = Ω e i=1 scelti due qualsiasi Ai e Aj allora Ai ∩ Aj = ∅ La Figura 2 è una rappresentazione grafica di partizione di Ω nel caso di k S k = 5 insiemi o eventi. Con il simbolo Ai si intende l’unione di tutti gli i=1 eventi Ai con i che va da 1 a k, cioè: k [ A i = A1 ∪ A 2 ∪ · · · ∪ A k . i=1 Come si vede dalla Figura 2 la probabilità di un qualsiasi evento E può essere c 2002-2003 S.M.Iacus 3 Ω ..... ..... .... ..... .... .... .... ... ... ... ... ... ... ... ... .. ... ... .. ... . .. .. .. .. .. ... .. . .. .. ... ... .. .. .. ... ... .. ... ... .. . . ... .... ... .. . ... .. ... .. .. ... .. ... ... ... .. A1 p ppp pppp p p p p pp p p pp p p p ppp pp p p p p ... ... ... ... ... . . . . ... ... ... .. . ... ... ... .. . ... .. ... .. .. .. .. ... ... ..... .............................................. ... .. . ... ........... ....... . . . ... . . .. ......... .. .. .. .. ... . . . ... ... ... ... ....... ...... .... ... ... . .. .. .. . . . . ... .... .... .... .... A2 pppp p pppp .... .... ..... .... .... .... .... ... ... ... ... .. ... ... .. .. .. .. ... ... .. ... .... .... . . . . . . . . . . . . ........ .... ... .. .. .... . .... .. ... ... ... ... ... ... ... ... ... ... ... .... .... .... .... .... .... .... ..... ..... .... ..... .... .... .... ... A3 ppppppppp pp ppp pp p p p p p p p p p p p pp ... ... .... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .. .. .. .. .. .. .. .. .. .. .. .. ... .. . . . . .. ........................ .................. .... ... .. .. ... ..... .. ... ... ... ... ... ... ... ... ... ... ... ... ... .... ... .... ... .... .. A4 p p p p p ppppppppppppp p p p pppp ppp pp pp p p p p ppppp ppp pp p p pppp ppp A1 ∩ E A2 ∩ E p p pp p p p p p p ppp p A4 ∩ E p p p ppppp p p p ppp pp p pp p p p ppp A3 ∩ E p p p p pp p p ppp p p p ppp pppp p p pp p p p p p p pppp p p p p p p p p p p p p p p p p p pp p p p p p p p p p p p p p p p p p p p p p p p p p pp pp p p p pp pppp pp pp ppp p ppp pp p pp p pp A5 Figura 2: A1 , A2 , A3 , A4 e A5 sono una partizione di Ω che rispetta le ipotesi del principio delle probabilità totali e della formula di Bayes. L’insieme tratteggiato è un insieme E che interseca tutti gli insiemi della partizione salvo A5 . ricavata da quella degli eventi della partizione nel seguente modo P (E) = P ((A1 ∩ E) ∪ (A2 ∩ E) ∪ (A3 ∩ E) ∪ (A4 ∩ E) ∪ (A5 ∩ E)) = P (A1 ∩ E)+P (A2 ∩ E)+P (A3 ∩ E)+P (A4 ∩ E)+P (A5 ∩ E) poiché gli eventi Ai ∩ E sono tutti disgiunti = P (A1 ∩ E) + P (A2 ∩ E) + P (A3 ∩ E) + P (A4 ∩ E) poiché A5 ed E disgiunti Quindi tornando alla probabilità dell’evento E si ha P (E) = P (E|A1 ) · P (A1 ) + P (E|A2 ) · P (A2 ) + P (E|A3 ) · P (A3 ) + P (E|A4 ) · P (A4 ) che può essere interpretata come segue: se conosciamo le probabilità degli eventi della partizione (chiamate anche probabilità a priori) e conosciamo le probabilità condizionate del verificarsi di un qualsiasi altro evento agli eventi della partizione, siamo sempre in grado di calcolare la probabilità dell’evento c 2002-2003 S.M.Iacus 4 stesso. Nella pratica statistica, molto spesso si hanno informazioni proprio sulle quantità P (Ai ) e P (E|Ai ) e si ha la necessità di ricavare il valore di P (E). Enunciamo ora il risultato generale Principio delle probabilità totali se Ai sono un partizione di Ω e E è un qualsiasi altro evento P (E) = k P P (E|Ai ) · P (Ai ) i=1 dove con k P xi si intende la somma di tutti i numeri xi con i da 1 a k cioè i=1 k X xi = x1 + x2 + · · · + xk i=1 P e il simbolo (sigma) si legge sommatoria. Il risultato principale che chiude queste prime lezioni di probabilità è la formula di Bayes. La formula di Bayes da una risposta alla seguente domanda: mettiamoci nelle condizioni del principio delle probabilità totali. Se osserviamo il verificarsi dell’evento E qual è la probabilità che si sia verificato uno degli Ai (ad esempio A2 )? In sostanza, la formula di Bayes calcola quelle che si chiamano probabilità a posteriori P (Ai |E). Formula di Bayes se Ai sono un partizione di Ω e E è un qualsiasi altro evento P (Aj |E) = P (E|Aj ) · P (Aj ) , k P P (E|Ai ) · P (Ai ) j = 1, . . . , k i=1 L’idea della formula di Bayes è l’aggiornamento delle nostre conoscenze a priori P (Ai ) che avviene al seguito del realizzarsi di un altro evento E. Se c 2002-2003 S.M.Iacus 5 l’evento è di una qualche importanza per la conoscenza degli Ai allora la probabilità di Ai passa da P (Ai ) a P (Ai |E). Per intenderci: un paziente si presenta ad un medico lamentando una serie di sintomi. L’esperienza del medico (l’a priori) dice che ci sono tre malattie che producono la stessa sintomatologia riscontrata nel paziente anche se con diversa frequenza. Diciamo che il medico assegna alle tre malattie le probabilità: P (A1 ) = 5/10, P (A2 ) = 3/10 e P (A3 ) = 2/10. Come fare a stabilire la giusta terapia? La malattia 1 è più frequente ma meno grave della 2 che invece è più rara e se trascurata potrebbe portare ad un esito fatale. Il medico sa che il presentarsi di un particolare altro sintomo (diciamo l’ipertensione) si produce con frequenza diversa nelle tre malattie. Indichiamo con E l’evento “ipertensione”. Dai libri di medicina sappiamo che P (E|A1 ) = 1/3, P (E|A2 ) = 2/3 e P (E|A3 ) = 0. Cioè l’ipertensione si presenta più frequentemente nel caso della malattia numero 2 che nella malattia numero 1 mentre non si manifesta affatto nella terza. Decide di misurare la pressione al paziente e questi risulta effettivamente essere affetto anche da ipertensione, cioè il medico constata che si è verificato l’evento E. Il medico è ora in grado di stabilire di che patologia si tratta sulla base della nuova esperienza fatta. Infatti, P (E) = P (E|A1 ) · P (A1 ) + P (E|A2 ) · P (A2 ) + P (E|A3 ) · P (A3 ) 1 5 2 3 2 11 = · + · +0· = 10 30 3 10 3 10 e dunque per le probabilità a posteriori si ha P (E|A1 ) · P (A1 ) = P (A1 |E) = P (E) P (A2 |E) = P (E|A2 ) · P (A2 ) = P (E) 1 3 5 10 11 30 2 · 3 3 10 11 30 · = 5 11 = 6 11 P (A3 |E) = 0 quindi la seconda malattia, la più grave, risulta anche essere la più probabile a posteriori grazie alle nuove informazioni raccolte dal medico. Le stesse considerazioni si applicano, ad esempio, nelle aule di tribunale quando il giudice (o la giuria) entrando in possesso di nuovi elementi possono, nel caso la legge lo consenta, avvalersi di tale informazione per aggiornare il loro giudizio. c 2002-2003 S.M.Iacus 6 Esercizio 1. Nell’alfabeto M orse i simboli · e − sono in proporzione di 3:4. Si supponga di trasmettere un segnale lungo una linea disturbata in modo tale che i simboli · e − vengano ricevuti scambiati con probabilità 1/8. Se si riceve il simbolo ·, con che probabilità è stato realmente inviato il ·? Indichiamo per brevità con 1 e 0 rispettivamente il punto e la linea e con R0 /R1 e T0 /T1 , rispettivamente, gli eventi “si riceve linea/punto” e “si trasmette linea/punto”. Il testo ci dice che P (T1 ) = 3/7 e P (T0 ) = 4/7. Inoltre sappiamo che P (R1 |T0 ) = 1/8 e P (R0 |T1 ) = 1/8. Dobbiamo calcolare P (T1 |R1 ). Cominciamo con il calcolare la probabilità di riceve un punto, cioè P (R1 ). Usiamo il principio delle probabilità totali P (R1 ) = P (R1 |T1 ) · P (T1 ) + P (R1 |T0 ) · P (T0 ) = in quanto P (R1 |T1 ) = 1 − P (R0 |T1 ) = 1 − P (T1 |R1 ) usiamo la formula di Bayes 1 8 P (R1 |T1 ) · P (T1 ) P (T1 |R1 ) = = P (R1 ) 7 . 8 = 7 8 · 25 56 3 7 7 3 1 4 25 · + · = 8 7 8 7 56 Quindi per calcolare = 21 25 Gli ultimi due esercizi concludono la trattazione del calcolo delle probabilità utile al fine del nostro corso. Come alcuni dei precedenti, anche questi esercizi richiedono uno sforzo maggiore per poter essere assimilati. Esercizio 2. Cinque scatole di dischi magnetici sono numerate con le cifre 1, 2, . . . , 5. Di 10 dischi, la i-esima scatola ne contiene “i” danneggiati e “10-i” intatti. Si sceglie una scatola a caso e, senza poterne leggere il numero che la identifica, se ne estrae un disco. Con che probabilità il disco è difettoso? Constatando che il disco estratto è difettoso, con che probabilità proviene dalla i-esima scatola? Indichiamo con Si l’evento “si estrae la scatola numero i” e con D l’evento “si estrae dischetto difettoso”. È chiaro dunque che P (S1 ) = P (S2 ) = P (S3 ) = P (S4 ) = P (S5 ) = 1 5 e tali eventi sono necessari e incompatibili, cioè S1 ∪ S2 ∪ S3 ∪ S4 ∪ S 5 = Ω c 2002-2003 S.M.Iacus 7 e Si ∩ Sj = ∅, ∀ i 6= j = 1, 5 Inoltre sappiamo dal testo che P (D|S1 ) = 1 10 P (D|S2 ) = 2 10 P (D|S3 ) = 3 10 5 4 P (D|S5 ) = 10 10 a) Dobbiamo calcolare P (D) e lo facciamo sfruttando il principio delle probabilità totali, quindi P (D|S4 ) = P (D) = 5 X P (D|Si ) · P (Si ) = i=1 5 5 X i 1 1 X 1 5(5 + 1) 3 · = = = 10 5 50 50 2 10 i=1 i=1 b) L’informazione che il disco estratto è difettoso, modifica le nostre aspettative iniziali rispetto all’aver estratto in modo equiprobabile una delle 5 scatole. Usiamo quindi la formula di Bayes per calcolare P (Si |D) P (Si |D) = P (D|Si ) · P (Si ) = P (D) i 10 · 3 10 1 5 = i 15 Esercizio 3. Si supponga di avere tre scatole contenenti: la prima due gettoni da 1 ¤, la seconda un gettone da 1 ¤ e uno da 5 ¤ e l’ultima due gettoni da 5 ¤. Si sceglie a caso una scatola e se ne estrae, in modo equiprobabile, uno dei due gettoni che risulta essere da 1 ¤. Qual è la probabilità che il gettone non estratto sia da 1 ¤? Si rimette nella scatola il gettone estratto e si estrae di nuovo un gettone dalla stessa scatola. Risulta essere ancora una volta da 1 ¤. Con che probabilità il gettone rimasto nella scatola è da 1 ¤? Questo problema apparso molti anni fa anche su un noto periodico di enigmistica è esemplare nello spiegare come l’acquisizione di informazione può modificare la nostra interpretazione dello spazio campionario. È pur tuttavia un esercizio un poco ostico. Indichiamo con S1 , S2 e S3 le tre scatole contenenti, nell’ordine, 2 gettoni da 1 ¤, 1 da 1 ¤ e uno da 5 ¤ e due gettoni da 5 ¤. Indichiamo con ¤ l’evento “si estrae il gettone da 1 ¤”. I dati del problema ci dicono che P (S1 ) = P (S2 ) = P (S3 ) = e P (¤|S1 ) = 1, c 2002-2003 S.M.Iacus 1 P (¤|S2 ) = , 2 1 3 P (¤|S3 ) = 0 8 a) Chiedersi con quale probabilità il gettone rimasto nella scatola sia da 1 ¤, equivale a chiedersi con quale probabilità stiamo estraendo dalla prima scatola. Usiamo la formula di Bayes P (S1 |¤) = P (¤|S1 ) · P (S1 ) P (¤) dove, per il principio delle probablità totali, P (¤) = 3 X i=1 1 P (¤|Si ) · P (Si ) = 3 1 1+ +0 2 = 1 2 quindi P (S1 |¤) = 1· 1 2 1 3 = 2 3 Da ciò concludiamo che P (S3 |¤) = 0 e P (S2 |¤) = 1 − P (S1 |¤) = 13 . Quindi possiamo aggiornare le nostre informazioni a priori sulle scatole, sapendo che, per il fatto di aver estratto il gettone da 1 ¤, abbiamo escluso la scatola numero 3. 2 PII (S1 ) = P (S1 |¤) = 3 1 PII (S2 ) = P (S2 |¤) = 3 b) Ora indichiamo con ¤ ancora l’evento “si estrae il gettone da 1 ¤” tenendo conto che si tratta della seconda estrazione. Calcoliamo la probabilità di ¤ PII (¤) = 2 X P (¤|Si ) · PII (Si ) = 1 · i=1 2 1 1 5 + · = 3 2 3 6 E ora rispondiamo alla domanda dell’esercizio. Calcoliamo PII (S1 |¤) = 1· 2 4 P (¤|Si ) · PII (Si ) = 53 = 5 PII (¤) 6 Come si vede la probabilità di estrarre dalla prima scatola è ancora aumentata passando da 13 prima di fare l’esperimento a 32 dopo la prima estrazione e infine a 45 con l’ultima estrazione. c 2002-2003 S.M.Iacus 9