note PDF - Università degli Studi di Milano

Transcript

note PDF - Università degli Studi di Milano
1
Calcolo delle probabilità
Lo studio delle leggi del caso va sotto il nome di calcolo delle probabilità. Ci
fu un vigoroso sviluppo di questa disciplina a cavallo tra il cinquecento e il
seicento e lo scopo, non fu certo quello nobile di porre le basi per una nuova
branca della disciplina ma piuttosto riuscire a calcolare un giusto valore per le
scommesse nei giochi d’azzardo! Non a caso il termine aleatorio è sinonimo
di casualità e aleas era identificato con il gioco dei dadi (più che dai dadi
stessi) sin dall’antichità.
All’inizio del 1600 un tale Chevalier De Mere, si trovò di fronte al seguente
quesito: supponiamo di disporre di dadi non truccati: è più facile realizzare
un 6 su quattro lanci consecutivi oppure un doppio 6 in 24 lanci?
Tentiamo di risolvere il problema à la De Mere. Se il dado non è truccato,
si può assumere che su 6 lanci ogni faccia esca una sola volta, cioè possiamo
dire che le possiblità di avere un 6 sono 1 su 6. Se lanciamo 4 volte il dado,
queste possibilità dovrebbero essere 4*1/6 = 2/3.
Se lanciamo due dadi possiamo avere 36 risultati possibili, cioè tutti gli
accoppiamenti tra i valori di una faccia di un dado (che sono 6) e i valori
della faccia dell’altro dado (che sono sempre 6), quindi 6*6 = 36. Sui 36
risultati possibili solo uno sarà un doppio sei, quindi la possibilità di fare un
doppio 6 ad ogni lancio la possiamo porre uguale a 1/36. Se effettuiamo 24
lanci, la possibilità diventa 24*1/36 = 24/36 = 2/3.
Cosı̀ ragionando quindi la risposta è che i due giochi di dadi ci danno le
stesse probabilità di vittoria. Questo fu in effetti il ragionamento errato di
De Mere e che fosse errato se ne accorse anche il suo portafogli. De Mere,
accanito giocatore, si accorse infatti che uno dei due giochi era molto meno
favorevole dell’altro. Il sospetto di aver fatto degli errori nei conti lo indusse
a scrivere a Pierre De Fermat il quale, in una serie di scambi epistolari con
Blaise Pascal, giunse alla soluzione: il doppio 6 su 24 lanci è un evento più
difficile a realizzarsi di un singolo 6 su 4 lanci. La soluzione la vedremo più
avanti!
Abbiamo usato nella discussione i termini probabilità ed evento senza
averli definiti ma, l’intuizione comune, dovrebbe lasciar intedere di cosa si
tratta.
Si può dire che gli eventi sono le entità per i quali è possibile calcolare le
probabilità. Un evento contiene in se l’idea di aleatorietà, cioè l’evento è un
qualcosa che può verificarsi o meno: passerò l’esame di statistica al primo
appello? La risposta nella maggior parte dei casi dovrebbe essere si!, ma che
c
2002-2003
S.M.Iacus
1
fiducia riponiamo nel verificarsi di tale evento? Ecco, possiamo associare alla
fiducia del realizzarsi di un evento la sua probabilità.
Pensiamo all’evento: E = “lo studente X passerà l’esame di statistica al
primo appello”.
Lo studente X assegnerà all’evento E una probabilità sulla base delle sue
conoscenze individuali, su come sta seguendo e studiando la materia e sull’idea che si è fatto dell’esame. I vicini di banco e conoscenti di X assegneranno
una probabilità diversa ad E per il fatto che hanno una conoscenza parziale
di X e possono avere di lui un’opinione a priori basata sui risultati conseguiti
in altre discipline. Gli altri studenti che sono in classe con X ma non conoscono direttamente X e probabilmente non hanno neanche un’opinione su X
assegneranno un’altro valore a P (E), cioè probabilità di E. Il docente del
corso, assegnerà ancora un altro valore (per inciso, questo valore in genere è
sempre il più elevato... almeno fino alla correzione della prova d’esame).
Su come sia possibile assegnare correttamente la probabilità al verificarsi
di eventi si è dibattuto per circa 3 secoli (dal 1600 al 1930) e per risolvere
il problema si è spostata l’attenzione su un altro aspetto della questione:
supponiamo che io abbia definito un metodo qualsiasi per assegnare la probabilità ad un certo insieme di eventi. Che proprietà formali devo richiedere
alla probabilità?
Prima di elencarne le proprietà formali, introduciamo qualche notazione.
Indichiamo con le lettere maiuscole dell’alfabeto latino gli eventi: E, A, B,
etc. Si indica con la lettera dell’alfabeto greco Ω (omega) l’insieme di tutti i
possibili risultati di un esperimento. L’esperimento è in sostanza una prova il
cui esito è incerto. Ω viene anche chiamato evento certo o spazio campionario.
Per indicare che un evento A è uno dei tanti possibili che possono realizzarsi in un esperimento, scriveremo A ⊂ Ω. Ad esempio, A = “domani
pioverà”, B = domani ci sarà il sole”, C = “domani farà molto freddo”, etc.
Se indichiamo con Ω l’insieme delle possibili condizioni climatiche di domani
avremo che ciascuno di quegli eventi è contenuto “⊂” nell’insieme Ω. Cioè,
A ⊂ Ω, B ⊂ Ω, C ⊂ Ω.
Ogni evento E può verificarsi oppure no. Sembra lecito assegnare P (E) =
0 se pensiamo che l’evento non si verifichi – E si chiamerà evento quasi
impossibile – e un qualsiasi valore positivo se c’è una pur minima possibilità
che l’evento si verifichi, quindi P (E) > 0. Per ogni evento possiamo assumere
che sia P (A) ≥ 0, cioè concordiamo che la probabilità non è mai un numero
negativo. Sempre dalla notazione degli insiemi, l’insieme ∅, cioè quello che
c
2002-2003
S.M.Iacus
2
non contiene elementi, è detto evento impossibile e la sua probabilità è nulla,
P (∅) = 0.
Pensiamo agli eventi A, B e C di sopra. Se risulta P (A) < P (B) allora
saremo più propensi a concludere che domani ci sarà il sole piuttosto che
la pioggia. Visto che ci stiamo dando delle regole, è bene che i valori che
assegnamo alle probabilità degli eventi siano contenute entro un valore massimo. Se poniamo pari ad 1 tale valore massimo, sarà necessariamente vero
che P (Ω) = P (“tutto quello che può accadere”) = 1. Un evento A per cui
si verfichi P (A) = 1 viene chiamato quasi certo. Ad esempio, l’evento A =
“domani sorgerà il sole” è chiaramente un evento di probabilità 1, ma A non
è tutto quello che può accadere...potrebbe anche cascarci un meteorite sulla
testa!
Se due eventi A e B non possono verificarsi contemporaneamente diremo che sono incompatibili e scriveremo A ∩ B = ∅. Il simbolo “∩” indica
l’intersezione e A ∩ B si legge “A intersecato B” o “A e B”. A ∩ B è un
evento che consiste negli elementi comuni ad entrambi gli insiemi A e B.
eventi incompatibili
A ∩ B = ∅ ⇔ P (A ∩ B) = 0
Gli elementi che sono in “A oppure in B”, cioè quelli di A o B si indicano
con A ∪ B, e il simbolo “∪” indica l’unione. A ∪ B si legge “A unito B”. Se
A e B sono incompatibili, è lecito assumere che P (A ∪ B) = P (A) + P (B)
(si veda a tal proposito la Figura 1).
Possiamo riassumere quanto concordato sopra nei 3 assiomi del calcolo delle probabilità cosı̀ come stabiliti da Kolomogorov all’inizio degli anni
trenta del secolo scorso.
c
2002-2003
S.M.Iacus
3
Assiomi della probabilità
1. ∀ A ∈ Ω, P (A) ≥ 0
2. P (Ω) = 1
3. Se A ∩ B = ∅ allora P (A ∪ B) = P (A) + P (B)
Dai tre assiomi del calcolo delle probabilità, che come abbiamo visto sono
degli assunti naturali da chiedere alla probabilità, discendono tutte le regole
del calcolo stesso. Per ogni evento A di Ω (∀ A ⊂ Ω) si indica con Ā l’evento
complementare di A. Se A è l’evento “domani sarà nuvoloso”, Ā è evento
che indica tutto quello che non è A, cioè: “domani non sarà nuvoloso”. In
particolare vale sempre che
A ∪ Ā = Ω quindi P (A) + P (Ā) = 1
e dunque
P (A) = 1 − P (Ā)
Infatti, 1 = P (Ω) = P (A ∪ Ā) = P (A) + P (Ā) per il terzo assioma. Inoltre
si ha che, per ogni evento A, è sempre vero che
0 ≤ P (A) ≤ 1
Se A e B non sono eventi incompatibili, si ha che
A ∩ B 6= ∅ quindi P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
La Figura 1 fornisce una rappresentazione grafica delle relazioni tra insiemi
e probabilità.
c
2002-2003
S.M.Iacus
4
Ω
........
........ ............
.....
...
...
...
..
...
.
...
...
...
....
...
....
...
...
..
...
.
...
..
.
.
...
...
...
...
.....
....... ...........
..........
A
Ω
...........................
..............
........
........
......
......
.....
.....
...
.
...
....
..
....
...
...
..
...
.
.
.
.....
.
.
.
.
.
......
......
........
...............................................
B
....................................
...................
..........
..........
........
........
......
.....
......
.
.
.
.
.....
.....
.
.
................................................................
.
.
.
.
.
.
.
.
.
..
.
.
.
.
.
.
.
.
.
.
.
............
...
........
.
.
.
.
.
.........
.
.
.
....
.
.
.....
......
.
.
.
...
.
..
.
.....
...
..
.....
...
...
..
...
.
.
.
.
.....
...
..
.
..
.
.
.....
.
.
.....
..
....
.
.
.
.
......
.
.
.
.
.
.
.
.
.
.
.
........
........
....
....
.
.
.
.
.
.
...........
.
.
.
.
.
.
..........
.
.
.
.
...... ........
..........
..................
..............................................................................................................
A
A∩B
B
Figura 1: Diagrammi di Venn. In alto: a sinistra la rappresentazione di due
insiemi disgiunti: A ∩ B = ∅ (quindi P (A ∪ B) = P (A) + P (B)) e a destra il
caso di due insiemi con intersezione non nulla A ∩ B 6= ∅ (allora P (A ∪ B) =
P (A) + P (B) − P (A ∩ B)).
Gli eventi A, B, etc sono, in generale, dal punto di vista insiemistico, degli
insiemi contenenti più elementi al loro interno. Ci sono alcuni eventi chiamati
elementari che possono essere considerati come insiemi contenenti un solo elemento. L’insieme Ω relativo ad un esperimento viene generalmente descritto
in termini di eventi elementari che indichiamo con ω1 , ω2 , . . . , ωn , n ∈ N.
C’è un caso molto particolare di esperimenti in cui è possibile calcolare senza
troppe difficoltà le probabilità di eventi più complessi. Se gli eventi elementari sono tutti equiprobabili, cioè P ({ω1 }) = P ({ω2 }) = . . . = P ({ωn }), allora
la probabilità di un evento qualsiasi A composto da più eventi elementari si
calcola come
eventi elementari equiprobabili
P (A) =
|A|
# casi favorevoli (all’evento)
=
|Ω|
# casi possibili (dell’esperimento)
dove con |A| si intende il “numero di elementi contenuti in A” e il simbolo #
si legge “numerosità” o “cardinalità”. Se pensiamo al lancio di una moneta
non truccata, i possibili risultati sono T e C che sono anche equiprobabili.
Quindi Ω = {T, C} e P (T ) = P (C) = 1/2. Analogamente se lanciamo un
dado: ci sono 6 risultati possibili Ω = {1, 2, 3, 4, 5, 6} ciascuno di probabilità
1/6. Se pensiamo agli eventi A = “esce un numero pari” e B = “esce un
numero maggiore o uguale 4” le loro probabilità si possono calcolare come
c
2002-2003
S.M.Iacus
5
segue
P (A) = P ({2, 4, 6}) =
|{2, 4, 6}|
3
1
= =
|Ω|
6
2
P (B) = P ({4, 5, 6}) =
3
1
|{4, 5, 6}|
= =
|Ω|
6
2
e
Un altro importante concetto del calcolo della probabilità (e della statistica)
è quello di indipendenza. Diremo che due eventi sono indipendenti se il
verificarsi dell’uno non influenza il verificarsi dell’altro e viceversa. La nozione
è quindi abbastanza intuitiva ed è anche quella che ci fornirà la soluzione del
problema di Chevalier De Mere. Benché sia oggi una nozione di intuizione
comune, i matematici hanno impiegato circa 250 anni per formalizzare la
proprietà di indipendenza. Si pensi al seguente quesito di Kac : la probabilità
che vi sia una bomba a bordo di un aereo di linea è pari a 0.35. Supponendo
di dover effettuare un viaggio in aereo nei prossimi giorni, che accorgimenti
prendereste per diminuire il rischio di attentati a bordo del vostro aereo?
La risposta provocatoria che fornisce l’autore è: porto con me una bomba!
In questo caso, la probabilità che vi siano due bombe sulle stesso aereo sarà
sicuramente inferiore a 0.35 ed abbiamo diminuito il rischio di attentati.
Il ragionamento ha una falla che ci aiuta a mettere in luce il significato
di indipendenza. Se portiamo con noi una bomba nulla vieta all’attentatore
di portare con se un altro ordigno dal momento che le scelte dell’attentatore
non vengono minimamente influenzate dalle nostre. Il viceversa è ancora
vero non sapendo noi chi sia o se vi sia un attentatore a bordo dell’areo.
In sostanza i due comportamenti sono indipendenti, per cui il rischio rimane
invariato! Kac ovviamente è l’autore che ha formalizzato per primo la nozione
di indipendenza. Se abbiamo due eventi A e B e ne conosciamo le probabilità
P (A) e P (B) possiamo chiederci se la probabilità del verificarsi dell’uno
(ad esempio A) varia sapendo che si è già verificato l’altro (B) in simboli
scriviamo P (A|B) che si legge probabilità di A dato B. La definizione formale
è la seguente:
Probabilità condizionata
P (A|B) =
c
2002-2003
S.M.Iacus
P (A ∩ B)
con P (B) > 0
P (B)
6
Se il verificarsi di A non è influenzato dal verificarsi di B vorremmo che
sia P (A|B) = P (A) cioè che rimanga invariata la probabilità di A come
nell’esempio delle bombe di Kac. Possiamo finalmente dare la definizione di
indipendenza.
Indipendenza tra eventi
A e B sono indipendenti se e solo se
P (A|B) = P (A) e P (B|A) = P (B)
Poiché si ha che, se A e B sono indipendenti
P (A|B) =
P (A ∩ B)
= P (A) ⇔ P (A ∩ B) = P (A) · P (B)
P (B)
allora un’altra definizione di indipendenza è la seguente:
Indipendenza tra eventi (definizione alternativa)
A e B sono indipendenti se e solo se
P (A ∩ B) = P (A) · P (B)
Se pensiamo all’esempio del lancio dei dadi ed ai due eventi A = “esce un
numero pari” e B = “esce un numero maggiore o uguale a 4” , abbiamo visto
che P (A) = 1/2 e P (B) = 1/2. Se sappiamo che si è già verificato B cosa
possiamo dire sulla probabilità di A? Applichiamo la formula
P (A ∩ B)
P (numero pari maggiore o uguale a 4)
=
1
P (B)
2
P ({4, 6})
2 1
2
4
2
=
= / = ·2= =
1
6 2
6
6
3
2
P (A|B) =
Come si vede P (A) < P (A|B), cioè i due eventi non sono indipendenti e, in
particolare, la conoscenza del fatto che B si sia verificato cambia le nostre
aspettative sul fatto che anche A si sia verificato.
c
2002-2003
S.M.Iacus
7
Dalla definizione di probabilità condizionata segue che, presi due eventi
A e B qualsiasi valgono sempre le due relazioni:
P (A ∩ B) = P (A|B) · P (B)
P (A ∩ B) = P (B|A) · P (A)
Veniamo ora alla soluzione del problema di Chevalier De Mere. Dobbiamo
calcolare la probabilità di fare E = “un 6 su 4 lanci” di un dado e F = “un
doppio 6 su 24 lanci”. Indichiamo con P (A) la probabilità di fare 6 in un
lancio e con P (B) la probabilità di fare doppio 6 in un lancio di due dadi.
Sarà dunque P (A) = 1/6 e P (B) = 1/36. Calcoliamo P (Ē) e P (F̄ ) al posto
di P (E) e P (F ).
4
5
P (Ē) = P (Ā) · P (Ā) · · · P (Ā) (per 4 volte) =
6
usando la proprietà di indipendenza dei risultati nei singoli lanci. Quindi
4
5
P (E) = 1 − P (Ē) = 1 −
= 0.518
6
Per l’evento F si ha
P (F̄ ) = P (B̄) · P (B̄) · · · P (B̄) (per 24 volte) =
35
36
24
e quindi
24
35
P (F ) = 1 − P (F̄ ) = 1 −
= 0.491
36
da cui ne discende che P (F ) < P (E), cioè conviene scommettere sul 6 in 4
lanci piuttosto che sul doppio 6 in 24 lanci! Chevalier De Mere capı̀ a sue
spese – spendendo cifre ingenti – che il primo era il gioco più conveniente.
Prima di svolgere gli esercizi di questa sezione richiamiamo ancora due
proprietà intuitive ma molto utili negli esercizi. Se prendiamo un qualsiasi
evento A e lo intersechiamo con Ω il risultato è che riotteniamo ancora A
in quanto l’intersezione consiste di tutti gli elementi comuni a tutti e due
gli insiemi. Se invece consideriamo l’unione tra A e Ω riotteniamo tutto Ω,
infatti l’unione è l’insieme che contiene tutti gli elementi di A e tutti quelli
di Ω, riassumendo
c
2002-2003
S.M.Iacus
8
A
Lanci di A
TC
TT
B
CC
B
TT TC CC CT
CT
B
TT TC CC CT
TT TC CC CT
B
Lanci di B
TT TC CC CT
Figura 2: Schema ad albero per la soluzione dell’Esercizio 1.
Formule magiche
A ∩ Ω = A quindi P (A ∩ Ω) = P (A)
A ∪ Ω = Ω quindi P (A ∪ Ω) = 1
Esercizio 1. Due giocatori, A e B, lanciano 2 monete ciascuno. Qual è la
probabilità che il giocatore A ottenga più teste del giocatore B?
Nella Figura 2 viene riportato l’insieme di tutti gli esiti dell’esperimento, cioè
Ω. Se la moneta non è truccata si assume che P (T ) = P (C) = 1/2. Lo spazio
campionario ha dunque questo aspetto
Ω = {(T T, T T ), (T T, T C), (T T, CC), (T T, CT ),
(T C, T T ), (T C, T C), (T C, CC), (T C, CT ),
(CC, T T ), (CC, T C), (CC, CC), (CC, CT ),
(CT, T T ), (CT, T C), (CT, CC), (CT, CT )}
dove con (T T, CT ) abbiamo indicato l’evento il giocatore A ha totalizzato 2
T e il giocatore B una C e una T . L’evento di cui ci interessa calcolare la
probabilità è
E = {(T T, T C) ∪ (T T, CT ) ∪ (T C, CC) ∪ (CT, CC) ∪ (T T, CC)}
Tutti gli eventi di Ω sono equiprobabili, per cui la probabilità di ciascuno è
1/16, dove 16 è il numero totale degli eventi elementari di Ω. Quindi,
P (E) =
c
2002-2003
S.M.Iacus
|E|
5
=
|Ω|
16
9
oppure direttamente usando il terzo assioma
P (E) = P ((T T, T C) ∪ (T T, CT ) ∪ (T C, CC)
∪ (CT, CC) ∪ (T T, CC))
= P (T T, T C) + P (T T, CT ) + P (T C, CC)
+ P (CT, CC) + P (T T, CC)
1
1
1
1
5
1
+
+
+
+
=
=
16 16 16 16 16
16
Se gli eventi elementari non sono equiprobabili la formula non è più valida.
Vediamo di spiegarci con un esempio.
Esercizio 2. Un esperimento casuale consiste nell’estrarre una pallina da
un’urna contenente cinque palline numerate da 1 a 5. Se si estrae una pallina
contrassegnata con un numero dispari si lancia una moneta, mentre se si
ottiene un numero pari si lancia un dado. Descrivere lo spazio campionario
Ω di tale esperimento. Calcolare la probabilità dell’evento “esce testa”.
Lo spazio campionario Ω è composto dai seguenti eventi (si veda la Figura
3)
Ω = {1T, 1C, 3T, 3C, 5T, 5C, 21, 22, 23, 24,
25, 26, 41, 42, 43, 44, 45, 46}
dove con 1T abbiamo indicato l’evento pallina numero 1 e T nel lancio della
moneta mentre con gli eventi del tipo 24 abbiamo indicato pallina numero
2 e 4 sulla faccia del dado. Quindi Ω contiene tutti i possibili risultati dell’esperimento proposto dall’esercizio. Concentriamoci ora sull’evento “esce
T ”: T può uscire in tre circostanze 1T , 3T , 5T , quindi possiamo calcolare
direttamente la probabilità di tale evento
P (T ) = P (1T ∪ 3T ∪ 5T )
= P (T |1) + P (T |3) + P (T |5)
1 1 1 1 1 1
= · + · + ·
5 2 5 2 5 2
3
=
10
se invece avessimo usato la formula del caso di eventi elementari equiprobabili
avremmo ottenuto 3/18!
c
2002-2003
S.M.Iacus
10
1/2
1
T
1/2
C
1/5
2
1/6
2
1/6
3
1/6
4
1/6
1/2
5
6
T
3
1/2
1/5
1/5
1
1/6
1/5
1/5
1/6
C
4
1/6
1
1/6
2
1/6
1/6
5
1/2
T
3
1/6
4
1/6
5
6
1/2
C
Figura 3: Schema ad albero per la soluzione dell’Esercizio 2. Per ottenere le
probabilità dei risultati del nostro esperimento si devono moltiplicare le probabilità
presenti sui rami dell’albero sino a giungere alle foglie finali poiché gli eventi sono
indipendenti. Ad esempio per l’evento 3C si ha che P (3C) = P (3) · P (C) = 15 · 12 =
1
1 1
1
10 . Per l’evento 26 si ha P (26) = P (2) · P (6) = 4 · 6 = 24 .
c
2002-2003
S.M.Iacus
11
Nel calcolo della probabilità di P (1T ∪ 3T ∪ 5T ) abbiamo utilizzato il
terzo assioma che ci dice che se gli eventi sono incompatibili, cioè non si
possono verificare contemporaneamente, allora la probabilità dell’unione diventa la somma delle probabilità dei singoli eventi. Nell’attribuzione delle
probabilità agli eventi rappresentati dalle foglie dell’albero abbiamo usato la
proprietà di indipendenza. Come si nota abbiamo semplicemente moltiplicato le probabilità che compaiono sui rami dell’albero fino a giungere alle foglie
finali che rappresentano i risultati del nostro esperimento.
Per concludere la lezione introduciamo le leggi di De Morgan che stabiliscono le relazioni tra intersezione, unione e complementazione.
Leggi di De Morgan
A ∩ B = Ā ∪ B̄
A ∪ B = Ā ∩ B̄
Si noti che l’operazione di “complementazione” scambia l’intersezione con
l’unione e viceversa. Il prossimo è un esercizio riepilogativo su tutte le proprietà del calcolo delle probabilità ed essendo a carattere teorico può risultare
più ostico. Il consiglio è di capirne tutti i passaggi.
Esercizio 3. Siano A e B due eventi tali che P (A) = 2/7, P (B) = 1/3 e
P (Ā ∩ B̄) = 11/21. Calcolare le probabilità dei seguenti eventi: a) P (A ∪ B);
b) P (A ∩ B); c) P (Ā ∩ B); d) P (A ∪ B̄); e) P (Ā ∪ B̄).
a) usando le leggi di De Morgan si ha
P (A ∪ B) = 1 − P (A ∪ B) = 1 − P (Ā ∩ B̄) = 1 −
11
10
=
21
21
b) dalla probabilità dell’unione si ricava per differenza quella dell’intersezione, e quindi
P (A ∩ B) = P (A) + P (B) − P (A ∪ B)
2 1 10
2 · 6 + ·7 − 10
= + −
=
7 3 21
21
9
3
=
=
21
7
c
2002-2003
S.M.Iacus
12
c) per calcolare P (Ā ∩ B) possiamo ricorrere al seguente trucco visto che
già disponiamo di P (Ā ∩ B̄). P (Ā) = P (Ā ∩ Ω) per le formule magiche
viste in precedenza. Ma Ω può sempre essere riscritto come Ω = B ∪ B̄
quindi
P (Ā) = P (Ā ∩ Ω) = P (Ā ∩ (B ∪ B̄))
= P ((Ā ∩ B) ∪ (Ā ∩ B̄)) = P (Ā ∩ B) + P (Ā ∩ B̄)
per le leggi di De Morgan abbiamo che
P (Ā ∩ B̄) = 1 − P (A ∪ B) = 1 −
10
11
=
21
21
Quindi riassumendo
P (Ā) = P (Ā ∩ B) + P (Ā ∩ B̄)
cioè
11
2
= P (Ā ∩ B) +
7
21
4
da cui si ricava che P (Ā ∩ B) = 21 .
1−
d) P (A ∪ B̄) = 1 − P (Ā ∩ B) = 1 − 4/21 = 17/21 dal punto precedente.
e) P (Ā ∪ B̄) = 1 − P (A ∩ B) = 1 − 3/7 dal punto b).
La nozione di indipendenza si può estendere al caso di tre eventi. Le condizioni
che si devono verificare coinvolgono i tre eventi complesivamente e tutte le coppie.
In sintesi
Indipendenza nel caso di 3 eventi
tre eventi A, B e C si dicono indipendenti se e solo se
P (A ∩ B ∩ C) = P (A) · P (B) · P (C)
P (A ∩ B) = P (A) · P (B)
P (A ∩ C) = P (A) · P (C)
P (B ∩ C) = P (B) · P (C)
c
2002-2003
S.M.Iacus
13
Esercizio 4. Si supponga di lanciare due dadi e si considerino i seguenti tre eventi:
A = “le due facce dei dadi sono uguali”, B = “la somma delle facce dei due dadi è
compresa tra 7 e 10”, C = “il risultato della somma è pari a 2, 7 o 8”. Si dimostri
che i tre eventi non sono indipendenti.
Lo spazio campionario Ω è costituito da tutte le 36 coppie dei risultati del
lancio dei due dadi, ciscuno con probabilità 1/36. I tre eventi A, B e C risultano
essere costituiti come segue
A = {(1, 1), (2, 2), (3, 3), (4, 4), (5, 5), (6, 6)}
B = {(1, 6), (6, 1), (2, 5), (5, 2), (3, 4), (4, 3),
(2, 6), (6, 2), (3, 5), (5, 3), (4, 4),
(3, 6), (6, 3), (4, 5), (5, 4),
(5, 5), (4, 6), (6, 4)}
C = {(1, 1), (1, 6), (6, 1), (2, 5), (5, 2), (3, 4), (4, 3),
(2, 6), (6, 2), (3, 5), (5, 3), (4, 4)}
Le rispettive probabilità sono
1
P (A) = ,
6
1
P (B) = ,
2
P (C) =
1
3
Verifichiamo l’eventuale indipendenza
P (A ∩ B ∩ C) = P ((4, 4)) =
1
1 1 1
= · · = P (A) · P (B) · P (C)
36
6 2 3
Se prendiamo una delle coppie di eventi troviamo che
P (B ∩ C) = P ({(1, 6), (6, 1), (2, 5), (5, 2), (3, 4), (4, 3),
(2, 6), (6, 2), (3, 5), (5, 3), (4, 4)})
11
=
36
ma
1
11
1 1
· = =
6
2 3
6
36
e quindi gli eventi B e C non sono indipendenti. Si conclude che i tre eventi A, B
e C non possono essere indipendenti.
P (B) · P (C) =
Esercizio 5. Sia Ω lo spazio degli eventi formato dalle 3! permutazioni dei tre
elementi a, b e c più le triplette aaa, bbb, ccc. Sia Ai l’evento “l’i-esima posizione
è occupata dalla lettera a”, i = 1, 2, 3. Gli eventi Ai , i = 1, 2, 3 sono indipendenti?
c
2002-2003
S.M.Iacus
14
Con n! si indica il prodotto n · (n − 1) · (n − 2) · · · 2 · 1, quindi 3! = 3 · 2 · 1 = 6.
Lo spazio campionario Ω è il seguente
Ω = {abc, acb, bac, bca, cab, cba, aaa, bbb, ccc}
Gli eventi Ai sono rappresentati dalle triplette che hanno la lettera a nella posizione
i, quindi
3
1
A1 = {abc ∪ acb ∪ aaa},
P (A1 ) = =
9
3
3
1
A2 = {bac ∪ cab ∪ aaa},
P (A2 ) = =
9
3
3
1
A3 = {bca ∪ cba ∪ aaa},
P (A3 ) = =
9
3
Si verifica che
1
P (A1 ∩ A2 ) = P (aaa) = = P (A1 ) · P (A2 )
9
1
P (A1 ∩ A3 ) = P (aaa) = = P (A1 ) · P (A3 )
9
1
P (A2 ∩ A3 ) = P (aaa) = = P (A2 ) · P (A3 )
9
ma
1
1
P (A1 ∩ A2 ∩ A3 ) = P (aaa) = 6=
= P (A1 ) · P (A2 ) · P (A3 )
9
27
quindi i tre eventi sono indipendenti a coppie ma non nel loro insieme.
Esercizio 6. Nanni e Roberto decidono di andare assieme al cinema. La
probabilità che Nanni arrivi in orario al cinema è pari a 0.7. Roberto arriverà
in ritardo, con probabilità 0.9, solo se la sua bicicletta si rompe. Quest’ultimo
evento ha probabilità 0.1. Con che probabilità Nanni e Roberto arriveranno
entrambi in ritardo?
Indichiamo con N l’evento “Nanni arriva in orario al cinema” e analogamente per R. Quindi P (N ) = 0.7. Indichiamo con B l’evento “la bicicletta
si rompe”. Quindi P (R̄|B) = 0.9 e P (B) = 0.1. Dobbiamo cercare la probabilità dell’evento N̄ ∩ R̄. Supponiamo l’indipendenza tra il comportamento
di R e N e quindi
P (N̄ ∩ R̄) = P (N̄ ) · P (R̄) = (1 − P (N )) · P (R̄)
c
2002-2003
S.M.Iacus
15
Se leggiamo il testo, ci rendiamo conto che l’evento R̄ si verifica solo quando
l’evento B si è verificato, quindi se si verifica R̄ per certo sappiamo che B
si è verificato (sul viceversa non possiamo dire nulla). Questo vuol dire, in
termini di insiemi o diagrammi di Venn, che tutti gli elementi che appartengono a R̄ appartengono anche a B ma non tutti quelli di B appartengono
(necessariamente) a R̄. Vale quindi l’inclusione R̄ ⊂ B e dunque R̄ ∩ B = R̄.
Allora
P (R̄) = P (R̄ ∩ B) = P (R̄|B) · P (B) = 0.9 · 0.1
e dunque
P (N̄ ∩ R̄) = (1 − P (N )) · P (R̄) = (1 − 0.7) · 0.9 · 0.1 = 0.027
2
Tipologie di campionamento
Abbiamo detto che uno degli scopi dello studio del calcolo della probabilità è
effettuare dei campionamenti in ambito statistico e controllare quindi l’effetto della casualità sulle nostre analisi. Tralasciando le innumerevoli tecniche
di campionamento utilizzate nella pratica statistica, presentiamo brevemente
i due schemi principali di campionamento. Poiché in ambito probabilistico
spesso per motivi di intuizione si associa il campionamento alle estrazioni
da un’urna parleremo d’ora in avanti di campionamento con ripetizione e
campionamento senza reimmissione (ripetizione, reissimissione, reinserimento etc sono tutti sinonimi per lo stesso concetto che qui si vuole discutere).
Pensando al campionamento da popolazioni statistiche si potrà sempre associare l’urna all’intera popolazione e la pallina estratta all’individuo scelto
(in modo casuale).
Si consideri un’urna con 15 palline come quella della Figura 4. Se immaginiamo di pescare a caso dall’urna una delle palline, dovrebbe essere intuizione
comune che ogni pallina abbia la stessa probabilità di essere estratta, quindi
se con i si indica l’evento “estrazione della pallina numero i”, sarà P (i) =
1/15. Quindi prima di essere estratta la pallina 14 ha probabilità 1/15 di
esserlo. Lo stesso è vero per tutte le altre palline. Supponiamo ora di voler
effettuare una seconda estrazione. Con quale probabilità uscirà la pallina 3?
Si possono verificare due casi: (a) rimettiamo la pallina 14 nell’urna,
oppure (b) continuiamo ad estrarre dall’urna tenendo da parte quella già
c
2002-2003
S.M.Iacus
16
estratta. È evidente che, come mostra la Figura 4, nel caso (a) la pallina 3
avrà probabilità P (3) = 1/15 come nella prima estrazione mentre nel caso
(b) si deve tener presente che le palline rimaste nell’urna sono solo 14 e
quindi P (3) = 1/14. Si parla di estrazione con reimmissione nel caso (a) e
di estrazione senza ripetizione nel caso (b).
Mentre nel caso di estrazione con ripetizione, ad ogni estrazione le probabilità rimangono invariate, nel caso (b) ad ogni estrazione le probabilità
di estrazione cambiano.
Un altro quesito a cui può essere interessante rispondere è relativo all’ordine con cui vengono estratte le palline ma ciò esula dagli obiettivi del
corso.
È invece interessante rispondere alla seguente domanda: consideriamo
l’urna della Figura 4. Se pesco in una sola volta 3 palline, in quanti modi
posso farlo? Cioè quante sono le combinazioni di 3 palline che posso estrarre
in una sola volta? La risposta viene fornita dal
Coefficiente Binomiale
n
n!
=
(n − k)! · k!
k
numero di modi di estrarre k oggetti da un gruppo di n
dove n! è il numero di permutazioni di n oggetti, cioè in quanti modi posso
ordinare n oggetti (ad esempio, in quanti modi posso disporre n persone
attorno ad un tavolo rotondo o quanti sono gli anagrammi, anche senza
senso, di una parola di n lettere). La formula, lo ricordiamo, è la seguente:
n fattoriale
n! = n · (n − 1) · (n − 2) · · · 2 · 1
Quindi se voglio sapere in quanti modo posso estrarre 3 palline da un’urna
che ne contiene 15 dovrò calcolare
15
15!
15 · 14 · 13 · 12!
15 14
=
=
=
·
· 13 = 5 · 7 · 13 = 455
3
(15 − 3)! · 3!
12! · 3 · 2 · 1
5 2
c
2002-2003
S.M.Iacus
17
5
13
1
11
3
15
5
14
10
16
8
7
6
4
9
2
13
12
(a)
1
15
11
3
10
7
4
9
2
8
6
16
12
14
(b)
Figura 4: Estrazione casuale da un’urna. (a) : dopo ogni estrazione la pallina
viene reinserita nell’urna, quindi la composizione dell’urna rimane invariata; (b)
: ad ogni estrazione il numero di palline nell’urna diminuisce, quindi ad ogni
estrazione l’urna cambia di composizione.
cioè ci sono 455 modi diversi di estrarre 3 palline da un’urna. Pensiamo alle
estrazioni del gioco del Lotto. Vengono estratte 5 palline da un’urna che
ne contiene 90. Quindi, ad ogni estrazione del Lotto possono essere estratte
90
cinquine, cioè ogni cinquina ha una probabilità di essere estratta pari a
5
1/43949268!!! Infatti,
90 · 89 · 88 · 87 · 86
90
90!
=
=
= 43949268
85! · 5!
5·4·3·2
5
Per intendersi il simbolo nk si legge n su k e non n fratto k o n diviso k!!!
Proprietà di n! e
0! = 1 ,
n
= 1,
0
n
k
n
n
=
= n,
1
n−1
n
n
=
k
n−k
Esercizio 7. Un’urna contiene 5 palline bianche, 6 nere, 4 rosse. Se ne
estraggono 2. Calcolare la probabilità che siano dello stesso colore distinguendo il caso in cui le palline vengano estratte in coppia oppure singolarmente
rimettendo la prima pallina estratta nell’urna.
c
2002-2003
S.M.Iacus
18
Indichiamo con B, N ed R rispettivamente: si estrare pallina bianca,
nera e rossa. Nella Figura 5 sono indicati i due casi (a) con e (b) senza
reimmissione. Noi siamo interessati a calcolare la probabilità dell’evento
(R, R) ∪ (B, B) ∪ (N, N ) dove con (A, B) abbiamo indicato l’evento “pallina
di tipo A alla prima estrazione e di tipo B nella seconda”. Come si vede,
nel caso (a) le probabilità non cambiano da un’estrazione all’altra. Infatti
P (R, R) = 4/15·4/15 poiché alla prima estrazione vi sono 15 palline nell’urna
di cui 4 di tipo R. Gli eventi sono equiprobabili, per cui la formula: casi
favorevoli (4) su casi possibili (15), fornisce 4/15. Alla seconda estrazione
l’urna è rimasta invariata, per cui P (R) alla seconda estrazione è sempre
4/15. Lo stesso vale per gli altri due eventi (B, B) e (N, N ), dunque
P (due palline di stesso colore) = P ((R, R) ∪ (B, B) ∪ (N, N ))
= P (R, R) + P (B, B) + P (N, N )
2 2 2
5
6
4
+
+
=
15
15
15
= 0.342
Veniamo ora caso di estrazione senza riposizione. Consideriamo il caso dell’evento (R, R). Alla prima estrazione nulla cambia rispetto al caso (a)
P (R) = 4/15. Alla seconda estrazione l’urna contiene solo 15 - 1 = 14
palline ed è composta nel seguente modo: 3 R, 5 B e 6 N. Quindi, alla
seconda estrazione P (R) = 3/14. Si noti che nel campionamento senza reimmissione si perde l’indipendenza tra gli eventi, infatti sapere che alla prima
estrazione è uscita pallina rossa, cambia le probabilità di estrarre pallina R,
B e N (la prima diminuisce mentre le altre due aumentano). Per rispondere
all’esercizio si ha quindi
P (due palline di stesso colore) = P ((R, R) ∪ (B, B) ∪ (N, N ))
= P (R, R) + P (B, B) + P (N, N )
4 3
5 4
6 4
=
·
+
·
+
·
15 14 15 14 15 14
= 0.295
che, come era logico attendersi, è più bassa che nel caso (a). Si tenga presente
che se l’urna contiene molte palline, i due metodi di campionamento sono
pressoché simili. Infatti supponiamo di avere un’urna con 1000000 palline,
la probabilità di estrarre una pallina è 1/1000000 nel caso (a) e 1/999999 nel
c
2002-2003
S.M.Iacus
19
4/15
6/15
5/15
N
R
B
4/15
4/15
R
5/15
5/15
6/15
B
R
6/15
B
N
N
4/15
5/15
R
6/15
N
B
(a)
4/15
6/15
5/15
N
R
B
4/14
3/14
5/14
R
5/14
6/14
B
R
N
5/14
B
N
4/14
4/14
R
6/14
B
N
(b)
Figura 5: Schema ad albero dello spazio campionario dell’Esercizio 7.
(a)
Estrazione con ripetizione, (b) estrazione senza ripetizione.
c
2002-2003
S.M.Iacus
20
caso (b). La differenza tra le due probabilità è pari a 0.000001, ovvero una
quantità insignificante.
3
Esercizi supplementari
Esercizio 8. Guglielmo e Robin si sfidano al tiro con l’arco. La probabilità
che Guglielmo centri il bersaglio è 0.35, mentre la probabilità che Robin non
faccia centro è 0.6. Sapendo che la probabilità che almeno uno dei due sfidanti centri il bersaglio è pari a 0.75, determinare la probabilità che entrambi
facciano centro.
Indichiamo con G l’evento “Guglielmo centra il bersaglio” e con R l’evento
“Robin centra il bersaglio”. Si ha dunque P (G) = 0.35 e P (R) = 1− P (R̄) =
1 − 0.6 = 0.4. Dire che almeno uno dei due centra il bersaglio equivale a dire
che o Robin lo centra (evento R), o è Gugliemo a centrarlo (evento G) o
tutti e due, si tratta dunque dell’evento unione R ∪ G. Il testo ci dice che
questo evento ha probabilità P (G ∪ R) = 0.75. L’evento “entrambi fanno
centro” corrisponde a G ∩ R e quindi P (G ∩ R) = P (G) + P (R) − P (A ∪ B) =
0.35 + 0.4 − 0.75 = 0. C’era da aspettarselo che non potessero fare entrambi
centro conoscendo Robin e Guglielmo!
Esercizio 9. Si supponga di estrarre, senza reinserirle nel mazzo, 3 carte
da un mazzo da 52 carte Francesi. Si calcoli la probabilità di ottenenere: a)
esattamente 2 figure; b) figura alla seconda estrazione.
A questo esercizio non si risponde con: “non conosco le carte Francesi”.
Le carte Francesi solo le usuali carte da Poker dove per ogni segno (♥, ♠,
♦, ♣) vi sono 13 carte: quelle con i numeri da 1 a 10 e poi le tre figure J, Q
e K. Poiché il testo dell’esercizio non distingue per segno si può procedere
come segue: alla prima estrazione nel mazzo vi sono 3 · 4 = 12 figure (F ) e
le restanti 40 carte sono “non figure” (F̄ ). Quindi la probabilità di estrarre
figura alla prima estrazione è P (F ) = 12/52. Se abbiamo estratto una figura,
alla seconda estrazione il mazzo conterrà 51 carte di cui solo 11 sono figure,
quindi la probabilità di estrarre figura alla seconda estrazione, avendo già
estratto una figura nella prima estrazione, è P (F ) = 11/51. In sostanza la
c
2002-2003
S.M.Iacus
21
sequenza (F, F ), cioè due figure consecutive, ha probabilità
P (F, F ) =
12 11
·
52 51
La terza carta deve essere una non figura, e quindi poiché il mazzo contiene
ora 50 carte di cui 40 sono non figure si ha P (F̄ ) = 40/50. In definitiva si ha
che
12 11 40
P (F, F, F̄ ) =
·
·
.
52 51 50
Ma questo non risolve l’esercizio, infatti l’evento A = “esattamente 2 figure”
consiste nelle varie possibilità (F, F, F̄ ), (F, F̄ , F ), (F̄ , F, F ), quindi
P (A) = P {(F, F, F̄ ) ∪ (F, F̄ , F ) ∪ (F̄ , F, F )}
= P (F, F, F̄ ) + P (F, F̄ , F ) + P (F̄ , F, F )
40 · 12 · 11
12 · 11 · 40 12 · 40 · 11 40 · 12 · 11
=
+
+
=3·
52 · 51 · 50 52 · 51 · 50 52 · 51 · 50
52 · 51 · 50
Si poteva anche procedere nel seguente modo. Si devono formare gruppi di
3 carte composti da 2 figure e una non figura. I casi possibili
sono i modi
52
in cui si estraggono 3 carte da un mazzo di 52, cioè 3 . I casi favorevoli,
consistono nello
scegliere le 2 figure tra le 12 disponibili e questo può essere
12
fatto in 2 modi e una non figura tra le quaranta a disposizione in 40
1
modi. Quindi
12 40
12·11·10! 40·39!
· 39!·1!
40 · 12 · 11
2
1
10!·2!
P (A) =
=
=3·
52
52·51·50·49!
52 · 51 · 50
49!·3·2!
3
che, evidentemente, è lo stesso risultato.
Esercizio 10. Una squadra di calcio schiera ad ogni partita 1 portiere, 5
difensori e 5 attaccanti. La società “Aleas” sceglie in modo casuale ciascun gruppo di giocatori tra 2 portieri, 8 difensori e 12 attancanti disponibili.
Quante sono le formazioni possibili? Se Bobo e Alex sono due attancanti,
quante sono le formazioni in cui giocano entrambi? Se Franco è un difensore,
qual è la probabilità che Franco e Alex giochino entrambi?
I casi possibili di questo esperimento sono tutte le formazioni
possibili
che possono essere formate scegliendo un portiere tra due ( 21 = 2), cinque
c
2002-2003
S.M.Iacus
22
difensori tra otto ( 85 = 56) e cinque attaccanti tra i dodici (
definitiva le formazioni possibili sono
2
8
12
·
·
= 2 · 56 · 792 = 88704
1
5
5
12
5
= 792). In
Vediamo ora in quante formazioni possono giocare assieme Bobo ed Alex.
Poiché sono entrambi attaccanti, vuol dire che, se Bobo e Alex sono già stati
scelti, in formazione rimangono liberi solo 3 posti da attaccante da scegliere
tra i restanti 10 attaccanti della rosa. Nulla cambia per il portiere e i difensori.
Dunque, usando la formula casi favorevoli su casi possibili si ha
8 10
2
·
· 3
formazioni con Bobo e Alex
13440
=
= 12 58 12
= 0.15
formazioni possibili
88704
· 5 · 5
1
che corrisponde quindi alla probabilità con cui Bobo e Alex giocano assieme
in formazione. In modo analogo si calcola la probabilità con cui Franco e
Alex giocano assieme. Si deve tener presente che le formazioni in cui giocano
assieme, i casi favorevoli, sono tali per cui in squadra rimangono liberi 4
posti da attaccante da scegliere tra gli 11 della rosa e 4 posti da difensore da
scegliere tra i 7 in panchina. Quindi
7 11
2
·
· 4
formazioni con Franco e Alex
23100
1
=
= 2 84 12
= 0.26 .
formazioni possibili
88704
·
·
1
5
5
c
2002-2003
S.M.Iacus
23
1
Principio delle probabilità totali e formula
di Bayes
In questa sezione consideriamo un uso più proficuo del concetto di probabilità
condizionata. Per illustrare il concetto ricorriamo ad un esempio proveniente
dal campo clinico e noto con il nome di paradosso dei falsi positivi.
Una grave malattia infettiva ha un’incidenza sulla popolazione pari a
0.001, cioè 1 persona su 1000 risulta esserne infetta. Si supponga di avere
un test clinico concepito in modo tale che se un individuo è effettivamente
malato il test da esito positivo nel 99% dei casi. Sempre lo stesso test, nel
caso in cui l’individuo sia sano, sbaglia segnalando un caso di positività nel
2% dei casi. Ci proponiamo di calcolare la probabilità che un individuo
scelto a caso risulti positivo al test e quella che lo sia effettivamente quando
il test lo individua come positivo. Indichiamo con + l’evento “il test da esito
positivo”, con I l’evento “individuo infetto”. Quindi
P (I) = 0.001,
P (+|I) = 0.99,
¯ = 0.02
P (+|I)
Ricordiamo che I ∪ I¯ = Ω, cioè preso un individuo a caso nella popolazione possono verificarsi solo due eventi: l’individuo è infetto (evento I) o
¯ Diamo uno sguardo alla Figura 1.
l’individuo è sano (evento I).
Dalla figura si intuisce forse più chiaramente che l’evento + può essere
ottenuto come unione dei due eventi intersezione + ∩ I (infetto e positivo
al test) e + ∩ I¯ (sano ma positivo al test). Quindi diventa molto semplice
risolvere il problema. Infatti,
a) Calcoliamo P (+)
¯
P (+) = P (+ ∩ I) + P (+ ∩ I)
¯ · P (I)
¯
= P (+|I) · P (I) + P (+|I)
= 0.99 · 0.001 + 0.02 · (1 − 0.001)
= 0.02097
Scomporre un evento tramite l’utilizzo di altri eventi di cui si ha maggiore informazione è un prassi consolidata. Il risultato, che verrà illustrato nella sua generalità nel seguito, prende il nome di Principio delle
probabilità totali.
c
2002-2003
S.M.Iacus
1
Ω
I
......
.....
......
.....
......
......
.....
.....
.....
.....
......
.....
.....
.....
.....
.....
.....
.....
.....
.....
....
.
................................................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...............
.
.................
.
.
...
.
.
.
.
.
.
.
.
.
.
.
.
.
............
...
.........
.
.
.
.
.
.........
.
.
.
.
.
..
........
........
.......
..
.......
.
.
.
.
......
.
.
.
..
....
.....
.
.
.
.
.
.
..
...
.
.
.
...
.
.
.
.
.
.
.
.
.
.
.
.
...
.........
.
.
.
.
.....
.
.
....
.
.
.
...
.
...
.
....
.
...
..
.
.
.
...
.....
...
.
.
.
.
.
.
.
.
.
.
.
.
......
....
....
.......
.......
....
........
........
....
..........
..........
............. .....
............
.
.
.....................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..............................................................................
.
...
..
..
..
....
...
..
..
...
......
.............................................................
.......
.......................................
......
.....
....
...
..
..
..
I¯
+∩I
+ ∩ I¯
Figura 1: I = “infetto”, I¯ = “sano”, + = “esito positivo al test”. Come si
vede l’evento + può essere ottenuto come unione dei due eventi intersezione + ∩ I
(infetto e positivo al test) e + ∩ I¯ (sano ma positivo al test).
b) Il secondo punto ci chiede di calcolare P (I|+). Cioè da un informazione a priori su I, tramite l’esperienza (l’esito del test) arriviamo ad
un aggiornamento, detto a posteriori, sulla probabilità di I: P (I|+).
Ricorriamo alla definizione di probabilità condizionata
P (I ∩ +)
P (+|I) · P (I)
=
P (+)
P (+)
P (+|I) · P (I)
=
¯ · P (I)
¯
P (+|I) · P (I) + P (+|I)
P (I|+) =
Quindi, una volta nota P (+) tramite il principio delle probabilità totali,
siamo in grado di calcolare un probabilità a posteriori semplicemente
aggiornando le nostre conoscenze a priori. Quella sopra è nota come
formula di Bayes, dal nome del matematico del ’600 che l’ha formulata
per primo. Quindi, tornando ai nostri conti:
P (+|I) · P (I)
P (+)
0.99 · 0.001
=
= 0.0472
0.02097
P (I|+) =
c
2002-2003
S.M.Iacus
2
Il test segnala circa il 2% di esiti positivi ma di questi solo 5 su 100 sono
realmente infetti. Quindi se sottoponiamo ad analisi 10.000 individui, 200 di
questi saranno segnalati come positivi ma solo 10 di questi sono realmente
infetti. Ciò vuol dire che dei circa 200 segnalati come positivi circa 190 di
essi rischiano un inutile infarto per la lieta notizia!
Quanto segue è un approfondimento sul principio delle probabilità totali e
la formula di Bayes. Benché la trattazione sia più generale di quanto esposto
sopra, i passaggi logici sono esattamente gli stessi con l’unica differenza che
Ω viene scomposto in termini di più eventi anziché uno solo (che nel caso
appena visto era I). Il consiglio è quindi di leggere e capire il materiale che
segue nonché lo svolgimento degli esercizi.
Definiamo partizione una collezione di insiemi A1 , A2 , . . . , Ak con le
seguenti proprietà: se ne consideriamo l’unione, questa ci restituisce Ω. Cioè,
se li pensiamo come eventi non necessariamente elementari, allora gli Ai
rappresentano tutto quello che può accadere. Richiediamo inoltre che, presi
due insiemi a caso, diciamo Ai e Aj , essi risultano disgiunti (o incompatibili)
cioè Ai ∩ Aj = ∅.
Partizione di Ω
k eventi A1 , A2 , . . . Ak sono una partizione se e solo se
k
S
Ai = Ω
e
i=1
scelti due qualsiasi Ai e Aj allora Ai ∩ Aj = ∅
La Figura 2 è una rappresentazione grafica di partizione di Ω nel caso di
k
S
k = 5 insiemi o eventi. Con il simbolo
Ai si intende l’unione di tutti gli
i=1
eventi Ai con i che va da 1 a k, cioè:
k
[
A i = A1 ∪ A 2 ∪ · · · ∪ A k .
i=1
Come si vede dalla Figura 2 la probabilità di un qualsiasi evento E può essere
c
2002-2003
S.M.Iacus
3
Ω
.....
.....
....
.....
....
....
....
...
...
...
...
...
...
...
...
..
...
...
..
...
.
..
..
..
..
..
...
..
.
..
..
...
...
..
..
..
...
...
..
...
...
..
.
.
...
....
...
..
.
...
..
...
..
..
...
..
...
...
...
..
A1
p ppp
pppp
p p p p pp p
p pp p p p
ppp
pp p p p p
...
...
...
...
...
.
.
.
.
...
...
...
..
.
...
...
...
..
.
...
..
...
..
..
..
..
...
...
.....
..............................................
...
..
.
...
...........
.......
.
.
.
...
.
.
..
.........
..
..
..
..
...
.
.
.
...
...
...
... .......
...... ....
...
...
.
..
..
..
.
.
.
.
...
....
....
....
....
A2
pppp
p pppp
....
....
.....
....
....
....
....
...
...
...
...
..
...
...
..
..
..
..
...
...
..
...
....
....
.
.
.
.
.
.
.
.
.
.
.
.
........
....
...
..
..
....
.
....
..
...
...
...
...
...
...
...
...
...
...
...
....
....
....
....
....
....
....
.....
.....
....
.....
....
....
....
...
A3
ppppppppp
pp ppp pp p p p p
p
p
p
p
p p p pp
...
...
....
...
...
...
...
...
...
...
...
...
...
...
...
...
...
..
..
..
..
..
..
..
..
..
..
..
..
...
..
.
.
.
.
..
........................
..................
....
...
..
..
...
.....
..
...
...
...
...
...
...
...
...
...
...
...
...
...
....
...
....
...
....
..
A4
p p p p p ppppppppppppp p p p pppp ppp pp pp p p p p
ppppp
ppp
pp p p
pppp
ppp A1 ∩ E
A2 ∩ E
p p pp p p p p p p
ppp p
A4 ∩ E p p p
ppppp
p p p ppp
pp
p pp p p p
ppp
A3 ∩ E
p p p p pp
p
p
ppp p p p
ppp
pppp p p
pp p p
p
p p p pppp
p
p
p
p
p
p
p
p
p
p p p p p p p p pp p p p p p p p p p p p p p p p p p p p p p p
p p p pp
pp p p
p
pp
pppp
pp
pp
ppp p
ppp
pp p
pp p
pp
A5
Figura 2: A1 , A2 , A3 , A4 e A5 sono una partizione di Ω che rispetta le ipotesi del
principio delle probabilità totali e della formula di Bayes. L’insieme tratteggiato
è un insieme E che interseca tutti gli insiemi della partizione salvo A5 .
ricavata da quella degli eventi della partizione nel seguente modo
P (E) = P ((A1 ∩ E) ∪ (A2 ∩ E) ∪ (A3 ∩ E) ∪ (A4 ∩ E) ∪ (A5 ∩ E))
= P (A1 ∩ E)+P (A2 ∩ E)+P (A3 ∩ E)+P (A4 ∩ E)+P (A5 ∩ E)
poiché gli eventi Ai ∩ E sono tutti disgiunti
= P (A1 ∩ E) + P (A2 ∩ E) + P (A3 ∩ E) + P (A4 ∩ E)
poiché A5 ed E disgiunti
Quindi tornando alla probabilità dell’evento E si ha
P (E) = P (E|A1 ) · P (A1 ) + P (E|A2 ) · P (A2 )
+ P (E|A3 ) · P (A3 ) + P (E|A4 ) · P (A4 )
che può essere interpretata come segue: se conosciamo le probabilità degli
eventi della partizione (chiamate anche probabilità a priori) e conosciamo le
probabilità condizionate del verificarsi di un qualsiasi altro evento agli eventi
della partizione, siamo sempre in grado di calcolare la probabilità dell’evento
c
2002-2003
S.M.Iacus
4
stesso. Nella pratica statistica, molto spesso si hanno informazioni proprio
sulle quantità P (Ai ) e P (E|Ai ) e si ha la necessità di ricavare il valore di
P (E). Enunciamo ora il risultato generale
Principio delle probabilità totali
se Ai sono un partizione di Ω e E è un qualsiasi altro evento
P (E) =
k
P
P (E|Ai ) · P (Ai )
i=1
dove con
k
P
xi si intende la somma di tutti i numeri xi con i da 1 a k cioè
i=1
k
X
xi = x1 + x2 + · · · + xk
i=1
P
e il simbolo
(sigma) si legge sommatoria. Il risultato principale che chiude
queste prime lezioni di probabilità è la formula di Bayes. La formula di
Bayes da una risposta alla seguente domanda: mettiamoci nelle condizioni
del principio delle probabilità totali. Se osserviamo il verificarsi dell’evento
E qual è la probabilità che si sia verificato uno degli Ai (ad esempio A2 )?
In sostanza, la formula di Bayes calcola quelle che si chiamano probabilità a
posteriori P (Ai |E).
Formula di Bayes
se Ai sono un partizione di Ω e E è un qualsiasi altro evento
P (Aj |E) =
P (E|Aj ) · P (Aj )
,
k
P
P (E|Ai ) · P (Ai )
j = 1, . . . , k
i=1
L’idea della formula di Bayes è l’aggiornamento delle nostre conoscenze a
priori P (Ai ) che avviene al seguito del realizzarsi di un altro evento E. Se
c
2002-2003
S.M.Iacus
5
l’evento è di una qualche importanza per la conoscenza degli Ai allora la
probabilità di Ai passa da P (Ai ) a P (Ai |E). Per intenderci: un paziente si presenta ad un medico lamentando una serie di sintomi. L’esperienza
del medico (l’a priori) dice che ci sono tre malattie che producono la stessa
sintomatologia riscontrata nel paziente anche se con diversa frequenza. Diciamo che il medico assegna alle tre malattie le probabilità: P (A1 ) = 5/10,
P (A2 ) = 3/10 e P (A3 ) = 2/10. Come fare a stabilire la giusta terapia? La
malattia 1 è più frequente ma meno grave della 2 che invece è più rara e se
trascurata potrebbe portare ad un esito fatale. Il medico sa che il presentarsi di un particolare altro sintomo (diciamo l’ipertensione) si produce con
frequenza diversa nelle tre malattie. Indichiamo con E l’evento “ipertensione”. Dai libri di medicina sappiamo che P (E|A1 ) = 1/3, P (E|A2 ) = 2/3
e P (E|A3 ) = 0. Cioè l’ipertensione si presenta più frequentemente nel caso
della malattia numero 2 che nella malattia numero 1 mentre non si manifesta
affatto nella terza. Decide di misurare la pressione al paziente e questi risulta
effettivamente essere affetto anche da ipertensione, cioè il medico constata
che si è verificato l’evento E. Il medico è ora in grado di stabilire di che
patologia si tratta sulla base della nuova esperienza fatta. Infatti,
P (E) = P (E|A1 ) · P (A1 ) + P (E|A2 ) · P (A2 ) + P (E|A3 ) · P (A3 )
1 5
2 3
2
11
= ·
+ ·
+0·
=
10
30
3 10 3 10
e dunque per le probabilità a posteriori si ha
P (E|A1 ) · P (A1 )
=
P (A1 |E) =
P (E)
P (A2 |E) =
P (E|A2 ) · P (A2 )
=
P (E)
1
3
5
10
11
30
2
· 3
3 10
11
30
·
=
5
11
=
6
11
P (A3 |E) = 0
quindi la seconda malattia, la più grave, risulta anche essere la più probabile
a posteriori grazie alle nuove informazioni raccolte dal medico.
Le stesse considerazioni si applicano, ad esempio, nelle aule di tribunale
quando il giudice (o la giuria) entrando in possesso di nuovi elementi possono,
nel caso la legge lo consenta, avvalersi di tale informazione per aggiornare il
loro giudizio.
c
2002-2003
S.M.Iacus
6
Esercizio 1. Nell’alfabeto M orse i simboli · e − sono in proporzione di 3:4.
Si supponga di trasmettere un segnale lungo una linea disturbata in modo
tale che i simboli · e − vengano ricevuti scambiati con probabilità 1/8. Se si
riceve il simbolo ·, con che probabilità è stato realmente inviato il ·?
Indichiamo per brevità con 1 e 0 rispettivamente il punto e la linea e
con R0 /R1 e T0 /T1 , rispettivamente, gli eventi “si riceve linea/punto” e “si
trasmette linea/punto”. Il testo ci dice che P (T1 ) = 3/7 e P (T0 ) = 4/7.
Inoltre sappiamo che P (R1 |T0 ) = 1/8 e P (R0 |T1 ) = 1/8. Dobbiamo calcolare
P (T1 |R1 ). Cominciamo con il calcolare la probabilità di riceve un punto, cioè
P (R1 ). Usiamo il principio delle probabilità totali
P (R1 ) = P (R1 |T1 ) · P (T1 ) + P (R1 |T0 ) · P (T0 ) =
in quanto P (R1 |T1 ) = 1 − P (R0 |T1 ) = 1 −
P (T1 |R1 ) usiamo la formula di Bayes
1
8
P (R1 |T1 ) · P (T1 )
P (T1 |R1 ) =
=
P (R1 )
7
.
8
=
7
8
·
25
56
3
7
7 3 1 4
25
· + · =
8 7 8 7
56
Quindi per calcolare
=
21
25
Gli ultimi due esercizi concludono la trattazione del calcolo delle probabilità utile al fine del nostro corso. Come alcuni dei precedenti, anche questi
esercizi richiedono uno sforzo maggiore per poter essere assimilati.
Esercizio 2. Cinque scatole di dischi magnetici sono numerate con le cifre 1, 2,
. . . , 5. Di 10 dischi, la i-esima scatola ne contiene “i” danneggiati e “10-i” intatti.
Si sceglie una scatola a caso e, senza poterne leggere il numero che la identifica,
se ne estrae un disco. Con che probabilità il disco è difettoso? Constatando che il
disco estratto è difettoso, con che probabilità proviene dalla i-esima scatola?
Indichiamo con Si l’evento “si estrae la scatola numero i” e con D l’evento “si
estrae dischetto difettoso”. È chiaro dunque che
P (S1 ) = P (S2 ) = P (S3 ) = P (S4 ) = P (S5 ) =
1
5
e tali eventi sono necessari e incompatibili, cioè
S1 ∪ S2 ∪ S3 ∪ S4 ∪ S 5 = Ω
c
2002-2003
S.M.Iacus
7
e
Si ∩ Sj = ∅,
∀ i 6= j = 1, 5
Inoltre sappiamo dal testo che
P (D|S1 ) =
1
10
P (D|S2 ) =
2
10
P (D|S3 ) =
3
10
5
4
P (D|S5 ) =
10
10
a) Dobbiamo calcolare P (D) e lo facciamo sfruttando il principio delle probabilità totali, quindi
P (D|S4 ) =
P (D) =
5
X
P (D|Si ) · P (Si ) =
i=1
5
5
X
i 1
1 X
1 5(5 + 1)
3
· =
=
=
10 5
50
50
2
10
i=1
i=1
b) L’informazione che il disco estratto è difettoso, modifica le nostre aspettative
iniziali rispetto all’aver estratto in modo equiprobabile una delle 5 scatole.
Usiamo quindi la formula di Bayes per calcolare P (Si |D)
P (Si |D) =
P (D|Si ) · P (Si )
=
P (D)
i
10
·
3
10
1
5
=
i
15
Esercizio 3. Si supponga di avere tre scatole contenenti: la prima due gettoni da
1 ¤, la seconda un gettone da 1 ¤ e uno da 5 ¤ e l’ultima due gettoni da 5 ¤. Si
sceglie a caso una scatola e se ne estrae, in modo equiprobabile, uno dei due gettoni
che risulta essere da 1 ¤. Qual è la probabilità che il gettone non estratto sia da
1 ¤? Si rimette nella scatola il gettone estratto e si estrae di nuovo un gettone
dalla stessa scatola. Risulta essere ancora una volta da 1 ¤. Con che probabilità
il gettone rimasto nella scatola è da 1 ¤?
Questo problema apparso molti anni fa anche su un noto periodico di enigmistica è esemplare nello spiegare come l’acquisizione di informazione può modificare
la nostra interpretazione dello spazio campionario. È pur tuttavia un esercizio un
poco ostico. Indichiamo con S1 , S2 e S3 le tre scatole contenenti, nell’ordine, 2
gettoni da 1 ¤, 1 da 1 ¤ e uno da 5 ¤ e due gettoni da 5 ¤. Indichiamo con ¤
l’evento “si estrae il gettone da 1 ¤”. I dati del problema ci dicono che
P (S1 ) = P (S2 ) = P (S3 ) =
e
P (¤|S1 ) = 1,
c
2002-2003
S.M.Iacus
1
P (¤|S2 ) = ,
2
1
3
P (¤|S3 ) = 0
8
a) Chiedersi con quale probabilità il gettone rimasto nella scatola sia da 1
¤, equivale a chiedersi con quale probabilità stiamo estraendo dalla prima
scatola. Usiamo la formula di Bayes
P (S1 |¤) =
P (¤|S1 ) · P (S1 )
P (¤)
dove, per il principio delle probablità totali,
P (¤) =
3
X
i=1
1
P (¤|Si ) · P (Si ) =
3
1
1+ +0
2
=
1
2
quindi
P (S1 |¤) =
1·
1
2
1
3
=
2
3
Da ciò concludiamo che P (S3 |¤) = 0 e P (S2 |¤) = 1 − P (S1 |¤) = 13 . Quindi
possiamo aggiornare le nostre informazioni a priori sulle scatole, sapendo
che, per il fatto di aver estratto il gettone da 1 ¤, abbiamo escluso la scatola
numero 3.
2
PII (S1 ) = P (S1 |¤) =
3
1
PII (S2 ) = P (S2 |¤) =
3
b) Ora indichiamo con ¤ ancora l’evento “si estrae il gettone da 1 ¤” tenendo
conto che si tratta della seconda estrazione. Calcoliamo la probabilità di ¤
PII (¤) =
2
X
P (¤|Si ) · PII (Si ) = 1 ·
i=1
2 1 1
5
+ · =
3 2 3
6
E ora rispondiamo alla domanda dell’esercizio. Calcoliamo
PII (S1 |¤) =
1· 2
4
P (¤|Si ) · PII (Si )
= 53 =
5
PII (¤)
6
Come si vede la probabilità di estrarre dalla prima scatola è ancora aumentata passando da 13 prima di fare l’esperimento a 32 dopo la prima estrazione
e infine a 45 con l’ultima estrazione.
c
2002-2003
S.M.Iacus
9