Programma e note del corso di Matematica D, a.a. 2001

Transcript

Programma e note del corso di Matematica D, a.a. 2001
Programma e note del corso di Matematica D, a.a. 2001-02
Testi citati:
[A] Raccolta di appunti di Matematica Discreta, ed. Libreria Progetto, Padova.
[B] M. Bramanti, Calcolo delle probabilità e statistica, Progetto Leonardo, Esculapio, Bologna.
Programma
Gli esercizi sono parte integrante del programma. Comunque vengono segnalati
quelli di rilevanza teorica. SD significa: senza dimostrazione.
I: Matematica Discreta
Contare disposizioni, selezioni, distribuzioni. Contare disposizioni, selezioni,
distribuzioni. ([A]: Cap. 1: tutto.)
Il Principio di inclusione/esclusione. [A] Cap. 2: tutto eccetto 2.0.2 (la def.
di S(n,k) si trova a pag. 35, la dim. del Teorema 2.13 si trova nella nota 1). No
2.0.3 per il corso a distanza (Prof. Tonolo)
Grafi. Grafi e grafi semplici. Saper riconoscere i grafi bipartiti (nota 2). Grado
dei vertici. Sottografi. Cammini e connessione. Cicli. Isomorfismi. Matrice di
adiacenza. ([A]: cap. 4: 4.1, 4.2, 4.3, 4.6 (Th. 4.12 SD) e Lemmi in nota 4, 4.7 (no
il Th. 4.15), 4.4 con nota 3 ed esercizio 4.16, 4.5 e nota 8).
Alberi. Alberi. Cammini ottimali. ([A]: Cap. 5: fino al Corollario 5.3 incluso;
Teorema 5.5 (dim. in nota 5); Corollario 5.6 (dim. in nota 5); Corollario 5.7;
L’algoritmo di Kruskal: Teorema 5.9 (SD))
Circuiti di Eulero e cicli di Hamilton. Percorsi e circuiti di Eulero. Cicli di
Hamilton. Grafi senza cicli di Hamilton ([A], Cap. 6: Teorema 6.1 (dim. in nota
6); Teorema sulla esistenza di percorsi di Eulero (Corollario in nota 6); Lemma 6.4
(dim. : è il Teorema in nota 7), Chiusura di un grafo. Teorema 6.6; Teorema 6.3
(dim. in nota 7); §6.5).
Grafi planari. Metodo della corda e del cerchio. Formula dei gradi delle facce e
formula di Eulero. Teorema dei 6 colori. ([A]: Cap. 9: dalla fine della dim. del
Teorema 9.1 alla §9.1 non compresa; Teorema 9.4 (dim. in nota 9), Teorema 9.5
(anche la dim.), Corollario 9.6, 9.7, 9.8, Esercizio 9.2 (soluzione in nota 9), §9.4,
Esempio 8.7)
Relazioni di ricorrenza. Modelli. Relazioni di ricorrenza omogenee e non omogenee. ([A], Cap. 10: §10.1, §10.2, 10.3: fino all’esempio 10.17 incluso.)
II: Probabilità e statistica
Probabilità. Esperimenti aleatori. Eventi e operazioni su eventi. Probabilità
di eventi. Probabilità classica e problemi di conteggio. Probabilità condizionata.
Indipendenza di eventi. Affidabilità di un sistema. ([B]: Cap. 2: tutto).
1
Variabili aleatorie e modelli probabilistici. Variabili aleatorie discrete. Il
processo di Bernoulli. Le variabili aleatorie legate al processo di Bernoulli. Valore
atteso di una v.a. Varianza e covarianza di una v.a. Disuguaglianza di Cebicev.
Legge dei grandi numeri. Leggi ipergeometrica e di Poisson.
([B]: Cap. 3: 3.1, 3.2, 3.3, 3.4 eccetto la def. di binomiale negativa e di legge
geometrica traslata; saper comunque fare gli esempi 24, 26, 27 e i calcoli dei valori
attesi per le variabili aleatorie: numero di tentativi per n successi e numero di
insuccessi per n successi; Note 11, 12, 12,13,14,15;[B]: 3.6 e note 16, 17, 18; [B]: 3.7
e Nota 19)
Densità congiunte e probabilità condizionate. Densità congiunte (Nota 20).
Media condizionata (Nota 21).
Variabili aleatorie continue. Variabili aleatorie continue. Legge esponenziale
(saperla trovare). il modello normale. ([B]: Cap. 3: 3.9, Definizione 90 e Prop. 92,
3.11.1, 3.11.2)
Note
0. Combinatoria. Questo il modo per risolvere un problema con il principio di
inclusione/esclusione (PIE). I problemi che richiedono di contare in quanti modi si
verificano più eventi B1 , . . . , B : n si possono formulare come calcolare il numero di
elementi di B1 ∩· · ·∩Bn : per applicare la formula del PIE (Teorema 2.2) è sufficiente
determinare gli complementari Ai = Bi0 dei Bi e scrivere che B1 ∩ · · · ∩ Bn =
A01 ∩ · · · ∩ A0n (ciò è particolarmente comodo quando N (Ai1 ∩ · · · ∩ Aim ) dipende
solo da m. Analogamente i problemi che richiedono di contare in quanti modi
si realizza almeno uno degli eventi A1 , . . . , An equivalgono a contare il numero di
elementi di A1 ∪ · · · ∪ An .
Esempio. Nell’esercizio 2.19 si chiede in quanti modi un bambino può prendere 12
caramelle di 4 tipi distinti se il bambino non prende esattamente 2 caramelle dello
stesso tipo. Qui si tratta di contare il numero di elementi di B1 ∩ B2 ∩ B3 ∩ B4
dove Bi è l’evento:
Bi = {il bimbo prende 12 caramelle tra 4 tipi ma non ne prende 2 di tipo i}
Si pone poi
Ai = Bi0 = Bi = {il bimbo prende 12 caramelle tra 4 tipi e 2 sono di tipo i}
e si applica il PIE.
Esempio. Nell’esercizio 2.14 si chiede di contare in quanti modi si possono formare
delle mani di 10 carte con almeno una quaterna di carte dello stesso valore. Si
conclude facilmente con il PIE ponendo
Ai = {la mano di 10 carte ha 4 carte che valgono i}
si tratta infatti di calcolare N (A1 ∪ · · · ∪ A13 ).
2
Esempio. Nell’esercizio 2.21 si vuole che il libro i non vada al ragazzo i (i tra 1 e
10). Basta calcolare N (B1 ∩ · · · ∩ B10 ) dove
Bi = {Distribuzioni di 10 libri a 10 ragazzi; il ragazzo i NON riceve il libro i}
Si pone poi
Ai = Bi0 = {Distribuzioni di 10 libri a 10 ragazzi; il ragazzo i riceve il libro i}
e si applica il PIE per calcolare B1 ∩ · · · ∩ B10 = A01 ∩ · · · ∩ A010 .
Esercizio. Nell’esercizio 2.10 si chiede di contare gli anagrammi di MURMUR
dove non compaiono due lettere uguali vicine: posto
AM = {Anagrammi di MURMUR con due M distanti}
e analogamente per AR , AU si tratta di calcolare N (A0M ∩ A0R ∩ A0U ). Per calcolare
ad esempio AM si consideri la sequenza M M come un blocco unico da piazzare in 5
caselle (5 possibilità), si tratta poi di disporre le rimanenti 4 lettere con 2 ripetizioni
in 4 caselle (in tutto 4!/(2!2!) modi, quindi N (AM ) = 5!/(2!2!)), oppure si veda il
problema come quello di disporre i blocchi M M , U , U , R, R in modo ordinato (in
tutto 5!/(2!2!) modi); per calcolare N (AM ∩AU ) si tratta di piazzare i blocchi M M ,
U U , R, R, in 4 caselle (in tutto 4!/2! modi) ecc . . . Una soluzione alternativa è stata
suggerita dal vostro collega M. Martignon: le disposizioni possibili sono del tipo
abc def con (a, b, c) e (d, e, f ) disposizioni ordinate di M, U, R (in tutto (3!)2 = 36)
eccetto il caso in cui c = e (in tutto 3X2X2 = 12), oppure si tratta di disposizioni
del tipo aba cbc (in tutto 3X2 = 6): in totale i casi sono 36 − 12 + 6 = 30.
1. Numero di applicazioni suriettive. Dimostriamo 3) del Teorema 2.13 a pag.
36. Indichiamo con Ai l’insieme delle applicazioni da X in Y \{yi }. Chiaramente per
ogni k tra 1 ed n e per ogni insieme di indici I = {i1 , . . . , ik } con i1 < i2 < · · · < ik
(in tutto C(n, k) insiemi) si ha che l’intersezione Ai1 ∩· · ·∩Aik coincide con l’insieme
delle applicazioni da X in Y \ {yi1 , . . . , yik }, in tutto (n − k)r . Con le notazioni
del capitolo quindi si ha che Sk = C(n, k)(n − k)r . Il risultato segue dal Teorema
2.2. ¤
2. Grafi bipartiti. Illustriamo un modo per provare se un dato grafo è bipartito.
Si considera un vertice scelto a caso: se il grafo è bipartito e X, Y è una bipartizione
del grafo non è restrittivo supporre che esso appartenga ad X. Necessariamente
tutti i vertici ad esso adiacenti appartengono ad Y . Procedendo in questo modo si
formano due insiemi di vertici X e Y (per comodità indicare sul disegno con cerchi
pieni i vertici in X, con cerchi vuoti quelli di Y ). Se si riescono ad elencare tutti i
vertici in questo modo il grafo è bipartito, altrimenti ad uno stadio del procedimento
ci si trova con un vertice che è adiacente ad un vertice precedentemente elencato di
X e ad un vertice di di Y : il grafo non è bipartito.
3. Isomorfismi di grafi. Per studiare gli isomorfismi di grafi si possono usare
alcuni accorgimenti.
3
Proposizione. Se due grafi G e H sono isomorfi allora:
i) |V (G)| = |V (H)|;
ii) |E(G)| = |E(H)|;
iii) Indicando con θ l’isomorfismo tra vertici si ha dH (θ(u)) = dG (u) per ogni
u ∈ V (G);
iv) Se u è adiacente ad un vertice di grado k in G allora θ(u) è adiacente ad un
vertice di grado k in H.
Dimostrazione. i) e ii) sono immediati dato che i vertici (risp. lati) di G sono in
corrispondenza biunivoca con quelli di H. iii): Indicando con ϕ l’isomorfismo tra
lati, il grado dH (θ(u)) coincide con il numero di lati ϕ(e) incidenti θ(u); ciò accade
se e solo se e è incidente a u, quindi dH (θ(u)) = dG (u). iv) segue direttamente da
iii). ¤
Sono anche utili le proprietà che seguono, la cui verifica è lasciata per esercizio.
Proposizione. Con le notazioni del testo se G è isomorfo ad H allora:
i) l’immagine del sottografo indotto dai vertici di grado k di G è il sottografo indotto
dai vertici di grado k di H;
ii) l’immagine del sottografo di G indotto da un insieme di vertici V è il sottografo
di H indotto dall’ insieme di vertici θ(V );
iii) l’immagine di un ciclo di G di lunghezza k è un ciclo di H di lunghezza k
(quindi ’triangoli’ vanno in ’triangoli’, ’rettangoli’ in ’rettangoli’... e l’ordine dei
vertici nei due cicli è rispettato);
iv) Il numero di cicli di G di lunghezza k è uguale al numero di cicli di H di
lunghezza k.
Osservazione. Attenzione che le precedenti sono condizioni necessarie ma non sufficienti, utili quindi per provare che 2 grafi non sono isomorfi o per tentare di costruire
un isomorfismo. Nella pratica, per vedere se due grafi sono isomorfi si sfruttano
le condizioni precedenti per cercare di stabilire un isomorfismo. Se ad uno stadio
si ottiene una contraddizione i grafi non sono isomorfi. Altrimenti si ottiene una
applicazione candidata ad essere isomorfismo. La verifica nel caso di grafi semplici
è immediata, come si vede nell’esercizio che segue.
Esercizio. Siano G ed H due grafi con |V (G)| = |V (H)|. L’applicazione θ :
V (G) → V (H) induce un isomorfismo tra grafi se e solo comunque dati due vertici
u e v (anche coincidenti) vi è lo stesso numero di lati tra u e v e θ(u) e θ(v).
In particolare nel caso di grafi semplici è sufficiente verificare che se u e v sono
adiacenti in G allora θ(u) è e θ(v) sono adiacenti in H.
Ecco un suggerimento per studiare gli isomorfismi tra grafi semplici con molti
lati.
Definizione. Dato un grafo semplice G = (V, E), il suo complemento è il grafo G
con lo stesso insieme di vertici ma i cui lati sono esattamente le coppie di vertici
non adiacenti in G.
Proposizione. Due grafi semplici G1 e G2 sono isomorfi se e solo se i complementi
G1 e G2 sono isomorfi.
Ad esempio, i grafi in fig. 4.11 a pagina 56 di [A] sono isomorfi perché i loro
complementi sono entrambi cicli di lunghezza 7.
4
Soluzione dell’esercizio 4.13, (c). Chiamiamo G il grafo a sinistra e H quello
a destra. Il numero di vertici e di lati è uguale in entrambi, come anche il numero
di vertici di grado fissato. Sappiamo che ciò non basta a garantire che essi sono
isomorfi. Tentiamo di stabilire un isomorfismo tra i vertici procedendo con condizioni necessarie: sia θ la mappa tra V (G) e V (H) che induce l’isomorfismo tra i
grafi. Entrambi i grafi hanno un solo vertice di grado 4: pertanto θ(e) = 6. Inoltre
e e 6 hanno 4 vertici adiacenti nei rispettivi grafi, due dei quali (d, f in G e 1, 8 in
H) appartengono a dei cicli di lunghezza 3; per simmetria di G non è restrittivo
supporre che θ(d) = 1 e θ(f ) = 8. Ancora per simmetria di G non è restrittivo
supporre che θ(b) = 4 e θ(h) = 5 (non restrittivo significa che se c’è un isomorfismo che manda b in 5 ce n’è un altro che manda b in 4 . . . ). L’immagine del
ciclo beda è un ciclo di lunghezza 4 contenente 461, quindi 4613: necessariamente
è θ(a) = 3. Analogamente si trova che θ(c) = 7, θ(g) = 2, θ(i) = 9. Dato che θ è
biiettiva per verificare che essa induce un isomorfismo è sufficiente verificare che i
lati 34, 47, 79, 78, 89, 59, 25, 46, 65, 12, 13, 23 esistono in H, e ciò è vero.
Facce di un grafo piano. Introduciamo qui una nozione che riprenderemo più avanti.
Se un grafo è piano, cioè se i suoi lati si intersecano solo nei vertici si chiamano
facce le componenti connesse del piano privo dei lati di G; la faccia esterna è l’unica
componente connessa illimitata. Il grado di una faccia è il numero di lati di G ad
essa adiacenti (i ponti di G contano 2). Ad esempio il grafo a sinistra della fig.
4.12 ha una sola faccia (quella esterna) ed essa ha grado 6; i grafi in figura 4.13 b)
hanno entrambi 6 facce di grado 3 e una faccia di grado 4. Due grafi piani isomorfi
hanno lo stesso numero di facce.
4. Cammini e connessione.
Soluzione dell’esercizio 4.25). Sia P il percorso di lunghezza minima che connette u a v. Se un vertice w si ripete nel cammino c’è una sequenza del tipo
we1 . . . ek w in P : si costruisce un percorso più corto togliendo da P la sequenza
we1 . . . ek : assurdo, quindi nessun vertice si ripete e P è un cammino.
Soluzione dell’esercizio 4.26). Per induzione su k. L’asserto è vero per k = 1.
Supponiamolo vero per allo stadio k − 1 e sia G un grafo con δ ≥ k. Essendo
δ ≥ k − 1 si costruisce un cammino P di lunghezza k − 1 che congiunge, diciamo,
u a v. Dato che P non ha cicli, esso èun albero, quindi vi sono k vertici. Inoltre vi
sono almeno k lati incidenti v: pertanto c’è un lato e incidente v il cui altro estremo
non è uno dei k − 1 estremi già utilizzati: P + e è un cammino di lunghezza k.
Soluzione dell’esercizio 4.28a). Sia ω(G) = m e siano G1 , . . . Gm le componenti
connesse di G; si supponga ad esempio che e sia contenuto in G1 . Se u, v sono gli
estremi di e il grafo G1 − e ottenuto togliendo il lato e (ma non i suoi vertici) ha al
più due componenti connesse: infatti ogni suo vertice è connesso con un cammino
a u o a v senza usare il lato e (Si connetta un vertice w di G1 a u con un cammino:
se esso contiene e, tolto quest’ultimo, si ha un cammino che connette w a v senza
usare e). Ne segue che G − e ha al più m + 1 componenti connesse.
Soluzione dell’esercizio 4.27 a). Forniamo due soluzioni, la prima della quale
prende spunto da quella del vostro collega Mattia Moschetta.
Prima soluzione. Se il grafo non è connesso esso ha almeno due componenti connesse
G1 e G2 . Se k è il numero di vertici di G1 il numero di lati di G1 non eccede quello
5
del grafo completo con k vertici, ovvero ε(G1 ) ≤ C(k, 2); analogamente il numero
massimo di lati nelle altre componenti connesse è minore o uguale a quello del grafo
completo con n−k vertici, ovvero C(n−k, 2). Pertanto ε(G) ≤ C(n−k, 2)+C(k, 2).
Ora l’ultima termine è la somma del numero di sottoinsiemi da un insieme di n − k
elementi e del numero di sottoinsiemi di un insieme di k elementi; si prova poi
algebricamente che C(n − k, 2) + C(k, 2) ≤ C(n − 1, 2): la disequazione equivale
infatti a k(k − 1) + (n − k)(n − k − 1) ≤ (n − 1)(n − 2) cioè alla disequazione di
secondo grado in k k 2 − kn + n − 1 ≤ 0 che è soddisfatta per ogni k ∈ [1, n − 1].
Seconda soluzione. Supponiamo che il grafo G non sia connesso. E’ facile concludere
se c’è un vertice isolato u: in tal caso G ha al più tanti lati quanti quelli di un grafo
completo di ν − 1 vertici, ovvero C(ν − 1, 2). Nel caso generale siano u, v due vertici
di due componenti connesse distinte di G. Si costruisca un altro grafo K in questo
modo: si tolga da G ogni lato uw incidente u e si costruisca al suo posto il lato
wv (senz’altro non è un lato di G); si lasciano fermi gli altri lati. Senz’altro si ha
V (K) = V (G) e |E(K)| = |E(G)|, inoltre u è isolato in K: per quanto detto prima
si ha ε(K) ≤ C(ν(K) − 1, 2) da cui ε(G) ≤ C(ν(G) − 1, 2).
Proviamo qui due risultati che useremo più volte in seguito.
Lemma 1. Sia G un grafo connesso e H un sottografo di G.
i) Se V (H) 6= V (G) esiste un lato di G che ha uno solo dei suoi estremi in H.
ii) Se E(H) 6= E(G) esiste un lato di G non in H che è incidente ad un vertice di
H.
Dimostrazione. i) Si fissi un vertice u in G che non appartiene ad H; si connetta u
ad un qualunque vertice di H con un cammino: il primo lato di esso incidente un
vertice di H soddisfa alla proprietà richiesta. ii) Si fissi un lato di G che non è un
lato di H: se almeno uno dei suoi estremi appartiene a V (H) abbiamo concluso;
altrimenti V (H) 6= V (G) e si applica i). ¤
Lemma 2. Sia G un grafo con tutti i vertici di grado pari. Allora ogni vertice di
grado non nullo è l’origine ed il termine di un percorso chiuso con lati distinti.
Dimostrazione. Forniamo due dimostrazioni del risultato, la prima è forse più
intuitiva:
1) Sia v0 vertice di grado non nullo e si scelga un lato e1 incidente a v0 , sia v1
l’altro suo estremo: se v1 = v0 si termina, altrimenti essendo v1 di grado pari esiste
senz’altro un lato e2 ad esso incidente e diverso da e1 . Si prosegua in questo modo
fino a quando ciò non è più possibile. Dato che i gradi dei vertici sono pari tale
percorso termina necessariamente nel punto iniziale v0 ; infatti appena si ’entra’ in
un vertice diverso da quello iniziale il numero di lati utilizzati che lo incidono è
dispari: c’è almeno un lato ad esso incidente non ancora utilizzato.
2) Altra dimostrazione. Sia v0 un vertice di grado non nullo. Sia P = v0 e1 . . . ek vk
un percorso con lati distinti con lunghezza massima in G: esiste perché v0 è incidente ad almeno un lato. Ogni volta che vk compare tra i vertici interni di P vi
sono due lati di P ad esso incidenti; in tutto un numero pari di lati. Se vk 6= v0
vi è un altro lato ek del percorso incidente a vk : in tutto sono stati utilizzati in P
un numero dispari di lati incidenti a vk . Dato che il grado di vk è pari c’è u lato
ek+1 non già utilizzato ad esso incidente: indicando con vk+1 il suo altro estremo il
percorso P + ek+1 = v0 e1 . . . ek vk ek+1 vk+1 è un percorso con lati distinti più lungo
di P , contraddicendo l’ipotesi. Pertanto P è chiuso. ¤
6
Esercizio 4.31. Sia G un grafo con δ ≥ 2. Provare che G contiene un ciclo.
Soluzione. Si osservi che un ciclo privo della sua coda è un cammino. Sia P =
v0 e1 . . . ek vk un cammino di lunghezza massima in G: esso esiste dato che ogni vertice è incidente ad almeno un lato. Dato che vk ha grado pari e non compare prima
nel cammino esiste un lato ek+1 ad esso adiacente. Per l’ipotesi di massimalità di
P l’altro vertice di ek+1 compare tra i vertici di P ; si tratta di qualche vj con j tra
0 e k: il percorso vj ej+1 . . . vk ek+1 vj è un ciclo. ¤
5. Alberi. Dimostriamo qui il Teorema 5.5.
Teorema 5.5. Un grafo connesso G è un albero se e solo se ogni lato e è un ponte.
Inoltre in tal caso ω(G − e) = 2.
Dimostrazione. Sia G un albero ed e = xy un suo lato; sappiamo per il Teorema
5.1 che l’unico cammino che connette x a y è xey, quindi non vi sono percorsi che
connettono x a y in G − e, che è quindi sconnesso. Inoltre per ogni grafo si ha
che ω(G − e) ≤ ω(G) + 1 (Esercizio 4.28), quindi nel nostro caso ω(G − e) = 2.
Viceversa se G non è un albero c’è un ciclo C in G. Sia e un lato di C: certamente
C − e è connesso. Se vi sono due vertici u, v di G non connessi in G − e esiste un
cammino P in G che li connette utilizzando necessariamente il lato e. Supponiamo
che x, y siano gli estremi di e e che x preceda y in P : in G − e u è connesso a x
da una sezione di P e y è connesso a v da un’altra sezione di P . Ora x e y sono
connessi in C − e da un cammino: componendo i tre cammini si ottiene un percorso
in G − e che connette u a v, assurdo. Quindi G − e è connesso, ovvero e non è un
ponte. ¤
Dimostrazione del Corollario 5.6. Ogni grafo connesso contiene un albero generatore.
Dimostrazione. Si consideri un albero H in G con il maggior numero di vertici.
Se V (H) 6= V (G) per il Lemma 1i) esiste un lato e con un solo estremo in V (H).
Il grafo H + e ottenuto aggiungendo ad H il lato e e il vertice u è aciclico (u ha
grado 1 in H + e), connesso e con più vertici di H, contraddicendo l’ipotesi. Quindi
V (H) = V (G) ovvero H è albero generatore. ¤
Soluzione alternativa dell’esercizio 4.31.
Soluzione. Si consideri una componente connessa G1 di G: sicuramente non si
tratta di un albero dato che tutti i suoi vertici hanno grado pari (Corollario 5.3).
Pertanto esiste un ciclo in G1 , quindi in G. ¤
6. Circuiti di Eulero.
Dimostrazione alternativa del Teorema 6.1. Si supponga che G abbia solo vertici di
grado pari. Sia H un percorso chiuso di lati distinti con il maggior numero di lati:
tale percorso esiste per il Lemma 2. Si supponga che questi non esauriscano i lati
di G. Per il Lemma 1ii) esiste un lato di G non in H che è incidente ad un vertice
u di H. Pertanto u ha grado non nullo nel grafo G − E(H) ottenuto togliendo da
G i lati di H. Dato che tutti i vertici di G − E(H) sono di grado pari il Lemma 2
permette di costruire da u un percorso con lati distinti in G − E(H). Si unisca H
con il percorso precedente: si ottiene un percorso chiuso con lati distinti in numero
maggiore di quelli di H, contraddicendo l’ipotesi. Ne segue che H è un circuito
euleriano. ¤
7
Corollario. Un grafo connesso ha un percorso di Eulero se e solo esso ha al più
due vertici di grado dispari.
Dimostrazione. Se il grafo G ha un percorso di Eulero allora, come nel Teorema
6.1, ogni vertice diverso dall’origine e fine del percorso ha grado pari. Viceversa,
si supponga che G sia connesso con al più due vertici di grado dispari. Se G non
ha vertici di grado dispari allora, per il Teorema 6.1, esso ha un circuito di Eulero.
Altrimenti per il Teorema 4.5 vi sono esattamente due vertici di grado dispari, u
e v. In tal caso sia G + e il grafo ottenuto da G aggiungendo un nuovo lato che
congiunge u a v. Chiaramente, ogni vertice di G + e ha grado pari ed ammette,
sempre per il Teorema 6.1, un circuito di Eulero C = ueve1 . . . vk−1 ek u. Il percorso
ve1 . . . vk−1 ek u è un percorso di Eulero in G. ¤
7. Cicli di Hamilton. Dimostriamo prima il seguente risultato di Bondy e
Chvàtal.
Teorema. Sia G un grafo semplice e siano u e v vertici non adiacenti di G tali
che
(1)
d(u) + d(v) ≥ ν
Allora G è hamiltoniano se e solo se G + uv è hamiltoniano.
Dimostrazione. E’ immediato vedere che se G è hamiltoniano allora G+uv è hamiltoniano: un ciclo in G che passa per tutti i vertici gode della stessa proprietà in
G + uv. Viceversa supponiamo ora che G + uv sia hamiltoniano. Se G non è hamiltoniano ogni ciclo di Hamilton in G + uv deve contenere il lato uv. Quindi esiste
un cammino di Hamilton v1 v2 . . . vν in G la cui origine è u = v1 ed il cui termine è
v = vν . Introduciamo due insiemi di vertici di G S e T definiti da
S = {vi |uvi+1 ∈ E}
e
T = {vi |vi v ∈ E}
Vogliamo provare che c’è un vertice comune in S e T : contiamo il numero di elementi
di S ∩ T . Ovviamente
|S| = d(u),
|T | = d(v)
Poiché vν 6∈ S ∪ T , si ha:
|S ∪ T | < ν
Pertanto
|S ∩ T | = |S| + |T | − |S ∪ T | = d(u) + d(v) − |S ∪ T | ≥ ν − |S ∪ T | > 0.
Di conseguenza esiste i tale che vi ∈ S ∩ T . Ma allora
v1 v2 . . . vi vν vν−1 . . . vi+1 v1
è un ciclo di Hamilton in G, contrariamente alla nostra ipotesi (si veda la figura
6.5). ¤
Otteniamo il Teorema di Dirac come corollario del teorema 6.6.
8
Teorema 6.3. Se G è un grafo semplice con ν ≥ 3 e δ ≥ ν/2, allora G è hamiltoniano.
Dimostrazione. Dato che ogni coppia di vertici di G soddisfa alla condizione (1) la
chiusura di G è il grafo completo Kν , dove ν è il numero di vertici di G. Dato che
Kν è hamiltoniano segue dal Teorema 6.6 che anche G è hamiltoniano. ¤
Esercizio. Sia Kν il grafo completo con ν ≥ 3 vertici. Provare che se u, v sono
due vertici allora G = Kν − uv (il grafo di partenza privo del lato uv, lasciando i
vertici) è completo.
Soluzione. Il grado di u e di v in G è pari a ν − 2; gli altri vertici hanno grado
ν − 1; in ogni caso la disequazione dG (w) ≥ ν/2 è soddisfatta per ogni vertice w di
G. Si conclude per il teorema di Dirac. Si osservi che K3 meno un lato è un albero,
quindi non contiene cicli, mentre K2 meno un lato è sconnesso. ¤
Illustriamo un criterio utile per vedere se esistono cicli di Hamilton.
Proposizione. Supponiamo che il grafo in esame G sia composto da due sottografi
G1 e G2 disgiunti e da dei cammini P1 , . . . , Pm due a due disgiunti che connettono
vertici di G1 con vertici di G2 . Allora se G è hamiltoniano ogni ciclo hamiltoniano utilizza un numero pari di questi cammini; se poi questi hanno tutti lunghezza
maggiore o uguale a 2 allora m è pari.
Dimostrazione. Infatti non è restrittivo supporre che il ciclo di hamilton parta e
termini da un vertice di G1 : ogni volta che si utilizza uno dei cammini per arrivare
in G2 se ne deve utilizzare un’altro per tornare in G1 , quindi se ne usano in numero
pari. Inoltre tutti i cammini di lunghezza maggiore o uguale a 2 hanno un vertice
interno e devono essere utilizzati. ¤
Illustriamo il risultato precedente con un esempio.
Esempio: il grafo di Petersen. Si consideri il grafo di Petersen (fig. 6.18 d)).
Indichiamo con G1 il perimetro esterno (il ciclo abcdea) e con G2 il ciclo interno
f ghijf ). Rimangono 5 cammini (i 5 lati che congiungono vertici di G1 con vertici
di G2 ). Per quanto visto sopra un ciclo di hamilton utilizza un numero pari di
questi cammini. Se si usano 4 cammini, ad esempio non si usa af : necessariamente
si usano f i e f h, ma allora sono vietati jh e gi e si deve usare jg formando un ciclo
ejgbae, assurdo. Se si usano solo due cammini e questi sono vicini, ad esempio af
e gb si devono usare i lati jg, jh, if, ig, hj, hf , ovvero tuta la stella interna che è un
ciclo, assurdo. resta il caso di due soli cammini usati, distanti fra loro, ad esempio
af e ch: allora si devono usare anche dc e bc, assurdo (3 lati incidenti c). Quindi il
grafo di Petersen non è hamiltoniano.
Spiegazione della Regola 2. a pag. 83. Se nella costruzione di un ciclo di
Hamilton H appare un sottociclo proprio C allora per il Lemma 1 al punto 4. c’è
un lato di H non in C che incide un vertice di C, pertanto tale vertice ha grado
almeno uguale a 3 in H: assurdo perché i vertici di un ciclo hanno grado 2 nel ciclo.
8. Matrice dei pesi di un grafo. Supponiamo di avere un grafo G semplice
pesato. Generalizzando la nozione di matrice di adiacenza, diciamo matrice dei
pesi del grafo G la matrice simmetrica ν × ν P (G) il cui coefficiente di posto i, j è
∞ (1016 se la vogliamo inserire in un calcolatore) se i vertici i e j non sono adiacenti,
oppure il peso del lato che ha i vertici i e j come estremi.
9
9. Grafi planari.
Dimostrazione elementare del Teorema 9.4. Osserviamo che in un grafo piano un
ponte e è necessariamente un lato che non separa due facce distinte. Nel calcolo
della somma del grado delle facce ogni lato viene contato due volte (esso separa due
facce distinte o è un ponte e viene contato due volte). ¤
Esercizio. Sia G un grafo piano. Allora G è un albero se solo se G ha una sola
faccia.
Soluzione. Se vi fosse più di una faccia ce ne sarebbe una limitata (quella illimitata
è unica), esiste quindi un ciclo in G che non è un albero. Viceversa se G è un albero
ogni lato è un ponte; ora le facce limitate non ha un bordo formato di soli ponti,
quindi non vi sono facce limitate e G ha solo la faccia illimitata. ¤
Esercizio. Sia G un grafo piano semplice connesso con almeno tre vertici. Allora
ogni faccia ha grado almeno pari a 3.
Soluzione. Non esistono senz’altro facce di grado 1; il solo modo per ottenere una
faccia di grado 2 (gli archi doppio sono esclusi) è che il grafo sia composto da un
solo lato e soli 2 vertici. ¤
Soluzione dell’esercizio 9.2. Per induzione su ν. L’asserto è banale per ν = 2. Lo
si supponga vero per i grafi planari con ν − 1 vertici e sia G planare con ν vertici.
Per il Corollario 9.8 esiste un vertice u con grado d(u) ≤ 5. Colorando G − u con
6 colori si può quindi utilizzare per u uno dei 6 colori diverso da quello dei suoi (al
massimo 5) vertici adiacenti. ¤
10. Relazioni di ricorrenza. Ci sono molte relazioni di ricorrenza utili ma non
lineari. Ecco un esempio. Si conti per ricorrenza il numero an massimo di confronti
che devono essere fatti per trovare il minimo in un insieme S di n interi. Se n è
pari, supponiamo di avere trovato il minimo m1 della prima metà di S e il minimo
m2 della seconda metà di S (entrambi in an/2 passi). Per trovare il minimo di S
confrontiamo m1 con m2 : il numero an di passi usati è quindi pari ad 2an/2 + 1.
Abbiamo così ottenuto la relazione di ricorrenza an = 2an/2 +1. Chiaramente, dato
che suddividiamo il problema in due parti ad ogni passo si lavora con stringhe che
sono lunghe potenze di 2. La risoluzione si fa a mano: a2 = 2a1 + 1, a4 = 2a2 + 1 =
2(2a1 +1)+1 = 22 a1 +(2+1), a23 = 2a4 +1 = 2(22 a1 +(2+1))+1 = 23 a1 +(22 +2+1)
k
−1
da cui si deduce a2k = 2k a1 + (2k−1 + · · · + 1). Ora 2k−1 + · · · + 1 = 22−1
= 2k − 1
k
k
k
pertanto a2k = 2 a1 + 2 − 1 = (a1 + 1)2 − 1 da cui an = n(a1 + 1) − 1. Dato che
a1 = 0 si ottiene an = n − 1. Ritrovare il risultato con altri algoritmi.
Esercizio. Provare in modo analogo che la soluzione di an = αan/b +β, per n = bk
è data da an = Abk +B per qualche A, B reali. Posto n = bk si ha che k = log n/ log b
da cui an = Anr + B con r = log α/ log b.
11. Mancanza di memoria della variabile geometrica.
Nota. È utile ricordare la somma della serie geometrica: per ogni p ∈ (−1, 1) vale
∞
X
k=0
pk = lim
N →∞
N
X
pk =
k=0
10
1
1 − pN +1
=
,
1−p
1−p
Proposizione. Sia X ∼ G(p). Allora
P (X > k) = (1 − p)k ;
P (X = k + m|X > k) = P (X = m).
Dimostrazione.
P (X > k) =
∞
X
P (X = i) =
i=k+1
∞
X
p(1 − p)i−1
i=k+1
= p(1 − p)k
∞
X
(1 − p)i
i=0
= p(1 − p)k
1
= (1 − p)k .
1 − (1 − p)
Si ha quindi
P (X = k + m|X > k) =
P (X = k + m)
p(1 − p)k+m−1
=
P (X > k)
(1 − p)k
= p(1 − p)m−1 = P (X = m) ¤
Osservazione. La prima relazione motiva la definizione di v.a. geometrica; la seconda esprime il fatto che, in uno schema a prove ripetute indipendenti i risultati
delle prime prove non influiscono sulle successive. Cosi’ la probabilità che il 13 esca
sulla ruota di Napoli non aumenta se il 13 non è uscito per 100 settimane di seguito.
12. Legge binomiale come somma di leggi di Bernoulli. Si consideri un
processo di Bernoulli costituito da n prove di Bernoulli di parametro p. Se X ∼
B(n, p) si ha
Ω = {0, 1}n = {ω = (ω1 , . . . , ωn ) : ωi = 0 o 1}
X(ω1 , . . . , ωn ) = Numero di ωi uguali a 1;
Posto Xi (ω) = ωi si ha che Xi ∼ Be(p) ed è
X = X1 + · · · + Xn .
13. Il numero di insuccessi per ottenere n successi in un processo di
Bernoulli. Si consideri un processo di Bernoulli infinito e sia X la variabile aleatoria che conta il numero di insuccessi per ottenere n successi. Calcoliamo qui la sua
densità discreta pX (k); questo procedimento si applica a qualunque variabile casuale in un processo di Bernoulli.
1) Si determina il tipo di sequenza che realizza l’evento X = k. Posto ω =
(ω1 , ω2 , . . . ) con ωi = 0 o 1 si ha che
X(ω) = k se e solo se ω = (0, . . . , 0, 1, 0, . . . , 0, 1, . . . . . . , 0, 1, ∗, ∗, ∗, . . . )
|
{z
}
k zeri e (n−1)”1”
(dove con ∗ indichiamo un qualunque valore 0 o 1).
2) Si calcola la probabilità di un singolo evento di questo tipo è pn (1 − p)k .
3) Si calcola il numero di sequenze di questo tipo è pari al numero di sottoinsiemi
di k elementi tra k + (n − 1) elementi ovvero a C(k + n − 1, k).
Di conseguenza P (X = k) = C(k + n − 1, k)pn (1 − p)k .
11
14. Il numero di prove per realizzare n successi in un processo di
Bernoulli. Si consideri un processo di Bernoulli infinito e sia X la variabile aleatoria che conta il numero di prove per ottenere n successi. Calcoliamo qui la sua densità discreta pX (k) supponendo di non ricordare il risultato del punto precedente.
1) Il tipo di sequenza che realizza l’evento X = k (k ≥ n). Posto ω = (ω1 , ω2 , . . . )
con ωi = 0 o 1 si ha che
X(ω) = k se e solo se ω = (0, . . . , 0, 1, 0, . . . , 0, 1, . . . . . . , 0, 1, ∗, ∗, ∗, . . . )
{z
}
|
k−1 termini con (n−1) ”1”
(dove con ∗ indichiamo un qualunque valore 0 o 1).
2) La probabilità di un singolo evento di questo tipo è pn (1 − p)k−n .
3) Il numero di sequenze di questo tipo è pari al numero di sottoinsiemi di n − 1
elementi tra k − 1 elementi ovvero a C(k − 1, n − 1).
Di conseguenza P (X = k) = C(k − 1, n − 1)pn (1 − p)k−n .
15. Il numero di prove per n successi come somma di variabili geometriche. Si consideri un processo di Bernoulli con probabilità p. Si consideri la
variabile aleatoria X che ad un evento del processo associa il numero di prove per
avere 2 successi. Se X1 è la variabile aleatoria che associa il numero di prove per il
primo successo e X2 quella che associa il numero di prove per il secondo a partire
dal primo si ha X = X1 + X2 . Ora X1 ∼ G(p). Proviamo ora che X2 ∼ G(p). La
variabile X2 è così definita:
X2 (0, . . . , 0, 1, 0, . . . , 0, 1, . . . ) = m
| {z } | {z }
k volte
m volte
e pertanto se ω = (ω1 , ω2 , . . . ) si ha
X2 (ω) = m se e solo se ω = (0, . . . , 0, 1, 0, . . . , 0, 1, ∗, ∗, ∗, . . . ) per qualche k
| {z } | {z }
k volte
m volte
(dove con ∗ indichiamo un qualunque valore 0 o 1). Pertanto
P (X2 = m) =
+∞
X
p(1 − p)k−1 p(1 − p)m−1
k=1
p
1
p(1 − p)m−1 = p(1 − p)m−1 .
1 − (1 − p)
Quindi X è la somma di due variabili geometriche di parametro p. In generale si
prova allo stesso modo che la variabile aleatoria che conta il numero di tentativi per
avere n successi in un processo di Bernoulli di parametro p è somma di n variabili
geometriche di parametro p.
Esercizio. Siano X e Y due variabili geometriche indipendenti di parametri p e q.
Allora:
i) Calcolare P (max(X, Y ) ≤ k); dedurre la densità di max(X, Y );
ii) Calcolare P (min(X, Y ) > k); dedurre la densità di min(X, Y ). Si poteva ricavare
il risultato in altro modo?
12
iii) Si lancino due monete distinte non truccate. Qual’è la probabilità che occorrano
k lanci affinché in entrambe esca testa almeno una volta? Qual’è la probabilità
affinché k lanci siano necessari affinché una almeno delle monete dia testa?
¢¡
¢
¡
Risposte. i) P (max(X, Y ) ≤ k) = 1 − (1 − p)k 1 − (1 − q)k ; ii) P (min(X, Y ) >
k) = (1 − p)k (1 − q)k da cui min(X, Y ) ∼ Ge(p + q − pq); iii) Sol. della prima:
1
1
− 43 4k−1
.
2k−1
Esercizio. Siano X e Y due v.a. discrete e a, b ∈ R. Provare che E(aX + b) =
aE(X) + b e che se X e Y sono indipendenti allora E(XY ) = E(X)E(Y ).
Soluzione. Detti Xk i valori assunti da X la v.a. aX + b assume i valori axk + b e
si ha
P (aX + b = axk + b) = P (X = xk )
pertanto
E(aX + b) =
X
P (aX + b = axk + b)(axk + b)
k
=a
X
P (X = xk )(axk + b) = a
k
X
P (X = xk )xk + b
X
k
P (X = xk )
k
= aE(X) + b
P
P
dato che k P (X = xk )xk = E(X) e k P (X = xk ) = 1. Per l’altra supponiamo
per chiarezza che X e Y assumano valori finiti. Si ha
X
P (XY = r) =
P (X = xm , Y = yn ).
m,n:xm yn =r
Ora essendo X e Y indipendenti si ha
P (X = xm , Y = yn ) = P (X = xm )P (Y = yn ) = pX (xm )pY (yn )
da cui
E(XY ) =
X
r
=
=
X
r
{m,n:xm yn =r}
=
xm yn pX (xm )pY (yn )
xm yn pX (xm )pY (yn )
m,n
Ã
pX (xm )pY (yn )
{m,n:xm yn =r}
X
X
X
rP (XY = r) =
X
m
!Ã
xm pX (xm )
X
!
xn pY (yn )
= E(X)E(Y ).
¤
n
16. Varianza. La seguente formula segue immediatamente dal Teorema 49 (disuguaglianza di Cebicev); qui si mette in evidenza il fatto che più la varianza di X
è piccola allora meno X si discosta dalla media.
13
Disuguaglianza di Cebicev. Sia X una variabile aleatoria di valore atteso µX
2
e varianza σX
finite. Allora, per ogni numero ε > 0,
P (|X − µX | ≥ ε) ≤
Dimostrazione. Basta scegliere δ =
ε
σX
2
σX
ε2
nella (7) del Teorema 49:
µ
P (|X − µX | ≥ ε) =P (|X − µX | ≥
≤
ε
σX
¶
σX )
2
1
σX
=
.
δ2
ε2
Si osservi che la disuguaglianza di Cebicev è piuttosto rozza.
Esempio. Sia X la variabile aleatoria che assume i valori 1 e −1 con probabilità
1/2. Si ha E(X) = 0 e Var(X) = 1. Si ponga ε = 2 nella disuguaglianza di
Cebicev precedente: si trova 0 = P (|X − E(X)| ≥ 2) ≤ 1/4; per ε < 1 si ha poi
1/ε2 > 1 mentre P (|X − E(X)| ≥ ε) = 1: in tal caso la disuguaglianza di Cebicev
non fornisce nessuna informazione utile.
17. Media campionaria e legge dei grandi numeri.
Media campionaria. Sia {Xn } una successione di v.a. discrete indipendenti,
aventi tutte la stessa densità. Per ogni numero naturale n ≥ 1 chiamiamo media
campionaria di X1 , .., Xn la nuova v.a.
Xn =
1
(X1 + ... + Xn )
n
.
Ovviamente, data una una successione {Xn } di v.a. discrete indipendenti, aventi
tutte la stessa densità, ogni elemento della successione ha lo stesso valore atteso e
la stessa varianza, posto che questi siano finiti. Denotiamoli con µ e σ 2 , rispettivamente.
Notiamo che:
Proposizione.
i) Anche il valore atteso della media campionaria X n è uguale a µ.
2
ii) Inoltre, la varianza di X n è uguale a σn .
Dimostrazione. Vediamo la i):
µ
E(X n ) = E
X1 + ... + Xn
n
¶
n
=
1X
1
E(Xi ) = nµ = µ
n i=
n
1
Vediamo ora la ii):
Ã
Var(X n ) = Var
n
1X
Xi
n i=
1
14
!
à n
!
X
1
= 2 Var
Xi =
n
i=
1
tenendo conto dell’ indipendenza delle Xi
n
1 X
1
1
VarXi = 2 nσ 2 = σ 2
n2 i=
n
n
1
.
Osservazione. Si noti che la varianza della media campionaria diventa sempre più
piccola —più precisamente, tende a zero— al tendere di n all’ infinito. Intuitivamente ciò significa che quanto più ampio è il campione (cioè quanto più grande è
n) tanto più i valori della media campionaria X n sono concentrati intorno al valore
atteso (che è µ).
Questo fatto è espresso in maniera rigorosa nella cosiddetta legge dei grandi
numeri. Per capirne il contenuto intuitivo si pensi al caso in cui le Xi siano delle
v.a. bernoulliane indipendenti di parametro p = 0.5, e che dunque la successione
{Xi } rappresenti un processo di Bernoulli illimitato. È il caso della moneta non
truccata, con Xi (testa) = 1, Xi (croce) = 0. In tal caso, per una sequenza ω di n
tiri il valore della la media campionaria X n (ω) è uguale al numero di teste k su n
tiri, cioè alla frequenza nk . Ci aspettiamo che al crescere di n la propabilità che tale
frequenza sia molto vicina al parametro p(= 0.5) sia molto alta. Infatti:
Teorema (Legge dei grandi numeri). Sia {Xn } una successione di v.a. discrete
indipendenti, aventi tutte la stessa densità, e siano µ e σ 2 , rispettivamente, il loro
comune valore atteso e la loro comune varianza. Allora per ogni ε > 0 si ha che
lim P (|X n − µ| > ε) = 0
n→∞
Dimostrazione. Ricordando che
E(X n ) = µ
Var(X n ) =
σ2
n
e applicando la disuguaglianza di Cebicev si ha
P (|X n − µ| > ε) ≤
σ2
nε2
Poichè l’ ultimo termine, per ε fissato ed n tendente a ∞ converge a zero, si ha la
tesi. ¤
Esercizio. Si consideri una moneta truccata e si conti il numero di volte che esce
testa; siano Xi le variabili bernoulliane associate al lancio i-esimo (Xi = 1 se
esce testa all’i-esimo lancio, 0 altrimenti) con parametro incognito p. Quanti lanci
si devono fare affinché, con probabilità ≥ 0, 8, la frequenza di uscita delle teste
differisca da p al massimo del 10%?
Esercizio. Sia X una v.a. con E(X) = 100 e VarX = 16.
i) Trovare a, b tali che P (a < X < b) ≥ 0, 95.
ii) Si considerino poi n variabili aleatorie indipendenti X1 . . . , Xn con la legge precedente. Per quali n è P (X n ≥ 0, 97) ≥ 0, 95?
15
18. Covarianza. Proviamo alcune proprietà del valore atteso.
Esercizio.
i) Sia X v.a. con valore atteso finito. Provare che |E(X)| ≤ E(|X|).
ii) Siano X, Y due v.a. con varianza finita. Provare che
E 2 (XY ) ≤ E(X 2 )E(Y 2 )
(Sugg.: Per ogni t ∈ R si ha E((tX + Y )2 ) ≥ 0; sviluppando si trova un polinomio
in t il cui discriminante ha sicuramente segno . . . ).
iii) Dedurre da i) che se X, Y sono due v.a. con varianza finita allora
Cov(X, Y ) ≤ σX σY .
Risoluzione.
Osservazione sul calcolo della legge di un prodotto di v.a.. Per fare un prodotto
di v.a. è necessario che queste siano definite sullo stesso spazio campionario. Si
consideri l’esempio seguente: si lancino simultaneamente un dado e una moneta e sia
X la v.a. uguale al valore della faccia del dado (pX (k) = 1/6 per ogni k = 1, . . . , 6),
Y = 1 se la moneta da testa, Y = 0 se la moneta da croce (pY (testa) = 1/2 =
pY (croce)). Qual’è la legge di XY ? La domanda non ha senso se si considera come
spazio campionario di X l’insieme Ω1 delle facce del dado con probabilità uniforme
P1 (P1 (k) = 1/6) e come spazio campionario per Y l’insieme Ω2 = {T, C} (T=testa,
C=croce) con probabilità uniforme P2 che vale 1/2 su ogni evento elementare. In
realtà si sta considerando l’esito di coppie di eventi (faccia dado, faccia moneta) sul
prodotto degli spazi Ω = Ω1 × Ω2 e avremmo fatto bene a considerare le variabili X
e Y come definite su Ω munito della probabilità P (k, T ) = P1 (k)P2 (T ); P (k, C) =
P1 (k)P2 (C). in altri termini al posto di X avremmo dovuto considerare X̃ definita
su Ω da X̃(k, ∗) = X(k) = k e analogamente per Ỹ . Si osservi che le leggi di X̃
(risp. di Ỹ ) sono quelle di X (risp. Y ): è X̃(k, ∗) = m se e solo se X(k) = m e
Ỹ (k, ∗) = T se e solo se Y (∗) = T . Nella pratica si identifica X con X̃ e Y con Ỹ .
Si osservi che X̃ e Ỹ sono indipendenti:
P (X̃ = k, Ỹ = ∗) = P1 (k)P2 (∗) = P (X̃ = k)P (Ỹ = ∗)
e pertanto Cov(X̃, Ỹ ) = 0.
Esercizio: estrazione senza reimmissione. Un’urna contiene b palline bianche
e K rosse.
i) Qual’è la probabilità che la prima estratta sia rossa?
ii) (non serve per il seguito) Qual’è la probabilità che la seconda estratta sia rossa?
Che la k-esima sia rossa ?
iii) Si estraggano due palline dall’urna e siano X1 e X2 le v.a. così definite: X1 = 1
se la prima pallina è rossa, 0 altrimenti; X2 = 1 se la seconda pallina è rossa,
0 altrimenti. E’ vero che X1 e X2 sono indipendenti? Il processo X1 , X2 è di
Bernoulli? Calcolare il coefficiente di correlazione ρX1 ,X2 di X1 e X2 .
Risposte. i) e ii) K/(b + K). iii) No, no, ρX1 ,X2 (X1 , X2 ) = −1/(b + K − 1).
16
Esercizio. Si lancino due dadi, sia X la v.a. uguale al punteggio del primo, Y la
v.a. uguale alla somma dei punti delle facce.
i) X e Y sono indipendenti?
ii) Calcolare VarX eVarY ;
iii) Calcolare Cov(X, Y ).
19. Leggi ipergeometrica e di Poisson.
Nota. È utile ricordare la somma della serie esponenziale: per ogni λ ∈ R vale
∞
X
λk
k=0
k!
= eλ .
Valore atteso della legge ipergeometrica.
Sia X ∼ G(N, K, n). Allora E(X) = n(K/N ).
Dimostrazione. X rappresenta un processo di estrazione di n oggetti tra K di un
tipo (rossi) e N − K di altro tipo (bianchi). Se Xi è la v.a. uguale a 1 se l’iesimo oggetto è rosso, 0 altrimenti si ha che X = X1 + · · · + Xn da cui E(X) =
E(X1 ) + · · · + E(Xn ). Ora ogni Xi è una v.a. di Bernoulli di parametro p = K/N
(si veda l’esercizio sulla estrazione senza reimmissione della sezione precedente) ed
è quindi E(Xi ) = p; la conclusione è ora immediata. ¤
Valore atteso della v.a. di Poisson. Sia X ∼ P0 (λ). Allora E(X) = λ.
Dimostrazione. Si ha
∞
X
λk
E(X) =
k e−λ .
k!
k=0
Si ha:
∞
∞
∞
X
X
X
λk
λm
λk−1
k
=λ
=λ
= λeλ
k!
(k − 1)!
m!
m=0
k=0
e pertanto E(X) = e
−λ
k=1
λ
λe = λ. ¤
Esercizio. Provare che se X ∼ P0 (λ) allora VarX = λ.
Proposizione/Esercizio. Siano X1 ∼ P0 (λ1 ) e X2 ∼ P0 (λ2 ) indipendenti. Allora X1 + X2 ∼ P0 (λ1 + λ2 ).
Dimostrazione. Si ha
P (X1 + X2 = k) =
k
X
P (X1 + X2 = k|X1 = i)
i=0
ed è
P (X1 + X2 = k|X1 = i) = P (X1 = i, X2 = k − i).
Ora X1 e X2 sono indipendenti quindi
P (X1 = i, X2 = k − i) = P (X1 = i)P (X2 = k − i)
λi1 λk−i
2
e−λ1 −λ2
i! (k − i)!
17
=
da cui, usando la formula del binomio di Newton:
n µ ¶
X
k i k−i
k
(a + b) =
ab
i
i=0
si ottiene
k
X
P (X1 + X2 = k|X1 = i) =
k
X
λi
i=0
λk−i
2
e−(λ1 +λ2 )
i! (k − i)!
1
i=0
k
X
1
k!
−(λ1 +λ2 )
λi1 λk−i
2 e
k!
i!(k
−
i)!
i=0
k µ ¶
1 X k i k−i −(λ1 +λ2 )
=
λ λ e
k! i=0 i 1 2
=
(λ1 + λ2 )k −(λ1 +λ2 )
e
. ¤
k!
Proposizione (la dim. è riservata agli studenti più appassionati).
Siano X ∼ G(N, K, n) e Y ∼ B(n, p), p = K/N . Allora
lim P (X = k) = P (Y = k).
N →∞
Dimostrazione. Si ha
P (X = k) =
¡K ¢¡N −K ¢
k
¡Nn−k
¢
n
µ ¶
n [K(K − 1) · · · (K − k+ 1)][(N − K)(N − K − 1) · · · (N − K −n +k + 1)]
=
k
N (N − 1) · · · (N − n + 1)
Ora, posto K = N p si ha
K(K − 1) · · · (K − k + 1) = pN (pN − 1) · · · (pN − k + 1) ∼ (pN )k
{z
}
|
per N → ∞
k
(N − K) · · · (N − K −n +k + 1) = (N − pN ) · · · (N − pN − n+ k+ 1)
|
{z
}
n−k
n−k
∼ (1 − p)
N
n−k
per N → ∞
n
N (N − 1) · · · (N − n + 1) ∼ N per N → ∞
|
{z
}
n
e pertanto
µ ¶
n
(pN )k (1 − p)n−k N n−k
lim P (X = k) =
lim
N →∞
k N →∞
Nn
µ ¶
n k
=
p (1 − p)n−k = P (Y = k). ¤
k
18
20. Leggi congiunte.
Definizione. Una v.a. 2-dimensionale discreta (oppure un vettore aleatorio discreto) è una funzione (X, Y ) : Ω → R2 tale che le componenti X, Y siano delle v.a.
reali discrete.
Una v.a. bidimensionale è, ad esempio, la coppia (X, Y ), con X e Y il risultato
del lancio di due dadi. Se (xk , yj ) ∈ R2 sono i valori che la v.a. 2-dimensionale
(X, Y ) può assumere (k ∈ N), la densità discreta di (X, Y ) è la funzione definita da
p(X,Y ) (xk , yj ) = P ((X, Y ) = (xk , yj )).
2
Se (X,
P Y ) è una v.a. 2-dimensionale, allora è chiaro che P ((X, Y ) ∈ R ) = 1, per
cui k p(X,Y ) (xk , yj ) = 1. Indichiamo con pX , pY le densità discrete di X, Y . Si
ha evidentemente
p(X,Y ) (xk , yj ) = P (X = xk , Y = yj )
e quindi se le v.a. X, Y sono indipendenti si ha
p(X,Y ) (xk , yj ) = pX (xk )pY (yj ).
In generale l’uguaglianza precedente è ovviamente falsa.
Le densità discrete pX , pY delle componenti X, Y di (X, Y ) si chiamano le densità
marginali di (X, Y ), mentre la densità p(X,Y ) del vettore aleatorio (X, Y ) si chiama
anche la densità congiunta delle v.a. X, Y . Se p(X,Y ) è nota, le marginali di (X, Y )
si possono calcolare nel seguente modo. Fissiamo uno del valori che X può assumere
e chiamiamolo xk : allora (p = p(X,Y ) )


[
pX (xk ) = P (X = xk ) =P (X = xk , Y ∈ R) = P  (X = xk , Y = yj )
(*)
=
X
j
P (X = xk , Y = yj ) =
j
X
p(xk , yj ).
j
Allo stesso modo si ricava
pY (yj ) =
X
p(xk , yj ).
k
Mostriamo ora un esempio dal quale si capisce che la conoscenza della legge congiunta di due v.a. è un’informazione più ricca della conoscenza delle due marginali:
infatti densità congiunte diverse possono avere densità marginali uguali.
Esempio 1. Consideriamo un’urna con sei palline numerate da 1 a 6; ne estraiamo due con rimpiazzo e indichiamo con X1 , X2 i risultati dell’estrazione. Evidentemente il procedimento è analogo al lancio di due dadi, per cui X1 e X2 sono
indipendenti. La coppia X = (X1 , X2 ) assume i valori (i, j), con i, j = 1, . . . , 6,
1
, prodotto delle
in modo equiprobabile e la densità congiunta è p(i, j) = 16 16 = 36
1
densità marginali p1 (i) = p2 (i) = 6 .
Estraiamo ora due palline senza rimpiazzo e indichiamo con Y = (Y1 , Y2 ) il
risultato dell’estrazione. Ora Y può assumere tutti i valori (i, j) con i, j = 1, . . . , 6,
19
purché i 6= j. Si tratta di 30 valori equiprobabili, cioè ciascuno con probabilità
1
30 . D’altra parte le densità discrete di Y1 e Y2 sono ancora la densità uniforme su
{1, . . . , 6} (cioè i sei valori sono equiprobabili). Infatti, ricordando la (*), si ha, per
i fissato,
X
5
1
p1 (i) =
p(i, j) =
= .
30
6
j=1,... ,6, j6=i
Si osservi che Y1 e Y2 non sono indipendenti.
Esercizio 1. Un dado e una moneta vengono lanciati insieme ripetutamente.
Qual’è la probabilità che la moneta dia testa prima che il dado dia 6? Suggerimento: Fare l’esercizio in due modi diversi: dette D e M le v.a. geometriche
associate ai due processi di Bernoulli con parametri 1/6 (dado) e 1/2 (moneta) si
cerca di calcolare P (M < D): farlo scrivendo
X
P (M < D) =
P (M = k, D > k)
k
oppure calcolare la densità della v.a. congiunta (M, D) e scrivere che
X
P (M < D) = P ((M, D) ∈ A) =
p(x, y)
(x,y)∈A
2
dove A = {(x, y) ∈ R : x < y}. (Risposta: 5/7)
La definizione di valore atteso di una v.a. bidimensionale è del tutto analoga a
quella data per le v.a.
Definizione. Sia X una v.a. discreta che prenda i valori x1 , x2 , · · · ∈ R2 e indichiamo con p la sua densità. Diciamo che X ha valore atteso finito se
X
|xi |p(xi ) < +∞
i
2
dove |.| è il modulo in R . In tal caso si chiama valore atteso di X la quantità
X
E(X) =
xi p(xi ).
i
Abbiamo visto che se due v.a. X e Y sono indipendenti allora Cov(X, Y ) = 0;
il viceversa come vedremo ora non è vero.
Esercizio 2. (Due v.a. non correlate e non indipendenti). Sia (X, Y ) la
variabile aleatoria bidimensionale con densità p uniforme p(xi ) = 1/5 dove i punti
xi del piano sono i 5 punti:
•(0,1)
•(−1,0)
•(0,0)
•(0,−1)
20
•(1,0)
i) Determinare le densità marginali di (X, Y ) ovvero pX e pY .
ii) X e Y sono indipendenti?
iii) Calcolare E(X, Y ), Cov(X, Y ).
Esercizio 3. Da un’urna contenente 6 palline numerate da 1 a 6 se ne estraggono
2 senza rimpiazzo. Qual’è la probabilità che i numeri estratti differiscano al più di
2? (Sugg.: Si cerca di calcolare P (Y ∈ A) dove Y è una opportuna v.a. e A una
regione del piano, fare un disegno . . . , R: 18/30)
Esercizio 4. Sia X la v.a. che assume i valori −2, −1, 1, 2 con densità
pX (−2) = 1/4, pX (−1) = 1/4, pX (1) = 1/4, pX (2) = 1/4
e sia Y = X 2 . Si determini
i) la densità di Y ;
ii) la densità di (X, Y );
iii) Cov(X, Y ) e ρX,Y .
Esercizio 5. Una moneta viene lanciata tre volte. Supponiamo che X assuma il
valore 0 o 1 a seconda che si presenti testa o croce al primo lancio e supponiamo
che Y designi il numero di volte che si presenta testa. Si determinino:
i) le densità di X e Y ;
ii) la densità congiunta di X, Y ;
iii) Cov(X, Y ).
Esercizio 6. Data la coppia di v.a. X = (X1 , X2 ) con densità congiunta
(
p(h, k) =
p2 (1 − p)k−2 per h, k ∈ N, 0 < h < k
0 altrimenti,
dove 0 < p < 1, calcolare le marginali p1 e p2 ; X1 e X2 sono indipendenti?
Esercizio 7. I gestori di una località sciistica vogliono studiare le percentuali di
guasto di due impianti di risalita (che indicheremo p1 e p2 ) durante una giornata.
L’addetto prende nota dei numeri X e Y di risalite che avvengono prima del primo
guasto nei due impianti, rispettivamente. Supponendo che i guasti avvengano in
modo indipendente l’uno dall’altro, si chiede di:
a. determinare la legge congiunta di (X, Y );
b. calcolare la probabilità dell’evento (X = Y );
c. verificare che la v.a. Z := min{X, Y } ha legge geometrica e identificarne il
parametro p (sugg.: considerare la funzione di ripartizione di Z, cioè la funzione
FZ (k) = P (Z ≤ k)).
S∞
P∞
Svolgimento. P (X = Y ) = P ( k=1 (X = Y, Y = k)) = k=1 p1 p2 (1 − p1 )k−1 (1 −
p
p
2
. Per svolgere c, osserviamo che P (Z ≤ k) = 1−P (X > k, Y >
p2 )k−1 = p1 +p21 −p
1 p2
k) = 1 − P (X > k)P (Y > k) = 1 − (1 − p1 )k (1 − p2 )k ; perciò Z ha legge geometrica
di parametro p = p1 + p2 − p1 p2 . ¤
21
Esercizio 8. Sia (X, Y ) un vettore aleatorio con densità congiunta della forma:
p(0, 0) = a, p(1, 0) = 0, p(0, 1) = 0, p(1, 1) = b, p(0, 2) = c, p(1, 2) = 0,
con a, b, c > 0. Si chiede:
a. quale ulteriore condizione a, b, c devono soddisfare perché p sia effettivamente
una densità congiunta? In tal caso calcolare le densità marginali;
b. mostrare che X e Y non sono indipendenti e dire quale condizione a, b, c devono
soddisfare perché X e Y siano non correlate.
Una nota sul calcolo di E(XY ). Il calcolo del valore atteso di un prodotto di v.a.
può essere complicato. Per definizione se xk e yj sono i valori assunti dalle v.a. X
e Y il prodotto assume i valori xk yj ; può accadere che xk yj = xk0 yj 0 per qualche
(k, j) 6= (k 0 , j 0 ) quindi in generale P (XY = xk yj) 6= P (X = x − k, Y = yj ). Si può
dimostrare che se E(|X|) e E(|Y |) sono finite allora
X
E(XY ) =
xk yj p(xk , yj ).
21. Densità condizionata. (Dalle note del Prof. G. Colombo, con qualche
aggiunta)
Sia X una v.a. che assume i valori x1 , x2 , . . . e sia A un evento, P (A) 6= 0. Possiamo
considerare la probabilità condizionata
P (X = xk , A)
.
P (A)
P
La successione pk = P (X = xk |A) è tale che k pk = 1: si tratta quindi della
densità di una variabile aleatoria; la chiameremo densità condizionata di X dato
l’evento A. Il significato è ovvio , tenendo conto del concetto di condizionamento:
la v.a. X ha una densità pX (xk ), k = 1, 2 . . . ; se però sappiamo che l’evento A si è
verificato, questa informazione fa cambiare la valutazione delle probabilità relative
alla v.a. X portando dalla densità ’assoluta’ a quella condizionata. Più in generale
possiamo al posto di un evento A considerare gli eventi {Y = yj } associati ad
un’altra v.a. Y . Siano X, Y due v.a. con densità discrete pX , pY rispettivamente e
densità congiunta p.
P (X = xk |A) =
Definizione. Si chiama densità condizionata di X dato Y = yj la quantità
pX|Y (xk |yj ) = P (X = xk |Y = yj ) =
p(xk , yj )
pY (yj )
se pY (yj ) > 0, e pX|Y (xk |yj ) = 0 altrimenti. La densità condizionata di Y dato
X = xk si definisce simmetricamente:
pY |X (yj |xk ) =
p(xk , yj )
pX (xk )
se pX (xk ) > 0, pY |X (yj |xk ) = 0 altrimenti.
Osserviamo che la densità condizionata, come funzione della variabile xk , è essa
stessa una densità discreta, che ha il significato intuitivo di densità di X sapendo
22
che Y ha assunto il valore yj : infatti, ricordando la (∗) nella sezione precedente, si
ha
X
X p(xk , yj )
pY (yj )
pX|Y (xk |yj ) =
=
= 1.
pY (yj )
pY (yj )
k
k
È chiaro dalla definizione che se X e Y sono indipendenti si ha
pX|Y (xk |yj ) = pX (xk ),
pY |X (yj |xk ) = pY (yj ).
Osservazione. Nel caso in cui Y = 1A è la funzione indicatrice di un insieme (ricordiamo che se A è un insieme si pone 1A (x) = 1 se x ∈ A e 1A (x) = 0 se x 6∈ A) la
densità congiunta p di X e Y è p(xk , 1) = P (X = xk , A), p(xk , 0) = P (X = xk , A),
mentre la densità condizionata pX|Y dato Y = 1 si scrive pX|A (xk ) ed è data da
pX|A (xk ) =
P ({X = xk } ∩ A)
= P (X = xk |A);
P (A)
si ritrova la nozione di probabilità condizionata rispetto ad un evento esposta
all’inizio della sezione. Analogamente, se X = 1A si ha pX|Y (1, yj ) = P (A|{Y =
yj }.
Esempio 1bis. Con riferimento alla seconda parte dell’Esempio 1 della sezione
precedente, quella sulla estrazione senza rimpiazzo, calcoliamo la densità condizionata pX|Y (i|j). Si ha:


pX|Y (i|j) =
0 se i = j
p(i, j)
= 1/30
1

p2 (j)
= se i 6= j
1/6
5
¤
Esercizio 1. Si lancino due dadi e si indichino con X1 e X2 i risultati dei lanci; si
ponga M = max{X1 , X2 }.
a. Si descrivano i valori che M assume e si calcoli la densità condizionata pM |X1 (i|j)
(sugg.: distinguere i casi i = j e i 6= j);
b. si calcoli la densità discreta di M .
Svolgimento. M assume i valori 1, . . . , 6; la probabilità condizionata
P (M = i | X1 = j)
è nulla se i < j; se i = j, P (M = i | X1 = i) = P (X2 ≤ i | X1 = i) = P (X2 ≤
i) = i/6. Se i > j, P (M = i | X1 = j) = P (X2 = i | X1 = j) = P (X2 = i) = 1/6.
Per il teorema della probabilità totale ed
¡ il calcolo precedente
¢ 2i−1 risulta P (M = i) =
P6
i
1 1
(i
−
1)
+
P
(M
=
i
|
X
=
j)P
(X
=
j)
=
1
1
j=1
6 6
6 = 36 .
Esercizio 2. Sia X una v.a. tale che X ∼ P0 (λ). Sia Y un’altra v.a. tale che la
densità di Y condizionata a (X = k) sia la legge uniforme su {1, . . . , k + 1}, cioè
pY |X (j|k) =
1
k+1
(1 ≤ j ≤ k + 1).
23
−λ
a. Calcolare P (Y = 1) e P (Y = 2) (risultato: 1−eλ
b. calcolare pX|Y (k|2).
,
1−e−λ −λe−λ
);
λ
Svolgimento. Per il teorema della probabilità totale,
P (Y = 1) =
∞
X
P (Y = 1 | X = k)P (X = k) =
=
P (Y = 2) =
e
e−λ
k=0
k=0
∞
−λ X
∞
X
λk
(k + 1)!
¢ 1 − e−λ
λ
e ¡ λ
=
e −1 =
λ n=1 n!
λ
λ
∞
X
n
−λ
P (Y = 2 | X = k)P (X = k) =
k=0
∞
X
k=1
e−λ
λk
(k + 1)!
∞
¢ 1 − e−λ − λe−λ
e−λ X λn
e−λ ¡ λ
=
e −1−λ =
.
=
λ n=2 n!
λ
λ
Le probabilità pX|Y (k|2) si calcolano immediatamente con la formula di Bayes;
1
1
viene pX|Y (k|2) = k+1
.
1−e−λ −λe−λ
Esercizio 3. Si considerino due v.a. X e Y indipendenti con la stessa legge G(p).
Si chiede di:
a. calcolare la probabilità condizionata P (X = Y | X = k) e la probabilità P (X =
p
Y ) (risultato: P (X = Y ) = 2−p
);
b. calcolare le probabilità P (X > Y ) e P (X < Y ) (sugg.: usare il risultato
precedente e il fatto che, per simmetria, le due probabilità sono uguali; è comunque
utile impostare il calcolo direttamente studiando l’evento (X > Y ); risultato: (1 −
p)/(2 − p)).
Esercizio 4. Sia X ∼ P0 (λ) e sia Y una v.a. tale che, per k = 0, 1, 2, . . . la sua
legge condizionata a (X = k) sia B(k, p) (con 0 < p < 1), mentre P (Y = 0 | X =
0) = 1. Si calcolino la densità discreta di Y e la densità condizionata pX|Y (j|k).
(Non si richiedono calcoli espliciti.)
Esercizio 5. Si lancino due monete e sia Xi la v.a. che conta il numero di tentativi
che occorrono perché per la moneta i-esima venga testa (i = 1, 2). Si chiede di
calcolare:
a. P (X1 ≤ X2 | X1 = k), per k = 1, 2, . . . ;
b. P (X1 ≤ X2 ) e P (X1 ≥ X2 );
c. P (X1 = X2 ).
Svolgimento. X1 e X2 hanno entrambe legge G(1/2) e sono indipendenti. Si ha
perciò P (X1 ≤ X2 | X1 = k) = P (X1 = k, X2 ≥ k)/P (X1 = k) = P (X2 ≥ k) =
1 − P (X2 < k) eccetera...
Definizione. Si chiama valore atteso condizionato (o speranza condizionata, o
media condizionata) di X dato Y = yj la quantità
E(X | Y = yj ) =
X
k
24
xk pX|Y (xk |yj ),
purché essa sia finita.
Osservazione.
1) La notazione precedente è abusiva in quanto non abbiamo definito X|Y = yj
come una v.a.
2) Nel caso in cui Y = 1A è la funzione caratteristica di un insieme A il valore
atteso condizionato di X dato A è
X
X
E(X|1A = 1) =
xk pX|A (xk ) =
xk P (X = xk |A).
k
k
Esercizio 6. Siano X1 e X2 v.a. indipendenti con legge B(p). Calcolare la densità
discreta di S = X1 + X2 . Sia r = 0, 1 o 2. Calcolare la densità ed il valore atteso
di X1 condizionati all’evento (S = r).
Svolgimento. La v.a. S assume valori 0, 1, 2. Si ha che S ∼ B(2, p): pS (0) =
(1 − p)2 ; pS (1) = 2p(1 − p), pS (2) = p2 . Inoltre pX1 |S (0, 0) = 1, pX1 |S (1, 0) = 0,
pX1 |S (0, 1) = pX1 |S (1, 1) = 1/2, pX1 |S (0, 2) = 0, pX1 |S (1, 2) = 1, pX1 |S (2, 2) = 0.
infine E(X1 |S = r) = 0 se r = 0, 1/2 se r = 1, 1 se r = 2. ¤
Teorema. Siano X e Y due v.a. Si supponga che E(|X|) e E(|X||Y = yj ) siano
finiti per ogni valore yj assunto da Y . Allora
E(X) =
X
E(X | Y = yj )pY (yj ).
j
Dimostrazione. Si ha
E(X) =
X
xk pX (xk ).
k
Applicando la formula delle probabilità totali (Teorema 47) con A = {X = xk } e
Bj = {Y = yj } si ha:
pX (xk ) = P (X = xk ) =
X
P (X = xk |Y = yj )P (Y = yj )
j
=
X
pX|Y (xk |yj )p(yj )
j
da cui
E(X) =
X
xk
k

X

j


pX|Y (xk |yj )pY (yj ) .

L’ipotesi sulla finitezza delle medie garantisce che la somma della serie precedente
non cambia se si scambia l’ordine delle somme; si ha così
(
)
X X
E(X) =
xk pX|Y (xk |yj ) pY (yj )
j
=
X
k
E(X | Y = yj )pY (yj ).
j
25
¤
Osservazione. Lo scambio dell’ordine nelle sommatorie è possibile perché le serie
sono assolutamente convergenti: non lo dimostriamo (naturalmente se X e Y assumono un numero finito di valori non c’è bisogno di dimostrazione).
Il vantaggio
della formula precedente consiste nel fatto che, dovendo calcolare
P
E(X) = k xk pX (xk ) non disponendo di pX (xk ) si può, introducendo una v.a. la
cui densità sia nota e tale che il calcolo delle densità condizionate pX|Y (xk |yj ) di
X
P dato Y = yj siano facilmente ottenibili, calcolare innanzitutto E(X|Y = yj ) =
k xk pX|Y (xk |yj ) e poi ottenere E(X) attraverso la formula dimostrata sopra.
Il valore atteso condizionato E(X|Y = yj ) può essere esso stesso visto come una
variabile aleatoria.
Definizione. Il valor medio condizionato di X rispetto a Y è la variabile aleatoria
che indichiamo con E(X|Y ) definita da
E(X|Y ) : Ω −→ R
ω 7−→ E(X|Y )(ω) = E(X|Y = Y (ω))
Si osservi che, posto f (y) = E(X|Y = y) si ha E(X|Y )(ω) = f (Y (ω)) e cioè
E(X|Y ) = f (Y ) è una v.a. della variabile Y . Applicando la formula presentata nel
teorema 35 il valore atteso di questa nuova VARIABILE ALEATORIA E(X|Y ) è
dato da
X
X
E[E(X|Y )] =
f (yj )pY (yj ) =
E(X|Y = yj )pY (yj ).
j
j
Con questa nozione possiamo parafrasare il Teorema precedente come segue.
Teorema. Siano X e Y due v.a. Si supponga che E(|X|) e E(|X||Y = yj ) siano
finiti per ogni valore yj assunto da Y . Allora
E(X) = E[E(X|Y )].
In altri termini per calcolare un valore atteso talvolta è più facile calcolare prima
il valore atteso condizionato e poi calcolarne ancora il valore atteso. L’utilità del
teorema è analoga a quella del teorema della probabilità totale che essa generalizza
come si vede nel prossimo esercizio.
Esercizio 7. Siano A ⊂ Ω, Bk ⊂ Ω due a due disgiunti (k = 1, 2, . . . ) e Y la v.a.
che vale k su Bk .
i) Calcolare E(1A |Y = j);
ii) Calcolare E[E(1A |Y )];
iii) Dedurre dal teorema precedente il teorema delle probabilità totali.
Esempio 2. Prendiamo due urne, la prima con 5 palline bianche e 4 rosse, la
seconda con 2 palline bianche e 6 rosse. Lanciamo una moneta: se esce testa
scegliamo la prima urna, se esce croce la seconda. Dall’urna scelta estraiamo tre
palline senza rimpiazzo. Calcoliamo il numero atteso di palline bianche estratte.
Svolgimento. Sia T l’evento “esce testa” e sia X la v.a. che conta il numero di
palline bianche estratte; evidentemente X può assumere i valori 0, 1, 2, 3. Dobbiamo calcolare EX. A questo scopo calcoliamo prima
¡ ¢ la densità
¡ ¢ di X condizionata
all’evento T e poi all’evento T : (ricordiamo che 93 = 84 e 83 = 56)
¡5¢
¡5¢
¡ ¢
5 42
5
10
5
2 4
=
, pX|T (2) =
=
, pX|T (3) = 3 =
,
pX|T (1) =
84
14
84
21
84
42
26
pX|T (1) =
¡6¢
2
2
=
56
15
6
3
, p
(2) =
=
, p
(3) = 0.
56 X|T
56
28 X|T
Perciò
EX = E[E(X | 1T )] =
1
2
µ
5
10
5
15
3
+2 +3 +
+2
14
21
42 56
28
¶
' 1.07. ¤
Esempio 3 (La rovina del giocatore). Si consideri il gioco di Testa o Croce con
una moneta non truccata, dove chi vince prende 1 euro all’avversario. Il giocatore
abbia a disposizione inizialmente un capitale di m (intero) euro e giochi contro un
avversario che ha un capitale di n − m euro. Sia Tm la v.a. (dipendente da m)
uguale al numero di partite per terminare il gioco. Calcoliamo il valore atteso di
Tm . Volendo calcolarlo direttamente si dovrebbe scrivere
E(Tm ) =
X
kP (Tm = k)
k
e il calcolo è arduo. Introduciamo invece la v.a. X = 1 se il giocatore considerato
fa testa alla prima partita, 0 altrimenti. Si ha
E[E(Tm |X)] = E(Tm |X = 0)P (X = 0) + E(Tm |X = 1)P (X = 1)
1
1
= E(Tm |X = 0)P (X = 0) + E(Tm |X = 1)P (X = 1).
2
2
Ora P (Tm = k|X = 0) = P (Tm−1 = k − 1) da cui
E(Tm |X = 0 =
X
k
=
X
P (Tm−1 = k − 1)k =
X
P (Tm−1 = k)(k + 1)
k
kP (Tm−1 = k) + 1 = E(Tm−1 ) + 1
k
ed analogamente si trova
E(Tm |X = 1) = 1 + E(Tm+1 )
da cui
1
1
E(Tm ) = 1 + E(Tm−1 ) + E(Tm+1 )
2
2
valide per m = 1, . . . , n − 1. Si tratta di una relazione di ricorrenza. Risolverla
osservando che c’è una soluzione del tipo αm2 per qualche α ∈ R. Tenendo conto
che E(T0 ) = E(Tn ) = 0 si deduce facilmente che E(Tm ) = m(n − m). E’ curioso
osservare che ad esempio se m = 1 (capitale del giocatore) e n = 1001 (da cui
n − m = 1000 euro) ci vogliono mediamente 1000 scommesse per terminare il gioco,
malgrado la vicinanza alla rovina del giocatore. ¤
La seguente proposizione, che non dimostriamo, è talvolta utile nel calcolo di
valori attesi condizionati (v. es. 8).
27
Proposizione. Siano X, Y e Z v.a. discrete, sia f una funzione e siano a, b ∈ R.
Allora
E(aY + bZ | X = xk ) = aE(Y | X = xk ) + bE(Z | X = xk ),
E(f (X)Y | X = xk ) = f (xk )E(Y | X = xk ).
Esercizio 8. Si considerino due v.a. X e Y a valori interi con densità discreta
congiunta
jk
p(j, k) = e−(j+1)
,
j, k = 0, 1, . . .
j! k!
Si
a.
b.
c.
d.
e.
calcolino:
la densità discreta, il valore atteso e la varianza di X;
la densità condizionata di Y dato (X = j);
i valori attesi condizionati E(Y | X = j) e E(XY | X = j);
determinare E(Y |X) e E(XY |X);
il valore atteso E(XY ) e la covarianza Cov(X, Y ).
−(j+1) P∞
jk
e−1
Svolgimento. a) P (X = j) = e j!
k=0 k! = j! , dunque X ∼ P0 (1) e pertanto
k
E(X) = VarX = 1. b) Per j ≥ 0, P (Y = k | X = j) = e−j jk! , cioè la legge
di Y condizionata a X = j è P0 (j).c) La media e la varianza di Y dato X = j
sono note dalla teoria: coincidono entrambe con l’intensità del processo, cioè con
j; si ha dal teorema precedente E(XY |X = j) = jE(Y |X = j) = j 2 . d) dato che
E(Y |X = j) = j = X si ha che LA VARIABILE ALEATORIA E(Y |X) = X;
analogamente si ha E(XY |X) = X 2 . e) Cov(X, Y ) = E(XY ) − (EX)(EY ) =
E[E(XY | X)] − E(X)E[E(Y | X)] = E(X 2 ) − (EX)2 = VarX = 1. ¤
Bibliografia
[1] P. Baldi, Calcolo delle Probabilità e Statistica, ed. McGraw-Hill, Milano
1998.
[2] M. Bramanti, Calcolo delle Probabilità e Statistica, ed. Progetto Leonardo,
Bologna 1997.
[3] C.M. Monti, G. Pierobon, Teoria della Probabilità, ed. Decibel-Zanichelli,
Padova 2000.
28