Programma e note del corso di Matematica D, a.a. 2001
Transcript
Programma e note del corso di Matematica D, a.a. 2001
Programma e note del corso di Matematica D, a.a. 2001-02 Testi citati: [A] Raccolta di appunti di Matematica Discreta, ed. Libreria Progetto, Padova. [B] M. Bramanti, Calcolo delle probabilità e statistica, Progetto Leonardo, Esculapio, Bologna. Programma Gli esercizi sono parte integrante del programma. Comunque vengono segnalati quelli di rilevanza teorica. SD significa: senza dimostrazione. I: Matematica Discreta Contare disposizioni, selezioni, distribuzioni. Contare disposizioni, selezioni, distribuzioni. ([A]: Cap. 1: tutto.) Il Principio di inclusione/esclusione. [A] Cap. 2: tutto eccetto 2.0.2 (la def. di S(n,k) si trova a pag. 35, la dim. del Teorema 2.13 si trova nella nota 1). No 2.0.3 per il corso a distanza (Prof. Tonolo) Grafi. Grafi e grafi semplici. Saper riconoscere i grafi bipartiti (nota 2). Grado dei vertici. Sottografi. Cammini e connessione. Cicli. Isomorfismi. Matrice di adiacenza. ([A]: cap. 4: 4.1, 4.2, 4.3, 4.6 (Th. 4.12 SD) e Lemmi in nota 4, 4.7 (no il Th. 4.15), 4.4 con nota 3 ed esercizio 4.16, 4.5 e nota 8). Alberi. Alberi. Cammini ottimali. ([A]: Cap. 5: fino al Corollario 5.3 incluso; Teorema 5.5 (dim. in nota 5); Corollario 5.6 (dim. in nota 5); Corollario 5.7; L’algoritmo di Kruskal: Teorema 5.9 (SD)) Circuiti di Eulero e cicli di Hamilton. Percorsi e circuiti di Eulero. Cicli di Hamilton. Grafi senza cicli di Hamilton ([A], Cap. 6: Teorema 6.1 (dim. in nota 6); Teorema sulla esistenza di percorsi di Eulero (Corollario in nota 6); Lemma 6.4 (dim. : è il Teorema in nota 7), Chiusura di un grafo. Teorema 6.6; Teorema 6.3 (dim. in nota 7); §6.5). Grafi planari. Metodo della corda e del cerchio. Formula dei gradi delle facce e formula di Eulero. Teorema dei 6 colori. ([A]: Cap. 9: dalla fine della dim. del Teorema 9.1 alla §9.1 non compresa; Teorema 9.4 (dim. in nota 9), Teorema 9.5 (anche la dim.), Corollario 9.6, 9.7, 9.8, Esercizio 9.2 (soluzione in nota 9), §9.4, Esempio 8.7) Relazioni di ricorrenza. Modelli. Relazioni di ricorrenza omogenee e non omogenee. ([A], Cap. 10: §10.1, §10.2, 10.3: fino all’esempio 10.17 incluso.) II: Probabilità e statistica Probabilità. Esperimenti aleatori. Eventi e operazioni su eventi. Probabilità di eventi. Probabilità classica e problemi di conteggio. Probabilità condizionata. Indipendenza di eventi. Affidabilità di un sistema. ([B]: Cap. 2: tutto). 1 Variabili aleatorie e modelli probabilistici. Variabili aleatorie discrete. Il processo di Bernoulli. Le variabili aleatorie legate al processo di Bernoulli. Valore atteso di una v.a. Varianza e covarianza di una v.a. Disuguaglianza di Cebicev. Legge dei grandi numeri. Leggi ipergeometrica e di Poisson. ([B]: Cap. 3: 3.1, 3.2, 3.3, 3.4 eccetto la def. di binomiale negativa e di legge geometrica traslata; saper comunque fare gli esempi 24, 26, 27 e i calcoli dei valori attesi per le variabili aleatorie: numero di tentativi per n successi e numero di insuccessi per n successi; Note 11, 12, 12,13,14,15;[B]: 3.6 e note 16, 17, 18; [B]: 3.7 e Nota 19) Densità congiunte e probabilità condizionate. Densità congiunte (Nota 20). Media condizionata (Nota 21). Variabili aleatorie continue. Variabili aleatorie continue. Legge esponenziale (saperla trovare). il modello normale. ([B]: Cap. 3: 3.9, Definizione 90 e Prop. 92, 3.11.1, 3.11.2) Note 0. Combinatoria. Questo il modo per risolvere un problema con il principio di inclusione/esclusione (PIE). I problemi che richiedono di contare in quanti modi si verificano più eventi B1 , . . . , B : n si possono formulare come calcolare il numero di elementi di B1 ∩· · ·∩Bn : per applicare la formula del PIE (Teorema 2.2) è sufficiente determinare gli complementari Ai = Bi0 dei Bi e scrivere che B1 ∩ · · · ∩ Bn = A01 ∩ · · · ∩ A0n (ciò è particolarmente comodo quando N (Ai1 ∩ · · · ∩ Aim ) dipende solo da m. Analogamente i problemi che richiedono di contare in quanti modi si realizza almeno uno degli eventi A1 , . . . , An equivalgono a contare il numero di elementi di A1 ∪ · · · ∪ An . Esempio. Nell’esercizio 2.19 si chiede in quanti modi un bambino può prendere 12 caramelle di 4 tipi distinti se il bambino non prende esattamente 2 caramelle dello stesso tipo. Qui si tratta di contare il numero di elementi di B1 ∩ B2 ∩ B3 ∩ B4 dove Bi è l’evento: Bi = {il bimbo prende 12 caramelle tra 4 tipi ma non ne prende 2 di tipo i} Si pone poi Ai = Bi0 = Bi = {il bimbo prende 12 caramelle tra 4 tipi e 2 sono di tipo i} e si applica il PIE. Esempio. Nell’esercizio 2.14 si chiede di contare in quanti modi si possono formare delle mani di 10 carte con almeno una quaterna di carte dello stesso valore. Si conclude facilmente con il PIE ponendo Ai = {la mano di 10 carte ha 4 carte che valgono i} si tratta infatti di calcolare N (A1 ∪ · · · ∪ A13 ). 2 Esempio. Nell’esercizio 2.21 si vuole che il libro i non vada al ragazzo i (i tra 1 e 10). Basta calcolare N (B1 ∩ · · · ∩ B10 ) dove Bi = {Distribuzioni di 10 libri a 10 ragazzi; il ragazzo i NON riceve il libro i} Si pone poi Ai = Bi0 = {Distribuzioni di 10 libri a 10 ragazzi; il ragazzo i riceve il libro i} e si applica il PIE per calcolare B1 ∩ · · · ∩ B10 = A01 ∩ · · · ∩ A010 . Esercizio. Nell’esercizio 2.10 si chiede di contare gli anagrammi di MURMUR dove non compaiono due lettere uguali vicine: posto AM = {Anagrammi di MURMUR con due M distanti} e analogamente per AR , AU si tratta di calcolare N (A0M ∩ A0R ∩ A0U ). Per calcolare ad esempio AM si consideri la sequenza M M come un blocco unico da piazzare in 5 caselle (5 possibilità), si tratta poi di disporre le rimanenti 4 lettere con 2 ripetizioni in 4 caselle (in tutto 4!/(2!2!) modi, quindi N (AM ) = 5!/(2!2!)), oppure si veda il problema come quello di disporre i blocchi M M , U , U , R, R in modo ordinato (in tutto 5!/(2!2!) modi); per calcolare N (AM ∩AU ) si tratta di piazzare i blocchi M M , U U , R, R, in 4 caselle (in tutto 4!/2! modi) ecc . . . Una soluzione alternativa è stata suggerita dal vostro collega M. Martignon: le disposizioni possibili sono del tipo abc def con (a, b, c) e (d, e, f ) disposizioni ordinate di M, U, R (in tutto (3!)2 = 36) eccetto il caso in cui c = e (in tutto 3X2X2 = 12), oppure si tratta di disposizioni del tipo aba cbc (in tutto 3X2 = 6): in totale i casi sono 36 − 12 + 6 = 30. 1. Numero di applicazioni suriettive. Dimostriamo 3) del Teorema 2.13 a pag. 36. Indichiamo con Ai l’insieme delle applicazioni da X in Y \{yi }. Chiaramente per ogni k tra 1 ed n e per ogni insieme di indici I = {i1 , . . . , ik } con i1 < i2 < · · · < ik (in tutto C(n, k) insiemi) si ha che l’intersezione Ai1 ∩· · ·∩Aik coincide con l’insieme delle applicazioni da X in Y \ {yi1 , . . . , yik }, in tutto (n − k)r . Con le notazioni del capitolo quindi si ha che Sk = C(n, k)(n − k)r . Il risultato segue dal Teorema 2.2. ¤ 2. Grafi bipartiti. Illustriamo un modo per provare se un dato grafo è bipartito. Si considera un vertice scelto a caso: se il grafo è bipartito e X, Y è una bipartizione del grafo non è restrittivo supporre che esso appartenga ad X. Necessariamente tutti i vertici ad esso adiacenti appartengono ad Y . Procedendo in questo modo si formano due insiemi di vertici X e Y (per comodità indicare sul disegno con cerchi pieni i vertici in X, con cerchi vuoti quelli di Y ). Se si riescono ad elencare tutti i vertici in questo modo il grafo è bipartito, altrimenti ad uno stadio del procedimento ci si trova con un vertice che è adiacente ad un vertice precedentemente elencato di X e ad un vertice di di Y : il grafo non è bipartito. 3. Isomorfismi di grafi. Per studiare gli isomorfismi di grafi si possono usare alcuni accorgimenti. 3 Proposizione. Se due grafi G e H sono isomorfi allora: i) |V (G)| = |V (H)|; ii) |E(G)| = |E(H)|; iii) Indicando con θ l’isomorfismo tra vertici si ha dH (θ(u)) = dG (u) per ogni u ∈ V (G); iv) Se u è adiacente ad un vertice di grado k in G allora θ(u) è adiacente ad un vertice di grado k in H. Dimostrazione. i) e ii) sono immediati dato che i vertici (risp. lati) di G sono in corrispondenza biunivoca con quelli di H. iii): Indicando con ϕ l’isomorfismo tra lati, il grado dH (θ(u)) coincide con il numero di lati ϕ(e) incidenti θ(u); ciò accade se e solo se e è incidente a u, quindi dH (θ(u)) = dG (u). iv) segue direttamente da iii). ¤ Sono anche utili le proprietà che seguono, la cui verifica è lasciata per esercizio. Proposizione. Con le notazioni del testo se G è isomorfo ad H allora: i) l’immagine del sottografo indotto dai vertici di grado k di G è il sottografo indotto dai vertici di grado k di H; ii) l’immagine del sottografo di G indotto da un insieme di vertici V è il sottografo di H indotto dall’ insieme di vertici θ(V ); iii) l’immagine di un ciclo di G di lunghezza k è un ciclo di H di lunghezza k (quindi ’triangoli’ vanno in ’triangoli’, ’rettangoli’ in ’rettangoli’... e l’ordine dei vertici nei due cicli è rispettato); iv) Il numero di cicli di G di lunghezza k è uguale al numero di cicli di H di lunghezza k. Osservazione. Attenzione che le precedenti sono condizioni necessarie ma non sufficienti, utili quindi per provare che 2 grafi non sono isomorfi o per tentare di costruire un isomorfismo. Nella pratica, per vedere se due grafi sono isomorfi si sfruttano le condizioni precedenti per cercare di stabilire un isomorfismo. Se ad uno stadio si ottiene una contraddizione i grafi non sono isomorfi. Altrimenti si ottiene una applicazione candidata ad essere isomorfismo. La verifica nel caso di grafi semplici è immediata, come si vede nell’esercizio che segue. Esercizio. Siano G ed H due grafi con |V (G)| = |V (H)|. L’applicazione θ : V (G) → V (H) induce un isomorfismo tra grafi se e solo comunque dati due vertici u e v (anche coincidenti) vi è lo stesso numero di lati tra u e v e θ(u) e θ(v). In particolare nel caso di grafi semplici è sufficiente verificare che se u e v sono adiacenti in G allora θ(u) è e θ(v) sono adiacenti in H. Ecco un suggerimento per studiare gli isomorfismi tra grafi semplici con molti lati. Definizione. Dato un grafo semplice G = (V, E), il suo complemento è il grafo G con lo stesso insieme di vertici ma i cui lati sono esattamente le coppie di vertici non adiacenti in G. Proposizione. Due grafi semplici G1 e G2 sono isomorfi se e solo se i complementi G1 e G2 sono isomorfi. Ad esempio, i grafi in fig. 4.11 a pagina 56 di [A] sono isomorfi perché i loro complementi sono entrambi cicli di lunghezza 7. 4 Soluzione dell’esercizio 4.13, (c). Chiamiamo G il grafo a sinistra e H quello a destra. Il numero di vertici e di lati è uguale in entrambi, come anche il numero di vertici di grado fissato. Sappiamo che ciò non basta a garantire che essi sono isomorfi. Tentiamo di stabilire un isomorfismo tra i vertici procedendo con condizioni necessarie: sia θ la mappa tra V (G) e V (H) che induce l’isomorfismo tra i grafi. Entrambi i grafi hanno un solo vertice di grado 4: pertanto θ(e) = 6. Inoltre e e 6 hanno 4 vertici adiacenti nei rispettivi grafi, due dei quali (d, f in G e 1, 8 in H) appartengono a dei cicli di lunghezza 3; per simmetria di G non è restrittivo supporre che θ(d) = 1 e θ(f ) = 8. Ancora per simmetria di G non è restrittivo supporre che θ(b) = 4 e θ(h) = 5 (non restrittivo significa che se c’è un isomorfismo che manda b in 5 ce n’è un altro che manda b in 4 . . . ). L’immagine del ciclo beda è un ciclo di lunghezza 4 contenente 461, quindi 4613: necessariamente è θ(a) = 3. Analogamente si trova che θ(c) = 7, θ(g) = 2, θ(i) = 9. Dato che θ è biiettiva per verificare che essa induce un isomorfismo è sufficiente verificare che i lati 34, 47, 79, 78, 89, 59, 25, 46, 65, 12, 13, 23 esistono in H, e ciò è vero. Facce di un grafo piano. Introduciamo qui una nozione che riprenderemo più avanti. Se un grafo è piano, cioè se i suoi lati si intersecano solo nei vertici si chiamano facce le componenti connesse del piano privo dei lati di G; la faccia esterna è l’unica componente connessa illimitata. Il grado di una faccia è il numero di lati di G ad essa adiacenti (i ponti di G contano 2). Ad esempio il grafo a sinistra della fig. 4.12 ha una sola faccia (quella esterna) ed essa ha grado 6; i grafi in figura 4.13 b) hanno entrambi 6 facce di grado 3 e una faccia di grado 4. Due grafi piani isomorfi hanno lo stesso numero di facce. 4. Cammini e connessione. Soluzione dell’esercizio 4.25). Sia P il percorso di lunghezza minima che connette u a v. Se un vertice w si ripete nel cammino c’è una sequenza del tipo we1 . . . ek w in P : si costruisce un percorso più corto togliendo da P la sequenza we1 . . . ek : assurdo, quindi nessun vertice si ripete e P è un cammino. Soluzione dell’esercizio 4.26). Per induzione su k. L’asserto è vero per k = 1. Supponiamolo vero per allo stadio k − 1 e sia G un grafo con δ ≥ k. Essendo δ ≥ k − 1 si costruisce un cammino P di lunghezza k − 1 che congiunge, diciamo, u a v. Dato che P non ha cicli, esso èun albero, quindi vi sono k vertici. Inoltre vi sono almeno k lati incidenti v: pertanto c’è un lato e incidente v il cui altro estremo non è uno dei k − 1 estremi già utilizzati: P + e è un cammino di lunghezza k. Soluzione dell’esercizio 4.28a). Sia ω(G) = m e siano G1 , . . . Gm le componenti connesse di G; si supponga ad esempio che e sia contenuto in G1 . Se u, v sono gli estremi di e il grafo G1 − e ottenuto togliendo il lato e (ma non i suoi vertici) ha al più due componenti connesse: infatti ogni suo vertice è connesso con un cammino a u o a v senza usare il lato e (Si connetta un vertice w di G1 a u con un cammino: se esso contiene e, tolto quest’ultimo, si ha un cammino che connette w a v senza usare e). Ne segue che G − e ha al più m + 1 componenti connesse. Soluzione dell’esercizio 4.27 a). Forniamo due soluzioni, la prima della quale prende spunto da quella del vostro collega Mattia Moschetta. Prima soluzione. Se il grafo non è connesso esso ha almeno due componenti connesse G1 e G2 . Se k è il numero di vertici di G1 il numero di lati di G1 non eccede quello 5 del grafo completo con k vertici, ovvero ε(G1 ) ≤ C(k, 2); analogamente il numero massimo di lati nelle altre componenti connesse è minore o uguale a quello del grafo completo con n−k vertici, ovvero C(n−k, 2). Pertanto ε(G) ≤ C(n−k, 2)+C(k, 2). Ora l’ultima termine è la somma del numero di sottoinsiemi da un insieme di n − k elementi e del numero di sottoinsiemi di un insieme di k elementi; si prova poi algebricamente che C(n − k, 2) + C(k, 2) ≤ C(n − 1, 2): la disequazione equivale infatti a k(k − 1) + (n − k)(n − k − 1) ≤ (n − 1)(n − 2) cioè alla disequazione di secondo grado in k k 2 − kn + n − 1 ≤ 0 che è soddisfatta per ogni k ∈ [1, n − 1]. Seconda soluzione. Supponiamo che il grafo G non sia connesso. E’ facile concludere se c’è un vertice isolato u: in tal caso G ha al più tanti lati quanti quelli di un grafo completo di ν − 1 vertici, ovvero C(ν − 1, 2). Nel caso generale siano u, v due vertici di due componenti connesse distinte di G. Si costruisca un altro grafo K in questo modo: si tolga da G ogni lato uw incidente u e si costruisca al suo posto il lato wv (senz’altro non è un lato di G); si lasciano fermi gli altri lati. Senz’altro si ha V (K) = V (G) e |E(K)| = |E(G)|, inoltre u è isolato in K: per quanto detto prima si ha ε(K) ≤ C(ν(K) − 1, 2) da cui ε(G) ≤ C(ν(G) − 1, 2). Proviamo qui due risultati che useremo più volte in seguito. Lemma 1. Sia G un grafo connesso e H un sottografo di G. i) Se V (H) 6= V (G) esiste un lato di G che ha uno solo dei suoi estremi in H. ii) Se E(H) 6= E(G) esiste un lato di G non in H che è incidente ad un vertice di H. Dimostrazione. i) Si fissi un vertice u in G che non appartiene ad H; si connetta u ad un qualunque vertice di H con un cammino: il primo lato di esso incidente un vertice di H soddisfa alla proprietà richiesta. ii) Si fissi un lato di G che non è un lato di H: se almeno uno dei suoi estremi appartiene a V (H) abbiamo concluso; altrimenti V (H) 6= V (G) e si applica i). ¤ Lemma 2. Sia G un grafo con tutti i vertici di grado pari. Allora ogni vertice di grado non nullo è l’origine ed il termine di un percorso chiuso con lati distinti. Dimostrazione. Forniamo due dimostrazioni del risultato, la prima è forse più intuitiva: 1) Sia v0 vertice di grado non nullo e si scelga un lato e1 incidente a v0 , sia v1 l’altro suo estremo: se v1 = v0 si termina, altrimenti essendo v1 di grado pari esiste senz’altro un lato e2 ad esso incidente e diverso da e1 . Si prosegua in questo modo fino a quando ciò non è più possibile. Dato che i gradi dei vertici sono pari tale percorso termina necessariamente nel punto iniziale v0 ; infatti appena si ’entra’ in un vertice diverso da quello iniziale il numero di lati utilizzati che lo incidono è dispari: c’è almeno un lato ad esso incidente non ancora utilizzato. 2) Altra dimostrazione. Sia v0 un vertice di grado non nullo. Sia P = v0 e1 . . . ek vk un percorso con lati distinti con lunghezza massima in G: esiste perché v0 è incidente ad almeno un lato. Ogni volta che vk compare tra i vertici interni di P vi sono due lati di P ad esso incidenti; in tutto un numero pari di lati. Se vk 6= v0 vi è un altro lato ek del percorso incidente a vk : in tutto sono stati utilizzati in P un numero dispari di lati incidenti a vk . Dato che il grado di vk è pari c’è u lato ek+1 non già utilizzato ad esso incidente: indicando con vk+1 il suo altro estremo il percorso P + ek+1 = v0 e1 . . . ek vk ek+1 vk+1 è un percorso con lati distinti più lungo di P , contraddicendo l’ipotesi. Pertanto P è chiuso. ¤ 6 Esercizio 4.31. Sia G un grafo con δ ≥ 2. Provare che G contiene un ciclo. Soluzione. Si osservi che un ciclo privo della sua coda è un cammino. Sia P = v0 e1 . . . ek vk un cammino di lunghezza massima in G: esso esiste dato che ogni vertice è incidente ad almeno un lato. Dato che vk ha grado pari e non compare prima nel cammino esiste un lato ek+1 ad esso adiacente. Per l’ipotesi di massimalità di P l’altro vertice di ek+1 compare tra i vertici di P ; si tratta di qualche vj con j tra 0 e k: il percorso vj ej+1 . . . vk ek+1 vj è un ciclo. ¤ 5. Alberi. Dimostriamo qui il Teorema 5.5. Teorema 5.5. Un grafo connesso G è un albero se e solo se ogni lato e è un ponte. Inoltre in tal caso ω(G − e) = 2. Dimostrazione. Sia G un albero ed e = xy un suo lato; sappiamo per il Teorema 5.1 che l’unico cammino che connette x a y è xey, quindi non vi sono percorsi che connettono x a y in G − e, che è quindi sconnesso. Inoltre per ogni grafo si ha che ω(G − e) ≤ ω(G) + 1 (Esercizio 4.28), quindi nel nostro caso ω(G − e) = 2. Viceversa se G non è un albero c’è un ciclo C in G. Sia e un lato di C: certamente C − e è connesso. Se vi sono due vertici u, v di G non connessi in G − e esiste un cammino P in G che li connette utilizzando necessariamente il lato e. Supponiamo che x, y siano gli estremi di e e che x preceda y in P : in G − e u è connesso a x da una sezione di P e y è connesso a v da un’altra sezione di P . Ora x e y sono connessi in C − e da un cammino: componendo i tre cammini si ottiene un percorso in G − e che connette u a v, assurdo. Quindi G − e è connesso, ovvero e non è un ponte. ¤ Dimostrazione del Corollario 5.6. Ogni grafo connesso contiene un albero generatore. Dimostrazione. Si consideri un albero H in G con il maggior numero di vertici. Se V (H) 6= V (G) per il Lemma 1i) esiste un lato e con un solo estremo in V (H). Il grafo H + e ottenuto aggiungendo ad H il lato e e il vertice u è aciclico (u ha grado 1 in H + e), connesso e con più vertici di H, contraddicendo l’ipotesi. Quindi V (H) = V (G) ovvero H è albero generatore. ¤ Soluzione alternativa dell’esercizio 4.31. Soluzione. Si consideri una componente connessa G1 di G: sicuramente non si tratta di un albero dato che tutti i suoi vertici hanno grado pari (Corollario 5.3). Pertanto esiste un ciclo in G1 , quindi in G. ¤ 6. Circuiti di Eulero. Dimostrazione alternativa del Teorema 6.1. Si supponga che G abbia solo vertici di grado pari. Sia H un percorso chiuso di lati distinti con il maggior numero di lati: tale percorso esiste per il Lemma 2. Si supponga che questi non esauriscano i lati di G. Per il Lemma 1ii) esiste un lato di G non in H che è incidente ad un vertice u di H. Pertanto u ha grado non nullo nel grafo G − E(H) ottenuto togliendo da G i lati di H. Dato che tutti i vertici di G − E(H) sono di grado pari il Lemma 2 permette di costruire da u un percorso con lati distinti in G − E(H). Si unisca H con il percorso precedente: si ottiene un percorso chiuso con lati distinti in numero maggiore di quelli di H, contraddicendo l’ipotesi. Ne segue che H è un circuito euleriano. ¤ 7 Corollario. Un grafo connesso ha un percorso di Eulero se e solo esso ha al più due vertici di grado dispari. Dimostrazione. Se il grafo G ha un percorso di Eulero allora, come nel Teorema 6.1, ogni vertice diverso dall’origine e fine del percorso ha grado pari. Viceversa, si supponga che G sia connesso con al più due vertici di grado dispari. Se G non ha vertici di grado dispari allora, per il Teorema 6.1, esso ha un circuito di Eulero. Altrimenti per il Teorema 4.5 vi sono esattamente due vertici di grado dispari, u e v. In tal caso sia G + e il grafo ottenuto da G aggiungendo un nuovo lato che congiunge u a v. Chiaramente, ogni vertice di G + e ha grado pari ed ammette, sempre per il Teorema 6.1, un circuito di Eulero C = ueve1 . . . vk−1 ek u. Il percorso ve1 . . . vk−1 ek u è un percorso di Eulero in G. ¤ 7. Cicli di Hamilton. Dimostriamo prima il seguente risultato di Bondy e Chvàtal. Teorema. Sia G un grafo semplice e siano u e v vertici non adiacenti di G tali che (1) d(u) + d(v) ≥ ν Allora G è hamiltoniano se e solo se G + uv è hamiltoniano. Dimostrazione. E’ immediato vedere che se G è hamiltoniano allora G+uv è hamiltoniano: un ciclo in G che passa per tutti i vertici gode della stessa proprietà in G + uv. Viceversa supponiamo ora che G + uv sia hamiltoniano. Se G non è hamiltoniano ogni ciclo di Hamilton in G + uv deve contenere il lato uv. Quindi esiste un cammino di Hamilton v1 v2 . . . vν in G la cui origine è u = v1 ed il cui termine è v = vν . Introduciamo due insiemi di vertici di G S e T definiti da S = {vi |uvi+1 ∈ E} e T = {vi |vi v ∈ E} Vogliamo provare che c’è un vertice comune in S e T : contiamo il numero di elementi di S ∩ T . Ovviamente |S| = d(u), |T | = d(v) Poiché vν 6∈ S ∪ T , si ha: |S ∪ T | < ν Pertanto |S ∩ T | = |S| + |T | − |S ∪ T | = d(u) + d(v) − |S ∪ T | ≥ ν − |S ∪ T | > 0. Di conseguenza esiste i tale che vi ∈ S ∩ T . Ma allora v1 v2 . . . vi vν vν−1 . . . vi+1 v1 è un ciclo di Hamilton in G, contrariamente alla nostra ipotesi (si veda la figura 6.5). ¤ Otteniamo il Teorema di Dirac come corollario del teorema 6.6. 8 Teorema 6.3. Se G è un grafo semplice con ν ≥ 3 e δ ≥ ν/2, allora G è hamiltoniano. Dimostrazione. Dato che ogni coppia di vertici di G soddisfa alla condizione (1) la chiusura di G è il grafo completo Kν , dove ν è il numero di vertici di G. Dato che Kν è hamiltoniano segue dal Teorema 6.6 che anche G è hamiltoniano. ¤ Esercizio. Sia Kν il grafo completo con ν ≥ 3 vertici. Provare che se u, v sono due vertici allora G = Kν − uv (il grafo di partenza privo del lato uv, lasciando i vertici) è completo. Soluzione. Il grado di u e di v in G è pari a ν − 2; gli altri vertici hanno grado ν − 1; in ogni caso la disequazione dG (w) ≥ ν/2 è soddisfatta per ogni vertice w di G. Si conclude per il teorema di Dirac. Si osservi che K3 meno un lato è un albero, quindi non contiene cicli, mentre K2 meno un lato è sconnesso. ¤ Illustriamo un criterio utile per vedere se esistono cicli di Hamilton. Proposizione. Supponiamo che il grafo in esame G sia composto da due sottografi G1 e G2 disgiunti e da dei cammini P1 , . . . , Pm due a due disgiunti che connettono vertici di G1 con vertici di G2 . Allora se G è hamiltoniano ogni ciclo hamiltoniano utilizza un numero pari di questi cammini; se poi questi hanno tutti lunghezza maggiore o uguale a 2 allora m è pari. Dimostrazione. Infatti non è restrittivo supporre che il ciclo di hamilton parta e termini da un vertice di G1 : ogni volta che si utilizza uno dei cammini per arrivare in G2 se ne deve utilizzare un’altro per tornare in G1 , quindi se ne usano in numero pari. Inoltre tutti i cammini di lunghezza maggiore o uguale a 2 hanno un vertice interno e devono essere utilizzati. ¤ Illustriamo il risultato precedente con un esempio. Esempio: il grafo di Petersen. Si consideri il grafo di Petersen (fig. 6.18 d)). Indichiamo con G1 il perimetro esterno (il ciclo abcdea) e con G2 il ciclo interno f ghijf ). Rimangono 5 cammini (i 5 lati che congiungono vertici di G1 con vertici di G2 ). Per quanto visto sopra un ciclo di hamilton utilizza un numero pari di questi cammini. Se si usano 4 cammini, ad esempio non si usa af : necessariamente si usano f i e f h, ma allora sono vietati jh e gi e si deve usare jg formando un ciclo ejgbae, assurdo. Se si usano solo due cammini e questi sono vicini, ad esempio af e gb si devono usare i lati jg, jh, if, ig, hj, hf , ovvero tuta la stella interna che è un ciclo, assurdo. resta il caso di due soli cammini usati, distanti fra loro, ad esempio af e ch: allora si devono usare anche dc e bc, assurdo (3 lati incidenti c). Quindi il grafo di Petersen non è hamiltoniano. Spiegazione della Regola 2. a pag. 83. Se nella costruzione di un ciclo di Hamilton H appare un sottociclo proprio C allora per il Lemma 1 al punto 4. c’è un lato di H non in C che incide un vertice di C, pertanto tale vertice ha grado almeno uguale a 3 in H: assurdo perché i vertici di un ciclo hanno grado 2 nel ciclo. 8. Matrice dei pesi di un grafo. Supponiamo di avere un grafo G semplice pesato. Generalizzando la nozione di matrice di adiacenza, diciamo matrice dei pesi del grafo G la matrice simmetrica ν × ν P (G) il cui coefficiente di posto i, j è ∞ (1016 se la vogliamo inserire in un calcolatore) se i vertici i e j non sono adiacenti, oppure il peso del lato che ha i vertici i e j come estremi. 9 9. Grafi planari. Dimostrazione elementare del Teorema 9.4. Osserviamo che in un grafo piano un ponte e è necessariamente un lato che non separa due facce distinte. Nel calcolo della somma del grado delle facce ogni lato viene contato due volte (esso separa due facce distinte o è un ponte e viene contato due volte). ¤ Esercizio. Sia G un grafo piano. Allora G è un albero se solo se G ha una sola faccia. Soluzione. Se vi fosse più di una faccia ce ne sarebbe una limitata (quella illimitata è unica), esiste quindi un ciclo in G che non è un albero. Viceversa se G è un albero ogni lato è un ponte; ora le facce limitate non ha un bordo formato di soli ponti, quindi non vi sono facce limitate e G ha solo la faccia illimitata. ¤ Esercizio. Sia G un grafo piano semplice connesso con almeno tre vertici. Allora ogni faccia ha grado almeno pari a 3. Soluzione. Non esistono senz’altro facce di grado 1; il solo modo per ottenere una faccia di grado 2 (gli archi doppio sono esclusi) è che il grafo sia composto da un solo lato e soli 2 vertici. ¤ Soluzione dell’esercizio 9.2. Per induzione su ν. L’asserto è banale per ν = 2. Lo si supponga vero per i grafi planari con ν − 1 vertici e sia G planare con ν vertici. Per il Corollario 9.8 esiste un vertice u con grado d(u) ≤ 5. Colorando G − u con 6 colori si può quindi utilizzare per u uno dei 6 colori diverso da quello dei suoi (al massimo 5) vertici adiacenti. ¤ 10. Relazioni di ricorrenza. Ci sono molte relazioni di ricorrenza utili ma non lineari. Ecco un esempio. Si conti per ricorrenza il numero an massimo di confronti che devono essere fatti per trovare il minimo in un insieme S di n interi. Se n è pari, supponiamo di avere trovato il minimo m1 della prima metà di S e il minimo m2 della seconda metà di S (entrambi in an/2 passi). Per trovare il minimo di S confrontiamo m1 con m2 : il numero an di passi usati è quindi pari ad 2an/2 + 1. Abbiamo così ottenuto la relazione di ricorrenza an = 2an/2 +1. Chiaramente, dato che suddividiamo il problema in due parti ad ogni passo si lavora con stringhe che sono lunghe potenze di 2. La risoluzione si fa a mano: a2 = 2a1 + 1, a4 = 2a2 + 1 = 2(2a1 +1)+1 = 22 a1 +(2+1), a23 = 2a4 +1 = 2(22 a1 +(2+1))+1 = 23 a1 +(22 +2+1) k −1 da cui si deduce a2k = 2k a1 + (2k−1 + · · · + 1). Ora 2k−1 + · · · + 1 = 22−1 = 2k − 1 k k k pertanto a2k = 2 a1 + 2 − 1 = (a1 + 1)2 − 1 da cui an = n(a1 + 1) − 1. Dato che a1 = 0 si ottiene an = n − 1. Ritrovare il risultato con altri algoritmi. Esercizio. Provare in modo analogo che la soluzione di an = αan/b +β, per n = bk è data da an = Abk +B per qualche A, B reali. Posto n = bk si ha che k = log n/ log b da cui an = Anr + B con r = log α/ log b. 11. Mancanza di memoria della variabile geometrica. Nota. È utile ricordare la somma della serie geometrica: per ogni p ∈ (−1, 1) vale ∞ X k=0 pk = lim N →∞ N X pk = k=0 10 1 1 − pN +1 = , 1−p 1−p Proposizione. Sia X ∼ G(p). Allora P (X > k) = (1 − p)k ; P (X = k + m|X > k) = P (X = m). Dimostrazione. P (X > k) = ∞ X P (X = i) = i=k+1 ∞ X p(1 − p)i−1 i=k+1 = p(1 − p)k ∞ X (1 − p)i i=0 = p(1 − p)k 1 = (1 − p)k . 1 − (1 − p) Si ha quindi P (X = k + m|X > k) = P (X = k + m) p(1 − p)k+m−1 = P (X > k) (1 − p)k = p(1 − p)m−1 = P (X = m) ¤ Osservazione. La prima relazione motiva la definizione di v.a. geometrica; la seconda esprime il fatto che, in uno schema a prove ripetute indipendenti i risultati delle prime prove non influiscono sulle successive. Cosi’ la probabilità che il 13 esca sulla ruota di Napoli non aumenta se il 13 non è uscito per 100 settimane di seguito. 12. Legge binomiale come somma di leggi di Bernoulli. Si consideri un processo di Bernoulli costituito da n prove di Bernoulli di parametro p. Se X ∼ B(n, p) si ha Ω = {0, 1}n = {ω = (ω1 , . . . , ωn ) : ωi = 0 o 1} X(ω1 , . . . , ωn ) = Numero di ωi uguali a 1; Posto Xi (ω) = ωi si ha che Xi ∼ Be(p) ed è X = X1 + · · · + Xn . 13. Il numero di insuccessi per ottenere n successi in un processo di Bernoulli. Si consideri un processo di Bernoulli infinito e sia X la variabile aleatoria che conta il numero di insuccessi per ottenere n successi. Calcoliamo qui la sua densità discreta pX (k); questo procedimento si applica a qualunque variabile casuale in un processo di Bernoulli. 1) Si determina il tipo di sequenza che realizza l’evento X = k. Posto ω = (ω1 , ω2 , . . . ) con ωi = 0 o 1 si ha che X(ω) = k se e solo se ω = (0, . . . , 0, 1, 0, . . . , 0, 1, . . . . . . , 0, 1, ∗, ∗, ∗, . . . ) | {z } k zeri e (n−1)”1” (dove con ∗ indichiamo un qualunque valore 0 o 1). 2) Si calcola la probabilità di un singolo evento di questo tipo è pn (1 − p)k . 3) Si calcola il numero di sequenze di questo tipo è pari al numero di sottoinsiemi di k elementi tra k + (n − 1) elementi ovvero a C(k + n − 1, k). Di conseguenza P (X = k) = C(k + n − 1, k)pn (1 − p)k . 11 14. Il numero di prove per realizzare n successi in un processo di Bernoulli. Si consideri un processo di Bernoulli infinito e sia X la variabile aleatoria che conta il numero di prove per ottenere n successi. Calcoliamo qui la sua densità discreta pX (k) supponendo di non ricordare il risultato del punto precedente. 1) Il tipo di sequenza che realizza l’evento X = k (k ≥ n). Posto ω = (ω1 , ω2 , . . . ) con ωi = 0 o 1 si ha che X(ω) = k se e solo se ω = (0, . . . , 0, 1, 0, . . . , 0, 1, . . . . . . , 0, 1, ∗, ∗, ∗, . . . ) {z } | k−1 termini con (n−1) ”1” (dove con ∗ indichiamo un qualunque valore 0 o 1). 2) La probabilità di un singolo evento di questo tipo è pn (1 − p)k−n . 3) Il numero di sequenze di questo tipo è pari al numero di sottoinsiemi di n − 1 elementi tra k − 1 elementi ovvero a C(k − 1, n − 1). Di conseguenza P (X = k) = C(k − 1, n − 1)pn (1 − p)k−n . 15. Il numero di prove per n successi come somma di variabili geometriche. Si consideri un processo di Bernoulli con probabilità p. Si consideri la variabile aleatoria X che ad un evento del processo associa il numero di prove per avere 2 successi. Se X1 è la variabile aleatoria che associa il numero di prove per il primo successo e X2 quella che associa il numero di prove per il secondo a partire dal primo si ha X = X1 + X2 . Ora X1 ∼ G(p). Proviamo ora che X2 ∼ G(p). La variabile X2 è così definita: X2 (0, . . . , 0, 1, 0, . . . , 0, 1, . . . ) = m | {z } | {z } k volte m volte e pertanto se ω = (ω1 , ω2 , . . . ) si ha X2 (ω) = m se e solo se ω = (0, . . . , 0, 1, 0, . . . , 0, 1, ∗, ∗, ∗, . . . ) per qualche k | {z } | {z } k volte m volte (dove con ∗ indichiamo un qualunque valore 0 o 1). Pertanto P (X2 = m) = +∞ X p(1 − p)k−1 p(1 − p)m−1 k=1 p 1 p(1 − p)m−1 = p(1 − p)m−1 . 1 − (1 − p) Quindi X è la somma di due variabili geometriche di parametro p. In generale si prova allo stesso modo che la variabile aleatoria che conta il numero di tentativi per avere n successi in un processo di Bernoulli di parametro p è somma di n variabili geometriche di parametro p. Esercizio. Siano X e Y due variabili geometriche indipendenti di parametri p e q. Allora: i) Calcolare P (max(X, Y ) ≤ k); dedurre la densità di max(X, Y ); ii) Calcolare P (min(X, Y ) > k); dedurre la densità di min(X, Y ). Si poteva ricavare il risultato in altro modo? 12 iii) Si lancino due monete distinte non truccate. Qual’è la probabilità che occorrano k lanci affinché in entrambe esca testa almeno una volta? Qual’è la probabilità affinché k lanci siano necessari affinché una almeno delle monete dia testa? ¢¡ ¢ ¡ Risposte. i) P (max(X, Y ) ≤ k) = 1 − (1 − p)k 1 − (1 − q)k ; ii) P (min(X, Y ) > k) = (1 − p)k (1 − q)k da cui min(X, Y ) ∼ Ge(p + q − pq); iii) Sol. della prima: 1 1 − 43 4k−1 . 2k−1 Esercizio. Siano X e Y due v.a. discrete e a, b ∈ R. Provare che E(aX + b) = aE(X) + b e che se X e Y sono indipendenti allora E(XY ) = E(X)E(Y ). Soluzione. Detti Xk i valori assunti da X la v.a. aX + b assume i valori axk + b e si ha P (aX + b = axk + b) = P (X = xk ) pertanto E(aX + b) = X P (aX + b = axk + b)(axk + b) k =a X P (X = xk )(axk + b) = a k X P (X = xk )xk + b X k P (X = xk ) k = aE(X) + b P P dato che k P (X = xk )xk = E(X) e k P (X = xk ) = 1. Per l’altra supponiamo per chiarezza che X e Y assumano valori finiti. Si ha X P (XY = r) = P (X = xm , Y = yn ). m,n:xm yn =r Ora essendo X e Y indipendenti si ha P (X = xm , Y = yn ) = P (X = xm )P (Y = yn ) = pX (xm )pY (yn ) da cui E(XY ) = X r = = X r {m,n:xm yn =r} = xm yn pX (xm )pY (yn ) xm yn pX (xm )pY (yn ) m,n à pX (xm )pY (yn ) {m,n:xm yn =r} X X X rP (XY = r) = X m !à xm pX (xm ) X ! xn pY (yn ) = E(X)E(Y ). ¤ n 16. Varianza. La seguente formula segue immediatamente dal Teorema 49 (disuguaglianza di Cebicev); qui si mette in evidenza il fatto che più la varianza di X è piccola allora meno X si discosta dalla media. 13 Disuguaglianza di Cebicev. Sia X una variabile aleatoria di valore atteso µX 2 e varianza σX finite. Allora, per ogni numero ε > 0, P (|X − µX | ≥ ε) ≤ Dimostrazione. Basta scegliere δ = ε σX 2 σX ε2 nella (7) del Teorema 49: µ P (|X − µX | ≥ ε) =P (|X − µX | ≥ ≤ ε σX ¶ σX ) 2 1 σX = . δ2 ε2 Si osservi che la disuguaglianza di Cebicev è piuttosto rozza. Esempio. Sia X la variabile aleatoria che assume i valori 1 e −1 con probabilità 1/2. Si ha E(X) = 0 e Var(X) = 1. Si ponga ε = 2 nella disuguaglianza di Cebicev precedente: si trova 0 = P (|X − E(X)| ≥ 2) ≤ 1/4; per ε < 1 si ha poi 1/ε2 > 1 mentre P (|X − E(X)| ≥ ε) = 1: in tal caso la disuguaglianza di Cebicev non fornisce nessuna informazione utile. 17. Media campionaria e legge dei grandi numeri. Media campionaria. Sia {Xn } una successione di v.a. discrete indipendenti, aventi tutte la stessa densità. Per ogni numero naturale n ≥ 1 chiamiamo media campionaria di X1 , .., Xn la nuova v.a. Xn = 1 (X1 + ... + Xn ) n . Ovviamente, data una una successione {Xn } di v.a. discrete indipendenti, aventi tutte la stessa densità, ogni elemento della successione ha lo stesso valore atteso e la stessa varianza, posto che questi siano finiti. Denotiamoli con µ e σ 2 , rispettivamente. Notiamo che: Proposizione. i) Anche il valore atteso della media campionaria X n è uguale a µ. 2 ii) Inoltre, la varianza di X n è uguale a σn . Dimostrazione. Vediamo la i): µ E(X n ) = E X1 + ... + Xn n ¶ n = 1X 1 E(Xi ) = nµ = µ n i= n 1 Vediamo ora la ii): à Var(X n ) = Var n 1X Xi n i= 1 14 ! à n ! X 1 = 2 Var Xi = n i= 1 tenendo conto dell’ indipendenza delle Xi n 1 X 1 1 VarXi = 2 nσ 2 = σ 2 n2 i= n n 1 . Osservazione. Si noti che la varianza della media campionaria diventa sempre più piccola —più precisamente, tende a zero— al tendere di n all’ infinito. Intuitivamente ciò significa che quanto più ampio è il campione (cioè quanto più grande è n) tanto più i valori della media campionaria X n sono concentrati intorno al valore atteso (che è µ). Questo fatto è espresso in maniera rigorosa nella cosiddetta legge dei grandi numeri. Per capirne il contenuto intuitivo si pensi al caso in cui le Xi siano delle v.a. bernoulliane indipendenti di parametro p = 0.5, e che dunque la successione {Xi } rappresenti un processo di Bernoulli illimitato. È il caso della moneta non truccata, con Xi (testa) = 1, Xi (croce) = 0. In tal caso, per una sequenza ω di n tiri il valore della la media campionaria X n (ω) è uguale al numero di teste k su n tiri, cioè alla frequenza nk . Ci aspettiamo che al crescere di n la propabilità che tale frequenza sia molto vicina al parametro p(= 0.5) sia molto alta. Infatti: Teorema (Legge dei grandi numeri). Sia {Xn } una successione di v.a. discrete indipendenti, aventi tutte la stessa densità, e siano µ e σ 2 , rispettivamente, il loro comune valore atteso e la loro comune varianza. Allora per ogni ε > 0 si ha che lim P (|X n − µ| > ε) = 0 n→∞ Dimostrazione. Ricordando che E(X n ) = µ Var(X n ) = σ2 n e applicando la disuguaglianza di Cebicev si ha P (|X n − µ| > ε) ≤ σ2 nε2 Poichè l’ ultimo termine, per ε fissato ed n tendente a ∞ converge a zero, si ha la tesi. ¤ Esercizio. Si consideri una moneta truccata e si conti il numero di volte che esce testa; siano Xi le variabili bernoulliane associate al lancio i-esimo (Xi = 1 se esce testa all’i-esimo lancio, 0 altrimenti) con parametro incognito p. Quanti lanci si devono fare affinché, con probabilità ≥ 0, 8, la frequenza di uscita delle teste differisca da p al massimo del 10%? Esercizio. Sia X una v.a. con E(X) = 100 e VarX = 16. i) Trovare a, b tali che P (a < X < b) ≥ 0, 95. ii) Si considerino poi n variabili aleatorie indipendenti X1 . . . , Xn con la legge precedente. Per quali n è P (X n ≥ 0, 97) ≥ 0, 95? 15 18. Covarianza. Proviamo alcune proprietà del valore atteso. Esercizio. i) Sia X v.a. con valore atteso finito. Provare che |E(X)| ≤ E(|X|). ii) Siano X, Y due v.a. con varianza finita. Provare che E 2 (XY ) ≤ E(X 2 )E(Y 2 ) (Sugg.: Per ogni t ∈ R si ha E((tX + Y )2 ) ≥ 0; sviluppando si trova un polinomio in t il cui discriminante ha sicuramente segno . . . ). iii) Dedurre da i) che se X, Y sono due v.a. con varianza finita allora Cov(X, Y ) ≤ σX σY . Risoluzione. Osservazione sul calcolo della legge di un prodotto di v.a.. Per fare un prodotto di v.a. è necessario che queste siano definite sullo stesso spazio campionario. Si consideri l’esempio seguente: si lancino simultaneamente un dado e una moneta e sia X la v.a. uguale al valore della faccia del dado (pX (k) = 1/6 per ogni k = 1, . . . , 6), Y = 1 se la moneta da testa, Y = 0 se la moneta da croce (pY (testa) = 1/2 = pY (croce)). Qual’è la legge di XY ? La domanda non ha senso se si considera come spazio campionario di X l’insieme Ω1 delle facce del dado con probabilità uniforme P1 (P1 (k) = 1/6) e come spazio campionario per Y l’insieme Ω2 = {T, C} (T=testa, C=croce) con probabilità uniforme P2 che vale 1/2 su ogni evento elementare. In realtà si sta considerando l’esito di coppie di eventi (faccia dado, faccia moneta) sul prodotto degli spazi Ω = Ω1 × Ω2 e avremmo fatto bene a considerare le variabili X e Y come definite su Ω munito della probabilità P (k, T ) = P1 (k)P2 (T ); P (k, C) = P1 (k)P2 (C). in altri termini al posto di X avremmo dovuto considerare X̃ definita su Ω da X̃(k, ∗) = X(k) = k e analogamente per Ỹ . Si osservi che le leggi di X̃ (risp. di Ỹ ) sono quelle di X (risp. Y ): è X̃(k, ∗) = m se e solo se X(k) = m e Ỹ (k, ∗) = T se e solo se Y (∗) = T . Nella pratica si identifica X con X̃ e Y con Ỹ . Si osservi che X̃ e Ỹ sono indipendenti: P (X̃ = k, Ỹ = ∗) = P1 (k)P2 (∗) = P (X̃ = k)P (Ỹ = ∗) e pertanto Cov(X̃, Ỹ ) = 0. Esercizio: estrazione senza reimmissione. Un’urna contiene b palline bianche e K rosse. i) Qual’è la probabilità che la prima estratta sia rossa? ii) (non serve per il seguito) Qual’è la probabilità che la seconda estratta sia rossa? Che la k-esima sia rossa ? iii) Si estraggano due palline dall’urna e siano X1 e X2 le v.a. così definite: X1 = 1 se la prima pallina è rossa, 0 altrimenti; X2 = 1 se la seconda pallina è rossa, 0 altrimenti. E’ vero che X1 e X2 sono indipendenti? Il processo X1 , X2 è di Bernoulli? Calcolare il coefficiente di correlazione ρX1 ,X2 di X1 e X2 . Risposte. i) e ii) K/(b + K). iii) No, no, ρX1 ,X2 (X1 , X2 ) = −1/(b + K − 1). 16 Esercizio. Si lancino due dadi, sia X la v.a. uguale al punteggio del primo, Y la v.a. uguale alla somma dei punti delle facce. i) X e Y sono indipendenti? ii) Calcolare VarX eVarY ; iii) Calcolare Cov(X, Y ). 19. Leggi ipergeometrica e di Poisson. Nota. È utile ricordare la somma della serie esponenziale: per ogni λ ∈ R vale ∞ X λk k=0 k! = eλ . Valore atteso della legge ipergeometrica. Sia X ∼ G(N, K, n). Allora E(X) = n(K/N ). Dimostrazione. X rappresenta un processo di estrazione di n oggetti tra K di un tipo (rossi) e N − K di altro tipo (bianchi). Se Xi è la v.a. uguale a 1 se l’iesimo oggetto è rosso, 0 altrimenti si ha che X = X1 + · · · + Xn da cui E(X) = E(X1 ) + · · · + E(Xn ). Ora ogni Xi è una v.a. di Bernoulli di parametro p = K/N (si veda l’esercizio sulla estrazione senza reimmissione della sezione precedente) ed è quindi E(Xi ) = p; la conclusione è ora immediata. ¤ Valore atteso della v.a. di Poisson. Sia X ∼ P0 (λ). Allora E(X) = λ. Dimostrazione. Si ha ∞ X λk E(X) = k e−λ . k! k=0 Si ha: ∞ ∞ ∞ X X X λk λm λk−1 k =λ =λ = λeλ k! (k − 1)! m! m=0 k=0 e pertanto E(X) = e −λ k=1 λ λe = λ. ¤ Esercizio. Provare che se X ∼ P0 (λ) allora VarX = λ. Proposizione/Esercizio. Siano X1 ∼ P0 (λ1 ) e X2 ∼ P0 (λ2 ) indipendenti. Allora X1 + X2 ∼ P0 (λ1 + λ2 ). Dimostrazione. Si ha P (X1 + X2 = k) = k X P (X1 + X2 = k|X1 = i) i=0 ed è P (X1 + X2 = k|X1 = i) = P (X1 = i, X2 = k − i). Ora X1 e X2 sono indipendenti quindi P (X1 = i, X2 = k − i) = P (X1 = i)P (X2 = k − i) λi1 λk−i 2 e−λ1 −λ2 i! (k − i)! 17 = da cui, usando la formula del binomio di Newton: n µ ¶ X k i k−i k (a + b) = ab i i=0 si ottiene k X P (X1 + X2 = k|X1 = i) = k X λi i=0 λk−i 2 e−(λ1 +λ2 ) i! (k − i)! 1 i=0 k X 1 k! −(λ1 +λ2 ) λi1 λk−i 2 e k! i!(k − i)! i=0 k µ ¶ 1 X k i k−i −(λ1 +λ2 ) = λ λ e k! i=0 i 1 2 = (λ1 + λ2 )k −(λ1 +λ2 ) e . ¤ k! Proposizione (la dim. è riservata agli studenti più appassionati). Siano X ∼ G(N, K, n) e Y ∼ B(n, p), p = K/N . Allora lim P (X = k) = P (Y = k). N →∞ Dimostrazione. Si ha P (X = k) = ¡K ¢¡N −K ¢ k ¡Nn−k ¢ n µ ¶ n [K(K − 1) · · · (K − k+ 1)][(N − K)(N − K − 1) · · · (N − K −n +k + 1)] = k N (N − 1) · · · (N − n + 1) Ora, posto K = N p si ha K(K − 1) · · · (K − k + 1) = pN (pN − 1) · · · (pN − k + 1) ∼ (pN )k {z } | per N → ∞ k (N − K) · · · (N − K −n +k + 1) = (N − pN ) · · · (N − pN − n+ k+ 1) | {z } n−k n−k ∼ (1 − p) N n−k per N → ∞ n N (N − 1) · · · (N − n + 1) ∼ N per N → ∞ | {z } n e pertanto µ ¶ n (pN )k (1 − p)n−k N n−k lim P (X = k) = lim N →∞ k N →∞ Nn µ ¶ n k = p (1 − p)n−k = P (Y = k). ¤ k 18 20. Leggi congiunte. Definizione. Una v.a. 2-dimensionale discreta (oppure un vettore aleatorio discreto) è una funzione (X, Y ) : Ω → R2 tale che le componenti X, Y siano delle v.a. reali discrete. Una v.a. bidimensionale è, ad esempio, la coppia (X, Y ), con X e Y il risultato del lancio di due dadi. Se (xk , yj ) ∈ R2 sono i valori che la v.a. 2-dimensionale (X, Y ) può assumere (k ∈ N), la densità discreta di (X, Y ) è la funzione definita da p(X,Y ) (xk , yj ) = P ((X, Y ) = (xk , yj )). 2 Se (X, P Y ) è una v.a. 2-dimensionale, allora è chiaro che P ((X, Y ) ∈ R ) = 1, per cui k p(X,Y ) (xk , yj ) = 1. Indichiamo con pX , pY le densità discrete di X, Y . Si ha evidentemente p(X,Y ) (xk , yj ) = P (X = xk , Y = yj ) e quindi se le v.a. X, Y sono indipendenti si ha p(X,Y ) (xk , yj ) = pX (xk )pY (yj ). In generale l’uguaglianza precedente è ovviamente falsa. Le densità discrete pX , pY delle componenti X, Y di (X, Y ) si chiamano le densità marginali di (X, Y ), mentre la densità p(X,Y ) del vettore aleatorio (X, Y ) si chiama anche la densità congiunta delle v.a. X, Y . Se p(X,Y ) è nota, le marginali di (X, Y ) si possono calcolare nel seguente modo. Fissiamo uno del valori che X può assumere e chiamiamolo xk : allora (p = p(X,Y ) ) [ pX (xk ) = P (X = xk ) =P (X = xk , Y ∈ R) = P (X = xk , Y = yj ) (*) = X j P (X = xk , Y = yj ) = j X p(xk , yj ). j Allo stesso modo si ricava pY (yj ) = X p(xk , yj ). k Mostriamo ora un esempio dal quale si capisce che la conoscenza della legge congiunta di due v.a. è un’informazione più ricca della conoscenza delle due marginali: infatti densità congiunte diverse possono avere densità marginali uguali. Esempio 1. Consideriamo un’urna con sei palline numerate da 1 a 6; ne estraiamo due con rimpiazzo e indichiamo con X1 , X2 i risultati dell’estrazione. Evidentemente il procedimento è analogo al lancio di due dadi, per cui X1 e X2 sono indipendenti. La coppia X = (X1 , X2 ) assume i valori (i, j), con i, j = 1, . . . , 6, 1 , prodotto delle in modo equiprobabile e la densità congiunta è p(i, j) = 16 16 = 36 1 densità marginali p1 (i) = p2 (i) = 6 . Estraiamo ora due palline senza rimpiazzo e indichiamo con Y = (Y1 , Y2 ) il risultato dell’estrazione. Ora Y può assumere tutti i valori (i, j) con i, j = 1, . . . , 6, 19 purché i 6= j. Si tratta di 30 valori equiprobabili, cioè ciascuno con probabilità 1 30 . D’altra parte le densità discrete di Y1 e Y2 sono ancora la densità uniforme su {1, . . . , 6} (cioè i sei valori sono equiprobabili). Infatti, ricordando la (*), si ha, per i fissato, X 5 1 p1 (i) = p(i, j) = = . 30 6 j=1,... ,6, j6=i Si osservi che Y1 e Y2 non sono indipendenti. Esercizio 1. Un dado e una moneta vengono lanciati insieme ripetutamente. Qual’è la probabilità che la moneta dia testa prima che il dado dia 6? Suggerimento: Fare l’esercizio in due modi diversi: dette D e M le v.a. geometriche associate ai due processi di Bernoulli con parametri 1/6 (dado) e 1/2 (moneta) si cerca di calcolare P (M < D): farlo scrivendo X P (M < D) = P (M = k, D > k) k oppure calcolare la densità della v.a. congiunta (M, D) e scrivere che X P (M < D) = P ((M, D) ∈ A) = p(x, y) (x,y)∈A 2 dove A = {(x, y) ∈ R : x < y}. (Risposta: 5/7) La definizione di valore atteso di una v.a. bidimensionale è del tutto analoga a quella data per le v.a. Definizione. Sia X una v.a. discreta che prenda i valori x1 , x2 , · · · ∈ R2 e indichiamo con p la sua densità. Diciamo che X ha valore atteso finito se X |xi |p(xi ) < +∞ i 2 dove |.| è il modulo in R . In tal caso si chiama valore atteso di X la quantità X E(X) = xi p(xi ). i Abbiamo visto che se due v.a. X e Y sono indipendenti allora Cov(X, Y ) = 0; il viceversa come vedremo ora non è vero. Esercizio 2. (Due v.a. non correlate e non indipendenti). Sia (X, Y ) la variabile aleatoria bidimensionale con densità p uniforme p(xi ) = 1/5 dove i punti xi del piano sono i 5 punti: •(0,1) •(−1,0) •(0,0) •(0,−1) 20 •(1,0) i) Determinare le densità marginali di (X, Y ) ovvero pX e pY . ii) X e Y sono indipendenti? iii) Calcolare E(X, Y ), Cov(X, Y ). Esercizio 3. Da un’urna contenente 6 palline numerate da 1 a 6 se ne estraggono 2 senza rimpiazzo. Qual’è la probabilità che i numeri estratti differiscano al più di 2? (Sugg.: Si cerca di calcolare P (Y ∈ A) dove Y è una opportuna v.a. e A una regione del piano, fare un disegno . . . , R: 18/30) Esercizio 4. Sia X la v.a. che assume i valori −2, −1, 1, 2 con densità pX (−2) = 1/4, pX (−1) = 1/4, pX (1) = 1/4, pX (2) = 1/4 e sia Y = X 2 . Si determini i) la densità di Y ; ii) la densità di (X, Y ); iii) Cov(X, Y ) e ρX,Y . Esercizio 5. Una moneta viene lanciata tre volte. Supponiamo che X assuma il valore 0 o 1 a seconda che si presenti testa o croce al primo lancio e supponiamo che Y designi il numero di volte che si presenta testa. Si determinino: i) le densità di X e Y ; ii) la densità congiunta di X, Y ; iii) Cov(X, Y ). Esercizio 6. Data la coppia di v.a. X = (X1 , X2 ) con densità congiunta ( p(h, k) = p2 (1 − p)k−2 per h, k ∈ N, 0 < h < k 0 altrimenti, dove 0 < p < 1, calcolare le marginali p1 e p2 ; X1 e X2 sono indipendenti? Esercizio 7. I gestori di una località sciistica vogliono studiare le percentuali di guasto di due impianti di risalita (che indicheremo p1 e p2 ) durante una giornata. L’addetto prende nota dei numeri X e Y di risalite che avvengono prima del primo guasto nei due impianti, rispettivamente. Supponendo che i guasti avvengano in modo indipendente l’uno dall’altro, si chiede di: a. determinare la legge congiunta di (X, Y ); b. calcolare la probabilità dell’evento (X = Y ); c. verificare che la v.a. Z := min{X, Y } ha legge geometrica e identificarne il parametro p (sugg.: considerare la funzione di ripartizione di Z, cioè la funzione FZ (k) = P (Z ≤ k)). S∞ P∞ Svolgimento. P (X = Y ) = P ( k=1 (X = Y, Y = k)) = k=1 p1 p2 (1 − p1 )k−1 (1 − p p 2 . Per svolgere c, osserviamo che P (Z ≤ k) = 1−P (X > k, Y > p2 )k−1 = p1 +p21 −p 1 p2 k) = 1 − P (X > k)P (Y > k) = 1 − (1 − p1 )k (1 − p2 )k ; perciò Z ha legge geometrica di parametro p = p1 + p2 − p1 p2 . ¤ 21 Esercizio 8. Sia (X, Y ) un vettore aleatorio con densità congiunta della forma: p(0, 0) = a, p(1, 0) = 0, p(0, 1) = 0, p(1, 1) = b, p(0, 2) = c, p(1, 2) = 0, con a, b, c > 0. Si chiede: a. quale ulteriore condizione a, b, c devono soddisfare perché p sia effettivamente una densità congiunta? In tal caso calcolare le densità marginali; b. mostrare che X e Y non sono indipendenti e dire quale condizione a, b, c devono soddisfare perché X e Y siano non correlate. Una nota sul calcolo di E(XY ). Il calcolo del valore atteso di un prodotto di v.a. può essere complicato. Per definizione se xk e yj sono i valori assunti dalle v.a. X e Y il prodotto assume i valori xk yj ; può accadere che xk yj = xk0 yj 0 per qualche (k, j) 6= (k 0 , j 0 ) quindi in generale P (XY = xk yj) 6= P (X = x − k, Y = yj ). Si può dimostrare che se E(|X|) e E(|Y |) sono finite allora X E(XY ) = xk yj p(xk , yj ). 21. Densità condizionata. (Dalle note del Prof. G. Colombo, con qualche aggiunta) Sia X una v.a. che assume i valori x1 , x2 , . . . e sia A un evento, P (A) 6= 0. Possiamo considerare la probabilità condizionata P (X = xk , A) . P (A) P La successione pk = P (X = xk |A) è tale che k pk = 1: si tratta quindi della densità di una variabile aleatoria; la chiameremo densità condizionata di X dato l’evento A. Il significato è ovvio , tenendo conto del concetto di condizionamento: la v.a. X ha una densità pX (xk ), k = 1, 2 . . . ; se però sappiamo che l’evento A si è verificato, questa informazione fa cambiare la valutazione delle probabilità relative alla v.a. X portando dalla densità ’assoluta’ a quella condizionata. Più in generale possiamo al posto di un evento A considerare gli eventi {Y = yj } associati ad un’altra v.a. Y . Siano X, Y due v.a. con densità discrete pX , pY rispettivamente e densità congiunta p. P (X = xk |A) = Definizione. Si chiama densità condizionata di X dato Y = yj la quantità pX|Y (xk |yj ) = P (X = xk |Y = yj ) = p(xk , yj ) pY (yj ) se pY (yj ) > 0, e pX|Y (xk |yj ) = 0 altrimenti. La densità condizionata di Y dato X = xk si definisce simmetricamente: pY |X (yj |xk ) = p(xk , yj ) pX (xk ) se pX (xk ) > 0, pY |X (yj |xk ) = 0 altrimenti. Osserviamo che la densità condizionata, come funzione della variabile xk , è essa stessa una densità discreta, che ha il significato intuitivo di densità di X sapendo 22 che Y ha assunto il valore yj : infatti, ricordando la (∗) nella sezione precedente, si ha X X p(xk , yj ) pY (yj ) pX|Y (xk |yj ) = = = 1. pY (yj ) pY (yj ) k k È chiaro dalla definizione che se X e Y sono indipendenti si ha pX|Y (xk |yj ) = pX (xk ), pY |X (yj |xk ) = pY (yj ). Osservazione. Nel caso in cui Y = 1A è la funzione indicatrice di un insieme (ricordiamo che se A è un insieme si pone 1A (x) = 1 se x ∈ A e 1A (x) = 0 se x 6∈ A) la densità congiunta p di X e Y è p(xk , 1) = P (X = xk , A), p(xk , 0) = P (X = xk , A), mentre la densità condizionata pX|Y dato Y = 1 si scrive pX|A (xk ) ed è data da pX|A (xk ) = P ({X = xk } ∩ A) = P (X = xk |A); P (A) si ritrova la nozione di probabilità condizionata rispetto ad un evento esposta all’inizio della sezione. Analogamente, se X = 1A si ha pX|Y (1, yj ) = P (A|{Y = yj }. Esempio 1bis. Con riferimento alla seconda parte dell’Esempio 1 della sezione precedente, quella sulla estrazione senza rimpiazzo, calcoliamo la densità condizionata pX|Y (i|j). Si ha: pX|Y (i|j) = 0 se i = j p(i, j) = 1/30 1 p2 (j) = se i 6= j 1/6 5 ¤ Esercizio 1. Si lancino due dadi e si indichino con X1 e X2 i risultati dei lanci; si ponga M = max{X1 , X2 }. a. Si descrivano i valori che M assume e si calcoli la densità condizionata pM |X1 (i|j) (sugg.: distinguere i casi i = j e i 6= j); b. si calcoli la densità discreta di M . Svolgimento. M assume i valori 1, . . . , 6; la probabilità condizionata P (M = i | X1 = j) è nulla se i < j; se i = j, P (M = i | X1 = i) = P (X2 ≤ i | X1 = i) = P (X2 ≤ i) = i/6. Se i > j, P (M = i | X1 = j) = P (X2 = i | X1 = j) = P (X2 = i) = 1/6. Per il teorema della probabilità totale ed ¡ il calcolo precedente ¢ 2i−1 risulta P (M = i) = P6 i 1 1 (i − 1) + P (M = i | X = j)P (X = j) = 1 1 j=1 6 6 6 = 36 . Esercizio 2. Sia X una v.a. tale che X ∼ P0 (λ). Sia Y un’altra v.a. tale che la densità di Y condizionata a (X = k) sia la legge uniforme su {1, . . . , k + 1}, cioè pY |X (j|k) = 1 k+1 (1 ≤ j ≤ k + 1). 23 −λ a. Calcolare P (Y = 1) e P (Y = 2) (risultato: 1−eλ b. calcolare pX|Y (k|2). , 1−e−λ −λe−λ ); λ Svolgimento. Per il teorema della probabilità totale, P (Y = 1) = ∞ X P (Y = 1 | X = k)P (X = k) = = P (Y = 2) = e e−λ k=0 k=0 ∞ −λ X ∞ X λk (k + 1)! ¢ 1 − e−λ λ e ¡ λ = e −1 = λ n=1 n! λ λ ∞ X n −λ P (Y = 2 | X = k)P (X = k) = k=0 ∞ X k=1 e−λ λk (k + 1)! ∞ ¢ 1 − e−λ − λe−λ e−λ X λn e−λ ¡ λ = e −1−λ = . = λ n=2 n! λ λ Le probabilità pX|Y (k|2) si calcolano immediatamente con la formula di Bayes; 1 1 viene pX|Y (k|2) = k+1 . 1−e−λ −λe−λ Esercizio 3. Si considerino due v.a. X e Y indipendenti con la stessa legge G(p). Si chiede di: a. calcolare la probabilità condizionata P (X = Y | X = k) e la probabilità P (X = p Y ) (risultato: P (X = Y ) = 2−p ); b. calcolare le probabilità P (X > Y ) e P (X < Y ) (sugg.: usare il risultato precedente e il fatto che, per simmetria, le due probabilità sono uguali; è comunque utile impostare il calcolo direttamente studiando l’evento (X > Y ); risultato: (1 − p)/(2 − p)). Esercizio 4. Sia X ∼ P0 (λ) e sia Y una v.a. tale che, per k = 0, 1, 2, . . . la sua legge condizionata a (X = k) sia B(k, p) (con 0 < p < 1), mentre P (Y = 0 | X = 0) = 1. Si calcolino la densità discreta di Y e la densità condizionata pX|Y (j|k). (Non si richiedono calcoli espliciti.) Esercizio 5. Si lancino due monete e sia Xi la v.a. che conta il numero di tentativi che occorrono perché per la moneta i-esima venga testa (i = 1, 2). Si chiede di calcolare: a. P (X1 ≤ X2 | X1 = k), per k = 1, 2, . . . ; b. P (X1 ≤ X2 ) e P (X1 ≥ X2 ); c. P (X1 = X2 ). Svolgimento. X1 e X2 hanno entrambe legge G(1/2) e sono indipendenti. Si ha perciò P (X1 ≤ X2 | X1 = k) = P (X1 = k, X2 ≥ k)/P (X1 = k) = P (X2 ≥ k) = 1 − P (X2 < k) eccetera... Definizione. Si chiama valore atteso condizionato (o speranza condizionata, o media condizionata) di X dato Y = yj la quantità E(X | Y = yj ) = X k 24 xk pX|Y (xk |yj ), purché essa sia finita. Osservazione. 1) La notazione precedente è abusiva in quanto non abbiamo definito X|Y = yj come una v.a. 2) Nel caso in cui Y = 1A è la funzione caratteristica di un insieme A il valore atteso condizionato di X dato A è X X E(X|1A = 1) = xk pX|A (xk ) = xk P (X = xk |A). k k Esercizio 6. Siano X1 e X2 v.a. indipendenti con legge B(p). Calcolare la densità discreta di S = X1 + X2 . Sia r = 0, 1 o 2. Calcolare la densità ed il valore atteso di X1 condizionati all’evento (S = r). Svolgimento. La v.a. S assume valori 0, 1, 2. Si ha che S ∼ B(2, p): pS (0) = (1 − p)2 ; pS (1) = 2p(1 − p), pS (2) = p2 . Inoltre pX1 |S (0, 0) = 1, pX1 |S (1, 0) = 0, pX1 |S (0, 1) = pX1 |S (1, 1) = 1/2, pX1 |S (0, 2) = 0, pX1 |S (1, 2) = 1, pX1 |S (2, 2) = 0. infine E(X1 |S = r) = 0 se r = 0, 1/2 se r = 1, 1 se r = 2. ¤ Teorema. Siano X e Y due v.a. Si supponga che E(|X|) e E(|X||Y = yj ) siano finiti per ogni valore yj assunto da Y . Allora E(X) = X E(X | Y = yj )pY (yj ). j Dimostrazione. Si ha E(X) = X xk pX (xk ). k Applicando la formula delle probabilità totali (Teorema 47) con A = {X = xk } e Bj = {Y = yj } si ha: pX (xk ) = P (X = xk ) = X P (X = xk |Y = yj )P (Y = yj ) j = X pX|Y (xk |yj )p(yj ) j da cui E(X) = X xk k X j pX|Y (xk |yj )pY (yj ) . L’ipotesi sulla finitezza delle medie garantisce che la somma della serie precedente non cambia se si scambia l’ordine delle somme; si ha così ( ) X X E(X) = xk pX|Y (xk |yj ) pY (yj ) j = X k E(X | Y = yj )pY (yj ). j 25 ¤ Osservazione. Lo scambio dell’ordine nelle sommatorie è possibile perché le serie sono assolutamente convergenti: non lo dimostriamo (naturalmente se X e Y assumono un numero finito di valori non c’è bisogno di dimostrazione). Il vantaggio della formula precedente consiste nel fatto che, dovendo calcolare P E(X) = k xk pX (xk ) non disponendo di pX (xk ) si può, introducendo una v.a. la cui densità sia nota e tale che il calcolo delle densità condizionate pX|Y (xk |yj ) di X P dato Y = yj siano facilmente ottenibili, calcolare innanzitutto E(X|Y = yj ) = k xk pX|Y (xk |yj ) e poi ottenere E(X) attraverso la formula dimostrata sopra. Il valore atteso condizionato E(X|Y = yj ) può essere esso stesso visto come una variabile aleatoria. Definizione. Il valor medio condizionato di X rispetto a Y è la variabile aleatoria che indichiamo con E(X|Y ) definita da E(X|Y ) : Ω −→ R ω 7−→ E(X|Y )(ω) = E(X|Y = Y (ω)) Si osservi che, posto f (y) = E(X|Y = y) si ha E(X|Y )(ω) = f (Y (ω)) e cioè E(X|Y ) = f (Y ) è una v.a. della variabile Y . Applicando la formula presentata nel teorema 35 il valore atteso di questa nuova VARIABILE ALEATORIA E(X|Y ) è dato da X X E[E(X|Y )] = f (yj )pY (yj ) = E(X|Y = yj )pY (yj ). j j Con questa nozione possiamo parafrasare il Teorema precedente come segue. Teorema. Siano X e Y due v.a. Si supponga che E(|X|) e E(|X||Y = yj ) siano finiti per ogni valore yj assunto da Y . Allora E(X) = E[E(X|Y )]. In altri termini per calcolare un valore atteso talvolta è più facile calcolare prima il valore atteso condizionato e poi calcolarne ancora il valore atteso. L’utilità del teorema è analoga a quella del teorema della probabilità totale che essa generalizza come si vede nel prossimo esercizio. Esercizio 7. Siano A ⊂ Ω, Bk ⊂ Ω due a due disgiunti (k = 1, 2, . . . ) e Y la v.a. che vale k su Bk . i) Calcolare E(1A |Y = j); ii) Calcolare E[E(1A |Y )]; iii) Dedurre dal teorema precedente il teorema delle probabilità totali. Esempio 2. Prendiamo due urne, la prima con 5 palline bianche e 4 rosse, la seconda con 2 palline bianche e 6 rosse. Lanciamo una moneta: se esce testa scegliamo la prima urna, se esce croce la seconda. Dall’urna scelta estraiamo tre palline senza rimpiazzo. Calcoliamo il numero atteso di palline bianche estratte. Svolgimento. Sia T l’evento “esce testa” e sia X la v.a. che conta il numero di palline bianche estratte; evidentemente X può assumere i valori 0, 1, 2, 3. Dobbiamo calcolare EX. A questo scopo calcoliamo prima ¡ ¢ la densità ¡ ¢ di X condizionata all’evento T e poi all’evento T : (ricordiamo che 93 = 84 e 83 = 56) ¡5¢ ¡5¢ ¡ ¢ 5 42 5 10 5 2 4 = , pX|T (2) = = , pX|T (3) = 3 = , pX|T (1) = 84 14 84 21 84 42 26 pX|T (1) = ¡6¢ 2 2 = 56 15 6 3 , p (2) = = , p (3) = 0. 56 X|T 56 28 X|T Perciò EX = E[E(X | 1T )] = 1 2 µ 5 10 5 15 3 +2 +3 + +2 14 21 42 56 28 ¶ ' 1.07. ¤ Esempio 3 (La rovina del giocatore). Si consideri il gioco di Testa o Croce con una moneta non truccata, dove chi vince prende 1 euro all’avversario. Il giocatore abbia a disposizione inizialmente un capitale di m (intero) euro e giochi contro un avversario che ha un capitale di n − m euro. Sia Tm la v.a. (dipendente da m) uguale al numero di partite per terminare il gioco. Calcoliamo il valore atteso di Tm . Volendo calcolarlo direttamente si dovrebbe scrivere E(Tm ) = X kP (Tm = k) k e il calcolo è arduo. Introduciamo invece la v.a. X = 1 se il giocatore considerato fa testa alla prima partita, 0 altrimenti. Si ha E[E(Tm |X)] = E(Tm |X = 0)P (X = 0) + E(Tm |X = 1)P (X = 1) 1 1 = E(Tm |X = 0)P (X = 0) + E(Tm |X = 1)P (X = 1). 2 2 Ora P (Tm = k|X = 0) = P (Tm−1 = k − 1) da cui E(Tm |X = 0 = X k = X P (Tm−1 = k − 1)k = X P (Tm−1 = k)(k + 1) k kP (Tm−1 = k) + 1 = E(Tm−1 ) + 1 k ed analogamente si trova E(Tm |X = 1) = 1 + E(Tm+1 ) da cui 1 1 E(Tm ) = 1 + E(Tm−1 ) + E(Tm+1 ) 2 2 valide per m = 1, . . . , n − 1. Si tratta di una relazione di ricorrenza. Risolverla osservando che c’è una soluzione del tipo αm2 per qualche α ∈ R. Tenendo conto che E(T0 ) = E(Tn ) = 0 si deduce facilmente che E(Tm ) = m(n − m). E’ curioso osservare che ad esempio se m = 1 (capitale del giocatore) e n = 1001 (da cui n − m = 1000 euro) ci vogliono mediamente 1000 scommesse per terminare il gioco, malgrado la vicinanza alla rovina del giocatore. ¤ La seguente proposizione, che non dimostriamo, è talvolta utile nel calcolo di valori attesi condizionati (v. es. 8). 27 Proposizione. Siano X, Y e Z v.a. discrete, sia f una funzione e siano a, b ∈ R. Allora E(aY + bZ | X = xk ) = aE(Y | X = xk ) + bE(Z | X = xk ), E(f (X)Y | X = xk ) = f (xk )E(Y | X = xk ). Esercizio 8. Si considerino due v.a. X e Y a valori interi con densità discreta congiunta jk p(j, k) = e−(j+1) , j, k = 0, 1, . . . j! k! Si a. b. c. d. e. calcolino: la densità discreta, il valore atteso e la varianza di X; la densità condizionata di Y dato (X = j); i valori attesi condizionati E(Y | X = j) e E(XY | X = j); determinare E(Y |X) e E(XY |X); il valore atteso E(XY ) e la covarianza Cov(X, Y ). −(j+1) P∞ jk e−1 Svolgimento. a) P (X = j) = e j! k=0 k! = j! , dunque X ∼ P0 (1) e pertanto k E(X) = VarX = 1. b) Per j ≥ 0, P (Y = k | X = j) = e−j jk! , cioè la legge di Y condizionata a X = j è P0 (j).c) La media e la varianza di Y dato X = j sono note dalla teoria: coincidono entrambe con l’intensità del processo, cioè con j; si ha dal teorema precedente E(XY |X = j) = jE(Y |X = j) = j 2 . d) dato che E(Y |X = j) = j = X si ha che LA VARIABILE ALEATORIA E(Y |X) = X; analogamente si ha E(XY |X) = X 2 . e) Cov(X, Y ) = E(XY ) − (EX)(EY ) = E[E(XY | X)] − E(X)E[E(Y | X)] = E(X 2 ) − (EX)2 = VarX = 1. ¤ Bibliografia [1] P. Baldi, Calcolo delle Probabilità e Statistica, ed. McGraw-Hill, Milano 1998. [2] M. Bramanti, Calcolo delle Probabilità e Statistica, ed. Progetto Leonardo, Bologna 1997. [3] C.M. Monti, G. Pierobon, Teoria della Probabilità, ed. Decibel-Zanichelli, Padova 2000. 28