esercizi Bayes solo per un flash sulla problematica esercizi
Transcript
esercizi Bayes solo per un flash sulla problematica esercizi
esercizi Bayes solo per un flash sulla problematica esercizi Bernoulli esercizio 8,9: in realta’ e’ un pezzo degli appunti esercizio 10,11 : hanno come premessa l’esercizio 8 esercizi su RV esercizio 1, 2,: indispensabili (Uso notazioni pesanti nel primo esercizio per enfatizzare le varie grandezze in gioco. Poi taglio corto) esercizio 3 tecnicherie, ma questo e’ il mestiere esercizio 4,5,6 : piu’ raffinati esercizio 7: “di routine”, ma utile esercizi su gaussiane (→ MS) ================================ l’altro insieme di esercizi riguarda: Meccanica statistica 1-Esercizi preliminari: reticoli di pochissimi siti e spin discreti -esercizi intermedi 2a: reticoli monodimensionali e spin discreti ( (N → ∞) e matrice di trasferimento) 2b: reticoli e oscillatori classici -esercizi 3- campo medio 1 (Bayes) esercizio 1 Si consideri una popolazione Ω Sia A il sottoinsieme di Ω degli individui affetti dalla patologia a p(A) e’ l’incidenza della patologia, frequenza |A| , la probabilita’ che un indi|Ω| viduo scelto a caso sia affetto dalla patologia a Sia B l’insieme degli individui che risultano positivi ad un test di ricerca per a Abbiamo visto che le tre probabilita’ p(A), p(B), p(A, B) descrivono completamente il sistema. Tuttavia in questo caso e’ piu’ significativo considerare le tre probabilita’ p(A), p(B|A), p(B c , Ac ). • p(B|A) e’ la probabilita’ di B condizionata ad A: la probabilita’ che un malato dia risposta positiva al test.(sensibilita’ del test) • p(B c , Ac ) e’ la probabilita’ di B c condizionata ad Ac (specificita’ del test) e’ la probabilita’ che non affetto da a dia una risposta negativa al test. queste probabilita’ posso essere empiricamente trovate su campioni Problema : qual’e’ la probabilita’ che se il test risulta positivo il soggetto sia affetto dall patologia A ? Si tratta di calcolare p(A|B) probabilita’ condizionata. Ricordo che p(B c |Ac ) + p(B|Ac ) = 1 (dalla definizione) p(B|A)p(A) + p(B|Ac )p(Ac ) = p(B) (formula di Bayes) etc per Bayes : p(A|B) = quindi p(A,B) p(B) = p(A|B) = p(B|A) p(A) p(B|A)p(A)+p(B|Ac )p(Ac ) 1 1+ p(B|Ac ) p(B|A) · 1−p(A) p(A) Tipicamente p(A) = 10−2 → 10−4 per un test con sensibilita’ del 95% e specificita’ del 99% c) (p(B|A) = 0.95 , p(B|Ac ) = 0.01, p(B|A = 1.05310−2) p(B|A) si ha : 2 1 f(x,0.95,0.01) f(x,0.99,0.001) 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0 0.002 0.004 0.006 0.008 0.01 Figura 1: p(A|B) contro p(A) con p(B|A) = 0.95, p(B|A) = 0.99, p(B|Ac ) = 0.001 p(B|Ac ) = 0.01 e p(A) = 0.01 → p(A|B) = 0.490 p(A) = 0.001 → p(A|B) = 0.087 commento ........... ........... esercizio 2 Una compagnia che produce chips usa due fabbriche. A produce il 60% dei cips. Questi chips hanno una probabilita’ 0.035 di essere difettosi mentre quelli provenienti da B hanno una corrispondente probabilita’ eguale a 0.025. Qual’e’ la probabilita’ che dato un cips difettoso provenga da A? ——————p(A) p(A) p(A|d) = p(d|A) = p(d|A) p(d|A) p(d) p(A)+p(d|B) p(B) quindi: p(A|d) = 0.68 —————— esercizio 3 sia p(x, y) la densita’ di probabilita’ congiunta di due variabili X, Y (p(x, y) = p(X = x, Y = y)) allora la densita’ della probabilita’ condizionata p(X = x|Y = y) = p(x|y) e’ data da p(x|y) = p(x,y) p(y) 3 dove p(y) = R p(x, y)dx marginale di Y - dimostare R - verificare che X p(x|y)dx = 1 1 2 + - sia p(x, y) = (2π)−1 e− 2 x +2y 2xy : calcolare p(x|y) 4 esercizio 4 grafo bayesiano direzionato e causalita’ Ogni nodo rappresenta una variabile aleatoria che puo’ assumere un certo insieme di valori discreti Ogni freccia rappresenta una dipendenza qualitativa della variabile “in”(in cui la freccia entra) dalla variabile “out” (da cui la freccia esce): quantitativamente la dipendenza e’ espressa attraverso le probabilita’ condizionate. La probabilita’ che un nodo sia in uno stato fra i possibili dipende direttamente solo dagli stati dei nodi direttamente connessi. Se il grafo non ha loops e’ possibile determinare la probabilita’ congiunta del sistema (e quindi tutte le marginali) per semplici prodotti. a & e ↓ g . b & . & h ↓ . l f ↓ i . c . l e’ condizionato da g, h, i p(l) = p(l|g, h, i) · p(g) · p(h) · p(i) g e’ condizionato da e p(g) = p(g|e) · p(e) h, i sono condizionati da f p(h) = p(h|f ·)p(f ) e ed f sono condizionati da a, b e da b, c p(i) = p(i|f ) · p(f ) p(e) = p(e|a, b) · p(a) · p(b) p(f ) = p(f |b, c) · p(b) · p(c) adesso ho che p(e, a|b) e p(f, c|b) descrivono RV indipendenti ovvero p(e, a, f, c|b) = p(e, a|b) · p(f, c|b) perche’ .......... allora si ha che : p(a, b, c, e, f ) = p(e|a, b) · p(f |b, c) · p(a) · p(b) · p(c) la distribuzione congiunta e’: p(a, b, c, e, f, g, h, i, l) = p(l|g, h, i·) · p(g|e) · p(h|f ) · p(i|f ) · p(e|a, b) · p(f |b, c) · p(a) · p(b) · p(c) 5 La distibuzione marginale per l e’: X p(l) = p(a, b, c, e, f, g, h, i, l) = a,b,c,e,f,g,h,i X a p(a)· X b p(b)· X c p(c)· nX p(e|a, b)· e X f p(f |b, c) hX i p(i|f ) ih X h p(h|f ) ih X Le rete bayesiane sono usate nei sistemi esperti che riguardano diagnostica medica, comprensione di linguaggi, ricerca euristica, ect. Una rapida introduzione (e non solo): “Understanding Belief propagation and its generalizations” J.S. Yedidia- W.T.Freeman-Y-Weiss http://www.merl.com 6 g p(g|e) io (Bernoulli) Esercizio 7 Una soluzione omogenea e’ costituita da 70% di A e 30% di B. Si isola un campione di 10 molecole. a- Che probabilita’ di avere 5 A e 5 B ? b- Che probabilita’ di avere 7 A e 3 B ? c- Che probabilita’ di avere almeno 7 A ? Si isola un campione di 100 molecole. d- Che probabilita’ di avere 50 A e 50 B ? e- Che probabilita’ di avere 70 A e 30 B ? f- Che probabilita’ di avere non piu’ di 70 A ? ————– Bernoulli pA = 0.7 pB = 1 − pA = 0.3 A evento favorevole .... 10 molecole. p(a) = 5!10!5! (0.7)5 (0.3)5 = 1.029 10−1 p(b) = 10! (0.7)7 (0.3)3 7! 3! = 120 · 0.082 · 0.027 = 0.27 p(c) = p(A = 7) + p(A = 8) + p(A = 9) + p(A = 10) = 7 3 (0.7) (0.3) h 10! 7! 3! 10! 0.7 8! 2! 0.3 10! 0.7 2 [ ] 9! 1! 0.3 10! 0.7 3 [ ] 10! 0! 0.3 + + + h (0.7)7 (0.3)3 120 + 45 73 + 10( 37 )2 + 1( 37 )3 ] = ... i = ... 100 molecole. p(d) = ......... ................ ................ 100! p(e) = 70! (0.7)70 (0.3)30 = 30! brutale: sostituisco i fattorialix! con xx to trovo p(d) = 1 un po piu’ dolce: sostituisco i fattorialix! con xx e−x trovo ancora p(e) = 1 come commentate? cosa significa che si trova p(d) = 1? posso dare una stima della distribuzione intorno al valor medio K = pN considerando k = xN con x = p + δx Sostituisco i fattoriali con Stirling e scrivo: 7 P (xN) = e−N [x lnx+ (1−x) ln(1−x)] · eN [x lnp+ (1−x) ln(1−p)] 1 ) porta a : lo sviluppo intorno a x = p (la derivata seconda e’ ... (1−x)x 1 δK 2 −N ( ) P ((p + δx) N) = P ( K + δK) = e 2 p(1−p) N = cioe’ (δK)2 1 ] P ( K + δK) = exp[− 2 (1 − p) < K > 8 esercizio 8 aggiunta appunti Bernoulli → Poisson Ad un centralino telefonico arrivano in media 12 telefonate al minuto... Ad un contatore arrivano in media 3 fotoni al secondo... ................. Qual e’ la probabilita’ che in un’ ora arrivino K telefonate ? Qual e’ la probabilita’ che in un’ ora arrivino K fotoni ? ——————————- Modello microscopico processo Poisson Sia T un intervallo temporale Si consideri un passo ∆t cosiche’ l’intervallo T risulta costituito da N = intervallini. T ∆t In ogni intervallino facciamo un esperimento tipo si/no ≡ {ωi = ±1, i ∈ [1N]} Gli esperimenti siano indipendenti Assumiamo che la probabilita’ dell’ evento favorevole sia p(1; ∆t) = λ ∆t Analizziamo il limite ∆t → 0 • La probabilita’ p(T ; ω = 0) per la sequenza {ωi = 0∀i} e’ (e’ la probabilita’ che nell’intervallo T non ci siano eventi 1) T ∆t p(T ; ω = 0) = 1 − λ ∆t Nel limite ∆t → 0 si ha : p(T ; ω = 0) = e−λT E’ la legge di un tempo di attesa: p(τ > T ). • Similmente la probabilita’ favorevoli e’ k per KNeventi P N −k p(T ; [ i ωi = K] = K p (1 − p) = T e nel limite ∆t → 0 si valuta facilmente considerando p = λ ∆t = λ N N → ∞ (vedi anche appunti): K p(T ; [K]) = (λTK!) e−λT • Si calcola il funzionale generatore e i vari momenti (vedi esercizio 3) 9 λ ha il significato di densita’ degli eventi (favorevoli) nell’unita’ di tempo Esercizio 9 Sia {t1 = ∆t · i1 , t2 = ∆t · i2 , t3 = ∆t · i3 , · · · } l’insieme ordinato dei tempi (≡ indici) a cui si verificano gli eventi favorevoli in un processo di Poisson ( ≡ Bernoulli). Dimostrare che le RV : {τ1 = t1 τ2 = t2 − t1 τ3 = t3 − t2 · · · } sono un insieme di variabili aleatorie indipendenti e identicamente distribuite (RVI, ID). ——————— E’ facile per Bernoulli Si gaurda per esempio la sequenza : 0 0 0 0 1 0 0 1 · · · → t1 = 4, t2 = 7, · · · P (t1 ) ≡ P (τ1 ) = (1 − p)τ1 p P (t1 , t2 ) ≡ P (τ1 , τ2 ) = (1 − p)τ1 p · (1 − p)τ2 p = P (τ1 ) · P (τ2 ) Poiche’ la distr. di probabilita’ congiunta per τ1 , τ2 e’ il prodotto delle distr. di probabilita’ per τ1 e per τ2 , segue l’indipendenza. P (t1 , t2 , t3 ) = .... ATT! significato di P (t) P (t, s) etc ... probabilita’ condizionata probabilita’ congiunta ————————— 10 Esercizio 10 In una soluzione il soluto A ha densita’ ρ = (tipicamente ρ = ....?) #molecole cm3 Qual e’ la probabilita’ di trovare N molecole in 1cm3 ? Qual e’ il numero medio di molecole in 1cm3 ? Qual e’ la varianza ? Qual’e’ la probabilita’ che la piu’ vicina molecola A sia a distanza R da una molecola A data ? La distanza piu’ probabile e’ ? ——— Le molecole sono distribute in modo random e uniforme. Mi riconduco ad un processo di Bernoulli ragionando come nel seguito Immagino di dividere il volume V in cellette di volume dV ... V numero cellette N = dV Le cellette possono essere vuote con probabilita’ p(0, dV ) occupate da una molecola di A, con probabilita’ p(1, dV ), occupate da due molecole di A, con probabilita’ p(2, dV ) ... tre ... ora affermo che p(2, dV ) = (p(1, dV ))2 , p(3, dV ) = (p(1, dV ))3 perche’ le posizioni delle molecole sono RV indipendenti (≡ “soluzione”) Quando dV → 0 le probabilita’ p(2, dV ), p(3, dV ), ... diventano infinitesimi di ordine superiore rispetto a p(1, dV ). La probabilita’ di trovare una molecola in un volumetto dV e’ data dalla densita’:p(1, dV ) = rhodV . Il numero di cellette diverge e la ρ ≡ N(dV ) · p(1, dV ) tende ad un limite finito. La probabilita’ di trovare K molecole in V e’ la probabilita’ di K cellette occupate su N, di K eventi favorevoli su N eventi totali: N! pK (1 − p)(N −K) P (K; V ) = K!)n−K)! ↓ 11 K ρV e−ρ V P (K; V ) = K! (vedi Bernoulli → Poisson) Il numero medio di molecole nel volume V e’ ρV la varianza e’ ρV Qual’e’ il numero piu’ probabile di molecole contenute in V ? Sapreste schizzare il grafico √ P (K; V ) contro K a ρV fissato? ( pensate K! = K K e−K 2πK ) La probabilita’ p1 (R) di trovare la prima molecola a distanza R e’ il prodotto della probabilita’ p(V ; 0) di non trovare molecole nel volume V = 4π R3 3 attorno alla molecola scelta come riferimento e della probabilita’ di trovare una molecole nello crosta R, R + dR di volume dV = 4πR2 dR : 4π 3 p(V ; 0) = e− 3 R ρ p(dV ; 1) = ρ 4πR2 dR quindi : 4π 3 p1 (R) = ρ 4πR2 e− 3 R ρ calcolare il max, distanza piu’ probabile ... —————– 12 esercizio 11 In un quadrato di lato l disegno 1016 cerchietti di raggio r = 10−9 l tirando le coordinate del centro con probabilita’ uniforme. Qual’e’ la probabilita’ che due cerchietti si intersechino ? Qual’e’ la probabilita’ che due cerchietti stiano nello stesso quadrato di lato 2r centrato in x0 , y0 ? Cosa suggeriscono questi risultati ? Ora isolo un settore A di lato 0.1l Che grandezza e’ “ numero di cerchietti in A” ? “Quanti ne trovo”: cosa significa questa domanda? come ripondo? Quale legge di probabilita’ per la distanza minima fra cerchietti? ——————densita’ di probabilita’ per le coordinate del centro di un cerchietto: p(x, y)dxdy = l12 dxdy i centri sono RVI ID probabilita’ di intersezione: p R pint = dx1 dy1 dx2 dy2 p(x1 , y1 ) p(x2 , y2 )Θ(2r − |x1 − x2 |2 + |y1 − y2 |2 dove Θ(x) = 0 per x < 0 e Θ(x) = 1 per x > 0 E’ chiaro che il risultato e’ intuitivamente/sinteticamente immediato perche’ fissato un cerchietto l’altro deve stare (per avere intersezione non nulla) nel cerchio di raggio 2r intorno al centro del primo. Essendo tirato con proba2 bilita’ uniforme ... 4πr l2 Il conto dettagliato si puo’ fare: -a) cambiamento di variabili: nx1 = x1 − x2 , / : nx2 = x1 + x2 , ... in modo da sfruttare l’invaranza per traslazione dell’integrando (ATT! limiti int, jacobiano) : p R 1 resta : l2 dnx1 dny1 Θ(2r − |nx1 |2 + |ny1 |2 ) (e qualche coef indipendente da l) -b) passando a polari e osservando che ... 2 alla fine pint = ... rl2 2 Viceversa la probabilita’ che un cerchietto caschi nel quadrato fissato e’ (2r) l2 mentre la probabilita’ che due cerchietti caschino nello stesso quadrato di 13 lato2 2r e’2 4 (2r) · (2r) = 16 rl4 l2 l2 2 Per (2r) << 1 posso pensare a Bernoulli perche’ in ogni celletta la probal2 bilita’ di avere due o piu’ cerchietti e’ trascurabile e quindi ho un processo a due valori: niente cerchietto, un cerchietto. Il resto e’ come esercizio precedente. 14 random variabili Esercizio 1 E’ data la variabile aleatoria X̂ con pdf p(X̂ ∈ [x, x+ dx]) = p(x)dx (densita’ p(x)). La variabile F̂ e’ funzione della precedente: F̂ = F (X̂) Definisco la probabilita’ p(F̂ ∈ [f, f + df ]) = pF̂ (f )df Come si esprime pF̂ (f ) in funzione di p(x)? |x| In particolare sia p(x) = λe−λ 2 , x ∈ R e F (X̂) = X̂ 2 cosa vale pF̂ (f )? |x| In particolare sia p(x) = λe−λ 2 , x ∈ R F (X̂) = sin(X̂) cosa vale pF̂ (f ) ? 2 In particolare sia p(x) = − |x|2 √ 1 2σ e 2 σ 2π 4 F (X̂) = (X̂) cosa vale pF̂ (f ) ? —————– ,x∈R Intuitivamente F̂ ha un ’uscita intorno a f quando X̂ ha un’uscita intorno a x0 tale che F (x0 ) = f . Ma di tali x0 ne possono esistere piu’ d’uno. Se {xi : F (xi ) = f per i = 1, 2, ..} sono tutte le soluzioni possibili allora scrivo: P pF̂ (f )df = i p(xi )dxi perche’ in tal modo misuro tutti gli eventi (disgiunti) che contribuiscono a dare ad F̂ un ’uscita intorno a f . Ma alloraP: dF −1 dF −1 ] | dove |[ dx ] | e’ lo jacobiano calcolato in xi pF̂ (f ) = i p(xi )|[ dx i i (Bisogna ricordarsi che abbiamo a che fare con misure e il cambio di variabile coinvolge lo jacobiano). In terminiRdi distribuzioni : P dF −1 ppF̂ (f ) = δ(F (x) − f )p(x)dx = i p(xi )|[ dx ] | i ——————— F (X̂) = X̂ 2 √ F =f →x=± f e dF dxi = ... 15 √ pF̂ (f ) = λe−λ f √ | = | 2√1 f | + | 2−1 f √ f λe−λ √ 2 f F (X̂) = sin(X̂) ± ± F = f → x = arcsen(f ) ≡ x± 0 = arcsen(f )in[0, 2π], x0 ± 2π, x0 ± 4π, · quindi una famiglia infinita dip xi . dF = cos(x ) = 1 − f2 Inoltre si ha: dx i P i Ma allora: pF̂ (f ) = i p(xi ) · √ 1 2 1−f adesso basta sommare .................. .................. ........ .......... esercizio SALTARE !!!!! siano E,F due variabili aleatorie funzioni di X,Y e Y,Z rispettivamente. X,Y,Z indipendenti supponiamo P (dx, dy, dz) ≡ P (X ∈ [x, x + dx], Y ∈ [y + dy, Z ∈ [z + dz]) = p1 (x) p2 (y) p3 (z) dxdydz scriviamo con notazioni concise : P (E = e, X ∈ [x + dx], Y ∈ [y + dy]) = δ(e − e(x, y)) p1 (x) p2 (y) R dxdy P (E ∈ [e, e + de]) = [ δ(e − e(x, y)) p1 (x) p2 (y) dxdy] · de —————— misura indotta significato di δ(e − e(x, y)): R R δ(e − e(x, y))φ(x, y)dxdy =: x,y:e(x,y)=e φ(x, y)dxdy R R d φ(x, y)dxdy φ(x, y)dxdy = de x,y: e(x,y)≤e x,y: e(x,y)=e = 1 ∂e dy | ∂x | 1 ∂e dx | ∂y | = ............... —————— p(e|x, y) = δ(e − e(x, y)) similmente per F .............. p(f |y, z) = δ(f − f (y, z)) ............. 16 allora p(e, f |x, y, z) = δ(e − e(x, y)) · δ(f − f (y, z)) p(e, f, x, y, z) = δ(e − e(x, y)) · δ(f − f (y, z))p1(x)p2 (y)p3 (z) 17 Esercizio 2 x e’ scelto con distribuzione uniforme in [0, 1] qual’e’la probabilita’ per gli eventi: - 12 < x < 1 - 3x2 > x - la forma quadratica in y: Q(y) = y 2 + xy + x ha radici reali - arcsen(x) < π6 qual’e’ la distribuzione di probabilita’ per - y = 3x2 − x 1 2 - f = e− 2 x -z = − λ1 ln[|x| + 1] ——————- 18 esercizio 3a Calcolare la funzione generatrice per la distribuzione di Bernoulli Usando la funzione generatrice calcolare i primi tre momenti Usando la funzione comulante calcolare varianza e Kurtosis esercizio 3b Calcolare la funzione generatrice per la distribuzione per Poisson Usando la funzione generatrice calcolare i primi tre momenti Usando la funzione comulante calcolare varianza e Kurtosis esercizio 3c Calcolare la funzione generatrice per la distribuzione uniforme in [0, 1] Usando la funzione generatrice calcolare i primi tre momenti Usando la funzione comulante calcolare varianza e Kurtosis ——— Bernulli N prove, K successi, p probabilita’ successo di j·K funzione generatrice: Z(j) ≡ e funzione comulante : W (j) ≡ lnZ(j) P N k j·K e = K k p (1 − p)N −k ej·K = P N j = K k (e · p)k (1 − p)N −k = N = 1 − p + (ej · p) W (j) = N ln[1 − p + (ej · p)] Adesso che: ricordo ∂r j·K e = Kr ∂j r |j=0 e 2che ∂ W (j) = ... = var(K) quindi ∂j 2 N −1 K = pN 1 − p + (ej · p) j=0 = pN 2 N −2 K = p2 N(N − 1) 1 − p + (ej · p) j=0 = p2 N(N − 1) K r = ... var(K) = Np(1 − p) ————————- 19 Poisson P K ej·K = K e−λ λK! ejK = K P −λ λ·ej = = Ke K! −λ λ·ej −λ·[1−ej ] =e ·e =e Z(K) = quindi ∂ Z(j) = λej Z(j)j=0 = λ K = ∂j 2 j ∂2 j 2 K = ∂j Z(j) = λ + (λ)2 2 Z(j) = λe + (λe ) —————— 20 Esercizio 4a Siano {r1 , r2 , · · · , rN } RVI ID con distribuzione di densita’ p(x) in [0, 1]. Si consideri la RV : rmax = max{r1 , r2 , · · · , rN } - Si scriva la distribuzione di probabilita’ per rmax :p(rmax = x Nel caso della distribuzione uniforme : - Si calcoli la distribuzione di probabilita’ per rmax :p(rmax = x - si calcoli rmax , V ar(rmax ) ————- Esercizio 4b Ripetere il tutto per rmin ========================= Per generica p(x), distribuzione della singola variabile: la probabilita’ che il primo numero estratto sia x e che sia il massimo e’: R N −1 p(x) [0,x] dyp(y) perche’ le altre variabili devono uscire in [0, x] similmente la probabilita’ che il secondo numero estratto sia il massimo e le altre variabili piu’ piccole e’ R N −2 R dyp(y) p(x) dyp(y) [0,x] [0,x] ........................ la probabilita’ cercata e’ quindi: Z N −1 pmax (x) = Np(x) dyp(y) [0,x] ( N e’ il numero di modi in cui puo’ apparire il massimo) Per distribuzione uniforme si ha p(x) = 1 e quindi: N −1 pmax R (x) = Nx ( [0,x] pmax (y)dy = xN ) rmax = NN+1 2 rmax = NN+2 21 varianza : N (N +2)(N +1)2 Commentate ... cosa succede per N → ∞ rmax → 1 e la varianza var ∼ N12 → 0 pmax R (x) = 0 x 6= 1 ( [0,x] pmax (y)dy = δ(x − 1) ) Nota Questo R meccanismo e’ generale perche’ N p (y)dy = int p(y)dy max [..,x] [0,x] che risulta essere un numero minore di 1 alla N. P Questo fatto e’ analogo alla proprieta’ (per RVIID) : N1 n Xn →< X > Il teorema del limite centrale specifica questa convergenza affermando che P 1 X n converge a una RV gaussiana. Teormemi analoghi si possono n N 1 /2 enunciare per rmax (N) ———— ———— ———– 22 esercizio 6 Considero X, Y due VRI ID in [0, 1] con distibuzione di densita’ uniforme Scelgo una funzione f (x) che ha range [0.1] per x ∈ [0, 1] Costruisco la variabile S(X, Y ) con valori: S = 1 se Y < f (X) S = 0 se Y ≥ f (X) Qual’e’ il valor medio di S ? Qual’e’ la varianza di S ? Considero N realizzazioni delle variabili X, Y : {(x1 , y1 ), (x2 , y2), · · · , (xN , yN )} e la corrispondente sucessione s1 , s2 , · · · , sN cosa vale la somma degli sn per N → ∞? Da quale legge di probabilita’ e’ descritta questa somma ? 1 0 Y 1 0 0 1 X . 23 Esercizio 12 Due RV non indipendenti sono descritte dalla densita’ p(x, y) = Z −1 exp{− 12 [ax2 + by 2 + 2cxy} - calcolare calcolare calcolare calcolare Esercizio il fattore di normalizzazione la distribuzione 2 marginale per x x , y , x la correlazione 13 una RV e’ descritta dalla densita’ p(x) = Z −1 · exp{− 21 [x2 + λx4 } si suppone λ << 1 - calcolare il fattore di normalizzazione fino al secondo ordine inλ: Z = Z(0) + λZ 0 (0) + λ2 Z 00 (0) + · · · - calcolare x , x2 nella stessa approssimazione Esercizio 14 Tre RV sono descritte dalla densita’ p(x1 , x2 , x3 ) = Z −1 exp{− con T≡ - calcolare calcolare calcolare calcolare 1X xi Tij xj } 2 i,j A 1 0 1 B 0 0 0 C ! il fattore di normalizzazione marginale per x1 la distribuzione 2 x , x la correlazione - A, B, C possono assumere qualsiasi valore ? - x1 , x2 , x3 sono RV indipendenti ? - Sapreste indicare tre RV indipendenti , funzioni di x1 , x2 , x3 ? 24