esercizi Bayes solo per un flash sulla problematica esercizi

Transcript

esercizi Bayes solo per un flash sulla problematica esercizi
esercizi Bayes solo per un flash sulla problematica
esercizi
Bernoulli esercizio 8,9: in realta’ e’ un pezzo degli appunti
esercizio 10,11 : hanno come premessa l’esercizio 8
esercizi
su RV esercizio 1, 2,: indispensabili (Uso notazioni pesanti nel primo esercizio per
enfatizzare le varie grandezze in gioco. Poi taglio corto)
esercizio 3 tecnicherie, ma questo e’ il mestiere
esercizio 4,5,6 : piu’ raffinati
esercizio 7: “di routine”, ma utile
esercizi su gaussiane (→ MS)
================================
l’altro insieme di esercizi riguarda:
Meccanica statistica
1-Esercizi preliminari: reticoli di pochissimi siti e spin discreti
-esercizi intermedi
2a: reticoli monodimensionali e spin discreti
( (N → ∞) e matrice di trasferimento)
2b: reticoli e oscillatori classici
-esercizi
3- campo medio
1
(Bayes)
esercizio
1 Si consideri una popolazione Ω
Sia A il sottoinsieme di Ω degli individui affetti dalla patologia a
p(A) e’ l’incidenza della patologia, frequenza |A|
, la probabilita’ che un indi|Ω|
viduo scelto a caso sia affetto dalla patologia a
Sia B l’insieme degli individui che risultano positivi ad un test di ricerca per
a
Abbiamo visto che le tre probabilita’ p(A), p(B), p(A, B) descrivono completamente il sistema.
Tuttavia in questo caso e’ piu’ significativo considerare le tre probabilita’
p(A), p(B|A), p(B c , Ac ).
• p(B|A) e’ la probabilita’ di B condizionata ad A: la probabilita’ che un
malato dia risposta positiva al test.(sensibilita’ del test)
• p(B c , Ac ) e’ la probabilita’ di B c condizionata ad Ac (specificita’ del test)
e’ la probabilita’ che non affetto da a dia una risposta negativa al test.
queste probabilita’ posso essere empiricamente trovate su campioni
Problema
: qual’e’
la probabilita’ che se il test risulta positivo il soggetto
sia affetto dall patologia A ?
Si tratta di calcolare p(A|B) probabilita’ condizionata.
Ricordo che
p(B c |Ac ) + p(B|Ac ) = 1 (dalla definizione)
p(B|A)p(A) + p(B|Ac )p(Ac ) = p(B) (formula di Bayes)
etc
per Bayes : p(A|B) =
quindi
p(A,B)
p(B)
=
p(A|B) =
p(B|A) p(A)
p(B|A)p(A)+p(B|Ac )p(Ac )
1
1+
p(B|Ac )
p(B|A)
·
1−p(A)
p(A)
Tipicamente p(A) = 10−2 → 10−4
per un test con sensibilita’ del 95% e specificita’ del 99%
c)
(p(B|A) = 0.95 , p(B|Ac ) = 0.01, p(B|A
= 1.05310−2)
p(B|A)
si ha :
2
1
f(x,0.95,0.01)
f(x,0.99,0.001)
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
0
0.002
0.004
0.006
0.008
0.01
Figura 1: p(A|B) contro p(A) con p(B|A) = 0.95,
p(B|A) = 0.99, p(B|Ac ) = 0.001
p(B|Ac ) = 0.01 e
p(A) = 0.01 → p(A|B) = 0.490
p(A) = 0.001 → p(A|B) = 0.087
commento
...........
...........
esercizio
2
Una compagnia che produce chips usa due fabbriche. A produce il 60%
dei cips. Questi chips hanno una probabilita’ 0.035 di essere difettosi mentre
quelli provenienti da B hanno una corrispondente probabilita’ eguale a 0.025.
Qual’e’ la probabilita’ che dato un cips difettoso provenga da A?
——————p(A)
p(A)
p(A|d) = p(d|A)
= p(d|A) p(d|A)
p(d)
p(A)+p(d|B) p(B)
quindi: p(A|d) = 0.68
——————
esercizio
3
sia p(x, y) la densita’ di probabilita’ congiunta di due variabili X, Y
(p(x, y) = p(X = x, Y = y))
allora la densita’ della probabilita’ condizionata p(X = x|Y = y) = p(x|y) e’
data da p(x|y) = p(x,y)
p(y)
3
dove p(y) =
R
p(x, y)dx marginale di Y
- dimostare
R
- verificare che X p(x|y)dx = 1
1 2
+
- sia p(x, y) = (2π)−1 e− 2 x +2y 2xy : calcolare p(x|y)
4
esercizio
4 grafo bayesiano direzionato e causalita’
Ogni nodo rappresenta una variabile aleatoria che puo’ assumere un certo
insieme di valori discreti
Ogni freccia rappresenta una dipendenza qualitativa della variabile “in”(in
cui la freccia entra) dalla variabile “out” (da cui la freccia esce): quantitativamente la dipendenza e’ espressa attraverso le probabilita’ condizionate. La
probabilita’ che un nodo sia in uno stato fra i possibili dipende direttamente
solo dagli stati dei nodi direttamente connessi.
Se il grafo non ha loops e’ possibile determinare la probabilita’ congiunta del
sistema (e quindi tutte le marginali) per semplici prodotti.
a
&
e
↓
g
.
b
&
.
&
h
↓ .
l
f
↓
i
.
c
.
l e’ condizionato da g, h, i
p(l) = p(l|g, h, i) · p(g) · p(h) · p(i)
g e’ condizionato da e
p(g) = p(g|e) · p(e)
h, i sono condizionati da f
p(h) = p(h|f ·)p(f )
e ed f sono condizionati da a, b e da b, c
p(i) = p(i|f ) · p(f )
p(e) = p(e|a, b) · p(a) · p(b)
p(f ) = p(f |b, c) · p(b) · p(c)
adesso ho che p(e, a|b) e p(f, c|b) descrivono RV indipendenti ovvero
p(e, a, f, c|b) = p(e, a|b) · p(f, c|b) perche’ ..........
allora si ha che : p(a, b, c, e, f ) = p(e|a, b) · p(f |b, c) · p(a) · p(b) · p(c)
la distribuzione congiunta e’:
p(a, b, c, e, f, g, h, i, l) =
p(l|g, h, i·) · p(g|e) · p(h|f ) · p(i|f ) · p(e|a, b) · p(f |b, c) · p(a) · p(b) · p(c)
5
La distibuzione marginale per l e’:
X
p(l) =
p(a, b, c, e, f, g, h, i, l) =
a,b,c,e,f,g,h,i
X
a
p(a)·
X
b
p(b)·
X
c
p(c)·
nX
p(e|a, b)·
e
X
f
p(f |b, c)
hX
i
p(i|f )
ih X
h
p(h|f )
ih X
Le rete bayesiane sono usate nei sistemi esperti che riguardano diagnostica
medica, comprensione di linguaggi, ricerca euristica, ect.
Una rapida introduzione (e non solo):
“Understanding Belief propagation and its generalizations”
J.S. Yedidia- W.T.Freeman-Y-Weiss
http://www.merl.com
6
g
p(g|e)
io
(Bernoulli)
Esercizio
7
Una soluzione omogenea e’ costituita da 70% di A e 30% di B.
Si isola un campione di 10 molecole.
a- Che probabilita’ di avere 5 A e 5 B ?
b- Che probabilita’ di avere 7 A e 3 B ?
c- Che probabilita’ di avere almeno 7 A ?
Si isola un campione di 100 molecole.
d- Che probabilita’ di avere 50 A e 50 B ?
e- Che probabilita’ di avere 70 A e 30 B ?
f- Che probabilita’ di avere non piu’ di 70 A ?
————–
Bernoulli pA = 0.7 pB = 1 − pA = 0.3
A evento favorevole ....
10 molecole.
p(a) = 5!10!5! (0.7)5 (0.3)5 = 1.029 10−1
p(b) =
10!
(0.7)7 (0.3)3
7! 3!
= 120 · 0.082 · 0.027 = 0.27
p(c) = p(A = 7) + p(A = 8) + p(A = 9) + p(A = 10) =
7
3
(0.7) (0.3)
h
10!
7! 3!
10! 0.7
8! 2! 0.3
10! 0.7 2
[ ]
9! 1! 0.3
10! 0.7 3
[ ]
10! 0! 0.3
+
+
+
h
(0.7)7 (0.3)3 120 + 45 73 + 10( 37 )2 + 1( 37 )3 ] = ...
i
= ...
100 molecole.
p(d) = ......... ................
................
100!
p(e) = 70!
(0.7)70 (0.3)30 =
30!
brutale: sostituisco i fattorialix! con xx to trovo p(d) = 1
un po piu’ dolce: sostituisco i fattorialix! con xx e−x trovo ancora
p(e) = 1 come commentate? cosa significa che si trova p(d) = 1?
posso dare una stima della distribuzione intorno al valor medio K = pN
considerando k = xN con x = p + δx
Sostituisco i fattoriali con Stirling e scrivo:
7
P (xN) = e−N [x lnx+ (1−x) ln(1−x)] · eN [x lnp+ (1−x) ln(1−p)]
1
) porta a :
lo sviluppo intorno a x = p (la derivata seconda e’ ... (1−x)x
1
δK 2
−N
(
)
P ((p + δx) N) = P ( K + δK) = e 2 p(1−p) N =
cioe’
(δK)2
1
]
P ( K + δK) = exp[−
2 (1 − p) < K >
8
esercizio
8
aggiunta appunti Bernoulli → Poisson
Ad un centralino telefonico arrivano in media 12 telefonate al minuto...
Ad un contatore arrivano in media 3 fotoni al secondo...
.................
Qual e’ la probabilita’ che in un’ ora arrivino K telefonate ?
Qual e’ la probabilita’ che in un’ ora arrivino K fotoni ?
——————————- Modello microscopico processo Poisson Sia T un intervallo temporale
Si consideri un passo ∆t cosiche’ l’intervallo T risulta costituito da N =
intervallini.
T
∆t
In ogni intervallino facciamo un esperimento tipo si/no ≡ {ωi = ±1, i ∈ [1N]}
Gli esperimenti siano indipendenti
Assumiamo che la probabilita’ dell’ evento favorevole sia p(1; ∆t) = λ ∆t
Analizziamo il limite ∆t → 0
• La probabilita’ p(T ; ω = 0) per la sequenza {ωi = 0∀i} e’
(e’ la probabilita’ che nell’intervallo T non ci siano eventi 1)
T
∆t
p(T ; ω = 0) = 1 − λ ∆t
Nel limite ∆t → 0 si ha : p(T ; ω = 0) = e−λT
E’ la legge di un tempo di attesa: p(τ > T ).
• Similmente
la probabilita’
favorevoli e’
k per KNeventi
P
N
−k
p(T ; [ i ωi = K] = K p (1 − p)
=
T
e
nel limite ∆t → 0 si valuta facilmente considerando p = λ ∆t = λ N
N → ∞ (vedi anche appunti):
K
p(T ; [K]) = (λTK!) e−λT
• Si calcola il funzionale generatore e i vari momenti
(vedi esercizio 3)
9
λ ha il significato di densita’ degli eventi (favorevoli) nell’unita’ di
tempo
Esercizio
9
Sia {t1 = ∆t · i1 , t2 = ∆t · i2 , t3 = ∆t · i3 , · · · } l’insieme ordinato dei tempi
(≡ indici) a cui si verificano gli eventi favorevoli in un processo di Poisson (
≡ Bernoulli).
Dimostrare che le RV : {τ1 = t1 τ2 = t2 − t1 τ3 = t3 − t2 · · · } sono un insieme
di variabili aleatorie indipendenti e identicamente distribuite (RVI, ID).
———————
E’ facile per Bernoulli Si gaurda per esempio la sequenza :
0 0 0 0 1 0 0 1 · · · → t1 = 4, t2 = 7, · · ·
P (t1 ) ≡ P (τ1 ) = (1 − p)τ1 p
P (t1 , t2 ) ≡ P (τ1 , τ2 ) = (1 − p)τ1 p · (1 − p)τ2 p = P (τ1 ) · P (τ2 )
Poiche’ la distr. di probabilita’ congiunta per τ1 , τ2 e’ il prodotto delle distr.
di probabilita’ per τ1 e per τ2 , segue l’indipendenza.
P (t1 , t2 , t3 ) = ....
ATT! significato di P (t) P (t, s) etc ... probabilita’ condizionata
probabilita’ congiunta
—————————
10
Esercizio
10 In una soluzione il soluto A ha densita’ ρ =
(tipicamente ρ = ....?)
#molecole
cm3
Qual e’ la probabilita’ di trovare N molecole in 1cm3 ?
Qual e’ il numero medio di molecole in 1cm3 ?
Qual e’ la varianza ?
Qual’e’ la probabilita’ che la piu’ vicina molecola A sia a distanza R da una
molecola A data ?
La distanza piu’ probabile e’ ?
———
Le molecole sono distribute in modo random e uniforme.
Mi riconduco ad un processo di Bernoulli ragionando come nel seguito
Immagino di dividere il volume V in cellette di volume dV ...
V
numero cellette N = dV
Le cellette possono essere vuote con probabilita’ p(0, dV )
occupate da una molecola di A, con probabilita’ p(1, dV ),
occupate da due molecole di A, con probabilita’ p(2, dV ) ...
tre ...
ora affermo che p(2, dV ) = (p(1, dV ))2 , p(3, dV ) = (p(1, dV ))3
perche’ le posizioni delle molecole sono RV indipendenti (≡ “soluzione”)
Quando dV → 0 le probabilita’ p(2, dV ), p(3, dV ), ... diventano infinitesimi
di ordine superiore rispetto a p(1, dV ).
La probabilita’ di trovare una molecola in un volumetto dV e’ data dalla
densita’:p(1, dV ) = rhodV .
Il numero di cellette diverge
e la ρ ≡ N(dV ) · p(1, dV ) tende ad un limite finito.
La probabilita’ di trovare K molecole in V e’
la probabilita’ di K cellette occupate su N,
di K eventi favorevoli su N eventi totali:
N!
pK (1 − p)(N −K)
P (K; V ) = K!)n−K)!
↓
11
K
ρV
e−ρ V
P (K; V ) =
K!
(vedi Bernoulli → Poisson)
Il numero medio di molecole nel volume V e’ ρV
la varianza e’ ρV
Qual’e’ il numero piu’ probabile di molecole contenute in V ?
Sapreste schizzare il grafico
√ P (K; V ) contro K a ρV fissato?
( pensate K! = K K e−K 2πK )
La probabilita’ p1 (R) di trovare la prima molecola a distanza R e’ il prodotto della probabilita’ p(V ; 0) di non trovare molecole nel volume V = 4π
R3
3
attorno alla molecola scelta come riferimento e della probabilita’ di trovare
una molecole nello crosta R, R + dR di volume dV = 4πR2 dR :
4π
3
p(V ; 0) = e− 3 R ρ
p(dV ; 1) = ρ 4πR2 dR
quindi :
4π
3
p1 (R) = ρ 4πR2 e− 3 R ρ
calcolare il max, distanza piu’ probabile ...
—————–
12
esercizio
11 In un quadrato di lato l disegno 1016 cerchietti di raggio r = 10−9 l tirando
le coordinate del centro con probabilita’ uniforme.
Qual’e’ la probabilita’ che due cerchietti si intersechino ?
Qual’e’ la probabilita’ che due cerchietti stiano nello stesso quadrato di lato
2r centrato in x0 , y0 ?
Cosa suggeriscono questi risultati ?
Ora isolo un settore A di lato 0.1l
Che grandezza e’ “ numero di cerchietti in A” ?
“Quanti ne trovo”: cosa significa questa domanda? come ripondo?
Quale legge di probabilita’ per la distanza minima fra cerchietti?
——————densita’ di probabilita’ per le coordinate del centro di un cerchietto:
p(x, y)dxdy = l12 dxdy
i centri sono RVI ID
probabilita’
di intersezione:
p
R
pint = dx1 dy1 dx2 dy2 p(x1 , y1 ) p(x2 , y2 )Θ(2r − |x1 − x2 |2 + |y1 − y2 |2
dove Θ(x) = 0 per x < 0 e Θ(x) = 1 per x > 0
E’ chiaro che il risultato e’ intuitivamente/sinteticamente immediato perche’
fissato un cerchietto l’altro deve stare (per avere intersezione non nulla) nel
cerchio di raggio 2r intorno al centro del primo. Essendo tirato con proba2
bilita’ uniforme ... 4πr
l2
Il conto dettagliato si puo’ fare:
-a) cambiamento di variabili:
nx1 = x1 − x2 , / : nx2 = x1 + x2 , ...
in modo da sfruttare l’invaranza per traslazione dell’integrando (ATT! limiti
int, jacobiano)
:
p
R
1
resta : l2 dnx1 dny1 Θ(2r − |nx1 |2 + |ny1 |2 )
(e qualche coef indipendente da l)
-b) passando a polari e osservando che ...
2
alla fine pint = ... rl2
2
Viceversa la probabilita’ che un cerchietto caschi nel quadrato fissato e’ (2r)
l2
mentre la probabilita’ che due cerchietti caschino nello stesso quadrato di
13
lato2 2r e’2
4
(2r)
· (2r)
= 16 rl4
l2
l2
2
Per (2r)
<< 1 posso pensare a Bernoulli perche’ in ogni celletta la probal2
bilita’ di avere due o piu’ cerchietti e’ trascurabile e quindi ho un processo a
due valori: niente cerchietto, un cerchietto.
Il resto e’ come esercizio precedente.
14
random variabili
Esercizio
1
E’ data la variabile aleatoria X̂ con pdf p(X̂ ∈ [x, x+ dx]) = p(x)dx (densita’
p(x)).
La variabile F̂ e’ funzione della precedente: F̂ = F (X̂)
Definisco la probabilita’ p(F̂ ∈ [f, f + df ]) = pF̂ (f )df
Come si esprime pF̂ (f ) in funzione di p(x)?
|x|
In particolare sia p(x) = λe−λ 2 , x ∈ R
e F (X̂) = X̂ 2 cosa vale pF̂ (f )?
|x|
In particolare sia p(x) = λe−λ 2 , x ∈ R
F (X̂) = sin(X̂) cosa vale pF̂ (f ) ?
2
In particolare sia p(x) =
− |x|2
√ 1
2σ
e
2
σ 2π
4
F (X̂) = (X̂) cosa vale pF̂ (f ) ?
—————–
,x∈R
Intuitivamente F̂ ha un ’uscita intorno a f quando X̂ ha un’uscita intorno a
x0 tale che F (x0 ) = f . Ma di tali x0 ne possono esistere piu’ d’uno.
Se {xi : F (xi ) = f per i = 1, 2, ..} sono tutte le soluzioni possibili allora
scrivo:
P
pF̂ (f )df = i p(xi )dxi
perche’ in tal modo misuro tutti gli eventi (disgiunti) che contribuiscono a
dare ad F̂ un ’uscita intorno a f .
Ma alloraP:
dF −1
dF −1
] | dove |[ dx
] | e’ lo jacobiano calcolato in xi
pF̂ (f ) = i p(xi )|[ dx
i
i
(Bisogna ricordarsi che abbiamo a che fare con misure e il cambio di variabile
coinvolge lo jacobiano).
In terminiRdi distribuzioni :
P
dF −1
ppF̂ (f ) = δ(F (x) − f )p(x)dx = i p(xi )|[ dx
] |
i
———————
F (X̂) = X̂ 2
√
F =f →x=± f e
dF
dxi
= ...
15
√
pF̂ (f ) = λe−λ
f
√ | =
| 2√1 f | + | 2−1
f
√
f
λe−λ
√
2 f
F (X̂) = sin(X̂)
±
±
F = f → x = arcsen(f ) ≡ x±
0 = arcsen(f )in[0, 2π], x0 ± 2π, x0 ± 4π, ·
quindi una famiglia infinita dip
xi .
dF
=
cos(x
)
=
1 − f2
Inoltre si ha: dx
i
P i
Ma allora: pF̂ (f ) = i p(xi ) · √ 1 2
1−f
adesso basta sommare
..................
..................
........ ..........
esercizio
SALTARE !!!!!
siano E,F due variabili aleatorie funzioni di X,Y e Y,Z rispettivamente.
X,Y,Z indipendenti
supponiamo P (dx, dy, dz) ≡ P (X ∈ [x, x + dx], Y ∈ [y + dy, Z ∈ [z + dz]) =
p1 (x) p2 (y) p3 (z) dxdydz
scriviamo con notazioni concise : P (E = e, X ∈ [x + dx], Y ∈ [y + dy]) =
δ(e − e(x, y)) p1 (x) p2 (y)
R dxdy
P (E ∈ [e, e + de]) = [ δ(e − e(x, y)) p1 (x) p2 (y) dxdy] · de
——————
misura indotta
significato di δ(e − e(x, y)):
R
R
δ(e − e(x, y))φ(x, y)dxdy =: x,y:e(x,y)=e φ(x, y)dxdy
R
R
d
φ(x, y)dxdy
φ(x,
y)dxdy
=
de x,y: e(x,y)≤e
x,y: e(x,y)=e
=
1
∂e dy
| ∂x
|
1
∂e dx
| ∂y
|
=
...............
——————
p(e|x, y) = δ(e − e(x, y))
similmente per F
..............
p(f |y, z) = δ(f − f (y, z)) .............
16
allora
p(e, f |x, y, z) = δ(e − e(x, y)) · δ(f − f (y, z))
p(e, f, x, y, z) = δ(e − e(x, y)) · δ(f − f (y, z))p1(x)p2 (y)p3 (z)
17
Esercizio
2
x e’ scelto con distribuzione uniforme in [0, 1]
qual’e’la probabilita’ per gli eventi:
- 12 < x < 1
- 3x2 > x
- la forma quadratica in y: Q(y) = y 2 + xy + x ha radici reali
- arcsen(x) < π6
qual’e’ la distribuzione di probabilita’ per
- y = 3x2 − x
1 2
- f = e− 2 x
-z = − λ1 ln[|x| + 1]
——————-
18
esercizio
3a Calcolare la funzione generatrice per la distribuzione di Bernoulli
Usando la funzione generatrice calcolare i primi tre momenti
Usando la funzione comulante calcolare varianza e Kurtosis
esercizio
3b Calcolare la funzione generatrice per la distribuzione per Poisson
Usando la funzione generatrice calcolare i primi tre momenti
Usando la funzione comulante calcolare varianza e Kurtosis
esercizio
3c Calcolare la funzione generatrice per la distribuzione uniforme in [0, 1]
Usando la funzione generatrice calcolare i primi tre momenti
Usando la funzione comulante calcolare varianza e Kurtosis
———
Bernulli
N prove, K successi, p probabilita’
successo
di
j·K
funzione generatrice: Z(j) ≡ e
funzione comulante : W (j) ≡ lnZ(j)
P N k
j·K
e
= K k p (1 − p)N −k ej·K =
P N j
= K k (e · p)k (1 − p)N −k =
N
= 1 − p + (ej · p)
W (j) = N ln[1 − p + (ej · p)]
Adesso
che:
ricordo
∂r
j·K
e
= Kr
∂j r
|j=0
e 2che
∂
W (j) = ... = var(K) quindi
∂j 2
N −1
K = pN 1 − p + (ej · p) j=0 = pN
2
N −2
K = p2 N(N − 1) 1 − p + (ej · p) j=0 = p2 N(N − 1) K r = ...
var(K) = Np(1 − p)
————————-
19
Poisson
P
K
ej·K = K e−λ λK! ejK =
K
P −λ λ·ej
=
= Ke
K!
−λ
λ·ej
−λ·[1−ej ]
=e ·e
=e
Z(K) =
quindi
∂
Z(j) = λej Z(j)j=0 = λ
K = ∂j
2
j
∂2
j 2
K = ∂j
Z(j) = λ + (λ)2
2 Z(j) = λe + (λe )
——————
20
Esercizio
4a Siano {r1 , r2 , · · · , rN } RVI ID
con distribuzione di densita’ p(x) in [0, 1].
Si consideri la RV :
rmax = max{r1 , r2 , · · · , rN }
- Si scriva la distribuzione di probabilita’ per rmax :p(rmax = x
Nel caso della distribuzione uniforme :
- Si calcoli la distribuzione
di probabilita’ per rmax :p(rmax = x
- si calcoli rmax , V ar(rmax )
————- Esercizio 4b Ripetere il tutto per rmin
=========================
Per generica p(x), distribuzione della singola variabile:
la probabilita’ che il primo numero estratto sia x e che sia il massimo e’:
R
N −1
p(x) [0,x] dyp(y)
perche’ le altre variabili devono uscire in [0, x]
similmente la probabilita’ che il secondo numero estratto sia il massimo e le
altre variabili piu’ piccole e’
R
N −2
R
dyp(y)
p(x)
dyp(y)
[0,x]
[0,x]
........................
la probabilita’ cercata e’ quindi:
Z
N −1
pmax (x) = Np(x)
dyp(y)
[0,x]
( N e’ il numero di modi in cui puo’ apparire il massimo)
Per distribuzione uniforme si ha p(x) = 1 e quindi:
N −1
pmax
R (x) = Nx
( [0,x] pmax (y)dy = xN )
rmax = NN+1
2 rmax = NN+2
21
varianza :
N
(N +2)(N +1)2
Commentate ... cosa succede per N → ∞
rmax → 1 e la varianza var ∼ N12 → 0
pmax
R (x) = 0 x 6= 1
( [0,x] pmax (y)dy = δ(x − 1) )
Nota Questo
R
meccanismo e’ generale perche’
N
p
(y)dy
=
int
p(y)dy
max
[..,x]
[0,x]
che risulta essere un numero minore di 1 alla N.
P
Questo fatto e’ analogo alla proprieta’ (per RVIID) : N1 n Xn →< X >
Il teorema
del limite centrale specifica questa convergenza affermando che
P
1
X
n converge a una RV gaussiana. Teormemi analoghi si possono
n
N 1 /2
enunciare per rmax (N)
————
————
———–
22
esercizio 6
Considero X, Y due VRI ID in [0, 1] con distibuzione di densita’ uniforme
Scelgo una funzione f (x) che ha range [0.1] per x ∈ [0, 1]
Costruisco la variabile S(X, Y ) con valori:
S = 1 se Y < f (X)
S = 0 se Y ≥ f (X)
Qual’e’ il valor medio di S ?
Qual’e’ la varianza di S ?
Considero N realizzazioni delle variabili X, Y : {(x1 , y1 ), (x2 , y2), · · · , (xN , yN )}
e la corrispondente sucessione s1 , s2 , · · · , sN
cosa vale la somma degli sn per N → ∞?
Da quale legge di probabilita’ e’ descritta questa somma ?
1
0
Y
1
0
0
1
X
.
23
Esercizio
12 Due RV non indipendenti sono descritte dalla densita’
p(x, y) = Z −1 exp{− 12 [ax2 + by 2 + 2cxy}
-
calcolare
calcolare
calcolare
calcolare
Esercizio
il fattore di normalizzazione
la distribuzione
2 marginale per x
x , y , x
la correlazione
13 una RV e’ descritta dalla densita’
p(x) = Z −1 · exp{− 21 [x2 + λx4 } si suppone λ << 1
- calcolare il fattore di normalizzazione fino al secondo ordine inλ:
Z = Z(0) + λZ 0 (0) + λ2 Z 00 (0) + · · ·
- calcolare x , x2 nella stessa approssimazione
Esercizio
14 Tre RV sono descritte dalla densita’
p(x1 , x2 , x3 ) = Z −1 exp{−
con
T≡
-
calcolare
calcolare
calcolare
calcolare
1X
xi Tij xj }
2 i,j
A 1 0
1 B 0
0 0 C
!
il fattore di normalizzazione
marginale per x1
la distribuzione
2
x , x
la correlazione
- A, B, C possono assumere qualsiasi valore ?
- x1 , x2 , x3 sono RV indipendenti ?
- Sapreste indicare tre RV indipendenti , funzioni di x1 , x2 , x3 ?
24