Approfondimento relativo al modello di Ehrenfest

Transcript

Approfondimento relativo al modello di Ehrenfest
Approfondimento
Il modello di Ehrenfest è uno dei più semplici processi stocastici (tecnicamente una catena di
Markov) di cui si possono studiare in dettaglio le proprietà statistiche. Il modello consiste in due
urne, diciamo L (left) e R (right) in cui vengono inizialmente disposte in modo arbitrario N oggetti,
di cui non interessa la natura, identificati con un numero n = 1, 2, …, N. Ad ogni secondo viene
estratto un numero a caso compreso tra 1 e N; l’oggetto che porta il numero estratto viene spostato
dall’urna in cui si trova all’altra.
Il problema consiste nel determinare la probabilità P 
n, k , t di trovare N L (t ) n oggetti nell’urna
left dopo t secondi, sapendo che inizialmente N L (0) k , oppure stabilire se il processo tende
all’equilibrio, ovvero se esiste la distribuzione limite di probabilità P
n, k , 
.
In questa sezione si vuole riproporre il processo in modo non ingenuo, fornendone una
dimostrazione rigorosa che vada oltre la giustificazione intuitiva esposta mediante l’applicazione
con visual basic. A tale scopo diventa indispensabile riprendere concetti come variabili casuali,
distribuzioni di probabilità, e soprattutto catene di Markov, comunemente non previsti dalla
programmazione delle scuole superiori.
Catene di Markov
Cominciamo con l’introdurre i concetti di vettori delle probabilità e matrici stocastiche.
DEF: un vettore u 
u1 , u 2 ,..., u n , con n intero positivo, si dice vettore delle probabilità se sono
soddisfatte le seguenti due condizioni:
i) u i 0,
i n (le sue componenti sono non negative)
ii)
n
u
i
1,
n N (la somma delle sue componenti è 1)
i1
DEF: un matrice quadrata P 
p ij , con i e j interi positivi, è detta matrice stocastica se ciascuna
delle sue righe è un vettore di probabilità.
TEOREMA: se A e B sono due matrici stocastiche allora il prodotto AB è una matrice stocastica.
OSS: dal teorema segue che se A è una matrice stocastica, allora le potenze An, con n intero
positivo, sono matrici stocastiche.
Analizziamo di seguito alcune proprietà delle matrici stocastiche:
DEF: si dice che una matrice stocastica P 
pij è regolare se esiste m N tale che tutti gli
m
elementi di P sono positivi.
TEOREMA: sia P 
pij una matrice stocastica regolare; allora:
i) P ha un unico vettore delle probabilità fisso1 t, e le componenti di t sono tutte positive;
ii) la successione P, P2, P3… di potenze di P approssima la matrice T, ciascuna delle cui
righe è costituita dal vettore fisso t;
iii) se p è un qualsiasi vettore delle probabilità, allora la successione di vettori pP, pP2,
pP3 … approssima il vettore t.
1
Data una matrice A, diremo che il vettore u ≠0 è un punto fisso (o vettore fisso) di A se u rimane fisso allorché lo si
moltiplica per A; in simboli uA = u
N.B.: dire che “Pn approssima T” significa che ogni elemento di Pn approssima il corrispondente
elemento di T e “pPn approssima t” significa che ogni elemento di pPn approssima il corrispondente
elemento di t.
Aggiungiamo alcune considerazioni sull’esistenza e l’unicità del vettore di probabilità fisso.
Possiamo ora dare la definizione di catena markoviana.
DEF: si definisce catena markoviana (finita) un processo stocastico costituito da una serie di prove
i cui esiti, X 1 , X 2 , ... , soddisfano le seguenti proprietà:
i)
ciascun esito appartiene ad un insieme finito di esiti 
a1 , a2 ,...am , detto spazio degli
stati del sistema; se l’esito della prova n-esima è a i , allora diciamo che il sistema è nello
stato ai nel periodo n, o alla transizione n-esima;
ii)
l’esito di qualsiasi prova dipende al massimo dall’esito della prova immediatamente
precedente e non da quello di qualsiasi altra prova precedente; riferendoci alla coppia di
stati 
a i , a j è data la probabilità pij , detta probabilità di transizione, che a j si verifichi
immediatamente dopo il verificarsi di ai . I valori pij possono essere ordinati in forma di
matrice
p1m 
p11 p12


p2 m 
p 21 p 22




p

p
p
 m1
m2
mm 
detta matrice di transizione.
OSS: Per come è definita una catena markoviana è opportuno evidenziare il fatto che a ciascuno
stato ai corrisponde la riga i-esima 
p i1 , pi 2 ,... pim della matrice di transizione P; se il sistema è
nello stato ai , allora questo vettore riga rappresenta la probabilità di tutti i possibili esiti della prova
successiva e dunque è un vettore delle probabilità. Ne consegue che la matrice di transizione di una
catena markoviana è una matrice stocastica.
ESEMPI
1. Un uomo si reca quotidianamente al lavoro con la propria automobile o in treno; supponiamo
che non prenda mai il treno due giorni di seguito;ma se egli si reca al lavoro in automobile,
allora il giorno dopo la probabilità che usi ancora l’automobile è uguale alla probabilità che
prenda il treno.
Lo spazio degli stati è: 
t (treno ), a (automobile)
.
Questo processo è una catena markoviana perchè l’esito di ogni giorno dipende solo da quanto avvenuto il
giorno prima; la matrice di transizione della catena markoviana è:
0

1
2
1 

1 
2
dove la prima riga corrisponde al fatto che l’uomo non prende mai il treno due giorni consecutivi, e la
seconda riga al fatto che il giorno dopo aver usato l’automobile avrà uguali probabilità di prendere
l’automobile o il treno.
2. Tre ragazzi, A, B e C si passano una palla; A passa sempre la palla a B e B passa sempre la
palla a C; ma la probabilità che C passi la palla a B è uguale alla probabilità che la passi ad
A.
Lo spazio degli stati è: 
A, B, C .
Questo processo è una catena markoviana perchè la persona che passa la palla non è influenzata dagli altri
che hanno avuto la palla in precedenza; la matrice di transizione della catena markoviana è:
0

0

1
2
1
0
1
2
0

1

0

dove la prima riga corrisponde al fatto che A passa la palla solo a B, la seconda riga al fatto che B passa la
palla solo a C e la terza riga che C passa la palla ad A e B con la stessa probabilità.
OSS: l’elemento p ij della matrice di transizione P di una catena markoviana è la probabilità che il
sistema passi dallo stato ai allo stato a j in una sola transizione; ma in quasi tutti i processi
stocastici si domanda quale sia la probabilità, designata mediante pij (n ) , che il sistema passi dallo
stato a i allo stato a j in esattamente n transizioni. Il teorema successivo fornisce la risposta: le
pij (n ) vengono disposte in una matrice
transizione.
P (n ) detta matrice di transizione relativa all’n-esima
TEOREMA: sia P la matrice di transizione di un processo markoviano; allora la matrice di
transizione relativa all’n-esima transizione è uguale alla potenza n-esima di P; in simboli P ( n ) P n .
DEF: supponiamo che, in un certo periodo arbitrario, la probabilità che il sistema sia nello stato ai
sia pi ; tali probabilità vengono designate mediante il vettore delle probabilità p p1 , p2 ,..., p m 
che prende il nome di distribuzione di probabilità del sistema in quel periodo.
OSS: in particolare la distribuzione di probabilità iniziale è denotata dal vettore:
(0 )
( 0)
( 0)
p ( 0 )  p1 , p 2 ,..., pm ,
mentre la distribuzione di probabilità all’n-esima transizione è denotata dal vettore:
p ( n )  p1 ( n ) , p2 ( n ) ,..., pm ( n )




TEOREMA: sia P la matrice di transizione di un processo markoviano; se p ( pi ) è la
distribuzione di probabilità del sistema in un certo periodo arbitrario, allora il prodotto pP fornisce
la distribuzione di probabilità del sistema dopo una transizione e pP n è la distribuzione di
probabilità del sistema dopo n transizioni.
Esempi
1. Relativamente all’esempio 1, la probabilità che il sistema passi dallo stato a allo stato t in 4
4
transizioni è dato da Pta ; per determinare tale valore si calcola la quarta potenza della matrice di
transizione e si individua il corrispondente valore;
5 
3
8
8 
P P 
P
P
P 
;
11 
5

16 
 16
Supponiamo che il primo giorno l’uomo abbia lanciato un dado e si sia recato al lavoro se e soltanto
5 1
se si sia presentato un 6 (in altri termini p ( 0 ) 
 , è la distribuzione di probabilità iniziale);
6 6 
allora la distribuzione di probabilità dopo 4 giorni è data da:
5 
3
8
8 35 , 61
p (4 ) p ( 0) P 4  5 , 1 
6 6 5
96
96
11 
 16
16 
4




2. Relativamente all’esempio 2 supponiamo che inizialmente la palla sia posseduta da C (ovvero la
distribuzione di probabilità iniziale è la seguente p ( 0 ) 
0,0,1
); la distribuzione di probabilità
dopo tre passaggi sarà data da:
1 1 1 
(3 )
( 0) 3
p p P 
passaggi omessi  , , 
4 4 2 
ovvero dopo tre passaggi la probabilità che A abbia la palla è del 25%, la probabilità che l’abbia B è
del 25%, mentre la probabilità che l’abbia C è del 50%
OSS: se una catena markoviana è regolare (cioè la matrice di transizione P è regolare) per il
teorema precedente la successione delle matrici di transizione relative all’n-esima transizione P n
approssima la matrice T (ovvero la matrice le cui righe sono costituite dall’unico vettore delle
probabilità fisso t di P); quindi la probabilità pij (n ) che si verifichi a j per valori sufficientemente
grandi di n è indipendente da a i ed approssima la componente t j di t; in altri termini vale il
seguente teorema.
TEOREMA: sia P la matrice di transizione di un processo markoviano regolare; a lungo andare, la
probabilità che si presenti un qualche stato a j è approssimativamente uguale alla componente t j
dell’unico vettore delle probabilità fisso t di P.
N.B.: si sottolinea il fatto che l’effetto dello stato iniziale o della distribuzione di probabilità iniziale
del processo si attenua al crescere del numero di transizioni del processo. Inoltre, ogni successione
di distribuzioni di probabilità approssima il vettore di probabilità fisso t di P che prende il nome di
distribuzione stazionaria della catena markoviana.
Esempi
1. Si consideri la catena markoviana dell’esempio 1, la cui matrice di transizione è:
1 
0


1 
1
2
2
per stabilire come evolve il sistema bisogna determinare l’unico vettore delle probabilità fisso della suddetta
matrice, ovvero bisogna determinare le componenti del vettore t 
x 0 ,1 x0 tale che:
0
1
tA t  
x0 ,1 x 0 


2
1 
x 0 ,1 x0 
1 

2
1

1 x0 x 0

2
1 2 
 t  , 

3 3 
x 0 1 
1

x


1

x
0
0


2
Quindi a lungo andare l’uomo si recherà al lavoro in treno con probabilità 1/3 e in macchina con
probabilità 2/3.
2. Si consideri il processo a catena markoviana dell’esempio 2, la cui matrice di transizione è:
0
1 0


0
0 1


1
1

2
2 0
per stabilire come evolve il sistema bisogna determinare il vettore delle probabilità fisso della suddetta
matrice, ovvero bisogna determinare le componenti del vettore t 
x 0 , x1 ,1 x 0 x1 tale che:
0
1 0


1 2 2 
0
tA t  
x 0 , x1 ,1 x 0 x1 

0 1 
x 0 , x1 ,1 x 0 x1  t  , , 


5 5 5 
1
1

2
2 0
Quindi a lungo andare la palla sarà lanciata ad A il 20% delle volte, a B il 40% e a C il 40%.
Soluzione del modello di Ehrenfest
Indicato con N il numero delle palline presenti nelle due urne, il processo risulta essere una catena
di Markov con N + 1 stati (ogni stato viene identificato con la coppia (a,b) le cui componenti
indicano rispettivamente il numero delle palline nell’urna left e nell’urna right) caratterizzato dalle
seguenti probabilità di transizione:

0
se m n 1


m
pij P (n, t 1 | m, t ) 
se m n 1 ;
N

 m
1
se m n 1

 N
con P (n, t 1 | m, t ) si indica la probabilità di avere n palline nell’urna left all’istante t+1
condizionata dal fatto che all’istante precedente ce ne fossero m. la matrice di transizione sarà così
costituita:
1
0
0
...
0 
 0
 1

N 1
0
0
...
0 

N
N

2
N 2
 0
0
...
0 


N
N








 




N 1
1 
 0

0
0
0

N
N

 0

0
0
0
1
0


Nel caso N = 12 della simulazione, i tredici stati che caratterizzano il processo sono:

12,0
,
11,1
,
10,2 
,
9,3
,
8,4 
,
7,5
,
6,6
,
5,7
,
4,8
,
3,9
,
2,10
,
1,11
,
0,12 
,
e la matrice di probabilità di transizione è la seguente:
0



1

12

0



0



0



0



0



0



0



0



0



0



0



1
0
0
0
0
0
0
0
0
0
0
0
11
12
0
0
0
0
0
0
0
0
0
1
6
0
5
6
0
0
0
0
0
0
0
0
0
1
4
0
3
4
0
0
0
0
0
0
0
0
0
1
3
0
2
3
0
0
0
0
0
0
0
0
0
5
12
0
7
12
0
0
0
0
0
0
0
0
0
1
2
0
1
2
0
0
0
0
0
0
0
0
0
7
12
0
5
12
0
0
0
0
0
0
0
0
0
2
3
0
1
3
0
0
0
0
0
0
0
0
0
3
4
0
1
4
0
0
0
0
0
0
0
0
0
5
6
0
1
6
0
0
0
0
0
0
0
0
0
11
12
0
0
0
0
0
0
0
0
0
0
0
1
0 



0 



0 



0 



0 



0 



0 



0 



0 



0 



0 



1 
12 


0 


OSS: Il processo in questione è si una catena markoviana, ma la matrice di transizione non è
regolare 2; per tale motivo non possiamo applicare il teorema precedente per determinare la
probabilità stazionaria della catena.
Tuttavia esiste un teorema ergodico per catene di Markov non regolari (ma che siano irriducibili
persistenti positive 3) che assicura l’esistenza e l’unicità della distribuzione stazionaria
La catena risulta irriducibile4 persistente positiva, quindi a lungo andare, la probabilità che si
presenti un qualche stato a j è approssimativamente uguale alla componente t j dell’unico vettore
delle probabilità fisso t di P.
Determinare tale vettore, ovvero la probabilità stazionaria, significa risolvere la seguente equazione
t A t
con t 
x 0 , x1 ,..., x N 
, ovvero, in modo equivalente, risolvere il sistema:
2
n
Infatti le potenze P della matrice di transizione sono tali che
caso c’è almeno un elemento della matrice non positivo.
p12
2n
0 e p11
2 n 1
0 , n N , e quindi in ogni
3
Per la trattazione di tali concetti si rimanda alla dispensa del prof. Calzolai reperibili all’indirizzo:
www.mat.uniroma2.it/~calzolar/appuntivfinaleCPinf06-07.pdf
4
Concettualmente una catena irriducibile è tale che comunque fissati due stati i e j, esiste un intero k, istante di tempo,
dopo il quale è possibile passare da i a j; intuitivamente il processo in questione ha questa particolarità per k
abbastanza grande.
x1

x0 N




N (i 1)
i 1
xi 
xi 1 
x
1 i N 1
N
N i 1


(*) 

.

x
x N  N 1
N

x0 x1 x 2 ... x N 1 (il vettor e t è un vettore di probabilità)

xi 0 i


Scelto x0 come parametro il sistema precedente è equivalente al seguente:
x1 Nx 0




N ( N 1) ...( N i 1)
N 
x0 
x i 
i 
x 0 1 i N .
(**) 
i!
 



x 0 x1 x2 ... x N 1

x i 0 i
Possiamo giustificare l’equivalenza tra i due sistemi ricorrendo ad una dimostrazione per induzione;
osserviamo prima di tutto che dalla prima equazione del sistema (*) segue banalmente
x1 Nx 0 ;
BASE D’INDUZIONE
per i = 1, sostituiamo nella seconda equazione il valore di
N 
N ( N 1)
x 0 
2 
x0 .
2
 
x1 ed otteniamo x 2 
IPOTESI D’INDUZIONE
N 
xi 
i 
x0 dimostriamolo per i+1;
 
dalla seconda equazione del sistema (*) possiamo scrivere x i1 al seguente modo:
N
N i 1
xi 1 
xi 
xi 1
i 1
i 1
per ipotesi d’induzione vale:
Supposta vera per i, cioè
N 
N
N 1
... N i 2
N 
N
N 1
... N i 1
xi 1 
x0 e xi 

x0 
x0
i 1
x 0 



i 1
!
i!
 
i 
sostituendo si ottiene:
N N
N 1
... N i 1 N i 1 N 
N 1
... N i 2
xi 1 

x0 

x0 
i 1
i!
i 1
i 1!
N
N i 
N 1
... N i 1 N 

x 0 
i 1
x 0
i 1!
 
Per ricavare il valore di x 0 si sostituiscono i valori ottenuti nell’ultima equazione ottenendo:
N
N 

i 
x
 
0
1
i0
1
e dalla formula del binomio di Newton 5 si ricava x0  N .
2
Possiamo allora concludere affermando che la i-esima componente del vettore di probabilità
stazionaria è data da:
1 N 
ti  N 
 i 0,....., N .
i 
2 


Per i = N/2 si ottengono i valori più grandi di probabilità.
5
La formula del binomio di Newton per il calcolo della potenza n-sima di un binomio è la seguente:
n 
k
k0 
n
a b n 
a n k 
bn


in cui ponendo a b 1 si ottiene
n
n 
2 n 
k 
.
k 0 

Bibliografia
Seymour Lipschutz – Calcolo delle probabilità – Collana SCHAUM
A.Calzolari – Appunti sulle catene di Markov – C.d.P, L.S. in Inf., A.A. 2007/2008