Sistemi dinamici - Iac-Cnr

Transcript

Sistemi dinamici - Iac-Cnr
Università LUISS Guido Carli, A.A. 2009-2010 (I semestre)
Metodi Matematici per la Finanza
SECONDA PARTE:
Equazioni Differenziali e alle Differenze
Prof. Fausto Gozzi
(in collaborazione con Dott.ssa Alessandra Cretarola)
2
Indice
1 Introduzione ai sistemi dinamici
1.0.1 Obiettivi della seconda parte del corso . . . . . . . . . . . . .
1.0.2 Notazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1 Prime definizioni ed esempi . . . . . . . . . . . . . . . . . . . . . . .
1.1.1 Sistemi dinamici descritti da equazioni differenziali o alle differenze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1.2 Alcune osservazioni utili . . . . . . . . . . . . . . . . . . . . .
1.2 Esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.1 L’evoluzione di un deposito in banca . . . . . . . . . . . . . .
1.2.2 Modelli di crescita della popolazione e di marketing . . . . . .
1.2.3 Modello preda-predatore (Lotka - Volterra) . . . . . . . . . .
1.2.4 Modello di crescita di Solow . . . . . . . . . . . . . . . . . . .
1.2.5 Mercato competitivo . . . . . . . . . . . . . . . . . . . . . . .
1.2.6 Gestione (Management) di produzione . . . . . . . . . . . . .
1.3 Una definizione formale di sistema dinamico . . . . . . . . . . . . . .
1.3.1 Tempo discreto o tempo continuo? Qualche spunto di riflessione
6
10
12
12
13
15
15
16
17
17
20
2 Esistenza ed unicità delle soluzioni
2.1 Il caso a tempi discreti . . . . . . .
2.1.1 Soluzioni locali . . . . . . .
2.1.2 Esistenza ed unicità globale
2.2 Esercizi . . . . . . . . . . . . . . .
2.3 Soluzioni . . . . . . . . . . . . . . .
2.4 Il caso a tempi continui . . . . . .
2.4.1 Soluzioni locali . . . . . . .
2.4.2 Esistenza ed unicità globale
2.5 Esercizi . . . . . . . . . . . . . . .
2.6 Soluzioni . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
23
23
24
25
26
27
27
29
33
34
35
3 Stabilità dei punti di equilibrio
3.1 Definizioni e commenti . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Stabilità e stabilità asintotica . . . . . . . . . . . . . . . . . . . . . .
39
39
40
The case n = 1
42
3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5
5
5
5
4
INDICE
4 Equazioni alle differenze del primo ordine
4.1 Equazioni alle differenze lineari del caso unidimensionale . . .
4.2 Stabilità dei punti di equilibrio nel caso lineare . . . . . . . .
4.3 Equazioni alle differenze non lineari nel caso unidimensionale
4.4 Stabilità dei punti di equilibrio nel caso non lineare . . . . . .
4.4.1 Stabilità attraverso linearizzazione . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
45
45
46
47
47
47
5 Equazioni Differenziali del Primo Ordine
5.1 ODE lineari nel caso unidimensionale . . . . . . . .
5.2 Stabilità dei punti di equilibrio nel caso linerare . .
5.3 ODE non lineari unidimensionali . . . . . . . . . .
5.3.1 Separazione delle variabili . . . . . . . . . .
5.3.2 Cambio di variabile . . . . . . . . . . . . . .
5.4 Esercizi . . . . . . . . . . . . . . . . . . . . . . . .
5.5 Soluzioni . . . . . . . . . . . . . . . . . . . . . . . .
5.6 Stabilità dei punti di equilibrio nel caso non lineare
5.6.1 Stabilità attraverso linearizzazione . . . . .
5.7 Studio qualitativo dei problemi di Cauchy . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
49
49
50
51
52
53
56
56
61
61
62
Bibliography
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
65
Capitolo 1
Introduzione ai sistemi dinamici
1.0.1
Obiettivi della seconda parte del corso
Lo scopo principale della seconda parte del corso è quello di fornire i concetti base
della teoria matematica dei sistemi dinamici partendo da alcune applicazioni ben
note in economia, management, e finanza. In particolare, gli argomenti trattati
riguarderanno:
• i risultati matematici e gli strumenti usati per formalizzare e studiare alcuni
modelli ben noti in economia e finanza frequentemente incontrati in letteratura;
• alcuni metodi di base per risolvere problemi semplici e affrontare problemi più
complessi che coinvolgono equazioni differenziali (e alle differenze).
1.0.2
Notazioni
Le lettere in grassetto denotano i vettori (o funzioni che mappano numeri reali in
vettori). Le componenti dei vettori non sono in grassetto.
1.1
Prime definizioni ed esempi
Molti problemi applicati in economia, management e finanza sono di natura dinamica. Generalmente parlando, non possono essere compresi (o predetti, o anche
controllati) semplicente osservandoli ad un certo istante; è necessario poter osservare
la loro evoluzione nel tempo. Per maggiori dettagli ed un’approfindita trattazione,
si legga ad esempio l’introduzione di [21], o il primo capitolo di [14].
Il primo passo nella costruzione un modello è quello di “identificare” le variabili
che descrivono completamente il problema che stiamo trattando. Tali variabili sono
comunemente chiamate variabili di stato. Dato che il problema è di natura dinamica,
ciò che interessa maggiormente è lo studio dell’evoluzione di tali variabili di stato al
variare del tempo1 . Questo significa che, se indichiamo con x il vettore delle variabili
1
Naturalmente, nello studio del problema possono esserci altri obiettivi. In alcuni casi, può essere interessante lo studio del comportamento delle variabili di stato (e.g. monotonia, convessità,
punti estremali, comportamento asintotico,...); in altri casi risulta interessante controllare il com-
5
6
Introduzione ai sistemi dinamici
di stato, siamo interessati a studiare la funzione
x : T → X ⊆ Rn
dove
• T è un sottoinsieme assegnato di R e rappresenta l’insieme dei tempi nei quali
vogliamo calcolare il valore della variabile di stato;
• X è un sottoinsieme assegnato di Rn (n è il numero delle componenti della
variabile di stato che stiamo considerando), dove vive la variabile di stato (di
solito dipende dal tipo di problema: ad esempio se, per n = 1, x rappresenta
un prezzo, è naturale richiedere che prezzi siano ≥ 0 e quindi X = [0, +∞)).
Tale funzione x è, euristicamente, il cuore di un sistema dinamico n-dimensionale e
descrive l’evoluzione nel tempo della variabile di stato. Naturalmente x dipenderà
dal valore dei parametri che compaiono nel modello, specialmente dai dati iniziali.
Non daremo qui la definizione formale di Sistema Dinamico (in breve SD da adesso
in avanti), lasciandola per la sezione 1.3.
L’insieme dei tempi T può essere sostanzialmente di due tipi:
• T ⊆ N che è il caso di un SD a tempi discreti;
• T è un intervallo di R possibilmente non limitato, e questo è il caso di un SD
a tempi continui.
Se la funzione x è nota in forma esplicita allora possiamo utilizzare gli strumenti
necessari per studiare una funzione di questo tipo (che è comunemente chiamata una
curva in Rn , si veda ad esempio [43, Sezione 4.5] per una teoria base sulle curve).
Ma di solito, x non è esplicitamente nota. Nella sottosezione seguente, descriviamo
cosa è comunemente noto in questi modelli.
1.1.1
Sistemi dinamici descritti da equazioni differenziali o alle
differenze
In molti modelli dinamici, sono note le seguenti cose:
• il valore x0 dello stato ad un certo istante t0 (di solito, ma non necessariamente,
il primo oppure l’ultimo);
• la legge di evoluzione, che andiamo a studiare distinguendo il caso a tempi
discreti da quello a tempi continui.
portamento delle variabili di stato nel raggiungere certi stati, oppure massimizzare alcune funzioni
obiettivo, e così via. Vedremo queste cose più avanti in alcuni esempi.
1.1 Prime definizioni ed esempi
7
Tempi discreti. La legge di evoluzione è una relazione tra il valore x (t) della
variabile di stato al tempo t e i suoi valori ad istanti successivi, i.e. in forma
generale è rappresentata nel modo seguente:
G (t, x (t) , x (t + 1) , x (t + 2) , ..., x (t + k)) = 0
∀t ∈ T
dove G : T × X k+1 → Rp è una funzione assegnata. L’espressione sopra è
chiamata Equazione alle Differenze (in breve ED da adesso in poi) di ordine
k (dato che coinvolge i valori della variabile di stato da x (t) a x (t + k)).
Il numero p rappresenta il numero di equazioni. Di solito, quando p = 1
indicheremo G senza il grassetto (dato che il grassetto si usa per indicare i
vettori). Invece per p ≥ 2 useremo il simbolo G e parleremo di Sistemi di
equazioni alle differenze.
Esempio 1.1.1. Prendiamo T = N, X = R. L’equazione
1
x(t + 1) = tx(t + 2)2 − t 2 x(t)3 + 1,
t∈N
è un’equazione alle differenze di secondo ordine (k = 2, p = 1). Qui
1
G(t, x0 , x1 , x2 ) = x1 − tx22 + t 2 x30 − 1.
Prendiamo ora T = N − 0, X = R2 . Il sistema
x(t + 1) = tx(t)3 − x(t + 1)2 t + ey(t) ,
1
y(t + 1) = ty(t + 2)2 − t 2 x(t)3 + 1,
t∈N
t∈N
è un sistema di 2 equazioni alle differenze di ordine 2 (k = p = 2) dove
G(t, x0 , x1 , x2 , y0 , y1 , y2 ) =
1
x21
y0
3
x1 − tx0 +
− e , y1 − ty2 + t 2 x0 − 1 .
t
Un caso particolare più semplice (quando p = n) è quello in cui è possibile
riscrivere l’equazione sopra come
x (t + k) = g (t, x (t) , x (t + 1) , x (t + 2) , ..., x (t + k − 1))
∀t ∈ T
per una funzione assegnata g : T × X k → Rn . Tali ED sono chiamate ED
in forma normale. L’ED è detta autonoma se G (o equivalentemente, g) non
dipende da t. Se invece lo è, l’ED è detta non autonoma.
Come sopra useremo il grassetto per la funzione g solo quando p ≥ 2.
Esempio 1.1.2. Prendiamo T = N, X = R, k = p = 1. L’equazione alle
differenze
x(t) = 2x(t + 1) − 1, t ∈ N
8
Introduzione ai sistemi dinamici
è un’equazione alle differenze di primo ordine che può essere scritta in forma
normale esplicitando x(t + 1 in funzione di x(t) e ottenendo
1
1
x(t + 1) = x(t) + ,
2
2
t ∈ N.
Invece l’equazione alle differenze
x(t) = x(t + 1)2 ,
t∈N
non si può scrivere in forma normale (ESERCIZIO: spiegare perché).
Tempi continui. La legge di evoluzione in questo caso è una relazione tra il
valore x (t) della variabile di stato al tempo t e le sue successive derivate allo
stesso istante, i.e. in forma generale è rappresentata nel modo seguente:
F t, x (t) , x0 (t) , x00 (t) , ..., x(k) (t) = 0
∀t ∈ T
dove F : T × X0 × X1 × X2 × . . . Xk → Rp è una funzione assegnata (Xi ⊆ Rn è
l’insieme dove vogliamo vincolare la i−esima derivata della variabile di stato).
L’espressione sopra è chiamata Equazione Differenziale Ordinaria (in breve
EDO da adesso in poi) di ordine k (dato che coinvolge i valori delle derivate
fino all’ordine k). Il numero p rappresenta il numero di equazioni. Di solito,
quando p = 1 indicheremo F senza il grassetto (dato che il grassetto si usa
per indicare i vettori). Invece per p ≥ 2 useremo il simbolo F e parleremo di
Sistemi di equazioni differenziali.
Esempio 1.1.3. Prendiamo T = R, X = R. L’equazione
1
x(t) = tx00 (t)2 − t 3 x0 (t)3 + 1,
t∈R
è un’equazione differenziale di secondo ordine (k = 2, p = 1). Qui
1
F (t, x0 , x1 , x2 ) = x0 − tx22 + t 3 x31 − 1.
Prendiamo ora T = (0, +∞), X = R2 . Il sistema
0
x0 (t) = tx(t)3 − x00 (t)2 t + ey (t) ,
1
y(t) = ty 00 (t)2 − t 2 x(t)3 + 1,
t ∈ (0, +∞)
t ∈ (0, +∞)
è un sistema di 2 equazioni alle differenze di ordine 2 (k = p = 2) dove
F(t, x0 , x1 , x2 , y0 , y1 , y2 ) =
x1 −
tx30
1
x22
y1
3
+
− e , y0 − ty2 + t 2 x0 − 1 .
t
1.1 Prime definizioni ed esempi
9
Come per le ED un caso particolare più semplice (quando p = n) è quello in
cui è possibile riscrivere l’equazione sopra come:
x(k) (t) = f t, x (t) , x0 (t) , x00 (t) , ..., x(k−1) (t)
∀t ∈ T
per una funzione assegnata f : T × X0 × X1 × X2 × . . . Xk−1 → Rn . Tali
EDO sono chiamate EDO in forma normale. L’EDO è detta autonoma se F
(o, equivalentemente, f ) non dipende da t. Se invece lo è, l’EDO è detta non
autonoma. Come sopra useremo il grassetto per la funzione f solo quando
p ≥ 2.
Esempio 1.1.4. Prendiamo T = R, X = R, k = p = 1. L’equazione alle
differenze
x(t) = 3x0 (t) − 2, t ∈ R
è un’equazione differenziale di primo ordine che può essere scritta in forma
normale esplicitando x0 (t) in funzione di x(t) e ottenendo
1
1
x0 (t) = x(t) + ,
3
3
t ∈ R.
Invece l’equazione differenziale
x(t) = x0 (t)2 ,
t∈R
non si può scrivere in forma normale (ESERCIZIO: spiegare perché).
In questi casi parleremo di Sistemi Dinamici descritti da ED (o da EDO). Possiamo
anche dire che le ED assegnate (o le EDO) sono le rappresentazioni locali di un
Sistema Dinamico.
In entrambi i casi descritti sopra, quando il numero p delle equazioni è strettamente
maggiore di 1, talvolta si può parlare di “Sistemi di ED o di EDO”.
Da adesso in avanti, considereremo soltanto SD la cui legge di evoluzione è una ED
o EDO del primo ordine in forma normale:
x (t + 1) = g (t, x (t)) ,
x0 (t) = f (t, x (t)) ,
∀t ∈ T
∀t ∈ T.
Questa legge di evoluzione sarà accoppiata alla condizione x (t0 ) = x0 ∈ X. Di
solito, ma non sempre, t0 sarà il primo punto dell’insieme dei tempi T. Per questa
ragione, la condizione x (t0 ) = x0 è di solito chiamata “condizione iniziale”. Ma può
accadere che t0 sia il punto finale (o un qualsiasi altro punto) di T e buona parte
della teoria che svilupperemo funzionerà ugualmente. Specificheremo le differenze se
ce ne saranno.
10
Introduzione ai sistemi dinamici
Il risultato di questo accoppiamento sono i cosiddetti Problemi di Cauchy (in
breve PC da adesso in avanti):
x (t + 1) = g (t, x (t)) ,
∀t ∈ T
(1.1)
x (t0 ) = x0 ∈ X;
0
x (t) = f (t, x (t)) ,
∀t ∈ T
(1.2)
x (t0 ) = x0 ∈ X;
faremo loro riferimento come PC-ED e PC-EDO. Vedremo che sotto opportune ipotesi (che nei nostri esempi saranno quasi sempre verificate), la soluzione di tali problemi
di Cauchy esiste ed è unica (si veda il Capitolo 2). Per evidenziare la dipendenza di
tali soluzioni dal dato iniziale, le denoteremo
x (t; t0 , x0 )
o semplicemente x (t; x0 ) quando t0 = 0 è fissato (talvolta, quando sarà chiaro dal
contesto, scriveremo semplicemente x (t)).
Diamo ora alcune definizioni che saranno utili più avanti:
• l’immagine della funzione x (·; t0 , x0 ) cioè l’insieme C = {x (t; t0 , x0 ) , t ∈ T} è
chiamato l’orbita (del SD) associata al dato iniziale (t0 , x0 ). Si tratta di un
sottoinsieme di Rn .
• La famiglia delle curve integrali del SD è la famiglia delle curve
x (t; t0 , x0 ) , t0 ∈ T, x0 ∈ X .
Spesso t0 è fissato una volta per tutte e allora la famiglia delle curve integrali del SD è la famiglia delle curve {x (t; t0 , x0 ) , x0 ∈ X}. Le curve integrali
sono spesso anche chiamate traiettorie del SD. Ogni curva integrale è un
sottoinsieme di T × Rn .
• Un punto x0 ∈ X tale che per ogni t e t0 la funzione costante x (t; t0 , x0 ) = x0
è una soluzione del problema di Cauchy (1.1) o (1.2) è chiamato punto di
equilibrio.
1.1.2
Alcune osservazioni utili
Osservazione 1.1.5. Osserviamo che, per dare senso ad un PC-ED come (1.1)
abbiamo solo bisogno di richiedere che x (t) ∈ X, mentre, per dare senso ad un PCEDO come (1.2), bisogna richiedere che la funzione x (·) sia differenziabile in ogni
punto t ∈ T. Ciò significa che lo studio di equazioni differenziali ordinarie richiede
in generale più ipotesi di regolarità sulle funzioni coinvolte.
Osservazione 1.1.6. Una volta che sappiamo come studiare una ED od una EDO
del primo ordine in forma normale, risulta molto semplice trattare ED o EDO del
k-esimo ordine in forma normale. Infatti ogni ED o EDO del k-esimo ordine in
1.1 Prime definizioni ed esempi
11
forma normale è equivalente ad una ED o EDO del primo ordine in forma normale
con kn variabili.
Per verificarlo nel caso di una EDO con n = 1, consideriamo una qualsiasi EDO di
ordine k > 1 scritta in forma normale
x(k) (t) = f t, x (t) , x0 (t) , x00 (t) , ..., x(k−1) (t)
∀t ∈ T
(1.3)
dove f : T × X0 × . . . × Xk−1 → R (Xi ⊆ R). Consideriamo ora la funzione
y : T → Rk
definita come
y1 (t) = x (t)
y2 (t) = x0 (t)
y3 (t) = x00 (t)
..
.
yk−1 (t) = x(k−2) (t)
yk (t) = x(k−1) (t) .
E’ evidente che, se x : T → R è k-volte differenziabile ed è soluzione di (1.3), allora
l’applicazione y : T → Rk è ben definita, differenziabile e soddisfa, ∀t ∈ T:

y10 (t) = x0 (t) = y2 (t)




y20 (t) = x00 (t) = y3 (t)


..
.


(k−1) (t) = y (t)
0

(t)
=
x
y

k
k−1

 0
yk (t) = x(k+1) (t) = f t, x (t) , x0 (t) , x00 (t) , ..., x(k−1) (t)
così y è una soluzione della seguente EDO del primo ordine:
y0 (t) = h (t, y (t))
dove X = X0 × . . . × Xk−1 e
h : T × X → Rk




h (t, y) = 


y2
y3
..
.
yk
f (t, y1 , y2 , y3 , ..., yk−1 , yk )




.


Il caso n > 1 è completamente analogo. Si veda ad esempio [23, pp.274-275].
Osservazione 1.1.7. Nei modelli e nelle applicazioni che vedremo, l’obiettivo principale sarà lo studio delle proprietà delle traiettorie di stato. Prima di intraprendere
questo studio però, abbiamo bisogno di sapere che le soluzioni di PC-ED come (1.1)
12
Introduzione ai sistemi dinamici
(e/o di PC-EDO come (1.2)) esistano e che possibilmente siano uniche. La mancanza di esistenza od unicità per qualche dato iniziale x0 ∈ X è di solito qualcosa che
non auspichiamo in un modello: vorrebbe dire che la funzione di stato non esiste,
oppure che partendo dallo stesso punto iniziale sono possibili molteplici evoluzioni.
Questa è la ragione per cui prima di tutto (dopo gli esempi) cercheremo di stabilire
alcuni risultati di esistenza ed unicità delle soluzioni. Nel capitolo 2, Sezione 2.1 e
2.4 rispettivamente, daremo un insieme di condizioni che garantiscano esistenza ed
unicità delle soluzioni.
1.2
1.2.1
Esempi
L’evoluzione di un deposito in banca
Se un certo capitale C > 0 è affidato ad un deposito bancario all’istante t = 0, allora
il suo valore verrà incrementato grazie ai tassi di interesse (ove previsti2 ) pagati
dalla banca. Consideriamo il modello a tempi discreti misurando il tempo in anni.
Scegliamo come variabile di stato x (t) che rappresenta l’ammontare del capitale nel
deposito durante l’anno t ∈ N. Sia r (t) il tasso di interesse annuale relativo all’anno t
(i.e. il tasso di interesse applicato nel periodo (t, t + 1)) e assumiamo che non ci siano
altri fattori che possano influenzare l’andamento di x (t). Allora x deve soddisfare il
seguente PC-ED
x (t + 1) = (1 + r (t)) x (t) , ∀t ∈ N;
(1.4)
x (0) = C.
Si può ottenere euristicamente un modello analogo a tempi continui, nel modo
seguente. Assumiamo sempre che il tempo venga misurato in anni ma in più ora
vogliamo conoscere il valore del capitale x (t) non solo per t ∈ N ma anche per
t ∈ (∆t) N per un “piccolo” ∆t > 0 assegnato.3 Ciò significa che il PC-ED (1.4)
diventa
x (t + ∆t) = (1 + r∆t (t)) x (t) , ∀t ∈ (∆t) N;
x (0) = C,
dove adesso r∆t (t) è il tasso di interesse applicato durante il periodo (t, t + ∆t).
L’equazione alle differenze sopra può quindi essere riscritta come
x (t + ∆t) − x (t) = r∆t (t) x (t) ,
∀t ∈ (∆t) N,
e dividendo per ∆t, otteniamo
x (t + ∆t) − x (t)
r∆t (t)
=
x (t) ,
∆t
∆t
2
∀t ∈ (∆t) N.
(1.5)
Per un’agile e utile introduzione all’argomento si suggerisce di consultare il libro “Banca
Bassotti” di G. Cloza, Editore: Stampa Alternativa, 2001.
3
Questo significa che siamo interessati a conoscere il valore di x al tempo
0, ∆t, 2∆t, 3∆t, . . . , n∆t, . . ., i.e. ai multipli di un’unità di tempo assegnata ∆t. Prendendo
∆t sempre più piccolo (mesi, giorni, ore, secondi, e così via) ci avviciniamo sempre di più ad un
modello a tempi continui.
1.2 Esempi
13
Adesso possiamo, informalmente, mandando ∆t a 0, passare ad un modello a tempi
continui. Naturalmente il passaggio al limite richiederebbe sapere che tale limite
esiste, ma ciò non è ovvio a priori. Non entriamo nei dettagli del problema e andiamo
avanti semplicemente, assumendo che “ogni cosa funzioni” nel calcolo del limite. Il
termine a destra tende a x0 (t). In quello a sinistra, assumiamo (ed è ragionevole nel
(t)
modello) che la quantità r∆t
∆t , quando ∆t → 0, abbia un limite: il cosiddetto tasso
di interesse istantaneo al tempo t che chiamiamo δ (t). Allora il limite della (1.5)
quando ∆t → 0 è (aggiungendo la condizione iniziale):
0
x (t) = δ (t) x (t) ∀t ∈ R+ ;
(1.6)
x(0) = C.
Osserviamo che questo è un possibile analogo a tempi continui del modello (1.4) ma
non è l’unico. Informalmente parlando, possiamo dire che questo è il più intuitivo.
In questo caso, la relazione tra r e δ (il tasso di interesse a tempi discreti e continui
rispettivamente) può essere ottenuta, nel caso siano costanti, calcolando le soluzioni
dei due PC (1.4) e (1.6), (1 + r)t e eδt rispettivamente, e ponendole uguali per t ∈ N.
Ne segue che deve essere δ = ln (1 + r)).
Naturalmente, il tasso di interesse può variare nel tempo e può anche dipendere
dall’ammontare di capitale, così a tempi discreti si ha:
x (t + 1) = (1 + r (t, x (t))) x (t) ,
x (0) = C,
o a tempi continui,
x0 (t) = δ (t, x (t)) x (t)
x (0) = C.
Inoltre, possiamo pensare al caso in cui ci siano prelevamenti periodici nel conto. A
tempi discreti, questo porta ad una ED del tipo
x (t + 1) = (1 + r (t)) x (t) − k (t) ,
∀t ∈ N;
dove k (t) è una funzione assegnata che esprime il prelevamento al tempo t. Naturalmente i prelevamenti possono avere diversa periodicità a seconda dell’unità di
misura del tempo assegnata. Per esempio possiamo decidere di contare il tempo
in mesi e avere prelevamenti ogni 3 mesi. Assumendo che tali prelevamenti siano
costanti (uguali a k0 > 0) avremmo
k0 ,
se t ∈ 3N
k (t) =
0,
otherwise.
Si osservi che trovare un modello a tempi continui equivalente a questo è un compito
difficile.
1.2.2
Modelli di crescita della popolazione e di marketing
Sia x (t) la popolazione di una data specie in un certo ambiente al tempo t. Un
metodo classico di modellizzare la dinamica della popolazione è la cosiddetta legge
14
Introduzione ai sistemi dinamici
di Malthus, in base alla quale l’incremento della popolazione nell’unità di tempo è
proporzionale alla popolazione attraverso una costante a > 0 che rappresenta il tasso
di crescita per unità di tempo (i.e. la quantità ∆x
x ). In questo modo si ha il seguente
modello a tempi discreti
x (t + 1) − x (t) = ax (t) ;
x (0) = x0 .
Un analogo a tempi continui si trova come nell’esempio precedente, scrivendo:
x0 (t) = bx (t) ;
x (0) = x0 ,
dove b ha un significato diverso da a, dato che rappresenta il tasso istantaneo di
0
crescita (i.e. la quantità xx ). La relazione tra a e b è come quella trovata tra r e δ
nell’esempio precedente.
Un’altra possibilità più realistica è quella di assegnare (oltre la crescita descritta
sopra) un livello di saturazione M per la popolazione (il massimo numero di persone
che possono vivere in un dato ambiente, considerando cibo, risorse naturali, acqua,
aria, ecc.) nel modo seguente:
x (t + 1) − x (t) = ax (t) (M − x (t)) ;
x (0) = x0
per un modello a tempi discreti o
x0 (t) = bx (t) (M − x (t)) ;
x (0) = x0
per un modello a tempi continui. Queste sono chiamate equazioni logistiche (Verhulst
le ha introdotte nel 1845). Lo studio del caso a tempi discreti è molto più complicato
dato che porta a dinamiche complesse e caos, si veda e.g. [23, pp.363-368] and [21,
pp.505-512].
Questi due modelli possono essere visti come modelli di marketing dove x (t) rappresenta il numero di clienti di una data azienda al tempo t. Per commenti su questi
modelli di marketing si veda [14, p.71-74].
Un modello più generale che include quelli precedentemente descritti può essere
scritto nel modo seguente (a tempi discreti):
x (t + 1) − x (t) = F (x (t)) − H (t) ;
x (0) = x0
(1.7)
dove F (x) è la funzione di crescita della popolazione (la differenza tra nascita e
morte) e H è una harvesting function (funzione di “raccolta”): H (t) rappresenta il
numero di individui che escono dal sistema nel periodo tra t e t + 1. La funzione
F è di solito scritta come F (x) = xR (x) dove R (x) è il tasso di crescita della
popolazione. Nel caso di Malthus R è costante. Nel caso logistico R è decrescente
affine. In generale, si possono verificare differenti comportamenti. Per un maggiore
approfondimento, si veda e.g. [8]. Nel modellizzare la popolazione dei pesci (ma
anche bovini o altri animali) la funzione H è assegnata dall’industria della pesca.
Il PC-ED (1.7) è anche usato per modellizzare l’evoluzione di uno stock di risorse
rinnovabili, si veda e.g. [8].
1.2 Esempi
1.2.3
15
Modello preda-predatore (Lotka - Volterra)
E’ un modello semplice a tempi continui che descrive l’evoluzione nel tempo di due
specie che interagiscono tra loro: la preda ed il predatore. Si tratta di un modello che
risolve il problema di sopravvivenza tra due specie diverse di animali, una delle quali
deve cibarsi dell’altra per sopravvivere. Chiamiamo x1 (t) il numero (medio) delle
prede al tempo t e x2 (t) il numero (medio) dei predatori al tempo t. Le equazioni
che modellizzano l’evoluzione sono:
 0
 x1 (t) = x1 (t) (A − Bx1 (t)) , x1 (0) = x10 ;
(1.8)
 0
x2 (t) = x2 (t) (−C + Dx2 (t)) , x2 (0) = x20 .
Questo rappresenta un modello semplice di tali interazioni e fu proposto dagli studiosi
Lotka and Volterra. Per una spiegazione più dettagliata si veda [43, pp.443-445]. Si
tratta di un modello non lineare che è stato ampiamente studiato in letteratura. Per
una trattazione approfondita si possono consultare [23, pp. 278-283] o [43, Sections
15.5, 15.6], oppure [21, Section 24.4]. Ricordiamo che le equazioni (1.8) sono state
impiegate da Goodwin per costruire il ben noto modello del ciclo di crescita di Goodwin (si consulti [21, pp.458-464]).
Un altro esempio di modello dinamico della popolazione è il modello di Leslie, si
veda [43, pp.354-356].
1.2.4
Modello di crescita di Solow
Si consideri un’economia chiusa dove ogni agente possiede una quantità k0 di capitale
al tempo t = 0. La quantità pro capite di capitale cambia al variare del tempo e si
assume che la sua evoluzione dipenda dalla produzione pro capite fP (k), dal tasso
di crescita della popolazione δ e dal consumo c(t), nel modo seguente:
k (t + 1) − k (t) = fP (k (t)) − δk (t) − c (t) ;
k (0) = k0
a tempi discreti, e
k 0 (t) = fP (k (t)) − δk (t) − c (t) ;
k (0) = k0
a tempi continui. Qui fP : [0, +∞) → [0, +∞) rappresenta la cosiddetta funzione di
produzione pro capite e si assume che soddisfi le seguenti condizioni:
fP ∈ C 2 ((0, +∞) ; R) ,
fP0 > 0,
fP (0) = 0,
fP0
(0) = +∞,
fP00 < 0,
fP (+∞) = +∞,
fP0 (+∞) = 0.
Un esempio è fP (k) = k α per un certo α ∈ (0, 1). Inoltre la funzione c rappresenta
la politica di consumo dell’agente economico. Ci sono differenti modi per sceglierla.
16
Introduzione ai sistemi dinamici
Una possibilità è quella di sceglierla in base ad un modello di ottimizzazione, i.e.
scegliere la traiettoria c che massimizza un funzionale assegnato (si veda un corso
di ottimizzazione dinamica per avere un’idea). Un’altra possibilità più semplice è di
sceglierla in base ad una feedback rule assegnata, i.e. scegliere c(t) come una funzione
assegnata del capitale al tempo t. Una scelta ben nota è (modello di Solow)
c (t) = (1 − s) fP (k (t)) ,
dove s ∈ (0, 1) è il tasso di risparmio (i.e. la proporzione di produzione che non è
stata impiegata per il consumo). In questo secondo caso, si ha
k (t + 1) − k (t) = sfP (k (t)) − δk (t) ;
k (0) = k0
a tempi discreti e
k 0 (t) = sfP (k (t)) − δk (t) ;
k (0) = k0
(1.9)
a tempi continui. Per uno studio approfondito del modello, si veda e.g. [5, Ch. 2]
oppure [21, Sezioni 13.2 and 24.2.3]).
1.2.5
Mercato competitivo
Questo esempio è tratto da [14, p.74-77]. Qui delineiamo il modello riferendoci a quel
libro per una descrizione più completa. Consideriamo un mercato con n individui
che competono dividendosi l’intero mercato (e.g. gestori di compagnie telefoniche).
Chiamiamo
Pn x (t) il vettore delle quote di mercato per ciascuna compagnia così da
avere
i=1 xi (t) = 1, per ogni t ≥ 0. Chiamiamo poi A la matrice n × n dei
coefficienti di transizione (aij è la porzione di clienti della j-esima compagnia che
passerà alla compagnia i nel prossimo periodo). Si assume che A sia costante. Per
costruzione si ha:
n
X
aij = 1, ∀j = 1, ..., n.
i=1
Allora il vettore x (t) soddisfa il PC-ED omogeneo a tempi discreti
x (t + 1) = Ax (t) ;
x (0) = x0 ,
dove x0 rappresenta la distribuzione iniziale delle quote di mercato. Un analogo a
tempi continui del modello a tempi discreti è
x0 (t) = (A − I) x (t) ;
x (0) = x0 .
Un modello simile utilizzato per descrivere l’aumento o la diminuzione del numero di
auto in una città (od in uno stato, o qualsiasi altro luogo) è discusso in [14, p.74-77].
Lo stesso tipo di modello può essere usato per descrivere il cammino di una
navigatore casuale (il cosiddetto random surfer) sul grafo delle pagine web. Questa
interpretazione sta alla base degli algoritmi moderni usati dai motori di ricerca.
1.3 Una definizione formale di sistema dinamico
1.2.6
17
Gestione (Management) di produzione
Si consideri un’azienda che fa scorte di beni utilizzati per la produzione in un certo
deposito (“storehouse”). Se ci sono ad esempio n beni, le loro quantità possono essere
rappresentate da un vettore x = (x1 , ..., xn ) ∈ Rn . Naturalmente, queste quantità
varieranno nel tempo conseguentemente a:
• il loro utilizzo nella produzione (-);
• l’arrivo di nuovi stocks comprati dall’azienda (+);
• altri eventi attesi od inattesi (declini, furti, incendi, donazioni,...) (+ o -).
Allora è chiaro che il problema di gestire il magazzino è un problema dinamico.
Il vettore x rappresenta lo stato del sistema “storehouse”. Dipende dal tempo e
può essere scritto come x (t), dove t appartiene ad un certo insieme di tempi che
indicheremo con T. Un primo tentativo di modellizzare tale comportamento dinamico
può essere il seguente:
x (t + 1) = −B (t) + A (t, x (t)) + N (t, x (t)) ;
x (0) = x0 ,
dove B è una funzione positiva del tempo che fornisce la quantità utilizzata per
la produzione ad ogni periodo t (si potrebbe pensare che non dipenda da t, dato
che effettivamente la produzione non dovrebbe essere condizionata dalle quantità
immagazzinate). Qui A è una funzione positiva che fornisce le quantità comprate
dall’azienda nel periodo t; dipende anche da x, ritenendo ragionevole che l’azienda
osservi le quantità immagazzinate per decidere quanta merce comprare. Per concludere, N è una quantità aleatoria che rappresenta tutti i cambiamenti inaspettati
(che possono dipendere o non dipendere da x).
Esercizio 1.2.1. Si discuta la formulazione del problema appena illustrato, si presenti una possibile alternativa ed un modello a tempi continui commentandolo.
1.3
Una definizione formale di sistema dinamico
Ci occupiamo ora di dare una definizione formale di sistema dinamico che possa
favorire una comprensione più profonda di questo oggetto matematico e delle sue
applicazioni. Partiamo con una prima definizione.
Definizione 1.3.1. Un sistema dinamico è dato da un insieme X, (l’insieme degli
stati, di solito chiamato lo spazio delle fasi) un insieme T (l’insieme dei tempi), un
insieme di traiettorie {x (·; t0 , x0 )}(t0 ,x0 )∈T×X , che soddisfano le seguenti proprietà:
1. ∀ (t0 , x0 ) ∈ T × X si ha x (t0 ; t0 , x0 ) = x0 ;
2. ∀ (t0 , x0 ) ∈ T × X si ha x (·; t0 , x0 ) : T → X;
18
Introduzione ai sistemi dinamici
3. ∀x0 ∈ X and t0 , t1 , t2 ∈ T si ha
x (t2 ; t0 , x0 ) = x (t2 ; t1 , x (t1 ; t0 , x0 ))
L’idea che si nasconde dietro la definizione appena enunciata è la seguente. Un sistema dinamico è sostanzialmente dato dall’insieme di tutte le traiettorie della variabile di stato x, al variare del dato iniziale (o finale, o un qualsiasi altro) x0 . Sono assegnati un insieme di tempi possibili T ed un insieme di stati possibili X. Pensando a
quanto visto nella Sezione 1.1, possiamo dire euristicamente che {x (·; x0 )}(t0 ,x0 )∈T×X
corrisponde all’insieme delle soluzioni dei problemi di Cauchy (1.1) o (1.2) quando
(t0 , x0 ) varia in T × X.
Osservazione 1.3.2. Le tre proprietà sopra elencate richiedono coerenza tra il sistema dinamico e l’insieme di soluzioni dei problemi di Cauchy. Le prime due sono
abbastanza chiare, dato che stabiliscono la condizione iniziale ed il fatto che tutte le
traiettorie sono definite in T con valori in X. La terza proprietà è probabilmente è a
prima vista un po’ più oscura: sostanzialmente, dice che la seconda parte di una traiettoria, che parte da un determinato punto, può essere vista come un punto diverso
spostato nel tempo. Corrisponde alle proprietà di esistenza ed unicità che vedremo
nel prossimo capitolo.
Esaminiamo ora il caso autonomo.
Definizione 1.3.3. Un sistema dinamico autonomo è dato da un insieme X, (l’insieme degli stati, di solito chiamato lo spazio di fase) un insieme T (l’insieme dei
tempi), un istante t0 ∈ T, un insieme di traiettorie {x (·; x0 )}x0 ∈X , che soddisfano
le seguenti proprietà:
1. ∀x0 ∈ X si ha x (t0 ; x0 ) = x0 ;
2. ∀x0 ∈ X si ha x (·; x0 ) : T → X;
3. ∀x0 ∈ X and t1 , t2 ∈ T tale che t1 + t2 ∈ T si ha
x (t1 + t2 ; x0 ) = x (t2 ; x (t1 ; x0 ))
La differenza tra l’ultima definizione data e quella generale è la seguente. In questo
caso l’istante iniziale (o finale, o un qualsiasi altro) t0 è fissato una volta per tutte
mentre lo stato iniziale x0 varia in X. Sostanzialmente questo è dovuto al fatto che
nel caso autonomo, identificare lo stato richiede solo di conoscere il punto iniziale
e la distanza dal tempo iniziale. Questo non succede nel caso non autonomo dove
anche l’istante iniziale deve essere noto.
Pensando a quanto visto nella sezione 1.1, possiamo dire euristicamente che {x (·; x0 )}x0 ∈X
corrisponde all’insieme delle soluzioni dei problemi di Cauchy (1.1) o (1.2), quando
t0 è fissato e facciamo variare x0 in X.
Un istante iniziale (o finale , o un qualsiasi altro) t0 è fissato così come lo spazio degli
stati X.
1.3 Una definizione formale di sistema dinamico
Un altro modo di guardare un sistema dinamico autonomo è il seguente (per brevità,
tralasciamo la discussione del caso non autonomo). Invece di concentrarsi sulle traiettorie di stato che variano con il tempo, si potrebbe pensare di focalizzare l’attenzione
sulle applicazioni φt : X → X, definite per ogni t ∈ T come segue :
φt (x0 ) = x (t; t0 , x0 ) .
L’idea è che per ogni τ ∈ T, un sistema dinamico induce una trasformazione dello
spazio degli stati X in se stesso, ovvero la mappa φt . Studiare le proprietà di tali
mappe è sostanzialmente equivalente a studiare le proprietà delle traiettorie, ma con
un diverso punto di vista.
Dal punto di vista economico, possiamo pensare all’esempio seguente: si considerino
un istante iniziale e vari agenti corrispondenti a varie condizioni iniziali; la mappa
φt dice dove sono gli agenti al tempo t, ed in questo modo fornisce un’immagine
globale di un sistema complesso ad un certo istante. La singola traiettoria descrive
l’evoluzione di un singolo agente. La seguente definizione (si veda e.g. [23, p.378])
mette in luce questa importante caratteristica.
Definizione 1.3.4. Un sistema dinamico autonomo è dato da un insieme X (l’insieme degli stati, di solito chiamato lo spazio
di
fase) un insieme T (l’insieme dei
tempi), un insieme di mappe di evoluzione φt t∈T , che soddisfano le seguenti proprietà:
1. φ0 = IdX (assumendo che t = 0 è il primo punto di T ).
2. φt : X → X, ∀t ∈ T
3. φt+s = φt ◦ φs , ∀t, s ∈ T tale che t + s ∈ T .
Le mappe φt sono oggetti matematici che descrivono l’evoluzione dinamica del sistema; la mappa φt porta il valore dello stato iniziale x (0) nel valore dello stato x (t)
al tempo t, che corrisponde al valore iniziale assegnato. Valori iniziali diversi portano
in generale a diversi valori al tempo t.
Si osservi che con questa definizione di sistema dinamico, data una qualsiasi condizione iniziale la traiettoria seguita dal sistema è data da x (t; x0 ) = φt (x0 ), con
t ∈ T.
Inoltre, l’immagine di questa
t traiettoria
sarà chiamata orbita associata a x0 e sarà
indicata da Or (x0 ) = φ (x0 ) , t ∈ T ⊆ X. Se l’orbita associata a x0 è costante,
i.e. se φt (x0 ) = x0 , ∀t ∈ T, allora x0 è detto punto di equilibrio del sistema
dinamico.
Osservazione 1.3.5. If we consider a Cauchy problem with t0 = 0 and initial datum
x0 belonging to a given set X then we are giving a dynamical system where
φt (x0 ) = x (t; 0, x0 ) .
19
20
Introduzione ai sistemi dinamici
It is easy to see that the property 1 obviously holds. Property 2 holds if and only if
we know that the solution of the CP-DE (and/or CP-ODE) exists (and is global) for
every initial datum x0 ∈ X. Property 3 holds if and only if we have that
x (t + s; 0, x0 ) = x (t; s; x (s; 0, x0 )) .
This property is called the semigroup property of the solutions and is equivalent to
the uniqueness property for any initial time and state. Roughly speaking we may say
that if a CP-DE (and/or CP-ODE) features general existence and uniqueness then
it represents a dynamical system.
1.3.1
Tempo discreto o tempo continuo? Qualche spunto di riflessione
Nell’esempio 1.2.1 abbiamo descritto una procedura euristica per trovare un analogo a tempo continuo di un modello a tempo discreto. Seguendo questa procedura
possiamo associare (nel caso n = 1) al modello a tempo discreto:
x (t + 1) = g (t, x (t))
il modello a tempo continuo:
x0 (t) = g (t, x (t)) − x (t) .
Viceversa possiamo associare al modello a tempo continuo:
x0 (t) = f (t, x (t))
il modello a tempo discreto
x (t + 1) = f (t, x (t)) + x (t) .
Tuttavia non è questo l’unico modo di associare tra loro modelli a tempo discreto
e continuo (si vedano ad esempio i metodi di approssimazione dele EDO spiegati
nelle dispense della prof. Giulia Rotundo). Inoltre un modello a tempo discreto ed
il suo analogo a tempo continuo (per esempio con l’associazione fatta sopra) non
hanno necessariamente lo stesso comportamento. Il caso dell’equazione logistica è
un tipico esempio di questa possibile differenza (si veda ad esempio [21]). Possiamo
quindi dire che, dato un problema applicato, la sua modellizzazione a tempo discreto
e quella a tempo continuo sono due approcci differenti che possono portare a risultati
completamente diversi.
La scelta tra le due scale di tempo dipende da molti fattori, non ultimo la natura
stessa del problema, ed è difficile fare una teoria rigorosa su questo. Qui cerchiamo di puntualizzare alcune semplici cose (si veda il libro [21] per una discussione
approfondita in merito):
1.3 Una definizione formale di sistema dinamico
• i modelli a tempo discreto danno origini e dinamiche più complesse (ad esempio i modelli di EDO autonome hanno sempre soluzioni monotone mentre
le soluzioni di ED autonome possono avere comportamenti oscillanti fino ad
esibire comportamenti caotici);
• i modelli a tempo continuo di solito richiedono strumenti teorici e di calcolo
più raffinati (ad esempio nella teoria di esistenza e unicità);
• Alcuni problemi reali si modellizzano meglio a tempo discreto ed altri a tempo
continuo;
• I motivi per usare tempo continuo o tempo discreto dipendono anche dalle
conoscenze tecniche di chi studia il modello.
21
22
Introduzione ai sistemi dinamici
Capitolo 2
Esistenza ed unicità delle soluzioni
In questo capitolo daremo la definizione di soluzione di equazioni alle differenze (ED)
ed equazioni differenziali ordinarie (EDO) e per i problemi di Cauchy (PC) associati.
Vedremo anche i risultati fondamentali di esistenza ed unicità delle soluzioni che
forniranno una base per l’intera teoria sui sistemi dinamici.
Iniziamo con il caso a tempi discreti che è molto semplice. Poi studieremo il caso a
tempi continui che richiede maggiore attenzione.
2.1
Il caso a tempi discreti
Prima di tutto introduciamo il modello di base.
• X è un sottoinsieme assegnato di Rn ;
• assegnati gli istanti iniziale e finale −∞ ≤ T0 ≤ T ≤ +∞, poniamo T =
[T0 , T ] ∩ Z, dato che siamo nel caso a tempi discreti;
• la funzione g (chiamata dinamica ) è definita da T × X → Rn .
Partiamo con la definizione di soluzione globale, che è quella che si cerca solitamente.
Definizione 2.1.1. Una funzione x : T → X è una soluzione globale dell’ED
x (t + 1) = g (t, x (t)) ,
∀t ∈ T
(2.1)
se soddisfa (2.1), i.e. l’equazione x (t + 1) = g (t, x (t)) per ogni t ∈ T.
È abbastanza chiaro che le soluzioni di (2.1), se esistono, in generale non sono uniche.
Infatti la semplice ED
x (t + 1) = x (t) ,
∀t ∈ T
ha infinite soluzioni: le costanti. Ciò è dovuto al fatto che la condizione non è stata
specificata. Così il problema naturale che consideriamo nei modelli applicati e che
caratterizza “in modo naturale” esistenza ed unicità è il problema di Cauchy come
(1.1). Enunciamo ora la definizione di soluzione di problema di Cauchy in questo
contesto.
23
24
Esistenza ed unicità delle soluzioni
Definizione 2.1.2. Una funzione x : T → X è una soluzione globale del PC-ED
x (t + 1) = g (t, x (t))
∀t ∈ T
x (t0 ) = x0
t0 ∈ T, x0 ∈ X
(2.2)
se soddisfa (2.2), i.e. l’equazione x (t + 1) = g (t, x (t)) per ogni t ∈ T e la condizione
iniziale x (t0 ) = x0 .
2.1.1
Soluzioni locali
In molti casi esistono soluzioni ma non sono definite su tutto l’insieme T. In questo
caso non possiamo dire che esiste una soluzione globale nel senso della Definizione
2.1.2, dato che non è pienamente soddisfatta. Questo fenomeno succede maggiormente a tempi continui (si veda la sezione 2.2.1). Per questa ragione introduciamo il
concetto di soluzione locale. Iniziamo da un esempio nel caso unidimensionale dove
una soluzione globale non esiste.
Esempio 2.1.3. (n = 1, T = N, X = [0, +∞)) Il PC-ED
x (t + 1) = −2 +
p
x (t),
t∈N
x (0) = 4
non ammette una soluzione globale. Infatti otteniamo con una semplice iterazione,
x (0) = 4,
p
x (0) = 0,
p
x (2) = −2 + x (1) = −2,
p
x (3) = −2 + x (2) non definita in R.
x (1) = −2 +
La soluzione c’è ma si ferma al tempo t = 2 quindi non è globale. Diamo la definizione
di soluzione locale per un PC-ED ma una simile può essere data per una ED. Evidenziamo il fatto che questo concetto è molto più importante nel caso a tempi continui,
come vedremo nella prossima sezione.
Definizione 2.1.4. Il problema di Cauchy (2.2) ammette una soluzione locale se
esiste un intorno di t0 , che indichiamo con J (t0 ), contenente almeno un elemento
t1 ∈ T, t1 6= t0 , e una funzione x : J (t0 ) → X tale che x soddisfi
x0 (t) = g (t, x (t)) ,
∀t ∈ J (t0 ) ∩ T
x (t0 ) = x0 .
Tale funzione x è chiamata una soluzione locale di (2.2). Se prendiamo J come
intorno destro (o sinistro) di t0 , allora parliamo di soluzione locale a destra o a
sinistra.
2.1 Il caso a tempi discreti
2.1.2
25
Esistenza ed unicità globale
Passiamo ora allo studio di esistenza ed unicità per problemi di Cauchy come (2.2).
Ciò che vedremo implicherà automaticamente risultati per le equazioni alle differenze.
Assumiamo che t0 sia il primo1 punto di T. In questo caso, il PC-ED fornisce un
algoritmo per calcolare la soluzione ricorsivamente. (sia t = t0 per semplicità):
x (0) = x0 ,
x (1) = g (0, x (0)) ,
x (2) = g (1, x (1)) , ...
e così via. Questo algoritmo permette di calcolare la soluzione in un numero finito
di passi se T < +∞, altrimenti fornisce solo un modo di definire induttivamente
la soluzione. L’algoritmo non genera una soluzione soltanto se ad un certo punto
g (t, x (t)) non è ben definito. Questo succede nell’esempio 2.1.3 visto sopra e negli
esempi seguenti.
Esempio 2.1.5. (n = 1, T = N, X = (0, +∞))
x (t + 1) = −2 + ln x (t) ,
t∈N
x (0) = e.
Otteniamo
x (0) = 4,
x (1) = −2 + ln x (0) = −1,
x (2) = −2 + ln x (1) ,
non definita in R.
Esempio 2.1.6. (n = 1, T = N, X = [0, +∞))
p
x (t + 1) = 2x (t) − x (t),
1
x (0) =
,
3
t∈N
dove si ha
x (0) =
1
,
3
x (2) = 2
r
2
1
x (1) = −
,
3
3
s
r !
r
2
1
2
1
−
−
−
< 0,
3
3
3
3
x (3) = non definita in R.
Abbiamo il risultato seguente, la cui dimostrazione si fa semplicemente per induzione.
Osserviamo che, se t0 non è il primo istante di T, allora l’algoritmo per trovare una soluzione
può dare solo valori per t > t0 . Per t < t0 , si dovrebbe andare nell’altra direzione. Per
dare una spiegazione, facciamo un passo in più. Consideriamo l’ED per t = t0 − 1 ottenendo
x (t0 ) = g (t0 − 1, x (t0 − 1)). Poi cerchiamo di trovare x (t0 − 1) da questa equazione, se possibile.
Naturalmente, questo algoritmo all’indietro potrebbe rivelarsi molto più complesso dell’algoritmo in
avanti descritto nel testo e potrebbe non essere risolvibile. Basta pensare al caso g(t, x) = g(x) = x2 .
1
26
Esistenza ed unicità delle soluzioni
Teorema 2.1.7. Dati T ⊆ N, X ⊆ Rn , g : T ×X → Rn , x0 ∈ X, la soluzione globale
di (2.2) esiste ed è unica se e solo se la successione {x (t)}t∈T definita ricorsivamente
da
x (0) = x0 ,
x (1) = g (0, x (0)) , ..........x (t + 1) = g (t, x (t)) , ....
è ben definita per ogni t ∈ T.
Se g : T × X → X, allora la soluzione di (2.2) esiste ed è unica per ogni dato
iniziale x0 ∈ X.
Esercizio 2.1.8. Nell’Esempio 2.1.5: dimostrare che per ogni dato iniziale x (0) ≥ 0
esiste un istante t tale che x (t) < 0, cosi che la soluzione non è mai definita per
tutti i t ∈ N a prescindere dalla condizione iniziale.
Esercizio 2.1.9. Nell’Esempio 2.1.6: provare, senza l’aiuto di un calcolatore, che
x (2) < 0. Inoltre provare che se x (0) ≥ 1 allora la soluzione globale è ben definita
ed è strettamente crescente. Cosa possiamo dire per x(0) < 1?
Esercizio 2.1.10. Trovare, al variare di x0 ∈ R la soluzione del PC-ED
x(t + 1) = x(t)2
x(0) = x0
.
Osservazione 2.1.11. Per quanto riguarda l’esistenza, i punti dove g (t, x0 ) = x0
per ogni t ∈ T sono punti speciali. Infatti, se il sistema parte da questi punti, allora
esiste sempre un’unica soluzione costante x (t, x0 ) = x0 per ogni t ∈ T. Questi punti
sono chiamati punti di equilibrio. Anche se non esistono soluzioni che partono da
altri punti, sicuramente esistono soluzioni che partono da punti di equilibrio.
2.2
Esercizi
Sia n = 1. Nel seguito l’insieme degli stati, se non specificato, sarà X = R.
Esercizio 1. Consideriamo i seguenti PC-ED:
x(t + 1) = −2 + 4x(t)
x1 (t) = 31 4t + 32
a)
x(0) = 1
x2 (t) = 13 2t + 32
x(t + 1) = 2x(t) + t
x1 (t) = t + 1
b)
x(0) = 1
x2 (t) = 2 · 2t − t − 1
1. Scrivere le dinamiche g;
2. Discutere esistenza e unicità delle soluzioni, scrivendo esplicitamente i valori
della soluzione per t = 1, 2, 3;
3. Controllare se le funzioni sulla destra di ogni PC-ED sono soluzioni di esso.
2.3 Soluzioni
2.3
27
Soluzioni
Esercizio 1.
a.1) Suggerimento : Usare il secondo membro della ED. La dinamica g è la seguente:
g : N×R −→ R
(t, x) 7→ g(t, x) = −2 + 4x.
a.2) Per studiare l’esistenza e unicità della soluzione possiamo cercare di applicare il Teorema 2.1.7. Dato che X = R le ipotesi di tale teorema sono
automaticamente verificate. Calcoliamo ora x(1), x(2), x(3).
x(0) = 1
x(1) = −2 + 4x(0) = 2
x(2) = −2 + 4x(1) = −2 + 4(−2 + 4x(0)) = −10 + 16x(0) = 6
x(3) = −2 + 4x(2) = −2 + 4(−10 + 16x(0)) = −42 + 64x(0) = 22
...
a.3) Controlliamo se la funzione x1 (t) soddisfa il PC-ED. Per la ED si ha:
2
1
x1 (t + 1) = 4t+1 +
3
3
1 t 2
1
8
1
2
−2 + 4x1 (t) = −2 + 4
4 +
= 4t+1 + − 2 = 4t+1 + .
3
3
3
3
3
3
Inoltre
2
1 2
1
x1 (0) = 40 + = + = 1.
3
3
3 3
Quindi la funzione x1 (t) è una soluzione globale ed è unica per il Teorema 2.1.7.
Questo significa che x2 (t) non può essere soluzione.
b) Procedere come in a). Si vede che x2 (t) è l’unica soluzione del PC-ED b).
2.4
Il caso a tempi continui
In questa sezione estendiamo i concetti di esistenza ed unicità delle soluzioni introdotti precedentemente, al caso a tempi continui.
Qui il modello di base è il seguente:
• X è un sottoinsieme assegnato di Rn ;
• assegnati gli istanti iniziale e finale −∞ ≤ T0 ≤ T ≤ +∞, poniamo T =
[T0 , T ] ∩ R, dato che siamo nel caso a tempi continui;
• la funzione f (chiamata dinamica) è definita da T × X → Rn .
28
Esistenza ed unicità delle soluzioni
Analogamente al caso a tempi discreti, iniziamo dalla definizione di soluzione
globale, che è quella che solitamente si va a cercare.
Definizione 2.4.1. Una funzione x : T → X è una soluzione globale classica
dell’EDO
x0 (t) = f (t, x (t)) ,
∀t ∈ T
(2.3)
se è differenziabile in ogni t ∈ T e soddisfa (2.3).
Osserviamo che qui richiediamo la differenziabilità della funzione x (·). È abbastanza chiaro che soluzioni di (2.3), se esistono, in generale non sono uniche. Infatti
analogamente al caso a tempi discreti, la semplice EDO
x0 (t) = 0,
∀t ∈ T
ha infinite soluzioni: le costanti. Sappiamo che questo è dovuto al fatto che non è
stata specificata la condizione iniziale. Allora il problema naturale che consideriamo
nei modelli applicati e che “caratterizza” esistenza ed unicità è di nuovo il PC come
(1.2). Enunciamo ora la definizione di soluzione per un problema di Cauchy nel caso
a tempi continui.
Definizione 2.4.2. Una funzione x : T → X è una soluzione globale classica del
PC-EDO
0
x (t) = f (t, x (t))
∀t ∈ T
(2.4)
x (t0 ) = x0
t0 ∈ T, x0 ∈ X
se è differenziabile in ogni t ∈ T e soddisfa (2.4).
Osservazione 2.4.3. Ogni soluzione del problema di Cauchy (2.4) è chiamata una
curva integrale o traiettoria dell’EDO.
Integrando, possiamo dare un’altra definizione di soluzione per (2.3) e per (2.4).
Definizione 2.4.4. Una funzione x : T → X è una soluzione globale debole di (2.4)
se la funzione
s → f (s, x (s))
è integrabile su [t0 , t] per ogni t ∈ T (si veda e.g. [23, p.216] per la definizione di
integrabilità) in T e
Z
t
x (t) = x0 +
f (s, x (s)) ds,
∀t ∈ T.
(2.5)
t0
Similarmente x : T → X è una soluzione globale debole di (2.3) se esiste t0 ∈ T e
x0 ∈ X tale che (2.5) è verificata (equivalentemente se
Z
x (·) ∈ f (s, x (s)) ds,
ricordando che l’integrale indefinito di una funzione è l’insieme di tutte le primitive).
2.4 Il caso a tempi continui
29
Esempio 2.4.5. Caso in cui esiste una soluzione globale debole che non è una
soluzione globale classica. Sia

 1
, t 6= 1
h (t) =
t−1
 0,
t=1
0
x (t) = h (t) x (t) , ∀t ≥ 0
x (0) = x0
x0 ∈ R
La funzione
x (t) = x0 |t − 1|
è una soluzione globale debole ma non è classica dato che non è differenziabile in
t = 1.
Esercizio 2.4.6. Verificare l’ultima affermazione sopra operando una sostituzione
nel PC-EDO. Trovare anche un altro esempio di questo tipo.
2.4.1
Soluzioni locali
In molti casi esistono soluzioni ma non sono differenziabili su tutto l’insieme T. In
questo caso non possiamo dire che esistono soluzioni globali nel senso della Definizione
2.4.2, dato che non sono pienamente verificate. Allora, riformuliamo il concetto di
soluzione locale introdotto nella sezione precedente, adattandolo al nostro modello a
tempi continui.
Seguendo l’idea del caso a tempi discreti, iniziamo con un esempio nel caso unidimensionale dove non esistono soluzioni globali.
Esempio 2.4.7. (n = 1, T = R+ , X = R) Il PC-EDO
0
x (t) = x2 (t) ,
x (0) = x0 ∈ R
ammette una soluzione globale su T = R+ se e solo se x0 ≤ 0, come vedremo in
un esempio nel prossimi capitoli.Osserviamo che l’analogo problema a tempi discreti
PC-ED
x(t + 1) − x(t) = x2 (t),
x(0) = x0 ∈ R
ammette una soluzione globale su T = N per ogni dato iniziale x0 ∈ R. Questa è una
conseguenza diretta del Teorema 2.1.7.
Vediamo ora la definizione di soluzione locale per PC-EDO (una simile si può
dare per EDO).
Definizione 2.4.8. Il problema di Cauchy (2.4) ammette una soluzione locale se
esiste un intorno di t0 , che chiamiamo J (t0 ) e una funzione x : J (t0 ) → X tale che
x è differenziabile in J (t0 ) e soddisfa
0
x (t) = f (t, x (t)) ,
∀t ∈ J (t0 ) ∩ T
x (t0 ) = x0 .
30
Esistenza ed unicità delle soluzioni
Questa funzione x è chiamata una soluzione locale di (2.4). Se J è un intorno
destro (o sinistro) di t0 , allora diciamo che è una soluzione locale a destra (o a
sinistra).
Vediamo ora come è facile ottenere esistenza ed unicità di soluzioni locali, mentre è
molto più difficile ottenere soluzioni globali.
Esistenza ed unicità locale
L’analisi per il caso a tempi continui è più difficile. Prima di tutto non abbiamo un
algoritmo ricorsivo per calcolare la soluzione. Inoltre è molto più complicato garantire
esistenza ed unicità di soluzioni globali (classiche o deboli). Si veda l’Esempio 2.4.7.
Vediamo ora due teoremi molto importanti. Il primo teorema stabilisce un risultato
generale per l’esistenza di soluzioni locali. Durante la trattazione, un intorno di
(t0 , x0 ) sarà sempre inteso come prodotto di due intorni
sferici, cioè I (t0 , x
0) =
−
I1 (t0 ) × I2 (x0 ). Useremo anche la notazione I1 t+
(rispettivamente
I
t
1 0 ) per
0
+
indicare un intorno destro (rispettivamente sinistro)
di
t
e
la
notazione
I
t
,
x
0
0
0
+
I1 t−
(rispettivamente I t−
0 ×
0 , x0 ) per indicare I1 t0 × I2 (x0 ) (rispettivamente
−
I2 (x0 )). Analoghe considerazioni per le notazioni I t0 , x+
0 , I t0 , x0 , ecc.
Per concludere, assegneremo una volta per tutte gli istanti iniziale e finale −∞ ≤
T0 ≤ T ≤ +∞ e porremo T = [T0 , T ] ∩ R.
Teorema 2.4.9 (Peano). Sia X ⊆ Rn , f :T × X → Rn , sia (t0 , x0 ) ∈ T × X con
x0 ∈ IntX. Se esiste un intorno di (t0 , x0 ), che chiamiamo I (t0 , x0 ), tale che:
• I (t0 , x0 ) ⊆ T × X,
• f è continua su I (t0 , x0 );
allora esiste
una soluzione locale di (2.4). Se tale ipotesi è soddisfatta solo in
+
I t0 , x0 (rispettivamente in I t−
0 , x0 ) allora otteniamo solo soluzioni locali a destra (rispettivamente a sinistra).
Dimostrazione 2.4.10. La dimostrazione di questo teorema è piuttosto complessa e
fa uso di argomenti di compattezza su spazi di funzioni appropriati. Nel caso potesse
interessare, si può guardare ad esempio [35, Sezione 3.1].
In questo teorema si assume che x0 ∈ IntX. Se x0 ∈ F rX, cioè x0 si trova sul bordo
di X, valgono ancora alcuni risultati di esistenza. Abbiamo ad esempio il corollario
seguente (valido nel caso n = 1) che sarà utile per lo studio dell’esempio di Peano ed
altri simili che vedremo più avanti.
Corollario 2.4.11. Sia X un intervallo reale, f : T × X → R, sia (t0 , x0 ) ∈ T × X.
+
−
(rispettivamente t+
Sia x0 ∈ F rX. Se esiste un intorno di t+
0 , x0
0 , x0 ), che
+
+
chiamiamo I t0 , x0 , tale che
+
+
−
• I t+
0 , x0 ⊆ T × X (rispettivamente I t0 , x0 ⊆ T × X),
+
−
+
• f è continua e ≥ 0 (rispettivamente ≤ 0) su I t+
0 , x0 (rispettivamente I t0 , x0 ;
2.4 Il caso a tempi continui
31
allora esiste una soluzione locale a destra di (2.4). −
+
Analogamente, se esiste un intorno di t−
(rispettivamente t−
0 , x0
0 , x0 ), che
−
chiamiamo I t−
0 , x0 , tale che
−
−
+
• I t−
0 , x0 ⊆ T × X (rispettivamente I t0 , x0 ⊆ T × X),
−
−
+
• f è continua e ≥ 0 (rispettivamente ≤ 0) su I t−
0 , x0 (rispettivamente I t0 , x0 ;
allora esiste una soluzione locale a sinistra di (2.4).
Passiamo ora al fondamentale teorema di esistenza ed unicità locale. Prima di
enunciarlo, abbiamo bisogno di introdurre la seguente definizione.
Definizione 2.4.12. Una funzione h : X → Y , X, Y spazi metrici (di solito, ma non
necessariamente sottoinsiemi di Rn ) è Lipschitziana su X se esiste una costante
M > 0 tale che
dY (h (x1 ) − h (x2 )) ≤ M dX (x1 − x2 ) ,
∀x1 , x2 ∈ X.
h è localmente Lipschitziana su X se per ogni x ∈X esiste un intorno che lo contiene
dove h è Lipschitziana.
Una funzione f : A × X → Y , A ⊆ R, X, Y spazi metrici, è Lipschitziana in x,
uniformemente rispetto a t ∈ A se esiste una costante M > 0 tale che
dY (f (t, x1 ) − f (t, x2 )) ≤ M dX (x1 − x2 ) ,
∀t ∈ A,
∀x1 , x2 ∈ X.
f è localmente Lipschitziana nella variabile x, uniformemente rispetto a t se per
ogni (t0 , x0 ) ∈ A × X esiste un intorno di (t0 , x0 ), che chiamiamo I (t0 , x0 ), dove f
è Lipschitziana in x, uniformemente rispetto a t.
Teorema 2.4.13 (Cauchy, Lipschitz, Picard). Sia f : T ×X → Rn , sia (t0 , x0 ) ∈
T × X con x0 ∈ IntX.
Se esiste un intorno di (t0 , x0 ), che chiamiamo I (t0 , x0 ), tale che:
• I (t0 , x0 ) ⊆ T × X,
• f Lipschitziana in x, uniformemente rispetto a t, in I (t0 , x0 );
allora esiste un’unica soluzione locale di (2.4).
−
Se tale ipotesi è soddisfatta solo in I t+
0 , x0 (rispettivamente in I t0 , x0 ) allora
otteniamo solo soluzioni locali uniche a destra (rispettivamente a sinistra).
Dimostrazione 2.4.14. Per la dimostrazione di questo risultato fondamentale, si
consulti e.g. [23, pp.263-264].
Questo teorema ha due conseguenze operative importantissime:
• fornisce condizioni sufficienti per l’ esistenza e unicità locale;
• fornisce condizioni sufficienti affinché le curve integrali non si incrocino tra loro.
32
Esistenza ed unicità delle soluzioni
Veniamo alla prima consegienza operativa. Verificare se una funzione è Lipschitziana è difficile. In quasi tutti gli esempi useremo il seguente corollario che ha ipotesi
più facilmente verificabili del teorema precedente.
Corollario 2.4.15. Sia f : T × X → Rn , sia (t0 , x0 ) ∈ T × X con x0 ∈ IntX.
Se esiste un intorno di (t0 , x0 ), che chiamiamo I (t0 , x0 ), tale che:
• I (t0 , x0 ) ⊆ T × X,
•
∂f
esiste ed è continua in I (t0 , x0 );
∂x
allora esiste un’unica soluzione locale di (2.4).
−
Se tale ipotesi è soddisfatta solo in I t+
0 , x0 (rispettivamente in I t0 , x0 ) allora
otteniamo solo soluzioni locali uniche a destra (rispettivamente a sinistra).
Quando x0 è di frontiera allora abbiamo il seguente corollario (valido nel caso
n = 1).
Corollario 2.4.16. Sia f : T × X → R, sia (t0 , x0 ) ∈ T × X con x0 ∈ F rX.
Se valgono le stesse ipotesi del Corollario 2.4.11 e in più
∂f
+
(rispettivamente
esiste ed è continua e limitata, in I t+
0 , x0
∂x
−
−
−
−
+
in I t+
0 , x0 , I t0 , x0 , I t0 , x0 );
• la derivata
allora le soluzioni locali sono uniche.
Infine passiamo alla seconda conseguenza operativa. Prima di tutto enunciamo
un corollario.
Corollario 2.4.17. Sia f : T × X → Rn , e assumiamo che esista un insieme aperto
∂f
X0 ⊆ X tale che, ad ogni istante (t0 , x0 ) ∈ T × X0 la derivata parziale
esista e
∂x
sia continua. Allora per ogni (t0 , x0 ) ∈ T × X0 esiste un’unica soluzione locale x di
(2.4) con l’accordo che se t0 è sul bordo di T, la soluzione è solo a destra o a sinistra.
In molti esempi, l’insieme X0 sarà scelto il più grande possibile, i.e. la parte interna
di X denotata da IntX.
Osservazione 2.4.18 (Osservazione fondamentale!). Un diretta e fondamentale
conseguenza del corollario 2.4.17 è che, sulla regione T × X0 le curve integrali non
si incrociano. È sufficiente argomentarlo per contraddizione. Se due curve integrali
si incrociano in un dato (t0 , x0 ) ∈ T × X0 , allora questo vorrebbe dire che esistono
due soluzioni che escono da questo punto. Questo però non può succedere in virtù
del teorema di unicità.
2.4 Il caso a tempi continui
2.4.2
33
Esistenza ed unicità globale
Nei problemi reali in genere siamo interessati all’esistenza ed all’unicità globale. Nel
caso a tempi continui, le otteniamo però molto difficilmente, anche se la funzione
f ha un “buon andamento” come visto sopra. Vediamo ora alcune condizioni che
garantiscono esistenza ed unicità globale.
Da adesso in poi assumiamo in questa sezione che le ipotesi del Corollario 2.4.17 sopra
siano soddisfatte, cioè che f : T × X → Rn , ed esiste un insieme aperto X0 ⊆ X tale
∂f
esiste ed è continua. In questo caso per ogni
che, per ogni (t0 , x0 ) ∈ T × X0 ,
∂x
(t0 , x0 ) ∈ T × X0 esiste un’unica soluzione locale x (·; t0 , x0 ) di (2.4). Prendiamo
ora tale soluzione. Sarà sicuramente definita su un certo intervallo [t0 − δ, t0 + δ].
Possiamo quindi considerare un nuovo problema PC-EDO (cercando una soluzione
y) con la stessa EDO e condizione iniziale all’istante t0 + δ uguale a x (t0 + δ).
y0 (t) = f (t, y (t))
∀t ∈ T
y (t0 + δ) = x (t0 + δ) .
Se (t0 + δ, x (t0 + δ)) ∈ T × X0 and t0 + δ non è l’ultimo punto di T allora di nuovo
abbiamo un’unica soluzione locale y. Tale soluzione è detta prolungamento a
destra della soluzione locale x. In maniera simile, si può definire un prolungamento
a sinistra.
Definizione 2.4.19 (Soluzione massimale). Chiamiamo
Tmax = sup {t > t0 : la soluzione locale di (2.4) ammette un prolungamento a destra} .
In maniera simile, si può definire
Tmin = inf {t < t0 : la soluzione locale di (2.4) ammette un prolungamento a sinistra} .
La soluzione prolungata può allora essere definita su (Tmin , Tmax ) che è chiamato
intervallo massimale di esistenza. Questa soluzione prolungata sarà chiamata la
soluzione massimale del problema di Cauchy (2.4). Naturalmente se T ⊆ (Tmin , Tmax )
allora la soluzione locale è globale.
Abbiamo i seguenti risultati molto importanti.
∂f
Teorema 2.4.20. Se X = Rn e f o
sono limitate sulla striscia T × Rn , allora
∂x
esiste un’unica soluzione globale di (2.4).
Teorema 2.4.21 (Teorema di Prolungamento). Se x (t) = x (t; t0 , x0 ) è la
soluzione locale di (2.4) e x (t) è limitata per ogni t tale che x (t) esiste, allora
la soluzione locale può essere prolungata ad una globale.
Osservazione 2.4.22. Punti speciali sono i punti dove f (t, x0 ) = 0 per ogni t ∈
T. Se il sistema parte da questi punti, allora esiste sempre una soluzione costante
x (t, x0 ) = x0 per ogni t ∈ T (che è unica se e.g. vale Corollario 2.4.15). Questi
punti sono chiamati punti di equilibrio. Anche se non esistono soluzioni globali
che partono da altri punti, sicuramente esisteranno soluzioni globali che partono dai
punti di equilibrio.
34
Esistenza ed unicità delle soluzioni
2.5
Esercizi
Sia n = 1. Nel seguito l’insieme degli stati, se non specificato, sarà X = R.
Esercizio 1. Consideriamo i seguenti PC-EDO:
0
1
2
x (t) = tx(t)
x1 (t) = x0 e 2 (t−t0 )
a)
T = [0, T ], T > 0;
1 2
2
x(t0 ) = x0 ,
x2 (t) = x0 e 2 (t −t0 ) ,
x0 (t) = 4x(t) − 1
x(1) = −2,
x1 (t) = −2t
x2 (t) = 14 − 49 e4(t−1) ,
p
x0 (t) = 2 |x(t)|
x(0) = 0,
x1 (t) = 0
b)
c)
x2 (t) =
T = [1, +∞[;
t2 se t ≥ 0
−t2 se t < 0,
T = R.
1. Scrivere le dinamiche f delle EDO;
2. Discutere la validità dei teoremi di esistenza e unicità locale specificando gli
insiemi di dati iniziali dove si possono applicare.
3. Controllare se le funzioni che trovate a destra di ogni PC-EDO sono o no
soluzioni di esso.
Esercizio 2. Dopo aver scritto le dinamiche f , controllare se ognuna delle seguenti
funzioni sia o no una soluzione globale della EDO che trovate alla sua destra.
a) x(t) = t + ln(t − 1),
b) x(t) = √
1
,
1 − t2
x0 (t) =
tet
,
ex(t)
x0 (t) = tx3 (t),
T =]1, +∞[;
T =] − 1, 1[.
Esercizio 3. Dimostrare che la funzione x(t) = ln2 t è una soluzione, sull’intervallo
]1, +∞[, della EDO
p
2 x(t)
0
x (t) =
.
(2.6)
t
La funzione x(t) è una soluzione anche su ]0, 1[?
Esercizio 4. Sia X = [1, +∞[ l’insieme degli stati. Dato il seguente PC-EDO:
p
0
x (t) = x(t) − 1
T = [0, +∞[,
(2.7)
x(0) = x0
discutere la validità dei teoremi di esistenza e uncità locale specificando gli insiemi
di dati iniziali dove si possono applicare.
2.6 Soluzioni
35
Esercizio 5. Dopo aver scritto le dinamiche f del PC-EDO
0
x (t) = x2 (t)
T = [0, +∞[,
x(0) = x0
(2.8)
1. discutere la validità dei teoremi di esistenza e uncità locale specificando gli
insiemi di dati iniziali dove si possono applicare;
2. controllare se la funzione
x0
1 − x0 t
è una soluzione locale del PC-EDO. E’ anche una soluzione globale?
0
x0
x (t) = x2 (t)
x(t) =
,
T = [0, +∞[.
x(0) = x0
1 − x0 t
x(t) =
2.6
(2.9)
Soluzioni
Esercizio 1.
a.1) La dinamica f della EDO è:
f : [0, T ]×R −→ R
(t, x) 7→ f (t, x) = tx.
a.2) Per stabilire se esistono soluzioni locali dobbiamo controllare se sono verificate le ipotesi del Teorema di Peano. La funzione f (t, x) = tx è continua
∀(t, x) ∈ [0, T ] × R, e quindi il Teorema di Peano (2.4.9) garantisce l’esistenza
di almeno una soluzione locale del PC-EDO per ogni (t0 , x0 ) ∈ [0, T ] × R.
Ora vediamo se tali soluzioni sono uniche.
Suggerimento: usare il Corollario 2.4.17.
Calcoliamo la derivata parziale ∂x f
∂
∂
(f (t, x)) =
(tx) = t,
∂x
∂x
∀x ∈ R.
Essa è ben definita e continua in ogni (t, x) ∈ [0, T ] × R (infatti f ∈ C 1 ([0, T ] ×
R; R)), e quindi esiste unica la soluzione locale del PC-EDO per ogni (t0 , x0 ) ∈
[0, T ] × R.
a.3) La funzione x1 (t) è una soluzione locale del PC-EDO a) se esiste un intorno t0 ,
che chiamiamo J(t0 ), tale che x1 (t) sia differenziabile in J(t0 ) e che soddisfi il
PC-EDO a), ∀t ∈ J(t0 ) ∩ [0, T ]. Si ha
x1 (t0 ) = x0
1
2
1
2
x01 (t) = x0 (t − t0 )e 2 (t−t0 ) 6= tx1 (t) = x0 te 2 (t−t0 ) .
36
Esistenza ed unicità delle soluzioni
Quindi x1 (t) non è soluzione del PC-EDO a). Controlliamo ora se lo è x2 (t):
x2 (t0 ) = x0
1
2 −t2 )
0
x02 (t) = x0 te 2 (t
1
2
= tx2 (t).
2
Dato che x2 (t) = x0 e 2 (t −t0 ) è differenziabile in [0, T ] e soddisfa il PC-EDO a),
x2 (t) è una soluzione locale di esso.
b) Si segua l’idea dell’Esercizio 1. Otteniamo che x2 (t) è soluzione locale del PCEDO.
c.1) La dinamica f è:
f : R×R −→ R
p
(t, x) 7→ f (t, x) = 2 |x|.
p
c.2) La funzione f (t, x) = 2 |x| è continua ∀(t, x) ∈ R × R, quindi il Teorema di
Peano (2.4.9) garantisce l’esistenza di almeno una soluzione locale del PC-EDO
per ogni (t0 , x0 ) ∈ [0, T ] × R. Però l’unicità non è garantita ovunque. Infatti,
se consideriamo la derivata parziale ∂x f
∂
∂ p
sign(x)
(f (t, x)) =
(2 |x|) = p
∂x
∂x
|x|
essa non è definita in x = 0.
∂
Quindi ∂x
(f (t, x)) esiste ed è continua per ogni (t, x) ∈ R × R \ {0}. Di
conseguenza, ∀(t0 , x0 ) ∈ R × R \ {0} esiste un unica soluzione locale di c).
Quindi l’unicità non è garantita in (t0 , 0), per t0 ∈ R.
c.3) Notiamo facilmente che x1 (t) soddisfa il PC-EDO c). Consideriamo ora la
funzione x2 (t): essa è differenziabile ∀t ∈ R e
x0 (t) = 2|t|
p
p
2 x2 (t) = 2 |t2 | = 2|t|
con x2 (0) = 0. Quindi entrambe le funzioni sono soluzioni del PC-EDO dato.
Esercizio 2.
a)
1. La dinamica f è la seguente:
f :]1, +∞[×R −→ R
(t, x) 7→ f (t, x) =
tet
.
ex
2.6 Soluzioni
37
2. La funzione x(t) è una soluzione globale se è differenziabile ∀t ∈]1, +∞[ e
soddisfa la EDO in a).
La funzione x(t) = t+ln(t−1) è ben definita e differenziabile ∀t ∈]1, +∞[.
Inoltre la derivata
1
x0 (t) = 1 +
t−1
è definita per ogni t 6= 1, in particolare sull’intervallo ]1, +∞[. Inoltre
1
t
=
t−1
t−1
tet
tet
t
= t+ln(t−1) = t
=
.
e (t − 1)
t−1
e
x0 (t) = 1 +
tet
ex(t)
Quindi x(t) è una soluzione globale.
b) Seguiamo la stessa procedura usata nella parte a).
Esercizio 3. La funzione x(t) = ln2 t è ben definita e differenziabile su ]0, +∞[; la
derivata vale
1
x0 (t) = 2 ln t · , t > 0.
t
Essa è quindi ben definita anche su ]1, +∞[. Vediamo se soddisfa l’equazione:
2
x0 (t) = ln t
t√
p
2 x(t)
2 ln2 t
2| ln t|
=
=
.
t
t
t
√
2 x(t)
Poiché, per t > 1, ln t > 0, abbiamo che | ln t| = ln t e quindi x0 (t) =
,
t
∀t ∈]1, +∞[, cioè x(t) è una soluzione su ]1, +∞[. Per t ∈]0, 1[, il logaritmo è
negativo e quindi:
| ln t| = − ln t.
Dunque x(t) non può essere soluzione di (2.6) su ]0, 1[.
Esercizio 4. La dinamica f è:
f : [0, +∞[×[1, +∞[−→ R
√
(t, x) 7→ f (t, x) = x − 1.
√
La funzione f (t, x) = x − 1 è continua ∀(t, x) ∈ [0, +∞[×[1, +∞[, quindi il Teorema di Peano (2.4.9) garantisce l’esistenza di almeno una soluzione locale del PC-EDO
∀(t0 , x0 ) ∈ [0, +∞[×[1, +∞[. Riguardo all’unicità la derivata parziale:
∂
∂ √
1
(f (t, x)) =
( x − 1) = √
,
∂x
∂x
2 x−1
38
Esistenza ed unicità delle soluzioni
è definita e continua per x > 1. Esiste allora un insieme aperto X0 =]1, +∞[⊂
∂
[1, +∞[= X tale che ∀(t0 , x0 ) ∈ [0, +∞[×]1, +∞[, la derivata parziale ∂x
(f (t, x))
essite ed è continua. Questo implica che ∀(t0 , x0 ) ∈ [0, +∞[×]1, +∞[ esiste un’unica
soluzione locale x(t) del PC-EDO (2.7).
Esercizio 5.
1. La dinamica f è:
f : [0, +∞[×R −→ R
(t, x) 7→ f (t, x) = x2 .
La funzione f (t, x) = x2 è continua ∀x ∈ R (chiaramente anche ∀t ∈ [0, +∞[),
quindi il Teorema di Peano (2.4.9) garantisce l’esistenza di almeno una soluzione
locale del PC-EDO (2.9) ∀(t0 , x0 ) ∈ [0, T + ∞[×R. Riguardo all’unicità la
derivata parziale:
∂ 2
∂
(f (t, x)) =
(x ) = 2x,
∂x
∂x
∀x ∈ R
è ben definita e continua ∀(t, x) ∈ [0, +∞[×R, quindi esiste un’unica soluzione
locale del PC-EDO ∀(t0 , x0 ) ∈ [0, +∞[×R.
x0
è una soluzione locale del PC-EDO (2.9), se esiste
1 − x0 t
un intorno di 0, sia J(0), tale che x(t) sia differenziabile in J(0) e aoddisfi (2.8)
∀t ∈ J(0) ∩ [0, +∞[.
x0
La funzione x(t) =
“esplode” in t = x10 . Quindi, per t0 = 0 si ha:
1 − x0 t
2. La funzione x(t) =
• x0 > 0 Prendiamo J(0) =]−∞, x10 [ e vediamo che ∀t ∈]−∞, x10 [∩[0, +∞[=
[0, x10 [, x(t) soddisfa (2.9);
• x0 = 0 Prendiamo J(0) = [0, +∞[ e vediamo che la soluzione è la costante
x(t) ≡ 0, ∀t ∈ [0, +∞[;
• x0 < 0 Prendiamo J(0) =] x10 , +∞[ e vediamo che, ∀t ∈] x10 , +∞[∩[0, +∞[=
[0, +∞[, x(t) soddisfa (2.9).
In conclusione ∀(0, x0 ) ∈ [0, +∞[×R, x(t) è una soluzione locale del PC-EDO
(2.9). Tale soluzione è globale quando x0 ≤ 0.
Capitolo 3
Stabilità dei punti di equilibrio
In questo capitolo diamo la definizione formale di “punti di equilibrio”, e introduciamo
i concetti di stabilità per i punti di equilibrio.
3.1
Definizioni e commenti
Partiamo dalla definizione di punto di equilibrio.
Definizione 3.1.1.
• Dati T intervallo di R, X ⊆ Rn , f : T × X → Rn , diciamo che x̄ ∈ X è un
punto di equilibrio dell’ODE
x0 (t) = f (t, x (t)) ,
∀t ∈ T
(3.1)
se, per ogni t0 ∈ T, il problema di Cauchy
0
x (t) = f (t, x (t)) ∀t ∈ T
x (t0 ) = x̄
ammette come soluzione globale la funzione costante x (t; t0 , x̄) = x̄ per ogni
t ∈ T.
• Analogamente, dati T ⊆ N, X ⊆ Rn , g : T × X → Rn , diciamo che x̄ ∈ X è
un punto di equilibrio per la DE
x (t + 1) = g (t, x (t)) ,
∀t ∈ T
(3.2)
se, per ogni t0 ∈ T, il problema di Cauchy
x (t + 1) = g (t, x (t)) ∀t ∈ T
x (t0 ) = x̄
ammette come soluzione globale la funzione costante x (t; t0 , x̄) = x̄ for every
t ∈ T.
Equivalentemente abbiamo:
39
40
Stabilità dei punti di equilibrio
Definizione 3.1.2. Dati T intervallo di R, X ⊆ Rn , f :T × X → Rn , diciamo che
x̄ ∈ X è un punto di equilibrio per l’ODE (3.1) se f (t, x̄) = 0 per ogni t ∈ T.
Definizione 3.1.3. Dati T ⊆ N, X ⊆ Rn , g : T × X → Rn , diciamo che x̄ ∈ X è
un punto di equilibrio della DE (3.2) se g (t, x̄) = x0 per ogni t ∈ T.
Le precedenti definizioni hanno senso anche nel caso in cui T sia limitato. Tuttavia
la nostra attenzione è rivolta al caso in cui T è illimitato. Quindi, per semplificare,
d’ora in poi assumeremo che T = [0, +∞) nel caso a tempo continuo e che T = N nel
caso a tempo discreto.
Osservazione 3.1.4. Nel caso autonomo f (t, x) = f (x) e g (t, x) = g (x), cosicchè:
• L’insieme dei punti di equilibrio per l’ODE (3.1) è l’insieme degli zeri di f .
• L’insieme dei punti di equilibrio per la DE (3.2) è l’insieme degli zeri di g.
3.2
Stabilità e stabilità asintotica
Introduciamo ora due concetti fondamentali per i punti d’equilibrio: quello di stabilità e quello di stabilità asintotica. Entrambi sono concetti local. Il concetto di
stabilità per un punto di equilibrio corrisponde all’idea di stabilità delle soluzioni
dell’ODE (o della DE) rispetto a piccole variazione dei dati iniziali (in un opportuno
intorno del punto di stabilità). Esso è analogo al concetto di di continuità di una
funzione (che è solitamente interpretata come “stabilità rispetto a piccole variazioni
della variabile indipendente”).
Definizione 3.2.1. Un punto di equilibrio x̄ ∈ X per l’ODE (3.1) o per la DE (3.2)
è stabile (in breve (S)) se
∀ε > 0
t0 ∈ T, x0 ∈ X, ||x0 −x̄||Rn < δ
∃δ > 0
=⇒
tale che
||x (t; t0 , x0 ) −x̄||Rn ≤ ε ∀t ∈ T.
Se esso non è stabile, allora è detto instabile (in breve (I)).
Osservazione 3.2.2. Si osservi che con tale definizione di stabilità t0 potrebbe non
essere il primo tempo di T. Quindi la richiesta ||x (t; t0 , x0 ) −x̄||Rn ≤ ε ∀t ∈ T
riguarda la soluzione anche per tempi precedenti a t0 . Tuttavia solitamente noi
considereremo il caso t0 = 0 e la richiesta sarà solo per tempi successivi a t0 .
Osservazione 3.2.3. Si osservi che la stabilità di x̄ corrisponde alla continuità della
mappa
F : X → C 0 (T; X) ,
x0 → x (·; t0 , x0 )
nel punto x̄. Ricordiamo infatti che data h ∈ C 0 (T; X) la norma infinito (anche
detta la norma del sup) di h è
||h||∞ = sup ||h (t)||Rn
t∈T
3.2 Stabilità e stabilità asintotica
41
e che la distanza tra due funzioni h1 , h2 in C 0 (T; X) può essere definita (è solo un
modo possibile) come
d (h1 , h2 ) = ||h1 − h2 ||∞ .
Si osservi allora che la richiesta
||x (t; t0 , x0 ) −x̄||Rn < ε ∀t ∈ T
è equivalente a
sup ||x (t; t0 , x0 ) −x̄||Rn < ε
t∈T
oppure, poichè x (·; t0 , x̄) ≡ x̄
||x (·; t0 , x0 ) −x (·; t0 , x̄)||∞ < ε.
Quindi la definizione 3.2.1 è esattamente equivalente alla continuità di F in x̄.
Passiamo ora alla stabilità asintotica. Prima di tutto definiamo il concetto di attrattore locale.
Definizione 3.2.4. Un punto di equilibrio x̄ ∈X per l’ODE (3.1) o per la DE (3.2)
è un attrattore locale se
∃δ > 0
tale che
t0 ∈ T, x0 ∈ X, ||x0 −x̄||Rn ≤ δ
=⇒
lim ||x (t; t0 , x0 ) −x̄||Rn = 0. (3.3)
t→+∞
t∈T
Si noti che un punto può essere un attrattore senza essere stabile. Si veda ad esempio
[25]. Per tale ragione si introduce il concetto di stabilità asintotica (AS).
Definizione 3.2.5. Un punto di equilibrio x̄ ∈ X per l’ODE (3.1) o per la DE (3.2)
si dice asintoticamente stabile (in breve (AS)) se è stabile ed è un attrattore locale.
Il concetto di stabilità asintotica corrisponde all’idea di un punto di equilibrio che
attrae le soluzioni corrispondenti a dati iniziali sufficientemente vicini al punto di
equilibrio.
Entrambi i concetti di stabilità (S) e di stabilità asintitica (AS) sono concetti locali. Passiamo ora a concetti globali: bacino d’attrazione (BA) e stabilità asintotica
globale (GAS).
Definizione 3.2.6. Il bacino di attrazione di un dato punto di equilibrio x̄ è dato
dall’insieme di tutte le condizioni iniziali x0 tali che, per ogni t0 ≥ T0 , t0 > −∞,
abbiamo
lim ||x (t; t0 , x0 ) −x̄||Rn = 0
t→+∞
t∈T
Esso è denotato da B (x̄).
Definizione 3.2.7. Il punto di equilibrio x̄ si dice globalmente asintoticamente stabile (GAS) se è AS e se B (x̄) = X.
42
Stabilità dei punti di equilibrio
In molti problemi applicati saremo interessati nello studio della stabilità dei punti di
equilibrio nel caso autonomo, almeno dal punto di vista locale. Vedremo in seguito
l’interpretazione economica in vari esempi.
Osservazione 3.2.8. Nel caso n = 1 può succedere che la prorietà di stabilità
(Definizione 3.2.1) e la proprietà di limite (3.3) valga solo in un intorno sinistro
(o destro) del punto di equilibrio x̄. In questo caso, in accordo con la definizione
3.2.1, il punto di equilibrio è instabile, ma talvolta noi diremo che esso è stabile a
sinistra (o a destra) e simili definizioni saranno usate per gli altri concetti.
Concludiamo questo capitolo con la seguente utile proposizione.
Proposizione 3.2.9. Sia n = 1 sia x̄ un punto di equilibrio per l’ODE (3.1) o per la
DE (3.2). Supponiamo che la proprietà (3.3) valga e che, per x0 in un intorno di x̄, la
soluzione x (t; t0 , x0 ) sia monotona su T. Allora x̄ è stabile (e quindi asintoticamente
stabile).
Il caso n = 1
Introduciamo ora alcuni metodi per risolvere una DE o una ODE e per studiare le
proprietà delle soluzioni nel caso n = 1, che permette di disegnare grafici ed avere
un’intuzione di ciò che può succedere.
43
Capitolo 4
Equazioni alle differenze del primo
ordine
4.1
Equazioni alle differenze lineari del caso unidimensionale
Iniziamo con la definizione di DE lineare. Qui T sarà un dato intervallo di N,
possibilmente tutto N.
Definizione 4.1.1. Una DE (n = 1) definita in T si dice lineare se la funzione g
(quindi la dinamica) è lineare o affine, cioè se è della forma
x (t + 1) = aD (t) x (t) + bD (t) ,
t∈T
dove aD , bD : T → R funzioni date. Se bD è 0, allora la DE è detta lineare omogenea.
Altrimenti è detta non omogenea.
Solitamente lo spazio degli stati è R. In alcuni modelli applicati richiederemo un
diverso spazio degli stati. Se non diversamente specificato, assumeremo in questa
sezione che X = R.
Teorema 4.1.2. Fissato un qualunque (t0 , x0 ) ∈ T × R esiste sempre una soluzione
al CP-DE
x (t + 1) = aD (t) x (t) + bD (t) ,
t∈T
(4.1)
x (t0 ) = x0 .
Nel caso lineare unidimensionale abbiamo una formula esplicita per la soluzione. La
daremo senza dimostrazione (la dimostrazione può essre trovata ad esempio in [23,
p.339].
Proposizione 4.1.3. L’unica soluzione in T = [t0 , +∞) ∩ Z del problema di Cauchy
x (t + 1) = aD (t) x (t) + bD (t) ,
x (t0 ) = x0 ,
45
t∈T
46
Equazioni alle differenze del primo ordine
è data da
x (t) = x0
t−1
Y
t−1
X
!
aD (s)
+
s=t0
bD (s)
s=t0
t−1
Y
!
aD (s)
(4.2)
r=s+1
in particolare nel caso omogeneo da
t−1
Y
x (t) = x0
!
aD (s)
(4.3)
bD (s) at−s−1
.
D
(4.4)
s=t0
e nel caso in cui aD sia costante da
0
x (t) = x0 at−t
+
D
t−1
X
s=t0
Osservazione 4.1.4. Si noti che la soluzione è somma di due parti:
1. la soluzione della DE omogenea associata, che dipende linearmente dal dato
iniziale;
2. la soluzione della DE non omogenea con dato iniziale 0 al tempo t0 .
Possiamo dire che la soluzione è una funzione affine (lineare nel caso omogeneo) del
dato iniziale.
Negli esercizi vedremo alcuni esempi con calcolo esplicito di soluzioni.
4.2
Stabilità dei punti di equilibrio nel caso lineare
Consideriamo il caso autonomo. I punti di equilibrio sono le soluzioni dell’equazione
aD x + bD = x.
Abbiamo allora:
• se aD 6= 1, allora esiste un unico punto di equilibrio x̄ =
bD
;
1 − aD
• se aD = 1 e bD 6= 0, allora non esistono punti di equilibrio:
• se aD = 1 e bD = 0, allora tutti gli x ∈ R sono punti di equilibrio.
Analizziamo ora la stabilità dei punti di equilibrio. Grazie alla formula (4.4) la
soluzione del CP-DE (4.1) si scrive come
x (t) =
0
x0 at−t
D
+
t−1
X
bD at−s−1
D
s=t0
"
=
0
at−t
D
x0 + bD
t−1
X
s=t0
#
atD0 −s−1
.
4.3 Equazioni alle differenze non lineari nel caso unidimensionale
Se aD 6= 1, allora
"
0
x0 + bD a−1
x (t) = at−t
D
D
0
x0 −
= at−t
D
a−1
D
t−t0
−1
#
a−1
D −1
bD
bD
+
1 − aD
1 − aD
mentre, se aD = 1
x (t) = x0 + bD (t − t0 ) .
Quindi otteniamo che,
• per |aD | 6= 1, (S)+(AS)+(GAS) vale se e solo se |aD | < 1: infatti in questo
caso abbiamo la proprietà limite e la monotonia, quindi possiamo usare la
Proposizione (3.2.9).
• per aD = −1, abbiamo (S) ma non (AS) (questo non è banale: si guardi il caso
bD = 0 per capire ciò che accade).
• per aD = 1 e bD = 0, le soluzioni sono sempre costanti. In questo caso, poichè
tutti gli x ∈ R sono punti di equilibrio, essi saranno tutti stabili ma non (AS).
Abbiamo il seguente risultato.
Teorema 4.2.1. Si consideri una DE lineare autonoma in dimensione 1. Allora
bD
è stabile se e solo se
1 − aD
|aD | < 1; in tal caso esso è anche (AS) e (GAS);
• se |aD | 6= 1, l’unico punto di equilibrio x̄ =
• se aD = −1, l’unico punto di equilibrio x̄ =
bD
è stabile ma non (AS).
2
• se aD = 1 esistono punti di equilibrio se e solo se if bD = 0. In tal caso tutti
gli x ∈ R sono punti di equilibrio stabili ma non (AS).
Dimostrazione. Si veda ad esempio [14].
4.3
Equazioni alle differenze non lineari nel caso unidimensionale
4.4
Stabilità dei punti di equilibrio nel caso non lineare
4.4.1
Stabilità attraverso linearizzazione
Innanzitutto ricordiamo un risultato che è utile nello studio di proprietà di stabilità
locale ((S) and (AS)) per punti di equilibrio di ODE e DE non lineari . Si tratta
di una prcedura di linearizzazione che va sotto il nome di Hartmann-Grossmann.
47
48
Equazioni alle differenze del primo ordine
Stabiliamo cosa si intende per linearizzazione.
Data una DE autonoma
x (t + 1) = g (x (t))
(4.5)
ed un suo suo punto di equilibrio x̄, la linearizzazione di tale DE intorno a tale punto
di equilibrio x̄ è la DE lineare
y (t + 1) = x̄ + g 0 (x̄) (y (t) − x̄)
(4.6)
dove abbiamo sostituito la funzione g che compare nel membro destro con la sua
linearizzazione vicino x̄. Ciò discende dallo sviluppo di Taylor di g arrestato al
primo ordine che è
g (z) = g (x̄) + g 0 (x̄) (z − x̄) + o (|z − x̄|) = x̄ + g 0 (x̄) (z − x̄) + o (|z − x̄|)
dove nell’ultima uguaglianza abbiamo usato il fatto che g (x̄) = x̄ poichè x̄ è un punto
di equilibrio. Quindi il termine x̄ + g 0 (x̄) (z − x̄) si dice essere la linearizzazione di g
vicino a x̄.
Il teorema di Hartmann-Grossmann stabilisce che le proprietà di stabilità locale di x̄
nel sistema non lineare coincidono con quelle del sistema linearizzato x̄ se |g 0 (x̄)| =
6 1.
Abbiamo il seguente risultato.
Teorema 4.4.1. Si consideri la DE non lineare autonoma (4.5) in dimensione 1 e si
assuma che g ∈ C 1 (X; R). Sia x̄ ∈ IntX un punto di equilibrio tale che |g 0 (x̄)| =
6 1.
Allora x̄ è stabile se e solo se |g 0 (x̄)| < 1. In tal caso è anche (AS).
Osservazione 4.4.2. Se |g 0 (x̄)| = 1, alloranon si può dire nulla a priori riguardo
la stabilità di x̄. Si possono avere comportamenti diversi in base alla struttura del
problema.
Capitolo 5
Equazioni Differenziali del Primo
Ordine
5.1
ODE lineari nel caso unidimensionale
Innanzitutto diamo la definizione di ODE lineare. Qui T sarà un dato intervallo di
R, possibilmente tutto R.
Definizione 5.1.1. Un’ODE (n = 1) definita in T si dice lineare se la funzione f
(quindi la dinamica) è lineare o affine, cioè se è del tipo
x0 (t) = aC (t) x (t) + bC (t) ,
t∈T
dove aC , bC : T → R sono funzioni date. Se bC è 0, allora l’ODE si dice lineare
omogenea. Altrimenti essa si dice non omogenea.
Solitamente lo spazio degli stati è R. In alcuni modelli applicati richiederemo un
diverso spazio degli stati. Quando non diversamente specificato assumeremo che lo
spazio degli stati sia X = R. Per le equazioni lineari vale il seguente teorema, la cui
applicazione è piú forte degli analoghi risultati per il caso non lineare
Teorema 5.1.2. Siano aC e bC funzioni continue su T. Allora, per ogni (t0 , x0 ) ∈
T × R, esiste sempre un’unica soluzione al CP-ODE
x0 (t) = aC (t) x (t) + bC (t) ,
t∈T
(5.1)
x (t0 ) = x0 .
Osservazione 5.1.3. Applicando il Teorema 2.4.20 tal caso lineare, avremmo esistenza e unicità per il problema (5.1) su [t0 , T ] per ogni T finito. Il teorema 5.1.2
stabilisce esistenza e unicità anche su [t0 , +∞).
Nel caso lineare unidimensionale abbiamo una formula esplicita per la soluzione,
come per le DE. La daremo senza dimostrazione. La dimostrazione può essre trovata
ad esempio in [43, pp.407-408]. Si veda anche [14] per un trattamento unificato dei
casi continuo e discreto.
49
50
Equazioni Differenziali del Primo Ordine
Proposizione 5.1.4. L’unica soluzione su T = [T0 , T1 ] ∩ R del problema di Cauchy
x0 (t) = aC (t) x (t) + bC (t) ,
x (t0 ) = x0 ,
t∈T
t0 ∈ T, x0 ∈ R,
è data da
x (t) = x0 e
Rt
t0
aC (s)ds
Z
t
Rt
bC (s) e
+
s
aC (r)dr
ds
(5.2)
t0
in particolare, nel caso omogeneo da
x (t) = x0 e
Rt
t0
aC (s)ds
(5.3)
bC (s) eaC (t−s) ds.
(5.4)
e nel caso in cui aC sia costante da
aC (t−t0 )
x (t) = x0 e
Z
t
+
t0
Osservazione 5.1.5. Come nel caso discreto la soluzione è composta di due parti:
1. la soluzione dell’equazione omogenea associata, che dipende linearmente dal
dato iniziale;
2. la soluzione dell’equazione non omogenea con dato iniziale 0 al tempo t0 .
Possiamo dire che in generale la soluzione è una funzione affine (lineare nel caso
omogeneo) del dato iniziale.
Negli esercizi vedremo esempi di calcolo esplicito di soluzioni.
5.2
Stabilità dei punti di equilibrio nel caso linerare
Consideriamo il caso autonomo. I punti di equilibrio sono le soluzioni di
aC x + bC = 0.
Quindi abbiamo
• se aC 6= 0, allora esiste un unico punto di equilibrio x̄ = −
bC
;
aC
• se aC = 0 e bC 6= 0, allora non ci sono punti di equilibrio;
• se aC = 0 e bC = 0, allora tutti gli x ∈ R sono punti di equilibrio.
5.3 ODE non lineari unidimensionali
51
Analizziamo ora la stabilità dei punti di equilibrio. Grazie alla formula (5.4) la
soluzione del CP-ODE (5.1) si scrive come
Z t
bC eaC (t−s) ds
x (t) = x (t) = x0 eaC (t−t0 ) +
t0
Z t
−aC (s−t0 )
aC (t−t0 )
e
ds .
x0 + bC
= e
t0
Se aC 6= 0, allora
"
e−aC (t−t0 ) − 1
x (t) = e
x0 + bC
−aC
bC
bC
= eaC (t−t0 ) x0 +
−
aC
aC
#
aC (t−t0 )
mentre, se aC = 0
x (t) = x0 + bC (t − t0 ) .
Quindi
• per aC 6= 0 (S)+(AS)+(GAS) vale se e solo se aC < 0: infatti in questo
caso abbiamo la proprietà limite e la monotonia e quindi possiamo usare la
Proposizione 3.2.9.
• per aC = 0 e bC = 0, le soluzioni sono sempre costanti. Allora, poichè tutti
gli x ∈ R sono punti di equilibrio, tutti sono punti di equilibrio stabile ma non
(AS).
Teorema 5.2.1. Si consideri un’ODE autonoma in dimensione 1. Allora
• se aC 6= 0, l’unico punto di equilibrio x̄ = −
bC
è stabile se e solo se aC < 0;
aC
esso è anche (AS) e (GAS);
• se aC = 0, esistono punti di eqilibrio se e solo se bC = 0. In questo caso ogni
x ∈ R è un punto di equilibrio ed è stabile ma non (AS).
Dimostrazione. Si veda [14].
5.3
ODE non lineari unidimensionali
In questa sezione ci occuperemo del caso non lineare. Innanzitutto presentiamo due
metodi per trovare le soluzioni e passiamo poi allo studio della stabilità e ad altre
propriet delle soluzioni.
52
Equazioni Differenziali del Primo Ordine
5.3.1
Separazione delle variabili
Questo metodo funziona in dimensione nel caso n = 1, quando la dinamica f può
essere scritta come prodotto di una funzione di t per una funzione di x, cioè
f (t, x) = f1 (t) · f2 (x)
cosicchè abbiamo il problema di Cauchy
0
x (t) = f1 (t) · f2 (x (t)) ∀t ∈ T
x (t0 ) = x0
In questo caso possiamo scrivere, per t tale che f2 (x (t)) 6= 0,
x0 (t) = f1 (t) · f2 (x (t)) ⇒
x0 (t)
= f1 (t) .
f2 (x (t))
Sia ora t > t0 fissato e si assuma che f2 (x (s)) 6= 0 per ogni s ∈ [t0 , t]. Integrando (e
cambiando il nome della variabile di integrazione)
Z t
Z t
x0 (s)
ds =
f1 (s) ds.
t0 f2 (x (s))
t0
Ora se f2 (x (s)) non cambia segno nell’intervallo [t0 , t] possiamo cambiare variabile
(si veda ad esempio. [43, Vol.1, Ch.8] o [23, pp.183-184]) nel primo integrale ponendo
x = x (s) (che è invertibile poichè è continua e la sua derivata è x0 (s) = f2 (x (s))) e
otteniamo
Z x(t)
Z t
dx
=
f1 (s) ds.
x(t0 )=x0 f2 (x)
t0
Se siamo in grado di calcolare gli integrali, otteniamo, chiamando G una primitiva
1
di
e H una primitiva di f1 ,
f2
G (x (t)) − G (x0 ) = H (t) − H (0) .
Se G è invertibile, otteniamo
x (t) = G−1 (G (x0 ) + H (t) − H (0)) .
Vediamo un esempio di applicazione del metodo descritto.
Example 5.3.1. Si trovino le soluzioni del problema di Cauchy
x0 (t) = x2 (t) ,
x (t0 ) = x0 ∈ R.
Innanzitutto osserviamo che in questo caso il Corollario 2.4.17 vale per ogni (t0 , x0 ) ∈
R × R, quindi l’esistenza e l’unicità locale valgono per ogni tempo e stato iniziali.
Inoltre abbiamo separazione delle variabili con f1 (t) = 1 e f2 (x) = x2 (dobbiamo
dividere per f2 (x (t))). Abbiamo
f (x) = 0 ⇐⇒ x = 0.
5.3 ODE non lineari unidimensionali
53
Questo significa che x = 0 è un punto di equilibrio. Ciò significa che x (t; 0, 0) = 0
per ogni t ∈ R. Grazie all’unicità locale (Corollario 2.4.17 e Osservazione 2.4.18)
ogni soluzione uscente da x0 6= 0 non raggiunge mai 0. IIn particolare questo significa
che per ogni x0 6= 0, f (x (t; x0 )) 6= 0 per ogni t ∈ R. Allora, quando x0 6= 0 possiamo
dividere f (x (t; x0 )), integrando e cambiando variabile otteniamo
Z x(t)
Z t
1
1
1
1ds =⇒ −
dx =
= t − t0
+
2
x (t) x0
x(t0 ) x
t0
1
1
−t
=⇒
= t0 +
x (t)
x0
−1
1
x0
=⇒ x (t) = t0 +
−t
=
.
x0
1 + x0 (t0 − t)
h
i−1
Quindi la soluzione per x0 6= 0 è x (t) = t0 + x10 − t
. In particolare essa esplode
in t = t0 + x10 . Quindi, per t0 = 0 l’intervallo massimale è: −∞, x10 , quando
x0 > 0; x10 , +∞ , quando x0 < 0; R quando x0 = 0. In particolare abbiamo
soluzione globale a destra per x0 ≤ 0. Con calcoli simili possiamo trovare la soluzione
del CP-ODE, per n ∈ N, n > 2,
x0 (t) = xn (t) ,
x (t0 ) = x0 ∈ R.
Infatti
Z
x(t)
x(t0 )
1
dx
xn
t
1
1
1
=
1ds =⇒ −
−
= t − t0
n − 1 xn−1 (t) xn−1
t0
0
1
1
=⇒
= (n − 1) (t0 − t) + n−1
xn−1 (t)
x0
1
1 − n−1
=⇒ x (t) = (n − 1) (t0 − t) + n−1
.
x0
Z
e la soluzione è trovata.
5.3.2
Cambio di variabile
Introduciamo ora il metodo di cambio di variabile descrivendolo nel caso general. Si
consideri il problema di Cauchy
x0 (t) = f (t, x (t)) ,
∀t ∈ T
(5.5)
n
x (t0 ) = x0 ∈ X ⊆ R .
Si assuma che valga esistenza e unicità locale (Corollario 2.4.15). Si consideri una
funzione invertibile h : X → Y (Y ⊆ Rn ) che è C 1 e tale che la sua inversa h−1 :
Y → X sia anche C 1 . Allora definiamo la nuova funzione (vettoriale) y
y (t) = h (x (t)) .
54
Equazioni Differenziali del Primo Ordine
Chiaramente y (t0 ) = h (x0 ). Determiniamo un’ODE risolta da y. Abbiamo
y0 (t) = ∇h (x (t)) x0 (t)
dove ∇h (x (t)) è una n × n matrice, x0 (t) è un vettore n-dimensionale, cosicchè
nell’equazione precedente il prodotto deve essere inteso nel senso di una matrice
applicata ad un vettore. Usando la ODE soddisfatta da x (5.5), otteniamo
y0 (t) = ∇h (x (t)) f (t, x (t)) .
Ora, poichè x (t) = h−1 (y (t)), y soddisfa il CP-ODE
y0 (t) = ∇h h−1 (y (t)) f t, h−1 (y (t)) .
(5.6)
y (t0 ) = h (x0 ) .
Si può dimostrare che una funzione x : T → X è soluzione di (5.5) se e solo se
y : T → Y definita come y (t) = h (x (t)) è soluzione di (5.6). Questo può essere
utile se l’equazione per y è piú facile da risolvere (o per lo studio qualitativo) dell’equazione per x. In tal caso si può trovare la soluzione y per il CP-ODE (5.6) e poi
trovare x (t) = h−1 (y (t)).
Vediamo un esempio per n = 1.
Esempio 5.3.1 (Un esempio di equazione di tipo Bernoulli nella teoria di crescita
ottimale). Si consideri il CP-ODE
k 0 (t) = sk α (t) − δk (t) ;
k (0) = k0
che corrisponde a (1.9) quando si consideri la funzione di produzione pro capite
fP (k) = k α con α ∈ (0, 1). In questo caso abbiamo X = (0, +∞) poichè siamo
interessati a dati iniziali strettamente positivi. Un cambio di variabile standard in
questo caso è
y (t) = k (t)β
per un opportuno β ∈ R, β 6= 0 da scegliere. la funzione h è h (k) = k β . Come è
noto h : (0, +∞) → (0, +∞), cosicchè Y = X in questo caso. Inolter h è sempre
invertibile e sia h che h−1 sono C 1 su (0, +∞). Quindi le assunzioni necessarie per
il cambio di variabile sono soddisfatte. Calcoliamo l’ODE per y. Abbiamo
y 0 (t) = βk (t)β−1 k 0 (t) = βk (t)β−1 [sk α (t) − δk (t)]
= βsk (t)β−1+α − βδk (t)β .
Ora possiamo usare il fatto che y (t) = k (t)β per ottenere
y 0 (t) = −βδy (t) + βsk (t)β−1+α .
Se scegliamo β tale che β − 1 + α = 0 (cioè β = 1 − α) allora otteniamo il CP-ODE
problema non lineare omogeneo
y 0 (t) = − (1 − α) δy (t) + (1 − α) s;
y (0) = k01−α
5.3 ODE non lineari unidimensionali
55
la cui soluzione è (si veda la formula (5.4))
y (t) = e−(1−α)δt k01−α +
Z
t
e−(1−α)δ(t−r) βsdr
0
#
"
1 − e−(1−α)δt
−(1−α)δt 1−α
=e
k0 + (1 − α) s
(1 − α) δ
h
i
s
= e−(1−α)δt k01−α +
1 − e−(1−α)δt
δ s
s
1−α
−(1−α)δt
=e
k0 −
+ .
δ
δ
Ne consegue che
1
h
1
s s i 1−α
+
.
k (t) = y (t) 1−α = e−(1−α)δt k01−α −
δ
δ
Esempio 5.3.2 (Un sistema lineare). Si consideri il seguente sistema lineare non
omogeneo
x0 (t) = Ax (t) + b,
∀t ∈ T
n
x (t0 ) = x0 ∈ R .
Consideriamo il cambio di variabile (C è un’opportuna matrice quadrata invertibile
di ordine n e d è un vettore n-dimensionale)
y (t) = Cx (t) + d.
In questo caso abbiamo
y0 (t) = Cx0 (t)
= CAx (t) + Cb
= CAC−1 (y (t) − d) + Cb
= CAC−1 y (t) − CAC−1 d + Cb
Questo cambio di variabile può essre utile per sbarazzarsi del termine non omogeneo
b. Ciò può essere fatto se e solo se
0 = −CAC−1 d + Cb
che è equivalente a richiedere
b ∈ ImA.
56
Equazioni Differenziali del Primo Ordine
5.4
Esercizi
Se non diversamente specificato all’inizio degli esercizi, X = R e T = R+ saranno
rispettivamente lo spazio degli stati e l’insieme dei tempi. Esercizio. 1 Sia T =
]0, +∞[. Si risolva il seguente CP, usando la formula per la soluzione di ODE lineari:

x(t)
1
 0
x (t) +
= 2
T =]0, +∞[.
(5.7)
t
t
 x(1) = 3
Esercizio. 2 Si risolva il seguente CP, applicando, se possibile, il metodo di
separazione delle variabili.
0
0
0
x (t) = tet (x(t) − 3)2
x (t) = t2 x(t)
x (t) = 2x(t)(1 − x(t))
c)
b)
a)
x(0) = 2
x(0) = 1.
x(0) = 2
Esercizio. 3 Si risolva il seguente CP, usando un opportuno cambio di variabile:

 0
x(t)
x2 (t)
x (t) +
=
ln t
T =]0, +∞[.
(5.8)
t
t
 x(1) = 1
Esercizio. 4 Si risolva il seguente CP, usando un opportuno cambio di variabile:
0
x (t) = (t − 1)x2 (t) + (1 − 2t)x(t) + t
T =]0, +∞[.
(5.9)
x(0) = 2
(Un’equazione della forma x0 (t) = a(t)x(t)2 + b(t)x(t) + c(t), con a, b, c funzioni
continue su un intervallo I, come (5.9), si dice una equazione di Riccati).
5.5
Soluzioni
Esercizio. 1 Applichiamo la formula per ODE lineari, cioè per equazioni del tipo
x0 (t) = a(t)x(t) + b(t):
Z t
Z s


1 
1
Z


t
−
ds
dr 
1
s
r
1
1
x(t) = e
3+
·
e
ds
2


1 s


Z t
1 ln s
− ln t
· e ds
=e
3+
2
1 s
Z t
1
1
1
=
3+
ds = {3 + ln t} .
t
t
1 s
5.5 Soluzioni
Quindi x(t) =
57
1
t
(3 + ln t) è la soluzione del CP (5.7).
Esercizio. 2
a)
x0 (t) = 2x(t)(1 − x(t))
x(0) = 2
La dinamica f del sistema è la seguente:
f : R+ ×R −→ R
(t, x) 7→ f (t, x) = 2x(1 − x).
Innanzitutto notiamo che l’esistenza e l’unicità di una soluzione locale è garantita
per ogni dato iniziale (t0 , x0 ) ∈ R+ × R. Inoltre abbiamo separazione delle variabile
con
f1 (t) = 2, f2 (x) = x(1 − x).
Dobbiamo ora dividere per f2 (x), quindi vediamo quando questo è effettivamente
possibile. Abbiamo
f (x) = 0 ⇐⇒ x(1 − x) = 0 ⇐⇒ x = 0, x = 1.
Ciò sugnifica che x = 0 e x = 1 sono punti di equilibrio e che x(t; 0, 0) = 0 e
x(t; 0, 1) = 1 per ogni t ∈ R+ . Grazie all’unicità locale, ogni soluzione uscente da
x0 6= 0, 1 non oltreopassa mai x(t; 0) = 0 e x(t; 1) = 1. In particolare ciò significa
che per x0 6= 0, 1, risulta f (x(t; x0 )) 6= 0, per ogni t ∈ R+ . Quindi, quando x0 6= 0, 1,
possiamo dividere per f2 (x); integrando e cambiando variabile otteniamo
Z x(t)
Z t
1
dx =
2ds.
(5.10)
x(1 − x)
x0
0
L’integrale nel membro destro di (5.10) è
Z t
2ds = 2t.
0
Calcoliamo l’integrale a sinistrausndo il metodo di integrazione di funzioni razionali.
Dobbiamo cercare due costanti A e B tali che
1
A
B
A(1 − x) + Bx
(B − A)x + A
= +
=
=
.
x(1 − x)
x
1−x
x(1 − x)
x(1 − x)
Confrontando i numeratori otteniamo
B−A=0
1 = (B − A)x + A =⇒
A=1
=⇒ A = 1, B = 1.
Quindi possiamo riscrivere l’integrale a sinistra in (5.10) e calcolare
Z x(t)
Z x(t)
Z x(t)
1
1
1
dx =
dx +
dx
x(1 − x)
x
1−x
2
2
2
x(t)
= [ln |x|]2
x(t)
− [ln |1 − x|]2
= ln |x(t)| − ln 2 − ln |1 − x(t)|.
58
Equazioni Differenziali del Primo Ordine
Inserendo il risultato in (5.10), abbiamo
ln |x(t)| − ln 2 − ln |1 − x(t)| = 2t
x(t) = 2t + ln 2
ln 1 − x(t) x(t) 2t+ln 2
.
1 − x(t) = e
x(t) • Se 1−x(t)
=
x(t)
1−x(t) ,
1
−2t
1+ e 2
otteniamo x(t) =
iniziale, poichè x(0) = 23 .
x(t) x(t)
, otteniamo x(t) =
• Se 1−x(t) = − 1−x(t)
iniziale, quindi è soluzione del CP.
b)
che non soddisfa la condizione
1
1−2e−2t
che soddisfa la condizione
x0 (t) = t2 x(t)
x(0) = 1.
(5.11)
La dinamica f del sistema è la seguente:
f : R+ ×R −→ R
(t, x) 7→ f (t, x) = t2 x.
Innanzitutto notiamo che l’esistenza e l’unicità di una soluzione locale è garantita
per ogni dato iniziale (t0 , x0 ) ∈ R+ × R. Inoltre abbiamo separazione delle variabili
con
f1 (t) = t2 , f2 (x) = x.
Poichè f2 (x) = x = 0 ⇐⇒ x = 0, assumiamo che x 6= 0 e dividiamo per x:
x(t)
Z
1
1
dx =
x
t
Z
s2 ds.
0
Ripetendo quanto fatto in a), otteniamo che la soluzione del CP (5.11) è data da
t3
x(t) = e 3 .
Osservazione 5.5.1. Notiamo che potremmo calcolare la soluzione di (5.11) applicando direttamente la formula per le equazioni lineari, che è molto semplice in questo
caso poichè b(t) = 0. Infatti
Rt
x(t) = e
c)
0
s2 ds
t3
=e3.
x0 (t) = tet (x(t) − 3)2
x(0) = 2
5.5 Soluzioni
59
La dinamica f del sistema è la seguente:
f : R+ ×R −→ R
(t, x) 7→ f (t, x) = tet (x − 3)2 .
Si noti che l’esistenza e l’nicità di una soluzione locale è garantita per ogni dato
iniziale (t0 , x0 ) ∈ R+ × R. Inoltre abbiamo separazione delle variabili con
f1 (t) = tet ,
f2 (x) = (x − 3)2 .
Poichè f2 (x) = (x − 3)2 = 0 ⇐⇒ x = 3, supponiamox 6= 3, dividiamo per x ed
usiamo la formula di integrazione per parti per risolvere il secondo integrale:
Z t
1
dx =
ses ds
2
(x
−
3)
0
2
x(t)
Z t
1
−
= [ses ]t0 −
es ds
x−3 2
0
1
t
t
−
− 1 = te − e + 1
x(t) − 3
1
= et − tet − 2
x(t) − 3
1
.
x(t) = 3 + t
e (1 − t) − 2
x(t)
Z
Esercizio. 3 L’ODE
x2 (t)
x(t)
=
ln t
(5.12)
t
t
è un’equazione di tipo Bernoulli con α = 2. Allora poniamo x 6= 0 e dividiamo per
x2 , ottenendo
x0 (t)
1 1
ln t
=−
+
.
x2 (t)
t x(t)
t
x0 (t) +
Posto
z(t) =
si ha
z 0 (t) = −
1
,
x(t)
1
· x0 (t).
x2 (t)
Inseriamo (5.12) in (5.13)
1
ln t 2
1
z (t) = − 2
− x(t) +
x (t)
x (t)
t
t
1 1
ln t
1
ln t
=
−
= z(t) −
.
t x(t)
t
t
t
0
(5.13)
60
Equazioni Differenziali del Primo Ordine
Abbiamo ottenuto in’equazione differenziale lineare. Quindi possiamo applicare
direttamente la formula (5.2) per calcolare la soluzione:
Z t
ln s − R s 1 dr
z(t) = e 1 ds z(1) +
−
e 1 r
s
s
1
Z t
ln s − ln s
ln t
−
1+
=e
e
ds
s
1
)
(
t
ln t
1
=t 1+
− −
t
s 1
Rt 1
= ln t + t.
Infine la soluzione di (5.8) è data da
x(t) =
per ogni t ∈
1
1
=
,
z(t)
ln t + 1
1
, +∞ .
e
Esercizio. 4 L’ODE
x0 (t) = (t − 1)x2 (t) + (1 − 2t)x(t) + t
(5.14)
è un’equazione di tipo Riccati ed in generale non esiste una formula esplicita per
calcolarne una soluzione. Tuttavia, se un integrale particolare x̄ = x̄(t) è noto, allora
il cambio di variabile
1
x(t) = x̄(t) +
z(t)
trasforma l’equazione (5.14) in un’equazione lineare, dove z è la nuova variabile.
Notiamo che l’equazione (5.14) ammette la soluzione costante
x̄ = 1,
come si può facilmenet verificare sostituendo nell’equazione. Applichiamo quindi il
cambio di variabile e otteniamo:
x0 (t) = −
z 0 (t)
z 2 (t)
che fornisce
z 0 (t)
1 2
1
− 2
= −2(t + 1) −1 +
− 2(2t + 3) −1 +
− 2t − 4.
z (t)
z(t)
z(t)
Semplificando
z 0 (t) = 2z(t) + 2t + 2
5.6 Stabilità dei punti di equilibrio nel caso non lineare
61
da cui
z(t) = e2t
1
+
2
Z
t
(2s + 2)e−2s ds
0
3
= 2e2t − t − .
2
Quindi la soluzione del CP (5.9) è data da:
3
x(t) = −1 + 2e − t −
2
5.6
5.6.1
2t
−1
.
Stabilità dei punti di equilibrio nel caso non lineare
Stabilità attraverso linearizzazione
Analogamente al caso a tempi discreti, introduciamo la procedura di linearizzazione
a tempi continui per studiare le proprietà di stabilità locale dei punti di equilibrio
per ODE non lineari.
Data l’ODE autonoma
x0 (t) = f (x (t))
(5.15)
ed il suo punto di equilibrio x̄, allora la linearizzazione di tale ODE vicino a x̄ è
rappresentata dall’ODE lineare
y 0 (t) = f 0 (x̄) (y (t) − x̄)
(5.16)
dove abbiamo sostituito la funzione f che compariva nel membro destro con la linearizzazione vicino a x̄. Ciò deriva dallo sviluppo di Taylor di f arrestato al primo
ordine, cioè
f (z) = f (x̄) + f 0 (x̄) (z − x̄) + o (|z − x̄|) = f 0 (x̄) (z − x̄) + o (|z − x̄|)
dove nell’ultima uguaglianza abbiamo usato il fatto che f (x̄) = 0 poichè x̄ è un
punto di equilibrio. Il termine f 0 (x̄) (z − x̄) è detto linearizzazione di f vicino a x̄.
Il Teorema di Hartmann-Grossmann stabilisce che la stabilità locale di x̄ nel sistema
non lineare coincide con quella di x̄nel sistema linearizzato se f 0 (x̄) 6= 0. Abbiamo
infatti il seguente risultato.
Teorema 5.6.1. Si consideri l’ODE nonlineare autonoma (5.15) in dimensione 1 e
si assuma che f ∈ C 1 (X; R). Sia x̄ ∈ IntX un punto di equilibrio tale che f 0 (x̄) 6= 0.
Allora x̄ è stabile se e solo se f 0 (x̄) < 0. IIn tal caso è anche (AS).
Osservazione 5.6.2. Se f 0 (x̄) = 0, allora non possiamo dire nulla a priori. Infatti il comportamento del punto di equilibrio dipenderà dalla specifica struttura del
problema. Ad esempio si può pensare ai seguenti tre casi dell’ODE ODE (5.16), con
x̄ = 0:
f (x) = x2 ,
f (x) = x3 ,
f (x) = −x3 .
62
Equazioni Differenziali del Primo Ordine
In tali casi possiamo calcolare le soluzioni attraverso il metdo di separazione delle
variabili (si vedano l’esempio 5.3.1 e l’esercizio ??). Nel primo caso la soluzione del
CP-ODE associato con condizione iniziale x (t0 ) = x0 è (si veda l’esempio 5.3.1)
1 −1
x (t) = (t0 − t) +
x0
ed il punto di equilibrio x̄ = 0 è instabile da destra e (AS) da sinistra, poichè per x0 <
0 le traiettorie sono crescenti e convergono a 0 quando t → +∞ (si usi la Proposizione
3.2.9). Nel secondo caso la soluzione è (si veda l’ultima parte dell’Esempio 5.3.1 per
n = 3)
1
1 −2
x (t) = 2 (t0 − t) + 2
.
x0
ed il punto di equilibrio x̄ = 0 è instabile da sinistra e da destra. Ogni soluzione
uscente da x0 6= 0 esplode in tempo finito. Nel terzo caso la soluzione è (si veda
l’esercizio 5.3.1 per α = 3)
1
x (t) = 2 (t − t0 ) + 2
x0
− 1
2
.
ed il punto di equilibrio x̄ = 0 è stabile e (AS) e (GAS) da sinistra poichè per x0 6= 0
le traiettorie sono crescenti e convergono a 0 quando t → +∞ (si usi la Proposizione
3.2.9).
5.7
Studio qualitativo dei problemi di Cauchy
Qui forniamo alcune idee per effettuare uno studio qualitativo delle curve integrali
di un’ODE nel caso n = 1. Innanzitutto chiariamo cosa intendiamo per studio
qualitativo (QS d’ora in poi). Gli scopi principali di in QS saranno per noi stabilire:
• eesistenza e unicità (locale e globale);
• monotonia delle traiettorie;
• proprietà di stabilità dei punti di equilibrio ((S), (AS), (BA), (GAS)), se
esistono.
Per ottenere tale scopo, indichiamo un percorso standard da seguire che funziona in
molti casi semplici, particolarmente nei casi autonomi.
1. Controllare se esistenza ed unicità valgono in ogni possibile coppia di tempo
e stato iniziale: solitamente si usa il Corollario 2.4.17. Laddove esso non si
applica, si può tentare di applicare il Teorema 2.4.9 o il Corollario 2.4.11.
2. Controllare se esistono punti di equilibrio: è sufficiente trovare x ∈ X tale che
f (t, x) = 0 per ogni t ∈ T. Nel caso autonomo questo si riduce a cercare le
soluzioni dell’equazione f (x) = 0.
5.7 Studio qualitativo dei problemi di Cauchy
3. Controllare la monotonia (e la convessità/concavità) delle soluzioni. La monotonia si trova guardando il segno della dinamica f che è facile nel caso autonomo) e poi usando il fatto che x0 (t) = f (t, x (t)) ed i risultati dei precedenti
punti 1, 2 e l’Osservazione 2.4.18. La convessità/concavità può essre studiata
con argomenti simili derivando l’ODE. Noi non lo faremo solitamente: si veda
l’esempio ?? per un caso di studio di tali proprietà.
4. Controllare se l’esistenza globale vale e dove. Si possono applicare i Teoremi 2.4.20 e 2.4.21 (che solitamente necessitano dei precedenti punti 1,2,3 e
dell’Osservazione 2.4.18 per essere applicati).
5. Controllare, se possibile, quali sono i limiti all’infinito della soluzione e, se
esistono punti di equilibrio, la loro stabilità Questo si può fare tentando di
calcolare i limiti delle traiettorie all’infinito. Ciò è abbastanza semplice nel caso
autonomo usando un argomento per assurdo che noi illustraremo nel prossimo
esempio.
Analizziamo ora un esempio seguendo il percorso descritto.
Esempio 5.7.1 (L’equazione logistica nel caso a tempi continui). Il problema di
Cauchy è autonomo ed è, nel caso in cui il tempo iniziale sia 0,
x0 (t) = ax (t) (M − x (t)) ;
x (0) = x0 .
Analizziamolo seguendo i cinque punti descritti sopra. Innanzitutto prendiamo T =
R+ e X = R.
1. Esistenza ed unicità locale. Queste valgono per ogni tempo e stato iniziale
(t0 , x0 ) ∈ R+ ×R. IInfatti applicando il Corollario 2.4.17 abbiamo
f (t, x) = f (x) = ax (M − x)
e f è continua in R con le sue derivate f 0 (x) = aM − 2ax.
2. Punti di equilibrio. Ponendo f (x) = 0 otteniamo due soluzioni, x = 0 and
x = M . Questi sono i punti di equilibrio.
3. Monotonia. Studiando il segno di f possiamo vedere che
f (x) > 0 ⇐⇒ x ∈ (0, M )
f (x) < 0 ⇐⇒ x ∈ (−∞, 0) ∪ (M, +∞) .
Nel caso f (x) = 3x (5 − x) abbiamo il seguente grafico di f .
Quindi, se la soluzione che uscente da x0 al tempo 0 (i.e. x (t; 0, x0 ) che scriviamo x (t; x0 ) d’ora in poi) appartiene a (0, M ), essa è strettamente crescente
al tempo t. Se al contrarion appartiene a (−∞, 0) ∪ (M, +∞), allora essa
è strettamente decrescente al tempo t. Grazie all’unicità locale (punto 1) e
63
64
Equazioni Differenziali del Primo Ordine
all’Osservazione 2.4.18, le curve integrali non si oltrepassano mai l’un l’altra. In particolare le traiettorie con x0 6= 0, M non oltrepassano mai le linee
x (t; 0) ≡ 0 e x (t; M ) ≡ M . Questo significa che queste soluzioni di equilibrio dividono X = R in tre regioni. Se x0 è in una di queste regioni, anche
x (t; x0 ) appartiene alla stessa regione per ogni t tale che x (t; x0 ) è definito, cioè
nell’intervallo massimale di definizione della soluzione (Definizione 2.4.19: al
momento non sappiamo ancora se la soluzione è globale). In particolare questo
significa che per ogni x0 ∈ (0, M ) e t nell’intervallo massimale di definizione
della soluzione risulta x (t; x0 ) ∈ (0, M ), quindi x0 (t; x0 ) > 0. Questo implica che x (t; x0 ) è strettamente positivo per t nell’intervallo massimale. D’altra parte, ragionando esattamente nello stesso modo, possiamo vedere che, se
x0 ∈ (−∞, 0) ∪ (M, +∞), allora x (t; x0 ) è strettamente positivo nell’intervallo
massimale.
Exercise 5.7.1. Si studi la convessità e la concavità delle soluzioni.
4. Esistenza globale. Non possiamo applicare il Teorema 2.4.20. Tentiamo di
applicare il Teorema 2.4.21. Consideriamo le tre regioni separatamente.
Partiamo dal caso x0 ∈ (0, M ). Per il precedente punto 3, sappiamo che
x (t; x0 ) ∈ (0, M ) per ogni t tale che x (t; x0 ) sia definita. Ma questo significa
che x (t; x0 ) è limitata dove è definita. Possiamo quindi applicare il Teorema
2.4.21 ottenendo l’esistenza globale quando x0 ∈ (0, M ).
Sia ora x0 > M . In questo caso, grazie all’Osservazione 2.4.18, abbiamo
x (t; x0 ) > M sull’intervallo massimale di definizione. Inoltre la soluzione è
strettamente decrescente: ciò significa che x (t; x0 ) ≤ x0 sull’intervallo massimale. Abbiamo quindi x (t; x0 ) ∈ (M, x0 ] per ogni t nell’intervallo massimale. Quindi possiamo applicare il Teorema 2.4.21 ed ottenere esistenza globale
quando x0 > M .
Questo regionamento non funziona per x0 < 0. Quindi al momento se la
soluzione è globale in questo caso. Vedremo che non è globale nell’ Esercizio
??.
5. Limiti e stabilità. Analizziamo i limiti all’infinito delle soluzioni quando x0 ≥
0. Queste sono le condizioni iniziali interessanti per le applicazioni del modello
ed in questi casi sappiamo che la soluzione globale esiste ed è unica grazie ai
punti 1-4. Se x0 ∈ (0, M ), allora x (t; x0 ) è strettamente crescente e < M per
ogni t ≥ 0. Ciò implica che (si ricordi che la monotonia implica l’esistenza di
un limite)
∃ lim x (t; x0 ) = L ∈ (x0 , M ] .
t→+∞
Vogliamo dimostrare che il limite è esattamente il punto di equilibrio M . Assumiamo per assurdo che il limite sia L < M . In tal caso avremmo, sostituendo
nell’ODE
∃ lim x0 (t; x0 ) = lim ax (t; x0 ) (M − x (t; x0 )) = aL (M − L) > 0.
t→+∞
t→+∞
Ciò è impossibile perchè abbiamo il seguente risultato.
5.7 Studio qualitativo dei problemi di Cauchy
Teorema 5.7.2. Sia I un intervallo di R e sia h : I → R una funzione
derivabile. Si assuma che h sia monotona e che, per t1 punto di accumulazione
di I (compreso il caso t1 = +∞)
lim h (t) = A ∈ R,
t→t1
∃ lim h0 (t) = B.
t→t1
Allora deve essere B = 0.
Quindi, per il precedente Teorema 5.7.2, per x0 ∈ (0, M )
∃ lim x (t; x0 ) = M.
t→+∞
Allo stesso modo possiamo dimostrare che per x0 > M
∃ lim x (t; x0 ) = M.
t→+∞
Questo implica che M iè asintoticamente stabile (ma non globalmente), mentre 0 è instabile. Inoltre B (M ) = (0, +∞). Poichè dal punto di vista delle
applicazioni i dati interessanti sono esattamente (0, +∞), possiamo restringere
l’analisi a tali dati iniziali (ponendo dall’inizio X = (0, +∞)). In tal modo
avremmo che M è l’unico punto di equilibrio e che è (GAS)
Si noti che il grafico di f può essere usato per ottenere rapidamente un’idea del comportamento delle soluzioni per differenti dati iniziali. Sarebbe sufficiente disegnare
la frecca a destra nella parte dell’asse x dove f è positiva e la freccia sinistra nella parte dove essa è negativa. Tali frecce danno le direzioni in cui la soluzione si
muove, cosicchè si può rapidamente vedere che per dati positivi il sistema converge al
punto di equilibrio M . Questo è chiamato il diagramma di fase del sistema dinamico
rappresentato dalla nostra ODE.
65
66
Equazioni Differenziali del Primo Ordine
Bibliografia
[1] A. Araujo and J.A. Scheinkman (1983) Maximum Principle and Tranversality
Condition for Concave Infinite Horizon Economic Models, Journal of Economic
Theory, 30, 1-16.
[2] H. Atsumi (1969), The efficient capital programme for a maintainable utility
level, Review of Economic Studies, 35, 263-87.
[3] M. Bardi and I. Capuzzo Dolcetta (1997), Optimal Control and Viscosity Solutions of Hamilton-Jacobi-Bellman Equations, Birkhauser,
Boston.
[4] E. Barucci, F. Gozzi and A. Swiech (2000), Incentive Compatibility Constraints
and Dynamic Programming in Continuous Time, J. Mathematical Economics,
34(4), 471-508.
[5] R.J. Barro and X. Sala-i-Martin (1995), Economic Growth, Mc Graw-Hill,
New York.
[6] R. Bellman (1957), Dynamic Programming. Princeton University press,
Princeton, NJ.
[7] L. Benveniste and J.A. Scheinkman (1982), Duality Theory for Dynamic Optimization Models in Economics: The Continuous Time Case. Journal of
Economic Theory, 27, 1-19.
[8] G.I. Bischi, On discrete time models in population dynamics, draft.
[9] H. Brezis (1983), Lécons d’analyse fonctionnelle, Masson, Paris.
[10] W.A. Brock, A.G. Malliaris (1989), Differential Equations, Stability and Chaos
in Dynamic Economics, (North Holland) (2)
[11] P. Cannarsa and H. Frankowska (1992), Value Function and Optimality Conditions for Semilinear Control Problems, Applied Mathematics and Optimization,
26, 139-169.
[12] P. Cannarsa, F. Gozzi and C. Pignotti, Regularity for the HJB equation related
to endogenous growth models, in preparation.
67
68
BIBLIOGRAFIA
[13] E. Castagnoli, L. Peccati (1995), Matematica per l’analisi economica, vol 1 e 2,
(ETAS) (1,2);
[14] E. Castagnoli, L. Peccati (1996), La matematica in azienda: strumenti e modelli
vol 4 (sistemi dinamici con applicazioni), (EGEA) (1);
[15] M. Castellani, F. Gozzi (2001), Matematica di base per l’Economia e l’Azienda,
Esercizi e testi d’esame svolti, (Esculapio).
[16] L. Cesari (1983), Optimization Theory and Applications, Springer–
Verlag, New York.
[17] F. Clarke (1983), Optimization and Nonsmooth Analysis, John Wiley &
sons, New York.
[18] M. G. Crandall, H. Ishii and P. L. Lions (1992), User’s guide to viscosity
solutions of second order partial differential equations, Bull. A.M.S., 27,1, 1-67.
[19] S. Dasgupta and T. Mitra (1988), Intertemporal optimality in a closed linear
model of production, Journal of Economic Theory, 45, 288-315.
[20] W.H. Fleming and H.M. Soner (1993),Controlled Markov processes and
viscosity solutions, Springer-Verlag, Berlin, New-York.
[21] G. Gandolfo (1997), Economic Dynamics (Springer) (1,2).
[22] F. Gozzi, G. Sargenti and A. Swiech, On the HJB equation for state constraints
optimal control problems arising in economics, in preparation.
[23] A. Guerraggio, S. Salsa (1997), Metodi matematici per l’economia e le scienze
sociali, (Giappichelli), (1,2);
[24] R.F. Hartl, S.P. Sethi and R.G. Vickson (1995), A Survey of the Maximum
Principles for Optimal Control Problems with State Constraints, SIAM Review,
37, 181-218.
[25] M. Hirsch, S. Smale, Linear Algebra and Differential Equations.
[26] Ishii H. and Koike S. (1996), A new formulation of state constraint problems for
first order pde’s SIAM J. Control Optim., 34, 554-571.
[27] M. Kaganovich (1998), Sustained endogenous growth with decreasing returns
and Heterogeneous capital, Journal of Economic Dynamics and Control, 22,
1575-1603.
[28] H.D. Kurz and N. Salvadori (1995), Theory of Production: A LongPeriod Analysis. Cambridge, New York, Melbourne: Cambridge University
Press.
[29] L. Leonard, N. Van Long, Optimal control and economic applications.
BIBLIOGRAFIA
[30] R. E. Lucas (1988), On the mechanics of economic development, Journal of
Monetary Economics, 22, 3-42.
[31] L. W. McKenzie (1998), Turnpikes, American Economic Review, 88, 2, 1-14.
[32] E. Malinvaud (1998), it Capital Accumulation and Efficient Allocation of
Resources, Econometrica, 21, 233-68.
[33] J. von Neumann (1945), A Model of General Economic Equilibrium, Review of
Economic Studies 13, 1-9.
[34] L. Neustadt (1976), Optimization, a Theory of Necessary Conditions,
Princeton University press, Princeton, NJ.
[35] L.C. Piccinini, G Stampacchia, G. Vidossich (1978), Equazioni differenziali
ordinarie in Rn (problemi e metodi), (Liguori);
[36] L.S. Pontryagin, V.G. Boltyanskii, R.V. Gamkrelidze and E.F. Mischenko (1962), The Mathematical Theory of Optimal Processes,
Wiley-Interscience, New York.
[37] S. Rebelo (1991), Long Run Policy Analysis and Long Run Growth. Journal of
Political Economy 99, 500-521.
[38] R.T. Rockafellar (1972), State Constraints in convex control problems of Bolza,
SIAM J. Control Optim. 10, 691-715.
[39] R.T. Rockafellar (1976), Convex Analysis, Princeton University press,
Princeton, NJ.
[40] N. Salvadori, A Linear Multisector Model of ”Endogenous” Growth and the
Problem of Capital, Metroeconomica, 49, 3, October 1998.
[41] A. Seierstad (1986), Nontrivial Multipliers and Necessary Conditions for Optimal Control Problems with Infinite Horizon and Time Path Restrictions,
Memorandum from Department of Economics, University of Oslo, 24.
[42] A. Seierstad and K. Sydsaeter (1987), Optimal Control Theory with
Economic Applications. North Holland, Amsterdam.
[43] A. Simon, K. Blume, Mathematics for economists.
[44] E. Tessitore (1995), Optimality Conditions for Infinite Horizon Optimal Control
Problems, Bollettino UMI, 7, 795-814.
[45] A. Takayama (1974), Mathematical Economics. Cambridge University
Press, Cambridge, New York, Melbourne.
[46] K. Yosida (1980), Functional Analysis, sixth edition Springer-Verlag,
Berlin, New-York.
[47] J. Zabczyk (1992), Mathematical control theory: an introduction,
Birkäuser, Basel.
69