Sistemi dinamici - Iac-Cnr
Transcript
Sistemi dinamici - Iac-Cnr
Università LUISS Guido Carli, A.A. 2009-2010 (I semestre) Metodi Matematici per la Finanza SECONDA PARTE: Equazioni Differenziali e alle Differenze Prof. Fausto Gozzi (in collaborazione con Dott.ssa Alessandra Cretarola) 2 Indice 1 Introduzione ai sistemi dinamici 1.0.1 Obiettivi della seconda parte del corso . . . . . . . . . . . . . 1.0.2 Notazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1 Prime definizioni ed esempi . . . . . . . . . . . . . . . . . . . . . . . 1.1.1 Sistemi dinamici descritti da equazioni differenziali o alle differenze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.2 Alcune osservazioni utili . . . . . . . . . . . . . . . . . . . . . 1.2 Esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.1 L’evoluzione di un deposito in banca . . . . . . . . . . . . . . 1.2.2 Modelli di crescita della popolazione e di marketing . . . . . . 1.2.3 Modello preda-predatore (Lotka - Volterra) . . . . . . . . . . 1.2.4 Modello di crescita di Solow . . . . . . . . . . . . . . . . . . . 1.2.5 Mercato competitivo . . . . . . . . . . . . . . . . . . . . . . . 1.2.6 Gestione (Management) di produzione . . . . . . . . . . . . . 1.3 Una definizione formale di sistema dinamico . . . . . . . . . . . . . . 1.3.1 Tempo discreto o tempo continuo? Qualche spunto di riflessione 6 10 12 12 13 15 15 16 17 17 20 2 Esistenza ed unicità delle soluzioni 2.1 Il caso a tempi discreti . . . . . . . 2.1.1 Soluzioni locali . . . . . . . 2.1.2 Esistenza ed unicità globale 2.2 Esercizi . . . . . . . . . . . . . . . 2.3 Soluzioni . . . . . . . . . . . . . . . 2.4 Il caso a tempi continui . . . . . . 2.4.1 Soluzioni locali . . . . . . . 2.4.2 Esistenza ed unicità globale 2.5 Esercizi . . . . . . . . . . . . . . . 2.6 Soluzioni . . . . . . . . . . . . . . . . . . . . . . . . . 23 23 24 25 26 27 27 29 33 34 35 3 Stabilità dei punti di equilibrio 3.1 Definizioni e commenti . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Stabilità e stabilità asintotica . . . . . . . . . . . . . . . . . . . . . . 39 39 40 The case n = 1 42 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 5 5 5 4 INDICE 4 Equazioni alle differenze del primo ordine 4.1 Equazioni alle differenze lineari del caso unidimensionale . . . 4.2 Stabilità dei punti di equilibrio nel caso lineare . . . . . . . . 4.3 Equazioni alle differenze non lineari nel caso unidimensionale 4.4 Stabilità dei punti di equilibrio nel caso non lineare . . . . . . 4.4.1 Stabilità attraverso linearizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 45 46 47 47 47 5 Equazioni Differenziali del Primo Ordine 5.1 ODE lineari nel caso unidimensionale . . . . . . . . 5.2 Stabilità dei punti di equilibrio nel caso linerare . . 5.3 ODE non lineari unidimensionali . . . . . . . . . . 5.3.1 Separazione delle variabili . . . . . . . . . . 5.3.2 Cambio di variabile . . . . . . . . . . . . . . 5.4 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . 5.5 Soluzioni . . . . . . . . . . . . . . . . . . . . . . . . 5.6 Stabilità dei punti di equilibrio nel caso non lineare 5.6.1 Stabilità attraverso linearizzazione . . . . . 5.7 Studio qualitativo dei problemi di Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 49 50 51 52 53 56 56 61 61 62 Bibliography . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 Capitolo 1 Introduzione ai sistemi dinamici 1.0.1 Obiettivi della seconda parte del corso Lo scopo principale della seconda parte del corso è quello di fornire i concetti base della teoria matematica dei sistemi dinamici partendo da alcune applicazioni ben note in economia, management, e finanza. In particolare, gli argomenti trattati riguarderanno: • i risultati matematici e gli strumenti usati per formalizzare e studiare alcuni modelli ben noti in economia e finanza frequentemente incontrati in letteratura; • alcuni metodi di base per risolvere problemi semplici e affrontare problemi più complessi che coinvolgono equazioni differenziali (e alle differenze). 1.0.2 Notazioni Le lettere in grassetto denotano i vettori (o funzioni che mappano numeri reali in vettori). Le componenti dei vettori non sono in grassetto. 1.1 Prime definizioni ed esempi Molti problemi applicati in economia, management e finanza sono di natura dinamica. Generalmente parlando, non possono essere compresi (o predetti, o anche controllati) semplicente osservandoli ad un certo istante; è necessario poter osservare la loro evoluzione nel tempo. Per maggiori dettagli ed un’approfindita trattazione, si legga ad esempio l’introduzione di [21], o il primo capitolo di [14]. Il primo passo nella costruzione un modello è quello di “identificare” le variabili che descrivono completamente il problema che stiamo trattando. Tali variabili sono comunemente chiamate variabili di stato. Dato che il problema è di natura dinamica, ciò che interessa maggiormente è lo studio dell’evoluzione di tali variabili di stato al variare del tempo1 . Questo significa che, se indichiamo con x il vettore delle variabili 1 Naturalmente, nello studio del problema possono esserci altri obiettivi. In alcuni casi, può essere interessante lo studio del comportamento delle variabili di stato (e.g. monotonia, convessità, punti estremali, comportamento asintotico,...); in altri casi risulta interessante controllare il com- 5 6 Introduzione ai sistemi dinamici di stato, siamo interessati a studiare la funzione x : T → X ⊆ Rn dove • T è un sottoinsieme assegnato di R e rappresenta l’insieme dei tempi nei quali vogliamo calcolare il valore della variabile di stato; • X è un sottoinsieme assegnato di Rn (n è il numero delle componenti della variabile di stato che stiamo considerando), dove vive la variabile di stato (di solito dipende dal tipo di problema: ad esempio se, per n = 1, x rappresenta un prezzo, è naturale richiedere che prezzi siano ≥ 0 e quindi X = [0, +∞)). Tale funzione x è, euristicamente, il cuore di un sistema dinamico n-dimensionale e descrive l’evoluzione nel tempo della variabile di stato. Naturalmente x dipenderà dal valore dei parametri che compaiono nel modello, specialmente dai dati iniziali. Non daremo qui la definizione formale di Sistema Dinamico (in breve SD da adesso in avanti), lasciandola per la sezione 1.3. L’insieme dei tempi T può essere sostanzialmente di due tipi: • T ⊆ N che è il caso di un SD a tempi discreti; • T è un intervallo di R possibilmente non limitato, e questo è il caso di un SD a tempi continui. Se la funzione x è nota in forma esplicita allora possiamo utilizzare gli strumenti necessari per studiare una funzione di questo tipo (che è comunemente chiamata una curva in Rn , si veda ad esempio [43, Sezione 4.5] per una teoria base sulle curve). Ma di solito, x non è esplicitamente nota. Nella sottosezione seguente, descriviamo cosa è comunemente noto in questi modelli. 1.1.1 Sistemi dinamici descritti da equazioni differenziali o alle differenze In molti modelli dinamici, sono note le seguenti cose: • il valore x0 dello stato ad un certo istante t0 (di solito, ma non necessariamente, il primo oppure l’ultimo); • la legge di evoluzione, che andiamo a studiare distinguendo il caso a tempi discreti da quello a tempi continui. portamento delle variabili di stato nel raggiungere certi stati, oppure massimizzare alcune funzioni obiettivo, e così via. Vedremo queste cose più avanti in alcuni esempi. 1.1 Prime definizioni ed esempi 7 Tempi discreti. La legge di evoluzione è una relazione tra il valore x (t) della variabile di stato al tempo t e i suoi valori ad istanti successivi, i.e. in forma generale è rappresentata nel modo seguente: G (t, x (t) , x (t + 1) , x (t + 2) , ..., x (t + k)) = 0 ∀t ∈ T dove G : T × X k+1 → Rp è una funzione assegnata. L’espressione sopra è chiamata Equazione alle Differenze (in breve ED da adesso in poi) di ordine k (dato che coinvolge i valori della variabile di stato da x (t) a x (t + k)). Il numero p rappresenta il numero di equazioni. Di solito, quando p = 1 indicheremo G senza il grassetto (dato che il grassetto si usa per indicare i vettori). Invece per p ≥ 2 useremo il simbolo G e parleremo di Sistemi di equazioni alle differenze. Esempio 1.1.1. Prendiamo T = N, X = R. L’equazione 1 x(t + 1) = tx(t + 2)2 − t 2 x(t)3 + 1, t∈N è un’equazione alle differenze di secondo ordine (k = 2, p = 1). Qui 1 G(t, x0 , x1 , x2 ) = x1 − tx22 + t 2 x30 − 1. Prendiamo ora T = N − 0, X = R2 . Il sistema x(t + 1) = tx(t)3 − x(t + 1)2 t + ey(t) , 1 y(t + 1) = ty(t + 2)2 − t 2 x(t)3 + 1, t∈N t∈N è un sistema di 2 equazioni alle differenze di ordine 2 (k = p = 2) dove G(t, x0 , x1 , x2 , y0 , y1 , y2 ) = 1 x21 y0 3 x1 − tx0 + − e , y1 − ty2 + t 2 x0 − 1 . t Un caso particolare più semplice (quando p = n) è quello in cui è possibile riscrivere l’equazione sopra come x (t + k) = g (t, x (t) , x (t + 1) , x (t + 2) , ..., x (t + k − 1)) ∀t ∈ T per una funzione assegnata g : T × X k → Rn . Tali ED sono chiamate ED in forma normale. L’ED è detta autonoma se G (o equivalentemente, g) non dipende da t. Se invece lo è, l’ED è detta non autonoma. Come sopra useremo il grassetto per la funzione g solo quando p ≥ 2. Esempio 1.1.2. Prendiamo T = N, X = R, k = p = 1. L’equazione alle differenze x(t) = 2x(t + 1) − 1, t ∈ N 8 Introduzione ai sistemi dinamici è un’equazione alle differenze di primo ordine che può essere scritta in forma normale esplicitando x(t + 1 in funzione di x(t) e ottenendo 1 1 x(t + 1) = x(t) + , 2 2 t ∈ N. Invece l’equazione alle differenze x(t) = x(t + 1)2 , t∈N non si può scrivere in forma normale (ESERCIZIO: spiegare perché). Tempi continui. La legge di evoluzione in questo caso è una relazione tra il valore x (t) della variabile di stato al tempo t e le sue successive derivate allo stesso istante, i.e. in forma generale è rappresentata nel modo seguente: F t, x (t) , x0 (t) , x00 (t) , ..., x(k) (t) = 0 ∀t ∈ T dove F : T × X0 × X1 × X2 × . . . Xk → Rp è una funzione assegnata (Xi ⊆ Rn è l’insieme dove vogliamo vincolare la i−esima derivata della variabile di stato). L’espressione sopra è chiamata Equazione Differenziale Ordinaria (in breve EDO da adesso in poi) di ordine k (dato che coinvolge i valori delle derivate fino all’ordine k). Il numero p rappresenta il numero di equazioni. Di solito, quando p = 1 indicheremo F senza il grassetto (dato che il grassetto si usa per indicare i vettori). Invece per p ≥ 2 useremo il simbolo F e parleremo di Sistemi di equazioni differenziali. Esempio 1.1.3. Prendiamo T = R, X = R. L’equazione 1 x(t) = tx00 (t)2 − t 3 x0 (t)3 + 1, t∈R è un’equazione differenziale di secondo ordine (k = 2, p = 1). Qui 1 F (t, x0 , x1 , x2 ) = x0 − tx22 + t 3 x31 − 1. Prendiamo ora T = (0, +∞), X = R2 . Il sistema 0 x0 (t) = tx(t)3 − x00 (t)2 t + ey (t) , 1 y(t) = ty 00 (t)2 − t 2 x(t)3 + 1, t ∈ (0, +∞) t ∈ (0, +∞) è un sistema di 2 equazioni alle differenze di ordine 2 (k = p = 2) dove F(t, x0 , x1 , x2 , y0 , y1 , y2 ) = x1 − tx30 1 x22 y1 3 + − e , y0 − ty2 + t 2 x0 − 1 . t 1.1 Prime definizioni ed esempi 9 Come per le ED un caso particolare più semplice (quando p = n) è quello in cui è possibile riscrivere l’equazione sopra come: x(k) (t) = f t, x (t) , x0 (t) , x00 (t) , ..., x(k−1) (t) ∀t ∈ T per una funzione assegnata f : T × X0 × X1 × X2 × . . . Xk−1 → Rn . Tali EDO sono chiamate EDO in forma normale. L’EDO è detta autonoma se F (o, equivalentemente, f ) non dipende da t. Se invece lo è, l’EDO è detta non autonoma. Come sopra useremo il grassetto per la funzione f solo quando p ≥ 2. Esempio 1.1.4. Prendiamo T = R, X = R, k = p = 1. L’equazione alle differenze x(t) = 3x0 (t) − 2, t ∈ R è un’equazione differenziale di primo ordine che può essere scritta in forma normale esplicitando x0 (t) in funzione di x(t) e ottenendo 1 1 x0 (t) = x(t) + , 3 3 t ∈ R. Invece l’equazione differenziale x(t) = x0 (t)2 , t∈R non si può scrivere in forma normale (ESERCIZIO: spiegare perché). In questi casi parleremo di Sistemi Dinamici descritti da ED (o da EDO). Possiamo anche dire che le ED assegnate (o le EDO) sono le rappresentazioni locali di un Sistema Dinamico. In entrambi i casi descritti sopra, quando il numero p delle equazioni è strettamente maggiore di 1, talvolta si può parlare di “Sistemi di ED o di EDO”. Da adesso in avanti, considereremo soltanto SD la cui legge di evoluzione è una ED o EDO del primo ordine in forma normale: x (t + 1) = g (t, x (t)) , x0 (t) = f (t, x (t)) , ∀t ∈ T ∀t ∈ T. Questa legge di evoluzione sarà accoppiata alla condizione x (t0 ) = x0 ∈ X. Di solito, ma non sempre, t0 sarà il primo punto dell’insieme dei tempi T. Per questa ragione, la condizione x (t0 ) = x0 è di solito chiamata “condizione iniziale”. Ma può accadere che t0 sia il punto finale (o un qualsiasi altro punto) di T e buona parte della teoria che svilupperemo funzionerà ugualmente. Specificheremo le differenze se ce ne saranno. 10 Introduzione ai sistemi dinamici Il risultato di questo accoppiamento sono i cosiddetti Problemi di Cauchy (in breve PC da adesso in avanti): x (t + 1) = g (t, x (t)) , ∀t ∈ T (1.1) x (t0 ) = x0 ∈ X; 0 x (t) = f (t, x (t)) , ∀t ∈ T (1.2) x (t0 ) = x0 ∈ X; faremo loro riferimento come PC-ED e PC-EDO. Vedremo che sotto opportune ipotesi (che nei nostri esempi saranno quasi sempre verificate), la soluzione di tali problemi di Cauchy esiste ed è unica (si veda il Capitolo 2). Per evidenziare la dipendenza di tali soluzioni dal dato iniziale, le denoteremo x (t; t0 , x0 ) o semplicemente x (t; x0 ) quando t0 = 0 è fissato (talvolta, quando sarà chiaro dal contesto, scriveremo semplicemente x (t)). Diamo ora alcune definizioni che saranno utili più avanti: • l’immagine della funzione x (·; t0 , x0 ) cioè l’insieme C = {x (t; t0 , x0 ) , t ∈ T} è chiamato l’orbita (del SD) associata al dato iniziale (t0 , x0 ). Si tratta di un sottoinsieme di Rn . • La famiglia delle curve integrali del SD è la famiglia delle curve x (t; t0 , x0 ) , t0 ∈ T, x0 ∈ X . Spesso t0 è fissato una volta per tutte e allora la famiglia delle curve integrali del SD è la famiglia delle curve {x (t; t0 , x0 ) , x0 ∈ X}. Le curve integrali sono spesso anche chiamate traiettorie del SD. Ogni curva integrale è un sottoinsieme di T × Rn . • Un punto x0 ∈ X tale che per ogni t e t0 la funzione costante x (t; t0 , x0 ) = x0 è una soluzione del problema di Cauchy (1.1) o (1.2) è chiamato punto di equilibrio. 1.1.2 Alcune osservazioni utili Osservazione 1.1.5. Osserviamo che, per dare senso ad un PC-ED come (1.1) abbiamo solo bisogno di richiedere che x (t) ∈ X, mentre, per dare senso ad un PCEDO come (1.2), bisogna richiedere che la funzione x (·) sia differenziabile in ogni punto t ∈ T. Ciò significa che lo studio di equazioni differenziali ordinarie richiede in generale più ipotesi di regolarità sulle funzioni coinvolte. Osservazione 1.1.6. Una volta che sappiamo come studiare una ED od una EDO del primo ordine in forma normale, risulta molto semplice trattare ED o EDO del k-esimo ordine in forma normale. Infatti ogni ED o EDO del k-esimo ordine in 1.1 Prime definizioni ed esempi 11 forma normale è equivalente ad una ED o EDO del primo ordine in forma normale con kn variabili. Per verificarlo nel caso di una EDO con n = 1, consideriamo una qualsiasi EDO di ordine k > 1 scritta in forma normale x(k) (t) = f t, x (t) , x0 (t) , x00 (t) , ..., x(k−1) (t) ∀t ∈ T (1.3) dove f : T × X0 × . . . × Xk−1 → R (Xi ⊆ R). Consideriamo ora la funzione y : T → Rk definita come y1 (t) = x (t) y2 (t) = x0 (t) y3 (t) = x00 (t) .. . yk−1 (t) = x(k−2) (t) yk (t) = x(k−1) (t) . E’ evidente che, se x : T → R è k-volte differenziabile ed è soluzione di (1.3), allora l’applicazione y : T → Rk è ben definita, differenziabile e soddisfa, ∀t ∈ T: y10 (t) = x0 (t) = y2 (t) y20 (t) = x00 (t) = y3 (t) .. . (k−1) (t) = y (t) 0 (t) = x y k k−1 0 yk (t) = x(k+1) (t) = f t, x (t) , x0 (t) , x00 (t) , ..., x(k−1) (t) così y è una soluzione della seguente EDO del primo ordine: y0 (t) = h (t, y (t)) dove X = X0 × . . . × Xk−1 e h : T × X → Rk h (t, y) = y2 y3 .. . yk f (t, y1 , y2 , y3 , ..., yk−1 , yk ) . Il caso n > 1 è completamente analogo. Si veda ad esempio [23, pp.274-275]. Osservazione 1.1.7. Nei modelli e nelle applicazioni che vedremo, l’obiettivo principale sarà lo studio delle proprietà delle traiettorie di stato. Prima di intraprendere questo studio però, abbiamo bisogno di sapere che le soluzioni di PC-ED come (1.1) 12 Introduzione ai sistemi dinamici (e/o di PC-EDO come (1.2)) esistano e che possibilmente siano uniche. La mancanza di esistenza od unicità per qualche dato iniziale x0 ∈ X è di solito qualcosa che non auspichiamo in un modello: vorrebbe dire che la funzione di stato non esiste, oppure che partendo dallo stesso punto iniziale sono possibili molteplici evoluzioni. Questa è la ragione per cui prima di tutto (dopo gli esempi) cercheremo di stabilire alcuni risultati di esistenza ed unicità delle soluzioni. Nel capitolo 2, Sezione 2.1 e 2.4 rispettivamente, daremo un insieme di condizioni che garantiscano esistenza ed unicità delle soluzioni. 1.2 1.2.1 Esempi L’evoluzione di un deposito in banca Se un certo capitale C > 0 è affidato ad un deposito bancario all’istante t = 0, allora il suo valore verrà incrementato grazie ai tassi di interesse (ove previsti2 ) pagati dalla banca. Consideriamo il modello a tempi discreti misurando il tempo in anni. Scegliamo come variabile di stato x (t) che rappresenta l’ammontare del capitale nel deposito durante l’anno t ∈ N. Sia r (t) il tasso di interesse annuale relativo all’anno t (i.e. il tasso di interesse applicato nel periodo (t, t + 1)) e assumiamo che non ci siano altri fattori che possano influenzare l’andamento di x (t). Allora x deve soddisfare il seguente PC-ED x (t + 1) = (1 + r (t)) x (t) , ∀t ∈ N; (1.4) x (0) = C. Si può ottenere euristicamente un modello analogo a tempi continui, nel modo seguente. Assumiamo sempre che il tempo venga misurato in anni ma in più ora vogliamo conoscere il valore del capitale x (t) non solo per t ∈ N ma anche per t ∈ (∆t) N per un “piccolo” ∆t > 0 assegnato.3 Ciò significa che il PC-ED (1.4) diventa x (t + ∆t) = (1 + r∆t (t)) x (t) , ∀t ∈ (∆t) N; x (0) = C, dove adesso r∆t (t) è il tasso di interesse applicato durante il periodo (t, t + ∆t). L’equazione alle differenze sopra può quindi essere riscritta come x (t + ∆t) − x (t) = r∆t (t) x (t) , ∀t ∈ (∆t) N, e dividendo per ∆t, otteniamo x (t + ∆t) − x (t) r∆t (t) = x (t) , ∆t ∆t 2 ∀t ∈ (∆t) N. (1.5) Per un’agile e utile introduzione all’argomento si suggerisce di consultare il libro “Banca Bassotti” di G. Cloza, Editore: Stampa Alternativa, 2001. 3 Questo significa che siamo interessati a conoscere il valore di x al tempo 0, ∆t, 2∆t, 3∆t, . . . , n∆t, . . ., i.e. ai multipli di un’unità di tempo assegnata ∆t. Prendendo ∆t sempre più piccolo (mesi, giorni, ore, secondi, e così via) ci avviciniamo sempre di più ad un modello a tempi continui. 1.2 Esempi 13 Adesso possiamo, informalmente, mandando ∆t a 0, passare ad un modello a tempi continui. Naturalmente il passaggio al limite richiederebbe sapere che tale limite esiste, ma ciò non è ovvio a priori. Non entriamo nei dettagli del problema e andiamo avanti semplicemente, assumendo che “ogni cosa funzioni” nel calcolo del limite. Il termine a destra tende a x0 (t). In quello a sinistra, assumiamo (ed è ragionevole nel (t) modello) che la quantità r∆t ∆t , quando ∆t → 0, abbia un limite: il cosiddetto tasso di interesse istantaneo al tempo t che chiamiamo δ (t). Allora il limite della (1.5) quando ∆t → 0 è (aggiungendo la condizione iniziale): 0 x (t) = δ (t) x (t) ∀t ∈ R+ ; (1.6) x(0) = C. Osserviamo che questo è un possibile analogo a tempi continui del modello (1.4) ma non è l’unico. Informalmente parlando, possiamo dire che questo è il più intuitivo. In questo caso, la relazione tra r e δ (il tasso di interesse a tempi discreti e continui rispettivamente) può essere ottenuta, nel caso siano costanti, calcolando le soluzioni dei due PC (1.4) e (1.6), (1 + r)t e eδt rispettivamente, e ponendole uguali per t ∈ N. Ne segue che deve essere δ = ln (1 + r)). Naturalmente, il tasso di interesse può variare nel tempo e può anche dipendere dall’ammontare di capitale, così a tempi discreti si ha: x (t + 1) = (1 + r (t, x (t))) x (t) , x (0) = C, o a tempi continui, x0 (t) = δ (t, x (t)) x (t) x (0) = C. Inoltre, possiamo pensare al caso in cui ci siano prelevamenti periodici nel conto. A tempi discreti, questo porta ad una ED del tipo x (t + 1) = (1 + r (t)) x (t) − k (t) , ∀t ∈ N; dove k (t) è una funzione assegnata che esprime il prelevamento al tempo t. Naturalmente i prelevamenti possono avere diversa periodicità a seconda dell’unità di misura del tempo assegnata. Per esempio possiamo decidere di contare il tempo in mesi e avere prelevamenti ogni 3 mesi. Assumendo che tali prelevamenti siano costanti (uguali a k0 > 0) avremmo k0 , se t ∈ 3N k (t) = 0, otherwise. Si osservi che trovare un modello a tempi continui equivalente a questo è un compito difficile. 1.2.2 Modelli di crescita della popolazione e di marketing Sia x (t) la popolazione di una data specie in un certo ambiente al tempo t. Un metodo classico di modellizzare la dinamica della popolazione è la cosiddetta legge 14 Introduzione ai sistemi dinamici di Malthus, in base alla quale l’incremento della popolazione nell’unità di tempo è proporzionale alla popolazione attraverso una costante a > 0 che rappresenta il tasso di crescita per unità di tempo (i.e. la quantità ∆x x ). In questo modo si ha il seguente modello a tempi discreti x (t + 1) − x (t) = ax (t) ; x (0) = x0 . Un analogo a tempi continui si trova come nell’esempio precedente, scrivendo: x0 (t) = bx (t) ; x (0) = x0 , dove b ha un significato diverso da a, dato che rappresenta il tasso istantaneo di 0 crescita (i.e. la quantità xx ). La relazione tra a e b è come quella trovata tra r e δ nell’esempio precedente. Un’altra possibilità più realistica è quella di assegnare (oltre la crescita descritta sopra) un livello di saturazione M per la popolazione (il massimo numero di persone che possono vivere in un dato ambiente, considerando cibo, risorse naturali, acqua, aria, ecc.) nel modo seguente: x (t + 1) − x (t) = ax (t) (M − x (t)) ; x (0) = x0 per un modello a tempi discreti o x0 (t) = bx (t) (M − x (t)) ; x (0) = x0 per un modello a tempi continui. Queste sono chiamate equazioni logistiche (Verhulst le ha introdotte nel 1845). Lo studio del caso a tempi discreti è molto più complicato dato che porta a dinamiche complesse e caos, si veda e.g. [23, pp.363-368] and [21, pp.505-512]. Questi due modelli possono essere visti come modelli di marketing dove x (t) rappresenta il numero di clienti di una data azienda al tempo t. Per commenti su questi modelli di marketing si veda [14, p.71-74]. Un modello più generale che include quelli precedentemente descritti può essere scritto nel modo seguente (a tempi discreti): x (t + 1) − x (t) = F (x (t)) − H (t) ; x (0) = x0 (1.7) dove F (x) è la funzione di crescita della popolazione (la differenza tra nascita e morte) e H è una harvesting function (funzione di “raccolta”): H (t) rappresenta il numero di individui che escono dal sistema nel periodo tra t e t + 1. La funzione F è di solito scritta come F (x) = xR (x) dove R (x) è il tasso di crescita della popolazione. Nel caso di Malthus R è costante. Nel caso logistico R è decrescente affine. In generale, si possono verificare differenti comportamenti. Per un maggiore approfondimento, si veda e.g. [8]. Nel modellizzare la popolazione dei pesci (ma anche bovini o altri animali) la funzione H è assegnata dall’industria della pesca. Il PC-ED (1.7) è anche usato per modellizzare l’evoluzione di uno stock di risorse rinnovabili, si veda e.g. [8]. 1.2 Esempi 1.2.3 15 Modello preda-predatore (Lotka - Volterra) E’ un modello semplice a tempi continui che descrive l’evoluzione nel tempo di due specie che interagiscono tra loro: la preda ed il predatore. Si tratta di un modello che risolve il problema di sopravvivenza tra due specie diverse di animali, una delle quali deve cibarsi dell’altra per sopravvivere. Chiamiamo x1 (t) il numero (medio) delle prede al tempo t e x2 (t) il numero (medio) dei predatori al tempo t. Le equazioni che modellizzano l’evoluzione sono: 0 x1 (t) = x1 (t) (A − Bx1 (t)) , x1 (0) = x10 ; (1.8) 0 x2 (t) = x2 (t) (−C + Dx2 (t)) , x2 (0) = x20 . Questo rappresenta un modello semplice di tali interazioni e fu proposto dagli studiosi Lotka and Volterra. Per una spiegazione più dettagliata si veda [43, pp.443-445]. Si tratta di un modello non lineare che è stato ampiamente studiato in letteratura. Per una trattazione approfondita si possono consultare [23, pp. 278-283] o [43, Sections 15.5, 15.6], oppure [21, Section 24.4]. Ricordiamo che le equazioni (1.8) sono state impiegate da Goodwin per costruire il ben noto modello del ciclo di crescita di Goodwin (si consulti [21, pp.458-464]). Un altro esempio di modello dinamico della popolazione è il modello di Leslie, si veda [43, pp.354-356]. 1.2.4 Modello di crescita di Solow Si consideri un’economia chiusa dove ogni agente possiede una quantità k0 di capitale al tempo t = 0. La quantità pro capite di capitale cambia al variare del tempo e si assume che la sua evoluzione dipenda dalla produzione pro capite fP (k), dal tasso di crescita della popolazione δ e dal consumo c(t), nel modo seguente: k (t + 1) − k (t) = fP (k (t)) − δk (t) − c (t) ; k (0) = k0 a tempi discreti, e k 0 (t) = fP (k (t)) − δk (t) − c (t) ; k (0) = k0 a tempi continui. Qui fP : [0, +∞) → [0, +∞) rappresenta la cosiddetta funzione di produzione pro capite e si assume che soddisfi le seguenti condizioni: fP ∈ C 2 ((0, +∞) ; R) , fP0 > 0, fP (0) = 0, fP0 (0) = +∞, fP00 < 0, fP (+∞) = +∞, fP0 (+∞) = 0. Un esempio è fP (k) = k α per un certo α ∈ (0, 1). Inoltre la funzione c rappresenta la politica di consumo dell’agente economico. Ci sono differenti modi per sceglierla. 16 Introduzione ai sistemi dinamici Una possibilità è quella di sceglierla in base ad un modello di ottimizzazione, i.e. scegliere la traiettoria c che massimizza un funzionale assegnato (si veda un corso di ottimizzazione dinamica per avere un’idea). Un’altra possibilità più semplice è di sceglierla in base ad una feedback rule assegnata, i.e. scegliere c(t) come una funzione assegnata del capitale al tempo t. Una scelta ben nota è (modello di Solow) c (t) = (1 − s) fP (k (t)) , dove s ∈ (0, 1) è il tasso di risparmio (i.e. la proporzione di produzione che non è stata impiegata per il consumo). In questo secondo caso, si ha k (t + 1) − k (t) = sfP (k (t)) − δk (t) ; k (0) = k0 a tempi discreti e k 0 (t) = sfP (k (t)) − δk (t) ; k (0) = k0 (1.9) a tempi continui. Per uno studio approfondito del modello, si veda e.g. [5, Ch. 2] oppure [21, Sezioni 13.2 and 24.2.3]). 1.2.5 Mercato competitivo Questo esempio è tratto da [14, p.74-77]. Qui delineiamo il modello riferendoci a quel libro per una descrizione più completa. Consideriamo un mercato con n individui che competono dividendosi l’intero mercato (e.g. gestori di compagnie telefoniche). Chiamiamo Pn x (t) il vettore delle quote di mercato per ciascuna compagnia così da avere i=1 xi (t) = 1, per ogni t ≥ 0. Chiamiamo poi A la matrice n × n dei coefficienti di transizione (aij è la porzione di clienti della j-esima compagnia che passerà alla compagnia i nel prossimo periodo). Si assume che A sia costante. Per costruzione si ha: n X aij = 1, ∀j = 1, ..., n. i=1 Allora il vettore x (t) soddisfa il PC-ED omogeneo a tempi discreti x (t + 1) = Ax (t) ; x (0) = x0 , dove x0 rappresenta la distribuzione iniziale delle quote di mercato. Un analogo a tempi continui del modello a tempi discreti è x0 (t) = (A − I) x (t) ; x (0) = x0 . Un modello simile utilizzato per descrivere l’aumento o la diminuzione del numero di auto in una città (od in uno stato, o qualsiasi altro luogo) è discusso in [14, p.74-77]. Lo stesso tipo di modello può essere usato per descrivere il cammino di una navigatore casuale (il cosiddetto random surfer) sul grafo delle pagine web. Questa interpretazione sta alla base degli algoritmi moderni usati dai motori di ricerca. 1.3 Una definizione formale di sistema dinamico 1.2.6 17 Gestione (Management) di produzione Si consideri un’azienda che fa scorte di beni utilizzati per la produzione in un certo deposito (“storehouse”). Se ci sono ad esempio n beni, le loro quantità possono essere rappresentate da un vettore x = (x1 , ..., xn ) ∈ Rn . Naturalmente, queste quantità varieranno nel tempo conseguentemente a: • il loro utilizzo nella produzione (-); • l’arrivo di nuovi stocks comprati dall’azienda (+); • altri eventi attesi od inattesi (declini, furti, incendi, donazioni,...) (+ o -). Allora è chiaro che il problema di gestire il magazzino è un problema dinamico. Il vettore x rappresenta lo stato del sistema “storehouse”. Dipende dal tempo e può essere scritto come x (t), dove t appartiene ad un certo insieme di tempi che indicheremo con T. Un primo tentativo di modellizzare tale comportamento dinamico può essere il seguente: x (t + 1) = −B (t) + A (t, x (t)) + N (t, x (t)) ; x (0) = x0 , dove B è una funzione positiva del tempo che fornisce la quantità utilizzata per la produzione ad ogni periodo t (si potrebbe pensare che non dipenda da t, dato che effettivamente la produzione non dovrebbe essere condizionata dalle quantità immagazzinate). Qui A è una funzione positiva che fornisce le quantità comprate dall’azienda nel periodo t; dipende anche da x, ritenendo ragionevole che l’azienda osservi le quantità immagazzinate per decidere quanta merce comprare. Per concludere, N è una quantità aleatoria che rappresenta tutti i cambiamenti inaspettati (che possono dipendere o non dipendere da x). Esercizio 1.2.1. Si discuta la formulazione del problema appena illustrato, si presenti una possibile alternativa ed un modello a tempi continui commentandolo. 1.3 Una definizione formale di sistema dinamico Ci occupiamo ora di dare una definizione formale di sistema dinamico che possa favorire una comprensione più profonda di questo oggetto matematico e delle sue applicazioni. Partiamo con una prima definizione. Definizione 1.3.1. Un sistema dinamico è dato da un insieme X, (l’insieme degli stati, di solito chiamato lo spazio delle fasi) un insieme T (l’insieme dei tempi), un insieme di traiettorie {x (·; t0 , x0 )}(t0 ,x0 )∈T×X , che soddisfano le seguenti proprietà: 1. ∀ (t0 , x0 ) ∈ T × X si ha x (t0 ; t0 , x0 ) = x0 ; 2. ∀ (t0 , x0 ) ∈ T × X si ha x (·; t0 , x0 ) : T → X; 18 Introduzione ai sistemi dinamici 3. ∀x0 ∈ X and t0 , t1 , t2 ∈ T si ha x (t2 ; t0 , x0 ) = x (t2 ; t1 , x (t1 ; t0 , x0 )) L’idea che si nasconde dietro la definizione appena enunciata è la seguente. Un sistema dinamico è sostanzialmente dato dall’insieme di tutte le traiettorie della variabile di stato x, al variare del dato iniziale (o finale, o un qualsiasi altro) x0 . Sono assegnati un insieme di tempi possibili T ed un insieme di stati possibili X. Pensando a quanto visto nella Sezione 1.1, possiamo dire euristicamente che {x (·; x0 )}(t0 ,x0 )∈T×X corrisponde all’insieme delle soluzioni dei problemi di Cauchy (1.1) o (1.2) quando (t0 , x0 ) varia in T × X. Osservazione 1.3.2. Le tre proprietà sopra elencate richiedono coerenza tra il sistema dinamico e l’insieme di soluzioni dei problemi di Cauchy. Le prime due sono abbastanza chiare, dato che stabiliscono la condizione iniziale ed il fatto che tutte le traiettorie sono definite in T con valori in X. La terza proprietà è probabilmente è a prima vista un po’ più oscura: sostanzialmente, dice che la seconda parte di una traiettoria, che parte da un determinato punto, può essere vista come un punto diverso spostato nel tempo. Corrisponde alle proprietà di esistenza ed unicità che vedremo nel prossimo capitolo. Esaminiamo ora il caso autonomo. Definizione 1.3.3. Un sistema dinamico autonomo è dato da un insieme X, (l’insieme degli stati, di solito chiamato lo spazio di fase) un insieme T (l’insieme dei tempi), un istante t0 ∈ T, un insieme di traiettorie {x (·; x0 )}x0 ∈X , che soddisfano le seguenti proprietà: 1. ∀x0 ∈ X si ha x (t0 ; x0 ) = x0 ; 2. ∀x0 ∈ X si ha x (·; x0 ) : T → X; 3. ∀x0 ∈ X and t1 , t2 ∈ T tale che t1 + t2 ∈ T si ha x (t1 + t2 ; x0 ) = x (t2 ; x (t1 ; x0 )) La differenza tra l’ultima definizione data e quella generale è la seguente. In questo caso l’istante iniziale (o finale, o un qualsiasi altro) t0 è fissato una volta per tutte mentre lo stato iniziale x0 varia in X. Sostanzialmente questo è dovuto al fatto che nel caso autonomo, identificare lo stato richiede solo di conoscere il punto iniziale e la distanza dal tempo iniziale. Questo non succede nel caso non autonomo dove anche l’istante iniziale deve essere noto. Pensando a quanto visto nella sezione 1.1, possiamo dire euristicamente che {x (·; x0 )}x0 ∈X corrisponde all’insieme delle soluzioni dei problemi di Cauchy (1.1) o (1.2), quando t0 è fissato e facciamo variare x0 in X. Un istante iniziale (o finale , o un qualsiasi altro) t0 è fissato così come lo spazio degli stati X. 1.3 Una definizione formale di sistema dinamico Un altro modo di guardare un sistema dinamico autonomo è il seguente (per brevità, tralasciamo la discussione del caso non autonomo). Invece di concentrarsi sulle traiettorie di stato che variano con il tempo, si potrebbe pensare di focalizzare l’attenzione sulle applicazioni φt : X → X, definite per ogni t ∈ T come segue : φt (x0 ) = x (t; t0 , x0 ) . L’idea è che per ogni τ ∈ T, un sistema dinamico induce una trasformazione dello spazio degli stati X in se stesso, ovvero la mappa φt . Studiare le proprietà di tali mappe è sostanzialmente equivalente a studiare le proprietà delle traiettorie, ma con un diverso punto di vista. Dal punto di vista economico, possiamo pensare all’esempio seguente: si considerino un istante iniziale e vari agenti corrispondenti a varie condizioni iniziali; la mappa φt dice dove sono gli agenti al tempo t, ed in questo modo fornisce un’immagine globale di un sistema complesso ad un certo istante. La singola traiettoria descrive l’evoluzione di un singolo agente. La seguente definizione (si veda e.g. [23, p.378]) mette in luce questa importante caratteristica. Definizione 1.3.4. Un sistema dinamico autonomo è dato da un insieme X (l’insieme degli stati, di solito chiamato lo spazio di fase) un insieme T (l’insieme dei tempi), un insieme di mappe di evoluzione φt t∈T , che soddisfano le seguenti proprietà: 1. φ0 = IdX (assumendo che t = 0 è il primo punto di T ). 2. φt : X → X, ∀t ∈ T 3. φt+s = φt ◦ φs , ∀t, s ∈ T tale che t + s ∈ T . Le mappe φt sono oggetti matematici che descrivono l’evoluzione dinamica del sistema; la mappa φt porta il valore dello stato iniziale x (0) nel valore dello stato x (t) al tempo t, che corrisponde al valore iniziale assegnato. Valori iniziali diversi portano in generale a diversi valori al tempo t. Si osservi che con questa definizione di sistema dinamico, data una qualsiasi condizione iniziale la traiettoria seguita dal sistema è data da x (t; x0 ) = φt (x0 ), con t ∈ T. Inoltre, l’immagine di questa t traiettoria sarà chiamata orbita associata a x0 e sarà indicata da Or (x0 ) = φ (x0 ) , t ∈ T ⊆ X. Se l’orbita associata a x0 è costante, i.e. se φt (x0 ) = x0 , ∀t ∈ T, allora x0 è detto punto di equilibrio del sistema dinamico. Osservazione 1.3.5. If we consider a Cauchy problem with t0 = 0 and initial datum x0 belonging to a given set X then we are giving a dynamical system where φt (x0 ) = x (t; 0, x0 ) . 19 20 Introduzione ai sistemi dinamici It is easy to see that the property 1 obviously holds. Property 2 holds if and only if we know that the solution of the CP-DE (and/or CP-ODE) exists (and is global) for every initial datum x0 ∈ X. Property 3 holds if and only if we have that x (t + s; 0, x0 ) = x (t; s; x (s; 0, x0 )) . This property is called the semigroup property of the solutions and is equivalent to the uniqueness property for any initial time and state. Roughly speaking we may say that if a CP-DE (and/or CP-ODE) features general existence and uniqueness then it represents a dynamical system. 1.3.1 Tempo discreto o tempo continuo? Qualche spunto di riflessione Nell’esempio 1.2.1 abbiamo descritto una procedura euristica per trovare un analogo a tempo continuo di un modello a tempo discreto. Seguendo questa procedura possiamo associare (nel caso n = 1) al modello a tempo discreto: x (t + 1) = g (t, x (t)) il modello a tempo continuo: x0 (t) = g (t, x (t)) − x (t) . Viceversa possiamo associare al modello a tempo continuo: x0 (t) = f (t, x (t)) il modello a tempo discreto x (t + 1) = f (t, x (t)) + x (t) . Tuttavia non è questo l’unico modo di associare tra loro modelli a tempo discreto e continuo (si vedano ad esempio i metodi di approssimazione dele EDO spiegati nelle dispense della prof. Giulia Rotundo). Inoltre un modello a tempo discreto ed il suo analogo a tempo continuo (per esempio con l’associazione fatta sopra) non hanno necessariamente lo stesso comportamento. Il caso dell’equazione logistica è un tipico esempio di questa possibile differenza (si veda ad esempio [21]). Possiamo quindi dire che, dato un problema applicato, la sua modellizzazione a tempo discreto e quella a tempo continuo sono due approcci differenti che possono portare a risultati completamente diversi. La scelta tra le due scale di tempo dipende da molti fattori, non ultimo la natura stessa del problema, ed è difficile fare una teoria rigorosa su questo. Qui cerchiamo di puntualizzare alcune semplici cose (si veda il libro [21] per una discussione approfondita in merito): 1.3 Una definizione formale di sistema dinamico • i modelli a tempo discreto danno origini e dinamiche più complesse (ad esempio i modelli di EDO autonome hanno sempre soluzioni monotone mentre le soluzioni di ED autonome possono avere comportamenti oscillanti fino ad esibire comportamenti caotici); • i modelli a tempo continuo di solito richiedono strumenti teorici e di calcolo più raffinati (ad esempio nella teoria di esistenza e unicità); • Alcuni problemi reali si modellizzano meglio a tempo discreto ed altri a tempo continuo; • I motivi per usare tempo continuo o tempo discreto dipendono anche dalle conoscenze tecniche di chi studia il modello. 21 22 Introduzione ai sistemi dinamici Capitolo 2 Esistenza ed unicità delle soluzioni In questo capitolo daremo la definizione di soluzione di equazioni alle differenze (ED) ed equazioni differenziali ordinarie (EDO) e per i problemi di Cauchy (PC) associati. Vedremo anche i risultati fondamentali di esistenza ed unicità delle soluzioni che forniranno una base per l’intera teoria sui sistemi dinamici. Iniziamo con il caso a tempi discreti che è molto semplice. Poi studieremo il caso a tempi continui che richiede maggiore attenzione. 2.1 Il caso a tempi discreti Prima di tutto introduciamo il modello di base. • X è un sottoinsieme assegnato di Rn ; • assegnati gli istanti iniziale e finale −∞ ≤ T0 ≤ T ≤ +∞, poniamo T = [T0 , T ] ∩ Z, dato che siamo nel caso a tempi discreti; • la funzione g (chiamata dinamica ) è definita da T × X → Rn . Partiamo con la definizione di soluzione globale, che è quella che si cerca solitamente. Definizione 2.1.1. Una funzione x : T → X è una soluzione globale dell’ED x (t + 1) = g (t, x (t)) , ∀t ∈ T (2.1) se soddisfa (2.1), i.e. l’equazione x (t + 1) = g (t, x (t)) per ogni t ∈ T. È abbastanza chiaro che le soluzioni di (2.1), se esistono, in generale non sono uniche. Infatti la semplice ED x (t + 1) = x (t) , ∀t ∈ T ha infinite soluzioni: le costanti. Ciò è dovuto al fatto che la condizione non è stata specificata. Così il problema naturale che consideriamo nei modelli applicati e che caratterizza “in modo naturale” esistenza ed unicità è il problema di Cauchy come (1.1). Enunciamo ora la definizione di soluzione di problema di Cauchy in questo contesto. 23 24 Esistenza ed unicità delle soluzioni Definizione 2.1.2. Una funzione x : T → X è una soluzione globale del PC-ED x (t + 1) = g (t, x (t)) ∀t ∈ T x (t0 ) = x0 t0 ∈ T, x0 ∈ X (2.2) se soddisfa (2.2), i.e. l’equazione x (t + 1) = g (t, x (t)) per ogni t ∈ T e la condizione iniziale x (t0 ) = x0 . 2.1.1 Soluzioni locali In molti casi esistono soluzioni ma non sono definite su tutto l’insieme T. In questo caso non possiamo dire che esiste una soluzione globale nel senso della Definizione 2.1.2, dato che non è pienamente soddisfatta. Questo fenomeno succede maggiormente a tempi continui (si veda la sezione 2.2.1). Per questa ragione introduciamo il concetto di soluzione locale. Iniziamo da un esempio nel caso unidimensionale dove una soluzione globale non esiste. Esempio 2.1.3. (n = 1, T = N, X = [0, +∞)) Il PC-ED x (t + 1) = −2 + p x (t), t∈N x (0) = 4 non ammette una soluzione globale. Infatti otteniamo con una semplice iterazione, x (0) = 4, p x (0) = 0, p x (2) = −2 + x (1) = −2, p x (3) = −2 + x (2) non definita in R. x (1) = −2 + La soluzione c’è ma si ferma al tempo t = 2 quindi non è globale. Diamo la definizione di soluzione locale per un PC-ED ma una simile può essere data per una ED. Evidenziamo il fatto che questo concetto è molto più importante nel caso a tempi continui, come vedremo nella prossima sezione. Definizione 2.1.4. Il problema di Cauchy (2.2) ammette una soluzione locale se esiste un intorno di t0 , che indichiamo con J (t0 ), contenente almeno un elemento t1 ∈ T, t1 6= t0 , e una funzione x : J (t0 ) → X tale che x soddisfi x0 (t) = g (t, x (t)) , ∀t ∈ J (t0 ) ∩ T x (t0 ) = x0 . Tale funzione x è chiamata una soluzione locale di (2.2). Se prendiamo J come intorno destro (o sinistro) di t0 , allora parliamo di soluzione locale a destra o a sinistra. 2.1 Il caso a tempi discreti 2.1.2 25 Esistenza ed unicità globale Passiamo ora allo studio di esistenza ed unicità per problemi di Cauchy come (2.2). Ciò che vedremo implicherà automaticamente risultati per le equazioni alle differenze. Assumiamo che t0 sia il primo1 punto di T. In questo caso, il PC-ED fornisce un algoritmo per calcolare la soluzione ricorsivamente. (sia t = t0 per semplicità): x (0) = x0 , x (1) = g (0, x (0)) , x (2) = g (1, x (1)) , ... e così via. Questo algoritmo permette di calcolare la soluzione in un numero finito di passi se T < +∞, altrimenti fornisce solo un modo di definire induttivamente la soluzione. L’algoritmo non genera una soluzione soltanto se ad un certo punto g (t, x (t)) non è ben definito. Questo succede nell’esempio 2.1.3 visto sopra e negli esempi seguenti. Esempio 2.1.5. (n = 1, T = N, X = (0, +∞)) x (t + 1) = −2 + ln x (t) , t∈N x (0) = e. Otteniamo x (0) = 4, x (1) = −2 + ln x (0) = −1, x (2) = −2 + ln x (1) , non definita in R. Esempio 2.1.6. (n = 1, T = N, X = [0, +∞)) p x (t + 1) = 2x (t) − x (t), 1 x (0) = , 3 t∈N dove si ha x (0) = 1 , 3 x (2) = 2 r 2 1 x (1) = − , 3 3 s r ! r 2 1 2 1 − − − < 0, 3 3 3 3 x (3) = non definita in R. Abbiamo il risultato seguente, la cui dimostrazione si fa semplicemente per induzione. Osserviamo che, se t0 non è il primo istante di T, allora l’algoritmo per trovare una soluzione può dare solo valori per t > t0 . Per t < t0 , si dovrebbe andare nell’altra direzione. Per dare una spiegazione, facciamo un passo in più. Consideriamo l’ED per t = t0 − 1 ottenendo x (t0 ) = g (t0 − 1, x (t0 − 1)). Poi cerchiamo di trovare x (t0 − 1) da questa equazione, se possibile. Naturalmente, questo algoritmo all’indietro potrebbe rivelarsi molto più complesso dell’algoritmo in avanti descritto nel testo e potrebbe non essere risolvibile. Basta pensare al caso g(t, x) = g(x) = x2 . 1 26 Esistenza ed unicità delle soluzioni Teorema 2.1.7. Dati T ⊆ N, X ⊆ Rn , g : T ×X → Rn , x0 ∈ X, la soluzione globale di (2.2) esiste ed è unica se e solo se la successione {x (t)}t∈T definita ricorsivamente da x (0) = x0 , x (1) = g (0, x (0)) , ..........x (t + 1) = g (t, x (t)) , .... è ben definita per ogni t ∈ T. Se g : T × X → X, allora la soluzione di (2.2) esiste ed è unica per ogni dato iniziale x0 ∈ X. Esercizio 2.1.8. Nell’Esempio 2.1.5: dimostrare che per ogni dato iniziale x (0) ≥ 0 esiste un istante t tale che x (t) < 0, cosi che la soluzione non è mai definita per tutti i t ∈ N a prescindere dalla condizione iniziale. Esercizio 2.1.9. Nell’Esempio 2.1.6: provare, senza l’aiuto di un calcolatore, che x (2) < 0. Inoltre provare che se x (0) ≥ 1 allora la soluzione globale è ben definita ed è strettamente crescente. Cosa possiamo dire per x(0) < 1? Esercizio 2.1.10. Trovare, al variare di x0 ∈ R la soluzione del PC-ED x(t + 1) = x(t)2 x(0) = x0 . Osservazione 2.1.11. Per quanto riguarda l’esistenza, i punti dove g (t, x0 ) = x0 per ogni t ∈ T sono punti speciali. Infatti, se il sistema parte da questi punti, allora esiste sempre un’unica soluzione costante x (t, x0 ) = x0 per ogni t ∈ T. Questi punti sono chiamati punti di equilibrio. Anche se non esistono soluzioni che partono da altri punti, sicuramente esistono soluzioni che partono da punti di equilibrio. 2.2 Esercizi Sia n = 1. Nel seguito l’insieme degli stati, se non specificato, sarà X = R. Esercizio 1. Consideriamo i seguenti PC-ED: x(t + 1) = −2 + 4x(t) x1 (t) = 31 4t + 32 a) x(0) = 1 x2 (t) = 13 2t + 32 x(t + 1) = 2x(t) + t x1 (t) = t + 1 b) x(0) = 1 x2 (t) = 2 · 2t − t − 1 1. Scrivere le dinamiche g; 2. Discutere esistenza e unicità delle soluzioni, scrivendo esplicitamente i valori della soluzione per t = 1, 2, 3; 3. Controllare se le funzioni sulla destra di ogni PC-ED sono soluzioni di esso. 2.3 Soluzioni 2.3 27 Soluzioni Esercizio 1. a.1) Suggerimento : Usare il secondo membro della ED. La dinamica g è la seguente: g : N×R −→ R (t, x) 7→ g(t, x) = −2 + 4x. a.2) Per studiare l’esistenza e unicità della soluzione possiamo cercare di applicare il Teorema 2.1.7. Dato che X = R le ipotesi di tale teorema sono automaticamente verificate. Calcoliamo ora x(1), x(2), x(3). x(0) = 1 x(1) = −2 + 4x(0) = 2 x(2) = −2 + 4x(1) = −2 + 4(−2 + 4x(0)) = −10 + 16x(0) = 6 x(3) = −2 + 4x(2) = −2 + 4(−10 + 16x(0)) = −42 + 64x(0) = 22 ... a.3) Controlliamo se la funzione x1 (t) soddisfa il PC-ED. Per la ED si ha: 2 1 x1 (t + 1) = 4t+1 + 3 3 1 t 2 1 8 1 2 −2 + 4x1 (t) = −2 + 4 4 + = 4t+1 + − 2 = 4t+1 + . 3 3 3 3 3 3 Inoltre 2 1 2 1 x1 (0) = 40 + = + = 1. 3 3 3 3 Quindi la funzione x1 (t) è una soluzione globale ed è unica per il Teorema 2.1.7. Questo significa che x2 (t) non può essere soluzione. b) Procedere come in a). Si vede che x2 (t) è l’unica soluzione del PC-ED b). 2.4 Il caso a tempi continui In questa sezione estendiamo i concetti di esistenza ed unicità delle soluzioni introdotti precedentemente, al caso a tempi continui. Qui il modello di base è il seguente: • X è un sottoinsieme assegnato di Rn ; • assegnati gli istanti iniziale e finale −∞ ≤ T0 ≤ T ≤ +∞, poniamo T = [T0 , T ] ∩ R, dato che siamo nel caso a tempi continui; • la funzione f (chiamata dinamica) è definita da T × X → Rn . 28 Esistenza ed unicità delle soluzioni Analogamente al caso a tempi discreti, iniziamo dalla definizione di soluzione globale, che è quella che solitamente si va a cercare. Definizione 2.4.1. Una funzione x : T → X è una soluzione globale classica dell’EDO x0 (t) = f (t, x (t)) , ∀t ∈ T (2.3) se è differenziabile in ogni t ∈ T e soddisfa (2.3). Osserviamo che qui richiediamo la differenziabilità della funzione x (·). È abbastanza chiaro che soluzioni di (2.3), se esistono, in generale non sono uniche. Infatti analogamente al caso a tempi discreti, la semplice EDO x0 (t) = 0, ∀t ∈ T ha infinite soluzioni: le costanti. Sappiamo che questo è dovuto al fatto che non è stata specificata la condizione iniziale. Allora il problema naturale che consideriamo nei modelli applicati e che “caratterizza” esistenza ed unicità è di nuovo il PC come (1.2). Enunciamo ora la definizione di soluzione per un problema di Cauchy nel caso a tempi continui. Definizione 2.4.2. Una funzione x : T → X è una soluzione globale classica del PC-EDO 0 x (t) = f (t, x (t)) ∀t ∈ T (2.4) x (t0 ) = x0 t0 ∈ T, x0 ∈ X se è differenziabile in ogni t ∈ T e soddisfa (2.4). Osservazione 2.4.3. Ogni soluzione del problema di Cauchy (2.4) è chiamata una curva integrale o traiettoria dell’EDO. Integrando, possiamo dare un’altra definizione di soluzione per (2.3) e per (2.4). Definizione 2.4.4. Una funzione x : T → X è una soluzione globale debole di (2.4) se la funzione s → f (s, x (s)) è integrabile su [t0 , t] per ogni t ∈ T (si veda e.g. [23, p.216] per la definizione di integrabilità) in T e Z t x (t) = x0 + f (s, x (s)) ds, ∀t ∈ T. (2.5) t0 Similarmente x : T → X è una soluzione globale debole di (2.3) se esiste t0 ∈ T e x0 ∈ X tale che (2.5) è verificata (equivalentemente se Z x (·) ∈ f (s, x (s)) ds, ricordando che l’integrale indefinito di una funzione è l’insieme di tutte le primitive). 2.4 Il caso a tempi continui 29 Esempio 2.4.5. Caso in cui esiste una soluzione globale debole che non è una soluzione globale classica. Sia 1 , t 6= 1 h (t) = t−1 0, t=1 0 x (t) = h (t) x (t) , ∀t ≥ 0 x (0) = x0 x0 ∈ R La funzione x (t) = x0 |t − 1| è una soluzione globale debole ma non è classica dato che non è differenziabile in t = 1. Esercizio 2.4.6. Verificare l’ultima affermazione sopra operando una sostituzione nel PC-EDO. Trovare anche un altro esempio di questo tipo. 2.4.1 Soluzioni locali In molti casi esistono soluzioni ma non sono differenziabili su tutto l’insieme T. In questo caso non possiamo dire che esistono soluzioni globali nel senso della Definizione 2.4.2, dato che non sono pienamente verificate. Allora, riformuliamo il concetto di soluzione locale introdotto nella sezione precedente, adattandolo al nostro modello a tempi continui. Seguendo l’idea del caso a tempi discreti, iniziamo con un esempio nel caso unidimensionale dove non esistono soluzioni globali. Esempio 2.4.7. (n = 1, T = R+ , X = R) Il PC-EDO 0 x (t) = x2 (t) , x (0) = x0 ∈ R ammette una soluzione globale su T = R+ se e solo se x0 ≤ 0, come vedremo in un esempio nel prossimi capitoli.Osserviamo che l’analogo problema a tempi discreti PC-ED x(t + 1) − x(t) = x2 (t), x(0) = x0 ∈ R ammette una soluzione globale su T = N per ogni dato iniziale x0 ∈ R. Questa è una conseguenza diretta del Teorema 2.1.7. Vediamo ora la definizione di soluzione locale per PC-EDO (una simile si può dare per EDO). Definizione 2.4.8. Il problema di Cauchy (2.4) ammette una soluzione locale se esiste un intorno di t0 , che chiamiamo J (t0 ) e una funzione x : J (t0 ) → X tale che x è differenziabile in J (t0 ) e soddisfa 0 x (t) = f (t, x (t)) , ∀t ∈ J (t0 ) ∩ T x (t0 ) = x0 . 30 Esistenza ed unicità delle soluzioni Questa funzione x è chiamata una soluzione locale di (2.4). Se J è un intorno destro (o sinistro) di t0 , allora diciamo che è una soluzione locale a destra (o a sinistra). Vediamo ora come è facile ottenere esistenza ed unicità di soluzioni locali, mentre è molto più difficile ottenere soluzioni globali. Esistenza ed unicità locale L’analisi per il caso a tempi continui è più difficile. Prima di tutto non abbiamo un algoritmo ricorsivo per calcolare la soluzione. Inoltre è molto più complicato garantire esistenza ed unicità di soluzioni globali (classiche o deboli). Si veda l’Esempio 2.4.7. Vediamo ora due teoremi molto importanti. Il primo teorema stabilisce un risultato generale per l’esistenza di soluzioni locali. Durante la trattazione, un intorno di (t0 , x0 ) sarà sempre inteso come prodotto di due intorni sferici, cioè I (t0 , x 0) = − I1 (t0 ) × I2 (x0 ). Useremo anche la notazione I1 t+ (rispettivamente I t 1 0 ) per 0 + indicare un intorno destro (rispettivamente sinistro) di t e la notazione I t , x 0 0 0 + I1 t− (rispettivamente I t− 0 × 0 , x0 ) per indicare I1 t0 × I2 (x0 ) (rispettivamente − I2 (x0 )). Analoghe considerazioni per le notazioni I t0 , x+ 0 , I t0 , x0 , ecc. Per concludere, assegneremo una volta per tutte gli istanti iniziale e finale −∞ ≤ T0 ≤ T ≤ +∞ e porremo T = [T0 , T ] ∩ R. Teorema 2.4.9 (Peano). Sia X ⊆ Rn , f :T × X → Rn , sia (t0 , x0 ) ∈ T × X con x0 ∈ IntX. Se esiste un intorno di (t0 , x0 ), che chiamiamo I (t0 , x0 ), tale che: • I (t0 , x0 ) ⊆ T × X, • f è continua su I (t0 , x0 ); allora esiste una soluzione locale di (2.4). Se tale ipotesi è soddisfatta solo in + I t0 , x0 (rispettivamente in I t− 0 , x0 ) allora otteniamo solo soluzioni locali a destra (rispettivamente a sinistra). Dimostrazione 2.4.10. La dimostrazione di questo teorema è piuttosto complessa e fa uso di argomenti di compattezza su spazi di funzioni appropriati. Nel caso potesse interessare, si può guardare ad esempio [35, Sezione 3.1]. In questo teorema si assume che x0 ∈ IntX. Se x0 ∈ F rX, cioè x0 si trova sul bordo di X, valgono ancora alcuni risultati di esistenza. Abbiamo ad esempio il corollario seguente (valido nel caso n = 1) che sarà utile per lo studio dell’esempio di Peano ed altri simili che vedremo più avanti. Corollario 2.4.11. Sia X un intervallo reale, f : T × X → R, sia (t0 , x0 ) ∈ T × X. + − (rispettivamente t+ Sia x0 ∈ F rX. Se esiste un intorno di t+ 0 , x0 0 , x0 ), che + + chiamiamo I t0 , x0 , tale che + + − • I t+ 0 , x0 ⊆ T × X (rispettivamente I t0 , x0 ⊆ T × X), + − + • f è continua e ≥ 0 (rispettivamente ≤ 0) su I t+ 0 , x0 (rispettivamente I t0 , x0 ; 2.4 Il caso a tempi continui 31 allora esiste una soluzione locale a destra di (2.4). − + Analogamente, se esiste un intorno di t− (rispettivamente t− 0 , x0 0 , x0 ), che − chiamiamo I t− 0 , x0 , tale che − − + • I t− 0 , x0 ⊆ T × X (rispettivamente I t0 , x0 ⊆ T × X), − − + • f è continua e ≥ 0 (rispettivamente ≤ 0) su I t− 0 , x0 (rispettivamente I t0 , x0 ; allora esiste una soluzione locale a sinistra di (2.4). Passiamo ora al fondamentale teorema di esistenza ed unicità locale. Prima di enunciarlo, abbiamo bisogno di introdurre la seguente definizione. Definizione 2.4.12. Una funzione h : X → Y , X, Y spazi metrici (di solito, ma non necessariamente sottoinsiemi di Rn ) è Lipschitziana su X se esiste una costante M > 0 tale che dY (h (x1 ) − h (x2 )) ≤ M dX (x1 − x2 ) , ∀x1 , x2 ∈ X. h è localmente Lipschitziana su X se per ogni x ∈X esiste un intorno che lo contiene dove h è Lipschitziana. Una funzione f : A × X → Y , A ⊆ R, X, Y spazi metrici, è Lipschitziana in x, uniformemente rispetto a t ∈ A se esiste una costante M > 0 tale che dY (f (t, x1 ) − f (t, x2 )) ≤ M dX (x1 − x2 ) , ∀t ∈ A, ∀x1 , x2 ∈ X. f è localmente Lipschitziana nella variabile x, uniformemente rispetto a t se per ogni (t0 , x0 ) ∈ A × X esiste un intorno di (t0 , x0 ), che chiamiamo I (t0 , x0 ), dove f è Lipschitziana in x, uniformemente rispetto a t. Teorema 2.4.13 (Cauchy, Lipschitz, Picard). Sia f : T ×X → Rn , sia (t0 , x0 ) ∈ T × X con x0 ∈ IntX. Se esiste un intorno di (t0 , x0 ), che chiamiamo I (t0 , x0 ), tale che: • I (t0 , x0 ) ⊆ T × X, • f Lipschitziana in x, uniformemente rispetto a t, in I (t0 , x0 ); allora esiste un’unica soluzione locale di (2.4). − Se tale ipotesi è soddisfatta solo in I t+ 0 , x0 (rispettivamente in I t0 , x0 ) allora otteniamo solo soluzioni locali uniche a destra (rispettivamente a sinistra). Dimostrazione 2.4.14. Per la dimostrazione di questo risultato fondamentale, si consulti e.g. [23, pp.263-264]. Questo teorema ha due conseguenze operative importantissime: • fornisce condizioni sufficienti per l’ esistenza e unicità locale; • fornisce condizioni sufficienti affinché le curve integrali non si incrocino tra loro. 32 Esistenza ed unicità delle soluzioni Veniamo alla prima consegienza operativa. Verificare se una funzione è Lipschitziana è difficile. In quasi tutti gli esempi useremo il seguente corollario che ha ipotesi più facilmente verificabili del teorema precedente. Corollario 2.4.15. Sia f : T × X → Rn , sia (t0 , x0 ) ∈ T × X con x0 ∈ IntX. Se esiste un intorno di (t0 , x0 ), che chiamiamo I (t0 , x0 ), tale che: • I (t0 , x0 ) ⊆ T × X, • ∂f esiste ed è continua in I (t0 , x0 ); ∂x allora esiste un’unica soluzione locale di (2.4). − Se tale ipotesi è soddisfatta solo in I t+ 0 , x0 (rispettivamente in I t0 , x0 ) allora otteniamo solo soluzioni locali uniche a destra (rispettivamente a sinistra). Quando x0 è di frontiera allora abbiamo il seguente corollario (valido nel caso n = 1). Corollario 2.4.16. Sia f : T × X → R, sia (t0 , x0 ) ∈ T × X con x0 ∈ F rX. Se valgono le stesse ipotesi del Corollario 2.4.11 e in più ∂f + (rispettivamente esiste ed è continua e limitata, in I t+ 0 , x0 ∂x − − − − + in I t+ 0 , x0 , I t0 , x0 , I t0 , x0 ); • la derivata allora le soluzioni locali sono uniche. Infine passiamo alla seconda conseguenza operativa. Prima di tutto enunciamo un corollario. Corollario 2.4.17. Sia f : T × X → Rn , e assumiamo che esista un insieme aperto ∂f X0 ⊆ X tale che, ad ogni istante (t0 , x0 ) ∈ T × X0 la derivata parziale esista e ∂x sia continua. Allora per ogni (t0 , x0 ) ∈ T × X0 esiste un’unica soluzione locale x di (2.4) con l’accordo che se t0 è sul bordo di T, la soluzione è solo a destra o a sinistra. In molti esempi, l’insieme X0 sarà scelto il più grande possibile, i.e. la parte interna di X denotata da IntX. Osservazione 2.4.18 (Osservazione fondamentale!). Un diretta e fondamentale conseguenza del corollario 2.4.17 è che, sulla regione T × X0 le curve integrali non si incrociano. È sufficiente argomentarlo per contraddizione. Se due curve integrali si incrociano in un dato (t0 , x0 ) ∈ T × X0 , allora questo vorrebbe dire che esistono due soluzioni che escono da questo punto. Questo però non può succedere in virtù del teorema di unicità. 2.4 Il caso a tempi continui 2.4.2 33 Esistenza ed unicità globale Nei problemi reali in genere siamo interessati all’esistenza ed all’unicità globale. Nel caso a tempi continui, le otteniamo però molto difficilmente, anche se la funzione f ha un “buon andamento” come visto sopra. Vediamo ora alcune condizioni che garantiscono esistenza ed unicità globale. Da adesso in poi assumiamo in questa sezione che le ipotesi del Corollario 2.4.17 sopra siano soddisfatte, cioè che f : T × X → Rn , ed esiste un insieme aperto X0 ⊆ X tale ∂f esiste ed è continua. In questo caso per ogni che, per ogni (t0 , x0 ) ∈ T × X0 , ∂x (t0 , x0 ) ∈ T × X0 esiste un’unica soluzione locale x (·; t0 , x0 ) di (2.4). Prendiamo ora tale soluzione. Sarà sicuramente definita su un certo intervallo [t0 − δ, t0 + δ]. Possiamo quindi considerare un nuovo problema PC-EDO (cercando una soluzione y) con la stessa EDO e condizione iniziale all’istante t0 + δ uguale a x (t0 + δ). y0 (t) = f (t, y (t)) ∀t ∈ T y (t0 + δ) = x (t0 + δ) . Se (t0 + δ, x (t0 + δ)) ∈ T × X0 and t0 + δ non è l’ultimo punto di T allora di nuovo abbiamo un’unica soluzione locale y. Tale soluzione è detta prolungamento a destra della soluzione locale x. In maniera simile, si può definire un prolungamento a sinistra. Definizione 2.4.19 (Soluzione massimale). Chiamiamo Tmax = sup {t > t0 : la soluzione locale di (2.4) ammette un prolungamento a destra} . In maniera simile, si può definire Tmin = inf {t < t0 : la soluzione locale di (2.4) ammette un prolungamento a sinistra} . La soluzione prolungata può allora essere definita su (Tmin , Tmax ) che è chiamato intervallo massimale di esistenza. Questa soluzione prolungata sarà chiamata la soluzione massimale del problema di Cauchy (2.4). Naturalmente se T ⊆ (Tmin , Tmax ) allora la soluzione locale è globale. Abbiamo i seguenti risultati molto importanti. ∂f Teorema 2.4.20. Se X = Rn e f o sono limitate sulla striscia T × Rn , allora ∂x esiste un’unica soluzione globale di (2.4). Teorema 2.4.21 (Teorema di Prolungamento). Se x (t) = x (t; t0 , x0 ) è la soluzione locale di (2.4) e x (t) è limitata per ogni t tale che x (t) esiste, allora la soluzione locale può essere prolungata ad una globale. Osservazione 2.4.22. Punti speciali sono i punti dove f (t, x0 ) = 0 per ogni t ∈ T. Se il sistema parte da questi punti, allora esiste sempre una soluzione costante x (t, x0 ) = x0 per ogni t ∈ T (che è unica se e.g. vale Corollario 2.4.15). Questi punti sono chiamati punti di equilibrio. Anche se non esistono soluzioni globali che partono da altri punti, sicuramente esisteranno soluzioni globali che partono dai punti di equilibrio. 34 Esistenza ed unicità delle soluzioni 2.5 Esercizi Sia n = 1. Nel seguito l’insieme degli stati, se non specificato, sarà X = R. Esercizio 1. Consideriamo i seguenti PC-EDO: 0 1 2 x (t) = tx(t) x1 (t) = x0 e 2 (t−t0 ) a) T = [0, T ], T > 0; 1 2 2 x(t0 ) = x0 , x2 (t) = x0 e 2 (t −t0 ) , x0 (t) = 4x(t) − 1 x(1) = −2, x1 (t) = −2t x2 (t) = 14 − 49 e4(t−1) , p x0 (t) = 2 |x(t)| x(0) = 0, x1 (t) = 0 b) c) x2 (t) = T = [1, +∞[; t2 se t ≥ 0 −t2 se t < 0, T = R. 1. Scrivere le dinamiche f delle EDO; 2. Discutere la validità dei teoremi di esistenza e unicità locale specificando gli insiemi di dati iniziali dove si possono applicare. 3. Controllare se le funzioni che trovate a destra di ogni PC-EDO sono o no soluzioni di esso. Esercizio 2. Dopo aver scritto le dinamiche f , controllare se ognuna delle seguenti funzioni sia o no una soluzione globale della EDO che trovate alla sua destra. a) x(t) = t + ln(t − 1), b) x(t) = √ 1 , 1 − t2 x0 (t) = tet , ex(t) x0 (t) = tx3 (t), T =]1, +∞[; T =] − 1, 1[. Esercizio 3. Dimostrare che la funzione x(t) = ln2 t è una soluzione, sull’intervallo ]1, +∞[, della EDO p 2 x(t) 0 x (t) = . (2.6) t La funzione x(t) è una soluzione anche su ]0, 1[? Esercizio 4. Sia X = [1, +∞[ l’insieme degli stati. Dato il seguente PC-EDO: p 0 x (t) = x(t) − 1 T = [0, +∞[, (2.7) x(0) = x0 discutere la validità dei teoremi di esistenza e uncità locale specificando gli insiemi di dati iniziali dove si possono applicare. 2.6 Soluzioni 35 Esercizio 5. Dopo aver scritto le dinamiche f del PC-EDO 0 x (t) = x2 (t) T = [0, +∞[, x(0) = x0 (2.8) 1. discutere la validità dei teoremi di esistenza e uncità locale specificando gli insiemi di dati iniziali dove si possono applicare; 2. controllare se la funzione x0 1 − x0 t è una soluzione locale del PC-EDO. E’ anche una soluzione globale? 0 x0 x (t) = x2 (t) x(t) = , T = [0, +∞[. x(0) = x0 1 − x0 t x(t) = 2.6 (2.9) Soluzioni Esercizio 1. a.1) La dinamica f della EDO è: f : [0, T ]×R −→ R (t, x) 7→ f (t, x) = tx. a.2) Per stabilire se esistono soluzioni locali dobbiamo controllare se sono verificate le ipotesi del Teorema di Peano. La funzione f (t, x) = tx è continua ∀(t, x) ∈ [0, T ] × R, e quindi il Teorema di Peano (2.4.9) garantisce l’esistenza di almeno una soluzione locale del PC-EDO per ogni (t0 , x0 ) ∈ [0, T ] × R. Ora vediamo se tali soluzioni sono uniche. Suggerimento: usare il Corollario 2.4.17. Calcoliamo la derivata parziale ∂x f ∂ ∂ (f (t, x)) = (tx) = t, ∂x ∂x ∀x ∈ R. Essa è ben definita e continua in ogni (t, x) ∈ [0, T ] × R (infatti f ∈ C 1 ([0, T ] × R; R)), e quindi esiste unica la soluzione locale del PC-EDO per ogni (t0 , x0 ) ∈ [0, T ] × R. a.3) La funzione x1 (t) è una soluzione locale del PC-EDO a) se esiste un intorno t0 , che chiamiamo J(t0 ), tale che x1 (t) sia differenziabile in J(t0 ) e che soddisfi il PC-EDO a), ∀t ∈ J(t0 ) ∩ [0, T ]. Si ha x1 (t0 ) = x0 1 2 1 2 x01 (t) = x0 (t − t0 )e 2 (t−t0 ) 6= tx1 (t) = x0 te 2 (t−t0 ) . 36 Esistenza ed unicità delle soluzioni Quindi x1 (t) non è soluzione del PC-EDO a). Controlliamo ora se lo è x2 (t): x2 (t0 ) = x0 1 2 −t2 ) 0 x02 (t) = x0 te 2 (t 1 2 = tx2 (t). 2 Dato che x2 (t) = x0 e 2 (t −t0 ) è differenziabile in [0, T ] e soddisfa il PC-EDO a), x2 (t) è una soluzione locale di esso. b) Si segua l’idea dell’Esercizio 1. Otteniamo che x2 (t) è soluzione locale del PCEDO. c.1) La dinamica f è: f : R×R −→ R p (t, x) 7→ f (t, x) = 2 |x|. p c.2) La funzione f (t, x) = 2 |x| è continua ∀(t, x) ∈ R × R, quindi il Teorema di Peano (2.4.9) garantisce l’esistenza di almeno una soluzione locale del PC-EDO per ogni (t0 , x0 ) ∈ [0, T ] × R. Però l’unicità non è garantita ovunque. Infatti, se consideriamo la derivata parziale ∂x f ∂ ∂ p sign(x) (f (t, x)) = (2 |x|) = p ∂x ∂x |x| essa non è definita in x = 0. ∂ Quindi ∂x (f (t, x)) esiste ed è continua per ogni (t, x) ∈ R × R \ {0}. Di conseguenza, ∀(t0 , x0 ) ∈ R × R \ {0} esiste un unica soluzione locale di c). Quindi l’unicità non è garantita in (t0 , 0), per t0 ∈ R. c.3) Notiamo facilmente che x1 (t) soddisfa il PC-EDO c). Consideriamo ora la funzione x2 (t): essa è differenziabile ∀t ∈ R e x0 (t) = 2|t| p p 2 x2 (t) = 2 |t2 | = 2|t| con x2 (0) = 0. Quindi entrambe le funzioni sono soluzioni del PC-EDO dato. Esercizio 2. a) 1. La dinamica f è la seguente: f :]1, +∞[×R −→ R (t, x) 7→ f (t, x) = tet . ex 2.6 Soluzioni 37 2. La funzione x(t) è una soluzione globale se è differenziabile ∀t ∈]1, +∞[ e soddisfa la EDO in a). La funzione x(t) = t+ln(t−1) è ben definita e differenziabile ∀t ∈]1, +∞[. Inoltre la derivata 1 x0 (t) = 1 + t−1 è definita per ogni t 6= 1, in particolare sull’intervallo ]1, +∞[. Inoltre 1 t = t−1 t−1 tet tet t = t+ln(t−1) = t = . e (t − 1) t−1 e x0 (t) = 1 + tet ex(t) Quindi x(t) è una soluzione globale. b) Seguiamo la stessa procedura usata nella parte a). Esercizio 3. La funzione x(t) = ln2 t è ben definita e differenziabile su ]0, +∞[; la derivata vale 1 x0 (t) = 2 ln t · , t > 0. t Essa è quindi ben definita anche su ]1, +∞[. Vediamo se soddisfa l’equazione: 2 x0 (t) = ln t t√ p 2 x(t) 2 ln2 t 2| ln t| = = . t t t √ 2 x(t) Poiché, per t > 1, ln t > 0, abbiamo che | ln t| = ln t e quindi x0 (t) = , t ∀t ∈]1, +∞[, cioè x(t) è una soluzione su ]1, +∞[. Per t ∈]0, 1[, il logaritmo è negativo e quindi: | ln t| = − ln t. Dunque x(t) non può essere soluzione di (2.6) su ]0, 1[. Esercizio 4. La dinamica f è: f : [0, +∞[×[1, +∞[−→ R √ (t, x) 7→ f (t, x) = x − 1. √ La funzione f (t, x) = x − 1 è continua ∀(t, x) ∈ [0, +∞[×[1, +∞[, quindi il Teorema di Peano (2.4.9) garantisce l’esistenza di almeno una soluzione locale del PC-EDO ∀(t0 , x0 ) ∈ [0, +∞[×[1, +∞[. Riguardo all’unicità la derivata parziale: ∂ ∂ √ 1 (f (t, x)) = ( x − 1) = √ , ∂x ∂x 2 x−1 38 Esistenza ed unicità delle soluzioni è definita e continua per x > 1. Esiste allora un insieme aperto X0 =]1, +∞[⊂ ∂ [1, +∞[= X tale che ∀(t0 , x0 ) ∈ [0, +∞[×]1, +∞[, la derivata parziale ∂x (f (t, x)) essite ed è continua. Questo implica che ∀(t0 , x0 ) ∈ [0, +∞[×]1, +∞[ esiste un’unica soluzione locale x(t) del PC-EDO (2.7). Esercizio 5. 1. La dinamica f è: f : [0, +∞[×R −→ R (t, x) 7→ f (t, x) = x2 . La funzione f (t, x) = x2 è continua ∀x ∈ R (chiaramente anche ∀t ∈ [0, +∞[), quindi il Teorema di Peano (2.4.9) garantisce l’esistenza di almeno una soluzione locale del PC-EDO (2.9) ∀(t0 , x0 ) ∈ [0, T + ∞[×R. Riguardo all’unicità la derivata parziale: ∂ 2 ∂ (f (t, x)) = (x ) = 2x, ∂x ∂x ∀x ∈ R è ben definita e continua ∀(t, x) ∈ [0, +∞[×R, quindi esiste un’unica soluzione locale del PC-EDO ∀(t0 , x0 ) ∈ [0, +∞[×R. x0 è una soluzione locale del PC-EDO (2.9), se esiste 1 − x0 t un intorno di 0, sia J(0), tale che x(t) sia differenziabile in J(0) e aoddisfi (2.8) ∀t ∈ J(0) ∩ [0, +∞[. x0 La funzione x(t) = “esplode” in t = x10 . Quindi, per t0 = 0 si ha: 1 − x0 t 2. La funzione x(t) = • x0 > 0 Prendiamo J(0) =]−∞, x10 [ e vediamo che ∀t ∈]−∞, x10 [∩[0, +∞[= [0, x10 [, x(t) soddisfa (2.9); • x0 = 0 Prendiamo J(0) = [0, +∞[ e vediamo che la soluzione è la costante x(t) ≡ 0, ∀t ∈ [0, +∞[; • x0 < 0 Prendiamo J(0) =] x10 , +∞[ e vediamo che, ∀t ∈] x10 , +∞[∩[0, +∞[= [0, +∞[, x(t) soddisfa (2.9). In conclusione ∀(0, x0 ) ∈ [0, +∞[×R, x(t) è una soluzione locale del PC-EDO (2.9). Tale soluzione è globale quando x0 ≤ 0. Capitolo 3 Stabilità dei punti di equilibrio In questo capitolo diamo la definizione formale di “punti di equilibrio”, e introduciamo i concetti di stabilità per i punti di equilibrio. 3.1 Definizioni e commenti Partiamo dalla definizione di punto di equilibrio. Definizione 3.1.1. • Dati T intervallo di R, X ⊆ Rn , f : T × X → Rn , diciamo che x̄ ∈ X è un punto di equilibrio dell’ODE x0 (t) = f (t, x (t)) , ∀t ∈ T (3.1) se, per ogni t0 ∈ T, il problema di Cauchy 0 x (t) = f (t, x (t)) ∀t ∈ T x (t0 ) = x̄ ammette come soluzione globale la funzione costante x (t; t0 , x̄) = x̄ per ogni t ∈ T. • Analogamente, dati T ⊆ N, X ⊆ Rn , g : T × X → Rn , diciamo che x̄ ∈ X è un punto di equilibrio per la DE x (t + 1) = g (t, x (t)) , ∀t ∈ T (3.2) se, per ogni t0 ∈ T, il problema di Cauchy x (t + 1) = g (t, x (t)) ∀t ∈ T x (t0 ) = x̄ ammette come soluzione globale la funzione costante x (t; t0 , x̄) = x̄ for every t ∈ T. Equivalentemente abbiamo: 39 40 Stabilità dei punti di equilibrio Definizione 3.1.2. Dati T intervallo di R, X ⊆ Rn , f :T × X → Rn , diciamo che x̄ ∈ X è un punto di equilibrio per l’ODE (3.1) se f (t, x̄) = 0 per ogni t ∈ T. Definizione 3.1.3. Dati T ⊆ N, X ⊆ Rn , g : T × X → Rn , diciamo che x̄ ∈ X è un punto di equilibrio della DE (3.2) se g (t, x̄) = x0 per ogni t ∈ T. Le precedenti definizioni hanno senso anche nel caso in cui T sia limitato. Tuttavia la nostra attenzione è rivolta al caso in cui T è illimitato. Quindi, per semplificare, d’ora in poi assumeremo che T = [0, +∞) nel caso a tempo continuo e che T = N nel caso a tempo discreto. Osservazione 3.1.4. Nel caso autonomo f (t, x) = f (x) e g (t, x) = g (x), cosicchè: • L’insieme dei punti di equilibrio per l’ODE (3.1) è l’insieme degli zeri di f . • L’insieme dei punti di equilibrio per la DE (3.2) è l’insieme degli zeri di g. 3.2 Stabilità e stabilità asintotica Introduciamo ora due concetti fondamentali per i punti d’equilibrio: quello di stabilità e quello di stabilità asintotica. Entrambi sono concetti local. Il concetto di stabilità per un punto di equilibrio corrisponde all’idea di stabilità delle soluzioni dell’ODE (o della DE) rispetto a piccole variazione dei dati iniziali (in un opportuno intorno del punto di stabilità). Esso è analogo al concetto di di continuità di una funzione (che è solitamente interpretata come “stabilità rispetto a piccole variazioni della variabile indipendente”). Definizione 3.2.1. Un punto di equilibrio x̄ ∈ X per l’ODE (3.1) o per la DE (3.2) è stabile (in breve (S)) se ∀ε > 0 t0 ∈ T, x0 ∈ X, ||x0 −x̄||Rn < δ ∃δ > 0 =⇒ tale che ||x (t; t0 , x0 ) −x̄||Rn ≤ ε ∀t ∈ T. Se esso non è stabile, allora è detto instabile (in breve (I)). Osservazione 3.2.2. Si osservi che con tale definizione di stabilità t0 potrebbe non essere il primo tempo di T. Quindi la richiesta ||x (t; t0 , x0 ) −x̄||Rn ≤ ε ∀t ∈ T riguarda la soluzione anche per tempi precedenti a t0 . Tuttavia solitamente noi considereremo il caso t0 = 0 e la richiesta sarà solo per tempi successivi a t0 . Osservazione 3.2.3. Si osservi che la stabilità di x̄ corrisponde alla continuità della mappa F : X → C 0 (T; X) , x0 → x (·; t0 , x0 ) nel punto x̄. Ricordiamo infatti che data h ∈ C 0 (T; X) la norma infinito (anche detta la norma del sup) di h è ||h||∞ = sup ||h (t)||Rn t∈T 3.2 Stabilità e stabilità asintotica 41 e che la distanza tra due funzioni h1 , h2 in C 0 (T; X) può essere definita (è solo un modo possibile) come d (h1 , h2 ) = ||h1 − h2 ||∞ . Si osservi allora che la richiesta ||x (t; t0 , x0 ) −x̄||Rn < ε ∀t ∈ T è equivalente a sup ||x (t; t0 , x0 ) −x̄||Rn < ε t∈T oppure, poichè x (·; t0 , x̄) ≡ x̄ ||x (·; t0 , x0 ) −x (·; t0 , x̄)||∞ < ε. Quindi la definizione 3.2.1 è esattamente equivalente alla continuità di F in x̄. Passiamo ora alla stabilità asintotica. Prima di tutto definiamo il concetto di attrattore locale. Definizione 3.2.4. Un punto di equilibrio x̄ ∈X per l’ODE (3.1) o per la DE (3.2) è un attrattore locale se ∃δ > 0 tale che t0 ∈ T, x0 ∈ X, ||x0 −x̄||Rn ≤ δ =⇒ lim ||x (t; t0 , x0 ) −x̄||Rn = 0. (3.3) t→+∞ t∈T Si noti che un punto può essere un attrattore senza essere stabile. Si veda ad esempio [25]. Per tale ragione si introduce il concetto di stabilità asintotica (AS). Definizione 3.2.5. Un punto di equilibrio x̄ ∈ X per l’ODE (3.1) o per la DE (3.2) si dice asintoticamente stabile (in breve (AS)) se è stabile ed è un attrattore locale. Il concetto di stabilità asintotica corrisponde all’idea di un punto di equilibrio che attrae le soluzioni corrispondenti a dati iniziali sufficientemente vicini al punto di equilibrio. Entrambi i concetti di stabilità (S) e di stabilità asintitica (AS) sono concetti locali. Passiamo ora a concetti globali: bacino d’attrazione (BA) e stabilità asintotica globale (GAS). Definizione 3.2.6. Il bacino di attrazione di un dato punto di equilibrio x̄ è dato dall’insieme di tutte le condizioni iniziali x0 tali che, per ogni t0 ≥ T0 , t0 > −∞, abbiamo lim ||x (t; t0 , x0 ) −x̄||Rn = 0 t→+∞ t∈T Esso è denotato da B (x̄). Definizione 3.2.7. Il punto di equilibrio x̄ si dice globalmente asintoticamente stabile (GAS) se è AS e se B (x̄) = X. 42 Stabilità dei punti di equilibrio In molti problemi applicati saremo interessati nello studio della stabilità dei punti di equilibrio nel caso autonomo, almeno dal punto di vista locale. Vedremo in seguito l’interpretazione economica in vari esempi. Osservazione 3.2.8. Nel caso n = 1 può succedere che la prorietà di stabilità (Definizione 3.2.1) e la proprietà di limite (3.3) valga solo in un intorno sinistro (o destro) del punto di equilibrio x̄. In questo caso, in accordo con la definizione 3.2.1, il punto di equilibrio è instabile, ma talvolta noi diremo che esso è stabile a sinistra (o a destra) e simili definizioni saranno usate per gli altri concetti. Concludiamo questo capitolo con la seguente utile proposizione. Proposizione 3.2.9. Sia n = 1 sia x̄ un punto di equilibrio per l’ODE (3.1) o per la DE (3.2). Supponiamo che la proprietà (3.3) valga e che, per x0 in un intorno di x̄, la soluzione x (t; t0 , x0 ) sia monotona su T. Allora x̄ è stabile (e quindi asintoticamente stabile). Il caso n = 1 Introduciamo ora alcuni metodi per risolvere una DE o una ODE e per studiare le proprietà delle soluzioni nel caso n = 1, che permette di disegnare grafici ed avere un’intuzione di ciò che può succedere. 43 Capitolo 4 Equazioni alle differenze del primo ordine 4.1 Equazioni alle differenze lineari del caso unidimensionale Iniziamo con la definizione di DE lineare. Qui T sarà un dato intervallo di N, possibilmente tutto N. Definizione 4.1.1. Una DE (n = 1) definita in T si dice lineare se la funzione g (quindi la dinamica) è lineare o affine, cioè se è della forma x (t + 1) = aD (t) x (t) + bD (t) , t∈T dove aD , bD : T → R funzioni date. Se bD è 0, allora la DE è detta lineare omogenea. Altrimenti è detta non omogenea. Solitamente lo spazio degli stati è R. In alcuni modelli applicati richiederemo un diverso spazio degli stati. Se non diversamente specificato, assumeremo in questa sezione che X = R. Teorema 4.1.2. Fissato un qualunque (t0 , x0 ) ∈ T × R esiste sempre una soluzione al CP-DE x (t + 1) = aD (t) x (t) + bD (t) , t∈T (4.1) x (t0 ) = x0 . Nel caso lineare unidimensionale abbiamo una formula esplicita per la soluzione. La daremo senza dimostrazione (la dimostrazione può essre trovata ad esempio in [23, p.339]. Proposizione 4.1.3. L’unica soluzione in T = [t0 , +∞) ∩ Z del problema di Cauchy x (t + 1) = aD (t) x (t) + bD (t) , x (t0 ) = x0 , 45 t∈T 46 Equazioni alle differenze del primo ordine è data da x (t) = x0 t−1 Y t−1 X ! aD (s) + s=t0 bD (s) s=t0 t−1 Y ! aD (s) (4.2) r=s+1 in particolare nel caso omogeneo da t−1 Y x (t) = x0 ! aD (s) (4.3) bD (s) at−s−1 . D (4.4) s=t0 e nel caso in cui aD sia costante da 0 x (t) = x0 at−t + D t−1 X s=t0 Osservazione 4.1.4. Si noti che la soluzione è somma di due parti: 1. la soluzione della DE omogenea associata, che dipende linearmente dal dato iniziale; 2. la soluzione della DE non omogenea con dato iniziale 0 al tempo t0 . Possiamo dire che la soluzione è una funzione affine (lineare nel caso omogeneo) del dato iniziale. Negli esercizi vedremo alcuni esempi con calcolo esplicito di soluzioni. 4.2 Stabilità dei punti di equilibrio nel caso lineare Consideriamo il caso autonomo. I punti di equilibrio sono le soluzioni dell’equazione aD x + bD = x. Abbiamo allora: • se aD 6= 1, allora esiste un unico punto di equilibrio x̄ = bD ; 1 − aD • se aD = 1 e bD 6= 0, allora non esistono punti di equilibrio: • se aD = 1 e bD = 0, allora tutti gli x ∈ R sono punti di equilibrio. Analizziamo ora la stabilità dei punti di equilibrio. Grazie alla formula (4.4) la soluzione del CP-DE (4.1) si scrive come x (t) = 0 x0 at−t D + t−1 X bD at−s−1 D s=t0 " = 0 at−t D x0 + bD t−1 X s=t0 # atD0 −s−1 . 4.3 Equazioni alle differenze non lineari nel caso unidimensionale Se aD 6= 1, allora " 0 x0 + bD a−1 x (t) = at−t D D 0 x0 − = at−t D a−1 D t−t0 −1 # a−1 D −1 bD bD + 1 − aD 1 − aD mentre, se aD = 1 x (t) = x0 + bD (t − t0 ) . Quindi otteniamo che, • per |aD | 6= 1, (S)+(AS)+(GAS) vale se e solo se |aD | < 1: infatti in questo caso abbiamo la proprietà limite e la monotonia, quindi possiamo usare la Proposizione (3.2.9). • per aD = −1, abbiamo (S) ma non (AS) (questo non è banale: si guardi il caso bD = 0 per capire ciò che accade). • per aD = 1 e bD = 0, le soluzioni sono sempre costanti. In questo caso, poichè tutti gli x ∈ R sono punti di equilibrio, essi saranno tutti stabili ma non (AS). Abbiamo il seguente risultato. Teorema 4.2.1. Si consideri una DE lineare autonoma in dimensione 1. Allora bD è stabile se e solo se 1 − aD |aD | < 1; in tal caso esso è anche (AS) e (GAS); • se |aD | 6= 1, l’unico punto di equilibrio x̄ = • se aD = −1, l’unico punto di equilibrio x̄ = bD è stabile ma non (AS). 2 • se aD = 1 esistono punti di equilibrio se e solo se if bD = 0. In tal caso tutti gli x ∈ R sono punti di equilibrio stabili ma non (AS). Dimostrazione. Si veda ad esempio [14]. 4.3 Equazioni alle differenze non lineari nel caso unidimensionale 4.4 Stabilità dei punti di equilibrio nel caso non lineare 4.4.1 Stabilità attraverso linearizzazione Innanzitutto ricordiamo un risultato che è utile nello studio di proprietà di stabilità locale ((S) and (AS)) per punti di equilibrio di ODE e DE non lineari . Si tratta di una prcedura di linearizzazione che va sotto il nome di Hartmann-Grossmann. 47 48 Equazioni alle differenze del primo ordine Stabiliamo cosa si intende per linearizzazione. Data una DE autonoma x (t + 1) = g (x (t)) (4.5) ed un suo suo punto di equilibrio x̄, la linearizzazione di tale DE intorno a tale punto di equilibrio x̄ è la DE lineare y (t + 1) = x̄ + g 0 (x̄) (y (t) − x̄) (4.6) dove abbiamo sostituito la funzione g che compare nel membro destro con la sua linearizzazione vicino x̄. Ciò discende dallo sviluppo di Taylor di g arrestato al primo ordine che è g (z) = g (x̄) + g 0 (x̄) (z − x̄) + o (|z − x̄|) = x̄ + g 0 (x̄) (z − x̄) + o (|z − x̄|) dove nell’ultima uguaglianza abbiamo usato il fatto che g (x̄) = x̄ poichè x̄ è un punto di equilibrio. Quindi il termine x̄ + g 0 (x̄) (z − x̄) si dice essere la linearizzazione di g vicino a x̄. Il teorema di Hartmann-Grossmann stabilisce che le proprietà di stabilità locale di x̄ nel sistema non lineare coincidono con quelle del sistema linearizzato x̄ se |g 0 (x̄)| = 6 1. Abbiamo il seguente risultato. Teorema 4.4.1. Si consideri la DE non lineare autonoma (4.5) in dimensione 1 e si assuma che g ∈ C 1 (X; R). Sia x̄ ∈ IntX un punto di equilibrio tale che |g 0 (x̄)| = 6 1. Allora x̄ è stabile se e solo se |g 0 (x̄)| < 1. In tal caso è anche (AS). Osservazione 4.4.2. Se |g 0 (x̄)| = 1, alloranon si può dire nulla a priori riguardo la stabilità di x̄. Si possono avere comportamenti diversi in base alla struttura del problema. Capitolo 5 Equazioni Differenziali del Primo Ordine 5.1 ODE lineari nel caso unidimensionale Innanzitutto diamo la definizione di ODE lineare. Qui T sarà un dato intervallo di R, possibilmente tutto R. Definizione 5.1.1. Un’ODE (n = 1) definita in T si dice lineare se la funzione f (quindi la dinamica) è lineare o affine, cioè se è del tipo x0 (t) = aC (t) x (t) + bC (t) , t∈T dove aC , bC : T → R sono funzioni date. Se bC è 0, allora l’ODE si dice lineare omogenea. Altrimenti essa si dice non omogenea. Solitamente lo spazio degli stati è R. In alcuni modelli applicati richiederemo un diverso spazio degli stati. Quando non diversamente specificato assumeremo che lo spazio degli stati sia X = R. Per le equazioni lineari vale il seguente teorema, la cui applicazione è piú forte degli analoghi risultati per il caso non lineare Teorema 5.1.2. Siano aC e bC funzioni continue su T. Allora, per ogni (t0 , x0 ) ∈ T × R, esiste sempre un’unica soluzione al CP-ODE x0 (t) = aC (t) x (t) + bC (t) , t∈T (5.1) x (t0 ) = x0 . Osservazione 5.1.3. Applicando il Teorema 2.4.20 tal caso lineare, avremmo esistenza e unicità per il problema (5.1) su [t0 , T ] per ogni T finito. Il teorema 5.1.2 stabilisce esistenza e unicità anche su [t0 , +∞). Nel caso lineare unidimensionale abbiamo una formula esplicita per la soluzione, come per le DE. La daremo senza dimostrazione. La dimostrazione può essre trovata ad esempio in [43, pp.407-408]. Si veda anche [14] per un trattamento unificato dei casi continuo e discreto. 49 50 Equazioni Differenziali del Primo Ordine Proposizione 5.1.4. L’unica soluzione su T = [T0 , T1 ] ∩ R del problema di Cauchy x0 (t) = aC (t) x (t) + bC (t) , x (t0 ) = x0 , t∈T t0 ∈ T, x0 ∈ R, è data da x (t) = x0 e Rt t0 aC (s)ds Z t Rt bC (s) e + s aC (r)dr ds (5.2) t0 in particolare, nel caso omogeneo da x (t) = x0 e Rt t0 aC (s)ds (5.3) bC (s) eaC (t−s) ds. (5.4) e nel caso in cui aC sia costante da aC (t−t0 ) x (t) = x0 e Z t + t0 Osservazione 5.1.5. Come nel caso discreto la soluzione è composta di due parti: 1. la soluzione dell’equazione omogenea associata, che dipende linearmente dal dato iniziale; 2. la soluzione dell’equazione non omogenea con dato iniziale 0 al tempo t0 . Possiamo dire che in generale la soluzione è una funzione affine (lineare nel caso omogeneo) del dato iniziale. Negli esercizi vedremo esempi di calcolo esplicito di soluzioni. 5.2 Stabilità dei punti di equilibrio nel caso linerare Consideriamo il caso autonomo. I punti di equilibrio sono le soluzioni di aC x + bC = 0. Quindi abbiamo • se aC 6= 0, allora esiste un unico punto di equilibrio x̄ = − bC ; aC • se aC = 0 e bC 6= 0, allora non ci sono punti di equilibrio; • se aC = 0 e bC = 0, allora tutti gli x ∈ R sono punti di equilibrio. 5.3 ODE non lineari unidimensionali 51 Analizziamo ora la stabilità dei punti di equilibrio. Grazie alla formula (5.4) la soluzione del CP-ODE (5.1) si scrive come Z t bC eaC (t−s) ds x (t) = x (t) = x0 eaC (t−t0 ) + t0 Z t −aC (s−t0 ) aC (t−t0 ) e ds . x0 + bC = e t0 Se aC 6= 0, allora " e−aC (t−t0 ) − 1 x (t) = e x0 + bC −aC bC bC = eaC (t−t0 ) x0 + − aC aC # aC (t−t0 ) mentre, se aC = 0 x (t) = x0 + bC (t − t0 ) . Quindi • per aC 6= 0 (S)+(AS)+(GAS) vale se e solo se aC < 0: infatti in questo caso abbiamo la proprietà limite e la monotonia e quindi possiamo usare la Proposizione 3.2.9. • per aC = 0 e bC = 0, le soluzioni sono sempre costanti. Allora, poichè tutti gli x ∈ R sono punti di equilibrio, tutti sono punti di equilibrio stabile ma non (AS). Teorema 5.2.1. Si consideri un’ODE autonoma in dimensione 1. Allora • se aC 6= 0, l’unico punto di equilibrio x̄ = − bC è stabile se e solo se aC < 0; aC esso è anche (AS) e (GAS); • se aC = 0, esistono punti di eqilibrio se e solo se bC = 0. In questo caso ogni x ∈ R è un punto di equilibrio ed è stabile ma non (AS). Dimostrazione. Si veda [14]. 5.3 ODE non lineari unidimensionali In questa sezione ci occuperemo del caso non lineare. Innanzitutto presentiamo due metodi per trovare le soluzioni e passiamo poi allo studio della stabilità e ad altre propriet delle soluzioni. 52 Equazioni Differenziali del Primo Ordine 5.3.1 Separazione delle variabili Questo metodo funziona in dimensione nel caso n = 1, quando la dinamica f può essere scritta come prodotto di una funzione di t per una funzione di x, cioè f (t, x) = f1 (t) · f2 (x) cosicchè abbiamo il problema di Cauchy 0 x (t) = f1 (t) · f2 (x (t)) ∀t ∈ T x (t0 ) = x0 In questo caso possiamo scrivere, per t tale che f2 (x (t)) 6= 0, x0 (t) = f1 (t) · f2 (x (t)) ⇒ x0 (t) = f1 (t) . f2 (x (t)) Sia ora t > t0 fissato e si assuma che f2 (x (s)) 6= 0 per ogni s ∈ [t0 , t]. Integrando (e cambiando il nome della variabile di integrazione) Z t Z t x0 (s) ds = f1 (s) ds. t0 f2 (x (s)) t0 Ora se f2 (x (s)) non cambia segno nell’intervallo [t0 , t] possiamo cambiare variabile (si veda ad esempio. [43, Vol.1, Ch.8] o [23, pp.183-184]) nel primo integrale ponendo x = x (s) (che è invertibile poichè è continua e la sua derivata è x0 (s) = f2 (x (s))) e otteniamo Z x(t) Z t dx = f1 (s) ds. x(t0 )=x0 f2 (x) t0 Se siamo in grado di calcolare gli integrali, otteniamo, chiamando G una primitiva 1 di e H una primitiva di f1 , f2 G (x (t)) − G (x0 ) = H (t) − H (0) . Se G è invertibile, otteniamo x (t) = G−1 (G (x0 ) + H (t) − H (0)) . Vediamo un esempio di applicazione del metodo descritto. Example 5.3.1. Si trovino le soluzioni del problema di Cauchy x0 (t) = x2 (t) , x (t0 ) = x0 ∈ R. Innanzitutto osserviamo che in questo caso il Corollario 2.4.17 vale per ogni (t0 , x0 ) ∈ R × R, quindi l’esistenza e l’unicità locale valgono per ogni tempo e stato iniziali. Inoltre abbiamo separazione delle variabili con f1 (t) = 1 e f2 (x) = x2 (dobbiamo dividere per f2 (x (t))). Abbiamo f (x) = 0 ⇐⇒ x = 0. 5.3 ODE non lineari unidimensionali 53 Questo significa che x = 0 è un punto di equilibrio. Ciò significa che x (t; 0, 0) = 0 per ogni t ∈ R. Grazie all’unicità locale (Corollario 2.4.17 e Osservazione 2.4.18) ogni soluzione uscente da x0 6= 0 non raggiunge mai 0. IIn particolare questo significa che per ogni x0 6= 0, f (x (t; x0 )) 6= 0 per ogni t ∈ R. Allora, quando x0 6= 0 possiamo dividere f (x (t; x0 )), integrando e cambiando variabile otteniamo Z x(t) Z t 1 1 1 1ds =⇒ − dx = = t − t0 + 2 x (t) x0 x(t0 ) x t0 1 1 −t =⇒ = t0 + x (t) x0 −1 1 x0 =⇒ x (t) = t0 + −t = . x0 1 + x0 (t0 − t) h i−1 Quindi la soluzione per x0 6= 0 è x (t) = t0 + x10 − t . In particolare essa esplode in t = t0 + x10 . Quindi, per t0 = 0 l’intervallo massimale è: −∞, x10 , quando x0 > 0; x10 , +∞ , quando x0 < 0; R quando x0 = 0. In particolare abbiamo soluzione globale a destra per x0 ≤ 0. Con calcoli simili possiamo trovare la soluzione del CP-ODE, per n ∈ N, n > 2, x0 (t) = xn (t) , x (t0 ) = x0 ∈ R. Infatti Z x(t) x(t0 ) 1 dx xn t 1 1 1 = 1ds =⇒ − − = t − t0 n − 1 xn−1 (t) xn−1 t0 0 1 1 =⇒ = (n − 1) (t0 − t) + n−1 xn−1 (t) x0 1 1 − n−1 =⇒ x (t) = (n − 1) (t0 − t) + n−1 . x0 Z e la soluzione è trovata. 5.3.2 Cambio di variabile Introduciamo ora il metodo di cambio di variabile descrivendolo nel caso general. Si consideri il problema di Cauchy x0 (t) = f (t, x (t)) , ∀t ∈ T (5.5) n x (t0 ) = x0 ∈ X ⊆ R . Si assuma che valga esistenza e unicità locale (Corollario 2.4.15). Si consideri una funzione invertibile h : X → Y (Y ⊆ Rn ) che è C 1 e tale che la sua inversa h−1 : Y → X sia anche C 1 . Allora definiamo la nuova funzione (vettoriale) y y (t) = h (x (t)) . 54 Equazioni Differenziali del Primo Ordine Chiaramente y (t0 ) = h (x0 ). Determiniamo un’ODE risolta da y. Abbiamo y0 (t) = ∇h (x (t)) x0 (t) dove ∇h (x (t)) è una n × n matrice, x0 (t) è un vettore n-dimensionale, cosicchè nell’equazione precedente il prodotto deve essere inteso nel senso di una matrice applicata ad un vettore. Usando la ODE soddisfatta da x (5.5), otteniamo y0 (t) = ∇h (x (t)) f (t, x (t)) . Ora, poichè x (t) = h−1 (y (t)), y soddisfa il CP-ODE y0 (t) = ∇h h−1 (y (t)) f t, h−1 (y (t)) . (5.6) y (t0 ) = h (x0 ) . Si può dimostrare che una funzione x : T → X è soluzione di (5.5) se e solo se y : T → Y definita come y (t) = h (x (t)) è soluzione di (5.6). Questo può essere utile se l’equazione per y è piú facile da risolvere (o per lo studio qualitativo) dell’equazione per x. In tal caso si può trovare la soluzione y per il CP-ODE (5.6) e poi trovare x (t) = h−1 (y (t)). Vediamo un esempio per n = 1. Esempio 5.3.1 (Un esempio di equazione di tipo Bernoulli nella teoria di crescita ottimale). Si consideri il CP-ODE k 0 (t) = sk α (t) − δk (t) ; k (0) = k0 che corrisponde a (1.9) quando si consideri la funzione di produzione pro capite fP (k) = k α con α ∈ (0, 1). In questo caso abbiamo X = (0, +∞) poichè siamo interessati a dati iniziali strettamente positivi. Un cambio di variabile standard in questo caso è y (t) = k (t)β per un opportuno β ∈ R, β 6= 0 da scegliere. la funzione h è h (k) = k β . Come è noto h : (0, +∞) → (0, +∞), cosicchè Y = X in questo caso. Inolter h è sempre invertibile e sia h che h−1 sono C 1 su (0, +∞). Quindi le assunzioni necessarie per il cambio di variabile sono soddisfatte. Calcoliamo l’ODE per y. Abbiamo y 0 (t) = βk (t)β−1 k 0 (t) = βk (t)β−1 [sk α (t) − δk (t)] = βsk (t)β−1+α − βδk (t)β . Ora possiamo usare il fatto che y (t) = k (t)β per ottenere y 0 (t) = −βδy (t) + βsk (t)β−1+α . Se scegliamo β tale che β − 1 + α = 0 (cioè β = 1 − α) allora otteniamo il CP-ODE problema non lineare omogeneo y 0 (t) = − (1 − α) δy (t) + (1 − α) s; y (0) = k01−α 5.3 ODE non lineari unidimensionali 55 la cui soluzione è (si veda la formula (5.4)) y (t) = e−(1−α)δt k01−α + Z t e−(1−α)δ(t−r) βsdr 0 # " 1 − e−(1−α)δt −(1−α)δt 1−α =e k0 + (1 − α) s (1 − α) δ h i s = e−(1−α)δt k01−α + 1 − e−(1−α)δt δ s s 1−α −(1−α)δt =e k0 − + . δ δ Ne consegue che 1 h 1 s s i 1−α + . k (t) = y (t) 1−α = e−(1−α)δt k01−α − δ δ Esempio 5.3.2 (Un sistema lineare). Si consideri il seguente sistema lineare non omogeneo x0 (t) = Ax (t) + b, ∀t ∈ T n x (t0 ) = x0 ∈ R . Consideriamo il cambio di variabile (C è un’opportuna matrice quadrata invertibile di ordine n e d è un vettore n-dimensionale) y (t) = Cx (t) + d. In questo caso abbiamo y0 (t) = Cx0 (t) = CAx (t) + Cb = CAC−1 (y (t) − d) + Cb = CAC−1 y (t) − CAC−1 d + Cb Questo cambio di variabile può essre utile per sbarazzarsi del termine non omogeneo b. Ciò può essere fatto se e solo se 0 = −CAC−1 d + Cb che è equivalente a richiedere b ∈ ImA. 56 Equazioni Differenziali del Primo Ordine 5.4 Esercizi Se non diversamente specificato all’inizio degli esercizi, X = R e T = R+ saranno rispettivamente lo spazio degli stati e l’insieme dei tempi. Esercizio. 1 Sia T = ]0, +∞[. Si risolva il seguente CP, usando la formula per la soluzione di ODE lineari: x(t) 1 0 x (t) + = 2 T =]0, +∞[. (5.7) t t x(1) = 3 Esercizio. 2 Si risolva il seguente CP, applicando, se possibile, il metodo di separazione delle variabili. 0 0 0 x (t) = tet (x(t) − 3)2 x (t) = t2 x(t) x (t) = 2x(t)(1 − x(t)) c) b) a) x(0) = 2 x(0) = 1. x(0) = 2 Esercizio. 3 Si risolva il seguente CP, usando un opportuno cambio di variabile: 0 x(t) x2 (t) x (t) + = ln t T =]0, +∞[. (5.8) t t x(1) = 1 Esercizio. 4 Si risolva il seguente CP, usando un opportuno cambio di variabile: 0 x (t) = (t − 1)x2 (t) + (1 − 2t)x(t) + t T =]0, +∞[. (5.9) x(0) = 2 (Un’equazione della forma x0 (t) = a(t)x(t)2 + b(t)x(t) + c(t), con a, b, c funzioni continue su un intervallo I, come (5.9), si dice una equazione di Riccati). 5.5 Soluzioni Esercizio. 1 Applichiamo la formula per ODE lineari, cioè per equazioni del tipo x0 (t) = a(t)x(t) + b(t): Z t Z s 1 1 Z t − ds dr 1 s r 1 1 x(t) = e 3+ · e ds 2 1 s Z t 1 ln s − ln t · e ds =e 3+ 2 1 s Z t 1 1 1 = 3+ ds = {3 + ln t} . t t 1 s 5.5 Soluzioni Quindi x(t) = 57 1 t (3 + ln t) è la soluzione del CP (5.7). Esercizio. 2 a) x0 (t) = 2x(t)(1 − x(t)) x(0) = 2 La dinamica f del sistema è la seguente: f : R+ ×R −→ R (t, x) 7→ f (t, x) = 2x(1 − x). Innanzitutto notiamo che l’esistenza e l’unicità di una soluzione locale è garantita per ogni dato iniziale (t0 , x0 ) ∈ R+ × R. Inoltre abbiamo separazione delle variabile con f1 (t) = 2, f2 (x) = x(1 − x). Dobbiamo ora dividere per f2 (x), quindi vediamo quando questo è effettivamente possibile. Abbiamo f (x) = 0 ⇐⇒ x(1 − x) = 0 ⇐⇒ x = 0, x = 1. Ciò sugnifica che x = 0 e x = 1 sono punti di equilibrio e che x(t; 0, 0) = 0 e x(t; 0, 1) = 1 per ogni t ∈ R+ . Grazie all’unicità locale, ogni soluzione uscente da x0 6= 0, 1 non oltreopassa mai x(t; 0) = 0 e x(t; 1) = 1. In particolare ciò significa che per x0 6= 0, 1, risulta f (x(t; x0 )) 6= 0, per ogni t ∈ R+ . Quindi, quando x0 6= 0, 1, possiamo dividere per f2 (x); integrando e cambiando variabile otteniamo Z x(t) Z t 1 dx = 2ds. (5.10) x(1 − x) x0 0 L’integrale nel membro destro di (5.10) è Z t 2ds = 2t. 0 Calcoliamo l’integrale a sinistrausndo il metodo di integrazione di funzioni razionali. Dobbiamo cercare due costanti A e B tali che 1 A B A(1 − x) + Bx (B − A)x + A = + = = . x(1 − x) x 1−x x(1 − x) x(1 − x) Confrontando i numeratori otteniamo B−A=0 1 = (B − A)x + A =⇒ A=1 =⇒ A = 1, B = 1. Quindi possiamo riscrivere l’integrale a sinistra in (5.10) e calcolare Z x(t) Z x(t) Z x(t) 1 1 1 dx = dx + dx x(1 − x) x 1−x 2 2 2 x(t) = [ln |x|]2 x(t) − [ln |1 − x|]2 = ln |x(t)| − ln 2 − ln |1 − x(t)|. 58 Equazioni Differenziali del Primo Ordine Inserendo il risultato in (5.10), abbiamo ln |x(t)| − ln 2 − ln |1 − x(t)| = 2t x(t) = 2t + ln 2 ln 1 − x(t) x(t) 2t+ln 2 . 1 − x(t) = e x(t) • Se 1−x(t) = x(t) 1−x(t) , 1 −2t 1+ e 2 otteniamo x(t) = iniziale, poichè x(0) = 23 . x(t) x(t) , otteniamo x(t) = • Se 1−x(t) = − 1−x(t) iniziale, quindi è soluzione del CP. b) che non soddisfa la condizione 1 1−2e−2t che soddisfa la condizione x0 (t) = t2 x(t) x(0) = 1. (5.11) La dinamica f del sistema è la seguente: f : R+ ×R −→ R (t, x) 7→ f (t, x) = t2 x. Innanzitutto notiamo che l’esistenza e l’unicità di una soluzione locale è garantita per ogni dato iniziale (t0 , x0 ) ∈ R+ × R. Inoltre abbiamo separazione delle variabili con f1 (t) = t2 , f2 (x) = x. Poichè f2 (x) = x = 0 ⇐⇒ x = 0, assumiamo che x 6= 0 e dividiamo per x: x(t) Z 1 1 dx = x t Z s2 ds. 0 Ripetendo quanto fatto in a), otteniamo che la soluzione del CP (5.11) è data da t3 x(t) = e 3 . Osservazione 5.5.1. Notiamo che potremmo calcolare la soluzione di (5.11) applicando direttamente la formula per le equazioni lineari, che è molto semplice in questo caso poichè b(t) = 0. Infatti Rt x(t) = e c) 0 s2 ds t3 =e3. x0 (t) = tet (x(t) − 3)2 x(0) = 2 5.5 Soluzioni 59 La dinamica f del sistema è la seguente: f : R+ ×R −→ R (t, x) 7→ f (t, x) = tet (x − 3)2 . Si noti che l’esistenza e l’nicità di una soluzione locale è garantita per ogni dato iniziale (t0 , x0 ) ∈ R+ × R. Inoltre abbiamo separazione delle variabili con f1 (t) = tet , f2 (x) = (x − 3)2 . Poichè f2 (x) = (x − 3)2 = 0 ⇐⇒ x = 3, supponiamox 6= 3, dividiamo per x ed usiamo la formula di integrazione per parti per risolvere il secondo integrale: Z t 1 dx = ses ds 2 (x − 3) 0 2 x(t) Z t 1 − = [ses ]t0 − es ds x−3 2 0 1 t t − − 1 = te − e + 1 x(t) − 3 1 = et − tet − 2 x(t) − 3 1 . x(t) = 3 + t e (1 − t) − 2 x(t) Z Esercizio. 3 L’ODE x2 (t) x(t) = ln t (5.12) t t è un’equazione di tipo Bernoulli con α = 2. Allora poniamo x 6= 0 e dividiamo per x2 , ottenendo x0 (t) 1 1 ln t =− + . x2 (t) t x(t) t x0 (t) + Posto z(t) = si ha z 0 (t) = − 1 , x(t) 1 · x0 (t). x2 (t) Inseriamo (5.12) in (5.13) 1 ln t 2 1 z (t) = − 2 − x(t) + x (t) x (t) t t 1 1 ln t 1 ln t = − = z(t) − . t x(t) t t t 0 (5.13) 60 Equazioni Differenziali del Primo Ordine Abbiamo ottenuto in’equazione differenziale lineare. Quindi possiamo applicare direttamente la formula (5.2) per calcolare la soluzione: Z t ln s − R s 1 dr z(t) = e 1 ds z(1) + − e 1 r s s 1 Z t ln s − ln s ln t − 1+ =e e ds s 1 ) ( t ln t 1 =t 1+ − − t s 1 Rt 1 = ln t + t. Infine la soluzione di (5.8) è data da x(t) = per ogni t ∈ 1 1 = , z(t) ln t + 1 1 , +∞ . e Esercizio. 4 L’ODE x0 (t) = (t − 1)x2 (t) + (1 − 2t)x(t) + t (5.14) è un’equazione di tipo Riccati ed in generale non esiste una formula esplicita per calcolarne una soluzione. Tuttavia, se un integrale particolare x̄ = x̄(t) è noto, allora il cambio di variabile 1 x(t) = x̄(t) + z(t) trasforma l’equazione (5.14) in un’equazione lineare, dove z è la nuova variabile. Notiamo che l’equazione (5.14) ammette la soluzione costante x̄ = 1, come si può facilmenet verificare sostituendo nell’equazione. Applichiamo quindi il cambio di variabile e otteniamo: x0 (t) = − z 0 (t) z 2 (t) che fornisce z 0 (t) 1 2 1 − 2 = −2(t + 1) −1 + − 2(2t + 3) −1 + − 2t − 4. z (t) z(t) z(t) Semplificando z 0 (t) = 2z(t) + 2t + 2 5.6 Stabilità dei punti di equilibrio nel caso non lineare 61 da cui z(t) = e2t 1 + 2 Z t (2s + 2)e−2s ds 0 3 = 2e2t − t − . 2 Quindi la soluzione del CP (5.9) è data da: 3 x(t) = −1 + 2e − t − 2 5.6 5.6.1 2t −1 . Stabilità dei punti di equilibrio nel caso non lineare Stabilità attraverso linearizzazione Analogamente al caso a tempi discreti, introduciamo la procedura di linearizzazione a tempi continui per studiare le proprietà di stabilità locale dei punti di equilibrio per ODE non lineari. Data l’ODE autonoma x0 (t) = f (x (t)) (5.15) ed il suo punto di equilibrio x̄, allora la linearizzazione di tale ODE vicino a x̄ è rappresentata dall’ODE lineare y 0 (t) = f 0 (x̄) (y (t) − x̄) (5.16) dove abbiamo sostituito la funzione f che compariva nel membro destro con la linearizzazione vicino a x̄. Ciò deriva dallo sviluppo di Taylor di f arrestato al primo ordine, cioè f (z) = f (x̄) + f 0 (x̄) (z − x̄) + o (|z − x̄|) = f 0 (x̄) (z − x̄) + o (|z − x̄|) dove nell’ultima uguaglianza abbiamo usato il fatto che f (x̄) = 0 poichè x̄ è un punto di equilibrio. Il termine f 0 (x̄) (z − x̄) è detto linearizzazione di f vicino a x̄. Il Teorema di Hartmann-Grossmann stabilisce che la stabilità locale di x̄ nel sistema non lineare coincide con quella di x̄nel sistema linearizzato se f 0 (x̄) 6= 0. Abbiamo infatti il seguente risultato. Teorema 5.6.1. Si consideri l’ODE nonlineare autonoma (5.15) in dimensione 1 e si assuma che f ∈ C 1 (X; R). Sia x̄ ∈ IntX un punto di equilibrio tale che f 0 (x̄) 6= 0. Allora x̄ è stabile se e solo se f 0 (x̄) < 0. IIn tal caso è anche (AS). Osservazione 5.6.2. Se f 0 (x̄) = 0, allora non possiamo dire nulla a priori. Infatti il comportamento del punto di equilibrio dipenderà dalla specifica struttura del problema. Ad esempio si può pensare ai seguenti tre casi dell’ODE ODE (5.16), con x̄ = 0: f (x) = x2 , f (x) = x3 , f (x) = −x3 . 62 Equazioni Differenziali del Primo Ordine In tali casi possiamo calcolare le soluzioni attraverso il metdo di separazione delle variabili (si vedano l’esempio 5.3.1 e l’esercizio ??). Nel primo caso la soluzione del CP-ODE associato con condizione iniziale x (t0 ) = x0 è (si veda l’esempio 5.3.1) 1 −1 x (t) = (t0 − t) + x0 ed il punto di equilibrio x̄ = 0 è instabile da destra e (AS) da sinistra, poichè per x0 < 0 le traiettorie sono crescenti e convergono a 0 quando t → +∞ (si usi la Proposizione 3.2.9). Nel secondo caso la soluzione è (si veda l’ultima parte dell’Esempio 5.3.1 per n = 3) 1 1 −2 x (t) = 2 (t0 − t) + 2 . x0 ed il punto di equilibrio x̄ = 0 è instabile da sinistra e da destra. Ogni soluzione uscente da x0 6= 0 esplode in tempo finito. Nel terzo caso la soluzione è (si veda l’esercizio 5.3.1 per α = 3) 1 x (t) = 2 (t − t0 ) + 2 x0 − 1 2 . ed il punto di equilibrio x̄ = 0 è stabile e (AS) e (GAS) da sinistra poichè per x0 6= 0 le traiettorie sono crescenti e convergono a 0 quando t → +∞ (si usi la Proposizione 3.2.9). 5.7 Studio qualitativo dei problemi di Cauchy Qui forniamo alcune idee per effettuare uno studio qualitativo delle curve integrali di un’ODE nel caso n = 1. Innanzitutto chiariamo cosa intendiamo per studio qualitativo (QS d’ora in poi). Gli scopi principali di in QS saranno per noi stabilire: • eesistenza e unicità (locale e globale); • monotonia delle traiettorie; • proprietà di stabilità dei punti di equilibrio ((S), (AS), (BA), (GAS)), se esistono. Per ottenere tale scopo, indichiamo un percorso standard da seguire che funziona in molti casi semplici, particolarmente nei casi autonomi. 1. Controllare se esistenza ed unicità valgono in ogni possibile coppia di tempo e stato iniziale: solitamente si usa il Corollario 2.4.17. Laddove esso non si applica, si può tentare di applicare il Teorema 2.4.9 o il Corollario 2.4.11. 2. Controllare se esistono punti di equilibrio: è sufficiente trovare x ∈ X tale che f (t, x) = 0 per ogni t ∈ T. Nel caso autonomo questo si riduce a cercare le soluzioni dell’equazione f (x) = 0. 5.7 Studio qualitativo dei problemi di Cauchy 3. Controllare la monotonia (e la convessità/concavità) delle soluzioni. La monotonia si trova guardando il segno della dinamica f che è facile nel caso autonomo) e poi usando il fatto che x0 (t) = f (t, x (t)) ed i risultati dei precedenti punti 1, 2 e l’Osservazione 2.4.18. La convessità/concavità può essre studiata con argomenti simili derivando l’ODE. Noi non lo faremo solitamente: si veda l’esempio ?? per un caso di studio di tali proprietà. 4. Controllare se l’esistenza globale vale e dove. Si possono applicare i Teoremi 2.4.20 e 2.4.21 (che solitamente necessitano dei precedenti punti 1,2,3 e dell’Osservazione 2.4.18 per essere applicati). 5. Controllare, se possibile, quali sono i limiti all’infinito della soluzione e, se esistono punti di equilibrio, la loro stabilità Questo si può fare tentando di calcolare i limiti delle traiettorie all’infinito. Ciò è abbastanza semplice nel caso autonomo usando un argomento per assurdo che noi illustraremo nel prossimo esempio. Analizziamo ora un esempio seguendo il percorso descritto. Esempio 5.7.1 (L’equazione logistica nel caso a tempi continui). Il problema di Cauchy è autonomo ed è, nel caso in cui il tempo iniziale sia 0, x0 (t) = ax (t) (M − x (t)) ; x (0) = x0 . Analizziamolo seguendo i cinque punti descritti sopra. Innanzitutto prendiamo T = R+ e X = R. 1. Esistenza ed unicità locale. Queste valgono per ogni tempo e stato iniziale (t0 , x0 ) ∈ R+ ×R. IInfatti applicando il Corollario 2.4.17 abbiamo f (t, x) = f (x) = ax (M − x) e f è continua in R con le sue derivate f 0 (x) = aM − 2ax. 2. Punti di equilibrio. Ponendo f (x) = 0 otteniamo due soluzioni, x = 0 and x = M . Questi sono i punti di equilibrio. 3. Monotonia. Studiando il segno di f possiamo vedere che f (x) > 0 ⇐⇒ x ∈ (0, M ) f (x) < 0 ⇐⇒ x ∈ (−∞, 0) ∪ (M, +∞) . Nel caso f (x) = 3x (5 − x) abbiamo il seguente grafico di f . Quindi, se la soluzione che uscente da x0 al tempo 0 (i.e. x (t; 0, x0 ) che scriviamo x (t; x0 ) d’ora in poi) appartiene a (0, M ), essa è strettamente crescente al tempo t. Se al contrarion appartiene a (−∞, 0) ∪ (M, +∞), allora essa è strettamente decrescente al tempo t. Grazie all’unicità locale (punto 1) e 63 64 Equazioni Differenziali del Primo Ordine all’Osservazione 2.4.18, le curve integrali non si oltrepassano mai l’un l’altra. In particolare le traiettorie con x0 6= 0, M non oltrepassano mai le linee x (t; 0) ≡ 0 e x (t; M ) ≡ M . Questo significa che queste soluzioni di equilibrio dividono X = R in tre regioni. Se x0 è in una di queste regioni, anche x (t; x0 ) appartiene alla stessa regione per ogni t tale che x (t; x0 ) è definito, cioè nell’intervallo massimale di definizione della soluzione (Definizione 2.4.19: al momento non sappiamo ancora se la soluzione è globale). In particolare questo significa che per ogni x0 ∈ (0, M ) e t nell’intervallo massimale di definizione della soluzione risulta x (t; x0 ) ∈ (0, M ), quindi x0 (t; x0 ) > 0. Questo implica che x (t; x0 ) è strettamente positivo per t nell’intervallo massimale. D’altra parte, ragionando esattamente nello stesso modo, possiamo vedere che, se x0 ∈ (−∞, 0) ∪ (M, +∞), allora x (t; x0 ) è strettamente positivo nell’intervallo massimale. Exercise 5.7.1. Si studi la convessità e la concavità delle soluzioni. 4. Esistenza globale. Non possiamo applicare il Teorema 2.4.20. Tentiamo di applicare il Teorema 2.4.21. Consideriamo le tre regioni separatamente. Partiamo dal caso x0 ∈ (0, M ). Per il precedente punto 3, sappiamo che x (t; x0 ) ∈ (0, M ) per ogni t tale che x (t; x0 ) sia definita. Ma questo significa che x (t; x0 ) è limitata dove è definita. Possiamo quindi applicare il Teorema 2.4.21 ottenendo l’esistenza globale quando x0 ∈ (0, M ). Sia ora x0 > M . In questo caso, grazie all’Osservazione 2.4.18, abbiamo x (t; x0 ) > M sull’intervallo massimale di definizione. Inoltre la soluzione è strettamente decrescente: ciò significa che x (t; x0 ) ≤ x0 sull’intervallo massimale. Abbiamo quindi x (t; x0 ) ∈ (M, x0 ] per ogni t nell’intervallo massimale. Quindi possiamo applicare il Teorema 2.4.21 ed ottenere esistenza globale quando x0 > M . Questo regionamento non funziona per x0 < 0. Quindi al momento se la soluzione è globale in questo caso. Vedremo che non è globale nell’ Esercizio ??. 5. Limiti e stabilità. Analizziamo i limiti all’infinito delle soluzioni quando x0 ≥ 0. Queste sono le condizioni iniziali interessanti per le applicazioni del modello ed in questi casi sappiamo che la soluzione globale esiste ed è unica grazie ai punti 1-4. Se x0 ∈ (0, M ), allora x (t; x0 ) è strettamente crescente e < M per ogni t ≥ 0. Ciò implica che (si ricordi che la monotonia implica l’esistenza di un limite) ∃ lim x (t; x0 ) = L ∈ (x0 , M ] . t→+∞ Vogliamo dimostrare che il limite è esattamente il punto di equilibrio M . Assumiamo per assurdo che il limite sia L < M . In tal caso avremmo, sostituendo nell’ODE ∃ lim x0 (t; x0 ) = lim ax (t; x0 ) (M − x (t; x0 )) = aL (M − L) > 0. t→+∞ t→+∞ Ciò è impossibile perchè abbiamo il seguente risultato. 5.7 Studio qualitativo dei problemi di Cauchy Teorema 5.7.2. Sia I un intervallo di R e sia h : I → R una funzione derivabile. Si assuma che h sia monotona e che, per t1 punto di accumulazione di I (compreso il caso t1 = +∞) lim h (t) = A ∈ R, t→t1 ∃ lim h0 (t) = B. t→t1 Allora deve essere B = 0. Quindi, per il precedente Teorema 5.7.2, per x0 ∈ (0, M ) ∃ lim x (t; x0 ) = M. t→+∞ Allo stesso modo possiamo dimostrare che per x0 > M ∃ lim x (t; x0 ) = M. t→+∞ Questo implica che M iè asintoticamente stabile (ma non globalmente), mentre 0 è instabile. Inoltre B (M ) = (0, +∞). Poichè dal punto di vista delle applicazioni i dati interessanti sono esattamente (0, +∞), possiamo restringere l’analisi a tali dati iniziali (ponendo dall’inizio X = (0, +∞)). In tal modo avremmo che M è l’unico punto di equilibrio e che è (GAS) Si noti che il grafico di f può essere usato per ottenere rapidamente un’idea del comportamento delle soluzioni per differenti dati iniziali. Sarebbe sufficiente disegnare la frecca a destra nella parte dell’asse x dove f è positiva e la freccia sinistra nella parte dove essa è negativa. Tali frecce danno le direzioni in cui la soluzione si muove, cosicchè si può rapidamente vedere che per dati positivi il sistema converge al punto di equilibrio M . Questo è chiamato il diagramma di fase del sistema dinamico rappresentato dalla nostra ODE. 65 66 Equazioni Differenziali del Primo Ordine Bibliografia [1] A. Araujo and J.A. Scheinkman (1983) Maximum Principle and Tranversality Condition for Concave Infinite Horizon Economic Models, Journal of Economic Theory, 30, 1-16. [2] H. Atsumi (1969), The efficient capital programme for a maintainable utility level, Review of Economic Studies, 35, 263-87. [3] M. Bardi and I. Capuzzo Dolcetta (1997), Optimal Control and Viscosity Solutions of Hamilton-Jacobi-Bellman Equations, Birkhauser, Boston. [4] E. Barucci, F. Gozzi and A. Swiech (2000), Incentive Compatibility Constraints and Dynamic Programming in Continuous Time, J. Mathematical Economics, 34(4), 471-508. [5] R.J. Barro and X. Sala-i-Martin (1995), Economic Growth, Mc Graw-Hill, New York. [6] R. Bellman (1957), Dynamic Programming. Princeton University press, Princeton, NJ. [7] L. Benveniste and J.A. Scheinkman (1982), Duality Theory for Dynamic Optimization Models in Economics: The Continuous Time Case. Journal of Economic Theory, 27, 1-19. [8] G.I. Bischi, On discrete time models in population dynamics, draft. [9] H. Brezis (1983), Lécons d’analyse fonctionnelle, Masson, Paris. [10] W.A. Brock, A.G. Malliaris (1989), Differential Equations, Stability and Chaos in Dynamic Economics, (North Holland) (2) [11] P. Cannarsa and H. Frankowska (1992), Value Function and Optimality Conditions for Semilinear Control Problems, Applied Mathematics and Optimization, 26, 139-169. [12] P. Cannarsa, F. Gozzi and C. Pignotti, Regularity for the HJB equation related to endogenous growth models, in preparation. 67 68 BIBLIOGRAFIA [13] E. Castagnoli, L. Peccati (1995), Matematica per l’analisi economica, vol 1 e 2, (ETAS) (1,2); [14] E. Castagnoli, L. Peccati (1996), La matematica in azienda: strumenti e modelli vol 4 (sistemi dinamici con applicazioni), (EGEA) (1); [15] M. Castellani, F. Gozzi (2001), Matematica di base per l’Economia e l’Azienda, Esercizi e testi d’esame svolti, (Esculapio). [16] L. Cesari (1983), Optimization Theory and Applications, Springer– Verlag, New York. [17] F. Clarke (1983), Optimization and Nonsmooth Analysis, John Wiley & sons, New York. [18] M. G. Crandall, H. Ishii and P. L. Lions (1992), User’s guide to viscosity solutions of second order partial differential equations, Bull. A.M.S., 27,1, 1-67. [19] S. Dasgupta and T. Mitra (1988), Intertemporal optimality in a closed linear model of production, Journal of Economic Theory, 45, 288-315. [20] W.H. Fleming and H.M. Soner (1993),Controlled Markov processes and viscosity solutions, Springer-Verlag, Berlin, New-York. [21] G. Gandolfo (1997), Economic Dynamics (Springer) (1,2). [22] F. Gozzi, G. Sargenti and A. Swiech, On the HJB equation for state constraints optimal control problems arising in economics, in preparation. [23] A. Guerraggio, S. Salsa (1997), Metodi matematici per l’economia e le scienze sociali, (Giappichelli), (1,2); [24] R.F. Hartl, S.P. Sethi and R.G. Vickson (1995), A Survey of the Maximum Principles for Optimal Control Problems with State Constraints, SIAM Review, 37, 181-218. [25] M. Hirsch, S. Smale, Linear Algebra and Differential Equations. [26] Ishii H. and Koike S. (1996), A new formulation of state constraint problems for first order pde’s SIAM J. Control Optim., 34, 554-571. [27] M. Kaganovich (1998), Sustained endogenous growth with decreasing returns and Heterogeneous capital, Journal of Economic Dynamics and Control, 22, 1575-1603. [28] H.D. Kurz and N. Salvadori (1995), Theory of Production: A LongPeriod Analysis. Cambridge, New York, Melbourne: Cambridge University Press. [29] L. Leonard, N. Van Long, Optimal control and economic applications. BIBLIOGRAFIA [30] R. E. Lucas (1988), On the mechanics of economic development, Journal of Monetary Economics, 22, 3-42. [31] L. W. McKenzie (1998), Turnpikes, American Economic Review, 88, 2, 1-14. [32] E. Malinvaud (1998), it Capital Accumulation and Efficient Allocation of Resources, Econometrica, 21, 233-68. [33] J. von Neumann (1945), A Model of General Economic Equilibrium, Review of Economic Studies 13, 1-9. [34] L. Neustadt (1976), Optimization, a Theory of Necessary Conditions, Princeton University press, Princeton, NJ. [35] L.C. Piccinini, G Stampacchia, G. Vidossich (1978), Equazioni differenziali ordinarie in Rn (problemi e metodi), (Liguori); [36] L.S. Pontryagin, V.G. Boltyanskii, R.V. Gamkrelidze and E.F. Mischenko (1962), The Mathematical Theory of Optimal Processes, Wiley-Interscience, New York. [37] S. Rebelo (1991), Long Run Policy Analysis and Long Run Growth. Journal of Political Economy 99, 500-521. [38] R.T. Rockafellar (1972), State Constraints in convex control problems of Bolza, SIAM J. Control Optim. 10, 691-715. [39] R.T. Rockafellar (1976), Convex Analysis, Princeton University press, Princeton, NJ. [40] N. Salvadori, A Linear Multisector Model of ”Endogenous” Growth and the Problem of Capital, Metroeconomica, 49, 3, October 1998. [41] A. Seierstad (1986), Nontrivial Multipliers and Necessary Conditions for Optimal Control Problems with Infinite Horizon and Time Path Restrictions, Memorandum from Department of Economics, University of Oslo, 24. [42] A. Seierstad and K. Sydsaeter (1987), Optimal Control Theory with Economic Applications. North Holland, Amsterdam. [43] A. Simon, K. Blume, Mathematics for economists. [44] E. Tessitore (1995), Optimality Conditions for Infinite Horizon Optimal Control Problems, Bollettino UMI, 7, 795-814. [45] A. Takayama (1974), Mathematical Economics. Cambridge University Press, Cambridge, New York, Melbourne. [46] K. Yosida (1980), Functional Analysis, sixth edition Springer-Verlag, Berlin, New-York. [47] J. Zabczyk (1992), Mathematical control theory: an introduction, Birkäuser, Basel. 69