"Il modello di Hodgkin-Huxley", in pdf
Transcript
"Il modello di Hodgkin-Huxley", in pdf
ModA – Modelli Analitici per le Applicazioni 4. Il modello di Hodgkin–Huxley Corrado MASCIA, Eugenio MONTEFUSCO Dipartimento di Matematica “G. Castelnuovo”, Sapienza – Università di Roma May 20, 2011 La membrana cellulare. La membrana cellulare svolge moltissime funzioni, tra di esse c’è quella di separare cariche elettriche, mantenendo delle differenti concentrazioni di ioni tra l’interno e l’esterno della cellula. In prima approssimazione è ragionevole convincersi del fatto che la membrana può essere pensata come un condensatore, inoltre l’equilibrio presente è di tipo dinamico, visto che gli ioni tenderanno a muoversi in risposta al campo elettrico che la diversa concentrazione di cariche produce. Una semplice equazione che riassume le precedenti affermazioni è C V 0 (t) + Iion (V (t), t) = 0, dove il secondo membro esprime l’equilibrio dinamico tra le correnti capacitive della membrana (C è la capacità della membrana cellulare, che si suppone costante) e le correnti ioniche attraverso la membrana sono rappresentate da Iion . In questo modello la funzione V = Vi − Ve esprime la differenza di potenziale elettrico tra l’interno e l’esterno della cellula, e si chiama potenziale di membrana. Determinare l’espressione del termine Iion è generalmente un grosso problema, la cui soluzione dipende dal tipo di cellula che si considera. Osserviamo che la regolazione del potenziale di membrana è una delle più importanti funzioni della cellula, soprattutto perché, alcune classi di cellule (in particolare le cellule del sistema nervoso e dei muscoli) usano tale potenziale per la trasmissione di segnali. Generalmente le cellule che trasmettono segnali elettrici vengono chiamate eccitabili, nel seguito ci concentreremo su di una particolare classe di cellule: quelle del sistema nervoso. 1. Il modello di Hodgkin–Huxley La nostra storia comincia nell’anno accademico 1937/38, quando Alan Lloyd Hodgkin, possessore di una borsa post-doc, cominciò a lavorare sulla trasmissione dei segnali nervosi con un gruppo di fisiologi della Columbia University. In questo periodo gli studi mostrarono che il potenziale di membrana svolge un ruolo fondamentale perché il segnale che si trasmette nelle fibre nervose è, sostanzialmente, una 2 variazione di potenziale. Inoltre i due ricercatori focalizzarono i loro studi sulle fibre del sistema nervoso del calamaro, il quale possiede delle strutture estremamente semplici (un solo neurone, per esempio!) e di grandi dimensioni, cioè più comode da gestire. Questi studi furono interrotti dallo scadere della borsa e dalla seconda guerra mondiale e ripresero solo nel 1948. Dopo l’interruzione Hodgkin, insieme a Andrew Fielding Huxley (e altri collaboratori minori) ripresero gli esperimenti sull’assone gigante del calamaro, mettendo a punto una tecnica che permetteva di stimolare e misurare il potenziale di membrana dell’assone con degli elettrodi inseriti sulla cellula (tenuta ad una temperatura di circa 6 o C). Senza inoltrarsi nella descrizione del lavoro fatto dai due scienziati (che li portò ad una serie di articoli celeberrimi, pubblicati nel 1952, e ad un premio Nobel per la medicina nel 1963). Per brevità, riassumiamo gli aspetti salienti delle loro ricerche per giungere alla formulazione di un modello, e per capire cosa si debba attendere da un modello corretto. Una discussione più ampia e dettagliata può essere trovata in [6]. Cominciamo elencando un paio di osservazioni sperimentali, di cui dovremo tener conto per testare la bontà del modello. – Se si stimola l’assone in maniera molto debole (tramite l’elettrodo) si nota un temporaneo cambiamento del potenziale di membrana. Tale risposta è proporzionale all’intensità dello stimolo e si estingue in tempi dell’ordine di 1 ms, quindi in tempi rapidi il sistema torna al suo stato di quiete iniziale. Inoltre il mutamento avviene solo nei pressi del luogo di origine dello stimolo, questa situazione viene definita risposta passiva e locale ed equivale ad ignorare lo stimolo, perché il sistema (in qualche modo) lo considera non importante. – Qualora l’intensità dello stimolo oltrepassa una valore–soglia il potenziale di (a) Risposta passiva (b) Potenziale d’azione membrana cresce giungendo ad uno stato eccitato, sostanzialmente indipendente 3 dall’intensità dello stimolo. Il valore nello stato eccitato differisce notevolmente dallo stato di quiete dell’assone e tale stato si osserva solo nelle cellule del sistema nervoso o muscolare che per questo vengono dette eccitabili. La curva che descrive il potenziale di membrana in questo caso viene detta potenziale d’azione . – Dopo la creazione del potenziale di azione si osserva un periodo refrattario, in cui vengono ignorati più stimoli, in quanto il valore–soglia di azione si innalza. Inoltre il potenziale ritorna allo stato di quiete rapidamente. – Se lo stimolo è molto grande e ha una durata lunga si generano un treno di potenziali d’azione, dando luogo ad una soluzione periodica (almeno finché dura lo stimolo). Figura 1. Variazione del potenziale se una corrente esterna è presente solo nell’intervallo temporale [0, 50]. Per spiegare queste osservazioni Hodgkin e Huxley studiarono in maggior dettaglio le correnti ioniche al fine di trovare un’espressione per il termine Iion . I nostri eroi osservarono che gli ioni che svolgono un ruolo fondamentale sono il sodio N a+ e il potassio K + , mentre le restanti cariche sono (di fatto) trascurabili. Questo conduce alla seguente equazione Iion = gN a (V − VN a ) + gK (V − VK ) + gL (V − VL ) − Iapp , dove Iapp è la corrente applicata tramite l’elettrodo, mentre gli altri termini sono le conduttanze delle varie correnti ioniche applicate alla differenza di potenziale tra il potenziale di membrana e il potenziale a riposo della rispettiva corrente. Si noti che le grandezze con pedice L si riferiscono all’effetto cumulativo di tutti gli altri ioni che producono correnti attraverso la membrana: le correnti di dispersione (”LEAKAGE” in Inglese). 4 È evidente che una tale equazione differenziale lineare non omogenea del primo ordine non può riprodurre i fatti sperimentali cui abbiamo accennato, ma solo un ritorno allo stato di riposo analogo a quello delle cellule non eccitabili. Hodgkin e Huxley fecero vari esperimenti isolando l’effetto dei singoli ioni, il che li portò a capire che le conduttanze gi non potevano essere delle costanti, ma anzi erano delle funzioni di altre variabili e del potenziale di membrana stesso. Fittando accuratamente i dati sperimentali e ponendo v = V − Veq , dove Veq = gN a Vna + gK VK + gL VL , gN a + gK + gL riuscirono a determinare le seguenti espressioni per le variabili gK , gN a e gL gK (t) = g K n4 (t), gN a (t) = g N a m3 (t)h(t), gL (t) = g L ∈ R, dove le variabili n, m, h verificano equazioni della forma (1.1) n0 = n∞ (v) − n , τn (v) m0 = m∞ (v) − m , τm (v) h0 = h∞ (v) − h . τh (v) Di fatto le costanti g K e g N a rappresentano la conduttanza massima, cioè quella corrispondente alla situazione in cui sono tutti aperti i canali di passaggio a disposizione degli ioni, rispettivamente di potassio e sodio. Le funzioni n(t), m(t) e h(t) per cui vengono moltiplicate tali costanti, rappresentano frazioni di canali aperti al variare del tempo. Hogkin e Huxley sono riusciti a misurare separatamente le frazioni n∞ (v), m∞ (v) e h∞ (v) (cfr. Fig. 2) di canali aperti di ciascun tipo di ioni per diversi valori del potenziale v (utilizzando delle sostanze che inibivano il passaggio degli ioni dell’alto tipo e supponendo, ipotesi che si è poi rivelata verosimile, che le aperture di tali canali fossero indipendenti) ed anche i tempi medi di reazione τn (v), τm (v) e τh (v) (cfr. Fig. 2) con i quali varia la frazione di canali aperti, al variare del potenziale. Quindi hanno fatto dipendere le conduttanze dalle frazioni n(t), m(t) e h(t) che a loro volta soddisfano le equazioni (1.1). La presenza della potenza quarta nell’espressione di gK e di due diverse funzioni con diverso esponente nel caso di gN a sono state il frutto di un lavoro particolarmente efficace: nel caso del potassio, una funzione del tipo gK = g K n(t) non risultava in accordo con gli esperimenti e la minima potenza per avere tale accordo era la quarta, quindi Hogkin e Huxley hanno posto gK = g K n4 (t). Nel caso del sodio c’era un doppio fenomeno: al crescere di v c’era un iniziale aumento veloce dei canali aperti, dato dal termine m3 (t), dove m(t) verifica una equazione in cui m∞ (v) è una funzione crescente, poi inizia un processo lento di chiusura dei canali al crescere di v dato dal termine di inibizione, con reazione piu’ 5 (a) m∞ , n∞ , h∞ (b) τm , τn , τh Figura 2. Le funzioni determinate sperimentalmente. lenta, h(t) che verifica una equazione in cui h∞ (v) è una funzione decrescente. La scelta della potenza 4 per n(t), 3 per m(t) e 1 per h, inizialmente dettata solo dalla richiesta che il sistema rappresentasse i fenomeni osservati, ha poi avuto una interessante interpretazione biologica. Infatti la potenza quarta sta ad indicare che i canali di passaggio del potassio hanno di fatto quattro ”cancelli” o sezioni, per cui se n(t) rappresenta la probabilità che uno di questi sia aperto, la potenza quarta rappresenta la probabilità che siano tutti aperti e quindi che gli ioni possano passare. Per il sodio, dei quattro presunti cancelli, tre sono di un tipo che, rapidamente (τm (v) è dell’ordine del millisecondo) aumenta all’aumentare di v e la probabilità che ciascuno sia aperto è data da m(t), per l’altro lentamente (τh (v) è dell’ordine di 8.5 millisecondi per v vicino a 0) diminuisce la probabilità che esso sia aperto. Rinviamo a [6] per una trattazione piú estesa e per un’ampia bibliografia. Qui procediamo con l’analisi del sistema di equazioni differenziali per il potenziale di membrana dell’assone gigante del calamaro, riscrivendolo nella forma seguente C v 0 = − g N a m3 h (v − vN a ) − g K n4 (v − vK ) − g L (v − vL ) + Iapp m0 =αm (1 − m) − βm m , (1.2) 0 n =α (1 − n) − β n n n h0 =αh (1 − h) − βh h con le seguenti espressioni per i parametri coinvolti nel sistema αm (v) = 0.1 25 − v , exp((25 − v)/10) − 1 βm (v) = 4 exp(−v/18), 6 m0 = 0 ve v0 = 0 vi vq Ms Figura 3. Il piano delle fasi del sistema (1.3). αn (v) = 0.01 10 − v , exp(1 − v/10) − 1 αh (v) = 0.07 exp(−v/20), βn (v) = 0.125 exp(−v/80), βh (v) = con g N a = 120 mS/cm2 , g K = 36 mS/cm2 e g L 1 . exp(3 − v/10) + 1 = 0.3 mS/cm2 (mS è il milli– Siemens), vN a = 115 mV , vK = −12 mV e vL = 10.6 mV . Posto successivamente w uguale a m, n e h, sono ovvie le relazioni tra αw , βw e le quantità w∞ , τw che compaiono nelle equazioni equivalenti (1.1). Le simulazioni numeriche mostrano che il sistema (1.2) riproduce le osservazioni sperimentali con un ottimo accordo. L’analisi esatta del sistema è molto impegnativa, quindi cercheremo di analizzarlo con delle riduzioni a sistemi di due equazioni differenziali. La prima osservazione in quest’ottica è che le variabili n ed h hanno “tempi di reazione” lunghi (rispetto a v e m), quindi possiamo semplificare il sistema supponendo che le variabili n ed h non varino nel tempo. Tale scelta si traduce nel sostituire alle equazioni differenziali per tali variabili, le relazioni algebriche n(t) = n0 e h(t) = h0 . In questo modo, il sistema (1.2) si trasforma nel sistema planare ( C v 0 = − g N a m3 h0 (v − vN a ) − g K n40 (v − vK ) − g L (v − vL ) + Iapp (1.3) . m0 =αm (1 − m) − βm m Le nullocline del sistema sono date dalle curve g m3 h0 vN a + g K n40 vK + g L vL αm (v) , v = Na . m = m∞ (v) := αm (v) + βm (v) g N a m3 h0 + g K n40 + g L L’andamento approssimativo di tali curve è il seguente. Ci sono tre punti d’equilibrio, di cui due stabili, vq e ve , ed uno instabile vi . Nella Figura 3 è raffigurata anche la varietà stabile Ms (vedere Teorema 3.5) che essendo costituita da orbite, 7 per l’unicità non puó essere attraversata dalle altre soluzioni e quindi rappresenta lo spartiacque tra il bacino di attrazione di vq e quello di ve . Se il dato iniziale del problema di Cauchy relativo a (1.3) con Iapp = 0, si trova all’interno del bacino di vq la soluzione converge a questo stato che è lo stato di quiete del sistema, mentre per dati iniziali più grandi la dinamica converge a ve che rappresenta lo stato eccitato del sistema: questa semplice descrizione spiega alcune (le prime) osservazioni sperimentali, cioè la creazione del potenziale di azione e l’effetto soglia relativo allo stimolo iniziale. Bisogna però osservare che tale analisi non può essere continuata per tempi lunghi, perché non è più ragionevole supporre che le variabili lente non evolvano. Per descrivere gli altri effetti osservati abbiamo bisogno di un’approssimazione del sistema (1.2) diversa. A tale scopo, cominciamo osservando due fatti sperimentali cruciali: – m è una variabile veloce, per cui è possibile sostituire l’equazione per m con la relazione di equilibrio m = m∞ (v) . Stiamo quindi utilizzando una approssimazione con lo stato quasi–stazionario (una QSSA); – durante l’evoluzione del potenziale d’azione si osserva che (h + n) ' κ con κ costante (pari a circa 0.8). Queste due osservazioni, suggerirono a R.FitzHugh di estrapolare da (1.2) il sistema semplificato ( C v 0 = −g K n4 (v − vK ) − g N a m3∞ (v)(κ − n)(v − vN a ) − g L (v − vL ) + Iapp (1.4) , n0 = αn (1 − n) − βn n dove κ := 0.8. La nulloclina v 0 = 0 ha l’andamento qualitativo di una cubica, mentre la nulloclina n0 = 0 descrive il grafico di una funzione strettamente crescente. In particolare, le due curve hanno una sola intersezione nel piano delle fasi veloce–lenta, quindi esiste un solo stato stazionario di (1.4). Poiché la componente verticale del campo è trascurabile rispetto a quella orizzontale, le linee di flusso sono praticamente orizzontali (vedi Figura 4), eccetto quando la componente orizzontale è quasi nulla, cioé quando il moto si svolge sulla nulloclina v 0 = 0, detta varietà lenta. Analizziamo il moto di una soluzione di (1.4), e supponiamo che i dati iniziali (cioè uno stimolo esterno) allontanino il sistema dal suo stato di quiete (rappresentato dall’unica soluzione stazionaria). Se lo stimolo è piccolo, il che significa che il dato iniziale si trova a sinistra del ramo ascendente della nulloclina ‘cubica”, la traiettoria si muove orizzontalmente riportando la traiettoria sulla curva v 0 = 0, sulla quale 8 Figura 4. La dinamica del sistema (1.4). raggiunge il punto d’equilibrio (si può vedere facilmente che la soluzione stazionaria è stabile). Se i dati iniziali fanno partire il flusso dalla parte del piano delle fasi che si trova a destra del tratto crescente di v 0 = 0, si osserva che la traiettoria parte più o meno orizzontalmente dirigendosi verso il tratto decrescente di v 0 = 0 che si trova più a destra e che rappresenta lo stato eccitato (in dipendenza anche delle variabili lente). Quando la traiettoria si avvicina alla nulloclina v 0 = 0, rimane vicino ad essa risalendola fino al punto di massimo locale. Qui n continua a crescere lentamente allontanando v dalla sua nulloclina. Allora nuovamente la soluzione si muove orizzontalmente, questa volta verso sinistra, fino a ritornare sul tratto decrescente di sinistra della nulloclina v 0 = 0 e, lungo questa, allo stato di quiete (vedere la linea continua della Figura 4). Questa analisi descrittiva mostra che la dinamica di (1.4) nel piano delle fasi veloce–lenta possiede un effetto soglia (rappresentato dal tratto crescente di v 0 = 0). I tre stati stazionari vq , vi e ve trovati nel piano delle fasi veloci si ritrovano anche qui (i secondi due “spalmati” su pezzi di curve) legati alla dinamica delle variabili lente (che il sistema (1.3) ignora, di fatto). In questo modo abbiamo riconosciuto che (1.4) descrive le osservazioni fatte da Hodgkin e Huxley in modo migliore della precedente approssimazione. In letteratura usualmente si dice che v è la variablie di eccitazione e n la variabile di richiamo allo stato di quiete. 2. Il sistema di FitzHugh–Nagumo Una semplificazione di (1.4) si ottiene sostituendo alla nulloclina n0 = 0, la retta u = aw, con a > 0, e considerando la varietà veloce descritta dalla curva w = f (u) + I, con f (u) = u(u − α)(1 − u) e 0 < α < 1. Il sistema semplificato che si 9 ottiene ha la forma ( (2.1) εu0 = f (u) − w + I w0 = u − aw ed è noto come sistema di FitzHugh–Nagumo, per ricordare l’ingegnere giapponese Nagumo, che realizzò nel 1964 un circuito elettrico la cui dinamica è descritta dal sistema (2.1). L’analisi del sistema si divide in tre casi: I ≡ 0, I = I0 > 0 e I = I(t). Quando I ≡ 0 l’analisi qualitativa è analoga allo studio fatto a proposito del sistema (1.4) e si può riassumere nel seguente disegno (tenendo presente che nel nostro caso u0 = w0 = 0, u1 = α e u2 = 1) in cui sono disegnate due traiettorie relative alle soluzioni di due problemi di Cauchy di (2.1) con dati iniziali tipo (u, 0). Figura 5. La dinamica del sistema di FitzHugh–Nagumo (2.1) nel caso I ≡ 0. Il caso I(t) = I0 > 0 è strettamente legato ai discorsi fatti precedentente. Infatti non c’è nulla di diverso da prima se I è sufficientemente piccolo, invece se I è tale che il punto d’equilibrio si trova sulla parte ascendente della cubica le cose possono cambiare un po’. In questo caso se la soluzione stazionaria non è più stabile, la dinamica non può convergere allo stato di quiete e produce una soluzione periodica (Figura 6). In particolare si dimostra il seguente risultato. Teorema 2.1. Sia 1 > f 0 (u) ∀u ∈ R, a e, detto u∗ il punto di flesso della cubica f , per u = u∗ si abbia (2.2) (2.3) f 0 (u) > aε . 10 Figura 6. La dinamica del sistema di FitzHugh–Nagumo (2.1) nel caso I(t) = I0 > 0. Allora il sistema (2.1) ha uno ed un solo punto di equilibrio ue ed esiste un intervallo (I1 , I2 ) in cui l’equilibrio è instabile, mentre se I ∈ R\[I1 , I2 ], l’equilibrio è localmente asintoticamente stabile. Inoltre, se I ∈ (I1 , I2 ), il sistema (2.1) possiede almeno una soluzione periodica e per ogni dato iniziale p 6= ue l’insieme ω–limite è una soluzione periodica. Osservazione 2.2. Utilizzando le notazioni del teorema, osserviamo che nell’intervallo (I1 , I2 ) la soluzione stazionaria si trova sul tratto crescente della cubica. Inoltre il risultato ottenuto puó implicare che il sistema abbia un’orbita globalmente attrattiva (l’unica soluzione ”non attratta” dall’orbita è quella di equilibrio), oppure che abbia piú orbite periodiche, di cui almeno una attrattiva dall’esterno (contenente al suo interno le altre e alla quale tendono le soluzioni con dato iniziale esterno alla regione da essa racchiusa) e una almeno attrattiva dall’interno (a cui tendono le soluzioni con dato iniziale p 6= ue contenuto nella regione da essa racchiusa). Altre informazioni sulle proprietà delle soluzioni periodiche del sistema di FitzHugh–Nagumo (2.1) sono ottenute alla fine di questo capitolo applicando al sistema il Teorema di Biforcazione di Andronov – Hopf 3.8. Dimostrazione. Otteniamo il risultato del teorema mostrando quanto segue a) esiste un intervallo (I1 , I2 ) tale che per I ∈ (I1 , I2 ) l’unico punto di equilibrio del sistema è instabile e entrambi gli autovalori del linearizzato in quel punto hanno parte reale strettamente positiva; b) per ogni punto del piano esiste un rettangolo chiuso, limitato e positivamente invariante che lo contiene. 11 Infatti, per I ∈ (I1 , I2 ) come nel punto a), preso un punto distinto dall’equilibrio, esso è contenuto in un rettangolo chiuso, limitato e positivamente invariante, quindi possiamo applicare il Teorema di Poincaré –Bendixson 3.7 ed otteniamo che l’insieme ω–limite deve essere un’orbita periodica. Infatti l’insieme ω–limite non può contenere l’unico equilibrio del sistema, perché esso è totalmente instabile (entrambi gli autovalori hanno parte reale positiva, quindi non esistono orbite che si avvicinano a quell’equilibrio neanche per una successione di tempi tn → +∞, per n → ∞). Restano dunque da dimostrare le affermazioni a) e b). Per dimostrare a), si osservi che la condizione (2.2) assicura che per ogni valore della corrente esterna costante I, il sistema ha un unico (verificarlo) equilibrio ue = ue (I) e in tale punto la matrice Jacobiana J(ue ) = 1 ε f 0 (ue ) − 1ε 1 −a ha determinante det J(ue ) pari a 1ε (1 − af 0 (ue )) e, di conseguenza, positivo. Quindi l’instabilità segue se si dimostra che esiste un intervallo (I1 , I2 ) tale che per I ∈ (I1 , I2 ) si ha Tr J(ue ) > 0. Essendo Tr J(ue ) = 1ε f 0 (ue ) − a, la condizione (2.3), vera per u = u∗ , assicura l’instabilità dell’equilibrio se ue = u∗ . Per continuità la relazione (2.3) è verificata se e solo se u varia in un intervallo (u1 , u2 ) contenuto nell’intervallo di crescenza di f (infatti f 0 è crescente fino a u∗ e decrescente dopo). Quindi abbiamo instabilità di ue se e solo se ue ∈ (u1 , u2 ). D’altra parte, la prima componente ue = ue (I) dell’unica soluzione di equilibrio del sistema cresce al crescere di I descrivendo tutto l’asse reale. Quindi esistono I1 e I2 tali che ue (I) ∈ (u1 , u2 ) se e solo se I ∈ (I1 , I2 ). Si osservi infine che si hanno (2.4) Tr J(ue (I)) > 0, I ∈ (I1 , I2 ), Tr J(ue (I1 ) = Tr J(ue (I2 )) = 0. Passiamo a dimostrare l’affermazione b). Dati M > 1, m > 0, vogliamo trovare le condizioni per cui il rettangolo R := [−m, M ] × [− m , M ] sia positivamente invaria a ante (come vedremo ció implica che l’equilibrio cada in R). Controlliamo che sulla frontiera di R siano verificate le condizioni del Teorema 3.2, che ne assicurano la positiva invarianza (cioé che sulla frontiera di R il campo non punti esternamente, condizione che si ottiene facilmente anche disegnando le nullocline f (u) − w + I = 0 ew= u a e guardando alla direzione del campo (v 0 , w0 )) : (1) per u = M il campo punta internamente a R, cioé vale la condizione (3.2), se − m ≥ f (M ) + I. Infatti in questo caso ~n = (1, 0), quindi < F (Y ), ~n >= a 12 , M ], se è verificato per il valore minimo, f (M ) − w + I ≤ 0 per ogni w ∈ [− m a a quindi per w = − m ; a (2) per w = Ma il campo punta internamente a R; (3) per w = −m il campo punta internamente a R se f (−m) + I ≥ M ; a (4) per w = − m il campo punta internamente a R. a Le condizioni ai punti 1) e 3) sono certamente verificate per M sufficientemente grande, in modo da avere m = −af (M ) − aI > 0 e f (af (M ) + aI) + I ≥ M , a condizione certamente verificata prendendo M eventualmente ancora più grande, visto che a primo membro compare un polinomio di nono grado con coefficiente di grado massimo positivo. L’ultimo caso che dobbiamo analizzare è il caso di uno stimolo variabile nel tempo. Precisamente consideriamo il caso di uno stimolo periodico I = I(t) e dimostriamo che il sistema ammette soluzioni anch’esse di tipo periodico. Nello studio delle soluzioni periodiche di un sistema autonomo è presente una difficoltà intrinseca: il periodo delle soluzioni è incognito. Questo, in particolare, complica notevolmente il livello dell’analisi necessaria allo studio di questi problemi, basti pensare al fatto che un punto di equilibrio è una soluzione periodica, anche se non del tipo desiderato... Invece perdono questa degenerazione i sistemi non autonomi come il seguente ( (2.5) εu0 = f (u) − w + I(t) w0 = u − aw . Infatti si puó verificare facilmente che la forma dell’equazione esclude automaticamente le soluzioni costanti e, per quanto riguarda le soluzioni periodiche, per soddisfare il sistema di equazioni esse devono avere periodo “legato” al periodo della forzante. Nei casi in cui il sistema autonomo possiede delle soluzioni periodiche non costanti, la presenza del dato forzante periodico “distrugge” la struttura delle soluzioni, in quanto il periodo delle soluzioni deve forzatamente essere un multiplo razionale del periodo dell’impulso esterno. Questo fenomeno prende il nome di phase–locking. La linea di dimostrazione è indipendente dalla particolare forma del sistema (2.1), quindi eventuali generalizzazioni sono semplici da immaginare (si vedano i Teoremi 4.3.1 e 4.3.3 in [2]). 13 Teorema 2.3. Sia I = I(t) una funzione continua, T −periodica e non-costante. Allora il sistema di FitzHugh–Nagumo (2.5) possiede una soluzione T -periodica non banale. Dimostrazione. Osserviamo prima di tutto che le ipotesi del Teorema 2.3 garantiscono l’esistenza di un rettangolo invariante R. Infatti, posti I∗ := min{I(t), t ∈ [0, T ]} e I ∗ := max{I(t), t ∈ [0, T ]}, si può procedere come nella parte b) della Dimostrazione del Teorema 2.1. In questo caso le condizioni diventano: M m = −af (M ) − aI ∗ > 0, f af (M ) + aI ∗ + I∗ ≥ , a entrambe soddisfatte pur di scegliere M sufficientemente grande. Chiamiamo φ(t, p0 ) la soluzione del problema di Cauchy di (2.5) con dato iniziale p0 ∈ R. A questo punto possiamo definire (come già fatto altre volte) l’applicazione di Poincaré nel seguente modo Γ(p0 ) = φ(T, p0 ), dove T è il periodo della funzione forzante. Dall’invarianza di R abbiamo che Γ ∈ C 0 (R, R). Allora, essendo R un compatto, convesso, non vuoto di R2 , il Teorema di Brouwer garantisce l’esistenza di (almeno) un punto fisso p ∈ R, che verifica φ(T, p) = p. Questo punto appartiene ad un’orbita periodica del nostro sistema e non è una traiettoria banale, per quanto osservato prima. Il Teorema 2.3 ha un’interessante interpretazione biologica. Molti dei sistemi eccitabili degli organismi viventi si possono descrivere con modelli simili a (2.1), quindi segue che, se vengono stimolati con degli impulsi elettrici periodici, il sistema biologico adegua il proprio ritmo a quello della forzante esterna. Questo è il motivo per cui la corrente alternata è maggiormente dannosa per gli organismi viventi, rispetto alla corrente continua (ovviamente a parità di intensità). 3. Alcuni richiami relativi alle Equazioni Differenziali Sia assegnato il sistema di equazioni differenziali ordinarie (3.1) Y 0 = F (Y ) dove F : A ⊆ Rd → Rd , con A aperto e F ∈ C 1 (A). Definizione 3.1. Un insieme S ⊂ A si dice positivamente [negativamente] invariante per il sistema (3.1) se per ogni soluzione la condizione Y (t0 ) ∈ S per qualche t0 ∈ R 14 implica Y (t) ∈ S per ogni t ≥ t0 [t ≤ t0 ]. S si dice invariante se è sia positivamente che negativamente invariante. Teorema 3.2. [Invarianza, [11]] (3.2) hF (Y ), ~ni ≤ 0 ∀ Y ∈ ∂S Sia S ⊆ A un insieme chiuso per il quale risulta e per ogni normale esterna ~n ad S in Y . Allora S è positivamente invariante per il sistema (3.1). Osservazione 3.3. Il Teorema ora enunciato è ancora valido se F dipende anche dal tempo, purché ovviamente la condizione (3.2) sia verificata per ogni valore della variabile temporale t. Osservazione 3.4. Nel Teorema 3.2 non si fa nessuna ipotesi di regolarità sulla frontiera di S, quindi l’insieme delle normali esterne in un punto della sua frontiera puó anche essere costituito da piú vettori oppure essere vuoto. Infatti ~n si dice vettore normale esterno ad S in Y se la sfera aperta di centro il punto Y + ~n e raggio |~n| ha intersezione vuota con S. Ad esempio, se S è un rettangolo, ogni suo vertice ha infinite normali che possono differire, non solo nella norma, ma anche nella direzione; se S ha un vertice corrispondente ad un angolo maggiore di π, non ha nessuna normale esterna in quel vertice. Il seguente risultato mostra che nell’intorno di un equilibrio nel quale la matrice Jacobiana ha tutti autovalori a parte reale non nulla, un sistema si comporta qualitativamente come il suo linearizzato, in particolare il sottospazio stabile e quello instabile sono sostituiti da varietà che ne mantengono le proprietà qualitative e la dimensione. L’interesse di tale teorema risulta chiaro dalle applicazioni. Si veda a tale proposito la discussione delle proprietà qualitative del sistema (1.3) dove si evidenzia l’effetto soglia della varietà stabile Ms della Figura 3. Teorema 3.5. [Varietà stabile e instabile, [10]] Sia Y ∗ ∈ A un equilibrio per il sistema (3.1) e in Y ∗ la matrice Jacobiana di F abbia k ≤ d autovalori a parte reale negativa e d − k autovalori a parte reale positiva. Allora esiste una varietà k– dimensionale E, differenziabile, positivamente invariante, avente come spazio tangente in Y ∗ il sottospazio stabile del linearizzato del sistema (3.1) in Y ∗ e per ogni p ∈ E si ha Y (t; p) → Y ∗ per t → +∞ (da cui il nome di varietà stabile). Analogamente esiste una varietà (d − k)–dimensionale U , differenziabile, negativamente invariante, avente come spazio tangente in Y ∗ il sottospazio instabile del linearizzato del sistema (3.1) in Y ∗ e per ogni p ∈ U si ha Y (t; p) → Y ∗ per t → −∞ (da cui il nome di varietà instabile). 15 Poiché nello studio delle equazioni differenziali, in particolare di quelle con valore applicativo, è importante prevedere il comportamento delle soluzioni al crescere del tempo, risulta utile la seguente definizione: Definizione 3.6. Sia p ∈ A. Se Y (t) = Y (t; p) è la soluzione di (3.1) che verifica la condizione iniziale Y (0) = p, diremo insieme ω–limite di p il seguente ω(p) := {q : ∃{tn }n∈N , t.c. tn → +∞ e Y (tn ) → q per n → ∞}. La precedente definizione puó essere utilizzata per sistemi di ogni ordine e si puó dimostrare che, se prendiamo il dato iniziale p in un compatto positivamente invariante, l’insieme ω(p) è compatto, non vuoto, invariante e connesso. Nel caso d = 2, quindi per sistemi di due equazioni, il Teorema che ora enunciamo ci permette di descrivere l’insieme ω–limite di un punto in maniera abbastanza semplice e certamente molto utile nelle applicazioni (vedere la dimostrazione del Teorema 2.1). Teorema 3.7. [Poincaré–Bendixson] Sia S un insieme compatto positivamente invariante per il sistema (3.1) di due equazioni (d = 2). Se S contiene un numero finito di equilibri, per ogni p ∈ S è vera solo una delle seguenti affermazioni: (1) ω(p) è un punto di equilibrio per (3.1); (2) ω(p) è un’orbita periodica di (3.1); (3) ω(p) è l’unione di punti di equilibrio di (3.1) e di orbite che li connettono. Biforcazione di Hopf. Un meccanismo ricorrente che genera orbite periodiche in un sistema dinamico è descritto dal seguente risultato. Teorema 3.8. (Biforcazione di Andronov – Hopf, cfr. [8], [9], [10]). Sia F : R2 × (−α0 , α0 ) → R2 una funzione regolare (almeno C 4 , α0 > 0) e tale che F (0, α) = 0 per ogni α ∈ (−α0 , α0 ). Consideriamo il sistema differenziale dY = F (Y, α) dt Supponiamo che nel punto di equilibrio Y ∗ = 0 la matrice Jacobiana JF (0, α) abbia (3.3) autovalori λ± (α) = µ(α) ± iω(α), con µ(0) = 0, ω(0) = ω0 > 0. Supponiamo inoltre che (1) µ0 (0) 6= 0; (2) per α = 0 è negativo [rispettivamente positivo] un coefficiente σ dipedendente dai soli termini di secondo e terzo ordine del polinomio di Taylor di 16 f in Y ∗ = 0, che determina l’asintotica stabilità [rispettivamente instabilità] dell’equilibrio Y ∗ = 0. Allora, con una trasformazione delle coordinate, del parametro e una riparametrizzazione del tempo, il sistema (3.3) si trasforma nel sistema equivalente ( 0 x = µ(α)x − ω(α)y + σx(x2 + y 2 ) + p(x, y, α) (3.4) y 0 = µ(α)y + ω(α)x + σy(x2 + y 2 ) + q(x, y, α) dove p(·) e q(·) sono infinitesimi di ordine superiore al terzo in (x, y). Inoltre, per α ∈ (−α00 , α00 ), α00 ∈ (0, α0 ) opportuno, le soluzioni del sistema hanno, in un intorno di (0, 0) lo stesso comportamento qualitativo di quelle del sistema che si ottiene da (3.4) ponendo p ≡ q ≡ 0 e quindi, se σ < 0 e µ0 (0) > 0 si ha: (1) per α ∈ (−α00 , 0] l’equilibrio (0, 0) è localmente asintoticamente stabile; (2) per α ∈ (0, α00 ) l’equilibrio (0, 0) è instabile ed esiste un’orbita attrattiva che dipende con continuità da α. Se σ > 0 e µ0 (0) > 0 si ha: (1) per α ∈ (−α00 , 0) l’equilibrio (0, 0) è localmente asintoticamente stabile ed esiste un’orbita repulsiva che dipende con continuità da α; (2) per α ∈ [0, α00 ) l’equilibrio (0, 0) è instabile. Nel caso sia µ0 (0) < 0 i valori di α per cui si ottengono i diversi risultati cambiano di segno. Osserviamo che il sistema (3.4) dove p(·) e q(·) siano infinitesimi di ordine superiore al terzo in (x, y), e quello che si ottiene da questo quando p ≡ q ≡ 0, sono “topologicamente equivalenti” in un intorno di (0, 0), per α ∈ (−α00 , α00 ), α00 ∈ (0, α0 ) opportuno, cioè esiste un omeomorfismo tra le orbite di un sistema e dell’altro che conserva la direzione crescente del tempo. Questo risultato vale in generale, purché le funzioni in gioco siano sufficientemente regolari in (x, y, α), e non dipende dal fatto che il sistema (3.4) sia ottenuto da un sistema del tipo (3.3). La verifica che il comportamento delle soluzioni del sistema (3.4) per p ≡ q ≡ 0, sia quello descritto nel Teorema 3.8 diventa molto semplice se si considerano coorp dinate polari, quindi ρ(t) := x2 + y 2 e θ(t) := arctan ( xy ) per x > 0 e prolungata opportunamente per gli altri valori di x. Con le sostituzioni x = ρ cos θ e y = ρ sin θ, si ottiene, derivando ( 0 ρ cos θ − ρ sin θ θ0 = µ(α)ρ cos θ − ω(α)ρ sin θ + σρ3 cos θ , (3.5) ρ0 sin θ + ρ cos θ θ0 = µ(α)ρ sin θ + ω(α)ρ cos θ + σρ3 sin θ . 17 Moltiplicando la prima equazione per cos θ e la seconda per senθ e sommando membro a membro, otteniamo il sistema ( 0 ρ = µ(α)ρ + σρ3 , (3.6) θ0 = ω(α), dove la seconda equazione si ottiene utilizzando la prima per semplificare l’espressione delle equazioni del sistema precedente. Il sistema cosı́ ottenuto risulta facile da studiare essendo disaccoppiato e il suo comportamento dipende ovviamente dal segno delle costanti che vi compaiono e coincide con quello descritto nel teorema. Sottolineiamo come non sia restrittiva la condizione che per ogni α ∈ (−α0 , α0 ), (0, 0) sia una soluzione stazionaria. Infatti, se l’equilibrio fosse Ye = Ye (α) 6= (0, 0), ponendo Ỹ = Y − Ye (α) ci riporteremmo alle ipotesi del Teorema. Quindi nella applicazione che segue applicheremo il teorema senza effettuare questa traslazione. Osserviamo infine che esistono estensioni del Teorema di Andronov–Hopf al caso di un sistema di d equazioni differenziali per il quale, in dipendenza da un parametro, esiste una coppia di autovalori che hanno il comportamento qui richiesto nel caso d = 2, mentre tutti gli altri autovalori hanno parte reale strettamente negativa. Applicazione al sistema di FitzHugh–Nagumo. Nelle ipotesi del Teorema 2.1 si ottiene che il Teorema di Biforcazione di Andronov–Hopf si applica al sistema di FitzHugh–Nagumo ponendo α := I − I1 , dove I1 è definito nel medesimo teorema. Infatti, detta ue = ue (I(α)) = ue (I1 + α) la primacomponentedell’equilibrio per un certo valore di α e quindi di I, si ha µ(α) = 21 T r J(ue (I(α))) . Allora, ricordando la (2.4), si hanno 1 1 00 due (I) µ(0) = Tr J(ue (I1 )) = 0 , µ0 (α) = f (ue (I(α))) , 2 2 dI essendo dI(α) = 1. Inoltre ue (I) è la funzione definita implicitamente dall’equazione dα (3.7) HI (ue (I),I) 1 e (I) = −H = − f 0 (ue (I))− H(u, I) = f (u) − ua + I = 0, quindi dudI 1 > 0 per u (ue (I),I) a l’ipotesi (2.2). Ricordando che I(0) = I1 , si ottiene quindi 1 00 due (I1 ) f (ue (I1 )) >0 2 dI essendo f 00 (ue (I1 )) > 0 poiché f è una cubica convessa in (−∞, u∗ ) e ue (I1 ) ∈ µ0 (0) = (−∞, u∗ ). Otteniamo segno opposto ripetendo il procedimento in un intorno di I = I2 dove f è concava. Non verifichiamo qui la seconda ipotesi del Teorema di Andronov–Hopf (di cui non abbiamo dato l’enunciato preciso), comunque in questo caso si ottiene che, sia in I1 che in I2 , la biforcazione è sopracritica (σ < 0). Anche il Teorema 2.1 assicura l’esistenza di almeno un’orbita periodica e per di più in 18 tutto l’intervallo (I1 , I2 ), mentre il Teorema di Andronov–Hopf solo in (I1 , I1 + α00 ) e (I2 − α00 , I2 ) (α00 > 0 opportuno). D’altra parte la conoscenza delle due diverse tecniche di dimostrazione permette di affrontare situazioni differenti e la seconda dà una descrizione più precisa della dinamica del sistema, seppur in un insieme più ristretto di valori dei parametri. Infatti nel secondo caso otteniamo che almeno in un intorno dell’equilibrio e per un insieme piú ristretto dei parametri esiste un’orbita periodica attrattiva, mentre il Teorema 2.1 lascia aperte piú possibilità dando quindi una descrizione meno precisa, come sottolineato nell’Osservazione 2.2 che segue il teorema. Bibliografia [1] Edelstein-Keshet L., “Mathematical models in biology”, Reprint of the 1988 original. Classics in Applied Mathematics, 46. Society for Industrial and Applied Mathematics (SIAM), Philadelphia, PA, 2005. [2] Farkas M., “Periodic motions”, Applied Mathematical Sciences 104, Springer-Verlag 1994. [3] Fenichel N., Geometric singular perturbation theory for ordinary differential equations, J. Differential Equations 31 (1979), no. 1, 53–98. [4] Izhikevich E.M., “Dynamical systems in neuroscience: the geometry of excitability and bursting”, Computational Neuroscience. MIT Press, Cambridge, MA, 2007. [5] Jordan D. W., Smith P., “Nonlinear ordinary differential equations. An introduction for scientists and engineers.” Fourth edition. Oxford University Press, Oxford, 2007. [6] Keener, J.; Sneyd, J. “Mathematical physiology. Vol. I: Cellular physiology.” Second edition. Interdisciplinary Applied Mathematics, 8/I. Springer, New York, 2009. [7] Keener, J.; Sneyd, J. “Mathematical physiology. Vol. II: Systems physiology.” Second edition. Interdisciplinary Applied Mathematics, 8/II. Springer, New York, 2009. [8] Kuznetsov Y.A., “Elements of applied bifurcation theory”, Applied Mathematical Sciences 112, Springer Verlag 1995. [9] Negrini P., Salvadori L., Attractivity and Hopf bifurcation, Nonlinear Analysis, T.M.A. 3 (1979), 87–99. [10] Perko L., “Differential equations and dynamical systems”, Texts in Applied Mathematics 7, Springer 1998. [11] Walter W., “Ordinary differential equations”, Graduate Texts in Mathematics 182, Springer 1991. [12] Verhulst F., Singular perturbation methods for slow-fast dynamics, Nonlinear Dynam. 50 (2007), no. 4, 747–753.