"Il modello di Hodgkin-Huxley", in pdf

Transcript

"Il modello di Hodgkin-Huxley", in pdf
ModA – Modelli Analitici per le Applicazioni
4. Il modello di Hodgkin–Huxley
Corrado MASCIA, Eugenio MONTEFUSCO
Dipartimento di Matematica “G. Castelnuovo”,
Sapienza – Università di Roma
May 20, 2011
La membrana cellulare. La membrana cellulare svolge moltissime funzioni, tra
di esse c’è quella di separare cariche elettriche, mantenendo delle differenti concentrazioni di ioni tra l’interno e l’esterno della cellula. In prima approssimazione
è ragionevole convincersi del fatto che la membrana può essere pensata come un
condensatore, inoltre l’equilibrio presente è di tipo dinamico, visto che gli ioni tenderanno a muoversi in risposta al campo elettrico che la diversa concentrazione di
cariche produce. Una semplice equazione che riassume le precedenti affermazioni è
C V 0 (t) + Iion (V (t), t) = 0,
dove il secondo membro esprime l’equilibrio dinamico tra le correnti capacitive della
membrana (C è la capacità della membrana cellulare, che si suppone costante) e
le correnti ioniche attraverso la membrana sono rappresentate da Iion . In questo
modello la funzione V = Vi − Ve esprime la differenza di potenziale elettrico tra
l’interno e l’esterno della cellula, e si chiama potenziale di membrana. Determinare
l’espressione del termine Iion è generalmente un grosso problema, la cui soluzione
dipende dal tipo di cellula che si considera.
Osserviamo che la regolazione del potenziale di membrana è una delle più importanti funzioni della cellula, soprattutto perché, alcune classi di cellule (in particolare
le cellule del sistema nervoso e dei muscoli) usano tale potenziale per la trasmissione
di segnali. Generalmente le cellule che trasmettono segnali elettrici vengono chiamate eccitabili, nel seguito ci concentreremo su di una particolare classe di cellule:
quelle del sistema nervoso.
1. Il modello di Hodgkin–Huxley
La nostra storia comincia nell’anno accademico 1937/38, quando Alan Lloyd
Hodgkin, possessore di una borsa post-doc, cominciò a lavorare sulla trasmissione
dei segnali nervosi con un gruppo di fisiologi della Columbia University. In questo
periodo gli studi mostrarono che il potenziale di membrana svolge un ruolo fondamentale perché il segnale che si trasmette nelle fibre nervose è, sostanzialmente, una
2
variazione di potenziale. Inoltre i due ricercatori focalizzarono i loro studi sulle fibre del sistema nervoso del calamaro, il quale possiede delle strutture estremamente
semplici (un solo neurone, per esempio!) e di grandi dimensioni, cioè più comode
da gestire. Questi studi furono interrotti dallo scadere della borsa e dalla seconda
guerra mondiale e ripresero solo nel 1948.
Dopo l’interruzione Hodgkin, insieme a Andrew Fielding Huxley (e altri collaboratori minori) ripresero gli esperimenti sull’assone gigante del calamaro, mettendo a
punto una tecnica che permetteva di stimolare e misurare il potenziale di membrana
dell’assone con degli elettrodi inseriti sulla cellula (tenuta ad una temperatura di
circa 6 o C). Senza inoltrarsi nella descrizione del lavoro fatto dai due scienziati (che
li portò ad una serie di articoli celeberrimi, pubblicati nel 1952, e ad un premio Nobel per la medicina nel 1963). Per brevità, riassumiamo gli aspetti salienti delle loro
ricerche per giungere alla formulazione di un modello, e per capire cosa si debba attendere da un modello corretto. Una discussione più ampia e dettagliata può essere
trovata in [6].
Cominciamo elencando un paio di osservazioni sperimentali, di cui dovremo tener
conto per testare la bontà del modello.
– Se si stimola l’assone in maniera molto debole (tramite l’elettrodo) si nota un
temporaneo cambiamento del potenziale di membrana. Tale risposta è proporzionale
all’intensità dello stimolo e si estingue in tempi dell’ordine di 1 ms, quindi in tempi
rapidi il sistema torna al suo stato di quiete iniziale. Inoltre il mutamento avviene
solo nei pressi del luogo di origine dello stimolo, questa situazione viene definita
risposta passiva e locale ed equivale ad ignorare lo stimolo, perché il sistema (in
qualche modo) lo considera non importante.
– Qualora l’intensità dello stimolo oltrepassa una valore–soglia il potenziale di
(a) Risposta passiva
(b) Potenziale d’azione
membrana cresce giungendo ad uno stato eccitato, sostanzialmente indipendente
3
dall’intensità dello stimolo. Il valore nello stato eccitato differisce notevolmente
dallo stato di quiete dell’assone e tale stato si osserva solo nelle cellule del sistema
nervoso o muscolare che per questo vengono dette eccitabili. La curva che descrive
il potenziale di membrana in questo caso viene detta potenziale d’azione .
– Dopo la creazione del potenziale di azione si osserva un periodo refrattario,
in cui vengono ignorati più stimoli, in quanto il valore–soglia di azione si innalza.
Inoltre il potenziale ritorna allo stato di quiete rapidamente.
– Se lo stimolo è molto grande e ha una durata lunga si generano un treno di
potenziali d’azione, dando luogo ad una soluzione periodica (almeno finché dura lo
stimolo).
Figura 1. Variazione del potenziale se una corrente esterna è presente solo
nell’intervallo temporale [0, 50].
Per spiegare queste osservazioni Hodgkin e Huxley studiarono in maggior dettaglio
le correnti ioniche al fine di trovare un’espressione per il termine Iion . I nostri eroi
osservarono che gli ioni che svolgono un ruolo fondamentale sono il sodio N a+ e il
potassio K + , mentre le restanti cariche sono (di fatto) trascurabili.
Questo conduce alla seguente equazione
Iion = gN a (V − VN a ) + gK (V − VK ) + gL (V − VL ) − Iapp ,
dove Iapp è la corrente applicata tramite l’elettrodo, mentre gli altri termini sono
le conduttanze delle varie correnti ioniche applicate alla differenza di potenziale
tra il potenziale di membrana e il potenziale a riposo della rispettiva corrente. Si
noti che le grandezze con pedice L si riferiscono all’effetto cumulativo di tutti gli
altri ioni che producono correnti attraverso la membrana: le correnti di dispersione
(”LEAKAGE” in Inglese).
4
È evidente che una tale equazione differenziale lineare non omogenea del primo
ordine non può riprodurre i fatti sperimentali cui abbiamo accennato, ma solo un
ritorno allo stato di riposo analogo a quello delle cellule non eccitabili.
Hodgkin e Huxley fecero vari esperimenti isolando l’effetto dei singoli ioni, il che
li portò a capire che le conduttanze gi non potevano essere delle costanti, ma anzi
erano delle funzioni di altre variabili e del potenziale di membrana stesso. Fittando
accuratamente i dati sperimentali e ponendo v = V − Veq , dove
Veq =
gN a Vna + gK VK + gL VL
,
gN a + gK + gL
riuscirono a determinare le seguenti espressioni per le variabili gK , gN a e gL
gK (t) = g K n4 (t),
gN a (t) = g N a m3 (t)h(t),
gL (t) = g L ∈ R,
dove le variabili n, m, h verificano equazioni della forma
(1.1)
n0 =
n∞ (v) − n
,
τn (v)
m0 =
m∞ (v) − m
,
τm (v)
h0 =
h∞ (v) − h
.
τh (v)
Di fatto le costanti g K e g N a rappresentano la conduttanza massima, cioè quella
corrispondente alla situazione in cui sono tutti aperti i canali di passaggio a disposizione degli ioni, rispettivamente di potassio e sodio. Le funzioni n(t), m(t) e h(t)
per cui vengono moltiplicate tali costanti, rappresentano frazioni di canali aperti
al variare del tempo. Hogkin e Huxley sono riusciti a misurare separatamente le
frazioni n∞ (v), m∞ (v) e h∞ (v) (cfr. Fig. 2) di canali aperti di ciascun tipo di ioni
per diversi valori del potenziale v (utilizzando delle sostanze che inibivano il passaggio degli ioni dell’alto tipo e supponendo, ipotesi che si è poi rivelata verosimile,
che le aperture di tali canali fossero indipendenti) ed anche i tempi medi di reazione
τn (v), τm (v) e τh (v) (cfr. Fig. 2) con i quali varia la frazione di canali aperti, al
variare del potenziale. Quindi hanno fatto dipendere le conduttanze dalle frazioni
n(t), m(t) e h(t) che a loro volta soddisfano le equazioni (1.1).
La presenza della potenza quarta nell’espressione di gK e di due diverse funzioni
con diverso esponente nel caso di gN a sono state il frutto di un lavoro particolarmente
efficace: nel caso del potassio, una funzione del tipo gK = g K n(t) non risultava in
accordo con gli esperimenti e la minima potenza per avere tale accordo era la quarta,
quindi Hogkin e Huxley hanno posto gK = g K n4 (t).
Nel caso del sodio c’era un doppio fenomeno: al crescere di v c’era un iniziale
aumento veloce dei canali aperti, dato dal termine m3 (t), dove m(t) verifica una
equazione in cui m∞ (v) è una funzione crescente, poi inizia un processo lento di
chiusura dei canali al crescere di v dato dal termine di inibizione, con reazione piu’
5
(a) m∞ , n∞ , h∞
(b) τm , τn , τh
Figura 2. Le funzioni determinate sperimentalmente.
lenta, h(t) che verifica una equazione in cui h∞ (v) è una funzione decrescente. La
scelta della potenza 4 per n(t), 3 per m(t) e 1 per h, inizialmente dettata solo
dalla richiesta che il sistema rappresentasse i fenomeni osservati, ha poi avuto una
interessante interpretazione biologica. Infatti la potenza quarta sta ad indicare che
i canali di passaggio del potassio hanno di fatto quattro ”cancelli” o sezioni, per cui
se n(t) rappresenta la probabilità che uno di questi sia aperto, la potenza quarta
rappresenta la probabilità che siano tutti aperti e quindi che gli ioni possano passare.
Per il sodio, dei quattro presunti cancelli, tre sono di un tipo che, rapidamente
(τm (v) è dell’ordine del millisecondo) aumenta all’aumentare di v e la probabilità
che ciascuno sia aperto è data da m(t), per l’altro lentamente (τh (v) è dell’ordine di
8.5 millisecondi per v vicino a 0) diminuisce la probabilità che esso sia aperto.
Rinviamo a [6] per una trattazione piú estesa e per un’ampia bibliografia. Qui
procediamo con l’analisi del sistema di equazioni differenziali per il potenziale di
membrana dell’assone gigante del calamaro, riscrivendolo nella forma seguente

C v 0 = − g N a m3 h (v − vN a ) − g K n4 (v − vK ) − g L (v − vL ) + Iapp





 m0 =αm (1 − m) − βm m
,
(1.2)
0

n
=α
(1
−
n)
−
β
n

n
n




h0 =αh (1 − h) − βh h
con le seguenti espressioni per i parametri coinvolti nel sistema
αm (v) = 0.1
25 − v
,
exp((25 − v)/10) − 1
βm (v) = 4 exp(−v/18),
6
m0 = 0
ve
v0 = 0
vi
vq
Ms
Figura 3. Il piano delle fasi del sistema (1.3).
αn (v) = 0.01
10 − v
,
exp(1 − v/10) − 1
αh (v) = 0.07 exp(−v/20),
βn (v) = 0.125 exp(−v/80),
βh (v) =
con g N a = 120 mS/cm2 , g K = 36 mS/cm2 e g L
1
.
exp(3 − v/10) + 1
= 0.3 mS/cm2 (mS è il milli–
Siemens), vN a = 115 mV , vK = −12 mV e vL = 10.6 mV . Posto successivamente
w uguale a m, n e h, sono ovvie le relazioni tra αw , βw e le quantità w∞ , τw che
compaiono nelle equazioni equivalenti (1.1). Le simulazioni numeriche mostrano
che il sistema (1.2) riproduce le osservazioni sperimentali con un ottimo accordo.
L’analisi esatta del sistema è molto impegnativa, quindi cercheremo di analizzarlo
con delle riduzioni a sistemi di due equazioni differenziali.
La prima osservazione in quest’ottica è che le variabili n ed h hanno “tempi di
reazione” lunghi (rispetto a v e m), quindi possiamo semplificare il sistema supponendo che le variabili n ed h non varino nel tempo. Tale scelta si traduce nel sostituire alle equazioni differenziali per tali variabili, le relazioni algebriche n(t) = n0 e
h(t) = h0 . In questo modo, il sistema (1.2) si trasforma nel sistema planare
(
C v 0 = − g N a m3 h0 (v − vN a ) − g K n40 (v − vK ) − g L (v − vL ) + Iapp
(1.3)
.
m0 =αm (1 − m) − βm m
Le nullocline del sistema sono date dalle curve
g m3 h0 vN a + g K n40 vK + g L vL
αm (v)
,
v = Na
.
m = m∞ (v) :=
αm (v) + βm (v)
g N a m3 h0 + g K n40 + g L
L’andamento approssimativo di tali curve è il seguente. Ci sono tre punti d’equilibrio, di cui due stabili, vq e ve , ed uno instabile vi . Nella Figura 3 è raffigurata
anche la varietà stabile Ms (vedere Teorema 3.5) che essendo costituita da orbite,
7
per l’unicità non puó essere attraversata dalle altre soluzioni e quindi rappresenta
lo spartiacque tra il bacino di attrazione di vq e quello di ve . Se il dato iniziale del
problema di Cauchy relativo a (1.3) con Iapp = 0, si trova all’interno del bacino di
vq la soluzione converge a questo stato che è lo stato di quiete del sistema, mentre
per dati iniziali più grandi la dinamica converge a ve che rappresenta lo stato eccitato del sistema: questa semplice descrizione spiega alcune (le prime) osservazioni
sperimentali, cioè la creazione del potenziale di azione e l’effetto soglia relativo allo
stimolo iniziale. Bisogna però osservare che tale analisi non può essere continuata
per tempi lunghi, perché non è più ragionevole supporre che le variabili lente non
evolvano.
Per descrivere gli altri effetti osservati abbiamo bisogno di un’approssimazione del
sistema (1.2) diversa. A tale scopo, cominciamo osservando due fatti sperimentali
cruciali:
– m è una variabile veloce, per cui è possibile sostituire l’equazione per m con la
relazione di equilibrio m = m∞ (v) . Stiamo quindi utilizzando una approssimazione
con lo stato quasi–stazionario (una QSSA);
– durante l’evoluzione del potenziale d’azione si osserva che (h + n) ' κ con κ
costante (pari a circa 0.8).
Queste due osservazioni, suggerirono a R.FitzHugh di estrapolare da (1.2) il sistema semplificato
(
C v 0 = −g K n4 (v − vK ) − g N a m3∞ (v)(κ − n)(v − vN a ) − g L (v − vL ) + Iapp
(1.4)
,
n0 = αn (1 − n) − βn n
dove κ := 0.8.
La nulloclina v 0 = 0 ha l’andamento qualitativo di una cubica, mentre la nulloclina
n0 = 0 descrive il grafico di una funzione strettamente crescente. In particolare, le
due curve hanno una sola intersezione nel piano delle fasi veloce–lenta, quindi esiste un solo stato stazionario di (1.4). Poiché la componente verticale del campo è
trascurabile rispetto a quella orizzontale, le linee di flusso sono praticamente orizzontali (vedi Figura 4), eccetto quando la componente orizzontale è quasi nulla, cioé
quando il moto si svolge sulla nulloclina v 0 = 0, detta varietà lenta.
Analizziamo il moto di una soluzione di (1.4), e supponiamo che i dati iniziali (cioè
uno stimolo esterno) allontanino il sistema dal suo stato di quiete (rappresentato
dall’unica soluzione stazionaria). Se lo stimolo è piccolo, il che significa che il dato
iniziale si trova a sinistra del ramo ascendente della nulloclina ‘cubica”, la traiettoria
si muove orizzontalmente riportando la traiettoria sulla curva v 0 = 0, sulla quale
8
Figura 4. La dinamica del sistema (1.4).
raggiunge il punto d’equilibrio (si può vedere facilmente che la soluzione stazionaria
è stabile). Se i dati iniziali fanno partire il flusso dalla parte del piano delle fasi
che si trova a destra del tratto crescente di v 0 = 0, si osserva che la traiettoria
parte più o meno orizzontalmente dirigendosi verso il tratto decrescente di v 0 = 0
che si trova più a destra e che rappresenta lo stato eccitato (in dipendenza anche
delle variabili lente). Quando la traiettoria si avvicina alla nulloclina v 0 = 0, rimane
vicino ad essa risalendola fino al punto di massimo locale. Qui n continua a crescere
lentamente allontanando v dalla sua nulloclina. Allora nuovamente la soluzione
si muove orizzontalmente, questa volta verso sinistra, fino a ritornare sul tratto
decrescente di sinistra della nulloclina v 0 = 0 e, lungo questa, allo stato di quiete
(vedere la linea continua della Figura 4).
Questa analisi descrittiva mostra che la dinamica di (1.4) nel piano delle fasi
veloce–lenta possiede un effetto soglia (rappresentato dal tratto crescente di v 0 = 0).
I tre stati stazionari vq , vi e ve trovati nel piano delle fasi veloci si ritrovano anche
qui (i secondi due “spalmati” su pezzi di curve) legati alla dinamica delle variabili
lente (che il sistema (1.3) ignora, di fatto). In questo modo abbiamo riconosciuto
che (1.4) descrive le osservazioni fatte da Hodgkin e Huxley in modo migliore della
precedente approssimazione. In letteratura usualmente si dice che v è la variablie di
eccitazione e n la variabile di richiamo allo stato di quiete.
2. Il sistema di FitzHugh–Nagumo
Una semplificazione di (1.4) si ottiene sostituendo alla nulloclina n0 = 0, la retta
u = aw, con a > 0, e considerando la varietà veloce descritta dalla curva w =
f (u) + I, con f (u) = u(u − α)(1 − u) e 0 < α < 1. Il sistema semplificato che si
9
ottiene ha la forma
(
(2.1)
εu0 = f (u) − w + I
w0 = u − aw
ed è noto come sistema di FitzHugh–Nagumo, per ricordare l’ingegnere giapponese
Nagumo, che realizzò nel 1964 un circuito elettrico la cui dinamica è descritta dal
sistema (2.1).
L’analisi del sistema si divide in tre casi: I ≡ 0, I = I0 > 0 e I = I(t).
Quando I ≡ 0 l’analisi qualitativa è analoga allo studio fatto a proposito del
sistema (1.4) e si può riassumere nel seguente disegno (tenendo presente che nel
nostro caso u0 = w0 = 0, u1 = α e u2 = 1) in cui sono disegnate due traiettorie
relative alle soluzioni di due problemi di Cauchy di (2.1) con dati iniziali tipo (u, 0).
Figura 5. La dinamica del sistema di FitzHugh–Nagumo (2.1) nel caso I ≡ 0.
Il caso I(t) = I0 > 0 è strettamente legato ai discorsi fatti precedentente. Infatti
non c’è nulla di diverso da prima se I è sufficientemente piccolo, invece se I è tale
che il punto d’equilibrio si trova sulla parte ascendente della cubica le cose possono
cambiare un po’. In questo caso se la soluzione stazionaria non è più stabile, la
dinamica non può convergere allo stato di quiete e produce una soluzione periodica
(Figura 6).
In particolare si dimostra il seguente risultato.
Teorema 2.1. Sia
1
> f 0 (u) ∀u ∈ R,
a
e, detto u∗ il punto di flesso della cubica f , per u = u∗ si abbia
(2.2)
(2.3)
f 0 (u) > aε .
10
Figura 6. La dinamica del sistema di FitzHugh–Nagumo (2.1) nel caso I(t) =
I0 > 0.
Allora il sistema (2.1) ha uno ed un solo punto di equilibrio ue ed esiste un intervallo
(I1 , I2 ) in cui l’equilibrio è instabile, mentre se I ∈ R\[I1 , I2 ], l’equilibrio è localmente
asintoticamente stabile.
Inoltre, se I ∈ (I1 , I2 ), il sistema (2.1) possiede almeno una soluzione periodica e
per ogni dato iniziale p 6= ue l’insieme ω–limite è una soluzione periodica.
Osservazione 2.2. Utilizzando le notazioni del teorema, osserviamo che nell’intervallo
(I1 , I2 ) la soluzione stazionaria si trova sul tratto crescente della cubica. Inoltre il
risultato ottenuto puó implicare che il sistema abbia un’orbita globalmente attrattiva
(l’unica soluzione ”non attratta” dall’orbita è quella di equilibrio), oppure che abbia
piú orbite periodiche, di cui almeno una attrattiva dall’esterno (contenente al suo
interno le altre e alla quale tendono le soluzioni con dato iniziale esterno alla regione
da essa racchiusa) e una almeno attrattiva dall’interno (a cui tendono le soluzioni
con dato iniziale p 6= ue contenuto nella regione da essa racchiusa). Altre informazioni sulle proprietà delle soluzioni periodiche del sistema di FitzHugh–Nagumo
(2.1) sono ottenute alla fine di questo capitolo applicando al sistema il Teorema di
Biforcazione di Andronov – Hopf 3.8.
Dimostrazione.
Otteniamo il risultato del teorema mostrando quanto segue
a) esiste un intervallo (I1 , I2 ) tale che per I ∈ (I1 , I2 ) l’unico punto di equilibrio
del sistema è instabile e entrambi gli autovalori del linearizzato in quel punto
hanno parte reale strettamente positiva;
b) per ogni punto del piano esiste un rettangolo chiuso, limitato e positivamente
invariante che lo contiene.
11
Infatti, per I ∈ (I1 , I2 ) come nel punto a), preso un punto distinto dall’equilibrio,
esso è contenuto in un rettangolo chiuso, limitato e positivamente invariante, quindi
possiamo applicare il Teorema di Poincaré –Bendixson 3.7 ed otteniamo che l’insieme
ω–limite deve essere un’orbita periodica. Infatti l’insieme ω–limite non può contenere l’unico equilibrio del sistema, perché esso è totalmente instabile (entrambi gli
autovalori hanno parte reale positiva, quindi non esistono orbite che si avvicinano a
quell’equilibrio neanche per una successione di tempi tn → +∞, per n → ∞).
Restano dunque da dimostrare le affermazioni a) e b).
Per dimostrare a), si osservi che la condizione (2.2) assicura che per ogni valore della
corrente esterna costante I, il sistema ha un unico (verificarlo) equilibrio ue = ue (I)
e in tale punto la matrice Jacobiana
J(ue ) =
1
ε
f 0 (ue ) − 1ε
1
−a
ha determinante det J(ue ) pari a 1ε (1 − af 0 (ue )) e, di conseguenza, positivo. Quindi
l’instabilità segue se si dimostra che esiste un intervallo (I1 , I2 ) tale che per I ∈
(I1 , I2 ) si ha Tr J(ue ) > 0. Essendo Tr J(ue ) = 1ε f 0 (ue ) − a, la condizione (2.3),
vera per u = u∗ , assicura l’instabilità dell’equilibrio se ue = u∗ . Per continuità la
relazione (2.3) è verificata se e solo se u varia in un intervallo (u1 , u2 ) contenuto
nell’intervallo di crescenza di f (infatti f 0 è crescente fino a u∗ e decrescente dopo).
Quindi abbiamo instabilità di ue se e solo se ue ∈ (u1 , u2 ).
D’altra parte, la prima componente ue = ue (I) dell’unica soluzione di equilibrio
del sistema cresce al crescere di I descrivendo tutto l’asse reale. Quindi esistono I1
e I2 tali che ue (I) ∈ (u1 , u2 ) se e solo se I ∈ (I1 , I2 ). Si osservi infine che si hanno
(2.4)
Tr J(ue (I)) > 0,
I ∈ (I1 , I2 ),
Tr J(ue (I1 ) = Tr J(ue (I2 )) = 0.
Passiamo a dimostrare l’affermazione b). Dati M > 1, m > 0, vogliamo trovare le
condizioni per cui il rettangolo R := [−m, M ] × [− m
, M ] sia positivamente invaria a
ante (come vedremo ció implica che l’equilibrio cada in R). Controlliamo che sulla
frontiera di R siano verificate le condizioni del Teorema 3.2, che ne assicurano la
positiva invarianza (cioé che sulla frontiera di R il campo non punti esternamente,
condizione che si ottiene facilmente anche disegnando le nullocline f (u) − w + I = 0
ew=
u
a
e guardando alla direzione del campo (v 0 , w0 )) :
(1) per u = M il campo punta internamente a R, cioé vale la condizione (3.2),
se − m
≥ f (M ) + I. Infatti in questo caso ~n = (1, 0), quindi < F (Y ), ~n >=
a
12
, M ], se è verificato per il valore minimo,
f (M ) − w + I ≤ 0 per ogni w ∈ [− m
a a
quindi per w = − m
;
a
(2) per w = Ma il campo punta internamente a R;
(3) per w = −m il campo punta internamente a R se f (−m) + I ≥
M
;
a
(4) per w = − m
il campo punta internamente a R.
a
Le condizioni ai punti 1) e 3) sono certamente verificate per M sufficientemente
grande, in modo da avere
m = −af (M ) − aI > 0
e
f (af (M ) + aI) + I ≥
M
,
a
condizione certamente verificata prendendo M eventualmente ancora più grande,
visto che a primo membro compare un polinomio di nono grado con coefficiente di
grado massimo positivo.
L’ultimo caso che dobbiamo analizzare è il caso di uno stimolo variabile nel tempo.
Precisamente consideriamo il caso di uno stimolo periodico I = I(t) e dimostriamo
che il sistema ammette soluzioni anch’esse di tipo periodico.
Nello studio delle soluzioni periodiche di un sistema autonomo è presente una
difficoltà intrinseca: il periodo delle soluzioni è incognito. Questo, in particolare,
complica notevolmente il livello dell’analisi necessaria allo studio di questi problemi,
basti pensare al fatto che un punto di equilibrio è una soluzione periodica, anche
se non del tipo desiderato... Invece perdono questa degenerazione i sistemi non
autonomi come il seguente
(
(2.5)
εu0 = f (u) − w + I(t)
w0 = u − aw
.
Infatti si puó verificare facilmente che la forma dell’equazione esclude automaticamente le soluzioni costanti e, per quanto riguarda le soluzioni periodiche, per
soddisfare il sistema di equazioni esse devono avere periodo “legato” al periodo
della forzante. Nei casi in cui il sistema autonomo possiede delle soluzioni periodiche non costanti, la presenza del dato forzante periodico “distrugge” la struttura
delle soluzioni, in quanto il periodo delle soluzioni deve forzatamente essere un multiplo razionale del periodo dell’impulso esterno. Questo fenomeno prende il nome
di phase–locking. La linea di dimostrazione è indipendente dalla particolare forma
del sistema (2.1), quindi eventuali generalizzazioni sono semplici da immaginare (si
vedano i Teoremi 4.3.1 e 4.3.3 in [2]).
13
Teorema 2.3. Sia I = I(t) una funzione continua, T −periodica e non-costante.
Allora il sistema di FitzHugh–Nagumo (2.5) possiede una soluzione T -periodica non
banale.
Dimostrazione. Osserviamo prima di tutto che le ipotesi del Teorema 2.3 garantiscono l’esistenza di un rettangolo invariante R. Infatti, posti
I∗ := min{I(t), t ∈ [0, T ]}
e
I ∗ := max{I(t), t ∈ [0, T ]},
si può procedere come nella parte b) della Dimostrazione del Teorema 2.1. In questo
caso le condizioni diventano:
M
m = −af (M ) − aI ∗ > 0,
f af (M ) + aI ∗ + I∗ ≥
,
a
entrambe soddisfatte pur di scegliere M sufficientemente grande.
Chiamiamo φ(t, p0 ) la soluzione del problema di Cauchy di (2.5) con dato iniziale
p0 ∈ R. A questo punto possiamo definire (come già fatto altre volte) l’applicazione
di Poincaré nel seguente modo
Γ(p0 ) = φ(T, p0 ),
dove T è il periodo della funzione forzante. Dall’invarianza di R abbiamo che Γ ∈
C 0 (R, R). Allora, essendo R un compatto, convesso, non vuoto di R2 , il Teorema
di Brouwer garantisce l’esistenza di (almeno) un punto fisso p ∈ R, che verifica
φ(T, p) = p. Questo punto appartiene ad un’orbita periodica del nostro sistema e
non è una traiettoria banale, per quanto osservato prima.
Il Teorema 2.3 ha un’interessante interpretazione biologica. Molti dei sistemi
eccitabili degli organismi viventi si possono descrivere con modelli simili a (2.1),
quindi segue che, se vengono stimolati con degli impulsi elettrici periodici, il sistema
biologico adegua il proprio ritmo a quello della forzante esterna. Questo è il motivo
per cui la corrente alternata è maggiormente dannosa per gli organismi viventi,
rispetto alla corrente continua (ovviamente a parità di intensità).
3. Alcuni richiami relativi alle Equazioni Differenziali
Sia assegnato il sistema di equazioni differenziali ordinarie
(3.1)
Y 0 = F (Y )
dove F : A ⊆ Rd → Rd , con A aperto e F ∈ C 1 (A).
Definizione 3.1. Un insieme S ⊂ A si dice positivamente [negativamente] invariante
per il sistema (3.1) se per ogni soluzione la condizione Y (t0 ) ∈ S per qualche t0 ∈ R
14
implica Y (t) ∈ S per ogni t ≥ t0 [t ≤ t0 ]. S si dice invariante se è sia positivamente
che negativamente invariante.
Teorema 3.2. [Invarianza, [11]]
(3.2)
hF (Y ), ~ni ≤ 0
∀ Y ∈ ∂S
Sia S ⊆ A un insieme chiuso per il quale risulta
e per ogni normale esterna ~n ad S in Y .
Allora S è positivamente invariante per il sistema (3.1).
Osservazione 3.3. Il Teorema ora enunciato è ancora valido se F dipende anche
dal tempo, purché ovviamente la condizione (3.2) sia verificata per ogni valore della
variabile temporale t.
Osservazione 3.4. Nel Teorema 3.2 non si fa nessuna ipotesi di regolarità sulla
frontiera di S, quindi l’insieme delle normali esterne in un punto della sua frontiera
puó anche essere costituito da piú vettori oppure essere vuoto. Infatti ~n si dice vettore
normale esterno ad S in Y se la sfera aperta di centro il punto Y + ~n e raggio |~n|
ha intersezione vuota con S. Ad esempio, se S è un rettangolo, ogni suo vertice
ha infinite normali che possono differire, non solo nella norma, ma anche nella
direzione; se S ha un vertice corrispondente ad un angolo maggiore di π, non ha
nessuna normale esterna in quel vertice.
Il seguente risultato mostra che nell’intorno di un equilibrio nel quale la matrice
Jacobiana ha tutti autovalori a parte reale non nulla, un sistema si comporta qualitativamente come il suo linearizzato, in particolare il sottospazio stabile e quello
instabile sono sostituiti da varietà che ne mantengono le proprietà qualitative e la
dimensione. L’interesse di tale teorema risulta chiaro dalle applicazioni. Si veda
a tale proposito la discussione delle proprietà qualitative del sistema (1.3) dove si
evidenzia l’effetto soglia della varietà stabile Ms della Figura 3.
Teorema 3.5. [Varietà stabile e instabile, [10]] Sia Y ∗ ∈ A un equilibrio per il
sistema (3.1) e in Y ∗ la matrice Jacobiana di F abbia k ≤ d autovalori a parte
reale negativa e d − k autovalori a parte reale positiva. Allora esiste una varietà k–
dimensionale E, differenziabile, positivamente invariante, avente come spazio tangente in Y ∗ il sottospazio stabile del linearizzato del sistema (3.1) in Y ∗ e per ogni
p ∈ E si ha Y (t; p) → Y ∗ per t → +∞ (da cui il nome di varietà stabile). Analogamente esiste una varietà (d − k)–dimensionale U , differenziabile, negativamente invariante, avente come spazio tangente in Y ∗ il sottospazio instabile del linearizzato
del sistema (3.1) in Y ∗ e per ogni p ∈ U si ha Y (t; p) → Y ∗ per t → −∞ (da cui il
nome di varietà instabile).
15
Poiché nello studio delle equazioni differenziali, in particolare di quelle con valore
applicativo, è importante prevedere il comportamento delle soluzioni al crescere del
tempo, risulta utile la seguente definizione:
Definizione 3.6. Sia p ∈ A. Se Y (t) = Y (t; p) è la soluzione di (3.1) che verifica
la condizione iniziale Y (0) = p, diremo insieme ω–limite di p il seguente
ω(p) := {q : ∃{tn }n∈N , t.c. tn → +∞ e Y (tn ) → q per n → ∞}.
La precedente definizione puó essere utilizzata per sistemi di ogni ordine e si
puó dimostrare che, se prendiamo il dato iniziale p in un compatto positivamente
invariante, l’insieme ω(p) è compatto, non vuoto, invariante e connesso.
Nel caso d = 2, quindi per sistemi di due equazioni, il Teorema che ora enunciamo
ci permette di descrivere l’insieme ω–limite di un punto in maniera abbastanza
semplice e certamente molto utile nelle applicazioni (vedere la dimostrazione del
Teorema 2.1).
Teorema 3.7. [Poincaré–Bendixson] Sia S un insieme compatto positivamente invariante per il sistema (3.1) di due equazioni (d = 2). Se S contiene un numero
finito di equilibri, per ogni p ∈ S è vera solo una delle seguenti affermazioni:
(1) ω(p) è un punto di equilibrio per (3.1);
(2) ω(p) è un’orbita periodica di (3.1);
(3) ω(p) è l’unione di punti di equilibrio di (3.1) e di orbite che li connettono.
Biforcazione di Hopf. Un meccanismo ricorrente che genera orbite periodiche in
un sistema dinamico è descritto dal seguente risultato.
Teorema 3.8. (Biforcazione di Andronov – Hopf, cfr. [8], [9], [10]). Sia F : R2 ×
(−α0 , α0 ) → R2 una funzione regolare (almeno C 4 , α0 > 0) e tale che F (0, α) = 0
per ogni α ∈ (−α0 , α0 ). Consideriamo il sistema differenziale
dY
= F (Y, α)
dt
Supponiamo che nel punto di equilibrio Y ∗ = 0 la matrice Jacobiana JF (0, α) abbia
(3.3)
autovalori λ± (α) = µ(α) ± iω(α), con µ(0) = 0, ω(0) = ω0 > 0. Supponiamo inoltre
che
(1) µ0 (0) 6= 0;
(2) per α = 0 è negativo [rispettivamente positivo] un coefficiente σ dipedendente dai soli termini di secondo e terzo ordine del polinomio di Taylor di
16
f in Y ∗ = 0, che determina l’asintotica stabilità [rispettivamente instabilità]
dell’equilibrio Y ∗ = 0.
Allora, con una trasformazione delle coordinate, del parametro e una riparametrizzazione del tempo, il sistema (3.3) si trasforma nel sistema equivalente
( 0
x = µ(α)x − ω(α)y + σx(x2 + y 2 ) + p(x, y, α)
(3.4)
y 0 = µ(α)y + ω(α)x + σy(x2 + y 2 ) + q(x, y, α)
dove p(·) e q(·) sono infinitesimi di ordine superiore al terzo in (x, y). Inoltre, per
α ∈ (−α00 , α00 ), α00 ∈ (0, α0 ) opportuno, le soluzioni del sistema hanno, in un intorno
di (0, 0) lo stesso comportamento qualitativo di quelle del sistema che si ottiene da
(3.4) ponendo p ≡ q ≡ 0 e quindi, se σ < 0 e µ0 (0) > 0 si ha:
(1) per α ∈ (−α00 , 0] l’equilibrio (0, 0) è localmente asintoticamente stabile;
(2) per α ∈ (0, α00 ) l’equilibrio (0, 0) è instabile ed esiste un’orbita attrattiva che
dipende con continuità da α.
Se σ > 0 e µ0 (0) > 0 si ha:
(1) per α ∈ (−α00 , 0) l’equilibrio (0, 0) è localmente asintoticamente stabile ed
esiste un’orbita repulsiva che dipende con continuità da α;
(2) per α ∈ [0, α00 ) l’equilibrio (0, 0) è instabile.
Nel caso sia µ0 (0) < 0 i valori di α per cui si ottengono i diversi risultati cambiano
di segno.
Osserviamo che il sistema (3.4) dove p(·) e q(·) siano infinitesimi di ordine superiore al terzo in (x, y), e quello che si ottiene da questo quando p ≡ q ≡ 0, sono
“topologicamente equivalenti” in un intorno di (0, 0), per α ∈ (−α00 , α00 ), α00 ∈ (0, α0 )
opportuno, cioè esiste un omeomorfismo tra le orbite di un sistema e dell’altro che
conserva la direzione crescente del tempo. Questo risultato vale in generale, purché
le funzioni in gioco siano sufficientemente regolari in (x, y, α), e non dipende dal
fatto che il sistema (3.4) sia ottenuto da un sistema del tipo (3.3).
La verifica che il comportamento delle soluzioni del sistema (3.4) per p ≡ q ≡ 0,
sia quello descritto nel Teorema 3.8 diventa molto semplice se si considerano coorp
dinate polari, quindi ρ(t) := x2 + y 2 e θ(t) := arctan ( xy ) per x > 0 e prolungata
opportunamente per gli altri valori di x. Con le sostituzioni x = ρ cos θ e y = ρ sin θ,
si ottiene, derivando
( 0
ρ cos θ − ρ sin θ θ0 = µ(α)ρ cos θ − ω(α)ρ sin θ + σρ3 cos θ ,
(3.5)
ρ0 sin θ + ρ cos θ θ0 = µ(α)ρ sin θ + ω(α)ρ cos θ + σρ3 sin θ .
17
Moltiplicando la prima equazione per cos θ e la seconda per senθ e sommando membro a membro, otteniamo il sistema
( 0
ρ = µ(α)ρ + σρ3 ,
(3.6)
θ0 = ω(α),
dove la seconda equazione si ottiene utilizzando la prima per semplificare l’espressione
delle equazioni del sistema precedente. Il sistema cosı́ ottenuto risulta facile da studiare essendo disaccoppiato e il suo comportamento dipende ovviamente dal segno
delle costanti che vi compaiono e coincide con quello descritto nel teorema.
Sottolineiamo come non sia restrittiva la condizione che per ogni α ∈ (−α0 , α0 ),
(0, 0) sia una soluzione stazionaria. Infatti, se l’equilibrio fosse Ye = Ye (α) 6= (0, 0),
ponendo Ỹ = Y − Ye (α) ci riporteremmo alle ipotesi del Teorema. Quindi nella
applicazione che segue applicheremo il teorema senza effettuare questa traslazione.
Osserviamo infine che esistono estensioni del Teorema di Andronov–Hopf al caso
di un sistema di d equazioni differenziali per il quale, in dipendenza da un parametro,
esiste una coppia di autovalori che hanno il comportamento qui richiesto nel caso
d = 2, mentre tutti gli altri autovalori hanno parte reale strettamente negativa.
Applicazione al sistema di FitzHugh–Nagumo. Nelle ipotesi del Teorema 2.1 si ottiene che il Teorema di Biforcazione di Andronov–Hopf si applica al sistema di
FitzHugh–Nagumo ponendo α := I − I1 , dove I1 è definito nel medesimo teorema.
Infatti, detta ue = ue (I(α)) = ue (I1 + α) la primacomponentedell’equilibrio per un
certo valore di α e quindi di I, si ha µ(α) = 21 T r J(ue (I(α))) . Allora, ricordando
la (2.4), si hanno
1
1 00
due (I)
µ(0) = Tr J(ue (I1 )) = 0 ,
µ0 (α) =
f (ue (I(α)))
,
2
2
dI
essendo dI(α)
= 1. Inoltre ue (I) è la funzione definita implicitamente dall’equazione
dα
(3.7)
HI (ue (I),I)
1
e (I)
= −H
= − f 0 (ue (I))−
H(u, I) = f (u) − ua + I = 0, quindi dudI
1 > 0 per
u (ue (I),I)
a
l’ipotesi (2.2). Ricordando che I(0) = I1 , si ottiene quindi
1 00
due (I1 )
f (ue (I1 ))
>0
2
dI
essendo f 00 (ue (I1 )) > 0 poiché f è una cubica convessa in (−∞, u∗ ) e ue (I1 ) ∈
µ0 (0) =
(−∞, u∗ ). Otteniamo segno opposto ripetendo il procedimento in un intorno di
I = I2 dove f è concava. Non verifichiamo qui la seconda ipotesi del Teorema di
Andronov–Hopf (di cui non abbiamo dato l’enunciato preciso), comunque in questo
caso si ottiene che, sia in I1 che in I2 , la biforcazione è sopracritica (σ < 0). Anche
il Teorema 2.1 assicura l’esistenza di almeno un’orbita periodica e per di più in
18
tutto l’intervallo (I1 , I2 ), mentre il Teorema di Andronov–Hopf solo in (I1 , I1 + α00 )
e (I2 − α00 , I2 ) (α00 > 0 opportuno). D’altra parte la conoscenza delle due diverse
tecniche di dimostrazione permette di affrontare situazioni differenti e la seconda
dà una descrizione più precisa della dinamica del sistema, seppur in un insieme più
ristretto di valori dei parametri. Infatti nel secondo caso otteniamo che almeno in
un intorno dell’equilibrio e per un insieme piú ristretto dei parametri esiste un’orbita
periodica attrattiva, mentre il Teorema 2.1 lascia aperte piú possibilità dando quindi
una descrizione meno precisa, come sottolineato nell’Osservazione 2.2 che segue il
teorema.
Bibliografia
[1] Edelstein-Keshet L., “Mathematical models in biology”, Reprint of the 1988 original. Classics in Applied Mathematics, 46. Society for Industrial and Applied Mathematics (SIAM),
Philadelphia, PA, 2005.
[2] Farkas M., “Periodic motions”, Applied Mathematical Sciences 104, Springer-Verlag 1994.
[3] Fenichel N., Geometric singular perturbation theory for ordinary differential equations, J. Differential Equations 31 (1979), no. 1, 53–98.
[4] Izhikevich E.M., “Dynamical systems in neuroscience: the geometry of excitability and bursting”, Computational Neuroscience. MIT Press, Cambridge, MA, 2007.
[5] Jordan D. W., Smith P., “Nonlinear ordinary differential equations. An introduction for scientists and engineers.” Fourth edition. Oxford University Press, Oxford, 2007.
[6] Keener, J.; Sneyd, J. “Mathematical physiology. Vol. I: Cellular physiology.” Second edition.
Interdisciplinary Applied Mathematics, 8/I. Springer, New York, 2009.
[7] Keener, J.; Sneyd, J. “Mathematical physiology. Vol. II: Systems physiology.” Second edition.
Interdisciplinary Applied Mathematics, 8/II. Springer, New York, 2009.
[8] Kuznetsov Y.A., “Elements of applied bifurcation theory”, Applied Mathematical Sciences
112, Springer Verlag 1995.
[9] Negrini P., Salvadori L., Attractivity and Hopf bifurcation, Nonlinear Analysis, T.M.A. 3
(1979), 87–99.
[10] Perko L., “Differential equations and dynamical systems”, Texts in Applied Mathematics 7,
Springer 1998.
[11] Walter W., “Ordinary differential equations”, Graduate Texts in Mathematics 182, Springer
1991.
[12] Verhulst F., Singular perturbation methods for slow-fast dynamics, Nonlinear Dynam. 50
(2007), no. 4, 747–753.