Giulia Giantesio

Transcript

Giulia Giantesio
UNIVERSITÀ DEGLI STUDI DI FERRARA
FACOLTÀ DI SCIENZE MATEMATICHE, FISICHE E
NATURALI
Corso di Laurea Triennale in
MATEMATICA
MODELLI MATEMATICI
PER LA CRESCITA TUMORALE
Relatore:
Chiar.mo Prof.
Josef Eschgfäller
Laureanda:
Giulia Giantesio
Anno Accademico 2006-2007
Indice
Introduzione
3
I.
CELLULE STAMINALI TUMORALI
1.
Ematopoiesi dei leucociti
5
2.
La leucemia mieloide cronica
7
3.
Cellule staminali tumorali
11
4.
Biologia generale dei tumori
14
5.
Alcune implicazioni
20
II.
L’ESPONENZIALE MATRICIALE
6.
Funzioni di matrici ed esponenziale matriciale
21
7.
Il polinomio minimale di una matrice
25
8.
Matrici che soddisfano un’equazione quadratica
30
9.
Formule che utilizzano serie ipergeometriche
34
10.
Interpolazione di Hermite
46
11.
La formula spettrale di Sylvester-Buchheim
57
12.
Matrici che soddisfano un’equazione cubica
61
13.
L’algoritmo di Parlett-Koç per matrici triangolari
64
14.
La rappresentazione di Wronski-Vandermonde
74
15.
Metodi di Runge-Kutta
80
III.
FUNZIONI DI CRESCITA
16.
La distribuzione esponenziale
82
17.
Dinamica della leucemia mieloide cronica
84
18.
Funzioni di crescita
88
19.
Differenziazione numerica
Bibliografia
103
108
1
2
Introduzione
Questa tesi contiene alcuni strumenti matematici utili per descrivere la dinamica dei processi tumorali e per valutare gli effetti di una
terapia.
La ricerca sul cancro è attualmente incentrata sull’analisi dei meccanismi coinvolti nella genesi e nella crescita di tumori al fine di sviluppare nuovi approcci terapeutici e di prolungare la vita del paziente.
Perciò, prima di iniziare la trattazione matematica, abbiamo dedicato i primi cinque capitoli alla spiegazione e descrizione medica di
alcuni termini e processi biologici inerenti ai fenomeni tumorali.
Nella parte biomatematica contenuta negli ultimi quattro capitoli, ci proponiamo di analizzare alcuni dei recenti modelli matematici
riguardanti la dinamica tumorale. In particolare nel capitolo 17 descriveremo il modello sviluppato da Franziska Michor e colleghi per
la dinamica della leucemia mieloide cronica; mentre nel capitolo 18
caratterizzeremo, a partire dal modello logistico e dall’equazione di
Gompertz, alcune classi di funzioni di crescita in parte nuove insieme ad alcune tecniche elementari, ma possibilmente piuttosto utili, di
adattamento terapeutico. Questa idea viene ulteriormente elaborata
nell’ultimo capitolo in cui presentiamo un metodo di interpolazione e
differenziazione numerica basato sull’interpolazione di Hermite che si
presta all’analisi e al controllo delle funzioni di crescita.
La parte matematica centrale della tesi è dedicata allo studio della
funzione esponenziale matriciale. Questo è dovuto da un lato al fatto
che molti modelli della biomatematica si fondano su sistemi di equazioni differenziali ordinarie lineari a coefficienti costanti, quindi della
forma Ẋ = AX che possiede la soluzione X(t) = X(0)eAt .
Dall’altro lato, l’esponenziale matriciale appare in molti campi della
matematica pura e applicata. Il calcolo di eAt è anche oggi un argomento attuale dell’analisi numerica, sia per la ricerca di formule esplicite a cui anche nella tesi abbiamo dato molto spazio, sia per alcuni
risvolti teorici. I lavori citati in bibliografia (ad esempio Apostol, Davies/Higham, Higham [S], Moler/Van Loan) mostrano l’interesse dei
matematici per questo tema.
Dopo aver definito, nel capitolo 6, le funzioni matriciali e l’esponenziale matriciale nel campo complesso, si passa nel settimo capitolo allo
studio delle proprietà dei polinomi minimale e caratteristico di matrici
quadrate. Grazie a questi polinomi, si riescono a dimostrare nel capitolo 8 le prime formule per il calcolo di eAt per una matrice A che
soddisfa un’equazione quadratica. Nel successivo capitolo, partendo
dall’interpolazione di Lagrange deriviamo alcuni legami con le serie
ipergeometriche che forse possono essere approfondite.
Nel capitolo 10, si definisce il polinomio d’interpolazione di Hermite
e si dimostra un semplice algoritmo ricorsivo per il suo calcolo. Inoltre
definiamo uno schema alle differenze molto utile per il calcolo di questo polinomio d’interpolazione. Il polinomio di Hermite sarà utilizzato
3
per ricavare formule esplicite per l’esponenziale di una matrice nei
successivi due capitoli e, nell’ultimo capitolo, per lo studio di funzioni di crescita tumorali. Infatti, tramite l’interpolazione di Hermite, nel
capitolo 11 si dimostra la fondamentale formula spettrale di SylvesterBuchheim. Nel capitolo 12 troviamo cosı̀ formule esplicite per il calcolo
dell’esponenziale di una matrice che soddisfa un’equazione cubica.
Il tredicesimo capitolo è dedicato all’algoritmo di Parlett-Koç, molto
efficace per il calcolo dell’esponenziale di una matrice triangolare (matrici triangolari inferiori appaiono spesso nei modelli compartimentali
della biomatematica).
Il capitolo 14 è dedicato alla classica rappresentazione di WronskiVandermonde, mentre il capitolo 15 contiene una breve introduzione
al metodo di Runge-Kutta, che sarà usato nelle sperimentazioni numeriche.
Nonostante gli immensi sforzi degli ultimi decenni il cancro rimane uno dei più terribili nemici dell’uomo. Ciò è naturalmente dovuto
al fatto che la malattia è legata ai segreti più profondi della vita; esistono però anche critiche all’organizzazione della lotta contro il cancro. Talvolta ad esempio si ha l’impressione che la ricerca sia troppo
concentrata nelle grandi istituzioni e che nuove idee o nuovi farmaci
facciano fatica ad aver successo (cfr. Leaf, Moss e, per la situazione
italiana, De Filippis Russo). Cosı̀ ad esempio solo una minima parte
della ricerca è rivolta allo studio delle metastasi, uno degli aspetti più
temuti del cancro! È forse anche trascurata, misurata con l’enorme
portata del problema, la prevenzione, benché an ounce of prevention
is worth a pound of cure, come cita Paul Talalay dall’almanacco di
Benjamin Franklin di 250 anni fa. Il capitolo introduttivo del libro di
Pelengaris/Khan contiene un’esposizione moderna dello stato attuale
della ricerca sul cancro.
Per un’esposizione degli aspetti statistici ed epidemiologici apparsi
nel 2007 rimandiamo all’articolo di Hayat/Howlader/Reichman/
Edwards.
Molti dei più attuali modelli matematici in oncologia sono descritti
nel libro di Wodarz/Komarova, per un analisi della crescita e progressione tumorale con gli strumenti della fisica matematica indichiamo
Sherratt/Chaplain e la raccolta di articoli pubblicati a cura di Luigi
Preziosi.
L’immensa importanza umana del problema dovrebbe indurre più
matematici a dedicarsi ad esso e a non ignorarlo, o perché si ritiene
che non si possa fare nulla oppure che i modelli che si potrebbero sviluppare siano irrilevanti perché troppo elementari per un matematico
di professione. Infatti anche modelli elementari possono essere molto utili per lo studio della malattia, per l’ottimizzazione di strategie
di terapia, per il disegno di nuovi farmaci. Quindi i matematici non
dovrebbero ignorare il campo medico, ma al contrario farsi coraggio e
non averne paura: molto può fare la matematica!
4
I. CELLULE STAMINALI TUMORALI
1. Ematopoiesi dei leucociti
Nota 1.1. L’ematopoiesi è il processo di formazione, differenziazione e
maturazione delle cellule del sangue e degli altri elementi formati nel
sangue. Il processo dell’ematopoiesi non è ancora del tutto capito. Esso
inizia con una cellula staminale pluripotente che dà origine a cascate
separate di cellule. Questa cellula staminale emopoietica è rara, circa
una in 20 milioni di cellule che si trovano nel midollo osseo, un organo
sparso estremamente prezioso e delicato, che è responsabile della produzione, della differenziazione e della crescita delle cellule del sangue.
Il midollo osseo è situato esclusivamente nelle ossa dello scheletro e in
età giovanile è essenzialmente midollo osseo rosso che più tardi viene progressivamente sostituito da quello giallo, dovuto a un aumento
nelle cellule adipose e una riduzione degli elementi emopoietici. Le
cellule staminali hanno la capacità di autorinnovarsi.
La differenziazione cellulare avviene tramite progenitori separati
per ogni linea cellulare che hanno una capacità ristretta di svilupparsi. L’esistenza di cellule progenitrici separate può essere dimostrata
nelle culture in vitro. Progenitrici molto giovani si trovano nelle culture a lungo termine dello stroma, un tessuto connettivo fibroso del
midollo osseo.
Il midollo osseo è anche il sito principale dell’origine dei linfociti, che
si differenziano da cellule staminali linfoidi. Un uomo adulto possiede
circa 1012 linfociti, di cui 109 muoiono ogni giorno e vengono sotituiti
dal sistema emopoietico.
I granulociti derivano dalla differenziazione di apposite progenitrici
(CFU-GM), mentre i megakariociti sono gigantesche cellule di circa
100 µm di diametro con un grande nucleo contente alcuni nucleoli.
Il midollo osseo forma un ambiente favorevole per la sopravvivenza, la crescita e lo sviluppo delle cellule staminali. È composto dalle
cellulle stromali e da una rete microvascolare. Le cellule stromali includono adipociti, fibroblasti, cellule endoteliali, macrofagi e molecole
extracellulari secrete da esse come il collagene, le glicoproteine e glicosaminoglicani per formare una matrice extracellulare.
Il componente ematopoietico, o parenchima, del midollo osseo consiste di un gran numero di cellule formate del sangue a vari stadi
di sviluppo, differenziazione e crescita, colmando gli spazi tra gli elementi dei componenti vascolari. Le cellule reticolari del midollo osseo
sopportano gli elementi ematopoietici e sintetizzano le fibre reticolari.
Nota 1.2. L’ematopoiesi inizia con la divisione delle cellule staminali
nella quale una cellula figlia rimpiazza la cellula staminale e l’altra
è assegnata alla differenziazione; quali cascate di cellule sono scelte
per la differenziazione dipende sia dal cambiamento sia dai segnali
5
esterni ricevuti dalle cellule progenitori.
Riassumiamo le fasi principali dell’ematopoiesi nella seguante tabella, seguendo Hoffbrand/Moss/Pettit. In essa mancano molti stadi
intermedi; la derivazione delle cellule, deducibili della linea CFU-M
sembra che non sia certa. Le abbreviazioni BFU e CFU, comunemente
usate, significano burst forming unit e colony forming unit.
cellule staminali emopoietiche pluripotenti (CFU-GEMML)
progenitrici mieloidi miste (CFU-GEMM)
BFU-E
BFU-Meg
CFU-E
CFU-Meg
eritroblasti
megacariociti
staminali linfoidi
CFU-GM
CFU-M
linfociti adattivi
CFU-G
T
eritrociti
piastrine
monociti
dendr.
6
eos.
bas.
neutr.
NK
helper
citotoss.
B
2. La leucemia mieloide cronica
Nota 2.1. Seguiamo in questo capitolo, nella parte generale, soprattutto il libro di Castoldi/Liso. Alcuni dati qualitativi sono presi da Poissinger/Regierer.
La leucemia mieloide cronica (LMC, in inglese CML) è un disordine ematopoietico provocato da una trasformazione neoplastica della
cellula staminale pluripotente. Questa malattia corrisponde a circa il
15% delle leucemie e può svilupparsi ad ogni età, più frequentemente
comunque tra i 40 e i 60 anni. La diagnosi della LMC è difficile cosı̀
come la terapia (allo stato attuale infatti le leucemie croniche sono più
difficili da curare delle leucemie acute, cfr. Hoffbrand/Moss/Pettit, pag.
174). La LMC si contraddistingue per una presenza caratteristica del
cromosoma Philadelphia (Ph).
Non sembra però chiaro se si tratta di una lesione dovuta alla progressione della malattia che appare a partire dalla fase cronica, oppure se, come altri espirimenti sembrano indicare, la presenza del cromosoma Philadelphia sia un fattore che può provocare la LMC.
Si distinguono quattro fasi della malattia: una fase iniziale a decorso
lento, in cui la leucemia è spesso asintomatica e in cui possono passare
da 2 a 10 anni dall’inizio biologico della malattia alla diagnosi che in
genere avviene nella successiva fase cronica in cui si osservano specifiche anomalie cromosomali e molecolari. Questa fase normalmente
è sintomatica: leucocitosi elevata, splenomegalia (nel 75% dei pazienti), epatomegalia (nel 50%), tensione addominale, ipermetabolismo
con perdita di peso e astenia; si osserva una forte proliferazione delle
CFU-GM e CFU-G (cfr. la tabella nella nota 1.2) e un soprannumero
sempre più marcato delle cellule Ph+ (in cui cioè è presente il cromosoma Philadelphia). Una fibrosi midollare rappresenta un elemento
prognostico sfavorevole. Nella fase accelerata (descritta più dettagliatamente a pag. 219 del libro di Castoldi/Liso) si notano un accentuarsi
dei sintomi e nuove anomalie cromosomiche, mentre la terapia diventa sempre più difficile. La fase blastica terminale dura circa 6 mesi e
porta nel 90% dei casi alla morte del paziente. Solo in relativamente
pochi casi è possibile un ritorno alla fase cronica.
Una delle cause più probabili della LMC è l’esposizione a radiazioni
ionizzanti; come osservano Castoldi e Liso, prima dell’introduzione di
appositi sistemi di protezione, l’incidenza della LMC nei medici radiologi era nove volte superiore rispetto alla popolazione normale, mentre
un anologo aumento della LMC si è osservato nei sopravvissuti alle
bombe di Hiroshima e Nagasaki.
Alcune varianti della LMC sono la leucemia mieloide cronica Ph−
(si trova prevalentemente nei soggetti maschili anziani e ha un tempo
di sopravvivenza minore), la LMC giovanile, la leucemia eosinofilica
e neutrofilica e la leucemia mielomonocitica cronica. Nella LMC Ph−
si è dimostrata la presenza di una variante dell’accoppiamento BCRABL molto simile dal punto di vista funzionale a quello classico.
7
Nota 2.2. Il cromosoma Ph deriva da una reciproca combinazione tra i
cromosomi 9 e 22, in cui una parte del proto-oncogene c-ABL si muove
verso il gene BCR del cromosoma 22 e una parte del cromosoma 22
si muove verso il cromosoma 9. Questa 9;22-traslocazione si trova in
circa il 95% dei casi della LMC ed è descritta molto schematicamente
nella figura.
^
9
22 = Ph
Dalla traslocazione nasce un nuovo gene BCR-ABL che codifica per
una fosfoproteina di grandezza 210 kD, mentre l’ABL normale produce una proteina di 145kD. La proteina patologica ha un’attività tirosinochinasica maggiore di quella della proteina normale.
Come osservano gli autori citati, la fosfoproteina anomala può fosforizzare molti substrati, attivando cosı̀ una cascata di segnali di trasduzione i quali a loro volta regolano crescita e differenziazione delle
cellule.
Alcuni dettagli in più sui siti di rottura nei cromosomi 9 e 22 si
trovano in Macdonald/Ford/Casson, pagg. 178-181, un’esposizione più
completa in Deininger/Goldman/Melo.
Mutazioni nel gene BCR-ABL che possono portare a resistenza sono
discusse in Chu/. . ./Bhatia.
Nota 2.3. Per curare la leucemia mielode cronica si possono scegliere
diverse strade, come la chemioterapia ad esempio con il busulfano, un
alchilante mielodepressivo che miglora notevolmente il grado ematologico e quindi anche la quantità della vita dei pazienti, ma non riesce
a ritardare la crisi blastica, il trattamento con l’interferone α (usato
di solito dopo o in combinazione con la chemioterapia) e il trapianto
allogeno di midollo osseo tanto efficace quanto rischioso, in quanto il
trattamento riesce a curare la malattia nel 50% dei casi, ma può essere
fatale (con una mortalità che arriva al 25%) ed è comunque proponibile
solo nel 15% circa dei pazienti, ma di solito da alcuni anni si preferisce
per la sua efficacia e la buona tollerabilità il trattamento con imatinib.
La terapia dovrebbe iniziare il più presto possibile.
Se però il trapianto è possibile, secondo Deininger, pag. 180, bisogna spiegare al paziente che l’imatinib non riesce ad eliminare completamente la leucemia, che la terapia dovrà durare tutta la vita e
che esiste il rischio di un’improvvisa apparizione di cloni resistenti e
progressione in fase blastica.
Tutti i trattamenti sono efficaci solo nella fase cronica; sembra che
non esista una terapia nella fase blastica anche se talvolta alte dosi
di imatinib riescono a indurre un ritorno alla fase cronica (cfr. Castoldi/Liso, pag. 224).
8
Nota 2.4. L’introduzione di inibitori dell’attività tirosinochinasica ha
rivoluzionato la terapia della leucemia mieloide cronica (Castoldi/Liso,
pag. 222).
L’imatinib è una droga usata nel trattamento di diversi tipi di tumori che viene utilizzata anche in alcuni tumori del cervello e in rari tumori gastrointestinali. L’imatinib, chiamato anche STI571 (STI=signal
transduction inhibitor) e, come prodotto commerciale della Novartis,
Gleevec o Glivec, è un inibitore della BCR/ABL tirosino proteina chinasi che agisce mediante un blocco dell’ATP, la molecola che governa la
dinamica energetica della cellula. È stato identificato alla fine del 1990
e, negli Stati Uniti, è stato approvato come trattamento per la LMC,
proprio per la sua efficacia. L’imatinib è una 2-fenilaminopirimidina
la cui formula è rappresentata nella figura.
Una dose di 400 mg al giorno è capace di produrre una remissione
ematologica completa in quasi tutti i pazienti riducendo fortemente il
numero delle cellule tumorali nel midollo osseo. Purtroppo questa remissione è soltanto temporanea. Infatti, molti tumori sviluppano resistenza alla droga. In alcuni casi la resistenza coinvolge l’amplificazione
del gene BCR-ABL, mentre in altri i cambiamenti rendono questa proteina meno sensibile agli inibitori.
Gli effetti tossici dell’imatinib riguardano il fegato, l’apparato gastroenterico e il sistema nervoso, provocando esantemi, ritenzione di
liquidi, tensioni muscolari e nausea.
La terapia può provocare neutropenia e trombocitopenia che talvolta costringe a una riduzione della dose.
La LMC generalmente mostra una buona reazione all’imatinib soprattutto nella fase cronica e riesce a prolungare la sopravvivenza dei
pazienti.
Per più dettagli si cfr. Hoffbrand/Moss/Pettit, pagg. 177-179, e Deininger/Buchdunger/Druker.
Osservazione 2.5. Due nuovi farmaci, il dasatinib (BMS-354825, svi9
luppato dalla Bristol-Myers-Squibb) e l’AMN107 sembrano poter competere con l’imatinib; cfr. Shah/. . ./Sawyers, Weisberg/. . ./Griffin e
O’Hare/Corbin/Druker. Si tratta ancora di inibitori della tirosinochinasi BCR-ABL promettenti soprattutto nella possibilità di superare i fenomeni di resistenza. Nonostante ciò sembra che anche queste nuove
sostanze non siano in grado di eliminare completamente le cellule staminali tumorali; gli autori citati prospettano quindi l’utilizzo di un
cocktail di inibitori per evitare la formazione di classi resistenti.
Nel lavoro di Rea/. . ./Rousselot è descritto uno studio clinico su una
terapia combinata in cui l’imatinib viene somministrato a una dose
doppia (800 mg al giorno) rispetto a quella normale.
10
3. Cellule staminali tumorali
Nota 3.1. La scoperta di cellule staminali tumorali ha rivoluzionato gli studi sulla carcinogenesi e promette di aprire nuove vie per la
chemioterapia tumorale. Si tratta attualmente di uno dei campi più
attivi della ricerca sul cancro; seguiamo in questo capitolo soprattutto
i lavori di Dean/Fojo/Bates e Rea/. . ./Weisman.
Le cellule staminali sono definite come quelle cellule che hanno
l’abilità di perpetuarsi attraverso l’autorinnovamento; da esse discendono le cellule mature dei vari tessuti attraverso diversi stadi di differenziazione. Le cellule staminali sono rare ed è molto difficile poterle
identificare, mentre la loro origine è ancora sconosciuta.
Probabilmente anche tra le cellule staminali esiste una gerarchia
che va da cellule che possono produrre qualsiasi tipo di cellula e sono
chiamate pluripotenti a cellule staminali più specializzate.
Il tempo di duplicazione delle cellule staminali è relativamente lungo rispetto a quello dei progenitori.
Durante la divisione da una cellula staminale nascono due cellule
figlie: una del tutto uguale alla cellula madre, la seconda destinata a
diventare progenitrice di una linea cellulare tissutale specifica che si
evolve attraverso la differenziazione cellulare.
Nota 3.2. Le cellule staminali sono alla base di molti meccanismi di
riparazione dei tessuti, inoltre la loro capacità di divisione e autorinnovamento è cruciale per il mantenimento di un giusto stato di equilibrio (omeostasi) degli organi; infatti un organo sano mantiene un
normale equilibrio controllando le diverse cellule per riparare lesioni
all’organo.
Siccome le cellule di molti organi vengono continuamente rinnovate,
ciò richiede un preciso meccanismo di proliferazione e distruzione che
in più deve essere in grado di reagire in modo appropriato a situazioni
nuove in seguito a traumi o particolari esigenze fisiologiche.
Per conservare le loro caratteristiche biologiche e per garantire e
regolare la divisione cellulare asimmetrica descritta nella nota 3.1, le
cellule staminali hanno bisogno di un microambiente stabile e favorevole che prende il nome di nicchia staminale, descritto ad esempio
in Fuchs/Tumbar/Guasch, Schulz, pagg. 185-191 e Clarke/Fuller. Nel
caso delle cellule staminali tumorali probabilmente è decisivo se esse
riescono a trovare o crearsi un tale ambiente favorevole.
Nota 3.3. Si può supporre che ci siano parallele tra le cellule staminali normali e quelle tumorali: che abbiano quindi meccanismi simili
che regolano l’autorinnovamento attraverso una gerarchia di cellule
sempre più specializzate. La grande massa delle cellule tumorali deriverebbe dalle cellule staminali tumorali, che risultano cosı̀ decisive
per la progressione della malattia.
Il ruolo delicato delle cellule staminali normali nel mantenimento
dell’omeostasi e i complessi meccanismi di riparazione di cui dispon11
gono le rende probabilmente spesso il bersaglio degli eventi che conducono a una trasformazione maligna.
In questo senso un tumore può essere visto come un organo aberrante governato da un compartimento di cellule staminali trasformate le
quali, fino a quando non sono completamente eradicate, continuano ad
essere in grado di rigenerare il tumore.
Una caratteristica importante per le strategie di terapia è che le
cellule staminali sia normali che tumorali dispongono di meccanismi
di protezione più efficaci delle cellule specializzate (ad esempio nelle
cellule staminali sono spesso fortemente espressi i geni per sistemi
di trasporto con cui la cellula riesce a liberarsi di sostanze tossiche e
quindi anche di farmaci tumorali) e sono quindi molto più resistenti alla chemioterapia che quindi spesso riesce (come abbiamo visto nel caso
della leucemia mieloida cronica) ad eliminare la grande massa delle cellule tumorali, ma non è in grado di distruggere il compartimento
staminale. Nelle cellule staminali tumorali molto probabilmente si aggiungono mutazioni patologiche che possono a loro volta causare una
maggiore resistenza.
Nota 3.4. Cellule staminali tumorali sono state identificate per la prima volta in alcuni tipi di leucemia nel 1997, mentre nel 2003 sono
state trovate cellule staminali in tumori al seno (cfr. Dick, al-Hajj/. . ./
Clarke) e ancora più recentemente in tumori del cervello, delle ossa
e in teratocarcinomi. Nel 2007 sono state isolate per la prima volta
cellule staminali del tumore del pancreas.
Osservazione 3.5. I biologi non sono sicuri ancora di come le cellule staminali (normali o tumorali) acquisiscono le loro caratteristiche
particolari.
Si è visto comunque recentemente, quando si sono isolate celulle
staminali tumorali, che esse costituiscono solo una piccolissima parte
dell’intera massa del tumore e che ne bastano poche per generare un
nuovo cancro, mentre la maggior parte delle cellule tumorali non ne è
in grado.
In base a queste considerazioni Kathryn Packman ha sviluppato un
nuovo modello del cancro che differisce sostanzialmente dal vecchio:
Vecchio modello:
(1) Tutte le cellule del tumore possono formare nuovi tumori.
(2) Crescita sregolata attribuita a eventi genetici.
(3) Cancro è un malessere proliferativo.
Nuovo modello:
(1) Solo poche cellule del cancro possono formare nuovi tumori.
(2) Crescita sregolata attribuita a difetti nei meccanismi nel rinnovo delle cellule staminali.
(3) Cancro è un disordine delle cellule staminali.
12
Un tentativo di definire cellule staminali pretumorali capaci di un’evoluzione
sia benigna che maligna che potrebbero essere i precursori delle cellule staminali tumorali si trova in un recente lavoro di Chen/. . ./Gao.
Osservazione 3.6. Il concetto di cellula staminale tumorale aprirà
sicuramente nuove strade per la terapia.
Analizzando infatti le caratteristiche particolari di queste cellule si
possono sviluppare farmaci che attaccano specificamente le cellule che
hanno quelle proprietà.
Allo stato attuale comunque bisogna aggiungere che in alcuni tumori (ad esempio del rene, del pancreas, del colon) la chemioterapia
non riesce a ridurre in modo decisivo nemmeno il numero delle cellule
tumorali comuni.
Osservazione 3.7. Molti scienziati pensano che anche le mutazioni di
un tumore risalgano spesso a cellule staminali tumorali che talvolta,
in accordo con le loro proprietà biologiche, possono rimanere quiescenti per molti anni e causare metastasi ritardate; cfr. Bördlein.
13
4. Biologia generale dei tumori
Nota 4.1. Nell’organizzazione generale di questo capitolo seguiamo
l’articolo di Hanahan/Weinberg.
Il cancro è una malattia che ha origine da cambiamenti nel genoma.
Le mutazioni più facilmente identificabili riguardano gli oncogeni e i
geni soppressori della crescita.
Hanahan e Weinberg prospettano per il futuro una nuova impostazione delle ricerche sul cancro che si spera che potrà diventare una
scienza logica che cerca di capire la malattia individuandone un piccolo numero di principi astratti.
In questo processo di messa a punto dei concetti fondamentali forse
anche il matematico può avere il suo ruolo, contribuendo con metodi
analitici (come in questa tesi) o statistici classici oppure importando
nella ricerca medica strumenti della matematica pura come le reti di
Petri o la teoria dei sistemi.
Nel seguito spiegheremo le regole che governano la trasformazione
di cellule normali umane in maligne, mentre vedremo che il cancro è
un processo a più tappe tipicamente associate a specifiche alterazioni
genetiche.
Il problema del cancro non è comunque difficile solo per la numerosità dei fattori e processi coinvolti, ma anche perché non si tratta
di una singola malattia, ma di un’intera classe di malattie spesso con
caratteristiche biologiche molto diverse.
Esse hanno in comune uno sregolamento della cooperazione bilanciata tra i fattori che stimolano la crescita dei tessuti e i fattori che
controllano e limitano la crescita. Quando i geni che producono questi
fattori subiscono mutazioni, nel primo caso possono diventare oncogeni e provocare una crescita incontrollata; se i geni soppressori sono
mutati, essi a loro volta non sono più in grado di regolare la crescita e
di impedire la successiva trasformazione maligna.
Questo meccanismo spiega anche perché in genere è sufficiente la
mutazione di un solo allele per attivare un oncogene, mentre affinché
l’azione di un sopressore venga compromessa la mutazione deve riguardare entrambi gli alleli (per questa ragione persone in cui per un
difetto genetico solo uno dei due alleli soppressori funziona bene, sono
particolarmente a rischio di perdere questa protezione).
Per un’esposizione più approfondita delle conoscenze attuali su oncogeni e geni soppressori rimandiamo ai libri di Macdonald/Ford/Casson
e Pelengaris/Khan che contengono anche capitoli su alcuni degli altri
temi che adesso toccheremo molto brevemente (apoptosi, telomeri, instabilità genetica, angiogenesi, ciclo cellulare).
Nota 4.2. Molti tipi di cancro sono noti nel genere umano; qui di seguito riportiamo alcuni dati del 2006 riguardanti gli USA, presi dalla
tabella del NCI.
14
Nuovi casi stimati nel 2006
Cavità orali e faringe
Esofago
Stomaco
Colon e retto
Fegato e dotti biliari
Pancreas
Laringe
Polmone e bronchi
Melanoma della pelle
Seno
Cervice (utero)
Endometrio (utero)
Ovaie
Prostata
Testicoli
Vescica urinaria
Rene e bacini renali
Cervello e altri nervi
Tiroide
Linfoma Hodgkin
Linfoma non-Hodgkin
Mieloma
Leucemia
Morti stimate nel 2006
uomini
donne
uomini
donne
20.180
11.260
13.400
72.800
12.600
17.150
7.700
92.700
34.260
1.720
10.810
3.290
8.880
75.810
5.910
16.580
1.810
81.770
27.930
212.920
9.710
41.200
20.180
5.050
10.730
6.690
27.870
10.840
16.090
2.950
90.330
5.020
460
2.380
3.040
4.740
27.300
5.360
16.210
790
72.130
2.890
40.970
3.700
7.350
15.310
234.460
8.250
44.690
24.650
10.730
7.590
4.190
30.680
9.250
20.000
16.730
14.240
8.090
22.590
3.610
28.190
7.320
15.070
27.350
370
8.990
8.130
7.260
630
770
10.000
5.680
12.470
4.070
4.710
5.560
870
720
8.840
5.630
9.810
Trasformiamo la tabella in diagrammi a trapezio, in cui il lato superiore si riferisce agli uomini, il lato inferiore alle donne, mentre la parte
scura corrisponde alla mortalità.
Hodgkin
linfomi non-Hodgkin
vescica urinaria
cervice dell’utero
rene
mieloma
sistema nervoso
corpo dell’utero
leucemie
tiroide
melanoma
ovaia
testicoli
mammella
prostata
fegato
bocca e faringe
pancreas
esofago
laringe
polmoni
stomaco
colon e retto
15
Nota 4.3. Esistono notevoli differenze tra i vari paesi. I seguenti biprofili corrispondono alla tabella a pag. 3 in Schulz; sono indicate le mortalità per alcune forme di tumore secondo zone geografiche. Dall’alto
in basso: Europa occidentale, Nordamerica, Sudamerica, Cina, Africa,
media mondiale.
cervice dell’utero
prostata
seno
fegato
polmoni
stomaco
colon
Nota 4.4. Le cellule cancerose sono caratterizzate da un difetto nei
circuiti regolatori che governano la proliferazione e l’omeostasi delle
cellule normali.
Si conoscono più di 100 tipi diversi di cancro e numerosi sottotipi.
Nonostante questa complessità si possono evidenziare sei alterazioni
essenziali nella fisiologia cellulare, probabilmente presenti in tutti i
tipi di cancro.
• Autosufficienza rispetto ai segnali di crescita.
• Insensibilità ai segnali che limitano la crescita.
• Capacità di evitare la morte programmata (apoptosi).
• Capacità illimitata di autoreplicazione.
• Angiogenesi tumorale.
• Invasione dei tessuti vicini e formazione di metastasi.
Nota 4.5. Autosufficienza nei segnali di crescita.
Le cellule normali necessitano di un segnale di crescita mitogenico
prima di passare da uno stato di quiescenza a uno di proliferazione.
Questi segnali sono accolti dalle cellule tramite recettori specifici, i
quali trasmettono il segnale all’interno. Nell’assenza di questi segnali
cellule normali non possono proliferare.
16
Molti oncogeni agiscono imitando questi segnali, cosicché la cellula
cancerosa diventa indipendente dagli stimoli provenienti dall’ambiente.
Più specificamente, per realizzare questa indipendenza si osservano
tre diverse strategie: l’alterazione dei segnali di crescita extracellulari, l’alterazione dei trasduttori transcellulari di questi segnali oppure
dei circuiti intracellulari che traducono questi segnali in risposte proliferative.
Nei tessuti normali, le cellule sono stimolate a crescere da quelle
vicine o da segnali sistemici e infatti anche nei tumori si osserva, oltre
all’autosufficenza, che si stabiliscono dei meccanismi di cooperazione
tra le cellule (cancerose e non), e spesso le cellule tumorali acquisiscono l’abilità di cooptare i loro normali vicini inducendoli a rilasciare
segnali necessari per la crescita tumorale.
Nota 4.6. Insensibilità ai segnali che limitano la crescita.
Nei tessuti normali, una varietà di segnali antiproliferativi agisce per
mantenere le cellule in quiescenza proliferativa e garantire l’omeostasi
nei tessuti; questi segnali includono sia inibitori solubili sia inibitori
immobilizzati nella matrice extracellulare e sulla superficie di cellule
vicine.
Anche questi segnali inibitori agiscono attraverso un sistema di ricettori trasmembrana associati a circuiti a cascata all’interno delle
cellule.
Questi stimoli possono bloccare la proliferazione attraverso due meccanismi distinti: o le cellule escono dal ciclo di proliferazione entrando
in uno stato di quiescenza da cui possono successivamente rientrare in
un ciclo, oppure perdono definitivamente la capacità di proliferazione
passando a uno stato postmitotico differenziato.
Le cellule del cancro allo stato iniziale devono quindi eliminare o
evadere questi segnali, ad esempio attraverso mutazioni che compromettono i geni responsabili della produzione della molecola associata
ai segnali inibitori.
Molti dei meccanismi che le cellule tumorali utilizzano a questo scopo sono però ancora sconosciuti.
Nota 4.7. Capacità di evitare la morte programmata (apoptosi).
L’abilità della popolazione cellulare tumorale di espandersi non è determinata solo dalla rata di proliferazione ma anche dalla resistenza
alla morte programmata (apoptosi) presente seppur in forma latente,
in quasi tutte le cellule del corpo umano. Il programma apoptico si basa su due componenti: i sensori, attraverso i quali la cellula percepisce
l’ambiente interno ed esterno rivelando condizioni che determinano se
la cellula deve continuare a vivere oppure morire, e gli effettori, ad esempio la proteina p53, che a sua volta causa il rilascio di citocromo C,
un potente catalizzatore dell’apoptosi, e le caspasi che in un meccanismo a cascata completano il programma di distruzione.
La resistenza all’apoptosi può essere acquisita dalle cellule del can17
cro in più modi, tra cui forse il più importante è la soppressione della
proteina p53.
Viceversa alcune delle terapie più moderne cercano di indurre le
cellule tumorali all’apoptosi.
Nota 4.8. Capacità illimitata di autoreplicarsi.
Cellule in culture hanno un potenziale finito di replicarsi, infatti dopo
essersi duplicate un certo numero di volte smettono di crescere.
Al contrario, molte cellule tumorali che si propagano nelle culture
sembrano essere immortali, e da questo si deduce che la capacità illimitata di riprodursi è un fenotipo che si acquisisce durante la progressione tumorale in vivo e ed è essenziale per capire lo stato maligno di
crescita.
Queste osservazioni suggeriscono che, a un certo punto dell’evoluzione tumorale, la popolazione premaligna delle cellule raggiunge il
numero consentito di duplicazioni e può completare la strada verso il
cancro solo superando questo limite e acquisendo un potenziale illimitato di replicazione.
Ciò potrebbe avvenire attraverso la conservazione (in questo contesto patologica perché favorisce il cancro) delle estremità dei cromosomi (i telomeri) i quali dopo ogni divisione cellulare fisiologica vengono
accorciati (di circa 50-100 coppie di basi) comportando, dopo un certo
numero di replicazioni, l’incapacità della cellula di dividersi ancora.
Nota 4.9. Angiogenesi tumorale.
Le cellule del nostro corpo hanno bisogno di nutrimento e ossigeno
forniti nei tessuti dei vasi sanguigni. Ciò vale anche per le cellule cancerose. Queste però inizialmente non sono in grado di stimolare la crescita di nuovi vasi sanguigni e devono acquisire questa capacità prima
che un tumore solido si possa espandere. Ciò avviene attraverso meccanismi complessi di regolazione attualmente molto studiati anche dai
biomatematici.
Nota 4.10. Invasione dei tessuti vicini e formazione di metastasi.
Molti tumori sono in grado di invadere i tessuti adiacenti, e da essi possono distaccarsi cellule capaci di raggiungere siti anche lontani
dove talvolta riescono a formare nuove colonie.
Questi insediamenti distanti di cellule tumorali (metastasi) sono la
causa del 90% delle morti di cancro.
Come abbiamo visto nel capitolo precedente, oggi si pensa che non
tutte le cellule tumorali siano capaci di rigenerare il tumore in un altro
sito, ma soltanto le cellule staminali tumorali e sottoclassi particolari
di queste.
Invasione e metastasi sono processi estremamente complessi e solo
parzialmente compresi.
I meccanismi sono probabilmente piuttosto simili e legati a modifiche dei livelli di espressione di alcune molecole responsabili delle in18
terazioni tra le cellule: molecole di adesione cellula-cellula (soprattutto alcune immoglubine e cadherine); le integrine, che legano le cellule
alla matrice extracellulare; le proteasi extracellulari. Queste ultime,
capaci di distruggere le barriere tissutali, spesso non vengono prodotte dalle cellule tumorali, ma da cellule stromali e infiammatorie che
in qualche modo hanno iniziato a collaborare con le cellule maligne.
Osservazione 4.11. Instabilità genetica.
Le sei alterazioni fisiologiche fondamentali che abbiamo elencato (descritti molto più dettagliatamente nel lavoro di Hanahan/Weinberg)
sono a loro volta connesse con cambiamenti a livello genetico che si
esprimono spesso in una spiccata instabilità genetica delle cellule tumorali.
Nota 4.12. Non abbiamo potuto toccare in questa tesi un altro capitolo
estremamente importante della ricerca sul cancro, la regolazione delle
fasi di ciclo cellulare. Se da un lato esso si presenta particolarmente
bene a un approccio matematico (ad esempio nell’ambito delle reti di
Petri o della teoria dei sistemi), probabilmente mancano ancora conoscenze precise dei componenti del ciclo per poter formulare modelli
matematici biologicamente corretti.
Una discussione della biologia dei tumori dal punto di vista del ciclo cellulare si trova nella parte conclusiva del libro di Morgan e nel
quarto capitolo di Pelengaris/Khan.
19
5. Alcune implicazioni
Nota 5.1. Come abbiamo visto nei capitoli precedenti, la crescita di
molti tumori è governata da un compartimento di cellule staminali
tumorali. Solo eliminando questo compartimento si può arrivare a una
terapia definitiva.
Il recente lavoro di Dingli/Michor descrive questi aspetti dal punto
di vista quantitativo, utilizzando un modello a quattro compartimenti
della forma
ẋ0
ẋ1
ẏ0
ẏ1
= x0 · [ϕ(x0 + y0 ) − ax0 ]
= αx0 − bx1
= y0 · [ψ(x0 + y0 ) − cy0 ]
= βy0 − dy1
in cui x0 denota il numero delle cellule staminali sane, x1 il numero
delle cellule differenziate sane, mentre y0 si riferisce alle cellule staminali tumorali, y1 alle cellule tumorali differenziate. Le funzioni ϕ e
ψ sono funzioni decrescenti che esprimono un legame competitivo tra
i due compartimenti staminali.
Il modello dimostra poi piuttosto bene come il tumore non possa
essere eradicato se la terapia non è in grado di distruggere il compartimento staminale. Siccome le cellule staminali tumorali sono particolarmente suscettibili a mutazioni che possono portare a una sempre
maggiore resistenza, si dovrebbe cercare di eliminare il compartimento staminale il più presto possibile, nel caso della LMC ad esempio con
l’interferone α. È quindi importante sviluppare terapie che riescano
ad aggredire selettivamente le cellule staminali tumorali e allo stesso
tempo incidano il meno possibile sul compartimento staminale sano.
Punish the parent not the progeny è quindi il titolo del lavoro di Elrick e colleghi che fornisce una visione dal punto di vista medico dei
fattori biologici coinvolti e delle strategie terapeutiche che si potrebbero considerare.
Nota 5.2. Alcuni aspetti matematici generali della formulazione di
modelli per la resistenza sono discussi nell’articolo di Wodarz/Komarova,
gli aspetti medici corrispondenti nel caso della cura della LMC in Deininger/Druker e Bhatia/. . ./Forman.
Un modello stocastico della resistenza alla chemioterapia tumorale
è presentato nel lavoro di Komarova.
Il problema della resistenza è comunque molto complesso dal punto
di vista biologico. L’azione di farmaci che incidono sul ciclo cellulare
può essa stessa produrre la resistenza, se il farmaco ferma il ciclo in
una fase dove la cellula successivamente non è più suscettibile alla
terapia, ad esempio tramite altri farmaci che vengono somministrati
in combinazione oppure perché la cellula non raggiunge il punto in cui
possa entrare in azione il p53. Questi aspetti sono discussi nell’articolo
di Shah/Schwartz.
20
II. L’ESPONENZIALE MATRICIALE
6. Funzioni di matrici ed esponenziale matriciale
Situazione 6.1. Sia A ∈ Cnn e sia σ(A) lo spettro di A, cioè l’insieme
dei suoi autovalori.
n l’insieme
Come sempre, per un anello commutativo K denotiamo con Km
delle matrici ad n righe ed m colonne con coefficienti in K . δ sia la matrice identitica in Knn .
Definizione 6.2. Per un polinomio f = a0 + a1 x + ... + ar xr ∈ C[x]
r
X
definiamo f (A) :=
ak Ak . Naturalmente A0 := δ.
k=0
f
con f, g ∈ C[x] una funzione razionale
g
per cui g(λ) 6= 0 per ogni λ ∈ σ(A).
Osservazione 6.3. Sia ϕ =
Allora la matrice ϕ(A) := (g(A))−1 f (A) risulta ben definita.
Dimostrazione. La matrice ϕ(A) è ben definita in quanto sono ben
definite f (A) e g(A), secondo la definizione precedente, ed è possibile
invertire g(A) in quanto si è supposto g(λ) 6= 0 per ogni λ ∈ σ(A).
Osservazione 6.4. Siano Ω un dominio di C ed f : Ω → C una funzione
analitica. Γ sia una curva di Jordan in Ω che contiene σ(A) al suo
interno. Allora si può definire
Z
1
f (A) :=
f (z)(zδ − A)−1 dz
2πi Γ
Si può dimostrare che questa matrice è ben definita e non dipende
da Γ. Per i coefficienti essa significa
Z
1
j
f (z)((zδ − A)−1 )jk dz
(f (A))k :=
2πi Γ
per ogni j,k.
Se z0 è un punto di Ω in cui f è rappresentata dalla serie di potenze
∞
∞
X
X
ak (A − z0 δ)k .
ak (z − z0 )k , si può dimostrare che f (A) =
f (z) =
k=0
k=0
Definizione 6.5. L’esponenziale
∞
X
1 k
e :=
A
k!
A
k=0
è definito per ogni A ∈ Cnn .
Nel teorema 6.6 riportiamo alcuni utili enunciati sulle proprietà
dell’esponenziale di una matrice.
21
Teorema 6.6.
Per ogni T ∈ GL(n, C) si ha eT AT = T −1 eA T.
Sia B ∈ Cnn e AB = BA. Allora eA+B = eA eB = eB eA .
(eA )−1 = e−A , quindi eA è sempre una matrice invertibile.
Se λ1 , ..., λn sono gli autovalori di A, allora eλ1 , ..., eλn sono gli
autovalori di eA . La moltiplicità degli autovalori di A è maggiore o uguale a quella di eA , in quanto può accadere che λj 6= λk ,
ma eλj = eλk .
(5) det(eA ) = etrA .
−1
(1)
(2)
(3)
(4)
Dimostrazione. Huppert, pagg. 269-283, Arnold, pagg. 115 sgg., Amann,
pagg. 167-183.
Nota 6.7. L’equazione differenziale ẋ = Ax (in cui si cerca una funzione x : R → Cn ) per ogni dato iniziale x(0) = x0 ammette un’unica
soluzione x = etA x0 .
t
Ciò implica l’enunciato analogo per l’equazione differenziale matriciale Ẋ = AX , in cui si cerca una funzione X : R → Cnn . Per ogni
k infatti, questa corrisponde a un’equazione Ẋk = AXk con soluzione
Xk = etA Xk (0) e ciò significa proprio che X = etA X(0).
t
t
In particolare, l’unica soluzione del problema
Ẋ = AX
X(0) = δ
con
è
X = etA .
Definizione 6.8. Per λ ∈ C ed m ∈ N+1 definiamo le caselle di Jordan
Jm (λ) ∈ Cm
m nel modo seguente:
J1 (λ) := (λ)
λ
J2 (λ) :=
0

λ

J3 (λ) := 0
0
...
1
λ

1 0
λ 1
0 λ


λ
1
0 ... 0
0
λ
1 ... 0 



Jm (λ) := . . . . . . . . . . . . . . .

0
0 ... λ
1
0
0
0
0
λ
Se poniamo Nm := Jm (0), abbiamo Jm (λ) = λδ + Nm .
Osservazione 6.9. N ∈ Cnn sia una matrice nilpotente, cioè tale che
esiste r ∈ N con N r = 0. Allora la matrice δ − N è invertibile e si ha
(δ − N )−1 =
r−1
X
Nk
k=0
22
Dimostrazione.
(δ−N )
r−1
X
N k = δ+N +N 2 +. . .+N r−1 −(N +N 2 +. . .+N r−1 +N r ) = δ
k=0
Proposizione 6.10. Siano z, λ ∈ C ed m ≥ 1. Se z 6= λ, allora
(zδ − Jm (λ))−1 = ((z − λ)δ − Nm )−1 =
m−1
X
k=0
k
Nm
(z − λ)k+1
m = 0.
Dimostrazione. Segue dall’osservazione 6.9 usando che Nm
Proposizione 6.11. Siano λ ∈ C ed Ω un dominio di C con λ ∈ C.
f : Ω → C sia una funzione analitica e Γ una curva di Jordan in Ω che
contiene λ al suo interno. Allora
f (Jm (λ)) =
m−1
X
k=0
f (k) (λ) k
Nm =
k!

f (λ)




= 0


 ...

0
f ′ (λ)
f ′′ (λ)
2!
...
f (λ)
f ′ (λ)
...
...
...
...
0
0
...

f (m−1) (λ)
(m − 1)! 


(m−2)
f
(λ) 

(m − 2)! 


...


f (λ)
Dimostrazione.
1
f (Jm (λ)) =
2πi
6.4
6.10
=
=
=
Z
1
2πi
m−1
X
k=0
m−1
X
k=0
f (z)(zδ − Jm (λ))−1 dz
Γ
Z
f (z)
Γ
m−1
X
k=0
k
Nm
1
2πi
k
Nm
f k (λ)
k!
Z
Γ
k
Nm
dz
(z − λ)k+1
f (z)
dz
(z − λ)k+1
2
= δf (λ) + Nm f ′ (λ) + Nm
f ′′ (λ)
+ ...
2!
e si ottiene ovviamente la matrice dell’enunciato.
Nella dimostrazione abbiamo usato la nota formula
Z
n!
ϕ(ζ)
(n)
f (z) =
dζ
2πi k (ζ − z)n+1
che si trova ad esempio in Knopp, pag. 64.
23
Definizione 6.12. Siano M1 , . . . , Ms matrici quadratiche, non necessariamente della stessa dimensione. Allora con M1 ⊕. . .⊕Ms denotiamo
la matrice


M1 0 . . . 0
 0 M2 . . . 0 


M =

 0 . . . ... 0 
0
...
. . . Ms
Diciamo allora che M è somma diretta delle matrici Mj .
Teorema 6.13 (teorema della forma normale di Jordan). Esiste
T ∈ GL(n, C) tale che A = T −1 M T , dove M è somma diretta di caselle
di Jordan.
Dimostrazione. Ad esempio Huppert, pagg. 23-26, Mondini, pagg.
60-67.
Osservazione 6.14. Siano f come nell’osservazione 6.4 e T ∈ GL(n, C).
Allora f (T −1 AT ) = f (A).
Perciò in principio si può usare la proposizione 6.11 per calcolare
f (A); nella pratica però la forma normale di Jordan presenta notevoli
difficoltà algoritmiche e numeriche.
Dimostrazione. Immediato dalla formula integrale oppure dallo sviluppo in serie di potenze di f .
24
7. Il polinomio minimale di una matrice
Situazione 7.1. Sia A ∈ Cnn .
Lemma 7.2. U sia un’algebra su C con elemento neutro 1U .
Per f = a0 xn + a1 xn+1 + · · · + an ∈ C[x] ed u ∈ U poniamo
f (u) := a0 un + a1 un+1 + · · · + an 1U .
Allora per ogni u ∈ U , l’applicazione f (u) : C[x] → U è un omomorf
fismo di C-algebre.
Abbiamo quindi f (1) = 1U e, per f, g ∈ C[x] e α ∈ C, le relazioni
(f + g)(u) = f (u) + g(u)
(αf )(u) = αf (u)
(f · g)(u) = f (u) · g(u)
Nel seguito useremo questi risultati per U = Cnn .
Dimostrazione. Dimostriamo solo l’ultima relazione, in quanto le
altre sono evidenti.
Siano f = a0 xn + a1 xn+1 + · · · + an , g = b0 xm + b1 xm+1 + · · · + bm ed
n+m
k
X
X
k
aj bn−j per ogni k.
h := f · g. Allora h =
ck x con ck =
j=0
k=0
Ma questi sono proprio i coefficienti che si ottengono raccogliendo
i coefficienti delle potenze di x con lo stesso esponente nel prodotto
espanso (a0 xn + a1 xn−1 + · · · + an )(b0 xm + b1 xm−1 + · · · + bm ) ed è quindi
n+m
X
ck uk .
chiaro che, sostituendo x con u, si ottiene proprio h(u) =
k=0
Corollario 7.3. Siano λ1 , . . . , λn ∈ C ed f = (x − λ1 ) · · · (x − λn ).
Allora f (A) = (A − λ1 δ) · · · (A − λn δ).
Definizione 7.4. Se calcoliamo l’espressione det(xδ − A) =: PA in
C[x], otteniamo un polinomio monico in C[x] che si chiama il polinomio
caratteristico di A.
Definizione 7.5. Sia B ∈ Cnn . Le matrici A e B si dicono simili, se
esiste T ∈ GL(n, U ) tale che B = T −1 AT .
Proposizione 7.6. Matrici simili hanno lo stesso polinomio caratteristico.
Dimostrazione. Segue immediatamente dalla definizione.
25
Teorema 7.7. Sia λ ∈ C. Le condizioni (1) e (2) sono equivalenti tra
di loro e, quando n ≥ 2, equivalenti alla (3):
(1) λ è un autovalore di A.
(2) λ è radice del polinomio caratteristico di A : PA (λ) = 0.
n−1
(3) Esiste una matrice
B ∈ Cn−1 tale che A è simile a una matrice
λ ∗
. In questo caso PA = (x − λ) · PB .
della forma
0 B
Dimostrazione. Corsi di geometria oppure Koecher, pag.234.
Proposizione 7.8. I sia un ideale ( possibilmente improprio) di C[x].
Se I 6= 0, esiste un unico polinomio monico p ∈ C[x] che genera I.
Il grado di p è il più piccolo grado di un polinomio non nullo contenuto in I.
Dimostrazione. Corso di algebra.
Definizione 7.9. C[A] := {f (A) | f ∈ C[x]}.
È immediato che C[A] è una sotto-C-algebra di Cnn .
Lemma 7.10. Esiste un polinomio f ∈ C[x] con f 6= 0 ed f (A) = 0.
Dimostrazione. Siccome C[A] è un sottospazio vettoriale di Cnn , sicuramente dimC Cnn ≤ n2 =: s. Ciò significa che le s+1 matrici δ, A, A2 , . . . , As
sono linearmente dipendenti, perciò esistono a0 , a1 , . . . , as ∈ C non
tutti nulli, tali che a0 δ + a1 A + a2 A2 + . . . + as As = 0. Se poniamo
f := a0 + a1 x + . . . + as xs abbiamo trovato un polinomio f 6= 0 con
f (A) = 0.
Definizione 7.11. Dal lemma 7.2 è immediato che l’insieme
{f ∈ C[x] | f (A) = 0} è un ideale (possibilmente improprio) di C[x].
Dal lemma 7.10 sappiamo che questo ideale è 6= 0, quindi per la proposizione 7.8 esiste un unico polinomio monico MA ∈ C[x] che genera
questo ideale.
Per ogni f ∈ C[x] si ha quindif (A) = 0 se e solo se esiste g ∈ C[x] con
f = g · MA . Il grado di MA è allo stesso tempo il più piccolo grado di
un polinomio 6= 0 che annulla A.
MA si chiama il polinomio minimale di A. Per definizione MA 6= 0.
Corollario 7.12. m sia il grado di MA . Allora:
(1) Le matrici δ, A, A2 , ..., Am−1 formano una base di C[A].
(2) dimC C[A] = m.
Dimostrazione. Dal lemma 7.10 sappiamo che MA 6= 0, quindi MA
è della forma MA = xm + a1 xm−1 + . . . + am .
Abbiamo perciò Am = −a1 Am−1 − . . . − am δ e ciò implica che
δ, A, A2 , . . . , Am−1 generano lo spazio vettoriale C[A].
26
Se queste matrici fossero linearmente dipendenti, ad esempio
b0 δ + b1 A + . . . + bm−1 Am−1 = 0 con i coefficienti bj non tutti nulli, allora
con g := b0 + b1 x + . . . + bm−1 xm−1 avremmo trovato un polinomio g 6= 0
con g(A) = 0 e grado minore di m, in contraddizione alla prop.7.8.
Proposizione 7.13. A è invertibile se e solo se MA (0) 6= 0.
In tal caso A−1 ∈ C[A].
Dimostrazione. Sia di nuovo MA = xm + a1 xm−1 + . . . + am . Allora
+ a1 Am−1 + . . . + am−1 A = −am δ e quindi AB = −am δ con
B := Am−1 + a1 Am−2 + . . . + am−1 δ. Per il corollario 7.12 B 6= 0.
Am
Si noti che MA (0) = am .
(1) Sia A invertibile.
Allora −am A−1 = B 6= 0 e quindi am 6= 0.
(2) Sia am 6= 0.
1
Allora A−1 = − B ∈ C[A].
am
Esempio 7.14. Assumiamo di sapere che MA = x3 + 2x + 5. Allora
−5δ = A3 + 2A, ovvero A(A2 + 2δ) = −5δ
e quindi
1
A−1 = − (A2 + 2δ) ∈ C[A].
5
Corollario 7.15. A sia invertibile. Allora esiste f ∈ C[x] con
f (A) = δ ed f (0) = 0 .
Dimostrazione. Per la proposizione 7.13 esiste g ∈ C[x] con
= g(A). Perciò A · g(A) = δ e se poniamo f = x · g, allora f (A) = δ
ed f (0) = 0.
A−1
Esempio 7.16. Nell’esempio 7.14 possiamo porre
1
1
f = − x(x2 + 2) = − (x3 + 2).
5
5
1
1
Infatti allora f (0) = 0 ed f (A) = − (A3 + 2A) = − (−5δ) = δ.
5
5
Osservazione 7.17. Siano f ∈ C[x] e T ∈ GL(n, C).
Allora f (T −1 AT ) = f (A).
Dimostrazione. È sufficiente osservare che (T −1 AT )k = T −1 Ak T per
ogni k ∈ N.
Corollario 7.18. Sia, anche, B ∈ Cnn . Se le matrici A e B sono simili,
allora MA = MB .
Lemma 7.19. Siano λ ∈ C e v ∈ Cn tali che Av = λv . Per ogni f ∈ C[x]
allora f (A)v = f (λ)v .
27
Dimostrazione. Infatti l’ipotesi implica Ak v = λk v per ogni k ∈ N.
Per linearità si ottiene l’enunciato.
Teorema 7.20. Per λ ∈ C sono equivalenti:
(1) λ è autovalore di A.
(2) λ è radice del polinomio caratteristico di A : PA (λ) = 0 .
(3) λ è radice del polinomio minimale di A : MA (λ) = 0.
Dimostrazione.
(1) ⇐⇒ (2): Teorema 7.7.
(1) ⇒ (3) : λ sia un autovalore di A. Allora esiste v ∈ Cn \ 0 tale che
Av = λv . Dal lemma 7.9 segue che MA (λ)v = MA (A)v = 0 e quindi
MA (λ) = 0 perché v 6= 0.
(3) ⇒ (1) : Sia MA (λ) = 0. Allora esiste f ∈ C[x] tale che
MA = (x − λ)f . Siccome f 6= 0 e grado f < grado MA , la minimalità
di MA implica f (A) 6= 0. Perciò esiste un vettore w ∈ Cn tale che
v := f (A)w 6= 0.
Usando il lemma 7.2 abbiamo adesso
Av − λv = Af (A)w − λf (A)w = (A − λδ)f (A)w = MA (A)w = 0.
Siccome v 6= 0, ciò mostra che λ è un autovalore di A.
Corollario 7.21. Sia f ∈ C[x] con f (A) = 0. Allora f (λ) = 0 per ogni
autovalore λ di A .
Teorema 7.22 (teorema di Cayley-Hamilton). PA (A) = 0.
Dimostrazione. Corsi di geometria oppure Mondini, pagg. 68-70.
Corollario 7.23. Il polinomio minimale MA divide il polinomio caratteristico PA .
Nota 7.24. Dal teorema 7.20 e dal corollario 7.23 vediamo che, se il
polinomio caratteristico di A possiede la forma
PA = (x − λ1 )n1 · · · (x − λs )ns
con i λk distinti e gli esponenti nk ≥ 1, allora il polinomio minimale
MA è della forma
MA = (x − λ1 )m1 · · · (x − λs )ms
con 1 ≤ mk ≤ nk per ogni k.
Se n non è troppo grande e se gli autovalori λk sono noti con le loro molteplicità nk (come accade nel caso di una matrice triangolare),
possiamo cosı̀ trovare il polinomio minimale tra i polinomi della forma
(x − λ1 )r1 · · · (x − λs )rs con 1 ≤ rk ≤ nk per ogni k, partendo con
r1 = . . . = rs = 1 e aumentando gli esponenti, fino a quando troviamo
un polinomio che annulla A.
28
Assumiamo ad esempio che PA = (x − λ)3 (x − µ)2 (x − ν) con λ, µ, ν
distinti.
Allora proviamo, in questo ordine, i sei polinomi
f1 = (x − λ)(x − µ)(x − ν)
f2 = (x − λ)2 (x − µ)(x − ν)
f3 = (x − λ)(x − µ)2 (x − ν)
f4 = (x − λ)3 (x − µ)(x − ν)
f5 = (x − λ)2 (x − µ)2 (x − ν)
f6 = (x − λ)3 (x − µ)2 (x − ν)
fino a quando fj (A) = 0. Possiamo eseguire l’algoritmo formando in
successione
B1
B2
B3
B4
B5
B6
= (A − λδ)(A − µδ)(A − νδ)
= B1 (A − λδ)
= B1 (A − µδ)
= B2 (A − λδ)
= B2 (A − µδ)
= B5 (A − λδ)
fino a quando Bj = 0.
29
8. Matrici che soddisfano una equazione quadratica
Situazione 8.1. Sia A ∈ Cnn . Quando non è indicato diversamente,
λ, µ ∈ C e t ∈ R.
Definizione 8.2. Diciamo che A soddisfa un’equazione quadratica, se
esiste un polinomio f ∈ C[x] di grado ≤ 2 tale che f (A) = 0.
Possiamo assumere che f abbia una delle seguenti forme:
f =x−λ
f = (x − λ)2
f = (x − λ)(x − µ)
con λ 6= µ.
Osservazione 8.3.
(1) Sia A − λδ = 0. Allora A = λδ e x − λ è il polinomio minimale di
A. In questo caso etA = eλt δ.
(2) Sia (A − λδ)(A − µδ) = 0, ma A − λδ 6= 0 e A − µδ 6= 0.
Allora (x − λ)(x − µ) è il polinomio minimale di A.
Lemma 8.4. Con Q := A − λδ sia Q2 = 0. Allora AQ = λQ.
Dimostrazione. Abbiamo 0 = Q2 = (A − λδ)Q = AQ − λQ.
Proposizione 8.5. Sia (A − λδ)2 = 0. Allora
eAt = eλt (δ + t(A − λδ)).
Dimostrazione. Siano Q := A − λδ e X := eλt (δ + tQ). È sufficiente
dimostrare che X(0) = δ e che X soddisfa l’equazione differenziale
Ẋ = AX .
(1) X(0) = δ.
(2) Ẋ = λeλt (δ + tQ) + eλt Q = eλt [λδ + λtQ + Q] = eλt (A + λtQ)
8.4
AX = eλt (A + tAQ) = eλt (A + λtQ).
Si noti che l’enunciato è banalmente vero anche quando A − λδ = 0.
Un’altra dimostrazione verrà data nella proposizione 9.2.
Osservazione 8.6. Sia (A − λδ)2 = 0, ma A 6= λδ. Allora (x − λ)2 è
evidentemente il polinomio minimale di A, e siccome le radici di MA
coincidono con le radici di PA , necessariamente PA = (x − λ)n .
Nota8.7. Il polinomio caratteristico di una matrice 2 × 2
a b
A=
è x2 − (a + d)x + ad − bc.
c d
Dal teorema 7.20 segue che la matrice soddisfa l’equazione
(A − λδ)2 = 0 se e solo se λ è radice doppia del polinomio caratteristico.
Per la proposizione 8.5 abbiamo in questo caso
30
eAt =
1 0 λt
a−λ
b
e +
teλt .
0 1
c
d−λ
Si noti che PA possiede una radice doppia se e solo se il discriminante
a+d
.
(a + d)2 − 4(ad − bc) = (a − d)2 + 4bc si annulla. In tal caso λ =
2
14 9
Esempio 8.8. Sia A =
. Allora PA = x2 − 16x + 64 = (x − 8)2 .
−4 2
Inoltre A 6= 8δ. Per la proposizione 8.5 abbiamo:
1 0 8t
6
9
1 + 6t
9t
etA =
e +
te8t = e8t
0 1
−4 −6
−4t 1 − 6t
λ b
Esempio 8.9. Sia A =
. Allora
0 λ
λt
e
bteλt
1 0 λt
0 b
λt
tA
e + te
=
e =
0 1
0 0
0
eλt




18
5
2
21
5
2
Esempio 8.10. Siano A = −72 −17 −8 e Q := A−3δ = −72 −20 −8.
18
5
2
18
5
5
Allora Q2 = 0 e dalla proposizione 8.5 abbiamo






1 0 0
18
5
2
1 + 18t
5t
2t
etA = e3t 0 1 0+te3t −72 −20 −8 = e3t  −72t 1 − 20t −8t 
0 0 1
18
5
2
18t
5t
1 + 2t
Lemma 8.11. Sia (A − λδ)(A − µδ) = 0 con λ 6= µ.
A − λδ
A − µδ
e Q :=
, allora AP = λP e AQ = µQ.
Se poniamo P :=
λ−µ
µ−λ
Dimostrazione. A soddisfa l’equazione A2 = (λ + µ)A − λµδ. Perciò
1
A − µδ
1
(A2 − µA) =
[(λ + µ)A − λµδ − µA] = λ
= λP,
λ−µ
λ−µ
λ−µ
e nello stesso modo (per simmetria) AQ = µQ.
AP =
Proposizione 8.12. Sia (A − λδ)(A − µδ) = 0 con λ 6= µ. Allora
etA =
A − µδ λt A − λδ µt
e +
e
λ−µ
µ−λ
A − λδ
A − µδ
e Q :=
, poniamo
λ−µ
µ−λ
X := P eλt + Qeµt . Di nuovo è sufficiente dimostrare che X(0) = δ e che
X soddisfa l’equazione differenziale Ẋ = AX .
Dimostrazione. Con P :=
(1) X(0) = P + Q =
1
(A − µδ − A + λδ) = δ .
λ−µ
31
(2) Ẋ = λP eλt + µQeµt , mentre AX = AP eλt + AQeµt X .
Per il lemma 8.11 abbiamo AP = λP e AQ = µQ e ciò implica
che veramente Ẋ = AX .
a b
sia una matrice quadratica con gli autovalori
Nota 8.13. A =
c d
λ e µ. Se λ 6= µ, dalla proposizione 8.12 abbiamo
1
1
a−µ
b
a−λ
b
etA =
eλt +
eµt .
c
d−µ
c
d−λ
λ−µ
µ−λ
33 124
Esempio 8.14. Sia A =
. Il polinomio caratteristico di A
−8 −30
è x2 − 3x + 2 = (x − 2)(x − 1). Dalla nota 8.13 otteniamo
32 124
31 124
eAt =
e2t −
et
−8 −31
−8 −32
λ b
Esempio 8.15. Sia A =
con λ 6= µ. Allora
0 µ
etA =
1
λ−µ
λt
1
e
λ − µ b λt
0
b
e +
eµt =
0
0
0
µ−λ 0 µ−λ
Esempio 8.16. Siano b ∈ C e A :=
cos bt sin bt
tA
Allora e =
.
− sin bt cos bt
b
λt
µt
λ−µ (e − e )
µt
e
0 b
.
−b 0
Dimostrazione. Si vede direttamente che la formula è vera per
b = 0. Sia b 6= 0. Il polinomio caratteristico di A è x2 +b2 e gli autovalori
di A sono ib e −ib. Applicando la nota 8.13 con λ = ib e µ = −ib abbiamo
1
ib −b −ibt
ib b
tA
ibt
e =
e
e +
=
b ib
−b ib
2bi
1
i 1 ibt
i −1 −ibt
=
e +
e
=
−1 i
1 i
2i
1 ieibt + ie−ibt eibt − e−ibt
cos bt sin bt
=
=
− sin bt cos bt
2i −eibt + e−ibt ieibt + ie−ibt
0 b
Esempio 8.17. Siano b ∈ C e A :=
.
b 0
cosh bt sinh bt
tA
Allora e =
.
sinh bt cosh bt
Dimostrazione. Si vede direttamente che la formula è vera per
b = 0. Sia b 6= 0. Il polinomio caratteristico di A è x2 −b2 e gli autovalori
di A sono b e −b. Applicando la nota 8.13 con λ = b e µ = −b abbiamo
32
1
1
b b bt
1 1 bt
−b b
1 −1 −bt
e −
e +
e−bt =
e
=
b b
1 1
b −b
−1 1
2b
2
1 ebt + e−bt ebt − e−bt
cosh bt sinh bt
=
=
sinh bt cosh bt
2 ebt − e−bt ebt + e−bt
etA =
Osservazione 8.18.
(1) Il polinomio minimale di A è della forma (x − λ)(x − µ) con
λ 6= µ se e solo se la forma normale di Jordan di A è una matrice
diagonale con gli autovalori λ e µ.
(2) Il polinomio minimale di A è della forma (x−λ)2 se e solo se nella
forma normale di Jordan gli elementi della diagonale principale sono tutti uguali a λ e appare almeno una casella di Jordan
di dimensione 2 e nessuna casella di Jordan di dimensione superiore.
33
9. Formule che utilizzano serie ipergeometriche
Situazione 9.1. A ∈ Cnn . Quando non indicato diversamente, λ, µ ∈ C
e t ∈ R.
Proposizione 9.2. Sia (A − λδ)m = 0 per qualche m ≥ 1. Allora
etA = eλt
m−1
X tk
k=0
k!
(A − λδ)k
Dimostrazione. Ricordando che (A − λδ)m = 0 e quindi (A − λδ)k = 0
per ogni k ≥ m, si ha che:
eAt
=
etλδ et(A−λδ)
λt
=e
∞ k
X
t
k=0
k!
k
λt
(A − λδ) = e
m−1
X tk
k=0
k!
(A − λδ)k
Questa formula, che generalizza la proposizione 8.5, segue direttamente dallo sviluppo in serie di potenze dell’esponenziale. Infatti, siccome le matrici tλδ e t(A − λδ) commutano, dal teorema 6.6 (2) otteniamo l’enunciato.
Corollario 9.3. Gli autovalori di A siano tutti uguali a λ. Allora
etA = eλt
n−1
X tk
k=0
k!
(A − λδ)k


3
5
2
9
3 . Allora (A − 2δ)3 =
Esempio 9.4. Sia A =  2
−5 −19 −6
proposizione 9.2 abbiamo



1
5
2
1
5
2
1
5
7
3  2
7
3  2
7
(A − 2δ)3 =  2
−5 −19 −8
−5 −19 −8
−5 −19

 

1
2
1
0 0 0
2
1  = 0 0 0
= 1
−3 −6 −3
0 0 0
0 e dalla

2
3
−8
Dalla proposizione 9.2 abbiamo quindi
t2
etA = e2t (δ + t(A − 2δ) + (A − 2δ)2 )
2






1
2
1
1
5
2
1 0 0
2
t
2
1 
7
3 +  1
= e2t 0 1 0 + t  2
2 −3 −6 −3
−5 −19 −8
0 0 1


2
2
1 + t + t2
5t + t2
2t + t2


2
t2
= e2t 
1 + 7t + t2
3t + t2 
 2t + 2

3t2
3t2
2
−5t − 2 −19t − 3t 1 − 8t − 2
34


λ b c
Esempio 9.5. Sia A =  0 λ f . Allora
0 0 λ




0 b c
0 0 bf
(A − λδ) = 0 0 f , (A − λδ)2 = 0 0 0 
0 0 0
0 0 0
e


0 0 0
(A − λδ)3 = 0 0 0 = 0
0 0 0
per cui dalla proposizione 9.2 abbiamo






0 b c
0 0 bf
1 0 0
2
t
etA = eλt 0 1 0 + t 0 0 f  + 0 0 0 
2 0 0 0
0 0 1
0 0 0


2
1 tb tc + t2 bf


= eλt 0 1
tf
.
0
0
1
Definizione 9.6. I numeri complessi λ1 , ..., λn siano tutti distinti.
Definiamo allora
Lk :=
(x − λ1 ) . . . (x\
− λk ) . . . (x − λn )
(λk − λ1 ) . . . (λ\
k − λk ) . . . (λk − λn )
per k = 1, ..., n (nel caso banale n = 1 abbiamo solo L1 = 1).
Il simbolo b indica che un termine deve essere tralasciato. I polinomi Lk si chiamano polinomi di Lagrange determinati dai punti
d’ascissa (talvolta detti nodi) λ1 , ..., λn .
Ogni polinomio Lk è di grado n − 1 e sostituendo x con λj vediamo
che
(
1
per j = k
Lk (λj ) =
0
per j 6= k
Osservazione 9.7. Nella situazione della definizione 9.6 siano dati
numeri complessi y1 , ..., yn . Allora esiste un unico polinomio f ∈ C[x]
n
X
y j Lj .
di grado ≤ n − 1 che nei nodi λk assume i valori yk . Si ha f =
j=1
Dimostrazione.
n
X
j=1
yj Lj (λk ) =
n
X
yj δkj = yk .
j=1
L’unicità segue dall’ipotesi che i λk siano tutti distinti.
Lemma 9.8. Nella situazione della definizione 9.6 si ha
L1 + . . . + Ln = 1.
35
Dimostrazione. Se nell’osservazione 9.7 poniamo yk = 1 per ogni k,
vediamo che L1 + . . . + Lk è l’unico polinomio di grado ≤ n − 1 che
nei nodi λk assume il valore 1. Ma questo polinomio è il polinomio
costante 1.
Lemma 9.9. Gli autovalori λ1 , . . . , λn di A siano tutti distinti. Formiamo i polinomi di Lagrange Lk come nella definizione 9.6. Allora
ALk (A) = λLk (A) per k = 1, . . . , n.
Dimostrazione. Per il teorema di Cayley Hamilton (teorema 7.22) e
il lemma 7.2 abbiamo (A − λ1 δ) · · · (A − λn δ) = 0.
Ancora per il lemma 7.2 si ha
(A − λk δ)Lk (A) =
e quindi
(A − λk δ)(A − λ1 δ) · · · (A\
− λk δ) · · · (A − λn δ)
=0
(λ1 − λk ) · · · (λ\
−
λ
)
·
·
·
(λ
−
λ
)
n
k
k
k
ALk (A) = λLk (A).
Proposizione 9.10. Gli autovalori λ1 , . . . , λn della matrice A siano
tutti distinti. Formiamo i polinomi di Lagrange Lk come nella definizione 9.6. Allora
etA =
n
X
eλk t Lk (A)
k=1
Dimostrazione. Sia X :=
n
X
eλk t Lk (A). Verifichiamo che X(0) = δ e
k=1
che X soddisfa l’equazione differenziale Ẋ = AX .
n
X
(1) X(0) =
Lk (A) = δ.
k=1
Qui abbiamo usato di nuovo il lemma 7.2: Sia f = L1 + · · · + Ln .
Dal lemma 9.8 sappiamo che f = 1; per il lemma 7.2 abbiamo
n
X
perciò
Lk (A) = f (A) = δ.
k=1
(2) Ẋ =
n
X
λk eλk t Lk (A)
k=1
n
X
AX =
k=1
λk t
e
9.9
ALk (A) =
n
X
λk eλk t Lk (A) = Ẋ .
k=1
Definizione 9.11. Per z ∈ C ed n ∈ N definiamo la potenza crescente
(
z(z + 1) · · · (z + n − 1)
per n ≥ 1
[n]
z :=
1
per n = 0
z [n] si chiama spesso anche il fattoriale superiore.
Si noti che z [n] 6= 0 per ogni n, se −z 6∈ N.
Definizione 9.12. Per α1 , . . . , αs , β1 , . . . , βt ∈ C con −βj 6∈ N per ogni j
definiamo la serie ipergeometrica
36
F
α1 . . . αs
β1 . . . βt
:=
∞
[n]
[n]
X
α · · · αs
1
[n]
[n]
n=0 β1 · · · βt
∈ C[[x]]
Posizioni vuote possono essere indicate con 2, ad esempio
X
X
∞
∞
1
α[n]
2...2
α 2
.
,
F
=
F
=
[n]
[n]
[n]
[n]
β1 . . . βt
β 1
β 1
n=0 β1 · · · βt
n=0
Per le proprietà combinatorie delle serie ipergeometriche rimandiamo
a Graham/Knuth/Patashnik e Petkovšek/Wilf/Zeilberger, per le proprietà analitiche a Whittaker/Watson e Andrews/Askey/Roy.
Tralasciamo nel seguito considerazioni di convergenza, quasi sempre evidenti.
Nota 9.13. Siano α1 , . . . , αs , β1 , . . . , βt ∈ C con −βj 6∈ N per ogni j .
[k]
[k]
α1 · · · αs
α1 . . . αs
k
sodAllora i cofficienti ak := [k]
di x nella serie F
[k]
β1 . . . βt
β1 · · · βt
disfano le seguenti relazioni:
a0 = 1,
ak+1
(k + α1 ) · · · (k + αs )
=
ak
(k + β1 ) · · · (k + βt )
per ogni k ∈ N.
∞
X
ak xk i cui coefficienti sodk=0 α1 . . . αs
disfano queste relazioni, essa coincide con F
.
β1 . . . βt
Se è viceversa data una serie formale
Dimostrazione. Corso di Laboratorio di programmazione 2006/07.
Proposizione 9.14. Nelle ipotesi della definizione 9.12 sia γ ∈ C con
−γ 6∈ N. Allora
α1 . . . αs γ
α1 . . . αs
F
=F
.
β1 . . . βt γ
β1 . . . βt
Lemma 9.15. V sia uno spazio vettoriale su C e a1 , . . . , ar ∈ C. Assumiamo che ar 6= 0. Consideriamo un’equazione alle differenze
vk+r + a1 vk+r−1 + . . . + ar vk = 0
(∗)
in cui si cercano i valori vk ∈ V per k ≥ r , mentre i valori iniziali
v0 , . . . , vr−1 siano dati. Sia
xr + a1 xr−1 + . . . + ar = (x − α1 )m1 · · · (x − αs )ms
con αi 6= αj per i 6= j . Allora l’equazione (∗) possiede la soluzione
vk = (X 10 + kX11 + . . . + km1 −1 X1,m1 −1 )αk1
+ . . . + (Xs0 + kXs1 + . . . + kms −1 Xs,ms −1 )αks
37
con i coefficienti Xij ∈ V univocamente determinati dalle condizioni
iniziali.
Si noti che l’ipotesi ar 6= 0 implica αi 6= 0 per ogni i.
Dimostrazione. Elaydi, pag. 77, Huppert, pagg. 284-288, Meschkowski, pagg. 14-15.
Osservazione 9.16. La condizione ar 6= 0 nel lemma 9.15 non è essenziale nella risoluzione di un’equazione alle differenze. Consideriamo ad esempio un’equazione della forma vk+2 + a1 vk+1 = 0. Allora il
valore iniziale v0 non influisce sul proseguimento della successione, e
ponendo wk := vk+1 l’equazione si riduce a
wk+1 + a1 wk = 0
con w0 = v1 . Bisogna però controllare la condizione ar 6= 0 prima di
applicare la formula del lemma 9.15.
Definizione 9.17. Siano m, j ∈ N. Allora definiamo la serie formale
ejm :=
∞
X
m!
k j xk
(k + m)!
k=0
Osservazione 9.18.
(1) e00 = ex .
(2) e0m
m!
= m
x
ex −
m−1
X
k=0
xk
k!
!
per m ∈ N + 1.
Dimostrazione. Per m ∈ N + 1 abbiamo
e0m =
∞
X
k=0
#
"
m−1
∞
m! X xk+m
m! x X xk
m!
k
x = m
= m e −
k!
(k + m)!
x
(k + m)!
x
k=0
k=0
Lemma 9.19. Per ogni j ∈ N + 1 vale la formula di ricorsione
ej0 = x
j−1 X
j−1
i
i=0
ei0
Dimostrazione. j > 0 implica 0j = 0, per cui
∞
X
kj
∞
X
(k + 1)j
k!
x =
k+1
∞
X
(k + 1)j−1
x
=x
xk =
k!
k!
k=0
k=0
k=0
j−1
j−1
∞
∞
X xk X j − 1
X j − 1 X
ki k
=x
x =
ki = x
i
i
k!
k!
i=0
i=0
k=0
k=0
j−1
X j−1
=x
ei0
i
ej0 =
k
i=0
Definizione 9.20. Per n, k ∈ N sia S(n, k) il numero delle partizioni di
un insieme con n elementi in k classi di equivalenza. I numeri S(n, k)
38
sono detti numeri di Stirling di seconda specie. È chiaro che S(n, k) =
0 per k > n.
Nota 9.21. Per n, k ∈ N valgono le seguenti formule:
n X
n
(1) S(n + 1, k + 1) =
S(j, k).
j
j=0
1
(2) S(n, k) =
k!
k
X
k n
j .
j
k−j
(−1)
j=0
(3) S(n + 1, k + 1) = S(n, k) + (k + 1) · S(n, k + 1).
Possiamo cosı̀ compilare la seguente tabella:
S(n, k) 0 1 2 3 4
0
1
2
3
4
5
6
7
8
1
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
1
1
0
0
0
0
0
0
0
1
3
1
0
0
0
0
0
5
6
7
8
9
0 0 0
0
0
0
1 1 1
1
1
1
7 15 31 63 127 255
6 25 90 301 966 3025
1 10 65 350 1701 7770
0 1 15 140 1050 6951
0 0 1 21 266 2646
0 0 0
1
28 462
0 0 0
0
1
36
Dimostrazione. Jacobs, pagg. 253-256, Halder/Heise, pagg. 56-59.
Le formule sono elencate anche in Knuth, pagg. 65-67.
x
Teorema 9.22. Per j ∈ N si ha ej0 = e
j
X
S(j, k)xk .
k=0
Dimostrazione. Dimostriamo l’enunciato per induzione su j .
Osserviamo prima
che in tutte le sommatorie possiamo sommare da
n
0 ad ∞, perché
= S(n, k) = 0 per k > n.
k
j = 0: Sappiamo dall’osservazione 9.18 che e00 = ex . D’altra parte
0
X
S(0, 0) = 1 e quindi
S(0, k)xk = 1.
k=0
j → j +1 :
9.19
ej+1,0 = x
∞ X
j
i=0
= ex
= ex
∞
X
k=0
∞
X
i
xk+1
ind.
ei0 = x
∞ X
j
i=0
i
∞ X
j
i=0
i
x
e
∞
X
S(i, k)xk =
k=0
S(i, k) =
S(j + 1, k + 1)xk+1 = ex
k=0
∞
X
k=0
39
S(j + 1, k)xk
L’ultima uguaglianza vale perché S(j + 1, 0) = 0, come si vede ad esempio nella tabella della nota 9.21.
Osservazione 9.23. Abbiamo quindi
e00 = ex
e10 = xex
e20 = (x + x2 )ex
e30 = (x + 3x2 + x3 )ex
e40 = (x + 7x2 + 6x3 + x4 )ex
ecc.
Lemma 9.24.
2
e0m = F
m+1


2
.
.
.
2
2
x
F 1| .{z
ejm =
. . 1} m + 2
m+1
j volte
per ogni m ∈ N e ogni j ∈ N + 1.
Dimostrazione.
∞
X
(1) e0m =
k=0
Sia ak :=
per cui e0m
m!
xk .
(k + m)!
(k + m)!
1
m!
. Allora a0 = 1 ed ak+1 /ak =
=
,
(k +m)!
(k
+
m
+
1)!
k
+
m
+1
2
=F
.
m+1
(2) Sia j > 0. Allora
ejm =
∞
X
k=0
=
X
m!
m!
kj xk =
(k + 1)j xk+1 =
(k + m)!
(k + 1 + m)!
∞
k=0
x
m+1
Sia ak :=
∞
X
k=0
(m + 1)!
(k + 1)j xk
(k + m + 1)!
(m + 1)!
(k + 1)j .
(k + m + 1)!
(k + 2)j
(k + 2)j (k + 1 + m)!
=
,
Allora a0 = 1 ed ak+1 /ak =
j
(k + 1)j (k + m + 2)
 (k + 2 + m)!(k
 + 1)
2...2
2
x
F 1| .{z
per cui ejm =
. . 1} m + 2.
m+1
j volte
Lemma 9.25. Siano b1 , . . . , br ∈ C ed A ∈ Cnn . Allora in Cnn l’equazione
alle differenze
Mk+r = b1 Mk+r−1 + . . . + br Mr = 0
40
con le condizioni iniziali M0 = δ, M1 = A, . . . , Mr−1 = Ar−1 possiede
(evidentemente) una soluzione Mk univocamente determinata. Sia
k
m ∈ N tale che Am+r = b1 Am+r−1 + . . . + br Am . Allora Am+k = Mk Am
per ogni k ∈ N.
Dimostrazione. Dimostriamo l’enunciato per induzione su k.
(1) Per k < r abbiamo Mk Am = Ak Am = Am+k .
(2) Sia j ≥ 0 e l’enunciato sia vero per ogni k < r + j . Allora
Am+r+j = b1 Am+r+j−1 + . . . + br Am+j = b1 Mr+j−1 Am + . . . + br Mj Am
= (b1 Mr+j−1 + . . . + br Mj )Am = Mr+j Am .
Nota 9.26. Siano m ∈ N e g ∈ C[x] tali che Am g(A) = 0, ad esempio
g = xr + a1 xr−1 + . . . + ar = (x − α1 )m1 · · · (x − αs )ms con ar 6= 0 e quindi
αi 6= 0 per ogni i. Gli αi siano tutti distinti e mi ≥ 1 per ogni i.
Le ipotesi implicano la relazione
Am+r + a1 Am+r−1 + . . . + ar Am = 0
Applicando il lemma 9.15 possiamo trovare matrici Mk della forma
Mk = (X 10 + kX11 + . . . + km1 −1 X1,m1 −1 )αk1
+ . . . + (Xs0 + kXs1 + . . . + kms −1 Xs,ms −1 )αks
che soddisfano l’equazione alle differenze
Mk+r + a1 Mk+r−1 + . . . + ar Mk = 0
con i coefficienti Xij ∈ Cnn univocamente determinati dalle condizioni
iniziali M0 = δ, M1 = A, . . . , Mr−1 = Ar−1 .
Per il lemma 9.25 abbiamo


s
m
i −1
X
X
Am+k = Mk Am = 
αki
kj Xij  Am
i=1
j=0
per ogni k ∈ N.
Teorema 9.27. Nelle ipotesi e con le notazioni della nota 9.26 abbiamo
etA
=
m
X
Ck
k=0
(tA)k
k!
con Ck = δ per k < m e
Cm =
s m
i −1
X
X
Xij ejm (αi t)
i=1 j=0
=
s
X
i=1
"
Xi0 F
#
mi −1
αi t X
2
2 ... 2
2
(αi t) +
Xij F
(αi t)
m+1
1 ... 1 m + 2
m+1
j=1
41
Dimostrazione. Sia R :=
∞
m−1
X
X (tA)k
(tA)k
. Allora etA =
+ R.
k!
k!
k=m
Inoltre
k=0
∞
∞
s
mi −1
X
X
tk+m X k X
(tA)k+m
=
αi
kj Xij Am =
(k + m)!
(k + m)!
i=1
j=0
k=0
k=0


mi −1
s
∞
X
(tA)m
tk m! X k X

kj Xij 
αi
=
(k + m)!
m!
j=0
i=1
k=0
|
{z
}
R=
=:M
Perciò
M=
s m
i −1
X
X
Xij
i=1 j=0
∞
X
k=0
m!
kj (αi t)k
(k + m)!
L’enunciato segue dal lemma 9.24.
Corollario 9.28. Nelle ipotesi e con le notazioni della nota 9.26 assumiamo inoltre m = 0. Allora
etA
=
s m
j −1
X
X
i=1 j=0
Xij ej0 (αj t) =
s
X
αi t
e
m
i −1
X
j=0
i=1
Xij
j
X
S(j, k)(αi t)k
k=0
Si noti che un’equazione di questa forma vale sicuramente se gli autovalori di A sono tutti diversi da zero, cioè se la matrice A è invertibile.
Osservazione 9.29. Sia λ ∈ C (non necessariamente un autovalore
di A). Allora etA = eλt et(A−λδ) .
Dimostrazione. Già visto nella dimostrazione della proposizione 9.4.
Proposizione 9.30 (formula di Apostol). Siano m ≥ 1 ed
(A − λδ)m (A − µδ) = 0 con λ 6= µ. Allora
!
#
"m−1
m−1
X (µ − λ)k tk
X tk
1
(A − λδ)k +
e(µ−λ)t −
(A − λδ)m
etA = eλt
k!
(µ − λ)m
k!
k=0
k=0
Dimostrazione. Sia B := A − λδ. Allora A − µδ = B − (µ − λ)δ.
Ponendo α1 := µ − λ, abbiamo B m (B − α1 δ) = 0, ovvero B m+1 = α1 B m
e quindi B m+k = α1 k B m per ogni k ∈ N. Inoltre α1 6= 0.
Se nella nota 9.26 sostituiamo A con B , abbiamo X10 = δ ed
etB
=
m−1
X
k=0
(tB)k
(tB)m
+ e0m (α1 t)
k!
m!
Per l’osservazione 9.18 però
#
"
m−1
X (α1 t)k (tB)m
m!
1
(tB)m
=
= m
eα1 t −
e0m (α1 t)
m
m!
(α1 t)
k!
m!
α1
k=0
42
eα1 t −
m−1
X
k=0
(α1 t)k
k!
!
Bm
Per l’osservazione 9.29 infine etA = eλt etB .
Proposizione 9.31. Siano m ≥ 1 ed (A − λδ)m (A − µδ)2 = 0 con λ 6= µ.
Allora
#
"m−1
X tk
k
m
tA
λt
(A − λδ) + M (A − λδ)
e =e
k!
k=0
con
#
"
m−1
X (µ − λ)k tk
1
M=
e(µ−λ)t −
(µ − λ)m
k!
k=0
tm+1
2
2
+
F
((µ − λ)t) · (A − µδ)
m+2 1
(m + 1)!
Dimostrazione. Poniamo ancora B := A − λδ ed α1 = µ − λ. Allora
B − α1 δ = A − µδ e per ipotesi B m (B − α1 δ)2 = 0 con α1 6= 0.
Abbiamo perciò B m+2 − 2α1 B m+1 + α21 B m = 0 e quindi
B m+k+2 − 2α1 B m+k+1 + α21 B m+k = 0 per ogni k ∈ N.
Dalla nota 9.26 sappiamo che esistono matrici Mk della forma
Mk = (X10 + kX11 )αk1 con M0 = δ, M1 = B e tali che
B m+k = αk1 (X10 + kX11 )B m .
Dalle condizioni iniziali abbiamo δ = X10 e B = (X10 + X11 )α1 , per
B − α1 δ
. Dal teorema 9.27, con B al posto di A, otteniamo
cui X11 =
α1
quindi
etB =
m−1
X
k=0
con
(tB)k
+R
k!
R = [X10 e0m (α1 t) + X11 e1m (α1 t)] ·
= e0m (α1 t)
tm B m
m!
1
tm B m
tm B m
+
(B − α1 δ)e1m (α1 t) ·
m!
α1
m!
Usando l’osservazione 9.18 e il lemma 9.24 abbiamo
"
#
m−1
X (α1 t)k tm B m
m!
tm B m
=
eα1 t −
e0m (α1 t)
m!
(α1 t)m
k!
m!
k=0
"
#
m−1
X (α1 t)k
1
= m eα1 t −
Bm
α1
k!
k=0
1 α1 t
tm B m
tm B m
1
2
2
=
F
e1m (α1 t)
(α1 t) ·
1 m+2
α1
m!
α1 m + 1
m!
m+1
t
2
2
=
F
(α1 t) · B m
m+2 1
(m + 1)!
Ciò implica il risultato.
43
Lemma 9.32. Siano λ ∈ C, −λ 6∈ N e Jλ la funzione di Bessel di prima
specie di ordine λ. Allora
1 x λ
2
2
Jλ (x) =
(−x2 /4)
F
λ+1 1
λ! 2
dove λ! = Γ(λ + 1).
Dimostrazione. Andrews/Askey/Roy, pag. 200.
Lemma 9.33 (seconda trasformazione di Kummer). Sia a ∈ C e
1
1 − 2a 6∈ N. Allora anche − a 6∈ N e si ha
2
2
2
a 2
x/2
(x2 /4)
F
=e F
2a 1
a + 12 1
Dimostrazione. Corso di Laboratorio di programmazione 2005/06.
Nota 9.34. Dai lemmi 9.32 e 9.33 otteniamo
2
2
2 2
2 2
2
x/2
x/2
(x /4) = e F 3
=e F
F
(−(ix)2 /4)
5/2 1
4 1
+
1
1
2
3/2
√
3
2
3
J3/2 (ix) = ex/2 π(ix)−3/2 J3/2 (ix)
!
= ex/2
2
ix
2
Secondo Abramowitz, pagg. 437-438, e Bowman, pag. 95, si ha
r
2 sin x
J3/2 =
− cos x
πx
x
Questa formula può essere applicata nel caso B 2 (B − αδ)2 = 0 con
α 6= 0 della proposizione 9.31.
Con m = 2, B = A − λδ e α = µ − λ abbiamo
etB =
1
X
tk
k=0
k!
B k + M B m = δ + tB + M B 2
con
#
"
1
k tk
X
1
α
t3
2 2
αt
M= 2 e −
+ F
(αt) · (B − αδ)
4 1
α
k!
3!
k=0
3
t3 3 αt √
e 2 π(iαt)− 2 J3/2 (iαt)(B − αδ)
62
r
3
t3 αt √
sin(iαt)
2
−2
2
π(iαt)
e
− cos(iαt) (B − αδ)
4
πiαt
iαt
r
1 αt
1 t αt sin(iαt) − iαt cos(iαt)
2
e
(B − αδ)
= 2 (e − 1 − αt) −
α
8 α2
iαt
1 1 αt
1
e 2 (i sinh(iαt) − iαt cosh(iαt))(B − αδ)
= 2 (eαt − 1 − αt) − √
α
2 2 iα3
1
= 2 (eαt − 1 − αt) +
α
1
= 2 (eαt − 1 − αt) +
α
44
1
= 2 (eαt − 1 − αt) −
α
1
= 2 (eαt − 1 − αt) −
α
1 1 αt eαt − e−αt
eαt + e−αt
2
√
e
− αt
(B − αδ)
2
2
2 2 α3
αt
1 1 3αt
√ 3 [e 2 (1 − αt) − e− 2 (1 + αt)](B − αδ)
4 2α
45
10. Interpolazione di Hermite
Situazione 10.1. Siano λ1 , . . . , λs ∈ C tutti distinti ed m1 , . . . , ms ∈ N + 1.
Sia m := m1 + . . . + ms .
Lemma 10.2. Siano f ∈ C[x], α ∈ C e p ∈ N. Allora α è uno zero di
molteplicità (esatta) p di f se e solo se f (j) (α) = 0 per ogni j = 0, . . . , p−1
ed f (p) (α) 6= 0.
Dimostrazione. Corso di Algebra oppure Scheja/Storch, pag. 109.
Corollario 10.3. Sia f ∈ C[x] un polinomio di grado < m tale che per
ogni k = 1, . . . , s si abbia f (j)(λk ) = 0 per ogni j = 0, . . . , mk − 1. Allora
f = 0.
Dimostrazione. Per il lemma 12.4 f è un multiplo di (x−λ1 )m1 . . . (x− λs )ms
e quindi di un polinomio di grado ≥ m. Ciò è possibile solo se f = 0.
Teorema 10.4. Per ogni k = 1, . . . , s ed ogni j = 0, . . . , mk − 1 sia dato
un numero vij ∈ C. Allora esiste esattamente un polinomio H ∈ C[x]
di grado < m tale che per ogni k = 1, . . . , s si abbia H (j) (λk ) = vkj per
ogni j = 0, . . . , mk − 1.
Dimostrazione. Sia W := {f ∈ C[x] | grad f < m}. Allora W è uno
spazio vettoriale su C e dim W = m. Consideriamo l’applicazione
ϕ : W → Cm data da:
ϕ(f ) := (f (0) (λ1 ), . . . , f (m1 −1) (λ1 ), . . . , f (0) (λs ), . . . , f (ms −1) (λs ))
Quest’applicazione è evidentemente lineare e per il corollario 10.3 anche iniettiva. Però dim W = m = dim Cm , per cui ϕ è anche suriettiva.
Inoltre v := (v10 , . . . , v1,m1 −1 , . . . , vs0 , . . . , vs,ms −1 ) ∈ Cm e vediamo che
esiste H ∈ W con ϕ(H) = v .
Definizione 10.5. Il polinomio H nella proposizione 10.7 si chiama il
polinomio di interpolazione di Hermite rispetto al problema di interpolazione dato.
Per indicare i parametri del problema di interpolazione, denotiamo
H con
H[λ1 : (v10 , . . . , v1,m1 −1 ), . . . , λs : (vs0 , . . . , vs,ms −1 )]
Abbreviando vk := (vk0 , . . . , vk,mk −1 ) per ogni k, possiamo anche scrivere H = H[λ1 : v1 , . . . , λs : vs ]. Talvolta, in algoritmi ricorsivi, ammettiamo anche che uno dei vettori vk sia il vettore vuoto, cioè che vk = (),
ponendo in tal caso
H[λ1 : v1 , . . . , λs : vs ] := H[λ1 : v1 , . . . , λk−1 : vk−1 , λk+1 : vk+1 , . . . , λs : vs ].
Per vk = (vk0 , . . . , vkt ) con t > 0 poniamo infine vk− := (vk0 , . . . , vk,t−1 ).
Osservazione 10.6. Diamo adesso due dimostrazioni costruttive del
teorema 10.4. Nella prima, basata sul teorema cinese del resto, seguia46
mo Gathen/Gerhard, pagg. 102-105 e 111-113, nella seconda esponiamo, in modo leggermente modificato, lo schema alle differenze che si
trova in Stoer, pagg. 44-47, e Deuflhard/Hohmann, pagg. 207-211.
Lemma 10.7 (teorema cinese dei resti). A sia un anello euclideo ed
a1 , . . . , as ∈ A tali che mcd(ai , aj ) = 1 per ogni i 6= j .
Sia bi := a1 · · · abi · · · as (con la notazione introdotta nella definizione 9.6) per ogni i. Per ogni i allora mcd(ai , bi ) = 1 e quindi esistono
elementi αi , βi ∈ A tali che αi ai + βi bi = 1. Si noti che ciò implica le congruenze (βi bi = 1, in A/ai ), mentre è chiaro che (βi bi = 0,
in A/aj ) per j 6= i perché in tal caso bi = a1 · · · abi · · · aj · · · as (oppure
bi = a1 · · · aj · · · abi · · · as ) è un multiplo di aj .
Siano adesso dati c1 , . . . , cs ∈ A. Se poniamo c := β1 b1 c1 + . . . + βs bs cs ,
allora (c = ci , in A/ai ) per ogni i = 1, . . . , s.
Non è difficile (e per noi irrilevante) dimostrare che c è univocamente
determinato dal modulo a1 · · · as .
Osservazione 10.8. Sia H ∈ C[x] come nel teorema 10.4. Allora H
possiede per ogni k = 1, . . . , s uno sviluppo di Taylor
H = H(λk ) + H ′ (λk )(x − λk ) + . . . +
H (mk −1) (λk )
(x − λk )mk −1 + . . . =
(mk − 1)!
vk,mk −1
= vk0 + vk1 (x − λk ) + . . . +
(x − λk )mk −1 + . . .
(mk − 1)!
{z
}
|
=:Hk
e quindi
(H = Hk , in C[x]/(x − λk )mk −1 )
(*)
Siccome i polinomi (x − λi )mi sono a due a due relativamente primi,
dal lemma 10.8 vediamo che H è univocamente determinato dalle relazioni (*).
Osservazione 10.9. Dal punto di vista numerico forse più trasparente è la tecnica del calcolo delle differenze che esponiamo adesso.
Lemma 10.10. Nelle ipotesi e con le notazioni della definizione 10.5
siano i 6= l e
F := H[λ1 : v1 , . . . , λi : vi− , . . . , λs : vs ]
G := H[λ1 : v1 , . . . , λl : vl− , . . . , λs : vs ]
Allora
H=
x − λi
x − λl
F+
G
λl − λ i
λi − λ l
Dimostrazione. Possiamo assumere i = 1, l = 2.
Usiamo l’unicità dei polinomi d’interpolazione di Hermite stabilita
nel teorema 10.4. Per ipotesi abbiamo
47
H (j) (λk ) = vkj
F (j) (λk ) = ukj
G(j) (λk ) = wkj
per k = 1, . . . , s e j = 0, . . . , mk − 1 con
ukj = vkj tranne che per k = 1, j = m1 − 1 e
wkj = vkj tranne che per k = 2, j = m2 − 1.
Ponendo A := (x − λ1 )F, B := (x − λ2 )G ed
1
1
A+
B
L :=
λ2 − λ1
λ1 − λ 2
abbiamo che L ha lo stesso grado di H ed è quindi sufficiente dimostrare che L è soluzione del problema d’interpolazione corrispondente
ad H .
Con j e k come prima, per la regola di Leibniz abbiamo
A(j) = (x − λ1 )F (j) + jF (j−1)
e similmente
B (j) = (x − λ2 )G(j) + jG(j−1)
dove il secondo sommando in entrambi i casi si annulla per j = 0.
Perciò
A(j) (λk ) = (λk − λ1 )F (j) (λk ) + jF (j−1) (λk ) = (λk − λ1 )ukj + juk,j−1
B (j) (λk ) = (λk − λ2 )G(j) (λk ) + jG(j−1) (λk ) = (λk − λ2 )wkj + jwk,j−1
cosicché
L(j) (λk ) =
1
[(λk − λ1 )ukj − (λk − λ2 )wkj + j(uk,j−1 − wk,j−1 )]
λ2 − λ1
(1) Sia k ≥ 3. Allora ukj = wkj = vkj per ogni j e quindi
L(j) (λk ) =
1
[λ2 − λ1 ]vkj = vkj
λ2 − λ 1
(2) Per k = 1 abbiamo
1
L(j) (λ1 ) =
[(λ2 − λ1 )w1j + j(u1,j−1 − w1,j−1 )]
λ2 − λ1
= w1j + j(u1,j−1 − w1,j−1 )
Però w1j = v1j , mentre, essendo j − 1 < m1 − 1, anche
u1,j−1 = w1,j−1 = v1,j−1 per j > 0, mentre il sommando multiplo
di j si annulla per j = 0. Ciò mostra che L(j) (λ1 ) = v1j .
(3) Nello stesso modo si vede che L(j) (λ2 ) = v2j per ogni j .
48
Osservazione 10.11. Per s=1 il polinomio di interpolazione di Hermite coincide con lo sviluppo di Taylor:
H[λ1 : (v10 , . . . , v1,m1 −1 )] =
m
1 −1
X
v1j
j=0
(x − λ1 )j
j!
Dimostrazione. Chiaro.
Nota 10.12. Otteniamo cosı̀ un semplice algoritmo ricorsivo per il calcolo del polinomio di interpolazione di Hermite:
Per s = 1 utilizziamo il lemma 10.11, altrimenti riduciamo il grado
del problema mediante il lemma 10.10.
Soprattutto nei conti a mano si può accorciare l’algoritmo utilizzando che H[λ1 : (v10 ), . . . , λs : (vs0 )] = v10 L1 + . . . + vs0 Ls nella notazione
della osservazione 9.7.
Esempio 10.13. Calcoliamo H := H[1 : (3), 2 : (7, 1)].
Abbiamo
H=
x−1
x−2
F+
G = (x − 1)F − (x − 2)G
2−1
1−2
con
F = H[2 : (7, 1)] = 7 + (x − 2) = x + 5
x−2
x−1
7+
3 = 7(x − 1) − 3(x − 2) = 4x − 1
G = H[1 : (3), 2 : (7)] =
2−1
1−2
e quindi
H = (x − 1)(x + 5) − (x − 2)(4x − 1) = −3x2 + 13x − 7
Verifica: H ′ = −6x + 13
H(1) = −3 + 13 − 7 = 3
H(2) = −12 + 26 − 7 = 7
H ′ (2) = −12 + 13 = 1
Esempio 10.14. Calcoliamo H := H[1 : (3, 4), 0 : (6, 2, 10)].
x−1
x
Abbiamo H =
F + G = (1 − x)F + xG con
0−1
1
x
x−1
F1 + G1 = (1 − x)F1 + xG1
0−1
1
10 2
= H[0 : (6, 2, 10)] = 6 + 2x + x = 6 + 2x + 5x2
2
= H[1 : (3), 0 : (6, 2)] = (1 − x)F2 + xG2
= H[0 : (6, 2)] = 6 + 2x
= H[1 : (3), 0 : (6)] = 6(1 − x) + 3x = 6 − 3x
F = H[1 : (3), 0 : (6, 2, 10)] =
F1
G1
F2
G2
49
G = H[1 : (3, 4), 0 : (6, 2)] = (1 − x)F3 + xG3
F3 = H[1 : (3), 0 : (6, 2)] = G1
G3 = H[1 : (3, 4), 0 : (6)] = (1 − x)F4 + xG4
F4 = H[1 : (3), 0 : (6)] = G2
G4 = H[1 : (3, 4)] = 3 + 4(x − 1) = 4x − 1
per cui
G3 = (1 − x)F4 + xG4 = (1 − x)G2 + xG4
= (1 − x)(6 − 3x) + x(4x − 1)
= 7x2 − 10x + 6
G1 = (1 − x)F2 + xG2
= (1 − x)(6 + 2x) + x(6 − 3x) = −5x2 + 2x + 6
G = (1 − x)F3 + xG3 = (1 − x)G1 + xG3
= (1 − x)(−5x2 + 2x + 6) + x(7x2 − 10x + 6)
= 12x3 − 17x2 + 2x + 6
F = (1 − x)F1 + xG1
= (1 − x)(6 + 2x + 5x2 ) + x(−5x2 + 2x + 6)
= −10x3 + 5x2 + 2x + 6
H = (1 − x)F + xG
= (1 − x)(−10x3 + 5x2 + 2x + 6) + x(12x3 − 17x2 + 2x + 6)
= 22x4 − 32x3 + 5x2 + 2x + 6
Verifica: H ′ = 88x3 − 96x2 + 10x + 12, H ′′ = 264x2 − 192x + 10
H(1) = 22 − 32 + 5 + 2 + 6 = 3
H ′ (1) = 88 − 96 + 10 + 2
H(0) = 6
H ′ (0) = 2
H ′′ (0) = 10
Nota 10.15. Possiamo realizzare l’algoritmo indicato nella nota 10.12
in Python mediante le seguenti funzioni che utilizzano il modulo swiginac.
Swiginac è un modulo che aggancia Python a Ginac, una libreria di
calcolo simbolico.
Tra le funzioni che possono essere utilizzate dopo avere importato
questo modulo (con from swiginac import * ) menzioniamo aus.Var
che utilizziamo qui di seguito e che permette di attribuire il carattere
di variabile a una stringa che contiene il nome della variabile.
aus.Var(’x’,hermite)
def Copiadiz (a):
return dict([(x,copy.copy(a[x])) for x in a.keys()])
50
def Hermite (A):
L=A.keys(); alfa=L[0]
if len(L)==1: return Taylor(alfa,A[alfa])
beta=L[1]; A1=Copiadiz(A); A2=Copiadiz(A)
v1=A1[alfa]; v1.pop(); v2=A2[beta]; v2.pop()
if not v1: del A1[alfa]
if not v2: del A2[beta]
f=(x-alfa)*Hermite(A1); g=(x-beta)*Hermite(A2)
h=(f-g)/float(beta-alfa); return h
# Lista dei coefficienti di (x-alfa) in f.
def Lista (f,alfa=0):
g=f.series(x==alfa,f.degree(x)+1)
h=g.subs(x==x+alfa)
return [h.coeff(x,i) for i in xrange(h.degree(x)+1)]
def Taylor (alfa,v):
f=0+0*x; p=1.0
for j,vj in enumerate(v):
f=f+vj*p/mat.Fatt(j); p*=(x-alfa)
return f
Otteniamo i risultati degli esempi 10.13 e 10.14 con
print hermite.Lista(hermite.Hermite({1:[3], 2:[7,1]}))
# [-7.0, 13.0, -3.0]
print hermite.Lista(hermite.Hermite({1:[3,4], 0:[6,2,10]}))
# [6.0, 2.0, 5.0, -32.0, 22.0]
Definizione 10.16. Nelle ipotesi e con le notazioni della definizione
10.5 denotiamo con ∆[λ1 : v1 , . . . , λs : vs ] il coefficiente della potenza
massimale formale, cioè di xm−1 , in H[λ1 : v1 , . . . , λs : vs ].
Scegliamo questa notazione perché questi coefficienti corrispondono
a uno schema alle differenze che deriva dal lemma 10.10, come vedremo adesso.
Elenchiamo inoltre le condizioni
H (0) (λ1 ) = v10 ,
...,
H (m1 −1) (λ1 ) = v1,m1 −1 ,
H (0) (λ2 ) = v20 ,
...
nell’ordine indicato e denotiamo, per i = 0, . . . , m − 1, con
H[λ1 : v1 , . . . , λs : vs ][i] il polinomio di interpolazione di Hermite che
corrisponde alle prime i + 1 condizioni; in modo analogo sia definito
∆[λ1 : v1 , . . . , λs : vs ][i] .
In particolare H[λ1 : v1 , . . . , λs : vs ][0] = ∆[λ1 : v1 , . . . , λs : vs ][0] = v10 .
Definiamo poi (α1 , . . . , αm ) := (λ1 , . . . , λ1 , . . . , λs , . . . , λs ) ed infine
| {z }
| {z }
m1
(x − α)[0] := 1
(x − α)[1] := x − α1
(x − α)[i] := (x − α1 ) · · · (x − αi )
51
ms
per i = 1, . . . , m.
Proposizione 10.17. Nelle ipotesi e con le notazioni della nota 10.16
si hanno le seguenti relazioni:
(1) Se i 6= l, allora
∆[λ1 : v1 , . . . , λs : vs ] =
∆[λ1 : v1 , . . . , λi : vi− , . . . , λs : vs ] − ∆[λ1 : v1 , . . . , λl : vl− , . . . , λs : vs ]
λl − λ i
v1,m1 −1
.
(2) ∆[λ1 : v1 ] =
(m1 − 1)!
Dimostrazione. Ciò segue direttamente dal lemma 10.10 e dall’osservazione
10.11.
Teorema 10.18. Con le notazioni della definizione 10.16 vale
H[λ1 : v1 , . . . , λs : vs ] =
m−1
X
∆[λ1 : v1 , . . . , λs : vs ][i] (x − α)[i]
i=0
Dimostrazione. Induzione su m.
m = 1:
H(λ1 : (v10 )) = v10
∆[λ1 : v1 , . . . , λs : vs ][0] = v10
(x − α)[0] = 1
m − 1 → m:
Per definizione H = H[λ1 : v1 , . . . , λs : vs ] = ∆[λ1 : v1 , . . . , λs : vs ][m−1]
(x − α)[m−1] + f , dove f è un polinomio di grado < m − 1, perché il
coefficiente di xm−1 in H coincide con il coefficiente di (x − α)[m−1] e
∆[λ1 : v1 , . . . , λs : vs ] = ∆[λ1 : v1 , . . . , λs : vs ][m−1] .
Per il lemma 10.2 però g := ∆[λ1 : v1 , . . . , λs : vs ][m−1] soddisfa le condizioni g(j) (λk ) = 0 per k = 1, . . . , s e j = 0, . . . , ms − 1 tranne l’ultima,
se le elenchiamo nello stesso ordine come le condizioni originali che
determinano H .
Ma ciò significa che f = H − g = H[λ1 : v1 , . . . , λs : vs− ] e quindi, per
induzione,
H = ∆[λ1 : v1 , . . . , λs : vs ][m−1] +
m−2
X
∆[λ1 : v1 , . . . , λs : vs ][i] (x − α)[i]
i=0
Esempio 10.19. Calcoliamo H := H[1 : (3), 2 : (7, 1)], già calcolato
nell’esempio 10.13, con il metodo del teorema 10.18.
Abbiamo
H = ∆[1 : (3)]+∆[1 : (3), 2 : (7)](x−1)+∆[1 : (3), 2 : (7, 1)](x−1)(x−2)
52
con
∆[1 : (3)] = 3
∆[2 : (7)] − ∆[1 : (3)]
∆[1 : (3), 2 : (7)] =
=7−3 =4
2−1
∆[2 : (7, 1)] − ∆[1 : (3), 2 : (7)]
= 1 − 4 = −3
∆[1 : (3), 2 : (7, 1)] =
2−1
Quindi
H = 3 + 4(x − 1) − 3(x − 1)(x − 2) = −3x2 + 13x − 7.
Esempio 10.20. Calcoliamo H := H[0 : (6, 2, 10), 1 : (3, 4)], già calcolato nell’esempio 10.14, con il metodo del teorema 10.18.
Abbiamo
H =∆[0 : (6)] + ∆[0 : (6, 2)]x + ∆[0 : (6, 2, 10)]x2
+ ∆[0 : (6, 2, 10), 1 : (3)]x3 + ∆[0 : (6, 2, 10), 1 : (3, 4)]x3 (x − 1)
con
∆[0 : (6)] = 6
∆[0 : (6, 2)] = 2
∆[0 : (6, 2, 10)] = 5
∆[0 : (6, 2, 10), 1 : (3)] = ∆[0 : (6, 2), 1 : (3)] − ∆[0 : (6, 2, 10)]
= ∆[0 : (6), 1 : (3)] − ∆[0 : (6, 2)] − 5
= 3 − 6 − 2 − 5 = −10
∆[0 : (6, 2, 10), 1 : (3, 4)] = ∆[0 : (6, 2), 1 : (3, 4)] − ∆[0 : (6, 2, 10), 1 : (3)]
= A + 10
con
A = ∆[0 : (6), 1 : (3, 4)] − ∆[0 : (6, 2), 1 : (3)]
= ∆[1 : (3, 4)] − ∆[0 : (6), 1 : (3)] + 5 = 4 − (∆[1 : (3)] − ∆[0 : (6)]) + 5
= 4 − (3 − 6) + 5 = 12
per cui
H = 6 + 2x + 5x2 − 10x3 + 22x3 (x − 1) = 22x4 − 32x3 + 5x2 + 2x + 6
Nota 10.21. I calcoli che utilizziamo nel teorema 10.18 possono essere
semplificati mediante il seguente schema alle differenze che illustriamo per il caso
H = H[λ1 : (v10 , v11 , v12 ), λ2 : (v20 ), λ3 : (v30 , v31 ), λ4 : (v40 , v41 )].
53
λ1 : (v10 , v11 , v12 )
v10
λ2 : (v20 )
λ3 : (v30 , v31 )
λ4 : (v40 , v41 )
[λ1 ]
v11
v10
[λ1 ]
v12
2
[λ1 ]
v11
[λ1 , λ2 ]
diff.
λ2 − λ1
v10
[λ1 , λ2 ]
diff.
λ2 − λ1
[λ1 , λ3 ]
diff.
λ3 − λ1
[λ1 , λ2 ]
v20 − v10
λ2 − λ1
[λ1 , λ3 ]
diff.
λ3 − λ1
[λ1 , λ3 ]
diff.
λ3 − λ1
v20
[λ1 , λ3 ]
diff.
λ3 − λ1
[λ1 , λ3 ]
diff.
λ3 − λ1
[λ1 , λ4 ]
diff.
λ4 − λ1
[λ2 , λ3 ]
v30 − v20
λ3 − λ2
[λ1 , λ3 ]
diff.
λ3 − λ1
[λ1 , λ4 ]
diff.
λ4 − λ1
[λ1 , λ4 ]
v30
[λ2 , λ3 ]
diff.
λ3 − λ2
[λ1 , λ4 ]
diff.
λ4 − λ1
[λ1 , λ4 ]
diff.
λ4 − λ1
[λ3 ]
v31
[λ2 , λ4 ]
diff.
λ4 − λ2
[λ1 , λ4 ]
diff.
λ4 − λ1
v30
[λ3 , λ4 ]
diff.
λ4 − λ3
[λ2 , λ4 ]
diff.
λ4 − λ2
[λ3 , λ4 ]
v40 − v30
λ4 − λ3
[λ3 , λ4 ]
diff.
λ4 − λ3
v40
[λ3 , λ4 ]
diff.
λ4 − λ3
[λ4 ]
v41
v40
vkj
, dove
j!
j è il numero della colonna nello schema, oppure della forma [λi , λl ]
diff.
e seguite allora da
, dove nel numeratore si trova la differenza
λl − λ i
dei termini separati, nella colonna precedente, dalla parentesi quadra.
Le parentesi sono o della forma [λk ], seguite in tal caso da
È chiaro che nella diagonale superiore otteniamo i coefficienti
∆[λ1 : v1 , . . . , λs : vs ][i] .
Esempio 10.22. Calcoliamo H = H[0 : (−1, −2), 1 : (0, 10, 40)]
(cfr. Stoer, pag.47).
0 : (−1, −2)
−1
1 : (0, 10, 40)
[0]
−2
−1
[0, 1]
3
[0, 1]
1
[0, 1]
6
0
[0, 1]
9
[0, 1]
[1]
10
[0, 1]
11
0
[1]
20
[1]
10
0
Quindi
54
5
diff.
λ4 − λ1
H = −1 − 2x + 3x2 + 6x2 (x − 1) + 5x2 (x − 1)2 .
Esempio 10.23. Calcoliamo
H = H[1 : (2, 5, 6), 2 : (11), 3 : (0, −27), 4 : (−37, 158)].
1 : (2, 5, 6)
2
[1]
2 : (11)
3 : (0, −27)
4 : (−37, 158)
5
2
[1]
3
[1]
5
[1, 2]
1
2
[1, 2]
4
[1, 3]
[1, 2]
9
[1, 3]
−7
[1, 3]
3
11
[1, 3]
−10
[1, 3]
2
[1, 4]
−1
[2, 3]
−11
[1, 3]
−3
[1, 4]
0
[1, 4]
11
−4
0
[2, 3]
−16
[1, 4]
2
[1, 4]
[3]
−27
[2, 4]
3
[1, 4]
33
0
[3, 4]
−10
[2, 4]
101
[3, 4]
−37
[3, 4]
205
−37
[3, 4]
195
[4]
158
4
−37
Abbiamo cosı̀
H =2 + 5(x − 1) + 3(x − 1)2 + (x − 1)3 − 4(x − 1)3 (x − 2)+
+ 3(x − 1)3 (x − 2)(x − 3) − (x − 1)3 (x − 2)(x − 3)2 +
+ 4(x − 1)3 (x − 2)(x − 3)2 (x − 4)
Esempio 10.24. Per λ1 6= λ2 calcoliamo H = H[λ1 : (1, 0, 0), λ2 : (0, 0)].
λ1 : (1, 0, 0)
1
λ2 : (0, 0)
[λ1 ]
0
1
[λ1 ]
0
[λ1 ]
0
[λ1 , λ2 ]
1
[λ1 , λ2 ]
−
[λ1 , λ2 ] −
1
λ2 − λ 1
0
[λ1 , λ2 ]
[λ2 ]
0
1
(λ2 − λ1 )2
[λ1 , λ2 ]
1
(λ2 − λ1 )2
0
55
−
1
(λ2 − λ1 )3
[λ1 , λ2 ]
2
(λ2 − λ1 )3
3
(λ2 − λ1 )4
Abbiamo quindi
x − λ1 3 3(x − λ1 )3 (x − λ2 )
+
H =1−
λ2 − λ1
(λ2 − λ1 )4
Definizione 10.25. Per k = 1, . . . , s e j = 0, . . . , mk − 1 definiamo Hkj
come la soluzione del problema di interpolazione
(α)
Hkj (λβ ) = δkβ δjα
per β = 1, . . . , s ed α = 0, . . . , mβ − 1. Abbiamo quindi
H10 = H(λ1 : (1, 0, . . . , 0), . . .)
H11 = H(λ1 : (0, 1, . . . , 0), . . .)
H12 = H(λ1 : (0, 0, 1, . . . , 0), . . .)
...
H20 = H(λ1 : (0, . . . , 0), λ2 : (1, 0, . . . , 0), . . .)
H21 = H(λ1 : (0, . . . , 0), λ2 : (0, 1, 0, . . . , 0), . . .)
....
I polinomi Hkj sono detti polinomi di interpolazione fondamentali di
Hermite.
Nell’esempio 10.24 abbiamo calcolato H10 per m1 = 3, m2 = 2.
Proposizione 10.26. Nella situazione della definizione 10.25 siano
adesso dati numeri complessi vkj per k = 1, . . . , s e j = 0, . . . , mk − 1.
Sia H := H[λ1 : v1 , . . . , λs : vs ]. Allora
H=
s m
s −1
X
X
vkj Hkj .
k=1 j=0
Dimostrazione. Per β = 1, . . . , s ed α = 0, . . . , mβ − 1 abbiamo
H (α) (λβ ) =
s m
s −1
X
X
(α)
vkj Hkj (λβ ) =
s m
s −1
X
X
vkj δkβ δjα = vβα
k=1 i=0
k=1 i=0
Siccome grado Hkj < m per ogni k e j , H deve essere il polinomio
d’interpolazione di Hermite cercato.
Nota 10.27. Nel seguito, useremo l’interpolazione di Hermite sia per
ottenere formule esplicite per l’esponenziale di una matrice (capitoli
11 e 12) sia per lo studio delle funzioni di crescita di tumori.
56
11. La formula spettrale di Sylvester-Buchheim
Situazione 11.1. Siano A ∈ Cnn ed MA = (x − λ1 )m1 · · · (x − λs )ms con i
λk tutti distinti ed mk ≥ 1 per ogni k. Siano m := m1 + . . . + ms e t ∈ R.
Teorema 11.2. Ω sia un dominio di C che contiene lo spettro σ(A) ed
f, g : Ω → C due funzioni analitiche. Assumiamo che per ogni
k = 1, . . . , s si abbia f (j)(λk ) = g(j) (λk ) per ogni j = 0, . . . , mk − 1.
Allora f (A) = g(A).
Dimostrazione. Forst/Hoffmann, pag. 335, Cullen, pagg. 263-264,
Horn/Johnson, pagg. 396-397. Cfr. Gantmacher, pagg. 122-123, e Frommer/Simoncini.
Corollario 11.3. Sia g ∈ C[x] un polinomio tale che per ogni
k = 1, . . . , s si abbia tj etλk = g(j) (λk ) per ogni j = 0, . . . , mk − 1.
Allora etA = g(A).
Dimostrazione. Ciò segue dal teorema 11.2 se poniamo f (z) := etz .
Infatti allora f (j) (z) = tj etz .
Osservazione 11.4. Dal corollario 11.3 otteniamo una nuova dimostrazione della proposizione 9.22. Se infatti (A − λδ)m = 0, possiamo
m−1
X tj
(x − λ)j , dal
assumere che MA = (x − λ)m . Se poniamo g = etλ
j!
k=0
corollario 11.3 segue etA = g(A), in accordo con la proposizione 9.2.
Vediamo adesso come questa semplice osservazione può essere generalizzata nel caso generale tramite la teoria del polinomio di interpolazione di Hermite.
Osservazione 11.5. Sia mk = 1 per ogni k = 1, . . . , s. In tal caso m = n. Se scegliamo vk0 = etλk nella proposizione 10.7, H coincide necessariamente con il polinomio di interpolazione di Lagrange
n
X
eλk t Lk (A) e dal corollario 10.3 otteniamo
k=1
etA
=
n
X
eλk t Lk (A)
k=1
in accordo con la proposizione 9.10.
Proposizione 11.6 (formula spettrale di Sylvester-Buchheim).
Ω sia un dominio di C che contiene lo spettro σ(A) ed f : Ω → C una
funzione analitica. Allora
f (A) =
s m
k −1
X
X
f (j)(λk )Hkj (A).
k=1 j=0
57
Dimostrazione. Se poniamo vkj = f (j) (λk ) ed H := H[λ1 : v1 , . . . , λs :
vs ], dal teorema 11.2 abbiamo f (A) = H(A). L’enunciato segue dalla
prop. 10.26.
Corollario 11.7.
etA
=
s m
k −1
X
X
tj etλk Hkj (A).
k=1 j=0
Osservazione 11.8. Sia p ∈ C[x] \ 0 con p(A) = 0. Allora
p = (x − λ1 )r1 · · · (x − λs )rs (x − λs+1 )rs+1 · · · (x − λv )rv
con v ≥ s, λs+1 , . . . , λv ∈ C ed r1 ≥ m1 , . . . , rs ≥ ms .
Se formiamo i polinomi di interpolazione fondamentali di Hermite
g
Hkj rispetto a questo sistema di valori, allora si ha ancora
v m
k −1
X
X
tA
g
tj etλk H
e =
kj (A). In verità quasi sempre ci si può limitare al
k=1 j=0
g
g
caso v = s e del teorema 11.6, applicato agli H
kj , si vede che Hkj (A) = 0
per k = 1, . . . , s e j ≥ mk . Possiamo in particolare applicare questo
ragionamento quando p = PA . Cfr. Forst/Hoffmann, pag.335.


0 1 0
Esempio 11.9. Sia A = 4 3 −4. Allora PA = MA = x(x − 1)2 .
1 2 −1
H10 = H[0 : (1), 1 : (0, 0)]
H20 = H[0 : (0), 1 : (1, 0)]
H21 = H[0 : (0), 1 : (0, 1)]
Questi polinomi fondamentali si calcolano facilmente con il metodo
della nota 10.21 che applichiamo in uno schema unico in cui separiamo
con punto e virgola i termini corrispondenti a indici diversi:
0 : (1); (0); (0)
1; 0; 0
1 : (0, 0); (1, 0); (0, 1)
[0, 1]
−1; 1; 0
0; 1; 0
[0, 1]
[1]
0; 0; 1
0; 1; 0
Abbiamo cosı̀
H10 = 1 − x + x(x − 1) = (x − 1)2
H20 = x − x(x − 1) = x(2 − x)
H21 = x(x − 1)
Per il corollario 11.7 abbiamo
etA = H10 (A) + et H20 (A) + tet H21 (A)
58
1; −1; 1
dove

2 

−1 1 0
5 1 −4
H10 (A) = (A − δ)2 =  4 2 −4 = 0 0 0 
1 2 −2
5 1 −4



 
−4 −1 4
0 1 0
2 −1 0
1 0
H20 (A) = A(2δ − A) = 4 3 −4 −4 −1 4 =  0
−5 −1 5
1 2 −1
−1 −2 3


 

0 1 0
−1 1 0
4 2 −4
H21 (A) = A(A − δ) = 4 3 −4  4 2 −4 = 4 2 −4
1 2 −1
1 2 −2
6 3 −6
cosicché

 



5 1 −4
−4 −1 4
4 2 −4
1 0 et + 4 2 −4 tet
etA = 0 0 0  +  0
5 1 −4
−5 −1 5
6 3 −6
Cfr. Forst/Hoffmann, pag.341.
Esempio 11.10. Sia MA = x2 (x − 1)3 (x − 2). Calcoliamo etA .
Per il corollario 11.7 abbiamo:
etA = H10 (A)+tH11 (A)+et H20 (A)+tet H21 (A)+t2 et H22 (A)+e2t H30 (A)
Calcoliamo con lo schema:
H10
H11
H20
H21
H22
H30
= H[0 : (1, 0); 1
= H[0 : (0, 1); 1
= H[0 : (0, 0); 1
= H[0 : (0, 0); 1
= H[0 : (0, 0); 1
= H[0 : (0, 0); 1
: (0, 0, 0); 2
: (0, 0, 0); 2
: (1, 0, 0); 2
: (0, 1, 0); 2
: (0, 0, 1); 2
: (0, 0, 0); 2
: (0)]
: (0)]
: (0)]
: (0)]
: (0)]
: (1)]
0 : (1, 0); (0, 1); (0, 0); (0, 0); (0, 0); (0, 0)
1; 0; 0; 0; 0; 0
1 : (0, 0, 0); (0, 0, 0); (1, 0, 0); (0, 1, 0); (0, 0, 1); (0, 0, 0)
2 : (0); (0); (0); (0); (0); (1)
[0]
0; 1; 0; 0; 0; 0
1; 0; 0; 0; 0; 0
[0, 1]
[0, 1]
−1; 0; 1; 0; 0; 0
0; 0; 1; 0; 0; 0
[0, 1]
[1]
0; 0; 0; 1; 0; 0
0; 0; 1; 0; 0; 0
[1]
[1]
0; 0; 0; 1; 0; 0
0; 0; 1; 0; 0; 0
[1, 2]
[1, 2]
0; 0; −1; 0; 0; 1
0; 0; 0; 0; 0; 1
59
−1; −1; 1; 0; 0; 0
[0, 1]
2; 1; −2; 1; 0; 0
1; 0; −1; 1; 0; 0
[1, 2]
−3; −1; 3; −2; 21 ; 0
[0, 1]
−1; 0; 1; −1; 21 ; 0
[0, 2]
0; 0; 0; 0; 21 ; 0
[0, 2]
1
; 0; −1; 0; − 12 ; 12
2
[1, 2]
0; 0; −1; −1; − 21 ; 1
7 1
; ; −2; 1; − 21 ; 41
4 2
0; 0; −1; −1; 0; 1
Dunque
7
H10 = 1 − x2 + 2x2 (x − 1) − 3x2 (x − 1)2 + x2 (x − 1)3
4
1
2
2
2
2
H11 = x − x + x (x − 1) − x (x − 1) + (x − 1)3
2
2
2
2
2
H20 = x − 2x (x − 1) + 3x (x − 1) − 2x2 (x − 1)3
H21 = x2 (x − 1) − 2x2 (x − 1)2 + x2 (x − 1)3
1
1
H22 = x2 (x − 1)2 − x2 (x − 1)3
2
2
1 2
3
H30 = x (x − 1)
4
Perciò
7
etA =δ − A2 + 2A2 (A − δ) − 3A2 (A − δ)2 + A2 (A − δ)3 +
4
1
+ t[A − A2 + A2 (A − δ) − A2 (A − δ)2 + A2 (A − δ)3 ]+
2
+ et [A2 − 2A2 (A − δ) + 3A2 (A − δ)2 − 2A2 (A − δ)3 ]+
+ tet [A2 (A − δ) − 2A2 (A − δ)2 + A2 (A − δ)3 ]+
1
1
1
+ t2 et [ A2 (A − δ)2 − A2 (A − δ)3 ] + e2t A2 (A − δ)3
2
2
4
5
1
27 2 1 3 7 4
=(A − δ)(−δ − A + A − A + A ) + tA(A − δ)(−δ + A − 2A2 + A3 )
4
2
4
2
2
1
+ tet (A − δ)A2 (4δ − 4A + A2 ) + t2 et A2 (A − δ)(2δ − A)+
2
2t 1 2
3
+ e A (A − δ)
4
Osservazione 11.11. Quando gli autovalori di A non sono noti, possono essere usate formule algebriche di ricorrenza al posto della rappresentazione spettrale, come esposto nel lavoro di Verde Star citato
in bibliografia.
60
12. Matrici che soddisfano un’equazione cubica
Situazione 12.1. Siano A ∈ Cnn , λ, µ, ν ∈ C ed m ∈ N + 1. Ω sia un
dominio di C che contiene la spettro σ(A) ed f : Ω → C una funzione
analitica. t ∈ R.
Nota 12.2. Sia MA = (x − λ)m . Allora
f (A) =
m−1
X
j=0
etA = eλt
f (j) (λ)
(A − λδ)j
j!
m−1
X tj
j=0
j!
(A − λδ)j
Dimostrazione. La seconda formula è in accordo con la proposizione
9.2 e con il corollario 11.3.
Essa è anche una conseguenza immediata del teorema 11.2. Dall’osservazione
11.4 abbiamo
H1j =
f (j) (λ)
j!
e quindi
H=
m−1
X
j=0
f (j) (λ)
(x − λ)j
j!
dal teorema 11.2.
Per f (z) = etz otteniamo la rappresentazione di etA ; cfr. corollario
11.3.
Nota 12.3. Sia MA = (x − λ)(x − µ) con λ 6= µ. Allora
f (λ)
(A − µδ) +
λ−µ
eλt
=
(A − µδ) +
λ−µ
f (A) =
etA
f (µ)
(A − λδ)
µ−λ
eµt
(A − λδ)
µ−λ
Dimostrazione. La seconda formula segue dalla prima ed è in accordo con la proposizione 8.12.
Per dimostrare la prima formula dal teorema 11.2 calcoliamo
H10 = H[λ : (1), µ : (0)]
H20 = H[λ : (0), µ : (1)]
Usiamo lo schema:
61
λ : (1); (0)
1; 0
µ : (0); (1) [λ, µ] −
1
1
;
λ − µ (µ − λ)
0; 1
Per cui
x−λ
x−µ
=
µ−λ
λ−µ
x−λ
=
µ−λ
H10 = 1 −
H20
cosicché
H = f (λ)
x−λ
x−µ
+ f (µ)
λ−µ
µ−λ
Nota 12.4. Sia MA = (x − λ)2 (x − µ) con λ 6= µ. Allora
f (µ) − f (λ)
f ′ (λ)
′
f (A) = f (λ)δ + f (λ)(A − λδ) +
−
(A − λδ)2
(µ − λ)2
µ−λ
µt
e − eλt
teλt
tA
λt
λt
e = e δ + te (A − λδ) +
(A − λδ)2
+
(µ − λ)2
µ−λ
Dimostrazione. La seconda formula segue dalla prima e potrebbe
essere ricondotta alla proposizione 9.2; cfr. Cheng/Yau, pag. 150.
Per utilizzare il teorema 11.2 calcoliamo
H10 = H[λ : (1, 0); µ : (0)]
H11 = H[λ : (0, 1); µ : (0)]
H20 = H[λ : (0, 0); µ : (1)]
tramite lo schema della nota 9.27.
λ : (1, 0); (0, 1); (0, 0)
1; 0; 0
[λ]
0; 1; 0
1; 0; 0 [λ, µ]
µ : (0); (0); (1)
[λ, µ]
1
1
; 0;
λ−µ
µ−λ
0; 0; 1
62
−
1
1
1
;
;
2
(µ − λ) λ − µ (µ − λ)2
da cui
(x − λ)2
(µ − λ)2
(x − λ)2
= (x − λ) −
(µ − λ)
2
x−λ
=
µ−λ
H10 = 1 −
H11
H20
e quindi
H = f (λ) + f ′ (λ)(x − λ) +
f (µ) − f (λ)
f ′ (λ)
−
(x − λ)2
(µ − λ)2
µ−λ
Nota 12.5. Sia MA = (x − λ)(x − µ)(x − ν) con λ, µ, ν distinti tra loro.
Allora
(A − λδ)(A − νδ)
(A − µδ)(A − νδ)
+ f (µ)
(λ − µ)(λ − ν)
(µ − λ)(µ − ν)
(A − λδ)(A − µδ)
+ f (ν)
(ν − λ)(ν − µ)
f (A) =f (λ)
(A − λδ)(A − νδ)
(A − µδ)(A − νδ)
+ eµt
(λ − µ)(λ − ν)
(µ − λ)(µ − ν)
(A − λδ)(A − µδ)
+ eνt
(ν − λ)(ν − µ)
etA =eλt
Dimostrazione. Queste formule seguono direttamente dall’osservazione
11.5.
Osservazione 12.6. In Cheng/Yau gli autovalori di matrici 3 × 3 e
4 × 4 sono calcolati in termini dei coefficienti di A; in questo modo si
ottengono formule per etA che in tal caso dipendono dai coefficienti.
63
13. L’algoritmo di Parlett-Koç per matrici triangolari
Situazione 13.1. A ∈ Cnn
una matrice della forma

λ1
0
0 ...
 a21 λ2
0 ...

a
a
λ
...
A=
32
3
 31
 ...
...
... ...
an1 an2 an3 ...
sia una matrice triangolare inferiore, cioè

0
0

0

... 
λn
È noto che PA = (x− λ1 ) · · · (x− λn ). Ω sia un dominio di C che contiene
lo spettro di A ed f : Ω → C una funzione analitica.
Nota 13.2. Sia M ∈ Cnn . Allora esiste una matrice unitaria T tale che
L := T −1 M T è triangolare inferiore (decomposizione di Schur, cfr. Golub/Van Loan, pag. 192, o Cullen, pagg. 166-174) e siccome
f (M ) = T f (L)T −1 per l’osservazione 6.14 (nell’ipotesi anche qui che
f sia una funzione analitica definita in un dominio che contiene lo
spettro di M ), è sufficiente saper calcolare funzioni di matrici triangolari. L’uso della decomposizione di Schur per funzioni di matrici non
triangolari rappresenta infatti lo stato dell’arte nel calcolo di funzioni
matriciali (Higham [F], pagg. 12-13).
In molti problemi medici inoltre appaiono sistemi di equazioni differenziali ordinarie a cascata, tipici per modelli compartimentali lineari,
in cui quindi dobbiamo calcolare l’esponenziale di una matrice triangolare inferiore.
Modelli simili sono utilizzati nella teoria dei reattori nucleari; cfr.
Attaya.
Osservazione
13.3. Sia 1 ≤ m < n. Allora possiamo sempre scrivere
B 0
n−m
n−m con B e D ancora
A =
con B ∈ Cm
m , D ∈ Cn−m , C ∈ Cm
C D
triangolari inferiori. Si ha inoltre
f (B)
0
f (A) =
X
f (D)
n−m .
con una matrice X ∈ Cm
Dimostrazione. Solo l’ultima affermazione non è evidente. Una dimostrazione si trova in Van Loan, pagg. 7-9, Golub/Van Loan, pag.
383.
Osservazione 13.4 (algoritmo di Parlett-Koç). Con A, B, C, D, X
come nella proposizione
13.3
poniamo F := f (A), M := f (B), N :=
M 0
f (D), cosicchè F =
. Assumiamo inoltre che σ(B) ∩ σ(D) = ∅,
X N
cioè che B e D non abbiano autovalori in comune. Allora
MB
0
BM
0
FA =
AF =
XB + N C N D
CM + DX DN
64
Dallo sviluppo di f in serie di potenze è evidente che AF = F A e quindi
(o per la stessa ragione) BM = M B e DN = N D . Inoltre
CM + DX = XB + N C .
In un algoritmo ricorsivo possiamo assumere di aver già calcolato
M ed N ; perciò la matrice E := N C − CM è nota e dobbiamo risolvere
in X l’equazione DX − XB = E .
Questa equazione, detta di Sylvester, possiede molte altre applicazioni. Nella soluzione dell’equazione di Sylvester abbiamo bisogno della condizione che σ(B) ∩ σ(D) = ∅. Siccome nella decomposizione di
Schur si può prescrivere l’ordine in cui gli autovalori appaiono nella
diagonale principale, possiamo applicare una trasformazione di Schur
anche nel nostro caso in cui A è già triangolare, per raggruppare autovalori uguali in blocchi adiacenti. L’algoritmo di Parlett-Koç si ferma
perciò quando rimangono da calcolare solo matrici della forma f (L),
dove gli autovalori di L sono tutti uguali; in tal caso f (L) può essere
calcolata con la formula di Taylor (corollario 12.2) .
r
Proposizione 13.5. Siano B ∈ Cm
m e D ∈ Cr . Allora l’applicazione
DX − XB : Crm → Crm è biettiva se e solo se σ(B) ∩ σ(D) = ∅.
X
In tal caso quindi per ogni matrice E ∈ Cnm esiste un’unica soluzione
X dell’equazione di Sylvester DX − XB = E .
Dimostrazione. Horn/Johnson, pagg. 268-270.
Osservazione 13.6. L’equazione DX − BX = E può essere considerata come un sistema lineare nelle mr incognite Xji e può essere
quindi risolta con il metodo di eliminazione di Gauss. La simmetria
dell’equazione permette però di formulare algoritmi più efficienti, anche se, nel caso generale, piuttosto complicati; cfr. Bartels/Stewart e
da Kirrinnis.
Come vedremo adesso, gli algoritmi si semplificano notevolmente
nel caso di matrici triangolari; cfr. Golub/Van Loan, pagg. 242-243.
r
r
Nota 13.7. Siano B ∈ Cm
m , D ∈ Cr , E ∈ Cm . La matrice B sia triangolare inferiore. Sia σ(D)∩σ(B) = ∅. Ciò significa che la matrice D−Bkk è
invertibile per ogni k = 1, . . . , m. L’unica soluzione X dell’equazione di
Sylvester DX − XB = E può essere trovata con il seguente algoritmo.
(1) Per le singole colonne DX − XB = E significa che
DXk − XBk = Ek per ogni k. Però
m
m
X
X
j 1
Xj Bkj = Bkk Xk + Bkk+1 Xk+1 + . . . + Bkm Xm
Xj Bk =
XBk =
j=1
j=k
1
dove in = sfruttiamo l’ipotesi che B sia triangolare inferiore e
che quindi Bkj = 0 per j < k.
(2) Da ciò otteniamo
(D − Bkk δ)Xk = Ek + Bkk+1 Xk+1 + . . . + Bkm Xm
m )X = E .
per k < m, mentre per k = m abbiamo (D − Bm
m
m
65
(3) Per ipotesi le matrici D − Bkk sono tutte invertibili e quindi possiamo risolvere successivamente
m
(D − Bm
δ)Xm = Em
m−1
m
(D − Bm−1
δ)Xm−1 = Em−1 + Bm−1
Xm
m−1
m
m−2
Xm−1 + Bm−2
Xm
(D − Bm−2
δ)Xm−2 = Em−2 + Bm−2
...
ottenendo cosı̀ tutte le colonne di X .
Esempio 13.8. Illustriamo l’algoritmo dell’osservazione 13.7 nel caso
dell’equazione DX − XB = E con


1 0 0
6 0
4
6
8
D=
, B = 4 3 0, E =
2 4
1 2 5
7 5 2
Osserviamo che σ(D)∩σ(B) = ∅ perché σ(D) = {6, 4} e σ(B) = {1, 3, 2}.
L’equazione da risolvere ammette un’unica soluzione che otteniamo
dalle relazioni:
(D − Bkk δ)Xk = Ek + Bkk+1 Xk+1 + . . . + Bkm Xm
Osserviamo che X ∈ R23 . Per k = 3 si ha:
(D − B33 δ)X3
6 0
2 0
−
X3
2 4
0 2
4 0
X3
2 2
−1
4 0
2 2
Per k = 2 si ha:
= E3
8
=
5
8
=
5


1
0
4
1 2 0

=
=
8 −2 4
− 14 21


!
1
0 8
2
4

X3 = 
= 1
5
− 14 21
2
= E2 + B23 X3
2
6
=
+5 1
2
2
16
=
2 + 25


1
0
3
1 1 0

=
=
3 −2 3
− 23 1


16
1
3
16
0
3

X2 =
=
9
− 32 1
37
2
−6
(D − B22 δ)X2
6 0
3 0
−
X2
2 4
0 3
3 0
X2
2 1
−1
3 0
2 1
66
Per k = 1 abbiamo
(D − B11 δ)X1 = E1 + B12 X2 + B13 X3


64
4
+
+
14
3
5 0

X1 = 
2 3
148
7
1− 6 + 2


1
−1
0
5
1
3 0
5 0

=
=
−2
5
2 3
15
2
1
− 15 3

 


118
118
1
0
5
3
15

=

X1 = 
2
121
1077
1
− 15
−
−
3
6
90
Quindi

X=
118
15
16
3
2
− 1077
90
− 37
6
1
2


Osservazione 13.9. Essendo in possesso di un algoritmo per la risoluzione dell’equazione di Sylvester, possiamo utilizzare il metodo
dell’osservazione 13.4 per calcolare l’esponenziale di una matrice.


3 0 0
Esempio 13.10. Calcoliamo etA per A = 2 5 0.
6 1 2
3
Osserviamo che n = 3 e prendiamo
m
=
1
.
Allora
B
=
,
5 0
M = etB = e3t , D ∈ R22 e D =
.
1 2
Dunque dobbiamo determinare N = etD .
5 0
e
Chiamiamo A = D =
allora
1 2
e= 5 ,M
f = e5t , D
e = 2 ,N
e = e2t , allora C
e= 1 .
B
5t
e
0
e
Dunque F = e
.
X e2t
e ∩ σ(B)
e = ∅, X
e è data da:
Poichè σ(D)
e −B
e 1 )X
e = (N
g
g 1
(D
C − CM)
1
e = e2t − e5t
(2 − 5)X
5t
2t
e = e −e
X
3
Quindi abbiamo trovato N e precisamente si ha:


e5t
0

N = etD = Fe =  e5t − e2t
e2t
3
67
B 0
Dunque dobbiamo determinare X , ricordando che A =
con
C D
2
5 0
M 0
B = 3 , C =
, D =
e F =
con M = e3t ,
6
1 2
X N

5t
e
0
 e X da determinare.
N =  e5t − e2t
e2t
3
Calcoliamo


e5t
0  2 − 2 e3t
E = N C − CM =  e5t − e2t
6
6
e2t
3


! 2(e5t − e3t )
2e5t
3t
2e

=  2 5t 16 2t
−
= 2 5t
3t
6e3t
(e − e2t ) + 6e2t
e
+
e
−
6e
3
3
3
Per determinare X dobbiamo risolvere l’equazione DX − XB = E .
Questa ammette un unica soluzione perché σ(D) ∩ σ(B) = ∅, infatti
σ(D) = {5, 2} e σ(B) = {3}.
La soluzione X è determinata dalle relazioni
(D − Bkk δ)Xk = Ek + Bkk+1 Xk+1 + . . . + Bkm Xm
Osserviamo che X ∈ R21 . Dunque
(D − B11 δ)X1
3 0
5 0
X1
−
0 3
1 2
2 0
X1
1 −1
−1
2 0
1 −1
= E1
=
=
2(e5t − e3t )
!
2( 31 e5t + 83 e2t − 3e3t )
!
2(e5t − e3t )
2( 13 e5t + 83 e2t − 3e3t )
1 −1 0
=−
2 −1 2
!
2(e5t − e3t )
1 −1 0
X = X1 = −
=
2 −1 2
2( 13 e5t + 83 e2t − 3e3t )
e5t − e3t
1 5t
3e
Quindi



etA = 

1 5t
3e
e3t
0
e5t − e3t
e5t
+ 5e3t −
16 2t
3 e
0
e5t −e2t
3


0


2t
e
Osserviamo che gli autovalori di A sono tutti distinti, in quanto σ(A) =
{3, 5, 2}, quindi per calcolare etA possiamo utilizzare anche la proposizione 9.10. Quindi
etA =
n
X
eλk t Lk (A)
k=1
68
+ 5e3t −
16 2t
3 e
!
con gli Lk come nella definizione 9.6.
Dunque, se poniamo λ1 := 3, λ2 := 5, λ3 := 2, abbiamo





 
1 0 0
−2 0 0
1 0 0
−2 0 0
1
1
 2 0 0  2 3 0 = −  2
0 0 = −1 0 0
L1 (A) =
(−2)(−1)
2 −10 0 0
5 0 0
6 1 −3
6 1 0


 0


1 0 0
0 0 0
0 0 0
1
1 

2 2 0  2 3 0 = 6 6 0 =  1
L2 (A) =
1
(2)(3) 6 1 −1
6
6 1 0
2 2 0
3
0
1
1
3

0
0

0



  0
−2 0 0
0 0 0
0
0 0
1

 2 0 0  2 2 0  = 1  0
0 0 =  0
L3 (A) =
−16
(−1)(−3)
3
6 1 −3
6 1 −1
−16 −1 3
3

e quindi
etA





0 0 0
0
1 0 0
= e3t −1 0 0 + e5t  1 1 0 + e2t  0
1
1
−16
5 0 0
3
3 0
3


3t
e
0
0



e5t − e3t
e5t
0


=



5t − e2t
e
16 2t
1 5t
3t
2t
e
3 e + 5e − 3 e
3
in accordo con quanto ottenuto con il primo metodo.

3 0 0

2 5 0
Esempio 13.11. Calcoliamo etA dove A = 
6 1 2
4 1 3
0
0
−1
3
0
0
−1
3

0
0

1

0
0
1

0
0
.
0
1
Osserviamo che A ∈ R44 (dunque n = 4) e prendiamo m = 2, quindi
B, C, D, M, N, X ∈ R22 . Dunque
B 0
M 0
A=
,F =
C D
X N
con
B=
2 0
6 1
3 0
.
,D =
,C =
3 1
4 1
2 5
Poiché (B − 3δ)(B − 5δ) = 0 e (D − 2δ)(D − δ) = 0 calcoliamo
M = f (B) = eBt e N = f (D) = eDt con la proposizione 8.12, quindi
1 −2 0 3t 1 0 0 5t
B − 5δ 3t B − 3δ 5t
e3t
0
Bt
e +
e =−
e +
e = 5t
M =e =
e − e3t e5t
3−5
5−3
2 2 0
2 2 2
D − δ 2t D − 2δ t
e2t
0
0 0
1 0 2t
t
Dt
e =
e −
e +
e =
N =e =
3 −1
3 0
3(e2t − et ) et
2−1
1−2
69
Dobbiamo determinare X come soluzione dell’equazione di Sylvester
DX − XB = E con E = N C − CM .
X esiste ed è unica poichè σ(D) ∩ σ(B) = ∅, infatti σ(D) = {2, 1} e
σ(B) = {3, 5}.
Le colonne di X sono date dalle relazioni
(D − Bkk δ)Xk = Ek + Bkk+1 Xk+1 + . . . + Bkm Xm
Calcoliamo E :
E = N C − CM =
=
=
e2t
0
2t
3(e − et ) et
e3t
0
6 1
6 1
−
4 1
4 1
e5t − e3t e5t
6e2t
e2t
2t
t
t
2t
18(e − e ) + 4e 3(e − et ) + et
6e3t + e5t − e3t e5t
−
4e3t + e5t − e3t e5t
−e5t − 5e3t + 6e2t
e2t − e5t
2t
t
3t
5t
2t
18e − 14e − 3e − e
3e − 2et − e5t
Ora determiniamo le colonne di X :
Per k = 2 si ha:
(D − B22 δ)X2 = E2
e2t − e5t
5 0
2 0
X2 =
−
0 5
3 1
3e2t − 2et − e5t
e2t − e5t
−3 0
X2 =
3 −4
3e2t − 2et − e5t
−1
1 −4 0
−3 0
=
3 −4
12 −3 −3
1
X2 =
12
1
=
12
1
=
12
−4 0
−3 −3
e2t − e5t
2t
3e − 2et − e5t
4e5t − 4e2t
−3e2t + 3e5t − 9e2t + 6et + 3e5t
4(e5t − e2t )
6(e5t − 2e2t + et )
Per k = 1 si ha:
(D − B11 δ)X1 = E1 + B12 X2

2t
5t
3t
6e − e − 5e
3 0
2 0
+ 2
X1 =
−
0 3
3 1
18e2t − 14et − 3e3t − e5t
1
2
70
1 5t
3 (e
(e5t
−
− e2t )
2e2t
+
et )




6e2t − e5t − 5e3t + 23 (e5t − e2t )
−1 0

X1 = 
3 −2
18e2t − 14et − 3e3t − e5t + e5t − 2e2t + et
−1 0
3 −2
−1
1
=
2
−2 0
−3 −1
1
2
X1 =
=
Quindi
etA




=F =




16 2t
3 e
− 13 e5t − 5e3t

−2 0 

−3 −1
16e2t − 13et − 3e3t

2 5t
2t
3t
− 32
3 e + 3 e + 10e

1

2 −16e2t + e5t + 15e3t − 16e2t + 13et + 3e3t
e3t
0
0
e5t − e3t
e5t
0
1 5t
3e
1 5t
2t
3t
− 16
3 e + 3 e + 5e
−16e2t + 12 e5t + 9e3t +
Esempio 13.12. Calcoliamo etA
− 31 e2t
e2t
1 5t
2e
13 t
2 e

1
3
per A = 
4
3
con
B=
1 0
4 5
2 0
,C =
,D =
.
3 1
3 7
1 2
Per calcolare M e N utilizziamo la proprosizione 8.5 poiché (B−δ)2 = 0
e (D − 2δ)2 = 0. Abbiamo quindi
t
e
0
0 0
1 0
tB
t
=
M =e =e
+t
3 0
3tet et
0 1
t
0 0
1 0
e
0
tD
t
N =e =e
+t
=
tet et
1 0
0 1
Ora dobbiamo determinare X come soluzione dell’equazione di Sylvester DX − XB = E con E = N C − CM .
X esiste ed è unica poichè σ(D) ∩ σ(B) = ∅, infatti σ(D) = {2} e
σ(B) = {1}.
71


0



0

− e2t + 12 et 3e2t − 3et et

0 0 0
1 0 0
.
5 2 0
7 1 2
Osserviamo che A ∈ R44 (dunque n = 4) e prendiamo m = 2, quindi
B, C, D, M, N, X ∈ R22 . Dunque
M 0
B 0
,F =
A=
X N
C D
0
Le colonne di X sono date dalle relazioni
(D − Bkk δ)Xk = Ek + Bkk+1 Xk+1 + . . . + Bkm Xm
Calcoliamo E :
E = N C − CM =
=
=
et 0
tet et
4et
5et
t
t
t
4te + 3e 5te + 7et
−15tet
0
−17tet 5tet
t
4 5
4 5
e
0
−
3 7
3 7
3tet et
−
4et + 15tet 5et
3et + 21tet 7et
Ora determiniamo le colonne di X :
Per k = 2 si ha:
(D − B22 δ)X2 = E2
2 0
1 0
0
−
X2 =
1 2
0 1
5tet
1 0
0
X2 =
1 1
5tet
1 0
1 1
−1
1 0
=1
−1 1
X2 =
1 0
−1 1
0
5tet
=
0
5tet
Per k = 1 si ha
(D − B11 δ)X1 = E1 + B12 X2
2 0
1 0
0
−15tet
−
+3
X1 =
1 2
0 1
−17tet
5tet
1 0
−15tet
X1 =
1 1
−2tet
−15tet
1 0
−15tet
=
X1 =
13tet
−1 1
−2tet
Quindi
etA

et

 3tet

=F =

−15tet

13tet
0
0
et
0
0
et
0


0



0

5tet tet et
72
Osservazione 13.13. Una trattazione molto dettagliata dei problemi
numerici che si presentano negli algoritmi che abbiamo esposto in questo capitolo si trova in Davies/Higham. Cfr. anche Koç e, per versioni
parallele, Bakkaloǧlu/Erciyeş/Koç e Koç/Bakkaloǧlu.
73
14. La rappresentazione di Wronski-Vandermonde
Situazione 14.1. Sia A ∈ Cnn . t ∈ R, talvolta una variabile. Denotiamo
con D l’operazione di derivazione rispetto a t.
g = (x − λ1 )m1 · · · (x − λs )ms = xm + b1 xm−1 + . . . + bm ∈ C[x] sia un
polinomio con g(A) = 0, non necessariamente il polinomio minimale o
il polinomio caratteristico di A. I valori λ1 , . . . , λs siano tutti distinti e
naturalmente m1 , . . . , ms ≥ 1.
Osserviamo che m = grado g = m1 + . . . + ms . Infine sia r ∈ N + 1.
Nota 14.2. La relazione DetA = AetA implica g(D)etA = g(A)etA = 0.
I coefficienti di etA sono quindi zeri dell’operatore differenziale g(D).
Questa osservazione sta alla base di una rappresentazione molto esplicita di etA tramite l’inversa di una matrice (confluente) di Vandermonde.
Seguiamo Harris/Fillmore/Smith e Luther/Rost.
Definizione 14.3. Denotiamo con S lo spazio delle soluzioni dell’equazione
differenziale dell’operatore g(D), per cui
S = {y ∈ C m (R, C) | g(D)y = 0}
= {y ∈ C m (R, C) | y (m) + b1 y (m−1) + . . . + bm y = 0}
È noto che S è uno spazio vettoriale su C di dimensione m e che ogni
v = (v1 , . . . , vm−1 ) ∈ Cm esiste un’unica soluzione y ∈ S che soddisfa le
condizioni iniziali y(0) = v0 , y ′ (0) = v1 , . . . , y (m−1) (0) = vm−1 .
Definizione 14.4. Siano y1 , . . . , yr ∈ C m (R, C). Allora per ogni t ∈ R
possiamo formare la matrice


y1 (t)
...
yr (t)
 y1′ (t)
...
yr′ (t) 

W [y; t] := Wm [y; t] = 
 ...
...
... 
(m−1)
(m−1)
y1
(t) . . . yr
(t)
detta matrice Wroskiana del sistema y1 , . . . , yr . Nella letteratura questa matrice viene spesso considerata solo nel caso r = m; in tal caso la
matrice è quadrata. Si noti che m è fissato e uguale al grado di g.
Proposizione 14.5. Siano y1 , . . . , ym ∈ S . Allora sono equivalenti:
(1)
(2)
(3)
(4)
y1 , . . . , ym è una base di S .
Le funzioni y1 , . . . , ym sono linearmente indipendenti su C.
W [y; t] è invertibile per ogni t ∈ R.
W [y; 0] è invertibile.
Dimostrazione. Corsi di analisi oppure ad esempio Amann, pag.
207, Knobloch/Kappel, pag. 28; per il caso reale Arnold, pagg. 210-212,
Heuser, pagg. 249-253.
74
Corollario 14.6. Da quanto osservato nella definizione 14.3, per ogni
matrice costante M ∈ Cm
r esiste un unico sistema z1 , . . . , zr ∈ S tale che
W [z; 0] = M . Questo sistema è una base di S se e solo se M è quadrata e
invertibile. In particolare otteniamo una base χ1 , . . . , χm di S chiedendo
che W [χ; 0] = δ. Questa base si chiama la base principale di S .
Nota 14.7. Sia y1 , . . . , ym una base di S e z1 , . . . , zr ∈ S . Allora per ogni
m
X
yi Tji con
j = 1, . . . , r esiste una rappresentazione della forma zj =
i=1
i coefficienti Tji ∈ C i quali insieme costituiscono una matrice T ∈ Cm
r
che ci permette di scrivere (z1 . . . zr ) = (y1 . . . ym )T .
Derivando più volte questa equazione otteniamo

 

z1
...
zr
y1 . . . ym
′ 
 z1′
 ′
...
zr′ 

 =  y1 . . . ym  T
 ...
...
. . .   . . . . . . . . .
(m−1)
(m−1)
(m)
m
z1
. . . zr
y1
. . . ym
e quindi, per ogni t ∈ R,
W [z; t] = W [y; t]T
La matrice costante T si calcola da W [z; 0] = W [y; 0]T ovvero
T = W [y; 0]−1 W [z; 0]
cosicchè W [z; t] = W [y; t]W [y; 0]−1 W [z; 0].
Se anche z1 , . . . , zm è una base di S , possiamo scrivere
W [z; t]W [z; 0]−1 = W [y; t]W [y; 0]−1
Questa matrice non dipende quindi dalla base y1 , . . . , ym ed è uguale a
W [χ; t], dove come nel corollario 14.6, con χ denotiamo la base principale di S .
Corollario 14.8. Siano z1 , . . . , zr ∈ S . Allora
(z1 . . . zr ) = (χ1 . . . χm )W [z; 0].
Proposizione 14.9. Sia y1 , . . . , ym una base di S . Allora la base principale di S possiede la rappresentazione
(χ1 . . . χm ) = (y1 . . . ym )W [y; 0]−1
Dimostrazione. Per la nota 14.7 abbiamo (χ1 . . . χm ) = (y1 . . . ym )T
con T = W [y; 0]−1 W [χ; 0] = W [y; 0]−1 .
Lemma 14.10. Siano z1 , . . . , zn i coefficienti della i-esima riga di etA .
t
Allora W [z; 0] è la matrice in cui, per ogni k = 1, . . . , m, la k-esima riga
è uguale alla i-esima riga di Ak−1 .
Se, per distinguerli dagli esponenti delle potenze, usiamo indici superiori {i} come indici di riga, abbiamo quindi
75

δ{i}
 A{i} 


2 ){i} 
W [z; 0] = W [(etA ){i} ; 0] = 
(A


t


...
(Am−1 ){i}

Dimostrazione. Per ipotesi le funzioni z1 , . . . , zn formano la i-esima
riga di etA =: X . Però DX = AX e perciò Dk X = Ak X per
t
k = 0, . . . , m − 1. Inoltre X(0) = δ, e quindi D k X(0) = Ak .
Considerando per ogni k solo la i-esima riga, otteniamo W [z; 0], e ciò
mostra l’enunciato.
6 20
Esempio 14.11. Sia A =
. Possiamo prendere
−1 −3
g = PA = (x − 1)(x − 2).
Per la nota 8.13
etA
= −(A −
2δ)et
+ (A −
δ)e2t
=
5e2t − 4et 20(e2t − et )
=: X
et − e2t
5et − 4e2t
Con le notazioni del lemma 14.10 abbiamo allora
2t
5e − 4et 20(e2t − et )
{1}
W [X ; t] =
10e2t − 4et 20(2e2t − et )
e quindi
W [X {1} ; 0] =
{1} 1 0
δ
=
6 20
A{1}
e similmente
W [X {2} ; t]
et − e2t 5et − 4e2t
et − 2e2t 5et − 8e2t
=
=
cosicché
W [X {2} ; 0]
{2} 0
1
δ
=
−1 −3
A{2}
in accordo con il lemma 14.10.
Teorema 14.12. etA = χ1 (t)δ + χ2 (t)A + χ3 (t)A2 + . . . + χm (t)Am−1 .
Dimostrazione. Con le notazioni del lemma 14.10, ponendo sempre
X := etA , consideriamo la i-esima riga di etA
t


X {i} = (χ1 . . . χm ) 

δ{i}
A{i}
...
(A(m−1) ){i}
e ciò significa proprio che




76
{i}
Xj
{i}



= (χ1 . . . χm ) 

{i}
Aj
...
{i}
(A(m−1) )j
per ogni j = 1, . . . , m, cioè
{i}
Xj
{i}
= χ1 δj

δj




{i}
{i}
+ χ2 Aj + . . . + χm (Am−1 )j
Siccome questa rappresentazione vale per ogni i, j , otteniamo l’enunciato.
Osservazione 14.13. Per il teorema 14.12 per calcolare etA è sufficiente trovare una base y1 , . . . , ym ∈ S , da cui con la proposizione 14.9
troviamo la base principale che possiamo utilizzare per rappresentare
etA come combinazione lineare di δ, A, A2 , . . . , Am−1 .
Definizione 14.14. Per k = 1, . . . , s e j ∈ N sia ekj := tj eλk t . Possiat
mo allora formare il vettore riga e∗ := (e1 , . . . , em ) in cui sono elencati,
in questo ordine, le funzioni
e10 , e11 , . . . , e1,m1 −1 , . . . , es0 , es1 , . . . , es,ms −1
L’asterisco serve solo per evitare la confusione con il numero e. e∗ si
chiama la base esponenziale (o base esponenziale naturale) di S .
Proposizione 14.15. e∗ è una base di S .
Dimostrazione. Corsi di analisi oppure ad esempio Walter, pag. 137.
L’enunciato può essere anche dedotto dal corollario 11.7.
Definizione 14.16. Per z ∈ C e p ∈ N definiamo la potenza decrescente
(
z(z − 1) · · · (z − p + 1)
per p ≥ 1
z[p] :=
1
per p = 0
Si noti che z[p] = 0 per z ∈ N e z < p.
Lemma 14.17. Per k = 1, . . . , s ed l, j ∈ N vale
Dl ekj (0) = l[j] λl−j
=
k
dj λlk
dλjk
Dimostrazione. Induzione su j .
j = 0: ek0 = eλk t
e
D l ek0 = λlk eλk t , per cui
Dl ek0 (0) = λlk = l[0] λl−0
k .
j → j + 1: ek,j+1 (t) = tekj (t).
Per la regola di Leibniz abbiamo D l ek,j+1 (t) = tD l ekj (t)+lD l−1 ekj (t),
per cui
77
ind.
l−(j+1)
Dl ek,j+1 (0) = lD l−1 ekj (0) = l(l − 1)[j] λkl−1−j = l[j+1] λk
Osservazione 14.18. La Wronskiana nell’origine W [e∗ ; 0] si ottiene
quindi concatenando verso destra le matrici


1
0
0
... 0


 λk
1
0
... 0 




 2

 λk
2λk
2
... 0 




 λ3
3λ2k
6λk
... 0 
 k





 ...
...
...
. . . . . .


λkm−1 (m − 1)λkm−2 (m − 1)(m − 2)λkm−3 . . . . . .
Per g = (x − λ)2 (x − µ)4 si ha ad esempio

1
0
1
0
0
λ
1
µ
1
0


λ2 2λ µ2 2µ
2

W [e∗ ; 0] =  3
λ 3λ2 µ3 3µ2 6µ

 4
λ 4λ3 µ4 4µ3 12µ2
0

0 


0 


6 


24µ 
λ5 5λ4 µ5 5µ4 20µ3 60µ2
Osservazione 14.19. Per la proposizione 14.9 abbiamo
(χ1 · · · χm ) = (e1 · · · em )W [e∗ ; 0]−1
La rappresentazione di Wronski-Vandermonde riconduce quindi il calcolo di etA al calcolo della matrice W [e∗ ; 0]−1 . La complessità numerica
dei più recenti algoritmi per il calcolo di questa inversa è discussa
molto dettagliatamente in Luther/Rost.


0
1
0
0
1 mediante il
Esempio 14.20. Calcoliamo etA per A =  0
12 −16 7
2
teorema 14.12. Prendiamo g := PA = (x − 2) (x − 3).
Abbiamo allora


1 0 1
W [e∗ ; 0] = 2 1 3
4 4 9
e
W [e∗ ; 0]−1


−3 4 −1
= −6 5 −1
4 −4 1
Per l’osservazione 14.19, con e1 (t) = e2t , e2 (t) = te2t , e3 (t) = e3t , abbiamo


−3 4 −1
(χ1 χ2 χ3 ) = (e1 e2 e3 ) −6 5 −1
4 −4 1
78
χ1 (t) = −3e2t − 6te2t + 4e3t
χ2 (t) = 4e2t + 5te2t − 4e3t
χ3 (t) = −e2t − te2t + e3t
Inoltre


0
0
1
A2 = 12 −16 7 
84 −100 33
cosicché possiamo calcolare
etA =χ1 δ + χ2 A + χ3 A2


1 0 0
=(−3e2t − 6te2t + 4e3t 0 1 0 +
0 0 1


0
1
0
0
1 +
+ (4e2t + 5te2t − 4e3t )  0
12 −16 7


0
0
1
+ (−e2t − te2t + e3t ) 12 −16 7 
84 −100 33


−3e2t − 6te2t + 4e3t
4e2t + 5te2t − 4e3t
−e2t − te2t + e3t




= −12e2t − 12te2t + 12e3t 13e2t + 10te2t − 12e3t −3e2t − 2te2t + 3e3t 


2t
2t
3t
2t
2t
3t
2t
2t
3t
−36e − 24te + 36e
36e + 20te − 36e
−8e − 4te + 9e
in accordo con i conti in Harris/Fillmore/Smith, pagg. 699-700.
Osservazione 14.21. Nelle applicazioni ingegneristiche gli aspetti
numerici nel calcolo di etA sono spesso molto importanti; essi sono trattati ad esempio in Frommer/Simoncini, Higham [S], Moler/Van Loan.
Un recente pacchetto di software per il calcolo dell’esponenziale matriciale (Expokit) è presentato, con una discussione dei problemi numerici in Sidje. Nella biomatematica la precisione numerica è spesso meno
prioritaria ed è quasi sempre possibile utilizzare le formule esplicite
che abbiamo discusso.
79
15. Metodi di Runge-Kutta
Definizione 15.1. Data l’equazione differenziale autonoma ẋ = f (x)
il metodo classico di Runge-Kutta del quart’ordine è dato da
xn+1 = xn + h · ϕ(xn , h)
con
v0 = f (x)
v1 = f (x + hv0 /2)
v2 = f (x + hv1 /2)
v3 = f (x + hv2 )
ϕ(x, h) =
(v0 + 2v1 + 2v2 + v3 )
6
Questo schema è valido in più dimensioni. Cfr. Heuser, pagg. 56 e 526.
Nota 15.2. Definiamo in Python un classe vettore (di dimensione arbitraria) e un’unica funzione per la realizzazione dell’algoritmo di RungeKutta della definizione 15.1 .
# matematica.py
class vettore:
def_init_(A,*u):A.coeff=map(float,u);A.n=len(u)
def_add_(A,B):
return vettore(*[x+y for x,y in zip(A.coeff,B.coeff)])
def_div_(A,t):return vettore(*[x/t for x in A.coeff])
def_mul_(A,t):return vettore(*[t*x for x in A.coeff])
def_rmul_(A,t):return A*t
def stringa (A,v=2,m=2,f=None):
return ’ ’.join(map(lambda i; A.stringacoeff(i,v,m,f),xrange(A.n)))
def stringacoeff(A,i,v=2,m=2,f=None):
y=A.coeff[i]
if callable(f): y=f(y)
return ’%*.*f’ %(v+m+1,m,y)
# Passo singolo in Runge-Kutta per sistemi non autonomi.
# *u e **par sono parametri addizionali di f.
# Uso: x=Rungekutta(x,t,f,h,*u,**par)
def Rungekutta2 (x,t,f,h,*u,**par):
hd2=h/2; v0=f(x,t,*u,**par); v1=f(x+hd2*v0,t+hd2,*u,**par)
v2=f(x+hd2*v1,t+hd2,*u,**par); v3=f(x+h*v2,t+h,*u,**par)
return x+h*(v0+2*v1+2*v2+v3)/6
Esempio 15.3. Verifichiamo, in modo molto generico,
la validit
à del
33
124
metodo di Runge-Kutta nel calcolo di etA per A =
.
−8 −30
Nell’esempio 8.14 abbiamo calcolato
80
etA =
=
32 124
31 124
e2t −
et
−8 −31
−8 −32
32e2t − 31et 124e2t − 124et
−8e2t + 8et
−31e2t + 32et
3
Con x =
abbiamo etA x =
1
!
220e2t − 217et
55e2t + 56et
!
.
Per confrontare i valori calcolati direttamente tramite questa formula per etA e i valori forniti dal metodo di Runge-Kutta per
0 ≤ t ≤ 4.75 utilizziamo la seguente funzione:
# p1503.py
import math
from matematica import *
def rk():
def f(x):
(u,v)=x.coeff; return vettore(*[33*u+124*v,-8*u-30*v])
def etA(x,t):
(u,v)=x.coeff; p=math.exp(2*t);q=math.exp(t)
return vettore(*[220*p-217*q,-55*p+56*q])
x=vettore(*[3,1]);h=0.001;Y=[]
for n in xrange(5001);Y.append(x);x=Rungekutta(x,f,h)
for k in xrange(20):
j=250*k;t=j*h;x=Y[j]
(u,v)=x.coeff;(ue,ve)=etA(x,t).coeff
print ’%.2f %14.4f%14.4f %14.4f%14.4f’ %(t,u,ue,v,ve)
L’output mostra una perfetta concordanza di valori.
t
0.00
0.25
0.50
0.75
1.00
1.25
1.50
1.75
2.00
2.25
2.50
2.75
3.00
3.25
3.50
3.75
4.00
4.25
4.50
4.75
3.0000
3.0000
1.0000
1.0000
84.0852
84.0852
-18.7742
-18.7742
240.2495
240.2495
-57.1771
-57.1771
526.5826
526.5826
-127.9409
-127.9409
1035.7252
1035.7252
-254.1743
-254.1743
1922.7442
1922.7442
-474.5780
-474.5780
3446.2916
3446.2916
-853.7299
-853.7299
6036.6507
6036.6507
-1499.0921
-1499.0921
10408.1678
10408.1678
-2589.1111
-2589.1111
17744.9302
17744.9302
-4419.6290
-4419.6290
30007.2938
30007.2938
-7480.5041
-7480.5041
50437.7740
50437.7740 -12582.0689 -12582.0689
84395.7731
84395.7731 -21063.7936 -21063.7936
140734.6555 140734.6555 -35138.5308 -35138.5308
234073.2418 234073.2418 -58460.3584 -58460.3584
388542.2564 388542.2564 -97061.1522 -97061.1522
643962.9586 643962.9586 -160895.1929 -160895.1929
1066036.2704 1066036.2704 -266386.3831 -266386.3831
1763144.7466 1763144.7466 -440628.6567 -440628.6567
2914058.1128 2914058.1128 -728312.2557 -728312.2557
Possiamo quindi, nelle sperimentazioni numeriche, usare il metodo di
Runge-Kutta. Le formule esplicite per l’esponenziale matriciale sono
invece importanti nella teoria, per la comprensione della struttura di
un’equazione differenziale ordinaria lineare a coefficienti costanti e
come fonte di esempi didattici.
81
III. FUNZIONI DI CRESCITA
16. La distribuzione esponenziale
Definizione 16.1. Diciamo che una variabile casuale X possiede una
distribuzione esponenziale, se la sua funzione di distribuzione è della
forma:
(
1 − e−λt
per t ≥ 0
p(X ≤ t) =
0
per t < 0
La densità di una tale distribuzione è data da
(
λe−λt
per t ≥ 0
0
per t < 0
t
Situazione 16.2. Consideriamo una popolazione di cellule che crescono secondo la legge n(t) = n(0)e−λt con λ > 0. Sia m(t) il numero delle
cellulle che muoiono entro un tempo minore di t.
Allora n(t) + m(t) = n(0). Poniamo m(t) = 0 per n < 0, e quindi
m(t) = n(0)(1 − e−λt ).
m/n(0) è perciò una distribuzione esponenziale.
Nota 16.3. Sia v := m′ . Allora
m(t) = m(0) +
Zt
v(s) ds
0
per ogni t ≥ 0. D’altra parte m(0) = 0, perché n(t)+ m(t) = n(0), quindi
m(t) =
Zt
v(s) ds
0
per ogni t ≥ 0 oppure, più in generale,
Zt2
v(s) ds = m(t2 ) − m(t1 )
t1
per ogni 0 ≤ t1 ≤ t2 . L’integrale a sinistra è perciò uguale al numero
delle cellule che muoiono nell’intervallo di tempo (t1 , t2 ]. Grazie alla
continuità di m, possiamo anche usare l’intervallo chiuso [t1 , t2 ].
R t2
1
Possiamo, dunque, considerare n(0)
t1 v(s) ds come la probabilità
che una cellula muoia nell’intervallo [t1 , t2 ], cioè che la durata di vita di una cellula appartenga all’intervallo [t1 , t2 ].
Ciò implica che la media µ della distribuzione esponenziale può essere interpretata come la durata di vita media delle cellule della nostra popolazione.
82
Osservazione 16.4. La media
µ=
Z∞
te−λt dt =
1
λ
0
può essere calcolata con l’integrazione per parti oppure, in modo più
elegante, riconducendoci alla funzione gamma; in questo modo possiamo, più in generale, calcolare prima i momenti
M Xk =
Z∞
tk λe−λt dt
0
di una variabile casuale con distribuzione esponenziale e poi calcolare
µ = M X k . Infatti,Rse si opera una sostituzione ponendo λt = s e si
∞
ricorda che Γ(z) = 0 e−t tz−1 dt e che Γ(n + 1) = n!, si ottiene
k
MX =
Z∞
e
1
λk
Z∞
0
=
Z∞ k −s
s e
ds
t λ dt = λ
λ
λ
−λt k
0
sk e−s ds =
Γ(k + 1)
k!
= k
λk
λ
0
1
.
λ
Possiamo anche trovare la varianza:
e quindi, in particolare, µ = M X =
σ 2 = M X 2 − (M X)2 =
2
1
1
− 2 = 2
2
λ
λ
λ
Nota 16.5. La distribuzione esponenziale viene usata spesso per modellare il decadimento radioattivo, la caduta di meteoriti, gli incidenti
aerei, gli intervalli nell’arrivo di clienti a uno sportello, la lunghezza di conversazioni telefoniche, la durata di vita di meccanismi la cui
media di servizio non dipende dall’usura. Infatti la distribuzione esponenziale possiede una proprietà caratteristica, che non è posseduta da
nessun’altra distribuzione probabilità : ossia non ha memoria. Questo
fenomeno è spiegato ad esempio in Dall’Aglio, pagg. 83-84.
Osservazione 16.6. Il tempo di dimezzamento logλ 2 può essere considerato come la mediana della distribuzione esponenziale.
Osservazione 16.7. La mancanza di memoria, quando riferita alla
durata di vita, può essere considerata naturale quando la morte di un
individuo dipende da fattori esterni. Assumiamo, ad esempio, che una
persona passeggi in una strada da alcune ore e che ora sopraggiunga
un amico. La probabilità che nei prossimi 10 minuti un vaso cada da
un balcone e colpisca la prima persona è uguale alla probabilità che
colpisca l’amico appena arrivato.
Nello stesso modo possiamo assumere che la morte di una cellulla
sia causata da segnali presenti nel tessuto che possono raggiungere la
cellula indipendentemente dalla sua età.
83
17. Dinamica della leucemia mieloide cronica
Nota 17.1. Nonostante il successo dell’inibitore della tirosina chinasi
ABL imatinib nella leucemia mieloide cronica (LMC), resta da capire
se l’imatinib può sterminare le cellule staminali leucemiche e come
avviene la ricaduta dovuta alla resistenza all’imatinib, causata da una
mutazione nel dominio dell’ABL chinasi.
In un approccio matematico, Michor e colleghi hanno trovato un
modello compartimentale a quattro compartimenti, basato sulla conoscenza biologica della differenzazione emopoietica, che permette di
spiegare la risposta alla cura con imatinib in 169 pazienti. Presentiamo in questo capitolo le idee salienti di questo modello.
La LMC rappresenta il primo esempio di cancro umano nel quale
una terapia fondata su bersagli molecolari ha trovato un successo clinico concreto e spesso drammatico. In molti pazienti però l’imatinib,
nonostante porti al declino delle cellule leucemiche, non riesce ad eliminare completamente la malattia. Gli studi sul midollo osseo hanno
mostrato che le cellule residue fanno parte del compartimento delle
cellule leucemiche staminali, e ci si chiede se l’imatinib sia in grado
di danneggiare la proliferazione delle cellule staminali leucemiche. Si
osserva inoltre che in molti pazienti si sviluppa una resistenza, dovuta
probabilmente a mutazioni nel dominio del chinasi ABL, responsabile
circa del 80% dei casi in cui il trattamento fallisce. Certe volte, sembra
invece che la resistenza sia presente già prima della terapia.
Gli autori citati costruiscono un modello matematico che descrive i
quattro livelli gerarchici della differenziazione nel sistema emopoietico: le cellule staminali danno luogo ai progenitori, da cui derivano
cellule differenziate, le quali si trasformano a loro volta in cellule differenziate terminali. Questa gerarchia è valida sia per le cellule normali
che per quelle leucemiche. Tra tutte, solo le cellule staminali leucemiche hanno una capacità infinita di autorinnovarsi.
L’oncogene BCR-ABL è presente in tutte le cellule leucemiche; si
osserva un’espansione lenta delle cellule staminali leucemiche e
un’accelerazione della rata in cui esse producono progenitori e cellule
differenziate.
Osservazione 17.2. Una legge di crescita esponenziale si traduce in
un grafico lineare, se l’ordinata è rappresentata in scala logaritmica.
Consideriamo infatti di nuovo una popolazione descritta dalla legge
n(t) = n(0)e−λt con λ > 0.
84
6
log 10 n(t)
t
Come nella figura usiamo il logaritmo in base 10 di n(t). Ponendo
y(t) = log(n(t)) abbiamo
y(t) = log10 n(0) − λt log10 e = y(0) − λt log10 e
−λ
log 10
Dati due valori y(t1 ) e y(t2 ) con t1 6= t2 possiamo calcolare λ da
Il grafico è quindi una retta con pendenza −λ log10 e =
λ=
y(t1 ) − y(t2 )
y(t1 ) − y(t2 )
log 10 ≃ 2.3
t2 − t1
t2 − t1
Nota 17.3. Nella figura a pag. 1267 in Michor/Hughes/. . . /Nowak sono
rappresentati i livelli di trascritti BCR-ABL (rilevati con PCR quantitativa in tempo reale) nel sangue di 5 pazienti a, b, c, d, e. I valori su
scala logaritmica evidenziano due segmenti di retta che corrispondono
alla seguente tabella che otteniamo tramite misurazione diretta sulla
figura:
y(0)
a
b
c
d
e
t1 y(t1 )
1.8 90 −0.3
2.3 180
0.1
2.2 85
0
2.5 90
0.9
2.4 180 −0.3
t2
y(t2 )
355 −0.8
360 −0.5
355 −0.65
360
0.1
360 −0.7
Con il metodo dell’osservazione 17.2 otteniamo il parametro λ = λ1
dal primo tratto lineare nel grafico del paziente a, con λ1 = 2.1
90 ·2.3 ≃ 0.054,
0.5
il parametro λ2 del secondo tratto con λ2 = 265 · 2.3 ≃ 0.004. Possiamo
in questo modo calcolare λ1 e λ2 per tutti e cinque i parametri:
λ1
λ2 (log 2)/λ1
a 0.054 0.004
b 0.028 0.0077
c
0.06 0.0055
d 0.04 0.0068
e 0.035 0.005
13
25
12
17
20
85
(log 2)/λ2
173
90
126
102
139
1/λ1 1/λ2
19
36
17
25
29
250
130
182
147
200
in buon accordo con i valori indicati nel lavoro.
n(t) in questo caso può essere considerato una buona stima per il
numero delle cellule leucemiche terminali durante un trattamento con
imatinib.
Nella terza e nella quarta colonna della seconda tabella sono indicalog2
ti i tempi di dimezzamento
del tratto relativo al segmento lineare
λ
corrispondente a λ.
Come si vede si ha nel primo tratto una rapida diminuzione delle cellule leucemiche terminali, mentre nel secondo tratto il tempo
di dimezzamento si alza di molto e si ha quindi una forte riduzione
dell’effetto della terapia. Alla stessa osservazione portano i valori medi 1/λ calcolati nelle ultime due colonne.
Nell’interpretazione di Michor e colleghi e di Abbott/Michor, tenendo
conto del fatto che le cellule leucemiche terminali hanno una durata di
vita di solo un giorno, il primo segmento è determinato dalla vita media (sotto terapia con imatinib) delle cellule leucemiche differenziate,
e il secondo della vita media dei progenitori leucemici.
Le cellule leucemiche differenziate hanno una vita media di
1/0.05 = 20 giorni. Al raggiungimento della stabilità, il numero delle
cellule differenziate leucemiche e il numero dei progenitori decrescono
alla stessa velocità .
1
= 125 giorni.
I progenitori invece hanno una vita media di
0.008
Nota 17.4. Quando la terapia con imatinib viene interrotta si osserva
un rapido ripristino della proliferazione tumorale che ritorna ai livelli
prima della terapia; ciò dimostra che l’imatinib non distrugge le cellule
staminali leucemiche.
Ciò è evidenziato dal seguente modello che si trova in Abbott/Michor
e Michor/Hughes/. . . /Nowak.
Consideriamo il sistema
y˙0
y˙1
y˙2
y˙3
= 0.005y0
= αy0 − 0.008y1
= βy1 − 0.05y2
= 100y2 − y3
in cui y0 corrisponde al numero delle cellule leucemiche staminali,
y1 alle cellule leucemiche progenitrici, y2 alle cellule leucemiche differenziate e y3 alle cellule leucemiche terminali.
I parametri α e β cambiano a seconda che venga effettuata una terapia (con imatinib) o no. In presenza di terapia α = 0.016, β = 0.013,
mentra in assenza di terapia si ha α = 1.6, β = 10. Usiamo i valori
inziali y0 (0) = 105.4 , y1 (0) = 107.7 , y2 (0) = 1010 , y3 (0) = 1012 .
Con una tecnica simile a quella usata nell’esempio 15.3 otteniamo
prima i valori dei logaritmi in base 10 di y0 (t), y1 (t), y2 (t), y3 (t) per
0 ≤ t ≤ 5000 in presenza di terapia:
86
t
y0
y1
y2
y3
0
20
40
60
80
100
120
140
160
180
200
220
240
260
280
300
320
340
360
380
400
420
440
460
480
5.400
5.443
5.487
5.530
5.574
5.617
5.661
5.704
5.747
5.791
5.834
5.878
5.921
5.965
6.008
6.051
6.095
6.138
6.182
6.225
6.269
6.312
6.355
6.399
6.442
7.700
7.631
7.563
7.495
7.427
7.360
7.293
7.227
7.162
7.099
7.037
6.978
6.921
6.867
6.817
6.771
6.731
6.697
6.669
6.648
6.635
6.629
6.630
6.637
6.651
10.000
9.567
9.134
8.705
8.281
7.871
7.488
7.155
6.892
6.705
6.576
6.483
6.409
6.346
6.289
6.238
6.192
6.151
6.116
6.089
6.068
6.054
6.048
6.048
6.056
12.000
11.589
11.156
10.727
10.303
9.892
9.507
9.170
8.904
8.712
8.581
8.487
8.412
8.349
8.292
8.240
8.194
8.153
8.118
8.090
8.068
8.054
8.048
8.048
8.055
Interrompiamo adesso la terapia dopo 400 giorni. Vediamo allora un
rapido ripristino del numero delle cellule leucemiche:
t
y0
y1
y2
y3
0
20
40
60
80
100
120
140
160
180
200
220
240
260
280
300
320
340
360
380
400
420
440
460
480
5.400
5.443
5.487
5.530
5.574
5.617
5.661
5.704
5.747
5.791
5.834
5.878
5.921
5.965
6.008
6.051
6.095
6.138
6.182
6.225
6.269
6.312
6.355
6.399
6.442
7.700
7.631
7.563
7.495
7.427
7.360
7.293
7.227
7.162
7.099
7.037
6.978
6.921
6.867
6.817
6.771
6.731
6.697
6.669
6.648
6.635
7.789
8.065
8.230
8.348
10.000
9.567
9.134
8.705
8.281
7.871
7.488
7.155
6.892
6.705
6.576
6.483
6.409
6.346
6.289
6.238
6.192
6.151
6.116
6.089
6.068
9.680
10.133
10.374
10.532
12.000
11.589
11.156
10.727
10.303
9.892
9.507
9.170
8.904
8.712
8.581
8.487
8.412
8.349
8.292
8.240
8.194
8.153
8.118
8.090
8.068
11.645
12.117
12.364
12.525
87
18. Funzioni di crescita
Nota 18.1. Consideriamo un’equazione differenziale in una dimensione della forma
ẋ =
m
X
λk Fk (ak1 x + bk1 , . . . , akmk x + bkmk )
k=1
Se effettuiamo trasformazioni affini della variabile indipendente t o
della variabile dipendente x, otteniamo ancora un’equazione differenziale della stessa forma. Più precisamente:
(1) Siano ε, θ ∈ R con ε 6= 0. Ponendo z(t) := x(εt + θ) abbiamo
ż(t) = εẋ(εt + θ)
m
X
=
ελk Fk (ak1 x(εt + θ) + bk1 , . . . , akm x(εt + θ) + bkmk )
k=1
=
m
X
ελk Fk (ak1 z(t) + bk1 , . . . , akm z(t) + bkmk )
k=1
(2) Siano α, β ∈ R con α 6= 0. Ponendo z := αx + β abbiamo
ż = αẋ
m
X
z−β
z−β
=
αλk Fk (ak1
+ bk1 , . . . , akm
+ bkmk )
α
α
=
k=1
m
X
λ̃k Fk (ãk1 z + b̃k1 , . . . , ãkm z + b̃kmk )
k=1
con
λ̃k = αλk
ãkj = akj /α
b̃kj = bkj − akj /α
Esempio 18.2. Consideriamo un’equazione differenziale della forma
ẋ = λf (ax + b) + µg(cx + d)
Con z = αx + β con α, β ∈ R ed α 6= 0 abbiamo
ż = αẋ = αλf (a
z−β
z−β
˜
+ b) + αµg(c
+ d) = α̃f (ãz + b̃) + µ̃g(c̃z + d)
α
α
con
λ̃ = αλ
ã = a/α
b̃ = b − aβ/α
µ̃ = αµ
c̃ = c/α
d˜ = d − cβ/α
88
Definizione 18.3. Generalizzando la situazione della nota 18.1 consideriamo una famiglia di equazioni differenziali della forma
ẋ = G(x, a1 , . . . , as )
Per α, β, ε, θ ∈ R con α, ε 6= 0 poniamo z(t) := αx(εt + θ) + β . Allora
z(t) − β
ż(t) = αεẋ(εt+θ) = αεG(x(εt+θ), a1 , . . . , as ) = αεG
, a1 , . . . , as
α
Diciamo perciò che la famiglia è invariante rispetto a trasformazioni
affini se esistono applicazioni ϕ1 , . . . , ϕs tali che (nell’insieme sempre
sottointeso dei parametri che vogliamo considerare) per ogni α, β, ε ∈
R con α, ε 6= 0 ed ogni z ∈ R si abbia
= G(z, ϕ1 (a1 , . . . , as , α, β, ε), . . . , ϕs (a1 , . . . , as , α, β, ε))
,
a
,
.
.
.
,
a
αεG z−β
1
s
α
Si vede che il parametro θ non appare nella formula di trasformazione;
possiamo perciò supporre θ = 0.
Esempio 18.4. Come nell’esempio 18.2 sia
G(x, λ, a, b, µ, c, d) = λf (ax + b) + µg(cx + d)
Allora
αεG
z−β
z−β
z−β
, λ, a, b, µ, c, d = αελf a
+ b + αεµg c
+d
α
α
α
= G(z, αελ, a/α, b − aβ/α, αεµ, c/α, d − cβ/α)
Proposizione 18.5. Siano a, b, k, x0 ∈ R con a, b > 0 e 0 < x0 − k < ea/b .
Allora la soluzione dell’equazione di Gompertz
ẋ = (x − k) · [a − b log(x − k)]
è data da
x(t) = k + ea/b+[log(x0 −k)−a/b]e
−bt
La soluzione per x(0) = x0 ammette come asintoto inferiore la retta
x = k, come asintoto superiore la retta x = k + ea/b e possiede un flesso
in t = 1b log( ab − log(x0 − k)). Il valore di x nel punto di flesso è uguale a
k + ea/b−1 .
Dimostrazione. Baiocato, pagg. 14-23.
Osservazione 18.6. Consideriamo più in generale la famiglia di equazioni
ẋ = (x − k1 ) · [a − b log(x − k2 )]
con a, b, k1 , k2 ∈ R. Si tratta di un caso speciale della nota 18.1, quindi
la famiglia deve essere invariante rispetto a trasformazioni affini. Calcoliamo più esplicitamente la formula di trasformazioni (per α > 0):
89
Con G(x, a, b, k1 , k2 ) = (x − k1 ) · [a − b log(x − k2 )] abbiamo
z−β
z−β
z−β
, a, b, k1 , k2 ) = αε ·
− k1 · a − b log
− k2
αεG(
α
α
α
z−β
1
= αε ·
− k1 · a − b log − b log(z − β − αk2 )
α
α
= (z − β − k1 α) · ε · [a + b log α − b log(z − β − αk2 )]
= G(z, εa + εb log α, εb, αk1 + β, αk2 + β)
Osservazione 18.7. Per l’equazione di Gompertz dalla proposizione
18.5 con
G(x, a, b, k) = (x − k) · [a − b log(x − k)]
abbiamo in particolare
αεG(
z−β
, a, b, k) = G(z, εa + εb log α, εb, αk + β)
α
Questa formula di trasformazione (per α > 0) può essere anche utilizzata per ricavare la soluzione dell’equazione indicata senza dimostrazione nella proposizione 18.5.
Supponendo b 6= 0, possiamo infatti determinare α, β, ε in modo tale
che
εa + εb log α = 0
εb = 1
αk + β = 0
ponendo
ε = 1/b, α = e−a/b , β = −kα
cosicché l’equazione si riduce a ż = −z log z .
Il parametro θ non interviene direttamente e può essere posto uguale a 0.
L’equazione ż = −z log z può essere risolta con separazione delle
variabili:
dz
= −dt
z log z
e quindi
log log z(t) = −t + c
da cui
log z(t) = e−t+c
e
z(t) = ee
−t+c
.
Tornando indietro troviamo facilmente la soluzione.
Nota 18.8. Esaminiamo il comportamento rispetto a trasformazioni
affini dell’equazione logistica
90
ẋ = a(x − k) − b(x − k)2
o, più in generale, dell’equazione
ẋ = a(x − k1 ) − b(x − k2 )2
Con G(x, a, b, k1 , k2 ) = a(x − k1 ) − b(x − k2 )2 abbiamo
2
z−β
z−β
z−β
αεG
, a, b, k1 , k2 = αεa
− k1 − αεb
− k2
α
α
α
b
= εa(z − β − αk1 ) − ε (z − β − αk2 )2
α
= G(z, εa, εb/α, αk1 + β, αk2 + β)
Nel caso dell’equazione logistica possiamo porre
G(x, a, b, k) = a(x − k) − b(x − k)2
con la legge di trasformazione
z−β
αεG
, a, b, k = G(z, εa, εb/α, αk + β).
α
Si vede che l’equazione logistica non è invariante rispetto a trasformazioni affini se chiediamo k = 0. Ciò significa che nell’adattamento dei
parametri di una curva logistica a una serie di dati bisogna variare
non solo a e b, ma anche k.
Per una discussione dell’equazione logistica si veda ad esempio Capelo, pagg. 39-58.
Nota 18.9. L’equazione di Gompertz viene spesso utilizzata per modellare la crescita di tumori solidi (cfr. Wheldon, pagg. 66-78, De Vita/Hellman/Rosenberg, pag. 338).
Tipicamente nella crescita di un tumore si osserva una relazione
non lineare tra t e log x(t). Questo implica uno schema di crescita decelerato nel quale il tempo di raddoppio si allunga mentre il tumore
aumenta in grandezza.
Questo schema è consistente con la conoscenza biologica della crescita del tumore: infatti, i tumori più voluminosi contengono meno cellule
capaci di dividersi rispetto ai tumori più piccoli.
L’equazione di Gompertz può essere interpretata in diversi modi:
uno è di immaginarla come la crescita di una popolazione con accrescimento esponenziale, la cui rata di crescita diminuisce però esponenzialmente con il tempo.
In verità la rata specifica di crescita non dovrebbe essere una funzione del tempo ma dovrebbe dipendere da altre variabili biologiche e
solo indirettamente dal tempo.
Ciò porta a modelli però molto più difficili.
Il limite asintotico N∞ deve essere pensato come un’astrazione matematica più che un’entità fisica significativa, quindi ogni valore di
91
N∞ potrebbe sembrare possibile. Nella pratica però si ottengono valori molti vicini per una specie data. Questa osservazione semplifica
considerevolmente la modellizzazione dei tumori tramite la curva di
Gompertz. Più dettagli si trovano nel libro di Wheldon.
Quasi tutti i dati che i ricercatori hanno a disposizione si riferiscono
alla fase osservabile di crescita e nonostante sia conveniente riferire
i parametri di Gompertz a una singola cellula, da cui il tumore trae
origine, questo non significa che il modello fornisca una descrizione
della crescita del tumore nelle regioni dove i dati non sono accessibili. Potrebbe addirittura essere che la curva di Gompertz non fornisca
un’accurata rappresentazione all’inizio del tumore.
Considerazioni biologiche suggeriscono anche che una fase di rallentamento dovrebbe servire solo per tumori più voluminosi e ciò è confermato da testimonianze sperimentali provenienti dallo studio della
relazione tra numero di cellule tumorali trapiantate in una cavia e il
tempo del tumore per diventare visibili (periodo latente).
La conseguenza di questi risultati è la crescita del tumore da più
di una cellula deve essere considerata in due fasi: una prima fase di
crescita esponenziale durante il periodo di incubazione e una seconda
fase di Gompertz durante la fase osservabile.
In un altro approccio, soprattutto nello studio del tasso di accrescimento del cancro al seno, si è cercato di introdurre una componente
stocastica nel modello di Gompertz. Non è facile però utilizzare questi
modelli complicati nella pratica clinica.
Nota 18.10. Come già osservato, il modello di Gompertz è noto in particolare nella descrizione della crescita di tumori al seno. In questo
caso da un lato il modello si adatta spesso molto bene, d’altra parte
però in questi tumori si osservano frequentemente periodi piuttosto
lunghi in cui la crescita sembra ferma e questo comportamento non
può essere imitato dall’equazione di Gompertz.
Critiche piuttosto consistenti del modello di Gompertz si trovano in
alcuni lavori di Retsky (Retsky [L], Retsky [G]).
Viene cosı̀ imputato al modello di Gompertz l’ambizione di voler essere una legge generale, confortata però da relativamente pochi esempi. Inoltre, la crescita dei tumoti è eterogenea, quindi si dovrebbe
poter disporre di una famiglia di funzioni con parametri flessibili.
Non raramente si osserva inoltre uno stato temporaneo di quiete,
possibilità non contemplata dal modello di Gompertz.
Il modello è stato invece proposto e difeso da Larry Norton (cfr. Norton, Schmidt).
In un lavoro più recente, Norton ha cercato di giustificare il modello
di Gompertz, basandosi su concetti della geometria frattale, che secondo questo autore governa le irregolarità dei tessuti tumorali.
Per la descrizione dei tessuti tumorali bisogna utilizzare equazioni
in più dimensioni oppure, ad esempio per tenere conto dell’angiogenesi
tumorale, equazioni differenziali parziali.
92
Si cfr. la breve discussione in Wodarz/Komarova, pagg. 182-184.
Nota 18.11. Un’interessante famiglia di equazioni non autonome che
1
contengono termini della forma
viene proposta in Tabatabai/
1 + t2
Williams/Bursac. Elenchiamo brevemente alcuni di questi modelli.
Modello A:
1
θ
ẋ =
x(M − x) M β + √
M
1 + t2
con β un parametro che rappresenta la rata di crescita, θ un parametro
e M costante che rappresenta la capacità massima di popolazione.
La soluzione è
x(t) =
M
1+
M − x0 (M βt0 +θ arsinh t0 )
e
x0
con α =
αe(−M βt−θ arsinh t)
Modello B:
ẋ =
αβγx2 tγ−1 tanh
M −x
αx
con β, γ parametri e γ > 0. La soluzione è
x(t) =
M
1 + α arsinh(e−M βtγ )
con α =
M − x0
γ
x0 arsinh(e−M βt0 )
Modello C:
ẋ = (M − x)
βγtγ−1
θ
+√
1 + θ 2 t2
con β, γ, θ parametri. La soluzione è
γ
x(t) = M − αe−βt
−arsinh(θt)
con α = (M − x0 )eβt0 γ+arsinh(θt0 )
A e B hanno un parametro in più del modello logistico e di Gompertz,
ma il primo è più flessibile; mentre C ha la stessa flessibilità di A ma
presenta un parametro in più.
Osservazione 18.12. Una buona discussione delle difficoltà che si
presentano nella modellizzazione della crescita tumorale si trova nel
lavoro di Bajzer/Marusic/Vuk, in cui gli autori osservano tra l’altro che
spesso i modelli basati su considerazioni teoriche biologiche corrispondono poco ai dati sperimentali.
Osservazione 18.13. Una delle ragioni per la popolarità del modello
di Gompertz (e forse la ragione perché, nonostante le critiche, spesso
corrisponde bene alla realtà) è che, se alla rata di crescita ẋ/(x − k)
sottraiamo una costante c, ad esempio relativa all’effetto di una terapia, l’equazione differenziale che si ottiene è sempre un’equazione
93
di Gompertz. Infatti invece di ẋ = (x − k)[a − b log(x − k)] abbiamo
semplicemente ẋ = (x − k)[a − c − b log(x − k)].
Questa osservazione, naturalmente ovvia, può essere utilizzata per
calibrare una chemioterapia tramite un modello di Gompertz; cfr. Wheldon, pagg. 166-167.
Nota 18.14. Un’altra sorprendente proprietà dell’equazione di Gompertz (che in realtà però, come vedremo, vale in un contesto molto più
generale) è che mediante sottrazione di un termine c − dt dalla rata di
crescita si ottiene una soluzione esponenziale. Questa proprietà è nota
come legge di Norton e Simon.
Assumiamo che senza terapia il tumore sia descritto dall’equazione
di Gompertz
ẋ = (x − k) · [a − b log(x − k)]
Per ogni p, w ∈ R possiamo allora trovare costanti c, d in modo tale che
x(t) = k + pe−wt sia una soluzione dell’equazione modificata
ẋ = (x − k) · [a − b log(x − k) − c − dt]
Naturalmente allora x(0) = k + p.
Abbiamo infatti
ẋ = −wpe−wt = −w(x − k)
log(x − k) = log p − wt
Deve quindi valere
(x − k)[a − b log p + bwt − c − dt] = −w(x − k)
da cui
c = a − b log p + w
d = bw
Si noti che per p = 1 si ha c = a + w e d = bw.
Esempio 18.15. La crescita senza terapia sia descritta dall’equazione
ẋ = (x − 1) · [1 − 0.2 log(x − 1)]
Dalla nota 18.14, vogliamo determinare c e d in modo tale che
x = 1 + e−t/2 sia soluzione dell’equazione modificata
ẋ = (x − 1) · [1 − 0.2 log(x − 1) − c − dt]
Osservando che allora p = 1, w = 0.5, dobbiamo porre
c = a − b log p + w = 1 − 0.2 + 0.5 = 1.3 e d = 0.2 · 0.5 = 1.
Come si verifica facilmente le funzioni x(t) = 1 + e−t/2 soddisfa effettivamente l’equazione
94
ẋ = (x − 1) · [1 − 0.2 log(x − 1) − 1.3 − 0.1t], cioè
ẋ = (x − 1) · [−0.3 − 0.2 log(x − 1) − 0.1t]
Osservazione 18.16. È immediato che nella nota 18.14 la forma
dell’equazione modificata è invariante rispetto a trasformazioni affini.
Ponendo G(x, t, a, b, k, c, d) = (x − k)[a − b log(x − k) − c − dt] e
z(t) = αx(εt + θ) + β, s = εt + θ con α > 0 ed ε 6= 0, abbiamo infatti
z−β
z−β
ż(t) = αẋ(s)ε = αε
− k a − b log
− k − c − ds
α
α
= (z − β − kα)[εa − εb log α − b log(z − β − kα) − εc − εd(εt + θ)]
= G(z(t), t, εa + εb log α, εb, αk + β, εc + εdθ, ε2 d)
In verità per la differenza a − c si potrebbe usare un unico parametro.
Nota 18.17. L’idea della nota 18.14 può essere generalizzata nel modo
seguente.
Siano I un intervallo aperto di R, ψ : I → R un’applicazione ed
x una soluzione dell’equazione differenziale ẋ = ψ(t) · [x(t) − k] per
una costante k. Sia r un’altra funzione definita sull’insieme dei valori
di x e ϕ(t) := r(x(t) − k) − ψ(t) per ogni t ∈ I . Allora x è soluzione
dell’equazione differenziale
ẋ = (x(t) − k) · [r(x(t) − k) − ϕ(t)]
che in forma abbreviata può essere scritta come
ẋ = (x − k) · [r(x − k) − ϕ(t)]
Chiamiamo ϕ(t) la funzione di terapia del contesto considerato.
Matematicamente ciò è del tutto ovvio (si tratta semplicemente di
una decomposizione a = a − b + b), ma nella pratica questa osservazione permette di descrivere un compito di modellizzazione di crescita
tumorale e terapia in due fasi:
(1) In un primo momento troviamo un’equazione differenziale
ż = z · r(z) che descrive la crescita senza terapia.
(2) Poi cerchiamo una funzione ragionevole x = x(t) che dovrebbe
descrivere la crescita del tumore sotto terapia, cercando x in
modo che soddisfi un’equazione ẋ(t) = ψ(t)x(t).
(3) ϕ(t) = r(x(t)) − ψ(t) descrive allora l’effetto che la terapia deve
realizzare.
Osservazione 18.18. Risolviamo il problema dell’esempio 18.15 con
la tecnica della nota 18.17.
La crescita senza terapia è descritta dall’equazione
ż = z · (1 − 0.2 log z) e vogliamo ottenere x(t) = pe−wt come crescita
sotto terapia. Abbiamo
95
ẋ(t) = −pwe−wt = −wx, quindi ψ(t) = −w, perciò
ϕ(t) = 1 − 0.2 log(x(t)) + w = 1 + w − 0.2(wt − log p).
Esempio 18.19. La crescita senza terapia sia descritta dall’equazione
ż = z · (1 − 0.2 log z).
(1) x(t) = te−wt sia la crescita sotto terapia che vogliamo ottenere.
Abbiamo
1
−wt
−wt
ẋ(t) = e
− wte
=
−w x
t
cosicché possiamo applicare la nota 18.17 con
1
ψ(t) = − w
t
Poniamo perciò
t−1
1
+ w + 0.2(wt − log t).
ϕ(t) = 1 − 0.2 log(x(t)) − + w =
t
t
(2) Se invece x(t) = (1 + t)e−wt è la crescita sotto terapia che vogliamo ottenere, abbiamo
1
−wt
−wt
ẋ(t) = e
− w(1 + t)e
=
− w x, cosicché possiamo
1+t
applicare la nota 18.17 con
1
ψ(t) =
−w
1+t
Poniamo perciò
1
t
ϕ(t) = 1−0.2 log(x(t))−
+w =
+w+0.2(wt−log(1+t)).
1+t
1+t
Esempio 18.20. La crescita senza terapia sia descritta dall’equazione
ż = z · (1 − tanh z).
Assumiamo che vogliamo ottenere che sotto terapia la crescita sia
x(t) = e−wt . Abbiamo
r(z) = 1 − tanh z
e
ẋ(t) = −we−wt = −wx(t),
cosicché con ψ(t) = −w poniamo ϕ(t) = 1 − tanh e−wt + w.
Osservazione 18.21. La chemioterapia antitumorale è spesso molto
gravosa per il paziente. Ciò implica tra l’altro che il corpo necessita,
in alcuni regimi, di periodi di riposo tra un trattamento e l’altro. Queste pause favoriscono anche le cellule tumorali e quindi il medico può
chiedersi se non sia possibile sostituire la terapia intensiva con lunghe
interruzioni con una terapia continua meno impegnativa.
Riportiamo da Norton [T], pagg. 371 e 374:
”Questo modello concettuale suggerı̀ che si potrebbe avere una chemioterapia più efficiente aumentando la dose, ad esempio somministrando il
trattamento più spesso . . . . L’idea è che minimizzando la ricrescita del
cancro nei periodi senza trattamento, si potrebbe riuscire ad aumentare
96
la distribuzione di cellule tumorali realizzando cosı̀ un benefico terapeutico maggiore. Ciò è stato dimostrato in modelli sperimentali e, da Gianni
Bonadonna e coll., anche per tumori umani al seno.
Lo studio del modello di Gompertz ha cosı̀ portato a una migliore chemioterapia.”
Osservazione 18.22. Lo stesso procedimento della nota 18.17 si può
usare anche nel caso di un’equazione non autonoma ż = z · r(z, t). Data
una soluzione x di ẋ = ψ(t)x è sufficiente porre ϕ(t) := r(x(t), t) − ψ(t)
affinché x diventi soluzione anche di ẋ = z · [r(z, t) − ϕ(t)].
Equazioni della forma ẋ = x · f (x, t) sono talvolta dette equazioni di
Kolmogorov. Quando non sono autonome, esse descrivono la crescita
di una popolzione in un ambiente che varia nel tempo; cfr. Redheffer/Vance.
Osservazione 18.23. Un’esposizione molto utile delle più importanti
funzioni di crescita e dei loro grafici si trova nell’articolo di Tsoularis,
da cui riprendiamo alcuni dei prossimi esempi.
Nota 18.24. L’equazione di Turner:
x β γ
β(1−γ)
ẋ = x · ax
· 1−
v
per a, β, γ, v > 0 e γ < 1 +
1
β.
Essa per β = γ = 1 si riconduce
x
.
all’equazione logistica ẋ = x · a 1 −
v
Esempio 18.25. Blumberg ha proposto l’equazione di crescita
x γ
ẋ = x · axα 1 −
v
per a, α, v, γ > 0. Questa equazione si riduce all’equazione logistica per
α = 0, γ = 1.
L’equazione di Blumberg ammette una soluzione esplicita solo per
alcuni valori dei parametri.
Esempio 18.26. Anche l’equazione di Richards è molto simile all’equazione
logistica:
x β ẋ = x · a 1 −
v
Essa ammette soluzione esplicita
v
x(t) =
1 − e−βat
x(0)
1−
v
−β !1/β
97
Esempio 18.27. L’equazione generalizzata di Gompertz ha la forma
γ
ẋ = x · a log xv
per γ, v > 0.
Osservazione 18.28. Come nella nota 18.17 siano I un intervallo
aperto di R e ψ : I → R un’applicazione. ψ sia continua. Allora le
soluzioni dell’equazione differenziale ẋ = ψ(t)x(t) sono esattamente le
funzioni delle forma
Rt
ψ(s) ds
x = aet0
t
con a ∈ R e t0 ∈ I ; la funzione indicata è l’unica soluzione se si pone la
condizione iniziale x(t0 ) = a.
Ciò è ben noto e si dimostra facilmente con la tecnica di separazione
delle variabili; cfr. Heuser, pag. 60.
Nota 18.29. Se nell’osservazione 18.28 poniamo
Rt
g(t) := ψ(s) ds, abbiamo ġ(t) = ψ(t) e x(t) = aeg(t) .
t0
Se viceversa x è una funzione che vogliamo utilizzare come funzione
di crescita, possiamo assumere che x(t) > 0 per ogni t ∈ I e quindi
possiamo porre x(t) = elog x(t) . Siccome si assume che x sia differenziabile, anche la funzione g := log x(t) è differenziabile. Abbiamo
t
ancora x(t) = eg(t) e quindi ẋ(t) = ġ(t)eg(t) = ġ(t)x(t).
Ciò mostra che la tecnica della nota 18.17 è del tutto generale e può
in pratica essere applicata a tutte le funzioni di crescita.
Osserviamo infine che la funzione x(t) = k+aeg(t) soddisfa l’equazione
differenziale ẋ = ġ(t)·(x−k). La funzione di terapia ha quindi la forma
ϕ(t) = r(aeg(t) ) − ġ(t).
Esempio 18.30. La crescita di un tumore senza terapia (o sotto una
terapia coadiuvante) sia descritta da un’equazione ẋ = x · r(x). Assumiamo che vogliamo ottenere che sotto la terapia la crescita sia
−1
−1
1
. Allora ẋ(t) =
x(t), cosicché la funzione di
=
x(t) =
2
1+t
(1 + t)
1+t
1
1
.
terapia nella nota 18.17 deve avere la forma ϕ(t) = r
+
1+t
1+t
2+t
(1) Sia ad esempio r(x) = 1 − log(x). Allora ϕ(t) = log(1 + t) +
.
1+t
L’aumento di terapia richiesto secondo il modello di Norton-Simon è
quindi relativamente modesto e forse tollerabile, soprattutto se modifichiamo le equazioni tramite parametri adatti.
(2) Sia r(x) = 1 − x (equazione logistica). Allora
ϕ(t) = 1 −
1
1
+
= 1.
1+t 1+t
98
Nota 18.31. I due modelli matematici più popolari per la crescita di
tumori sono il modello logistico e il modello di Gompertz, su i quali
esistono molti nuovi lavori (oltre ai lavori di Norton già citati ad esempio Spratt/ . . . /Weber e Cooke/Witten). Come finora studiamo modelli
della forma ẋ = f (x) e analizziamo le funzioni f in dipendenza dei
parametri in esse contenuti. Alcuni dei modelli che presentiamo sono
forse nuovi, almeno nel contesto biomatematico. I grafici che seguono
si riferiscono a modelli della forma ẋ = f (x, b) con b = 0.2, 0.5, 0.8 per
t ∈ [0, 4].
L’inserto piccolo in alto a sinistra rappresenta ogni volta le funzioni
f (x), la figura più grande è il grafico delle soluzioni x(t).
x
t
Quando vogliamo adattare queste funzioni a dati concreti, dobbiamo naturalmente tener conto delle proprietà di invarianza discussa
all’inizio del capitolo.
b = 0.2
b = 0.5
ẋ = x̃ · (1 − bx̃)
x̃ = x/b
ẋ = x̃ · (1 − b log(x̃))
x̃ = xe1/b
ẋ = x̃ · (1 − b arsinh x̃)
x̃ = x sinh(1/b)
99
b = 0.8
b = 0.2
b = 0.5
b = 0.8
ẋ = arsinh x̃ · (1 − bx̃)
x̃ = x/b
ẋ = arsinh x̃ · (1 − b log(x̃))
x̃ = xe1/b
ẋ =
g(x)
artanh x
1.8 + b2 + (artanh x + 0.9)2 /b2
2
g(x) = e
−
Nei tumori in vitro si osserva spesso all’inizio una crescita esponenziale; in vivo invece l’accrescimento è in molti casi all’inizio molto lento,
perché il tessuto riesce a controllare il nido tumorale. La seconda delle
ultime tre figure mostra come si può modellare questo tipo di crescita.
b = 0.2
b = 0.5
ẋ = 3x(1 − x)5 + 16bx2 (1 − x)2
100
b = 0.8
b = 0.2
b = 0.5
ẋ = 3x5 (1 − x) + 16bx2 (1 − x)2
√
ẋ = 10x5 (1 − x) + (3.5 + 7b) x(1 − x)9
ẋ = e−b−x̃ · e−e
x̃ = artanh(2x − 1)
−b−x̃
ẋ =
1
1 + (artanh(2x − 1) + 1 − b)2
ẋ =
1
1 + 4(artanh(2x − 1) − 1 + b)2
101
b = 0.8
b = 0.2
b = 0.5
ẋ = sin2 (4πx) + 1.5bx(1 − x)
102
b = 0.8
19. Differenziazione numerica
Nota 19.1. Il problema della differenziazione numerica è difficile e in
un certo senso non risolubile nel caso generale.
Consideriamo ad esempio, per n ∈ N + 1, le funzioni g := x ed
x
1
f := x + sin n2 x. Per n grande, le due funzioni sono quasi indin
x
stinguibili (e lo diventano quindi numericamente se abbiamo a disposizione solo valori approssimati), ma la prima ha dappertutto derivata
uguale a 1, mentre f ′ (x) = 1+ n cos(n2 x) assume valori altissimi vicino
ad ogni x.
A ciò si aggiungono problemi di instabilità numerica per i quali
rimandiamo alla letteratura, ad es. Heath, pagg. 365-368, Quarteroni/Sacco/Saleri, pagg. 121-129, Stoer, pagg. 122-126, Ross, pagg. 119122, Hanke/Scherzer e Groetsch.
Osservazione 19.2. Per punti d’appoggio equidistanti xk = kh una
delle formule più popolari è data da
yk′ =
yk−2 − 8yk−1 + 8yk+1 − yk+2
12h
(cfr. Bronstein/Semendjajev, pag. 768).
Osservazione 19.3. Se da un lato nello studio delle curve di crescita
biologiche le esigenze numeriche sono notevolmente minori di quanto accada che in problemi tecnici, si hanno invece raramente punti
d’appoggio equidistanti. Si usa spesso, come faremo noi, un polinomio
di interpolazione (nel d’intorno di ogni punto) e si sceglie come approssimazione della derivata la derivata di quel polinomio.
Nota 19.4. Per m ∈ N + 2 siano dati m coppie (ξ1 , η1 ), . . . , (ξm , ηm ) di
numeri reali con le ascisse ξj tutte distinte. Introduciamo le seguenti
notazioni:
(1) I := {1, . . . , m}, ∂i I := I \ {i}, ∂ij I := I \ {i, j} per i, j ∈ I .
Y
Y
(2) Per x ∈ R siano Pi (x) :=
(x − ξj ), Pij :=
(x − ξk ).
j∈∂i I
k∈∂ij I
Il polinomio di interpolazione di Lagrange L per il quale L(ξi ) = ηi per
ogni i ∈ I può allora essere scritto nella forma
L(x) =
X
ηi
i∈I
Pi (x)
Pi (ξi )
ed ha derivata
L′ (x) =
X
i∈I
ηi
Pi′ (x)
Pi (ξi )
Adesso Pi (x) = (x − ξ1 ) . . . (x\
− ξi ) . . . (x − ξm ) e quindi
103
Pi′ (x) =
X Y
(x − ξk ) =
j∈∂i I k∈∂ij I
X
Pij (x)
j∈∂i I
cosicché
L′ (x) =
X
i∈I
ηi X
Pij (x)
Pi (ξi )
j∈∂i I
Nota 19.5. Per n ∈ N+3 siano adesso date n+1 coppie (x0 , y0 ), . . . , (xn , yn )
di numeri reali con x0 < x1 < . . . < xn .
Sia k ∈ {0, . . . , n}.
(1) Consideriamo prima il caso che 0 ≤ k − 2 e k + 2 ≤ n.
Allora per (ξ1 , η1 ) := (xk−2 , yk−2), . . . , (ξ5 , η5 ) := (xk+2 , yk+2 ) calcoliamo yk′ := L′ (xk ) con il metodo della nota 19.4.
(2) Per k = 1 usiamo (ξ1 , η1 ) := (x0 , y0 ), . . . , (ξ4 , η4 ) := (x3 , y3 ) e poniamo y1′ := L′ (x1 ).
(3) Per k = 0 usiamo (ξ1 , η1 ) := (x0 , y0 ), (ξ2 , η2 ) := (x1 , y1 ) e
(ξ3 , η3 ) := (x2 , y2 ) e poniamo y0′ := L′ (x0 ).
′
ed yn′ .
In modo analogo calcoliamo yn−1
Osservazione 19.6. Nella situazione della nota 19.5 possiamo adesso
usare la differenziazione numerica per un’interpolazione localizzata
dei dati.
Calcoliamo prima gli yk′ . Poi per ogni coppia di punti con ascisse
adiacenti troviamo il polinomio di interpolazione di Hermite hk per le
condizioni
hk (xk ) = yk
h′k (xk ) = yk′
hk (xk+1 ) = yk+1
′
h′k (xk+1 ) = yk+1
e interpoliamo la curva nell’intervallo [xk , xk+1 ] con hk .
Con lo schema alle differenze della nota 10.21 e posto θ :=
v := yk+1 − yk si trova
1
,
xk+1 − xk
hk =yk + yk′ (x − xk ) + (vθ − yk′ )θ(x − xk )2
′
− 2vθ + yk′ )θ 2 (x − xk )2 (x − xk+1 )
+ (yk+1
dove θ e v naturalmente dipendono da k. Lo schema alle differenze
diventa infatti
xk : (yk , yk′ )
yk
′
)
xk+1 : (yk+1 , yk+1
[xk ]
yk′
yk
[xk , xk+1 ]
(vθ − yk′ )θ
[xk , xk+1 ]
vθ
[xk , xk+1 ]
104
′
− 2vθ + yk′ )θ 2
(yk+1
yk+1
[xk , xk+1 ]
[xk+1 ]
′
yk+1
′
(yk+1
− vθ)θ
yk+1
Nota 19.7. Siano adesso dati punti xk = x(tk ) di una curva di crescita con t0 < t1 < . . . < tn . Anche gli xk siano tutti distinti (affinchè
l’algoritmo dia buoni risultati numerici, si presuppone che
x0 < . . . < xn , come accade normalmente in una curva di crescita).
(1) Calcoliamo le derivate numeriche x˙k , trovando cosı̀ la curva di
interpolazione F con F (tk ) = xk .
(2) Nella nostra ipotesi possiamo però anche calcolare i tk come funzioni degli xk e considerare quindi anche x˙k come funzioni di xk . Con
il metodo dell’osservazione 19.7 la curva d’interpolazione f di questi
dati soddisfa quindi (numericamente) ẋ(t) ≃ f (x(t)).
In questo modo abbiamo ottenuto due funzioni F ed f con x(t) ≃ F (t)
ed ẋ(t) ≃ f (x(t)) per ogni t.
Osservazione 19.8. Per poter confrontare le curve in modo migliore,
le ascisse nella nota 19.7 verranno normalizzate a [0, 4], le ordinate a
[0, 1].
Esempio 19.9. Denotiamo qui con lt la lista dei valori dati di t, con
lx la lista dei valori di x.
con
lt = [0, 0.3, 1, 1.5, 2.1, 2.9, 3.3, 4]
lx = [0.1, 0.3, 0.5, 0.6, 0.65, 0.7, 0.86, 1]
con
105
lt = [1, 2.2, 2.8, 3, 3.6, 4.5, 6.5, 7.1, 7.6, 9, 10]
lx = [0.5, 2.5, 4, 4.3, 4.6, 5.4, 5.7, 6, 6.4, 6.8, 7]
Osservazione 19.10. Si possono immaginare due tipi di applicazioni
alle funzioni di terapia:
(1) Il medico propone una terapia e il matematico può verificarne
l’effetto: calcoliamo f come nella nota 19.7, poi con Runge-Kutta risolviamo l’equazione differenziale
f (z(t))
− ϕ(t) = f (z(t)) − z(t)ϕ(t)
ż = z(t) ·
z(t)
(2) Sia viceversa data ψ , allora poniamo
ϕ(t) =
f (x(t))
− ψ(t).
x(t)
La nostra tecnica permette di studiare anche il caso che la terapia
inizia in t1 ; ciò potrebbe essere molto interessante.
Osservazione 19.11. Spesso per un singolo paziente è difficile ottenere molti dati; assumiamo di avere invece 200 pazienti con pochi dati
per ogni singolo paziente.
Per eliminare
i dati estremi, calcoliamo pri
max(x) − min(x) ed eliminiamo i 10 parametri con
ma le oscillazioni max(t) − min(t) le oscillazioni maggiori e i 10 con le oscillazioni minori. Dagli altri con
x0 + . . . + xs
il metodo della media slittante x̃0 =
,
6
xk−5 + . . . + xk + . . . + xk+5
x0 + . . . + x 6
x̃1 =
, . . . , x̃k =
, . . . otteniamo
7
11
una serie di dati che spesso soddisfa le condizioni nella nota 19.7.
Esempio 19.12. Nelle figure seguenti la linea a tratti denota la crescita tumorale senza terapia, la linea solida più spessa la crescita in
seguito a terapia; la linea solida sottile la funzione di terapia.
106
107
Bibliografia
Parte matematica
M. Abramowitz/I. Stegun (ed.): Handbook of mathematical functions.
Dover 1972.
H. Amann: Gewöhnliche Differentialgleichungen. De Gruyter 1983.
T. Apostol: Some explicit formulas for the exponential matrix etA .
Am. Math. Monthly 76/3 (1969), 289-292.
G. Andrews/R. Askey/R. Roy: Special functions. Cambridge UP 2000.
V. Arnold: Equazioni differenziali ordinarie. Mir 1979.
H. Attaya: Radioactivity computation of steady-state and pulsed fusion
reactors operation. 3rd Int. Symp. Fusion Nuclear Techn. 1994.
B. Bakkaloǧlu/K. Erciyeş/C. Koç: A parallelization of Parlett’s algorithm
for functions of triangular matrices. Par. Algor. Appl. 11 (1997), 61-69.
R. Bartels/G. Stewart: Solution of the matrix equation AX + XB = C .
Comm. ACM 15/9 (1972), 820-826.
R. Ben Taher/M. Rachidi: Linear recurrence relations in the algebra of
matrices and applications. Lin. Algebra Appl. 330 (2001), 15-24.
R. Ben Taher/M. Rachidi: Some explicit formulas for the polynomial decomposition of the matrix exponential and applications.
Lin. Alg. Appl. 350 (2002), 171-184.
F. Bowman: Introduction to Bessel functions. Dover 1958.
I. Bronstein/K. Semendjajev: Taschenbuch der Mathematik I.
Deutsch 1987.
H. Cheng/S. Yau: More explicit formulas for the matrix exponential.
Lin. Alg. Appl. 262 (1997), 131-163.
C. Cullen: Matrices and linear transformations. Dover 1990.
G. Dall’Aglio: Calcolo delle probabilità. Zanichelli 1987.
P. Davies/N. Higham: A Schur-Parlett algorithm for computing matrix
functions. SIAM J. Matrix An. Appl. 25/2 (2003), 464-485.
P. Deuflhard/A. Hohmann: Numerische Mathematik 1. De Gruyter 2002.
N. Dunford/J. Schwartz: Linear operators I. Wiley 1988.
S. Elaydi: An introduction to difference equations. Springer 2005.
W. Forst/D. Hoffmann: Gewöhnliche Differentialgleichungen.
Springer 2005.
A. Frommer/V. Simoncini: Matrix functions. Internet 2006, 25p.
F. Gantmacher: Matrizentheorie. Springer 1986.
J. Gathen/J. Gerhard: Modern computer algebra. Cambridge UP 2003.
G. Golub/C. Van Loan: Matrix computations. Johns Hopkins UP 1983.
I. Gradshteyn/I. Ryzhik: Table of integrals, series, and products.
Academic Press 2000.
R. Graham/D. Knuth/O. Patashnik: Concrete mathematics.
Addison-Wesley 1994.
C. Groetsch: Differentiation of approximately specified functions.
Am. Math. Monthly 98 (1991), 847-850.
H. Halder/W. Heise: Einführung in die Kombinatorik. Hanser 1976.
M. Hanke/O. Scherzer: Inverse problems light - numerical differentiation. Am. Math. Monthly 108/6 (2001), 512-521.
108
W. Harris/J. Fillmore/D. Smith: Matrix exponentials - another approach.
SIAM Rev. 43/4 (2001), 694-706.
M. Heath: Scientific computing. McGraw-Hill 2002.
H. Heuser: Gewöhnliche Differentialgleichungen. Teubner 1989.
N. Higham [S]: The scaling and squaring method for the matrix exponential revisited. SIAM J. Matrix An. Appl. 26/4 (2005), 1179-1193.
N. Higham [F]: Functions of matrices.
In L. Hogben (ed.): Handbook of linear algebra. Chapman & Hall 2006.
R. Horn/C. Johnson: Topics in matrix analysis. Cambridge UP 1994.
B. Huppert: Angewandte lineare Algebra. De Gruyter 1990.
K. Jacobs: Einfhrung in die Kombinatorik. De Gruyter 1983.
P. Kirrinnis: Fast algorithms for the Sylvester equation AX − XB t = C .
Theor. Comp. Sci. 259 (2001), 623-638.
H. Knobloch/F. Kappel: Gewöhnliche Differentialgleichungen.
Teubner 1974.
K. Knopp: Theory of functions. Dover 1996.
D. Knuth: The art of computer programming I. Addison-Wesley 1973.
C. Koç: A divide-and-conquer algorithm for functions of triangular matrices. Preprint, 1996.
C. Koç/B. Bakkaloǧlu: A parallel algorithm for functions of triangular
matrices. Computing 57/1 (1996), 85-92.
M. Koecher: Lineare Algebra und analytische Geometrie. Springer 1985.
U. Luther/K. Rost: Matrix exponentials and inversion of confluent Vandermonde matrices. Internet 2003, 19p.
H. Meschkowski: Differenzengleichungen. Vandenhoeck & Ruprecht 1959.
C. Moler/C. Van Loan: Nineteen dubious ways to compute the exponential of a matrix, twenty-five years later. SIAM Rev. 45/1 (2003), 3-49.
M. Mondini: Sistemi dinamici ed equazioni differenziali ordinarie.
Tesi, Ferrara 1988.
M. Petkovšek/H. Wilf/D. Zeilberger: A = B. Peters 1996.
A. Quarteroni/R. Sacco/F. Saleri: Numerische Mathematik II.
Springer 2002
H. Roos/H. Schwetlick: Numerische Mathematik. Teubner 1999.
G. Scheja/U. Storch: Lehrbuch der Algebra 2. De Gruyter 1988.
R. Sidje: Expokit - a software package for computing matrix exponentials.
ACM Trans. Math. Software 24/1 (1998), 130-156.
E. Sontag: Mathematical control theory. Springer 1998.
J. Stoer: Einführung in die numerische Mathematik I. Springer 1983.
C. Van Loan: A study of the matrix exponential. Univ. Manchester 2006.
L. Verde Star: Functions of matrices. Lin. Alg. Appl. 406 (2005), 285-300.
W. Walter: Gewöhnliche Differentialgleichungen. Springer 1990.
G. Watson: A treatise on the theory of Bessel functions. Cambridge UP
1996.
E. Whittaker/G. Watson: A course of modern analysis. Cambridge UP
2003.
Parte biomatematica
L. Abbott/F. Michor: Mathematical models of targeted cancer therapy.
Brit. J. Cancer 95 (2006), 1136-1141.
109
R. Baiocato: Il modello di Gompertz per la reazione polimerasica a catena
in tempo reale. Tesi, Ferrara 2004.
Ž. Bajzer/M. Marušić/S. Vuk-Pavlović: Conceptual frameworks for mathematical modeling of tumor growth dynamics.
Math. Comp. Mod. 23/6 (1996), 31-46.
A. Capelo: Modelli matematici in biologia. Decibel 1989.
K. Cooke/T. Witten: One-dimensional linear and logistic harvesting models. Math. Mod. 7 (1986), 301-340.
D. Dingli/F. Michor: Successful therapy must eradicate cancer stem cells.
Stem Cells 24 (2006), 2603-2610.
U. Feldmann: Wachstumskinetik. Springer 1979.
R. Gatenby: Cancer as Darwinian evolution? Do the math!
Int. J. Epidem. 35/5 (2006), 1165-1167.
E. Gladtke/H. Hattingberg: Pharmakokinetik. Springer 1977.
A. Kolmogorov: Sulla teoria di Volterra della lotta per l’esistenza.
Giorn. Ist. Ital. Attuari 7 (1936), 74-80. Citato in Redheffer/Vance.
N. Komarova: Stochastic modeling of drug resistance in cancer.
J. Theor. Biol. 239/3 (2006), 351-366.
P. Macheras/A. Iliadis: Modeling in biopharmaceutics, pharmacokinetics,
and pharmacodynamics. Springer 2006.
F. Michor: Reply - the long term response to imatinib treatment of CML.
Brit. J. Cancer 96 (2007), 679-680.
F. Michor/S. Frank/.../M. Nowak: Somatic selection for and against cancer. J. Theor. Biol. 225 (2003), 377-382.
F. Michor/T. Hughes/.../M. Nowak: Dynamics of chronic myeloid leukemia. Nature 435 (2005), 1267-1270.
F. Michor/Y. Iwasa/M. Nowak: Dynamics of cancer progression.
Nature Reviews Cancer March 2004, 197-206.
L. Norton [G]: A Gompertzian model of human breast cancer growth.
Cancer Res. 48 (1988), 7067-7071.
L. Norton [T]: Conceptual and practical implications of breast tissue geometry - toward a more effective, less toxic therapy.
Oncologist 10 (2005), 370-381.
M. Nowak/F. Michor/Y. Iwasa: The linear process of somatic evolution.
Proc. Nat. Ac. Sci. USA 9 December 2003, 14966-14969.
L. Preziosi (ed.): Cancer modeling and simulation. Chapman & Hall 2003.
R. Redheffer/R. Vance: An equivalence theorem concerning population
growth in a variable environment. Int. J. Math. Math. Sci. 43 (2003),
2747-2758.
M. Retsky [L]: Letter to the editor. J. Theor. Biol. 229 (2004), 289.
M. Retsky [G]: Cancer growth - implications for medicine and malpractice. Internet 1998, 4p.
C. Schmidt: The Gompertzian view - Norton honored for role in establishing cancer treatment approach. J. NCI 96/20 (2004), 1492-1493.
J. Sherratt/M. Chaplain: A new mathematical model for avascular tumour growth. J. Math. Biol. 43 (2001), 291-312.
J. Spratt/.../E. Weber: Decelerating growth and human breast cancer.
Cancer 71/6 (1993), 2013-2019.
M. Tabatabai/David Williams/Zoran Bursac: Hyperbolastic growth models - theory and application. Theor. Biol. Med. Mod. 2 (1005), 13p.
110
A. Tsoularis: Analysis of logistic growth models.
Res. Lett. Inf. Math. Sci. 2 (2001), 23-46.
T. Wheldon: Mathematical models in cancer research. Hilger 1988.
D. Wodarz/N. Komarova: Emergence and prevention of resistance against
small molecule inhibitors. Sem. Cancer Biol. 15 (2005), 506-514.
D. Wodarz/N. Komarova: Computational biology of cancer.
World Scientific 2005.
Parte medica
R. Bhatia/.../S. Forman: Persistence of malignant hematopoietic progenitors in chronic myelogenous leukemia patients in complete cytogenetic remission following imatinib mesylate treatment.
Blood 101 (2003), 4701-4707.
I. Bördlein: Intervista con Otmar Wiestler, amministratore delegato del
Centro Tedesco per la Ricerca sul Cancro a Heidelberg.
Internet 2006, 2p.
G. Castoldi/V. Liso (ed.): Malattie del sangue e degli organi ematopoietici. McGraw-Hill 2004.
L. Chen/.../J. Gao: Precancerous stem cells have the potential for both benign and malignant differentiation. PLOS One 21 March 2007, 16p.
S. Chu/.../R. Bhatia: Detection of BCR-ABL kinase mutations in CD34+
cells from chronic myeologenous leukemia patients in complete cytogenetic remission on imatinib mesylate treatment. Blood 105/5 (2005),
2093-2098.
M. Clarke/M. Fuller: Stem cells and cancer - two faces of Eve.
Cell 124/6 (2006), 1111-1115.
M. Dean/T. Fojo/S. Bates: Tumour stem cells and drug resistance.
Nature Rev. Cancer 5/4 (2005), 275-284.
V. De Filippis Russo: Perché il cancro avanza. Huggins Lab. 1982.
M. Deininger: Management of early stage disease.
Am. Soc. Haem. Education Book 2005, 174-182.
M. Deininger/E. Buchdunger/B. Druker: The development of imatinib
as a therapeutic agent for chronic myeloid leukemia.
Blood 105 (2005), 2640-2653.
M. Deininger/B. Druker: Specific targeted therapy of chronic myelogenous leukemia with imatinib. Pharmacol. Rev. 55 (2003), 401-423.
M. Deininger/J. Goldman/J. Melo: The molecular biology of chronic myeloid leukemia. Blood 96 (2000), 3343-3356.
V. De Vita/S. Hellman/S. Rosenberg (ed.): Cancer. Principles and practice of oncology. Lippincott-Raven 1996.
L. Elrick/H. Jorgensen/J. Mountford/T. Holyoake: Punish the parent,
not the progeny. Blood 105 (2005), 1862-1866.
E. Fuchs/T. Tumbar/G. Guasch: Socializing with the neighbors - stem
cells and their niche. Cell 116 (2004), 769-778.
E. Gravela: Oncologia generale. Piccin 1984.
M. al-Hajj/.../M. Clarke: Prospective identification of tumorigenic breast
cancer cells. Proc. Nat. Ac. Sci. USA 100 (2003), 3983-3988.
D. Hanahan/R. Weinberg: The hallmarks of cancer.
Cell 100 (2000), 57-70.
M. Hayat/N. Howlader/M. Reichman/B. Edwards: Cancer statistics,
trends, and multiple primary cancer analyses from the surveillance,
111
epidemiology, and end results (SEER) program.
Oncologist 12 (2007), 20-37.
A. Hoffbrand/P. Moss/J. Pettit: Essential haematology. Blackwell 2006.
J. Klein/V. Hořejšı́: Immunology. Blackwell 1997.
R. Krstić: Human microscopic anatomy. Springer 1991.
C. Leaf: Why are we losing the war on cancer?
Fortune March 22, 2004, 77-94.
F. Macdonald/C. Ford/A. Casson: Molecular biology of cancer. BIOS 2004.
David Morgan: The cell cycle. Oxford UP 2007.
Ralph Moss: Comment on the article ”Why are we losing the war on cancer?” by Clifton Leaf. Internet 2004, 3p.
NCI: SEER Cancer Statistics Review (Overview). NCI 2006.
T. O’Hare/A. Corbin/B. Druker: Targeted CML therapy - controlling drug
resistance, seeking cure. Curr. Op. Gen. Dev. 16 /1 (2006), 92-99.
S. Pelengaris/M. Khan (ed.): The molecular biology of cancer.
Blackwell 2006.
K. Possinger/A. Regierer (ed.): Facharzt Hämatologie Onkologie.
Urban & Fischer 2007.
D. Rea/.../P. Rousselot: High-dose imatinib mesylate combined with vincristine and dexamethasone (DIV regimen) as induction therapy in patients with resistant Philadelphia-positive acute lymphoblastic leukemia and lymphoid blast crisis of chronic myeloid leukemia.
Leukemia 20 (2006), 400-403.
T. Reya/S. Morrison/M. Clarke/I. Weissman: Stem cells, cancer, and cancer stem cells. Nature 414 (2001), 105-111.
I. Roeder/.../M. Loeffler: Dynamic modeling of imatinib-treated chronic
myeloid leukemia - functional insights and clinical implications.
Nature Med. 12/10 (2006), 1181-1184.
W. Schulz: Molecular biology of human cancers. Springer 2005.
N. Shah/.../C. Sawyers: Overriding Imatinib resistance with a novel ABL
kinase inhibitor. Science 305 (2004), 399-401.
L. Szabo: Certain cells are more lethal. USA Today 25 february 2007.
P. Talalay: The war against cancer - new hope.
Proc. Am. Phil. Soc. 143/1 (1999), 52-72.
J. Travis: The bad seed - rare stem cells appear to drive cancers.
Science News March 20 (2004), 184-185.
E. Weisberg/.../J. Griffin: Characterization of AMN107, a selective inhibitor of wild-type and mutant Bcr-Abl. Cancer Cell 7 (2005), 129-141.
112