Giulia Giantesio
Transcript
Giulia Giantesio
UNIVERSITÀ DEGLI STUDI DI FERRARA FACOLTÀ DI SCIENZE MATEMATICHE, FISICHE E NATURALI Corso di Laurea Triennale in MATEMATICA MODELLI MATEMATICI PER LA CRESCITA TUMORALE Relatore: Chiar.mo Prof. Josef Eschgfäller Laureanda: Giulia Giantesio Anno Accademico 2006-2007 Indice Introduzione 3 I. CELLULE STAMINALI TUMORALI 1. Ematopoiesi dei leucociti 5 2. La leucemia mieloide cronica 7 3. Cellule staminali tumorali 11 4. Biologia generale dei tumori 14 5. Alcune implicazioni 20 II. L’ESPONENZIALE MATRICIALE 6. Funzioni di matrici ed esponenziale matriciale 21 7. Il polinomio minimale di una matrice 25 8. Matrici che soddisfano un’equazione quadratica 30 9. Formule che utilizzano serie ipergeometriche 34 10. Interpolazione di Hermite 46 11. La formula spettrale di Sylvester-Buchheim 57 12. Matrici che soddisfano un’equazione cubica 61 13. L’algoritmo di Parlett-Koç per matrici triangolari 64 14. La rappresentazione di Wronski-Vandermonde 74 15. Metodi di Runge-Kutta 80 III. FUNZIONI DI CRESCITA 16. La distribuzione esponenziale 82 17. Dinamica della leucemia mieloide cronica 84 18. Funzioni di crescita 88 19. Differenziazione numerica Bibliografia 103 108 1 2 Introduzione Questa tesi contiene alcuni strumenti matematici utili per descrivere la dinamica dei processi tumorali e per valutare gli effetti di una terapia. La ricerca sul cancro è attualmente incentrata sull’analisi dei meccanismi coinvolti nella genesi e nella crescita di tumori al fine di sviluppare nuovi approcci terapeutici e di prolungare la vita del paziente. Perciò, prima di iniziare la trattazione matematica, abbiamo dedicato i primi cinque capitoli alla spiegazione e descrizione medica di alcuni termini e processi biologici inerenti ai fenomeni tumorali. Nella parte biomatematica contenuta negli ultimi quattro capitoli, ci proponiamo di analizzare alcuni dei recenti modelli matematici riguardanti la dinamica tumorale. In particolare nel capitolo 17 descriveremo il modello sviluppato da Franziska Michor e colleghi per la dinamica della leucemia mieloide cronica; mentre nel capitolo 18 caratterizzeremo, a partire dal modello logistico e dall’equazione di Gompertz, alcune classi di funzioni di crescita in parte nuove insieme ad alcune tecniche elementari, ma possibilmente piuttosto utili, di adattamento terapeutico. Questa idea viene ulteriormente elaborata nell’ultimo capitolo in cui presentiamo un metodo di interpolazione e differenziazione numerica basato sull’interpolazione di Hermite che si presta all’analisi e al controllo delle funzioni di crescita. La parte matematica centrale della tesi è dedicata allo studio della funzione esponenziale matriciale. Questo è dovuto da un lato al fatto che molti modelli della biomatematica si fondano su sistemi di equazioni differenziali ordinarie lineari a coefficienti costanti, quindi della forma Ẋ = AX che possiede la soluzione X(t) = X(0)eAt . Dall’altro lato, l’esponenziale matriciale appare in molti campi della matematica pura e applicata. Il calcolo di eAt è anche oggi un argomento attuale dell’analisi numerica, sia per la ricerca di formule esplicite a cui anche nella tesi abbiamo dato molto spazio, sia per alcuni risvolti teorici. I lavori citati in bibliografia (ad esempio Apostol, Davies/Higham, Higham [S], Moler/Van Loan) mostrano l’interesse dei matematici per questo tema. Dopo aver definito, nel capitolo 6, le funzioni matriciali e l’esponenziale matriciale nel campo complesso, si passa nel settimo capitolo allo studio delle proprietà dei polinomi minimale e caratteristico di matrici quadrate. Grazie a questi polinomi, si riescono a dimostrare nel capitolo 8 le prime formule per il calcolo di eAt per una matrice A che soddisfa un’equazione quadratica. Nel successivo capitolo, partendo dall’interpolazione di Lagrange deriviamo alcuni legami con le serie ipergeometriche che forse possono essere approfondite. Nel capitolo 10, si definisce il polinomio d’interpolazione di Hermite e si dimostra un semplice algoritmo ricorsivo per il suo calcolo. Inoltre definiamo uno schema alle differenze molto utile per il calcolo di questo polinomio d’interpolazione. Il polinomio di Hermite sarà utilizzato 3 per ricavare formule esplicite per l’esponenziale di una matrice nei successivi due capitoli e, nell’ultimo capitolo, per lo studio di funzioni di crescita tumorali. Infatti, tramite l’interpolazione di Hermite, nel capitolo 11 si dimostra la fondamentale formula spettrale di SylvesterBuchheim. Nel capitolo 12 troviamo cosı̀ formule esplicite per il calcolo dell’esponenziale di una matrice che soddisfa un’equazione cubica. Il tredicesimo capitolo è dedicato all’algoritmo di Parlett-Koç, molto efficace per il calcolo dell’esponenziale di una matrice triangolare (matrici triangolari inferiori appaiono spesso nei modelli compartimentali della biomatematica). Il capitolo 14 è dedicato alla classica rappresentazione di WronskiVandermonde, mentre il capitolo 15 contiene una breve introduzione al metodo di Runge-Kutta, che sarà usato nelle sperimentazioni numeriche. Nonostante gli immensi sforzi degli ultimi decenni il cancro rimane uno dei più terribili nemici dell’uomo. Ciò è naturalmente dovuto al fatto che la malattia è legata ai segreti più profondi della vita; esistono però anche critiche all’organizzazione della lotta contro il cancro. Talvolta ad esempio si ha l’impressione che la ricerca sia troppo concentrata nelle grandi istituzioni e che nuove idee o nuovi farmaci facciano fatica ad aver successo (cfr. Leaf, Moss e, per la situazione italiana, De Filippis Russo). Cosı̀ ad esempio solo una minima parte della ricerca è rivolta allo studio delle metastasi, uno degli aspetti più temuti del cancro! È forse anche trascurata, misurata con l’enorme portata del problema, la prevenzione, benché an ounce of prevention is worth a pound of cure, come cita Paul Talalay dall’almanacco di Benjamin Franklin di 250 anni fa. Il capitolo introduttivo del libro di Pelengaris/Khan contiene un’esposizione moderna dello stato attuale della ricerca sul cancro. Per un’esposizione degli aspetti statistici ed epidemiologici apparsi nel 2007 rimandiamo all’articolo di Hayat/Howlader/Reichman/ Edwards. Molti dei più attuali modelli matematici in oncologia sono descritti nel libro di Wodarz/Komarova, per un analisi della crescita e progressione tumorale con gli strumenti della fisica matematica indichiamo Sherratt/Chaplain e la raccolta di articoli pubblicati a cura di Luigi Preziosi. L’immensa importanza umana del problema dovrebbe indurre più matematici a dedicarsi ad esso e a non ignorarlo, o perché si ritiene che non si possa fare nulla oppure che i modelli che si potrebbero sviluppare siano irrilevanti perché troppo elementari per un matematico di professione. Infatti anche modelli elementari possono essere molto utili per lo studio della malattia, per l’ottimizzazione di strategie di terapia, per il disegno di nuovi farmaci. Quindi i matematici non dovrebbero ignorare il campo medico, ma al contrario farsi coraggio e non averne paura: molto può fare la matematica! 4 I. CELLULE STAMINALI TUMORALI 1. Ematopoiesi dei leucociti Nota 1.1. L’ematopoiesi è il processo di formazione, differenziazione e maturazione delle cellule del sangue e degli altri elementi formati nel sangue. Il processo dell’ematopoiesi non è ancora del tutto capito. Esso inizia con una cellula staminale pluripotente che dà origine a cascate separate di cellule. Questa cellula staminale emopoietica è rara, circa una in 20 milioni di cellule che si trovano nel midollo osseo, un organo sparso estremamente prezioso e delicato, che è responsabile della produzione, della differenziazione e della crescita delle cellule del sangue. Il midollo osseo è situato esclusivamente nelle ossa dello scheletro e in età giovanile è essenzialmente midollo osseo rosso che più tardi viene progressivamente sostituito da quello giallo, dovuto a un aumento nelle cellule adipose e una riduzione degli elementi emopoietici. Le cellule staminali hanno la capacità di autorinnovarsi. La differenziazione cellulare avviene tramite progenitori separati per ogni linea cellulare che hanno una capacità ristretta di svilupparsi. L’esistenza di cellule progenitrici separate può essere dimostrata nelle culture in vitro. Progenitrici molto giovani si trovano nelle culture a lungo termine dello stroma, un tessuto connettivo fibroso del midollo osseo. Il midollo osseo è anche il sito principale dell’origine dei linfociti, che si differenziano da cellule staminali linfoidi. Un uomo adulto possiede circa 1012 linfociti, di cui 109 muoiono ogni giorno e vengono sotituiti dal sistema emopoietico. I granulociti derivano dalla differenziazione di apposite progenitrici (CFU-GM), mentre i megakariociti sono gigantesche cellule di circa 100 µm di diametro con un grande nucleo contente alcuni nucleoli. Il midollo osseo forma un ambiente favorevole per la sopravvivenza, la crescita e lo sviluppo delle cellule staminali. È composto dalle cellulle stromali e da una rete microvascolare. Le cellule stromali includono adipociti, fibroblasti, cellule endoteliali, macrofagi e molecole extracellulari secrete da esse come il collagene, le glicoproteine e glicosaminoglicani per formare una matrice extracellulare. Il componente ematopoietico, o parenchima, del midollo osseo consiste di un gran numero di cellule formate del sangue a vari stadi di sviluppo, differenziazione e crescita, colmando gli spazi tra gli elementi dei componenti vascolari. Le cellule reticolari del midollo osseo sopportano gli elementi ematopoietici e sintetizzano le fibre reticolari. Nota 1.2. L’ematopoiesi inizia con la divisione delle cellule staminali nella quale una cellula figlia rimpiazza la cellula staminale e l’altra è assegnata alla differenziazione; quali cascate di cellule sono scelte per la differenziazione dipende sia dal cambiamento sia dai segnali 5 esterni ricevuti dalle cellule progenitori. Riassumiamo le fasi principali dell’ematopoiesi nella seguante tabella, seguendo Hoffbrand/Moss/Pettit. In essa mancano molti stadi intermedi; la derivazione delle cellule, deducibili della linea CFU-M sembra che non sia certa. Le abbreviazioni BFU e CFU, comunemente usate, significano burst forming unit e colony forming unit. cellule staminali emopoietiche pluripotenti (CFU-GEMML) progenitrici mieloidi miste (CFU-GEMM) BFU-E BFU-Meg CFU-E CFU-Meg eritroblasti megacariociti staminali linfoidi CFU-GM CFU-M linfociti adattivi CFU-G T eritrociti piastrine monociti dendr. 6 eos. bas. neutr. NK helper citotoss. B 2. La leucemia mieloide cronica Nota 2.1. Seguiamo in questo capitolo, nella parte generale, soprattutto il libro di Castoldi/Liso. Alcuni dati qualitativi sono presi da Poissinger/Regierer. La leucemia mieloide cronica (LMC, in inglese CML) è un disordine ematopoietico provocato da una trasformazione neoplastica della cellula staminale pluripotente. Questa malattia corrisponde a circa il 15% delle leucemie e può svilupparsi ad ogni età, più frequentemente comunque tra i 40 e i 60 anni. La diagnosi della LMC è difficile cosı̀ come la terapia (allo stato attuale infatti le leucemie croniche sono più difficili da curare delle leucemie acute, cfr. Hoffbrand/Moss/Pettit, pag. 174). La LMC si contraddistingue per una presenza caratteristica del cromosoma Philadelphia (Ph). Non sembra però chiaro se si tratta di una lesione dovuta alla progressione della malattia che appare a partire dalla fase cronica, oppure se, come altri espirimenti sembrano indicare, la presenza del cromosoma Philadelphia sia un fattore che può provocare la LMC. Si distinguono quattro fasi della malattia: una fase iniziale a decorso lento, in cui la leucemia è spesso asintomatica e in cui possono passare da 2 a 10 anni dall’inizio biologico della malattia alla diagnosi che in genere avviene nella successiva fase cronica in cui si osservano specifiche anomalie cromosomali e molecolari. Questa fase normalmente è sintomatica: leucocitosi elevata, splenomegalia (nel 75% dei pazienti), epatomegalia (nel 50%), tensione addominale, ipermetabolismo con perdita di peso e astenia; si osserva una forte proliferazione delle CFU-GM e CFU-G (cfr. la tabella nella nota 1.2) e un soprannumero sempre più marcato delle cellule Ph+ (in cui cioè è presente il cromosoma Philadelphia). Una fibrosi midollare rappresenta un elemento prognostico sfavorevole. Nella fase accelerata (descritta più dettagliatamente a pag. 219 del libro di Castoldi/Liso) si notano un accentuarsi dei sintomi e nuove anomalie cromosomiche, mentre la terapia diventa sempre più difficile. La fase blastica terminale dura circa 6 mesi e porta nel 90% dei casi alla morte del paziente. Solo in relativamente pochi casi è possibile un ritorno alla fase cronica. Una delle cause più probabili della LMC è l’esposizione a radiazioni ionizzanti; come osservano Castoldi e Liso, prima dell’introduzione di appositi sistemi di protezione, l’incidenza della LMC nei medici radiologi era nove volte superiore rispetto alla popolazione normale, mentre un anologo aumento della LMC si è osservato nei sopravvissuti alle bombe di Hiroshima e Nagasaki. Alcune varianti della LMC sono la leucemia mieloide cronica Ph− (si trova prevalentemente nei soggetti maschili anziani e ha un tempo di sopravvivenza minore), la LMC giovanile, la leucemia eosinofilica e neutrofilica e la leucemia mielomonocitica cronica. Nella LMC Ph− si è dimostrata la presenza di una variante dell’accoppiamento BCRABL molto simile dal punto di vista funzionale a quello classico. 7 Nota 2.2. Il cromosoma Ph deriva da una reciproca combinazione tra i cromosomi 9 e 22, in cui una parte del proto-oncogene c-ABL si muove verso il gene BCR del cromosoma 22 e una parte del cromosoma 22 si muove verso il cromosoma 9. Questa 9;22-traslocazione si trova in circa il 95% dei casi della LMC ed è descritta molto schematicamente nella figura. ^ 9 22 = Ph Dalla traslocazione nasce un nuovo gene BCR-ABL che codifica per una fosfoproteina di grandezza 210 kD, mentre l’ABL normale produce una proteina di 145kD. La proteina patologica ha un’attività tirosinochinasica maggiore di quella della proteina normale. Come osservano gli autori citati, la fosfoproteina anomala può fosforizzare molti substrati, attivando cosı̀ una cascata di segnali di trasduzione i quali a loro volta regolano crescita e differenziazione delle cellule. Alcuni dettagli in più sui siti di rottura nei cromosomi 9 e 22 si trovano in Macdonald/Ford/Casson, pagg. 178-181, un’esposizione più completa in Deininger/Goldman/Melo. Mutazioni nel gene BCR-ABL che possono portare a resistenza sono discusse in Chu/. . ./Bhatia. Nota 2.3. Per curare la leucemia mielode cronica si possono scegliere diverse strade, come la chemioterapia ad esempio con il busulfano, un alchilante mielodepressivo che miglora notevolmente il grado ematologico e quindi anche la quantità della vita dei pazienti, ma non riesce a ritardare la crisi blastica, il trattamento con l’interferone α (usato di solito dopo o in combinazione con la chemioterapia) e il trapianto allogeno di midollo osseo tanto efficace quanto rischioso, in quanto il trattamento riesce a curare la malattia nel 50% dei casi, ma può essere fatale (con una mortalità che arriva al 25%) ed è comunque proponibile solo nel 15% circa dei pazienti, ma di solito da alcuni anni si preferisce per la sua efficacia e la buona tollerabilità il trattamento con imatinib. La terapia dovrebbe iniziare il più presto possibile. Se però il trapianto è possibile, secondo Deininger, pag. 180, bisogna spiegare al paziente che l’imatinib non riesce ad eliminare completamente la leucemia, che la terapia dovrà durare tutta la vita e che esiste il rischio di un’improvvisa apparizione di cloni resistenti e progressione in fase blastica. Tutti i trattamenti sono efficaci solo nella fase cronica; sembra che non esista una terapia nella fase blastica anche se talvolta alte dosi di imatinib riescono a indurre un ritorno alla fase cronica (cfr. Castoldi/Liso, pag. 224). 8 Nota 2.4. L’introduzione di inibitori dell’attività tirosinochinasica ha rivoluzionato la terapia della leucemia mieloide cronica (Castoldi/Liso, pag. 222). L’imatinib è una droga usata nel trattamento di diversi tipi di tumori che viene utilizzata anche in alcuni tumori del cervello e in rari tumori gastrointestinali. L’imatinib, chiamato anche STI571 (STI=signal transduction inhibitor) e, come prodotto commerciale della Novartis, Gleevec o Glivec, è un inibitore della BCR/ABL tirosino proteina chinasi che agisce mediante un blocco dell’ATP, la molecola che governa la dinamica energetica della cellula. È stato identificato alla fine del 1990 e, negli Stati Uniti, è stato approvato come trattamento per la LMC, proprio per la sua efficacia. L’imatinib è una 2-fenilaminopirimidina la cui formula è rappresentata nella figura. Una dose di 400 mg al giorno è capace di produrre una remissione ematologica completa in quasi tutti i pazienti riducendo fortemente il numero delle cellule tumorali nel midollo osseo. Purtroppo questa remissione è soltanto temporanea. Infatti, molti tumori sviluppano resistenza alla droga. In alcuni casi la resistenza coinvolge l’amplificazione del gene BCR-ABL, mentre in altri i cambiamenti rendono questa proteina meno sensibile agli inibitori. Gli effetti tossici dell’imatinib riguardano il fegato, l’apparato gastroenterico e il sistema nervoso, provocando esantemi, ritenzione di liquidi, tensioni muscolari e nausea. La terapia può provocare neutropenia e trombocitopenia che talvolta costringe a una riduzione della dose. La LMC generalmente mostra una buona reazione all’imatinib soprattutto nella fase cronica e riesce a prolungare la sopravvivenza dei pazienti. Per più dettagli si cfr. Hoffbrand/Moss/Pettit, pagg. 177-179, e Deininger/Buchdunger/Druker. Osservazione 2.5. Due nuovi farmaci, il dasatinib (BMS-354825, svi9 luppato dalla Bristol-Myers-Squibb) e l’AMN107 sembrano poter competere con l’imatinib; cfr. Shah/. . ./Sawyers, Weisberg/. . ./Griffin e O’Hare/Corbin/Druker. Si tratta ancora di inibitori della tirosinochinasi BCR-ABL promettenti soprattutto nella possibilità di superare i fenomeni di resistenza. Nonostante ciò sembra che anche queste nuove sostanze non siano in grado di eliminare completamente le cellule staminali tumorali; gli autori citati prospettano quindi l’utilizzo di un cocktail di inibitori per evitare la formazione di classi resistenti. Nel lavoro di Rea/. . ./Rousselot è descritto uno studio clinico su una terapia combinata in cui l’imatinib viene somministrato a una dose doppia (800 mg al giorno) rispetto a quella normale. 10 3. Cellule staminali tumorali Nota 3.1. La scoperta di cellule staminali tumorali ha rivoluzionato gli studi sulla carcinogenesi e promette di aprire nuove vie per la chemioterapia tumorale. Si tratta attualmente di uno dei campi più attivi della ricerca sul cancro; seguiamo in questo capitolo soprattutto i lavori di Dean/Fojo/Bates e Rea/. . ./Weisman. Le cellule staminali sono definite come quelle cellule che hanno l’abilità di perpetuarsi attraverso l’autorinnovamento; da esse discendono le cellule mature dei vari tessuti attraverso diversi stadi di differenziazione. Le cellule staminali sono rare ed è molto difficile poterle identificare, mentre la loro origine è ancora sconosciuta. Probabilmente anche tra le cellule staminali esiste una gerarchia che va da cellule che possono produrre qualsiasi tipo di cellula e sono chiamate pluripotenti a cellule staminali più specializzate. Il tempo di duplicazione delle cellule staminali è relativamente lungo rispetto a quello dei progenitori. Durante la divisione da una cellula staminale nascono due cellule figlie: una del tutto uguale alla cellula madre, la seconda destinata a diventare progenitrice di una linea cellulare tissutale specifica che si evolve attraverso la differenziazione cellulare. Nota 3.2. Le cellule staminali sono alla base di molti meccanismi di riparazione dei tessuti, inoltre la loro capacità di divisione e autorinnovamento è cruciale per il mantenimento di un giusto stato di equilibrio (omeostasi) degli organi; infatti un organo sano mantiene un normale equilibrio controllando le diverse cellule per riparare lesioni all’organo. Siccome le cellule di molti organi vengono continuamente rinnovate, ciò richiede un preciso meccanismo di proliferazione e distruzione che in più deve essere in grado di reagire in modo appropriato a situazioni nuove in seguito a traumi o particolari esigenze fisiologiche. Per conservare le loro caratteristiche biologiche e per garantire e regolare la divisione cellulare asimmetrica descritta nella nota 3.1, le cellule staminali hanno bisogno di un microambiente stabile e favorevole che prende il nome di nicchia staminale, descritto ad esempio in Fuchs/Tumbar/Guasch, Schulz, pagg. 185-191 e Clarke/Fuller. Nel caso delle cellule staminali tumorali probabilmente è decisivo se esse riescono a trovare o crearsi un tale ambiente favorevole. Nota 3.3. Si può supporre che ci siano parallele tra le cellule staminali normali e quelle tumorali: che abbiano quindi meccanismi simili che regolano l’autorinnovamento attraverso una gerarchia di cellule sempre più specializzate. La grande massa delle cellule tumorali deriverebbe dalle cellule staminali tumorali, che risultano cosı̀ decisive per la progressione della malattia. Il ruolo delicato delle cellule staminali normali nel mantenimento dell’omeostasi e i complessi meccanismi di riparazione di cui dispon11 gono le rende probabilmente spesso il bersaglio degli eventi che conducono a una trasformazione maligna. In questo senso un tumore può essere visto come un organo aberrante governato da un compartimento di cellule staminali trasformate le quali, fino a quando non sono completamente eradicate, continuano ad essere in grado di rigenerare il tumore. Una caratteristica importante per le strategie di terapia è che le cellule staminali sia normali che tumorali dispongono di meccanismi di protezione più efficaci delle cellule specializzate (ad esempio nelle cellule staminali sono spesso fortemente espressi i geni per sistemi di trasporto con cui la cellula riesce a liberarsi di sostanze tossiche e quindi anche di farmaci tumorali) e sono quindi molto più resistenti alla chemioterapia che quindi spesso riesce (come abbiamo visto nel caso della leucemia mieloida cronica) ad eliminare la grande massa delle cellule tumorali, ma non è in grado di distruggere il compartimento staminale. Nelle cellule staminali tumorali molto probabilmente si aggiungono mutazioni patologiche che possono a loro volta causare una maggiore resistenza. Nota 3.4. Cellule staminali tumorali sono state identificate per la prima volta in alcuni tipi di leucemia nel 1997, mentre nel 2003 sono state trovate cellule staminali in tumori al seno (cfr. Dick, al-Hajj/. . ./ Clarke) e ancora più recentemente in tumori del cervello, delle ossa e in teratocarcinomi. Nel 2007 sono state isolate per la prima volta cellule staminali del tumore del pancreas. Osservazione 3.5. I biologi non sono sicuri ancora di come le cellule staminali (normali o tumorali) acquisiscono le loro caratteristiche particolari. Si è visto comunque recentemente, quando si sono isolate celulle staminali tumorali, che esse costituiscono solo una piccolissima parte dell’intera massa del tumore e che ne bastano poche per generare un nuovo cancro, mentre la maggior parte delle cellule tumorali non ne è in grado. In base a queste considerazioni Kathryn Packman ha sviluppato un nuovo modello del cancro che differisce sostanzialmente dal vecchio: Vecchio modello: (1) Tutte le cellule del tumore possono formare nuovi tumori. (2) Crescita sregolata attribuita a eventi genetici. (3) Cancro è un malessere proliferativo. Nuovo modello: (1) Solo poche cellule del cancro possono formare nuovi tumori. (2) Crescita sregolata attribuita a difetti nei meccanismi nel rinnovo delle cellule staminali. (3) Cancro è un disordine delle cellule staminali. 12 Un tentativo di definire cellule staminali pretumorali capaci di un’evoluzione sia benigna che maligna che potrebbero essere i precursori delle cellule staminali tumorali si trova in un recente lavoro di Chen/. . ./Gao. Osservazione 3.6. Il concetto di cellula staminale tumorale aprirà sicuramente nuove strade per la terapia. Analizzando infatti le caratteristiche particolari di queste cellule si possono sviluppare farmaci che attaccano specificamente le cellule che hanno quelle proprietà. Allo stato attuale comunque bisogna aggiungere che in alcuni tumori (ad esempio del rene, del pancreas, del colon) la chemioterapia non riesce a ridurre in modo decisivo nemmeno il numero delle cellule tumorali comuni. Osservazione 3.7. Molti scienziati pensano che anche le mutazioni di un tumore risalgano spesso a cellule staminali tumorali che talvolta, in accordo con le loro proprietà biologiche, possono rimanere quiescenti per molti anni e causare metastasi ritardate; cfr. Bördlein. 13 4. Biologia generale dei tumori Nota 4.1. Nell’organizzazione generale di questo capitolo seguiamo l’articolo di Hanahan/Weinberg. Il cancro è una malattia che ha origine da cambiamenti nel genoma. Le mutazioni più facilmente identificabili riguardano gli oncogeni e i geni soppressori della crescita. Hanahan e Weinberg prospettano per il futuro una nuova impostazione delle ricerche sul cancro che si spera che potrà diventare una scienza logica che cerca di capire la malattia individuandone un piccolo numero di principi astratti. In questo processo di messa a punto dei concetti fondamentali forse anche il matematico può avere il suo ruolo, contribuendo con metodi analitici (come in questa tesi) o statistici classici oppure importando nella ricerca medica strumenti della matematica pura come le reti di Petri o la teoria dei sistemi. Nel seguito spiegheremo le regole che governano la trasformazione di cellule normali umane in maligne, mentre vedremo che il cancro è un processo a più tappe tipicamente associate a specifiche alterazioni genetiche. Il problema del cancro non è comunque difficile solo per la numerosità dei fattori e processi coinvolti, ma anche perché non si tratta di una singola malattia, ma di un’intera classe di malattie spesso con caratteristiche biologiche molto diverse. Esse hanno in comune uno sregolamento della cooperazione bilanciata tra i fattori che stimolano la crescita dei tessuti e i fattori che controllano e limitano la crescita. Quando i geni che producono questi fattori subiscono mutazioni, nel primo caso possono diventare oncogeni e provocare una crescita incontrollata; se i geni soppressori sono mutati, essi a loro volta non sono più in grado di regolare la crescita e di impedire la successiva trasformazione maligna. Questo meccanismo spiega anche perché in genere è sufficiente la mutazione di un solo allele per attivare un oncogene, mentre affinché l’azione di un sopressore venga compromessa la mutazione deve riguardare entrambi gli alleli (per questa ragione persone in cui per un difetto genetico solo uno dei due alleli soppressori funziona bene, sono particolarmente a rischio di perdere questa protezione). Per un’esposizione più approfondita delle conoscenze attuali su oncogeni e geni soppressori rimandiamo ai libri di Macdonald/Ford/Casson e Pelengaris/Khan che contengono anche capitoli su alcuni degli altri temi che adesso toccheremo molto brevemente (apoptosi, telomeri, instabilità genetica, angiogenesi, ciclo cellulare). Nota 4.2. Molti tipi di cancro sono noti nel genere umano; qui di seguito riportiamo alcuni dati del 2006 riguardanti gli USA, presi dalla tabella del NCI. 14 Nuovi casi stimati nel 2006 Cavità orali e faringe Esofago Stomaco Colon e retto Fegato e dotti biliari Pancreas Laringe Polmone e bronchi Melanoma della pelle Seno Cervice (utero) Endometrio (utero) Ovaie Prostata Testicoli Vescica urinaria Rene e bacini renali Cervello e altri nervi Tiroide Linfoma Hodgkin Linfoma non-Hodgkin Mieloma Leucemia Morti stimate nel 2006 uomini donne uomini donne 20.180 11.260 13.400 72.800 12.600 17.150 7.700 92.700 34.260 1.720 10.810 3.290 8.880 75.810 5.910 16.580 1.810 81.770 27.930 212.920 9.710 41.200 20.180 5.050 10.730 6.690 27.870 10.840 16.090 2.950 90.330 5.020 460 2.380 3.040 4.740 27.300 5.360 16.210 790 72.130 2.890 40.970 3.700 7.350 15.310 234.460 8.250 44.690 24.650 10.730 7.590 4.190 30.680 9.250 20.000 16.730 14.240 8.090 22.590 3.610 28.190 7.320 15.070 27.350 370 8.990 8.130 7.260 630 770 10.000 5.680 12.470 4.070 4.710 5.560 870 720 8.840 5.630 9.810 Trasformiamo la tabella in diagrammi a trapezio, in cui il lato superiore si riferisce agli uomini, il lato inferiore alle donne, mentre la parte scura corrisponde alla mortalità. Hodgkin linfomi non-Hodgkin vescica urinaria cervice dell’utero rene mieloma sistema nervoso corpo dell’utero leucemie tiroide melanoma ovaia testicoli mammella prostata fegato bocca e faringe pancreas esofago laringe polmoni stomaco colon e retto 15 Nota 4.3. Esistono notevoli differenze tra i vari paesi. I seguenti biprofili corrispondono alla tabella a pag. 3 in Schulz; sono indicate le mortalità per alcune forme di tumore secondo zone geografiche. Dall’alto in basso: Europa occidentale, Nordamerica, Sudamerica, Cina, Africa, media mondiale. cervice dell’utero prostata seno fegato polmoni stomaco colon Nota 4.4. Le cellule cancerose sono caratterizzate da un difetto nei circuiti regolatori che governano la proliferazione e l’omeostasi delle cellule normali. Si conoscono più di 100 tipi diversi di cancro e numerosi sottotipi. Nonostante questa complessità si possono evidenziare sei alterazioni essenziali nella fisiologia cellulare, probabilmente presenti in tutti i tipi di cancro. • Autosufficienza rispetto ai segnali di crescita. • Insensibilità ai segnali che limitano la crescita. • Capacità di evitare la morte programmata (apoptosi). • Capacità illimitata di autoreplicazione. • Angiogenesi tumorale. • Invasione dei tessuti vicini e formazione di metastasi. Nota 4.5. Autosufficienza nei segnali di crescita. Le cellule normali necessitano di un segnale di crescita mitogenico prima di passare da uno stato di quiescenza a uno di proliferazione. Questi segnali sono accolti dalle cellule tramite recettori specifici, i quali trasmettono il segnale all’interno. Nell’assenza di questi segnali cellule normali non possono proliferare. 16 Molti oncogeni agiscono imitando questi segnali, cosicché la cellula cancerosa diventa indipendente dagli stimoli provenienti dall’ambiente. Più specificamente, per realizzare questa indipendenza si osservano tre diverse strategie: l’alterazione dei segnali di crescita extracellulari, l’alterazione dei trasduttori transcellulari di questi segnali oppure dei circuiti intracellulari che traducono questi segnali in risposte proliferative. Nei tessuti normali, le cellule sono stimolate a crescere da quelle vicine o da segnali sistemici e infatti anche nei tumori si osserva, oltre all’autosufficenza, che si stabiliscono dei meccanismi di cooperazione tra le cellule (cancerose e non), e spesso le cellule tumorali acquisiscono l’abilità di cooptare i loro normali vicini inducendoli a rilasciare segnali necessari per la crescita tumorale. Nota 4.6. Insensibilità ai segnali che limitano la crescita. Nei tessuti normali, una varietà di segnali antiproliferativi agisce per mantenere le cellule in quiescenza proliferativa e garantire l’omeostasi nei tessuti; questi segnali includono sia inibitori solubili sia inibitori immobilizzati nella matrice extracellulare e sulla superficie di cellule vicine. Anche questi segnali inibitori agiscono attraverso un sistema di ricettori trasmembrana associati a circuiti a cascata all’interno delle cellule. Questi stimoli possono bloccare la proliferazione attraverso due meccanismi distinti: o le cellule escono dal ciclo di proliferazione entrando in uno stato di quiescenza da cui possono successivamente rientrare in un ciclo, oppure perdono definitivamente la capacità di proliferazione passando a uno stato postmitotico differenziato. Le cellule del cancro allo stato iniziale devono quindi eliminare o evadere questi segnali, ad esempio attraverso mutazioni che compromettono i geni responsabili della produzione della molecola associata ai segnali inibitori. Molti dei meccanismi che le cellule tumorali utilizzano a questo scopo sono però ancora sconosciuti. Nota 4.7. Capacità di evitare la morte programmata (apoptosi). L’abilità della popolazione cellulare tumorale di espandersi non è determinata solo dalla rata di proliferazione ma anche dalla resistenza alla morte programmata (apoptosi) presente seppur in forma latente, in quasi tutte le cellule del corpo umano. Il programma apoptico si basa su due componenti: i sensori, attraverso i quali la cellula percepisce l’ambiente interno ed esterno rivelando condizioni che determinano se la cellula deve continuare a vivere oppure morire, e gli effettori, ad esempio la proteina p53, che a sua volta causa il rilascio di citocromo C, un potente catalizzatore dell’apoptosi, e le caspasi che in un meccanismo a cascata completano il programma di distruzione. La resistenza all’apoptosi può essere acquisita dalle cellule del can17 cro in più modi, tra cui forse il più importante è la soppressione della proteina p53. Viceversa alcune delle terapie più moderne cercano di indurre le cellule tumorali all’apoptosi. Nota 4.8. Capacità illimitata di autoreplicarsi. Cellule in culture hanno un potenziale finito di replicarsi, infatti dopo essersi duplicate un certo numero di volte smettono di crescere. Al contrario, molte cellule tumorali che si propagano nelle culture sembrano essere immortali, e da questo si deduce che la capacità illimitata di riprodursi è un fenotipo che si acquisisce durante la progressione tumorale in vivo e ed è essenziale per capire lo stato maligno di crescita. Queste osservazioni suggeriscono che, a un certo punto dell’evoluzione tumorale, la popolazione premaligna delle cellule raggiunge il numero consentito di duplicazioni e può completare la strada verso il cancro solo superando questo limite e acquisendo un potenziale illimitato di replicazione. Ciò potrebbe avvenire attraverso la conservazione (in questo contesto patologica perché favorisce il cancro) delle estremità dei cromosomi (i telomeri) i quali dopo ogni divisione cellulare fisiologica vengono accorciati (di circa 50-100 coppie di basi) comportando, dopo un certo numero di replicazioni, l’incapacità della cellula di dividersi ancora. Nota 4.9. Angiogenesi tumorale. Le cellule del nostro corpo hanno bisogno di nutrimento e ossigeno forniti nei tessuti dei vasi sanguigni. Ciò vale anche per le cellule cancerose. Queste però inizialmente non sono in grado di stimolare la crescita di nuovi vasi sanguigni e devono acquisire questa capacità prima che un tumore solido si possa espandere. Ciò avviene attraverso meccanismi complessi di regolazione attualmente molto studiati anche dai biomatematici. Nota 4.10. Invasione dei tessuti vicini e formazione di metastasi. Molti tumori sono in grado di invadere i tessuti adiacenti, e da essi possono distaccarsi cellule capaci di raggiungere siti anche lontani dove talvolta riescono a formare nuove colonie. Questi insediamenti distanti di cellule tumorali (metastasi) sono la causa del 90% delle morti di cancro. Come abbiamo visto nel capitolo precedente, oggi si pensa che non tutte le cellule tumorali siano capaci di rigenerare il tumore in un altro sito, ma soltanto le cellule staminali tumorali e sottoclassi particolari di queste. Invasione e metastasi sono processi estremamente complessi e solo parzialmente compresi. I meccanismi sono probabilmente piuttosto simili e legati a modifiche dei livelli di espressione di alcune molecole responsabili delle in18 terazioni tra le cellule: molecole di adesione cellula-cellula (soprattutto alcune immoglubine e cadherine); le integrine, che legano le cellule alla matrice extracellulare; le proteasi extracellulari. Queste ultime, capaci di distruggere le barriere tissutali, spesso non vengono prodotte dalle cellule tumorali, ma da cellule stromali e infiammatorie che in qualche modo hanno iniziato a collaborare con le cellule maligne. Osservazione 4.11. Instabilità genetica. Le sei alterazioni fisiologiche fondamentali che abbiamo elencato (descritti molto più dettagliatamente nel lavoro di Hanahan/Weinberg) sono a loro volta connesse con cambiamenti a livello genetico che si esprimono spesso in una spiccata instabilità genetica delle cellule tumorali. Nota 4.12. Non abbiamo potuto toccare in questa tesi un altro capitolo estremamente importante della ricerca sul cancro, la regolazione delle fasi di ciclo cellulare. Se da un lato esso si presenta particolarmente bene a un approccio matematico (ad esempio nell’ambito delle reti di Petri o della teoria dei sistemi), probabilmente mancano ancora conoscenze precise dei componenti del ciclo per poter formulare modelli matematici biologicamente corretti. Una discussione della biologia dei tumori dal punto di vista del ciclo cellulare si trova nella parte conclusiva del libro di Morgan e nel quarto capitolo di Pelengaris/Khan. 19 5. Alcune implicazioni Nota 5.1. Come abbiamo visto nei capitoli precedenti, la crescita di molti tumori è governata da un compartimento di cellule staminali tumorali. Solo eliminando questo compartimento si può arrivare a una terapia definitiva. Il recente lavoro di Dingli/Michor descrive questi aspetti dal punto di vista quantitativo, utilizzando un modello a quattro compartimenti della forma ẋ0 ẋ1 ẏ0 ẏ1 = x0 · [ϕ(x0 + y0 ) − ax0 ] = αx0 − bx1 = y0 · [ψ(x0 + y0 ) − cy0 ] = βy0 − dy1 in cui x0 denota il numero delle cellule staminali sane, x1 il numero delle cellule differenziate sane, mentre y0 si riferisce alle cellule staminali tumorali, y1 alle cellule tumorali differenziate. Le funzioni ϕ e ψ sono funzioni decrescenti che esprimono un legame competitivo tra i due compartimenti staminali. Il modello dimostra poi piuttosto bene come il tumore non possa essere eradicato se la terapia non è in grado di distruggere il compartimento staminale. Siccome le cellule staminali tumorali sono particolarmente suscettibili a mutazioni che possono portare a una sempre maggiore resistenza, si dovrebbe cercare di eliminare il compartimento staminale il più presto possibile, nel caso della LMC ad esempio con l’interferone α. È quindi importante sviluppare terapie che riescano ad aggredire selettivamente le cellule staminali tumorali e allo stesso tempo incidano il meno possibile sul compartimento staminale sano. Punish the parent not the progeny è quindi il titolo del lavoro di Elrick e colleghi che fornisce una visione dal punto di vista medico dei fattori biologici coinvolti e delle strategie terapeutiche che si potrebbero considerare. Nota 5.2. Alcuni aspetti matematici generali della formulazione di modelli per la resistenza sono discussi nell’articolo di Wodarz/Komarova, gli aspetti medici corrispondenti nel caso della cura della LMC in Deininger/Druker e Bhatia/. . ./Forman. Un modello stocastico della resistenza alla chemioterapia tumorale è presentato nel lavoro di Komarova. Il problema della resistenza è comunque molto complesso dal punto di vista biologico. L’azione di farmaci che incidono sul ciclo cellulare può essa stessa produrre la resistenza, se il farmaco ferma il ciclo in una fase dove la cellula successivamente non è più suscettibile alla terapia, ad esempio tramite altri farmaci che vengono somministrati in combinazione oppure perché la cellula non raggiunge il punto in cui possa entrare in azione il p53. Questi aspetti sono discussi nell’articolo di Shah/Schwartz. 20 II. L’ESPONENZIALE MATRICIALE 6. Funzioni di matrici ed esponenziale matriciale Situazione 6.1. Sia A ∈ Cnn e sia σ(A) lo spettro di A, cioè l’insieme dei suoi autovalori. n l’insieme Come sempre, per un anello commutativo K denotiamo con Km delle matrici ad n righe ed m colonne con coefficienti in K . δ sia la matrice identitica in Knn . Definizione 6.2. Per un polinomio f = a0 + a1 x + ... + ar xr ∈ C[x] r X definiamo f (A) := ak Ak . Naturalmente A0 := δ. k=0 f con f, g ∈ C[x] una funzione razionale g per cui g(λ) 6= 0 per ogni λ ∈ σ(A). Osservazione 6.3. Sia ϕ = Allora la matrice ϕ(A) := (g(A))−1 f (A) risulta ben definita. Dimostrazione. La matrice ϕ(A) è ben definita in quanto sono ben definite f (A) e g(A), secondo la definizione precedente, ed è possibile invertire g(A) in quanto si è supposto g(λ) 6= 0 per ogni λ ∈ σ(A). Osservazione 6.4. Siano Ω un dominio di C ed f : Ω → C una funzione analitica. Γ sia una curva di Jordan in Ω che contiene σ(A) al suo interno. Allora si può definire Z 1 f (A) := f (z)(zδ − A)−1 dz 2πi Γ Si può dimostrare che questa matrice è ben definita e non dipende da Γ. Per i coefficienti essa significa Z 1 j f (z)((zδ − A)−1 )jk dz (f (A))k := 2πi Γ per ogni j,k. Se z0 è un punto di Ω in cui f è rappresentata dalla serie di potenze ∞ ∞ X X ak (A − z0 δ)k . ak (z − z0 )k , si può dimostrare che f (A) = f (z) = k=0 k=0 Definizione 6.5. L’esponenziale ∞ X 1 k e := A k! A k=0 è definito per ogni A ∈ Cnn . Nel teorema 6.6 riportiamo alcuni utili enunciati sulle proprietà dell’esponenziale di una matrice. 21 Teorema 6.6. Per ogni T ∈ GL(n, C) si ha eT AT = T −1 eA T. Sia B ∈ Cnn e AB = BA. Allora eA+B = eA eB = eB eA . (eA )−1 = e−A , quindi eA è sempre una matrice invertibile. Se λ1 , ..., λn sono gli autovalori di A, allora eλ1 , ..., eλn sono gli autovalori di eA . La moltiplicità degli autovalori di A è maggiore o uguale a quella di eA , in quanto può accadere che λj 6= λk , ma eλj = eλk . (5) det(eA ) = etrA . −1 (1) (2) (3) (4) Dimostrazione. Huppert, pagg. 269-283, Arnold, pagg. 115 sgg., Amann, pagg. 167-183. Nota 6.7. L’equazione differenziale ẋ = Ax (in cui si cerca una funzione x : R → Cn ) per ogni dato iniziale x(0) = x0 ammette un’unica soluzione x = etA x0 . t Ciò implica l’enunciato analogo per l’equazione differenziale matriciale Ẋ = AX , in cui si cerca una funzione X : R → Cnn . Per ogni k infatti, questa corrisponde a un’equazione Ẋk = AXk con soluzione Xk = etA Xk (0) e ciò significa proprio che X = etA X(0). t t In particolare, l’unica soluzione del problema Ẋ = AX X(0) = δ con è X = etA . Definizione 6.8. Per λ ∈ C ed m ∈ N+1 definiamo le caselle di Jordan Jm (λ) ∈ Cm m nel modo seguente: J1 (λ) := (λ) λ J2 (λ) := 0 λ J3 (λ) := 0 0 ... 1 λ 1 0 λ 1 0 λ λ 1 0 ... 0 0 λ 1 ... 0 Jm (λ) := . . . . . . . . . . . . . . . 0 0 ... λ 1 0 0 0 0 λ Se poniamo Nm := Jm (0), abbiamo Jm (λ) = λδ + Nm . Osservazione 6.9. N ∈ Cnn sia una matrice nilpotente, cioè tale che esiste r ∈ N con N r = 0. Allora la matrice δ − N è invertibile e si ha (δ − N )−1 = r−1 X Nk k=0 22 Dimostrazione. (δ−N ) r−1 X N k = δ+N +N 2 +. . .+N r−1 −(N +N 2 +. . .+N r−1 +N r ) = δ k=0 Proposizione 6.10. Siano z, λ ∈ C ed m ≥ 1. Se z 6= λ, allora (zδ − Jm (λ))−1 = ((z − λ)δ − Nm )−1 = m−1 X k=0 k Nm (z − λ)k+1 m = 0. Dimostrazione. Segue dall’osservazione 6.9 usando che Nm Proposizione 6.11. Siano λ ∈ C ed Ω un dominio di C con λ ∈ C. f : Ω → C sia una funzione analitica e Γ una curva di Jordan in Ω che contiene λ al suo interno. Allora f (Jm (λ)) = m−1 X k=0 f (k) (λ) k Nm = k! f (λ) = 0 ... 0 f ′ (λ) f ′′ (λ) 2! ... f (λ) f ′ (λ) ... ... ... ... 0 0 ... f (m−1) (λ) (m − 1)! (m−2) f (λ) (m − 2)! ... f (λ) Dimostrazione. 1 f (Jm (λ)) = 2πi 6.4 6.10 = = = Z 1 2πi m−1 X k=0 m−1 X k=0 f (z)(zδ − Jm (λ))−1 dz Γ Z f (z) Γ m−1 X k=0 k Nm 1 2πi k Nm f k (λ) k! Z Γ k Nm dz (z − λ)k+1 f (z) dz (z − λ)k+1 2 = δf (λ) + Nm f ′ (λ) + Nm f ′′ (λ) + ... 2! e si ottiene ovviamente la matrice dell’enunciato. Nella dimostrazione abbiamo usato la nota formula Z n! ϕ(ζ) (n) f (z) = dζ 2πi k (ζ − z)n+1 che si trova ad esempio in Knopp, pag. 64. 23 Definizione 6.12. Siano M1 , . . . , Ms matrici quadratiche, non necessariamente della stessa dimensione. Allora con M1 ⊕. . .⊕Ms denotiamo la matrice M1 0 . . . 0 0 M2 . . . 0 M = 0 . . . ... 0 0 ... . . . Ms Diciamo allora che M è somma diretta delle matrici Mj . Teorema 6.13 (teorema della forma normale di Jordan). Esiste T ∈ GL(n, C) tale che A = T −1 M T , dove M è somma diretta di caselle di Jordan. Dimostrazione. Ad esempio Huppert, pagg. 23-26, Mondini, pagg. 60-67. Osservazione 6.14. Siano f come nell’osservazione 6.4 e T ∈ GL(n, C). Allora f (T −1 AT ) = f (A). Perciò in principio si può usare la proposizione 6.11 per calcolare f (A); nella pratica però la forma normale di Jordan presenta notevoli difficoltà algoritmiche e numeriche. Dimostrazione. Immediato dalla formula integrale oppure dallo sviluppo in serie di potenze di f . 24 7. Il polinomio minimale di una matrice Situazione 7.1. Sia A ∈ Cnn . Lemma 7.2. U sia un’algebra su C con elemento neutro 1U . Per f = a0 xn + a1 xn+1 + · · · + an ∈ C[x] ed u ∈ U poniamo f (u) := a0 un + a1 un+1 + · · · + an 1U . Allora per ogni u ∈ U , l’applicazione f (u) : C[x] → U è un omomorf fismo di C-algebre. Abbiamo quindi f (1) = 1U e, per f, g ∈ C[x] e α ∈ C, le relazioni (f + g)(u) = f (u) + g(u) (αf )(u) = αf (u) (f · g)(u) = f (u) · g(u) Nel seguito useremo questi risultati per U = Cnn . Dimostrazione. Dimostriamo solo l’ultima relazione, in quanto le altre sono evidenti. Siano f = a0 xn + a1 xn+1 + · · · + an , g = b0 xm + b1 xm+1 + · · · + bm ed n+m k X X k aj bn−j per ogni k. h := f · g. Allora h = ck x con ck = j=0 k=0 Ma questi sono proprio i coefficienti che si ottengono raccogliendo i coefficienti delle potenze di x con lo stesso esponente nel prodotto espanso (a0 xn + a1 xn−1 + · · · + an )(b0 xm + b1 xm−1 + · · · + bm ) ed è quindi n+m X ck uk . chiaro che, sostituendo x con u, si ottiene proprio h(u) = k=0 Corollario 7.3. Siano λ1 , . . . , λn ∈ C ed f = (x − λ1 ) · · · (x − λn ). Allora f (A) = (A − λ1 δ) · · · (A − λn δ). Definizione 7.4. Se calcoliamo l’espressione det(xδ − A) =: PA in C[x], otteniamo un polinomio monico in C[x] che si chiama il polinomio caratteristico di A. Definizione 7.5. Sia B ∈ Cnn . Le matrici A e B si dicono simili, se esiste T ∈ GL(n, U ) tale che B = T −1 AT . Proposizione 7.6. Matrici simili hanno lo stesso polinomio caratteristico. Dimostrazione. Segue immediatamente dalla definizione. 25 Teorema 7.7. Sia λ ∈ C. Le condizioni (1) e (2) sono equivalenti tra di loro e, quando n ≥ 2, equivalenti alla (3): (1) λ è un autovalore di A. (2) λ è radice del polinomio caratteristico di A : PA (λ) = 0. n−1 (3) Esiste una matrice B ∈ Cn−1 tale che A è simile a una matrice λ ∗ . In questo caso PA = (x − λ) · PB . della forma 0 B Dimostrazione. Corsi di geometria oppure Koecher, pag.234. Proposizione 7.8. I sia un ideale ( possibilmente improprio) di C[x]. Se I 6= 0, esiste un unico polinomio monico p ∈ C[x] che genera I. Il grado di p è il più piccolo grado di un polinomio non nullo contenuto in I. Dimostrazione. Corso di algebra. Definizione 7.9. C[A] := {f (A) | f ∈ C[x]}. È immediato che C[A] è una sotto-C-algebra di Cnn . Lemma 7.10. Esiste un polinomio f ∈ C[x] con f 6= 0 ed f (A) = 0. Dimostrazione. Siccome C[A] è un sottospazio vettoriale di Cnn , sicuramente dimC Cnn ≤ n2 =: s. Ciò significa che le s+1 matrici δ, A, A2 , . . . , As sono linearmente dipendenti, perciò esistono a0 , a1 , . . . , as ∈ C non tutti nulli, tali che a0 δ + a1 A + a2 A2 + . . . + as As = 0. Se poniamo f := a0 + a1 x + . . . + as xs abbiamo trovato un polinomio f 6= 0 con f (A) = 0. Definizione 7.11. Dal lemma 7.2 è immediato che l’insieme {f ∈ C[x] | f (A) = 0} è un ideale (possibilmente improprio) di C[x]. Dal lemma 7.10 sappiamo che questo ideale è 6= 0, quindi per la proposizione 7.8 esiste un unico polinomio monico MA ∈ C[x] che genera questo ideale. Per ogni f ∈ C[x] si ha quindif (A) = 0 se e solo se esiste g ∈ C[x] con f = g · MA . Il grado di MA è allo stesso tempo il più piccolo grado di un polinomio 6= 0 che annulla A. MA si chiama il polinomio minimale di A. Per definizione MA 6= 0. Corollario 7.12. m sia il grado di MA . Allora: (1) Le matrici δ, A, A2 , ..., Am−1 formano una base di C[A]. (2) dimC C[A] = m. Dimostrazione. Dal lemma 7.10 sappiamo che MA 6= 0, quindi MA è della forma MA = xm + a1 xm−1 + . . . + am . Abbiamo perciò Am = −a1 Am−1 − . . . − am δ e ciò implica che δ, A, A2 , . . . , Am−1 generano lo spazio vettoriale C[A]. 26 Se queste matrici fossero linearmente dipendenti, ad esempio b0 δ + b1 A + . . . + bm−1 Am−1 = 0 con i coefficienti bj non tutti nulli, allora con g := b0 + b1 x + . . . + bm−1 xm−1 avremmo trovato un polinomio g 6= 0 con g(A) = 0 e grado minore di m, in contraddizione alla prop.7.8. Proposizione 7.13. A è invertibile se e solo se MA (0) 6= 0. In tal caso A−1 ∈ C[A]. Dimostrazione. Sia di nuovo MA = xm + a1 xm−1 + . . . + am . Allora + a1 Am−1 + . . . + am−1 A = −am δ e quindi AB = −am δ con B := Am−1 + a1 Am−2 + . . . + am−1 δ. Per il corollario 7.12 B 6= 0. Am Si noti che MA (0) = am . (1) Sia A invertibile. Allora −am A−1 = B 6= 0 e quindi am 6= 0. (2) Sia am 6= 0. 1 Allora A−1 = − B ∈ C[A]. am Esempio 7.14. Assumiamo di sapere che MA = x3 + 2x + 5. Allora −5δ = A3 + 2A, ovvero A(A2 + 2δ) = −5δ e quindi 1 A−1 = − (A2 + 2δ) ∈ C[A]. 5 Corollario 7.15. A sia invertibile. Allora esiste f ∈ C[x] con f (A) = δ ed f (0) = 0 . Dimostrazione. Per la proposizione 7.13 esiste g ∈ C[x] con = g(A). Perciò A · g(A) = δ e se poniamo f = x · g, allora f (A) = δ ed f (0) = 0. A−1 Esempio 7.16. Nell’esempio 7.14 possiamo porre 1 1 f = − x(x2 + 2) = − (x3 + 2). 5 5 1 1 Infatti allora f (0) = 0 ed f (A) = − (A3 + 2A) = − (−5δ) = δ. 5 5 Osservazione 7.17. Siano f ∈ C[x] e T ∈ GL(n, C). Allora f (T −1 AT ) = f (A). Dimostrazione. È sufficiente osservare che (T −1 AT )k = T −1 Ak T per ogni k ∈ N. Corollario 7.18. Sia, anche, B ∈ Cnn . Se le matrici A e B sono simili, allora MA = MB . Lemma 7.19. Siano λ ∈ C e v ∈ Cn tali che Av = λv . Per ogni f ∈ C[x] allora f (A)v = f (λ)v . 27 Dimostrazione. Infatti l’ipotesi implica Ak v = λk v per ogni k ∈ N. Per linearità si ottiene l’enunciato. Teorema 7.20. Per λ ∈ C sono equivalenti: (1) λ è autovalore di A. (2) λ è radice del polinomio caratteristico di A : PA (λ) = 0 . (3) λ è radice del polinomio minimale di A : MA (λ) = 0. Dimostrazione. (1) ⇐⇒ (2): Teorema 7.7. (1) ⇒ (3) : λ sia un autovalore di A. Allora esiste v ∈ Cn \ 0 tale che Av = λv . Dal lemma 7.9 segue che MA (λ)v = MA (A)v = 0 e quindi MA (λ) = 0 perché v 6= 0. (3) ⇒ (1) : Sia MA (λ) = 0. Allora esiste f ∈ C[x] tale che MA = (x − λ)f . Siccome f 6= 0 e grado f < grado MA , la minimalità di MA implica f (A) 6= 0. Perciò esiste un vettore w ∈ Cn tale che v := f (A)w 6= 0. Usando il lemma 7.2 abbiamo adesso Av − λv = Af (A)w − λf (A)w = (A − λδ)f (A)w = MA (A)w = 0. Siccome v 6= 0, ciò mostra che λ è un autovalore di A. Corollario 7.21. Sia f ∈ C[x] con f (A) = 0. Allora f (λ) = 0 per ogni autovalore λ di A . Teorema 7.22 (teorema di Cayley-Hamilton). PA (A) = 0. Dimostrazione. Corsi di geometria oppure Mondini, pagg. 68-70. Corollario 7.23. Il polinomio minimale MA divide il polinomio caratteristico PA . Nota 7.24. Dal teorema 7.20 e dal corollario 7.23 vediamo che, se il polinomio caratteristico di A possiede la forma PA = (x − λ1 )n1 · · · (x − λs )ns con i λk distinti e gli esponenti nk ≥ 1, allora il polinomio minimale MA è della forma MA = (x − λ1 )m1 · · · (x − λs )ms con 1 ≤ mk ≤ nk per ogni k. Se n non è troppo grande e se gli autovalori λk sono noti con le loro molteplicità nk (come accade nel caso di una matrice triangolare), possiamo cosı̀ trovare il polinomio minimale tra i polinomi della forma (x − λ1 )r1 · · · (x − λs )rs con 1 ≤ rk ≤ nk per ogni k, partendo con r1 = . . . = rs = 1 e aumentando gli esponenti, fino a quando troviamo un polinomio che annulla A. 28 Assumiamo ad esempio che PA = (x − λ)3 (x − µ)2 (x − ν) con λ, µ, ν distinti. Allora proviamo, in questo ordine, i sei polinomi f1 = (x − λ)(x − µ)(x − ν) f2 = (x − λ)2 (x − µ)(x − ν) f3 = (x − λ)(x − µ)2 (x − ν) f4 = (x − λ)3 (x − µ)(x − ν) f5 = (x − λ)2 (x − µ)2 (x − ν) f6 = (x − λ)3 (x − µ)2 (x − ν) fino a quando fj (A) = 0. Possiamo eseguire l’algoritmo formando in successione B1 B2 B3 B4 B5 B6 = (A − λδ)(A − µδ)(A − νδ) = B1 (A − λδ) = B1 (A − µδ) = B2 (A − λδ) = B2 (A − µδ) = B5 (A − λδ) fino a quando Bj = 0. 29 8. Matrici che soddisfano una equazione quadratica Situazione 8.1. Sia A ∈ Cnn . Quando non è indicato diversamente, λ, µ ∈ C e t ∈ R. Definizione 8.2. Diciamo che A soddisfa un’equazione quadratica, se esiste un polinomio f ∈ C[x] di grado ≤ 2 tale che f (A) = 0. Possiamo assumere che f abbia una delle seguenti forme: f =x−λ f = (x − λ)2 f = (x − λ)(x − µ) con λ 6= µ. Osservazione 8.3. (1) Sia A − λδ = 0. Allora A = λδ e x − λ è il polinomio minimale di A. In questo caso etA = eλt δ. (2) Sia (A − λδ)(A − µδ) = 0, ma A − λδ 6= 0 e A − µδ 6= 0. Allora (x − λ)(x − µ) è il polinomio minimale di A. Lemma 8.4. Con Q := A − λδ sia Q2 = 0. Allora AQ = λQ. Dimostrazione. Abbiamo 0 = Q2 = (A − λδ)Q = AQ − λQ. Proposizione 8.5. Sia (A − λδ)2 = 0. Allora eAt = eλt (δ + t(A − λδ)). Dimostrazione. Siano Q := A − λδ e X := eλt (δ + tQ). È sufficiente dimostrare che X(0) = δ e che X soddisfa l’equazione differenziale Ẋ = AX . (1) X(0) = δ. (2) Ẋ = λeλt (δ + tQ) + eλt Q = eλt [λδ + λtQ + Q] = eλt (A + λtQ) 8.4 AX = eλt (A + tAQ) = eλt (A + λtQ). Si noti che l’enunciato è banalmente vero anche quando A − λδ = 0. Un’altra dimostrazione verrà data nella proposizione 9.2. Osservazione 8.6. Sia (A − λδ)2 = 0, ma A 6= λδ. Allora (x − λ)2 è evidentemente il polinomio minimale di A, e siccome le radici di MA coincidono con le radici di PA , necessariamente PA = (x − λ)n . Nota8.7. Il polinomio caratteristico di una matrice 2 × 2 a b A= è x2 − (a + d)x + ad − bc. c d Dal teorema 7.20 segue che la matrice soddisfa l’equazione (A − λδ)2 = 0 se e solo se λ è radice doppia del polinomio caratteristico. Per la proposizione 8.5 abbiamo in questo caso 30 eAt = 1 0 λt a−λ b e + teλt . 0 1 c d−λ Si noti che PA possiede una radice doppia se e solo se il discriminante a+d . (a + d)2 − 4(ad − bc) = (a − d)2 + 4bc si annulla. In tal caso λ = 2 14 9 Esempio 8.8. Sia A = . Allora PA = x2 − 16x + 64 = (x − 8)2 . −4 2 Inoltre A 6= 8δ. Per la proposizione 8.5 abbiamo: 1 0 8t 6 9 1 + 6t 9t etA = e + te8t = e8t 0 1 −4 −6 −4t 1 − 6t λ b Esempio 8.9. Sia A = . Allora 0 λ λt e bteλt 1 0 λt 0 b λt tA e + te = e = 0 1 0 0 0 eλt 18 5 2 21 5 2 Esempio 8.10. Siano A = −72 −17 −8 e Q := A−3δ = −72 −20 −8. 18 5 2 18 5 5 Allora Q2 = 0 e dalla proposizione 8.5 abbiamo 1 0 0 18 5 2 1 + 18t 5t 2t etA = e3t 0 1 0+te3t −72 −20 −8 = e3t −72t 1 − 20t −8t 0 0 1 18 5 2 18t 5t 1 + 2t Lemma 8.11. Sia (A − λδ)(A − µδ) = 0 con λ 6= µ. A − λδ A − µδ e Q := , allora AP = λP e AQ = µQ. Se poniamo P := λ−µ µ−λ Dimostrazione. A soddisfa l’equazione A2 = (λ + µ)A − λµδ. Perciò 1 A − µδ 1 (A2 − µA) = [(λ + µ)A − λµδ − µA] = λ = λP, λ−µ λ−µ λ−µ e nello stesso modo (per simmetria) AQ = µQ. AP = Proposizione 8.12. Sia (A − λδ)(A − µδ) = 0 con λ 6= µ. Allora etA = A − µδ λt A − λδ µt e + e λ−µ µ−λ A − λδ A − µδ e Q := , poniamo λ−µ µ−λ X := P eλt + Qeµt . Di nuovo è sufficiente dimostrare che X(0) = δ e che X soddisfa l’equazione differenziale Ẋ = AX . Dimostrazione. Con P := (1) X(0) = P + Q = 1 (A − µδ − A + λδ) = δ . λ−µ 31 (2) Ẋ = λP eλt + µQeµt , mentre AX = AP eλt + AQeµt X . Per il lemma 8.11 abbiamo AP = λP e AQ = µQ e ciò implica che veramente Ẋ = AX . a b sia una matrice quadratica con gli autovalori Nota 8.13. A = c d λ e µ. Se λ 6= µ, dalla proposizione 8.12 abbiamo 1 1 a−µ b a−λ b etA = eλt + eµt . c d−µ c d−λ λ−µ µ−λ 33 124 Esempio 8.14. Sia A = . Il polinomio caratteristico di A −8 −30 è x2 − 3x + 2 = (x − 2)(x − 1). Dalla nota 8.13 otteniamo 32 124 31 124 eAt = e2t − et −8 −31 −8 −32 λ b Esempio 8.15. Sia A = con λ 6= µ. Allora 0 µ etA = 1 λ−µ λt 1 e λ − µ b λt 0 b e + eµt = 0 0 0 µ−λ 0 µ−λ Esempio 8.16. Siano b ∈ C e A := cos bt sin bt tA Allora e = . − sin bt cos bt b λt µt λ−µ (e − e ) µt e 0 b . −b 0 Dimostrazione. Si vede direttamente che la formula è vera per b = 0. Sia b 6= 0. Il polinomio caratteristico di A è x2 +b2 e gli autovalori di A sono ib e −ib. Applicando la nota 8.13 con λ = ib e µ = −ib abbiamo 1 ib −b −ibt ib b tA ibt e = e e + = b ib −b ib 2bi 1 i 1 ibt i −1 −ibt = e + e = −1 i 1 i 2i 1 ieibt + ie−ibt eibt − e−ibt cos bt sin bt = = − sin bt cos bt 2i −eibt + e−ibt ieibt + ie−ibt 0 b Esempio 8.17. Siano b ∈ C e A := . b 0 cosh bt sinh bt tA Allora e = . sinh bt cosh bt Dimostrazione. Si vede direttamente che la formula è vera per b = 0. Sia b 6= 0. Il polinomio caratteristico di A è x2 −b2 e gli autovalori di A sono b e −b. Applicando la nota 8.13 con λ = b e µ = −b abbiamo 32 1 1 b b bt 1 1 bt −b b 1 −1 −bt e − e + e−bt = e = b b 1 1 b −b −1 1 2b 2 1 ebt + e−bt ebt − e−bt cosh bt sinh bt = = sinh bt cosh bt 2 ebt − e−bt ebt + e−bt etA = Osservazione 8.18. (1) Il polinomio minimale di A è della forma (x − λ)(x − µ) con λ 6= µ se e solo se la forma normale di Jordan di A è una matrice diagonale con gli autovalori λ e µ. (2) Il polinomio minimale di A è della forma (x−λ)2 se e solo se nella forma normale di Jordan gli elementi della diagonale principale sono tutti uguali a λ e appare almeno una casella di Jordan di dimensione 2 e nessuna casella di Jordan di dimensione superiore. 33 9. Formule che utilizzano serie ipergeometriche Situazione 9.1. A ∈ Cnn . Quando non indicato diversamente, λ, µ ∈ C e t ∈ R. Proposizione 9.2. Sia (A − λδ)m = 0 per qualche m ≥ 1. Allora etA = eλt m−1 X tk k=0 k! (A − λδ)k Dimostrazione. Ricordando che (A − λδ)m = 0 e quindi (A − λδ)k = 0 per ogni k ≥ m, si ha che: eAt = etλδ et(A−λδ) λt =e ∞ k X t k=0 k! k λt (A − λδ) = e m−1 X tk k=0 k! (A − λδ)k Questa formula, che generalizza la proposizione 8.5, segue direttamente dallo sviluppo in serie di potenze dell’esponenziale. Infatti, siccome le matrici tλδ e t(A − λδ) commutano, dal teorema 6.6 (2) otteniamo l’enunciato. Corollario 9.3. Gli autovalori di A siano tutti uguali a λ. Allora etA = eλt n−1 X tk k=0 k! (A − λδ)k 3 5 2 9 3 . Allora (A − 2δ)3 = Esempio 9.4. Sia A = 2 −5 −19 −6 proposizione 9.2 abbiamo 1 5 2 1 5 2 1 5 7 3 2 7 3 2 7 (A − 2δ)3 = 2 −5 −19 −8 −5 −19 −8 −5 −19 1 2 1 0 0 0 2 1 = 0 0 0 = 1 −3 −6 −3 0 0 0 0 e dalla 2 3 −8 Dalla proposizione 9.2 abbiamo quindi t2 etA = e2t (δ + t(A − 2δ) + (A − 2δ)2 ) 2 1 2 1 1 5 2 1 0 0 2 t 2 1 7 3 + 1 = e2t 0 1 0 + t 2 2 −3 −6 −3 −5 −19 −8 0 0 1 2 2 1 + t + t2 5t + t2 2t + t2 2 t2 = e2t 1 + 7t + t2 3t + t2 2t + 2 3t2 3t2 2 −5t − 2 −19t − 3t 1 − 8t − 2 34 λ b c Esempio 9.5. Sia A = 0 λ f . Allora 0 0 λ 0 b c 0 0 bf (A − λδ) = 0 0 f , (A − λδ)2 = 0 0 0 0 0 0 0 0 0 e 0 0 0 (A − λδ)3 = 0 0 0 = 0 0 0 0 per cui dalla proposizione 9.2 abbiamo 0 b c 0 0 bf 1 0 0 2 t etA = eλt 0 1 0 + t 0 0 f + 0 0 0 2 0 0 0 0 0 1 0 0 0 2 1 tb tc + t2 bf = eλt 0 1 tf . 0 0 1 Definizione 9.6. I numeri complessi λ1 , ..., λn siano tutti distinti. Definiamo allora Lk := (x − λ1 ) . . . (x\ − λk ) . . . (x − λn ) (λk − λ1 ) . . . (λ\ k − λk ) . . . (λk − λn ) per k = 1, ..., n (nel caso banale n = 1 abbiamo solo L1 = 1). Il simbolo b indica che un termine deve essere tralasciato. I polinomi Lk si chiamano polinomi di Lagrange determinati dai punti d’ascissa (talvolta detti nodi) λ1 , ..., λn . Ogni polinomio Lk è di grado n − 1 e sostituendo x con λj vediamo che ( 1 per j = k Lk (λj ) = 0 per j 6= k Osservazione 9.7. Nella situazione della definizione 9.6 siano dati numeri complessi y1 , ..., yn . Allora esiste un unico polinomio f ∈ C[x] n X y j Lj . di grado ≤ n − 1 che nei nodi λk assume i valori yk . Si ha f = j=1 Dimostrazione. n X j=1 yj Lj (λk ) = n X yj δkj = yk . j=1 L’unicità segue dall’ipotesi che i λk siano tutti distinti. Lemma 9.8. Nella situazione della definizione 9.6 si ha L1 + . . . + Ln = 1. 35 Dimostrazione. Se nell’osservazione 9.7 poniamo yk = 1 per ogni k, vediamo che L1 + . . . + Lk è l’unico polinomio di grado ≤ n − 1 che nei nodi λk assume il valore 1. Ma questo polinomio è il polinomio costante 1. Lemma 9.9. Gli autovalori λ1 , . . . , λn di A siano tutti distinti. Formiamo i polinomi di Lagrange Lk come nella definizione 9.6. Allora ALk (A) = λLk (A) per k = 1, . . . , n. Dimostrazione. Per il teorema di Cayley Hamilton (teorema 7.22) e il lemma 7.2 abbiamo (A − λ1 δ) · · · (A − λn δ) = 0. Ancora per il lemma 7.2 si ha (A − λk δ)Lk (A) = e quindi (A − λk δ)(A − λ1 δ) · · · (A\ − λk δ) · · · (A − λn δ) =0 (λ1 − λk ) · · · (λ\ − λ ) · · · (λ − λ ) n k k k ALk (A) = λLk (A). Proposizione 9.10. Gli autovalori λ1 , . . . , λn della matrice A siano tutti distinti. Formiamo i polinomi di Lagrange Lk come nella definizione 9.6. Allora etA = n X eλk t Lk (A) k=1 Dimostrazione. Sia X := n X eλk t Lk (A). Verifichiamo che X(0) = δ e k=1 che X soddisfa l’equazione differenziale Ẋ = AX . n X (1) X(0) = Lk (A) = δ. k=1 Qui abbiamo usato di nuovo il lemma 7.2: Sia f = L1 + · · · + Ln . Dal lemma 9.8 sappiamo che f = 1; per il lemma 7.2 abbiamo n X perciò Lk (A) = f (A) = δ. k=1 (2) Ẋ = n X λk eλk t Lk (A) k=1 n X AX = k=1 λk t e 9.9 ALk (A) = n X λk eλk t Lk (A) = Ẋ . k=1 Definizione 9.11. Per z ∈ C ed n ∈ N definiamo la potenza crescente ( z(z + 1) · · · (z + n − 1) per n ≥ 1 [n] z := 1 per n = 0 z [n] si chiama spesso anche il fattoriale superiore. Si noti che z [n] 6= 0 per ogni n, se −z 6∈ N. Definizione 9.12. Per α1 , . . . , αs , β1 , . . . , βt ∈ C con −βj 6∈ N per ogni j definiamo la serie ipergeometrica 36 F α1 . . . αs β1 . . . βt := ∞ [n] [n] X α · · · αs 1 [n] [n] n=0 β1 · · · βt ∈ C[[x]] Posizioni vuote possono essere indicate con 2, ad esempio X X ∞ ∞ 1 α[n] 2...2 α 2 . , F = F = [n] [n] [n] [n] β1 . . . βt β 1 β 1 n=0 β1 · · · βt n=0 Per le proprietà combinatorie delle serie ipergeometriche rimandiamo a Graham/Knuth/Patashnik e Petkovšek/Wilf/Zeilberger, per le proprietà analitiche a Whittaker/Watson e Andrews/Askey/Roy. Tralasciamo nel seguito considerazioni di convergenza, quasi sempre evidenti. Nota 9.13. Siano α1 , . . . , αs , β1 , . . . , βt ∈ C con −βj 6∈ N per ogni j . [k] [k] α1 · · · αs α1 . . . αs k sodAllora i cofficienti ak := [k] di x nella serie F [k] β1 . . . βt β1 · · · βt disfano le seguenti relazioni: a0 = 1, ak+1 (k + α1 ) · · · (k + αs ) = ak (k + β1 ) · · · (k + βt ) per ogni k ∈ N. ∞ X ak xk i cui coefficienti sodk=0 α1 . . . αs disfano queste relazioni, essa coincide con F . β1 . . . βt Se è viceversa data una serie formale Dimostrazione. Corso di Laboratorio di programmazione 2006/07. Proposizione 9.14. Nelle ipotesi della definizione 9.12 sia γ ∈ C con −γ 6∈ N. Allora α1 . . . αs γ α1 . . . αs F =F . β1 . . . βt γ β1 . . . βt Lemma 9.15. V sia uno spazio vettoriale su C e a1 , . . . , ar ∈ C. Assumiamo che ar 6= 0. Consideriamo un’equazione alle differenze vk+r + a1 vk+r−1 + . . . + ar vk = 0 (∗) in cui si cercano i valori vk ∈ V per k ≥ r , mentre i valori iniziali v0 , . . . , vr−1 siano dati. Sia xr + a1 xr−1 + . . . + ar = (x − α1 )m1 · · · (x − αs )ms con αi 6= αj per i 6= j . Allora l’equazione (∗) possiede la soluzione vk = (X 10 + kX11 + . . . + km1 −1 X1,m1 −1 )αk1 + . . . + (Xs0 + kXs1 + . . . + kms −1 Xs,ms −1 )αks 37 con i coefficienti Xij ∈ V univocamente determinati dalle condizioni iniziali. Si noti che l’ipotesi ar 6= 0 implica αi 6= 0 per ogni i. Dimostrazione. Elaydi, pag. 77, Huppert, pagg. 284-288, Meschkowski, pagg. 14-15. Osservazione 9.16. La condizione ar 6= 0 nel lemma 9.15 non è essenziale nella risoluzione di un’equazione alle differenze. Consideriamo ad esempio un’equazione della forma vk+2 + a1 vk+1 = 0. Allora il valore iniziale v0 non influisce sul proseguimento della successione, e ponendo wk := vk+1 l’equazione si riduce a wk+1 + a1 wk = 0 con w0 = v1 . Bisogna però controllare la condizione ar 6= 0 prima di applicare la formula del lemma 9.15. Definizione 9.17. Siano m, j ∈ N. Allora definiamo la serie formale ejm := ∞ X m! k j xk (k + m)! k=0 Osservazione 9.18. (1) e00 = ex . (2) e0m m! = m x ex − m−1 X k=0 xk k! ! per m ∈ N + 1. Dimostrazione. Per m ∈ N + 1 abbiamo e0m = ∞ X k=0 # " m−1 ∞ m! X xk+m m! x X xk m! k x = m = m e − k! (k + m)! x (k + m)! x k=0 k=0 Lemma 9.19. Per ogni j ∈ N + 1 vale la formula di ricorsione ej0 = x j−1 X j−1 i i=0 ei0 Dimostrazione. j > 0 implica 0j = 0, per cui ∞ X kj ∞ X (k + 1)j k! x = k+1 ∞ X (k + 1)j−1 x =x xk = k! k! k=0 k=0 k=0 j−1 j−1 ∞ ∞ X xk X j − 1 X j − 1 X ki k =x x = ki = x i i k! k! i=0 i=0 k=0 k=0 j−1 X j−1 =x ei0 i ej0 = k i=0 Definizione 9.20. Per n, k ∈ N sia S(n, k) il numero delle partizioni di un insieme con n elementi in k classi di equivalenza. I numeri S(n, k) 38 sono detti numeri di Stirling di seconda specie. È chiaro che S(n, k) = 0 per k > n. Nota 9.21. Per n, k ∈ N valgono le seguenti formule: n X n (1) S(n + 1, k + 1) = S(j, k). j j=0 1 (2) S(n, k) = k! k X k n j . j k−j (−1) j=0 (3) S(n + 1, k + 1) = S(n, k) + (k + 1) · S(n, k + 1). Possiamo cosı̀ compilare la seguente tabella: S(n, k) 0 1 2 3 4 0 1 2 3 4 5 6 7 8 1 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 1 1 0 0 0 0 0 0 0 1 3 1 0 0 0 0 0 5 6 7 8 9 0 0 0 0 0 0 1 1 1 1 1 1 7 15 31 63 127 255 6 25 90 301 966 3025 1 10 65 350 1701 7770 0 1 15 140 1050 6951 0 0 1 21 266 2646 0 0 0 1 28 462 0 0 0 0 1 36 Dimostrazione. Jacobs, pagg. 253-256, Halder/Heise, pagg. 56-59. Le formule sono elencate anche in Knuth, pagg. 65-67. x Teorema 9.22. Per j ∈ N si ha ej0 = e j X S(j, k)xk . k=0 Dimostrazione. Dimostriamo l’enunciato per induzione su j . Osserviamo prima che in tutte le sommatorie possiamo sommare da n 0 ad ∞, perché = S(n, k) = 0 per k > n. k j = 0: Sappiamo dall’osservazione 9.18 che e00 = ex . D’altra parte 0 X S(0, 0) = 1 e quindi S(0, k)xk = 1. k=0 j → j +1 : 9.19 ej+1,0 = x ∞ X j i=0 = ex = ex ∞ X k=0 ∞ X i xk+1 ind. ei0 = x ∞ X j i=0 i ∞ X j i=0 i x e ∞ X S(i, k)xk = k=0 S(i, k) = S(j + 1, k + 1)xk+1 = ex k=0 ∞ X k=0 39 S(j + 1, k)xk L’ultima uguaglianza vale perché S(j + 1, 0) = 0, come si vede ad esempio nella tabella della nota 9.21. Osservazione 9.23. Abbiamo quindi e00 = ex e10 = xex e20 = (x + x2 )ex e30 = (x + 3x2 + x3 )ex e40 = (x + 7x2 + 6x3 + x4 )ex ecc. Lemma 9.24. 2 e0m = F m+1 2 . . . 2 2 x F 1| .{z ejm = . . 1} m + 2 m+1 j volte per ogni m ∈ N e ogni j ∈ N + 1. Dimostrazione. ∞ X (1) e0m = k=0 Sia ak := per cui e0m m! xk . (k + m)! (k + m)! 1 m! . Allora a0 = 1 ed ak+1 /ak = = , (k +m)! (k + m + 1)! k + m +1 2 =F . m+1 (2) Sia j > 0. Allora ejm = ∞ X k=0 = X m! m! kj xk = (k + 1)j xk+1 = (k + m)! (k + 1 + m)! ∞ k=0 x m+1 Sia ak := ∞ X k=0 (m + 1)! (k + 1)j xk (k + m + 1)! (m + 1)! (k + 1)j . (k + m + 1)! (k + 2)j (k + 2)j (k + 1 + m)! = , Allora a0 = 1 ed ak+1 /ak = j (k + 1)j (k + m + 2) (k + 2 + m)!(k + 1) 2...2 2 x F 1| .{z per cui ejm = . . 1} m + 2. m+1 j volte Lemma 9.25. Siano b1 , . . . , br ∈ C ed A ∈ Cnn . Allora in Cnn l’equazione alle differenze Mk+r = b1 Mk+r−1 + . . . + br Mr = 0 40 con le condizioni iniziali M0 = δ, M1 = A, . . . , Mr−1 = Ar−1 possiede (evidentemente) una soluzione Mk univocamente determinata. Sia k m ∈ N tale che Am+r = b1 Am+r−1 + . . . + br Am . Allora Am+k = Mk Am per ogni k ∈ N. Dimostrazione. Dimostriamo l’enunciato per induzione su k. (1) Per k < r abbiamo Mk Am = Ak Am = Am+k . (2) Sia j ≥ 0 e l’enunciato sia vero per ogni k < r + j . Allora Am+r+j = b1 Am+r+j−1 + . . . + br Am+j = b1 Mr+j−1 Am + . . . + br Mj Am = (b1 Mr+j−1 + . . . + br Mj )Am = Mr+j Am . Nota 9.26. Siano m ∈ N e g ∈ C[x] tali che Am g(A) = 0, ad esempio g = xr + a1 xr−1 + . . . + ar = (x − α1 )m1 · · · (x − αs )ms con ar 6= 0 e quindi αi 6= 0 per ogni i. Gli αi siano tutti distinti e mi ≥ 1 per ogni i. Le ipotesi implicano la relazione Am+r + a1 Am+r−1 + . . . + ar Am = 0 Applicando il lemma 9.15 possiamo trovare matrici Mk della forma Mk = (X 10 + kX11 + . . . + km1 −1 X1,m1 −1 )αk1 + . . . + (Xs0 + kXs1 + . . . + kms −1 Xs,ms −1 )αks che soddisfano l’equazione alle differenze Mk+r + a1 Mk+r−1 + . . . + ar Mk = 0 con i coefficienti Xij ∈ Cnn univocamente determinati dalle condizioni iniziali M0 = δ, M1 = A, . . . , Mr−1 = Ar−1 . Per il lemma 9.25 abbiamo s m i −1 X X Am+k = Mk Am = αki kj Xij Am i=1 j=0 per ogni k ∈ N. Teorema 9.27. Nelle ipotesi e con le notazioni della nota 9.26 abbiamo etA = m X Ck k=0 (tA)k k! con Ck = δ per k < m e Cm = s m i −1 X X Xij ejm (αi t) i=1 j=0 = s X i=1 " Xi0 F # mi −1 αi t X 2 2 ... 2 2 (αi t) + Xij F (αi t) m+1 1 ... 1 m + 2 m+1 j=1 41 Dimostrazione. Sia R := ∞ m−1 X X (tA)k (tA)k . Allora etA = + R. k! k! k=m Inoltre k=0 ∞ ∞ s mi −1 X X tk+m X k X (tA)k+m = αi kj Xij Am = (k + m)! (k + m)! i=1 j=0 k=0 k=0 mi −1 s ∞ X (tA)m tk m! X k X kj Xij αi = (k + m)! m! j=0 i=1 k=0 | {z } R= =:M Perciò M= s m i −1 X X Xij i=1 j=0 ∞ X k=0 m! kj (αi t)k (k + m)! L’enunciato segue dal lemma 9.24. Corollario 9.28. Nelle ipotesi e con le notazioni della nota 9.26 assumiamo inoltre m = 0. Allora etA = s m j −1 X X i=1 j=0 Xij ej0 (αj t) = s X αi t e m i −1 X j=0 i=1 Xij j X S(j, k)(αi t)k k=0 Si noti che un’equazione di questa forma vale sicuramente se gli autovalori di A sono tutti diversi da zero, cioè se la matrice A è invertibile. Osservazione 9.29. Sia λ ∈ C (non necessariamente un autovalore di A). Allora etA = eλt et(A−λδ) . Dimostrazione. Già visto nella dimostrazione della proposizione 9.4. Proposizione 9.30 (formula di Apostol). Siano m ≥ 1 ed (A − λδ)m (A − µδ) = 0 con λ 6= µ. Allora ! # "m−1 m−1 X (µ − λ)k tk X tk 1 (A − λδ)k + e(µ−λ)t − (A − λδ)m etA = eλt k! (µ − λ)m k! k=0 k=0 Dimostrazione. Sia B := A − λδ. Allora A − µδ = B − (µ − λ)δ. Ponendo α1 := µ − λ, abbiamo B m (B − α1 δ) = 0, ovvero B m+1 = α1 B m e quindi B m+k = α1 k B m per ogni k ∈ N. Inoltre α1 6= 0. Se nella nota 9.26 sostituiamo A con B , abbiamo X10 = δ ed etB = m−1 X k=0 (tB)k (tB)m + e0m (α1 t) k! m! Per l’osservazione 9.18 però # " m−1 X (α1 t)k (tB)m m! 1 (tB)m = = m eα1 t − e0m (α1 t) m m! (α1 t) k! m! α1 k=0 42 eα1 t − m−1 X k=0 (α1 t)k k! ! Bm Per l’osservazione 9.29 infine etA = eλt etB . Proposizione 9.31. Siano m ≥ 1 ed (A − λδ)m (A − µδ)2 = 0 con λ 6= µ. Allora # "m−1 X tk k m tA λt (A − λδ) + M (A − λδ) e =e k! k=0 con # " m−1 X (µ − λ)k tk 1 M= e(µ−λ)t − (µ − λ)m k! k=0 tm+1 2 2 + F ((µ − λ)t) · (A − µδ) m+2 1 (m + 1)! Dimostrazione. Poniamo ancora B := A − λδ ed α1 = µ − λ. Allora B − α1 δ = A − µδ e per ipotesi B m (B − α1 δ)2 = 0 con α1 6= 0. Abbiamo perciò B m+2 − 2α1 B m+1 + α21 B m = 0 e quindi B m+k+2 − 2α1 B m+k+1 + α21 B m+k = 0 per ogni k ∈ N. Dalla nota 9.26 sappiamo che esistono matrici Mk della forma Mk = (X10 + kX11 )αk1 con M0 = δ, M1 = B e tali che B m+k = αk1 (X10 + kX11 )B m . Dalle condizioni iniziali abbiamo δ = X10 e B = (X10 + X11 )α1 , per B − α1 δ . Dal teorema 9.27, con B al posto di A, otteniamo cui X11 = α1 quindi etB = m−1 X k=0 con (tB)k +R k! R = [X10 e0m (α1 t) + X11 e1m (α1 t)] · = e0m (α1 t) tm B m m! 1 tm B m tm B m + (B − α1 δ)e1m (α1 t) · m! α1 m! Usando l’osservazione 9.18 e il lemma 9.24 abbiamo " # m−1 X (α1 t)k tm B m m! tm B m = eα1 t − e0m (α1 t) m! (α1 t)m k! m! k=0 " # m−1 X (α1 t)k 1 = m eα1 t − Bm α1 k! k=0 1 α1 t tm B m tm B m 1 2 2 = F e1m (α1 t) (α1 t) · 1 m+2 α1 m! α1 m + 1 m! m+1 t 2 2 = F (α1 t) · B m m+2 1 (m + 1)! Ciò implica il risultato. 43 Lemma 9.32. Siano λ ∈ C, −λ 6∈ N e Jλ la funzione di Bessel di prima specie di ordine λ. Allora 1 x λ 2 2 Jλ (x) = (−x2 /4) F λ+1 1 λ! 2 dove λ! = Γ(λ + 1). Dimostrazione. Andrews/Askey/Roy, pag. 200. Lemma 9.33 (seconda trasformazione di Kummer). Sia a ∈ C e 1 1 − 2a 6∈ N. Allora anche − a 6∈ N e si ha 2 2 2 a 2 x/2 (x2 /4) F =e F 2a 1 a + 12 1 Dimostrazione. Corso di Laboratorio di programmazione 2005/06. Nota 9.34. Dai lemmi 9.32 e 9.33 otteniamo 2 2 2 2 2 2 2 x/2 x/2 (x /4) = e F 3 =e F F (−(ix)2 /4) 5/2 1 4 1 + 1 1 2 3/2 √ 3 2 3 J3/2 (ix) = ex/2 π(ix)−3/2 J3/2 (ix) ! = ex/2 2 ix 2 Secondo Abramowitz, pagg. 437-438, e Bowman, pag. 95, si ha r 2 sin x J3/2 = − cos x πx x Questa formula può essere applicata nel caso B 2 (B − αδ)2 = 0 con α 6= 0 della proposizione 9.31. Con m = 2, B = A − λδ e α = µ − λ abbiamo etB = 1 X tk k=0 k! B k + M B m = δ + tB + M B 2 con # " 1 k tk X 1 α t3 2 2 αt M= 2 e − + F (αt) · (B − αδ) 4 1 α k! 3! k=0 3 t3 3 αt √ e 2 π(iαt)− 2 J3/2 (iαt)(B − αδ) 62 r 3 t3 αt √ sin(iαt) 2 −2 2 π(iαt) e − cos(iαt) (B − αδ) 4 πiαt iαt r 1 αt 1 t αt sin(iαt) − iαt cos(iαt) 2 e (B − αδ) = 2 (e − 1 − αt) − α 8 α2 iαt 1 1 αt 1 e 2 (i sinh(iαt) − iαt cosh(iαt))(B − αδ) = 2 (eαt − 1 − αt) − √ α 2 2 iα3 1 = 2 (eαt − 1 − αt) + α 1 = 2 (eαt − 1 − αt) + α 44 1 = 2 (eαt − 1 − αt) − α 1 = 2 (eαt − 1 − αt) − α 1 1 αt eαt − e−αt eαt + e−αt 2 √ e − αt (B − αδ) 2 2 2 2 α3 αt 1 1 3αt √ 3 [e 2 (1 − αt) − e− 2 (1 + αt)](B − αδ) 4 2α 45 10. Interpolazione di Hermite Situazione 10.1. Siano λ1 , . . . , λs ∈ C tutti distinti ed m1 , . . . , ms ∈ N + 1. Sia m := m1 + . . . + ms . Lemma 10.2. Siano f ∈ C[x], α ∈ C e p ∈ N. Allora α è uno zero di molteplicità (esatta) p di f se e solo se f (j) (α) = 0 per ogni j = 0, . . . , p−1 ed f (p) (α) 6= 0. Dimostrazione. Corso di Algebra oppure Scheja/Storch, pag. 109. Corollario 10.3. Sia f ∈ C[x] un polinomio di grado < m tale che per ogni k = 1, . . . , s si abbia f (j)(λk ) = 0 per ogni j = 0, . . . , mk − 1. Allora f = 0. Dimostrazione. Per il lemma 12.4 f è un multiplo di (x−λ1 )m1 . . . (x− λs )ms e quindi di un polinomio di grado ≥ m. Ciò è possibile solo se f = 0. Teorema 10.4. Per ogni k = 1, . . . , s ed ogni j = 0, . . . , mk − 1 sia dato un numero vij ∈ C. Allora esiste esattamente un polinomio H ∈ C[x] di grado < m tale che per ogni k = 1, . . . , s si abbia H (j) (λk ) = vkj per ogni j = 0, . . . , mk − 1. Dimostrazione. Sia W := {f ∈ C[x] | grad f < m}. Allora W è uno spazio vettoriale su C e dim W = m. Consideriamo l’applicazione ϕ : W → Cm data da: ϕ(f ) := (f (0) (λ1 ), . . . , f (m1 −1) (λ1 ), . . . , f (0) (λs ), . . . , f (ms −1) (λs )) Quest’applicazione è evidentemente lineare e per il corollario 10.3 anche iniettiva. Però dim W = m = dim Cm , per cui ϕ è anche suriettiva. Inoltre v := (v10 , . . . , v1,m1 −1 , . . . , vs0 , . . . , vs,ms −1 ) ∈ Cm e vediamo che esiste H ∈ W con ϕ(H) = v . Definizione 10.5. Il polinomio H nella proposizione 10.7 si chiama il polinomio di interpolazione di Hermite rispetto al problema di interpolazione dato. Per indicare i parametri del problema di interpolazione, denotiamo H con H[λ1 : (v10 , . . . , v1,m1 −1 ), . . . , λs : (vs0 , . . . , vs,ms −1 )] Abbreviando vk := (vk0 , . . . , vk,mk −1 ) per ogni k, possiamo anche scrivere H = H[λ1 : v1 , . . . , λs : vs ]. Talvolta, in algoritmi ricorsivi, ammettiamo anche che uno dei vettori vk sia il vettore vuoto, cioè che vk = (), ponendo in tal caso H[λ1 : v1 , . . . , λs : vs ] := H[λ1 : v1 , . . . , λk−1 : vk−1 , λk+1 : vk+1 , . . . , λs : vs ]. Per vk = (vk0 , . . . , vkt ) con t > 0 poniamo infine vk− := (vk0 , . . . , vk,t−1 ). Osservazione 10.6. Diamo adesso due dimostrazioni costruttive del teorema 10.4. Nella prima, basata sul teorema cinese del resto, seguia46 mo Gathen/Gerhard, pagg. 102-105 e 111-113, nella seconda esponiamo, in modo leggermente modificato, lo schema alle differenze che si trova in Stoer, pagg. 44-47, e Deuflhard/Hohmann, pagg. 207-211. Lemma 10.7 (teorema cinese dei resti). A sia un anello euclideo ed a1 , . . . , as ∈ A tali che mcd(ai , aj ) = 1 per ogni i 6= j . Sia bi := a1 · · · abi · · · as (con la notazione introdotta nella definizione 9.6) per ogni i. Per ogni i allora mcd(ai , bi ) = 1 e quindi esistono elementi αi , βi ∈ A tali che αi ai + βi bi = 1. Si noti che ciò implica le congruenze (βi bi = 1, in A/ai ), mentre è chiaro che (βi bi = 0, in A/aj ) per j 6= i perché in tal caso bi = a1 · · · abi · · · aj · · · as (oppure bi = a1 · · · aj · · · abi · · · as ) è un multiplo di aj . Siano adesso dati c1 , . . . , cs ∈ A. Se poniamo c := β1 b1 c1 + . . . + βs bs cs , allora (c = ci , in A/ai ) per ogni i = 1, . . . , s. Non è difficile (e per noi irrilevante) dimostrare che c è univocamente determinato dal modulo a1 · · · as . Osservazione 10.8. Sia H ∈ C[x] come nel teorema 10.4. Allora H possiede per ogni k = 1, . . . , s uno sviluppo di Taylor H = H(λk ) + H ′ (λk )(x − λk ) + . . . + H (mk −1) (λk ) (x − λk )mk −1 + . . . = (mk − 1)! vk,mk −1 = vk0 + vk1 (x − λk ) + . . . + (x − λk )mk −1 + . . . (mk − 1)! {z } | =:Hk e quindi (H = Hk , in C[x]/(x − λk )mk −1 ) (*) Siccome i polinomi (x − λi )mi sono a due a due relativamente primi, dal lemma 10.8 vediamo che H è univocamente determinato dalle relazioni (*). Osservazione 10.9. Dal punto di vista numerico forse più trasparente è la tecnica del calcolo delle differenze che esponiamo adesso. Lemma 10.10. Nelle ipotesi e con le notazioni della definizione 10.5 siano i 6= l e F := H[λ1 : v1 , . . . , λi : vi− , . . . , λs : vs ] G := H[λ1 : v1 , . . . , λl : vl− , . . . , λs : vs ] Allora H= x − λi x − λl F+ G λl − λ i λi − λ l Dimostrazione. Possiamo assumere i = 1, l = 2. Usiamo l’unicità dei polinomi d’interpolazione di Hermite stabilita nel teorema 10.4. Per ipotesi abbiamo 47 H (j) (λk ) = vkj F (j) (λk ) = ukj G(j) (λk ) = wkj per k = 1, . . . , s e j = 0, . . . , mk − 1 con ukj = vkj tranne che per k = 1, j = m1 − 1 e wkj = vkj tranne che per k = 2, j = m2 − 1. Ponendo A := (x − λ1 )F, B := (x − λ2 )G ed 1 1 A+ B L := λ2 − λ1 λ1 − λ 2 abbiamo che L ha lo stesso grado di H ed è quindi sufficiente dimostrare che L è soluzione del problema d’interpolazione corrispondente ad H . Con j e k come prima, per la regola di Leibniz abbiamo A(j) = (x − λ1 )F (j) + jF (j−1) e similmente B (j) = (x − λ2 )G(j) + jG(j−1) dove il secondo sommando in entrambi i casi si annulla per j = 0. Perciò A(j) (λk ) = (λk − λ1 )F (j) (λk ) + jF (j−1) (λk ) = (λk − λ1 )ukj + juk,j−1 B (j) (λk ) = (λk − λ2 )G(j) (λk ) + jG(j−1) (λk ) = (λk − λ2 )wkj + jwk,j−1 cosicché L(j) (λk ) = 1 [(λk − λ1 )ukj − (λk − λ2 )wkj + j(uk,j−1 − wk,j−1 )] λ2 − λ1 (1) Sia k ≥ 3. Allora ukj = wkj = vkj per ogni j e quindi L(j) (λk ) = 1 [λ2 − λ1 ]vkj = vkj λ2 − λ 1 (2) Per k = 1 abbiamo 1 L(j) (λ1 ) = [(λ2 − λ1 )w1j + j(u1,j−1 − w1,j−1 )] λ2 − λ1 = w1j + j(u1,j−1 − w1,j−1 ) Però w1j = v1j , mentre, essendo j − 1 < m1 − 1, anche u1,j−1 = w1,j−1 = v1,j−1 per j > 0, mentre il sommando multiplo di j si annulla per j = 0. Ciò mostra che L(j) (λ1 ) = v1j . (3) Nello stesso modo si vede che L(j) (λ2 ) = v2j per ogni j . 48 Osservazione 10.11. Per s=1 il polinomio di interpolazione di Hermite coincide con lo sviluppo di Taylor: H[λ1 : (v10 , . . . , v1,m1 −1 )] = m 1 −1 X v1j j=0 (x − λ1 )j j! Dimostrazione. Chiaro. Nota 10.12. Otteniamo cosı̀ un semplice algoritmo ricorsivo per il calcolo del polinomio di interpolazione di Hermite: Per s = 1 utilizziamo il lemma 10.11, altrimenti riduciamo il grado del problema mediante il lemma 10.10. Soprattutto nei conti a mano si può accorciare l’algoritmo utilizzando che H[λ1 : (v10 ), . . . , λs : (vs0 )] = v10 L1 + . . . + vs0 Ls nella notazione della osservazione 9.7. Esempio 10.13. Calcoliamo H := H[1 : (3), 2 : (7, 1)]. Abbiamo H= x−1 x−2 F+ G = (x − 1)F − (x − 2)G 2−1 1−2 con F = H[2 : (7, 1)] = 7 + (x − 2) = x + 5 x−2 x−1 7+ 3 = 7(x − 1) − 3(x − 2) = 4x − 1 G = H[1 : (3), 2 : (7)] = 2−1 1−2 e quindi H = (x − 1)(x + 5) − (x − 2)(4x − 1) = −3x2 + 13x − 7 Verifica: H ′ = −6x + 13 H(1) = −3 + 13 − 7 = 3 H(2) = −12 + 26 − 7 = 7 H ′ (2) = −12 + 13 = 1 Esempio 10.14. Calcoliamo H := H[1 : (3, 4), 0 : (6, 2, 10)]. x−1 x Abbiamo H = F + G = (1 − x)F + xG con 0−1 1 x x−1 F1 + G1 = (1 − x)F1 + xG1 0−1 1 10 2 = H[0 : (6, 2, 10)] = 6 + 2x + x = 6 + 2x + 5x2 2 = H[1 : (3), 0 : (6, 2)] = (1 − x)F2 + xG2 = H[0 : (6, 2)] = 6 + 2x = H[1 : (3), 0 : (6)] = 6(1 − x) + 3x = 6 − 3x F = H[1 : (3), 0 : (6, 2, 10)] = F1 G1 F2 G2 49 G = H[1 : (3, 4), 0 : (6, 2)] = (1 − x)F3 + xG3 F3 = H[1 : (3), 0 : (6, 2)] = G1 G3 = H[1 : (3, 4), 0 : (6)] = (1 − x)F4 + xG4 F4 = H[1 : (3), 0 : (6)] = G2 G4 = H[1 : (3, 4)] = 3 + 4(x − 1) = 4x − 1 per cui G3 = (1 − x)F4 + xG4 = (1 − x)G2 + xG4 = (1 − x)(6 − 3x) + x(4x − 1) = 7x2 − 10x + 6 G1 = (1 − x)F2 + xG2 = (1 − x)(6 + 2x) + x(6 − 3x) = −5x2 + 2x + 6 G = (1 − x)F3 + xG3 = (1 − x)G1 + xG3 = (1 − x)(−5x2 + 2x + 6) + x(7x2 − 10x + 6) = 12x3 − 17x2 + 2x + 6 F = (1 − x)F1 + xG1 = (1 − x)(6 + 2x + 5x2 ) + x(−5x2 + 2x + 6) = −10x3 + 5x2 + 2x + 6 H = (1 − x)F + xG = (1 − x)(−10x3 + 5x2 + 2x + 6) + x(12x3 − 17x2 + 2x + 6) = 22x4 − 32x3 + 5x2 + 2x + 6 Verifica: H ′ = 88x3 − 96x2 + 10x + 12, H ′′ = 264x2 − 192x + 10 H(1) = 22 − 32 + 5 + 2 + 6 = 3 H ′ (1) = 88 − 96 + 10 + 2 H(0) = 6 H ′ (0) = 2 H ′′ (0) = 10 Nota 10.15. Possiamo realizzare l’algoritmo indicato nella nota 10.12 in Python mediante le seguenti funzioni che utilizzano il modulo swiginac. Swiginac è un modulo che aggancia Python a Ginac, una libreria di calcolo simbolico. Tra le funzioni che possono essere utilizzate dopo avere importato questo modulo (con from swiginac import * ) menzioniamo aus.Var che utilizziamo qui di seguito e che permette di attribuire il carattere di variabile a una stringa che contiene il nome della variabile. aus.Var(’x’,hermite) def Copiadiz (a): return dict([(x,copy.copy(a[x])) for x in a.keys()]) 50 def Hermite (A): L=A.keys(); alfa=L[0] if len(L)==1: return Taylor(alfa,A[alfa]) beta=L[1]; A1=Copiadiz(A); A2=Copiadiz(A) v1=A1[alfa]; v1.pop(); v2=A2[beta]; v2.pop() if not v1: del A1[alfa] if not v2: del A2[beta] f=(x-alfa)*Hermite(A1); g=(x-beta)*Hermite(A2) h=(f-g)/float(beta-alfa); return h # Lista dei coefficienti di (x-alfa) in f. def Lista (f,alfa=0): g=f.series(x==alfa,f.degree(x)+1) h=g.subs(x==x+alfa) return [h.coeff(x,i) for i in xrange(h.degree(x)+1)] def Taylor (alfa,v): f=0+0*x; p=1.0 for j,vj in enumerate(v): f=f+vj*p/mat.Fatt(j); p*=(x-alfa) return f Otteniamo i risultati degli esempi 10.13 e 10.14 con print hermite.Lista(hermite.Hermite({1:[3], 2:[7,1]})) # [-7.0, 13.0, -3.0] print hermite.Lista(hermite.Hermite({1:[3,4], 0:[6,2,10]})) # [6.0, 2.0, 5.0, -32.0, 22.0] Definizione 10.16. Nelle ipotesi e con le notazioni della definizione 10.5 denotiamo con ∆[λ1 : v1 , . . . , λs : vs ] il coefficiente della potenza massimale formale, cioè di xm−1 , in H[λ1 : v1 , . . . , λs : vs ]. Scegliamo questa notazione perché questi coefficienti corrispondono a uno schema alle differenze che deriva dal lemma 10.10, come vedremo adesso. Elenchiamo inoltre le condizioni H (0) (λ1 ) = v10 , ..., H (m1 −1) (λ1 ) = v1,m1 −1 , H (0) (λ2 ) = v20 , ... nell’ordine indicato e denotiamo, per i = 0, . . . , m − 1, con H[λ1 : v1 , . . . , λs : vs ][i] il polinomio di interpolazione di Hermite che corrisponde alle prime i + 1 condizioni; in modo analogo sia definito ∆[λ1 : v1 , . . . , λs : vs ][i] . In particolare H[λ1 : v1 , . . . , λs : vs ][0] = ∆[λ1 : v1 , . . . , λs : vs ][0] = v10 . Definiamo poi (α1 , . . . , αm ) := (λ1 , . . . , λ1 , . . . , λs , . . . , λs ) ed infine | {z } | {z } m1 (x − α)[0] := 1 (x − α)[1] := x − α1 (x − α)[i] := (x − α1 ) · · · (x − αi ) 51 ms per i = 1, . . . , m. Proposizione 10.17. Nelle ipotesi e con le notazioni della nota 10.16 si hanno le seguenti relazioni: (1) Se i 6= l, allora ∆[λ1 : v1 , . . . , λs : vs ] = ∆[λ1 : v1 , . . . , λi : vi− , . . . , λs : vs ] − ∆[λ1 : v1 , . . . , λl : vl− , . . . , λs : vs ] λl − λ i v1,m1 −1 . (2) ∆[λ1 : v1 ] = (m1 − 1)! Dimostrazione. Ciò segue direttamente dal lemma 10.10 e dall’osservazione 10.11. Teorema 10.18. Con le notazioni della definizione 10.16 vale H[λ1 : v1 , . . . , λs : vs ] = m−1 X ∆[λ1 : v1 , . . . , λs : vs ][i] (x − α)[i] i=0 Dimostrazione. Induzione su m. m = 1: H(λ1 : (v10 )) = v10 ∆[λ1 : v1 , . . . , λs : vs ][0] = v10 (x − α)[0] = 1 m − 1 → m: Per definizione H = H[λ1 : v1 , . . . , λs : vs ] = ∆[λ1 : v1 , . . . , λs : vs ][m−1] (x − α)[m−1] + f , dove f è un polinomio di grado < m − 1, perché il coefficiente di xm−1 in H coincide con il coefficiente di (x − α)[m−1] e ∆[λ1 : v1 , . . . , λs : vs ] = ∆[λ1 : v1 , . . . , λs : vs ][m−1] . Per il lemma 10.2 però g := ∆[λ1 : v1 , . . . , λs : vs ][m−1] soddisfa le condizioni g(j) (λk ) = 0 per k = 1, . . . , s e j = 0, . . . , ms − 1 tranne l’ultima, se le elenchiamo nello stesso ordine come le condizioni originali che determinano H . Ma ciò significa che f = H − g = H[λ1 : v1 , . . . , λs : vs− ] e quindi, per induzione, H = ∆[λ1 : v1 , . . . , λs : vs ][m−1] + m−2 X ∆[λ1 : v1 , . . . , λs : vs ][i] (x − α)[i] i=0 Esempio 10.19. Calcoliamo H := H[1 : (3), 2 : (7, 1)], già calcolato nell’esempio 10.13, con il metodo del teorema 10.18. Abbiamo H = ∆[1 : (3)]+∆[1 : (3), 2 : (7)](x−1)+∆[1 : (3), 2 : (7, 1)](x−1)(x−2) 52 con ∆[1 : (3)] = 3 ∆[2 : (7)] − ∆[1 : (3)] ∆[1 : (3), 2 : (7)] = =7−3 =4 2−1 ∆[2 : (7, 1)] − ∆[1 : (3), 2 : (7)] = 1 − 4 = −3 ∆[1 : (3), 2 : (7, 1)] = 2−1 Quindi H = 3 + 4(x − 1) − 3(x − 1)(x − 2) = −3x2 + 13x − 7. Esempio 10.20. Calcoliamo H := H[0 : (6, 2, 10), 1 : (3, 4)], già calcolato nell’esempio 10.14, con il metodo del teorema 10.18. Abbiamo H =∆[0 : (6)] + ∆[0 : (6, 2)]x + ∆[0 : (6, 2, 10)]x2 + ∆[0 : (6, 2, 10), 1 : (3)]x3 + ∆[0 : (6, 2, 10), 1 : (3, 4)]x3 (x − 1) con ∆[0 : (6)] = 6 ∆[0 : (6, 2)] = 2 ∆[0 : (6, 2, 10)] = 5 ∆[0 : (6, 2, 10), 1 : (3)] = ∆[0 : (6, 2), 1 : (3)] − ∆[0 : (6, 2, 10)] = ∆[0 : (6), 1 : (3)] − ∆[0 : (6, 2)] − 5 = 3 − 6 − 2 − 5 = −10 ∆[0 : (6, 2, 10), 1 : (3, 4)] = ∆[0 : (6, 2), 1 : (3, 4)] − ∆[0 : (6, 2, 10), 1 : (3)] = A + 10 con A = ∆[0 : (6), 1 : (3, 4)] − ∆[0 : (6, 2), 1 : (3)] = ∆[1 : (3, 4)] − ∆[0 : (6), 1 : (3)] + 5 = 4 − (∆[1 : (3)] − ∆[0 : (6)]) + 5 = 4 − (3 − 6) + 5 = 12 per cui H = 6 + 2x + 5x2 − 10x3 + 22x3 (x − 1) = 22x4 − 32x3 + 5x2 + 2x + 6 Nota 10.21. I calcoli che utilizziamo nel teorema 10.18 possono essere semplificati mediante il seguente schema alle differenze che illustriamo per il caso H = H[λ1 : (v10 , v11 , v12 ), λ2 : (v20 ), λ3 : (v30 , v31 ), λ4 : (v40 , v41 )]. 53 λ1 : (v10 , v11 , v12 ) v10 λ2 : (v20 ) λ3 : (v30 , v31 ) λ4 : (v40 , v41 ) [λ1 ] v11 v10 [λ1 ] v12 2 [λ1 ] v11 [λ1 , λ2 ] diff. λ2 − λ1 v10 [λ1 , λ2 ] diff. λ2 − λ1 [λ1 , λ3 ] diff. λ3 − λ1 [λ1 , λ2 ] v20 − v10 λ2 − λ1 [λ1 , λ3 ] diff. λ3 − λ1 [λ1 , λ3 ] diff. λ3 − λ1 v20 [λ1 , λ3 ] diff. λ3 − λ1 [λ1 , λ3 ] diff. λ3 − λ1 [λ1 , λ4 ] diff. λ4 − λ1 [λ2 , λ3 ] v30 − v20 λ3 − λ2 [λ1 , λ3 ] diff. λ3 − λ1 [λ1 , λ4 ] diff. λ4 − λ1 [λ1 , λ4 ] v30 [λ2 , λ3 ] diff. λ3 − λ2 [λ1 , λ4 ] diff. λ4 − λ1 [λ1 , λ4 ] diff. λ4 − λ1 [λ3 ] v31 [λ2 , λ4 ] diff. λ4 − λ2 [λ1 , λ4 ] diff. λ4 − λ1 v30 [λ3 , λ4 ] diff. λ4 − λ3 [λ2 , λ4 ] diff. λ4 − λ2 [λ3 , λ4 ] v40 − v30 λ4 − λ3 [λ3 , λ4 ] diff. λ4 − λ3 v40 [λ3 , λ4 ] diff. λ4 − λ3 [λ4 ] v41 v40 vkj , dove j! j è il numero della colonna nello schema, oppure della forma [λi , λl ] diff. e seguite allora da , dove nel numeratore si trova la differenza λl − λ i dei termini separati, nella colonna precedente, dalla parentesi quadra. Le parentesi sono o della forma [λk ], seguite in tal caso da È chiaro che nella diagonale superiore otteniamo i coefficienti ∆[λ1 : v1 , . . . , λs : vs ][i] . Esempio 10.22. Calcoliamo H = H[0 : (−1, −2), 1 : (0, 10, 40)] (cfr. Stoer, pag.47). 0 : (−1, −2) −1 1 : (0, 10, 40) [0] −2 −1 [0, 1] 3 [0, 1] 1 [0, 1] 6 0 [0, 1] 9 [0, 1] [1] 10 [0, 1] 11 0 [1] 20 [1] 10 0 Quindi 54 5 diff. λ4 − λ1 H = −1 − 2x + 3x2 + 6x2 (x − 1) + 5x2 (x − 1)2 . Esempio 10.23. Calcoliamo H = H[1 : (2, 5, 6), 2 : (11), 3 : (0, −27), 4 : (−37, 158)]. 1 : (2, 5, 6) 2 [1] 2 : (11) 3 : (0, −27) 4 : (−37, 158) 5 2 [1] 3 [1] 5 [1, 2] 1 2 [1, 2] 4 [1, 3] [1, 2] 9 [1, 3] −7 [1, 3] 3 11 [1, 3] −10 [1, 3] 2 [1, 4] −1 [2, 3] −11 [1, 3] −3 [1, 4] 0 [1, 4] 11 −4 0 [2, 3] −16 [1, 4] 2 [1, 4] [3] −27 [2, 4] 3 [1, 4] 33 0 [3, 4] −10 [2, 4] 101 [3, 4] −37 [3, 4] 205 −37 [3, 4] 195 [4] 158 4 −37 Abbiamo cosı̀ H =2 + 5(x − 1) + 3(x − 1)2 + (x − 1)3 − 4(x − 1)3 (x − 2)+ + 3(x − 1)3 (x − 2)(x − 3) − (x − 1)3 (x − 2)(x − 3)2 + + 4(x − 1)3 (x − 2)(x − 3)2 (x − 4) Esempio 10.24. Per λ1 6= λ2 calcoliamo H = H[λ1 : (1, 0, 0), λ2 : (0, 0)]. λ1 : (1, 0, 0) 1 λ2 : (0, 0) [λ1 ] 0 1 [λ1 ] 0 [λ1 ] 0 [λ1 , λ2 ] 1 [λ1 , λ2 ] − [λ1 , λ2 ] − 1 λ2 − λ 1 0 [λ1 , λ2 ] [λ2 ] 0 1 (λ2 − λ1 )2 [λ1 , λ2 ] 1 (λ2 − λ1 )2 0 55 − 1 (λ2 − λ1 )3 [λ1 , λ2 ] 2 (λ2 − λ1 )3 3 (λ2 − λ1 )4 Abbiamo quindi x − λ1 3 3(x − λ1 )3 (x − λ2 ) + H =1− λ2 − λ1 (λ2 − λ1 )4 Definizione 10.25. Per k = 1, . . . , s e j = 0, . . . , mk − 1 definiamo Hkj come la soluzione del problema di interpolazione (α) Hkj (λβ ) = δkβ δjα per β = 1, . . . , s ed α = 0, . . . , mβ − 1. Abbiamo quindi H10 = H(λ1 : (1, 0, . . . , 0), . . .) H11 = H(λ1 : (0, 1, . . . , 0), . . .) H12 = H(λ1 : (0, 0, 1, . . . , 0), . . .) ... H20 = H(λ1 : (0, . . . , 0), λ2 : (1, 0, . . . , 0), . . .) H21 = H(λ1 : (0, . . . , 0), λ2 : (0, 1, 0, . . . , 0), . . .) .... I polinomi Hkj sono detti polinomi di interpolazione fondamentali di Hermite. Nell’esempio 10.24 abbiamo calcolato H10 per m1 = 3, m2 = 2. Proposizione 10.26. Nella situazione della definizione 10.25 siano adesso dati numeri complessi vkj per k = 1, . . . , s e j = 0, . . . , mk − 1. Sia H := H[λ1 : v1 , . . . , λs : vs ]. Allora H= s m s −1 X X vkj Hkj . k=1 j=0 Dimostrazione. Per β = 1, . . . , s ed α = 0, . . . , mβ − 1 abbiamo H (α) (λβ ) = s m s −1 X X (α) vkj Hkj (λβ ) = s m s −1 X X vkj δkβ δjα = vβα k=1 i=0 k=1 i=0 Siccome grado Hkj < m per ogni k e j , H deve essere il polinomio d’interpolazione di Hermite cercato. Nota 10.27. Nel seguito, useremo l’interpolazione di Hermite sia per ottenere formule esplicite per l’esponenziale di una matrice (capitoli 11 e 12) sia per lo studio delle funzioni di crescita di tumori. 56 11. La formula spettrale di Sylvester-Buchheim Situazione 11.1. Siano A ∈ Cnn ed MA = (x − λ1 )m1 · · · (x − λs )ms con i λk tutti distinti ed mk ≥ 1 per ogni k. Siano m := m1 + . . . + ms e t ∈ R. Teorema 11.2. Ω sia un dominio di C che contiene lo spettro σ(A) ed f, g : Ω → C due funzioni analitiche. Assumiamo che per ogni k = 1, . . . , s si abbia f (j)(λk ) = g(j) (λk ) per ogni j = 0, . . . , mk − 1. Allora f (A) = g(A). Dimostrazione. Forst/Hoffmann, pag. 335, Cullen, pagg. 263-264, Horn/Johnson, pagg. 396-397. Cfr. Gantmacher, pagg. 122-123, e Frommer/Simoncini. Corollario 11.3. Sia g ∈ C[x] un polinomio tale che per ogni k = 1, . . . , s si abbia tj etλk = g(j) (λk ) per ogni j = 0, . . . , mk − 1. Allora etA = g(A). Dimostrazione. Ciò segue dal teorema 11.2 se poniamo f (z) := etz . Infatti allora f (j) (z) = tj etz . Osservazione 11.4. Dal corollario 11.3 otteniamo una nuova dimostrazione della proposizione 9.22. Se infatti (A − λδ)m = 0, possiamo m−1 X tj (x − λ)j , dal assumere che MA = (x − λ)m . Se poniamo g = etλ j! k=0 corollario 11.3 segue etA = g(A), in accordo con la proposizione 9.2. Vediamo adesso come questa semplice osservazione può essere generalizzata nel caso generale tramite la teoria del polinomio di interpolazione di Hermite. Osservazione 11.5. Sia mk = 1 per ogni k = 1, . . . , s. In tal caso m = n. Se scegliamo vk0 = etλk nella proposizione 10.7, H coincide necessariamente con il polinomio di interpolazione di Lagrange n X eλk t Lk (A) e dal corollario 10.3 otteniamo k=1 etA = n X eλk t Lk (A) k=1 in accordo con la proposizione 9.10. Proposizione 11.6 (formula spettrale di Sylvester-Buchheim). Ω sia un dominio di C che contiene lo spettro σ(A) ed f : Ω → C una funzione analitica. Allora f (A) = s m k −1 X X f (j)(λk )Hkj (A). k=1 j=0 57 Dimostrazione. Se poniamo vkj = f (j) (λk ) ed H := H[λ1 : v1 , . . . , λs : vs ], dal teorema 11.2 abbiamo f (A) = H(A). L’enunciato segue dalla prop. 10.26. Corollario 11.7. etA = s m k −1 X X tj etλk Hkj (A). k=1 j=0 Osservazione 11.8. Sia p ∈ C[x] \ 0 con p(A) = 0. Allora p = (x − λ1 )r1 · · · (x − λs )rs (x − λs+1 )rs+1 · · · (x − λv )rv con v ≥ s, λs+1 , . . . , λv ∈ C ed r1 ≥ m1 , . . . , rs ≥ ms . Se formiamo i polinomi di interpolazione fondamentali di Hermite g Hkj rispetto a questo sistema di valori, allora si ha ancora v m k −1 X X tA g tj etλk H e = kj (A). In verità quasi sempre ci si può limitare al k=1 j=0 g g caso v = s e del teorema 11.6, applicato agli H kj , si vede che Hkj (A) = 0 per k = 1, . . . , s e j ≥ mk . Possiamo in particolare applicare questo ragionamento quando p = PA . Cfr. Forst/Hoffmann, pag.335. 0 1 0 Esempio 11.9. Sia A = 4 3 −4. Allora PA = MA = x(x − 1)2 . 1 2 −1 H10 = H[0 : (1), 1 : (0, 0)] H20 = H[0 : (0), 1 : (1, 0)] H21 = H[0 : (0), 1 : (0, 1)] Questi polinomi fondamentali si calcolano facilmente con il metodo della nota 10.21 che applichiamo in uno schema unico in cui separiamo con punto e virgola i termini corrispondenti a indici diversi: 0 : (1); (0); (0) 1; 0; 0 1 : (0, 0); (1, 0); (0, 1) [0, 1] −1; 1; 0 0; 1; 0 [0, 1] [1] 0; 0; 1 0; 1; 0 Abbiamo cosı̀ H10 = 1 − x + x(x − 1) = (x − 1)2 H20 = x − x(x − 1) = x(2 − x) H21 = x(x − 1) Per il corollario 11.7 abbiamo etA = H10 (A) + et H20 (A) + tet H21 (A) 58 1; −1; 1 dove 2 −1 1 0 5 1 −4 H10 (A) = (A − δ)2 = 4 2 −4 = 0 0 0 1 2 −2 5 1 −4 −4 −1 4 0 1 0 2 −1 0 1 0 H20 (A) = A(2δ − A) = 4 3 −4 −4 −1 4 = 0 −5 −1 5 1 2 −1 −1 −2 3 0 1 0 −1 1 0 4 2 −4 H21 (A) = A(A − δ) = 4 3 −4 4 2 −4 = 4 2 −4 1 2 −1 1 2 −2 6 3 −6 cosicché 5 1 −4 −4 −1 4 4 2 −4 1 0 et + 4 2 −4 tet etA = 0 0 0 + 0 5 1 −4 −5 −1 5 6 3 −6 Cfr. Forst/Hoffmann, pag.341. Esempio 11.10. Sia MA = x2 (x − 1)3 (x − 2). Calcoliamo etA . Per il corollario 11.7 abbiamo: etA = H10 (A)+tH11 (A)+et H20 (A)+tet H21 (A)+t2 et H22 (A)+e2t H30 (A) Calcoliamo con lo schema: H10 H11 H20 H21 H22 H30 = H[0 : (1, 0); 1 = H[0 : (0, 1); 1 = H[0 : (0, 0); 1 = H[0 : (0, 0); 1 = H[0 : (0, 0); 1 = H[0 : (0, 0); 1 : (0, 0, 0); 2 : (0, 0, 0); 2 : (1, 0, 0); 2 : (0, 1, 0); 2 : (0, 0, 1); 2 : (0, 0, 0); 2 : (0)] : (0)] : (0)] : (0)] : (0)] : (1)] 0 : (1, 0); (0, 1); (0, 0); (0, 0); (0, 0); (0, 0) 1; 0; 0; 0; 0; 0 1 : (0, 0, 0); (0, 0, 0); (1, 0, 0); (0, 1, 0); (0, 0, 1); (0, 0, 0) 2 : (0); (0); (0); (0); (0); (1) [0] 0; 1; 0; 0; 0; 0 1; 0; 0; 0; 0; 0 [0, 1] [0, 1] −1; 0; 1; 0; 0; 0 0; 0; 1; 0; 0; 0 [0, 1] [1] 0; 0; 0; 1; 0; 0 0; 0; 1; 0; 0; 0 [1] [1] 0; 0; 0; 1; 0; 0 0; 0; 1; 0; 0; 0 [1, 2] [1, 2] 0; 0; −1; 0; 0; 1 0; 0; 0; 0; 0; 1 59 −1; −1; 1; 0; 0; 0 [0, 1] 2; 1; −2; 1; 0; 0 1; 0; −1; 1; 0; 0 [1, 2] −3; −1; 3; −2; 21 ; 0 [0, 1] −1; 0; 1; −1; 21 ; 0 [0, 2] 0; 0; 0; 0; 21 ; 0 [0, 2] 1 ; 0; −1; 0; − 12 ; 12 2 [1, 2] 0; 0; −1; −1; − 21 ; 1 7 1 ; ; −2; 1; − 21 ; 41 4 2 0; 0; −1; −1; 0; 1 Dunque 7 H10 = 1 − x2 + 2x2 (x − 1) − 3x2 (x − 1)2 + x2 (x − 1)3 4 1 2 2 2 2 H11 = x − x + x (x − 1) − x (x − 1) + (x − 1)3 2 2 2 2 2 H20 = x − 2x (x − 1) + 3x (x − 1) − 2x2 (x − 1)3 H21 = x2 (x − 1) − 2x2 (x − 1)2 + x2 (x − 1)3 1 1 H22 = x2 (x − 1)2 − x2 (x − 1)3 2 2 1 2 3 H30 = x (x − 1) 4 Perciò 7 etA =δ − A2 + 2A2 (A − δ) − 3A2 (A − δ)2 + A2 (A − δ)3 + 4 1 + t[A − A2 + A2 (A − δ) − A2 (A − δ)2 + A2 (A − δ)3 ]+ 2 + et [A2 − 2A2 (A − δ) + 3A2 (A − δ)2 − 2A2 (A − δ)3 ]+ + tet [A2 (A − δ) − 2A2 (A − δ)2 + A2 (A − δ)3 ]+ 1 1 1 + t2 et [ A2 (A − δ)2 − A2 (A − δ)3 ] + e2t A2 (A − δ)3 2 2 4 5 1 27 2 1 3 7 4 =(A − δ)(−δ − A + A − A + A ) + tA(A − δ)(−δ + A − 2A2 + A3 ) 4 2 4 2 2 1 + tet (A − δ)A2 (4δ − 4A + A2 ) + t2 et A2 (A − δ)(2δ − A)+ 2 2t 1 2 3 + e A (A − δ) 4 Osservazione 11.11. Quando gli autovalori di A non sono noti, possono essere usate formule algebriche di ricorrenza al posto della rappresentazione spettrale, come esposto nel lavoro di Verde Star citato in bibliografia. 60 12. Matrici che soddisfano un’equazione cubica Situazione 12.1. Siano A ∈ Cnn , λ, µ, ν ∈ C ed m ∈ N + 1. Ω sia un dominio di C che contiene la spettro σ(A) ed f : Ω → C una funzione analitica. t ∈ R. Nota 12.2. Sia MA = (x − λ)m . Allora f (A) = m−1 X j=0 etA = eλt f (j) (λ) (A − λδ)j j! m−1 X tj j=0 j! (A − λδ)j Dimostrazione. La seconda formula è in accordo con la proposizione 9.2 e con il corollario 11.3. Essa è anche una conseguenza immediata del teorema 11.2. Dall’osservazione 11.4 abbiamo H1j = f (j) (λ) j! e quindi H= m−1 X j=0 f (j) (λ) (x − λ)j j! dal teorema 11.2. Per f (z) = etz otteniamo la rappresentazione di etA ; cfr. corollario 11.3. Nota 12.3. Sia MA = (x − λ)(x − µ) con λ 6= µ. Allora f (λ) (A − µδ) + λ−µ eλt = (A − µδ) + λ−µ f (A) = etA f (µ) (A − λδ) µ−λ eµt (A − λδ) µ−λ Dimostrazione. La seconda formula segue dalla prima ed è in accordo con la proposizione 8.12. Per dimostrare la prima formula dal teorema 11.2 calcoliamo H10 = H[λ : (1), µ : (0)] H20 = H[λ : (0), µ : (1)] Usiamo lo schema: 61 λ : (1); (0) 1; 0 µ : (0); (1) [λ, µ] − 1 1 ; λ − µ (µ − λ) 0; 1 Per cui x−λ x−µ = µ−λ λ−µ x−λ = µ−λ H10 = 1 − H20 cosicché H = f (λ) x−λ x−µ + f (µ) λ−µ µ−λ Nota 12.4. Sia MA = (x − λ)2 (x − µ) con λ 6= µ. Allora f (µ) − f (λ) f ′ (λ) ′ f (A) = f (λ)δ + f (λ)(A − λδ) + − (A − λδ)2 (µ − λ)2 µ−λ µt e − eλt teλt tA λt λt e = e δ + te (A − λδ) + (A − λδ)2 + (µ − λ)2 µ−λ Dimostrazione. La seconda formula segue dalla prima e potrebbe essere ricondotta alla proposizione 9.2; cfr. Cheng/Yau, pag. 150. Per utilizzare il teorema 11.2 calcoliamo H10 = H[λ : (1, 0); µ : (0)] H11 = H[λ : (0, 1); µ : (0)] H20 = H[λ : (0, 0); µ : (1)] tramite lo schema della nota 9.27. λ : (1, 0); (0, 1); (0, 0) 1; 0; 0 [λ] 0; 1; 0 1; 0; 0 [λ, µ] µ : (0); (0); (1) [λ, µ] 1 1 ; 0; λ−µ µ−λ 0; 0; 1 62 − 1 1 1 ; ; 2 (µ − λ) λ − µ (µ − λ)2 da cui (x − λ)2 (µ − λ)2 (x − λ)2 = (x − λ) − (µ − λ) 2 x−λ = µ−λ H10 = 1 − H11 H20 e quindi H = f (λ) + f ′ (λ)(x − λ) + f (µ) − f (λ) f ′ (λ) − (x − λ)2 (µ − λ)2 µ−λ Nota 12.5. Sia MA = (x − λ)(x − µ)(x − ν) con λ, µ, ν distinti tra loro. Allora (A − λδ)(A − νδ) (A − µδ)(A − νδ) + f (µ) (λ − µ)(λ − ν) (µ − λ)(µ − ν) (A − λδ)(A − µδ) + f (ν) (ν − λ)(ν − µ) f (A) =f (λ) (A − λδ)(A − νδ) (A − µδ)(A − νδ) + eµt (λ − µ)(λ − ν) (µ − λ)(µ − ν) (A − λδ)(A − µδ) + eνt (ν − λ)(ν − µ) etA =eλt Dimostrazione. Queste formule seguono direttamente dall’osservazione 11.5. Osservazione 12.6. In Cheng/Yau gli autovalori di matrici 3 × 3 e 4 × 4 sono calcolati in termini dei coefficienti di A; in questo modo si ottengono formule per etA che in tal caso dipendono dai coefficienti. 63 13. L’algoritmo di Parlett-Koç per matrici triangolari Situazione 13.1. A ∈ Cnn una matrice della forma λ1 0 0 ... a21 λ2 0 ... a a λ ... A= 32 3 31 ... ... ... ... an1 an2 an3 ... sia una matrice triangolare inferiore, cioè 0 0 0 ... λn È noto che PA = (x− λ1 ) · · · (x− λn ). Ω sia un dominio di C che contiene lo spettro di A ed f : Ω → C una funzione analitica. Nota 13.2. Sia M ∈ Cnn . Allora esiste una matrice unitaria T tale che L := T −1 M T è triangolare inferiore (decomposizione di Schur, cfr. Golub/Van Loan, pag. 192, o Cullen, pagg. 166-174) e siccome f (M ) = T f (L)T −1 per l’osservazione 6.14 (nell’ipotesi anche qui che f sia una funzione analitica definita in un dominio che contiene lo spettro di M ), è sufficiente saper calcolare funzioni di matrici triangolari. L’uso della decomposizione di Schur per funzioni di matrici non triangolari rappresenta infatti lo stato dell’arte nel calcolo di funzioni matriciali (Higham [F], pagg. 12-13). In molti problemi medici inoltre appaiono sistemi di equazioni differenziali ordinarie a cascata, tipici per modelli compartimentali lineari, in cui quindi dobbiamo calcolare l’esponenziale di una matrice triangolare inferiore. Modelli simili sono utilizzati nella teoria dei reattori nucleari; cfr. Attaya. Osservazione 13.3. Sia 1 ≤ m < n. Allora possiamo sempre scrivere B 0 n−m n−m con B e D ancora A = con B ∈ Cm m , D ∈ Cn−m , C ∈ Cm C D triangolari inferiori. Si ha inoltre f (B) 0 f (A) = X f (D) n−m . con una matrice X ∈ Cm Dimostrazione. Solo l’ultima affermazione non è evidente. Una dimostrazione si trova in Van Loan, pagg. 7-9, Golub/Van Loan, pag. 383. Osservazione 13.4 (algoritmo di Parlett-Koç). Con A, B, C, D, X come nella proposizione 13.3 poniamo F := f (A), M := f (B), N := M 0 f (D), cosicchè F = . Assumiamo inoltre che σ(B) ∩ σ(D) = ∅, X N cioè che B e D non abbiano autovalori in comune. Allora MB 0 BM 0 FA = AF = XB + N C N D CM + DX DN 64 Dallo sviluppo di f in serie di potenze è evidente che AF = F A e quindi (o per la stessa ragione) BM = M B e DN = N D . Inoltre CM + DX = XB + N C . In un algoritmo ricorsivo possiamo assumere di aver già calcolato M ed N ; perciò la matrice E := N C − CM è nota e dobbiamo risolvere in X l’equazione DX − XB = E . Questa equazione, detta di Sylvester, possiede molte altre applicazioni. Nella soluzione dell’equazione di Sylvester abbiamo bisogno della condizione che σ(B) ∩ σ(D) = ∅. Siccome nella decomposizione di Schur si può prescrivere l’ordine in cui gli autovalori appaiono nella diagonale principale, possiamo applicare una trasformazione di Schur anche nel nostro caso in cui A è già triangolare, per raggruppare autovalori uguali in blocchi adiacenti. L’algoritmo di Parlett-Koç si ferma perciò quando rimangono da calcolare solo matrici della forma f (L), dove gli autovalori di L sono tutti uguali; in tal caso f (L) può essere calcolata con la formula di Taylor (corollario 12.2) . r Proposizione 13.5. Siano B ∈ Cm m e D ∈ Cr . Allora l’applicazione DX − XB : Crm → Crm è biettiva se e solo se σ(B) ∩ σ(D) = ∅. X In tal caso quindi per ogni matrice E ∈ Cnm esiste un’unica soluzione X dell’equazione di Sylvester DX − XB = E . Dimostrazione. Horn/Johnson, pagg. 268-270. Osservazione 13.6. L’equazione DX − BX = E può essere considerata come un sistema lineare nelle mr incognite Xji e può essere quindi risolta con il metodo di eliminazione di Gauss. La simmetria dell’equazione permette però di formulare algoritmi più efficienti, anche se, nel caso generale, piuttosto complicati; cfr. Bartels/Stewart e da Kirrinnis. Come vedremo adesso, gli algoritmi si semplificano notevolmente nel caso di matrici triangolari; cfr. Golub/Van Loan, pagg. 242-243. r r Nota 13.7. Siano B ∈ Cm m , D ∈ Cr , E ∈ Cm . La matrice B sia triangolare inferiore. Sia σ(D)∩σ(B) = ∅. Ciò significa che la matrice D−Bkk è invertibile per ogni k = 1, . . . , m. L’unica soluzione X dell’equazione di Sylvester DX − XB = E può essere trovata con il seguente algoritmo. (1) Per le singole colonne DX − XB = E significa che DXk − XBk = Ek per ogni k. Però m m X X j 1 Xj Bkj = Bkk Xk + Bkk+1 Xk+1 + . . . + Bkm Xm Xj Bk = XBk = j=1 j=k 1 dove in = sfruttiamo l’ipotesi che B sia triangolare inferiore e che quindi Bkj = 0 per j < k. (2) Da ciò otteniamo (D − Bkk δ)Xk = Ek + Bkk+1 Xk+1 + . . . + Bkm Xm m )X = E . per k < m, mentre per k = m abbiamo (D − Bm m m 65 (3) Per ipotesi le matrici D − Bkk sono tutte invertibili e quindi possiamo risolvere successivamente m (D − Bm δ)Xm = Em m−1 m (D − Bm−1 δ)Xm−1 = Em−1 + Bm−1 Xm m−1 m m−2 Xm−1 + Bm−2 Xm (D − Bm−2 δ)Xm−2 = Em−2 + Bm−2 ... ottenendo cosı̀ tutte le colonne di X . Esempio 13.8. Illustriamo l’algoritmo dell’osservazione 13.7 nel caso dell’equazione DX − XB = E con 1 0 0 6 0 4 6 8 D= , B = 4 3 0, E = 2 4 1 2 5 7 5 2 Osserviamo che σ(D)∩σ(B) = ∅ perché σ(D) = {6, 4} e σ(B) = {1, 3, 2}. L’equazione da risolvere ammette un’unica soluzione che otteniamo dalle relazioni: (D − Bkk δ)Xk = Ek + Bkk+1 Xk+1 + . . . + Bkm Xm Osserviamo che X ∈ R23 . Per k = 3 si ha: (D − B33 δ)X3 6 0 2 0 − X3 2 4 0 2 4 0 X3 2 2 −1 4 0 2 2 Per k = 2 si ha: = E3 8 = 5 8 = 5 1 0 4 1 2 0 = = 8 −2 4 − 14 21 ! 1 0 8 2 4 X3 = = 1 5 − 14 21 2 = E2 + B23 X3 2 6 = +5 1 2 2 16 = 2 + 25 1 0 3 1 1 0 = = 3 −2 3 − 23 1 16 1 3 16 0 3 X2 = = 9 − 32 1 37 2 −6 (D − B22 δ)X2 6 0 3 0 − X2 2 4 0 3 3 0 X2 2 1 −1 3 0 2 1 66 Per k = 1 abbiamo (D − B11 δ)X1 = E1 + B12 X2 + B13 X3 64 4 + + 14 3 5 0 X1 = 2 3 148 7 1− 6 + 2 1 −1 0 5 1 3 0 5 0 = = −2 5 2 3 15 2 1 − 15 3 118 118 1 0 5 3 15 = X1 = 2 121 1077 1 − 15 − − 3 6 90 Quindi X= 118 15 16 3 2 − 1077 90 − 37 6 1 2 Osservazione 13.9. Essendo in possesso di un algoritmo per la risoluzione dell’equazione di Sylvester, possiamo utilizzare il metodo dell’osservazione 13.4 per calcolare l’esponenziale di una matrice. 3 0 0 Esempio 13.10. Calcoliamo etA per A = 2 5 0. 6 1 2 3 Osserviamo che n = 3 e prendiamo m = 1 . Allora B = , 5 0 M = etB = e3t , D ∈ R22 e D = . 1 2 Dunque dobbiamo determinare N = etD . 5 0 e Chiamiamo A = D = allora 1 2 e= 5 ,M f = e5t , D e = 2 ,N e = e2t , allora C e= 1 . B 5t e 0 e Dunque F = e . X e2t e ∩ σ(B) e = ∅, X e è data da: Poichè σ(D) e −B e 1 )X e = (N g g 1 (D C − CM) 1 e = e2t − e5t (2 − 5)X 5t 2t e = e −e X 3 Quindi abbiamo trovato N e precisamente si ha: e5t 0 N = etD = Fe = e5t − e2t e2t 3 67 B 0 Dunque dobbiamo determinare X , ricordando che A = con C D 2 5 0 M 0 B = 3 , C = , D = e F = con M = e3t , 6 1 2 X N 5t e 0 e X da determinare. N = e5t − e2t e2t 3 Calcoliamo e5t 0 2 − 2 e3t E = N C − CM = e5t − e2t 6 6 e2t 3 ! 2(e5t − e3t ) 2e5t 3t 2e = 2 5t 16 2t − = 2 5t 3t 6e3t (e − e2t ) + 6e2t e + e − 6e 3 3 3 Per determinare X dobbiamo risolvere l’equazione DX − XB = E . Questa ammette un unica soluzione perché σ(D) ∩ σ(B) = ∅, infatti σ(D) = {5, 2} e σ(B) = {3}. La soluzione X è determinata dalle relazioni (D − Bkk δ)Xk = Ek + Bkk+1 Xk+1 + . . . + Bkm Xm Osserviamo che X ∈ R21 . Dunque (D − B11 δ)X1 3 0 5 0 X1 − 0 3 1 2 2 0 X1 1 −1 −1 2 0 1 −1 = E1 = = 2(e5t − e3t ) ! 2( 31 e5t + 83 e2t − 3e3t ) ! 2(e5t − e3t ) 2( 13 e5t + 83 e2t − 3e3t ) 1 −1 0 =− 2 −1 2 ! 2(e5t − e3t ) 1 −1 0 X = X1 = − = 2 −1 2 2( 13 e5t + 83 e2t − 3e3t ) e5t − e3t 1 5t 3e Quindi etA = 1 5t 3e e3t 0 e5t − e3t e5t + 5e3t − 16 2t 3 e 0 e5t −e2t 3 0 2t e Osserviamo che gli autovalori di A sono tutti distinti, in quanto σ(A) = {3, 5, 2}, quindi per calcolare etA possiamo utilizzare anche la proposizione 9.10. Quindi etA = n X eλk t Lk (A) k=1 68 + 5e3t − 16 2t 3 e ! con gli Lk come nella definizione 9.6. Dunque, se poniamo λ1 := 3, λ2 := 5, λ3 := 2, abbiamo 1 0 0 −2 0 0 1 0 0 −2 0 0 1 1 2 0 0 2 3 0 = − 2 0 0 = −1 0 0 L1 (A) = (−2)(−1) 2 −10 0 0 5 0 0 6 1 −3 6 1 0 0 1 0 0 0 0 0 0 0 0 1 1 2 2 0 2 3 0 = 6 6 0 = 1 L2 (A) = 1 (2)(3) 6 1 −1 6 6 1 0 2 2 0 3 0 1 1 3 0 0 0 0 −2 0 0 0 0 0 0 0 0 1 2 0 0 2 2 0 = 1 0 0 0 = 0 L3 (A) = −16 (−1)(−3) 3 6 1 −3 6 1 −1 −16 −1 3 3 e quindi etA 0 0 0 0 1 0 0 = e3t −1 0 0 + e5t 1 1 0 + e2t 0 1 1 −16 5 0 0 3 3 0 3 3t e 0 0 e5t − e3t e5t 0 = 5t − e2t e 16 2t 1 5t 3t 2t e 3 e + 5e − 3 e 3 in accordo con quanto ottenuto con il primo metodo. 3 0 0 2 5 0 Esempio 13.11. Calcoliamo etA dove A = 6 1 2 4 1 3 0 0 −1 3 0 0 −1 3 0 0 1 0 0 1 0 0 . 0 1 Osserviamo che A ∈ R44 (dunque n = 4) e prendiamo m = 2, quindi B, C, D, M, N, X ∈ R22 . Dunque B 0 M 0 A= ,F = C D X N con B= 2 0 6 1 3 0 . ,D = ,C = 3 1 4 1 2 5 Poiché (B − 3δ)(B − 5δ) = 0 e (D − 2δ)(D − δ) = 0 calcoliamo M = f (B) = eBt e N = f (D) = eDt con la proposizione 8.12, quindi 1 −2 0 3t 1 0 0 5t B − 5δ 3t B − 3δ 5t e3t 0 Bt e + e =− e + e = 5t M =e = e − e3t e5t 3−5 5−3 2 2 0 2 2 2 D − δ 2t D − 2δ t e2t 0 0 0 1 0 2t t Dt e = e − e + e = N =e = 3 −1 3 0 3(e2t − et ) et 2−1 1−2 69 Dobbiamo determinare X come soluzione dell’equazione di Sylvester DX − XB = E con E = N C − CM . X esiste ed è unica poichè σ(D) ∩ σ(B) = ∅, infatti σ(D) = {2, 1} e σ(B) = {3, 5}. Le colonne di X sono date dalle relazioni (D − Bkk δ)Xk = Ek + Bkk+1 Xk+1 + . . . + Bkm Xm Calcoliamo E : E = N C − CM = = = e2t 0 2t 3(e − et ) et e3t 0 6 1 6 1 − 4 1 4 1 e5t − e3t e5t 6e2t e2t 2t t t 2t 18(e − e ) + 4e 3(e − et ) + et 6e3t + e5t − e3t e5t − 4e3t + e5t − e3t e5t −e5t − 5e3t + 6e2t e2t − e5t 2t t 3t 5t 2t 18e − 14e − 3e − e 3e − 2et − e5t Ora determiniamo le colonne di X : Per k = 2 si ha: (D − B22 δ)X2 = E2 e2t − e5t 5 0 2 0 X2 = − 0 5 3 1 3e2t − 2et − e5t e2t − e5t −3 0 X2 = 3 −4 3e2t − 2et − e5t −1 1 −4 0 −3 0 = 3 −4 12 −3 −3 1 X2 = 12 1 = 12 1 = 12 −4 0 −3 −3 e2t − e5t 2t 3e − 2et − e5t 4e5t − 4e2t −3e2t + 3e5t − 9e2t + 6et + 3e5t 4(e5t − e2t ) 6(e5t − 2e2t + et ) Per k = 1 si ha: (D − B11 δ)X1 = E1 + B12 X2 2t 5t 3t 6e − e − 5e 3 0 2 0 + 2 X1 = − 0 3 3 1 18e2t − 14et − 3e3t − e5t 1 2 70 1 5t 3 (e (e5t − − e2t ) 2e2t + et ) 6e2t − e5t − 5e3t + 23 (e5t − e2t ) −1 0 X1 = 3 −2 18e2t − 14et − 3e3t − e5t + e5t − 2e2t + et −1 0 3 −2 −1 1 = 2 −2 0 −3 −1 1 2 X1 = = Quindi etA =F = 16 2t 3 e − 13 e5t − 5e3t −2 0 −3 −1 16e2t − 13et − 3e3t 2 5t 2t 3t − 32 3 e + 3 e + 10e 1 2 −16e2t + e5t + 15e3t − 16e2t + 13et + 3e3t e3t 0 0 e5t − e3t e5t 0 1 5t 3e 1 5t 2t 3t − 16 3 e + 3 e + 5e −16e2t + 12 e5t + 9e3t + Esempio 13.12. Calcoliamo etA − 31 e2t e2t 1 5t 2e 13 t 2 e 1 3 per A = 4 3 con B= 1 0 4 5 2 0 ,C = ,D = . 3 1 3 7 1 2 Per calcolare M e N utilizziamo la proprosizione 8.5 poiché (B−δ)2 = 0 e (D − 2δ)2 = 0. Abbiamo quindi t e 0 0 0 1 0 tB t = M =e =e +t 3 0 3tet et 0 1 t 0 0 1 0 e 0 tD t N =e =e +t = tet et 1 0 0 1 Ora dobbiamo determinare X come soluzione dell’equazione di Sylvester DX − XB = E con E = N C − CM . X esiste ed è unica poichè σ(D) ∩ σ(B) = ∅, infatti σ(D) = {2} e σ(B) = {1}. 71 0 0 − e2t + 12 et 3e2t − 3et et 0 0 0 1 0 0 . 5 2 0 7 1 2 Osserviamo che A ∈ R44 (dunque n = 4) e prendiamo m = 2, quindi B, C, D, M, N, X ∈ R22 . Dunque M 0 B 0 ,F = A= X N C D 0 Le colonne di X sono date dalle relazioni (D − Bkk δ)Xk = Ek + Bkk+1 Xk+1 + . . . + Bkm Xm Calcoliamo E : E = N C − CM = = = et 0 tet et 4et 5et t t t 4te + 3e 5te + 7et −15tet 0 −17tet 5tet t 4 5 4 5 e 0 − 3 7 3 7 3tet et − 4et + 15tet 5et 3et + 21tet 7et Ora determiniamo le colonne di X : Per k = 2 si ha: (D − B22 δ)X2 = E2 2 0 1 0 0 − X2 = 1 2 0 1 5tet 1 0 0 X2 = 1 1 5tet 1 0 1 1 −1 1 0 =1 −1 1 X2 = 1 0 −1 1 0 5tet = 0 5tet Per k = 1 si ha (D − B11 δ)X1 = E1 + B12 X2 2 0 1 0 0 −15tet − +3 X1 = 1 2 0 1 −17tet 5tet 1 0 −15tet X1 = 1 1 −2tet −15tet 1 0 −15tet = X1 = 13tet −1 1 −2tet Quindi etA et 3tet =F = −15tet 13tet 0 0 et 0 0 et 0 0 0 5tet tet et 72 Osservazione 13.13. Una trattazione molto dettagliata dei problemi numerici che si presentano negli algoritmi che abbiamo esposto in questo capitolo si trova in Davies/Higham. Cfr. anche Koç e, per versioni parallele, Bakkaloǧlu/Erciyeş/Koç e Koç/Bakkaloǧlu. 73 14. La rappresentazione di Wronski-Vandermonde Situazione 14.1. Sia A ∈ Cnn . t ∈ R, talvolta una variabile. Denotiamo con D l’operazione di derivazione rispetto a t. g = (x − λ1 )m1 · · · (x − λs )ms = xm + b1 xm−1 + . . . + bm ∈ C[x] sia un polinomio con g(A) = 0, non necessariamente il polinomio minimale o il polinomio caratteristico di A. I valori λ1 , . . . , λs siano tutti distinti e naturalmente m1 , . . . , ms ≥ 1. Osserviamo che m = grado g = m1 + . . . + ms . Infine sia r ∈ N + 1. Nota 14.2. La relazione DetA = AetA implica g(D)etA = g(A)etA = 0. I coefficienti di etA sono quindi zeri dell’operatore differenziale g(D). Questa osservazione sta alla base di una rappresentazione molto esplicita di etA tramite l’inversa di una matrice (confluente) di Vandermonde. Seguiamo Harris/Fillmore/Smith e Luther/Rost. Definizione 14.3. Denotiamo con S lo spazio delle soluzioni dell’equazione differenziale dell’operatore g(D), per cui S = {y ∈ C m (R, C) | g(D)y = 0} = {y ∈ C m (R, C) | y (m) + b1 y (m−1) + . . . + bm y = 0} È noto che S è uno spazio vettoriale su C di dimensione m e che ogni v = (v1 , . . . , vm−1 ) ∈ Cm esiste un’unica soluzione y ∈ S che soddisfa le condizioni iniziali y(0) = v0 , y ′ (0) = v1 , . . . , y (m−1) (0) = vm−1 . Definizione 14.4. Siano y1 , . . . , yr ∈ C m (R, C). Allora per ogni t ∈ R possiamo formare la matrice y1 (t) ... yr (t) y1′ (t) ... yr′ (t) W [y; t] := Wm [y; t] = ... ... ... (m−1) (m−1) y1 (t) . . . yr (t) detta matrice Wroskiana del sistema y1 , . . . , yr . Nella letteratura questa matrice viene spesso considerata solo nel caso r = m; in tal caso la matrice è quadrata. Si noti che m è fissato e uguale al grado di g. Proposizione 14.5. Siano y1 , . . . , ym ∈ S . Allora sono equivalenti: (1) (2) (3) (4) y1 , . . . , ym è una base di S . Le funzioni y1 , . . . , ym sono linearmente indipendenti su C. W [y; t] è invertibile per ogni t ∈ R. W [y; 0] è invertibile. Dimostrazione. Corsi di analisi oppure ad esempio Amann, pag. 207, Knobloch/Kappel, pag. 28; per il caso reale Arnold, pagg. 210-212, Heuser, pagg. 249-253. 74 Corollario 14.6. Da quanto osservato nella definizione 14.3, per ogni matrice costante M ∈ Cm r esiste un unico sistema z1 , . . . , zr ∈ S tale che W [z; 0] = M . Questo sistema è una base di S se e solo se M è quadrata e invertibile. In particolare otteniamo una base χ1 , . . . , χm di S chiedendo che W [χ; 0] = δ. Questa base si chiama la base principale di S . Nota 14.7. Sia y1 , . . . , ym una base di S e z1 , . . . , zr ∈ S . Allora per ogni m X yi Tji con j = 1, . . . , r esiste una rappresentazione della forma zj = i=1 i coefficienti Tji ∈ C i quali insieme costituiscono una matrice T ∈ Cm r che ci permette di scrivere (z1 . . . zr ) = (y1 . . . ym )T . Derivando più volte questa equazione otteniamo z1 ... zr y1 . . . ym ′ z1′ ′ ... zr′ = y1 . . . ym T ... ... . . . . . . . . . . . . (m−1) (m−1) (m) m z1 . . . zr y1 . . . ym e quindi, per ogni t ∈ R, W [z; t] = W [y; t]T La matrice costante T si calcola da W [z; 0] = W [y; 0]T ovvero T = W [y; 0]−1 W [z; 0] cosicchè W [z; t] = W [y; t]W [y; 0]−1 W [z; 0]. Se anche z1 , . . . , zm è una base di S , possiamo scrivere W [z; t]W [z; 0]−1 = W [y; t]W [y; 0]−1 Questa matrice non dipende quindi dalla base y1 , . . . , ym ed è uguale a W [χ; t], dove come nel corollario 14.6, con χ denotiamo la base principale di S . Corollario 14.8. Siano z1 , . . . , zr ∈ S . Allora (z1 . . . zr ) = (χ1 . . . χm )W [z; 0]. Proposizione 14.9. Sia y1 , . . . , ym una base di S . Allora la base principale di S possiede la rappresentazione (χ1 . . . χm ) = (y1 . . . ym )W [y; 0]−1 Dimostrazione. Per la nota 14.7 abbiamo (χ1 . . . χm ) = (y1 . . . ym )T con T = W [y; 0]−1 W [χ; 0] = W [y; 0]−1 . Lemma 14.10. Siano z1 , . . . , zn i coefficienti della i-esima riga di etA . t Allora W [z; 0] è la matrice in cui, per ogni k = 1, . . . , m, la k-esima riga è uguale alla i-esima riga di Ak−1 . Se, per distinguerli dagli esponenti delle potenze, usiamo indici superiori {i} come indici di riga, abbiamo quindi 75 δ{i} A{i} 2 ){i} W [z; 0] = W [(etA ){i} ; 0] = (A t ... (Am−1 ){i} Dimostrazione. Per ipotesi le funzioni z1 , . . . , zn formano la i-esima riga di etA =: X . Però DX = AX e perciò Dk X = Ak X per t k = 0, . . . , m − 1. Inoltre X(0) = δ, e quindi D k X(0) = Ak . Considerando per ogni k solo la i-esima riga, otteniamo W [z; 0], e ciò mostra l’enunciato. 6 20 Esempio 14.11. Sia A = . Possiamo prendere −1 −3 g = PA = (x − 1)(x − 2). Per la nota 8.13 etA = −(A − 2δ)et + (A − δ)e2t = 5e2t − 4et 20(e2t − et ) =: X et − e2t 5et − 4e2t Con le notazioni del lemma 14.10 abbiamo allora 2t 5e − 4et 20(e2t − et ) {1} W [X ; t] = 10e2t − 4et 20(2e2t − et ) e quindi W [X {1} ; 0] = {1} 1 0 δ = 6 20 A{1} e similmente W [X {2} ; t] et − e2t 5et − 4e2t et − 2e2t 5et − 8e2t = = cosicché W [X {2} ; 0] {2} 0 1 δ = −1 −3 A{2} in accordo con il lemma 14.10. Teorema 14.12. etA = χ1 (t)δ + χ2 (t)A + χ3 (t)A2 + . . . + χm (t)Am−1 . Dimostrazione. Con le notazioni del lemma 14.10, ponendo sempre X := etA , consideriamo la i-esima riga di etA t X {i} = (χ1 . . . χm ) δ{i} A{i} ... (A(m−1) ){i} e ciò significa proprio che 76 {i} Xj {i} = (χ1 . . . χm ) {i} Aj ... {i} (A(m−1) )j per ogni j = 1, . . . , m, cioè {i} Xj {i} = χ1 δj δj {i} {i} + χ2 Aj + . . . + χm (Am−1 )j Siccome questa rappresentazione vale per ogni i, j , otteniamo l’enunciato. Osservazione 14.13. Per il teorema 14.12 per calcolare etA è sufficiente trovare una base y1 , . . . , ym ∈ S , da cui con la proposizione 14.9 troviamo la base principale che possiamo utilizzare per rappresentare etA come combinazione lineare di δ, A, A2 , . . . , Am−1 . Definizione 14.14. Per k = 1, . . . , s e j ∈ N sia ekj := tj eλk t . Possiat mo allora formare il vettore riga e∗ := (e1 , . . . , em ) in cui sono elencati, in questo ordine, le funzioni e10 , e11 , . . . , e1,m1 −1 , . . . , es0 , es1 , . . . , es,ms −1 L’asterisco serve solo per evitare la confusione con il numero e. e∗ si chiama la base esponenziale (o base esponenziale naturale) di S . Proposizione 14.15. e∗ è una base di S . Dimostrazione. Corsi di analisi oppure ad esempio Walter, pag. 137. L’enunciato può essere anche dedotto dal corollario 11.7. Definizione 14.16. Per z ∈ C e p ∈ N definiamo la potenza decrescente ( z(z − 1) · · · (z − p + 1) per p ≥ 1 z[p] := 1 per p = 0 Si noti che z[p] = 0 per z ∈ N e z < p. Lemma 14.17. Per k = 1, . . . , s ed l, j ∈ N vale Dl ekj (0) = l[j] λl−j = k dj λlk dλjk Dimostrazione. Induzione su j . j = 0: ek0 = eλk t e D l ek0 = λlk eλk t , per cui Dl ek0 (0) = λlk = l[0] λl−0 k . j → j + 1: ek,j+1 (t) = tekj (t). Per la regola di Leibniz abbiamo D l ek,j+1 (t) = tD l ekj (t)+lD l−1 ekj (t), per cui 77 ind. l−(j+1) Dl ek,j+1 (0) = lD l−1 ekj (0) = l(l − 1)[j] λkl−1−j = l[j+1] λk Osservazione 14.18. La Wronskiana nell’origine W [e∗ ; 0] si ottiene quindi concatenando verso destra le matrici 1 0 0 ... 0 λk 1 0 ... 0 2 λk 2λk 2 ... 0 λ3 3λ2k 6λk ... 0 k ... ... ... . . . . . . λkm−1 (m − 1)λkm−2 (m − 1)(m − 2)λkm−3 . . . . . . Per g = (x − λ)2 (x − µ)4 si ha ad esempio 1 0 1 0 0 λ 1 µ 1 0 λ2 2λ µ2 2µ 2 W [e∗ ; 0] = 3 λ 3λ2 µ3 3µ2 6µ 4 λ 4λ3 µ4 4µ3 12µ2 0 0 0 6 24µ λ5 5λ4 µ5 5µ4 20µ3 60µ2 Osservazione 14.19. Per la proposizione 14.9 abbiamo (χ1 · · · χm ) = (e1 · · · em )W [e∗ ; 0]−1 La rappresentazione di Wronski-Vandermonde riconduce quindi il calcolo di etA al calcolo della matrice W [e∗ ; 0]−1 . La complessità numerica dei più recenti algoritmi per il calcolo di questa inversa è discussa molto dettagliatamente in Luther/Rost. 0 1 0 0 1 mediante il Esempio 14.20. Calcoliamo etA per A = 0 12 −16 7 2 teorema 14.12. Prendiamo g := PA = (x − 2) (x − 3). Abbiamo allora 1 0 1 W [e∗ ; 0] = 2 1 3 4 4 9 e W [e∗ ; 0]−1 −3 4 −1 = −6 5 −1 4 −4 1 Per l’osservazione 14.19, con e1 (t) = e2t , e2 (t) = te2t , e3 (t) = e3t , abbiamo −3 4 −1 (χ1 χ2 χ3 ) = (e1 e2 e3 ) −6 5 −1 4 −4 1 78 χ1 (t) = −3e2t − 6te2t + 4e3t χ2 (t) = 4e2t + 5te2t − 4e3t χ3 (t) = −e2t − te2t + e3t Inoltre 0 0 1 A2 = 12 −16 7 84 −100 33 cosicché possiamo calcolare etA =χ1 δ + χ2 A + χ3 A2 1 0 0 =(−3e2t − 6te2t + 4e3t 0 1 0 + 0 0 1 0 1 0 0 1 + + (4e2t + 5te2t − 4e3t ) 0 12 −16 7 0 0 1 + (−e2t − te2t + e3t ) 12 −16 7 84 −100 33 −3e2t − 6te2t + 4e3t 4e2t + 5te2t − 4e3t −e2t − te2t + e3t = −12e2t − 12te2t + 12e3t 13e2t + 10te2t − 12e3t −3e2t − 2te2t + 3e3t 2t 2t 3t 2t 2t 3t 2t 2t 3t −36e − 24te + 36e 36e + 20te − 36e −8e − 4te + 9e in accordo con i conti in Harris/Fillmore/Smith, pagg. 699-700. Osservazione 14.21. Nelle applicazioni ingegneristiche gli aspetti numerici nel calcolo di etA sono spesso molto importanti; essi sono trattati ad esempio in Frommer/Simoncini, Higham [S], Moler/Van Loan. Un recente pacchetto di software per il calcolo dell’esponenziale matriciale (Expokit) è presentato, con una discussione dei problemi numerici in Sidje. Nella biomatematica la precisione numerica è spesso meno prioritaria ed è quasi sempre possibile utilizzare le formule esplicite che abbiamo discusso. 79 15. Metodi di Runge-Kutta Definizione 15.1. Data l’equazione differenziale autonoma ẋ = f (x) il metodo classico di Runge-Kutta del quart’ordine è dato da xn+1 = xn + h · ϕ(xn , h) con v0 = f (x) v1 = f (x + hv0 /2) v2 = f (x + hv1 /2) v3 = f (x + hv2 ) ϕ(x, h) = (v0 + 2v1 + 2v2 + v3 ) 6 Questo schema è valido in più dimensioni. Cfr. Heuser, pagg. 56 e 526. Nota 15.2. Definiamo in Python un classe vettore (di dimensione arbitraria) e un’unica funzione per la realizzazione dell’algoritmo di RungeKutta della definizione 15.1 . # matematica.py class vettore: def_init_(A,*u):A.coeff=map(float,u);A.n=len(u) def_add_(A,B): return vettore(*[x+y for x,y in zip(A.coeff,B.coeff)]) def_div_(A,t):return vettore(*[x/t for x in A.coeff]) def_mul_(A,t):return vettore(*[t*x for x in A.coeff]) def_rmul_(A,t):return A*t def stringa (A,v=2,m=2,f=None): return ’ ’.join(map(lambda i; A.stringacoeff(i,v,m,f),xrange(A.n))) def stringacoeff(A,i,v=2,m=2,f=None): y=A.coeff[i] if callable(f): y=f(y) return ’%*.*f’ %(v+m+1,m,y) # Passo singolo in Runge-Kutta per sistemi non autonomi. # *u e **par sono parametri addizionali di f. # Uso: x=Rungekutta(x,t,f,h,*u,**par) def Rungekutta2 (x,t,f,h,*u,**par): hd2=h/2; v0=f(x,t,*u,**par); v1=f(x+hd2*v0,t+hd2,*u,**par) v2=f(x+hd2*v1,t+hd2,*u,**par); v3=f(x+h*v2,t+h,*u,**par) return x+h*(v0+2*v1+2*v2+v3)/6 Esempio 15.3. Verifichiamo, in modo molto generico, la validit à del 33 124 metodo di Runge-Kutta nel calcolo di etA per A = . −8 −30 Nell’esempio 8.14 abbiamo calcolato 80 etA = = 32 124 31 124 e2t − et −8 −31 −8 −32 32e2t − 31et 124e2t − 124et −8e2t + 8et −31e2t + 32et 3 Con x = abbiamo etA x = 1 ! 220e2t − 217et 55e2t + 56et ! . Per confrontare i valori calcolati direttamente tramite questa formula per etA e i valori forniti dal metodo di Runge-Kutta per 0 ≤ t ≤ 4.75 utilizziamo la seguente funzione: # p1503.py import math from matematica import * def rk(): def f(x): (u,v)=x.coeff; return vettore(*[33*u+124*v,-8*u-30*v]) def etA(x,t): (u,v)=x.coeff; p=math.exp(2*t);q=math.exp(t) return vettore(*[220*p-217*q,-55*p+56*q]) x=vettore(*[3,1]);h=0.001;Y=[] for n in xrange(5001);Y.append(x);x=Rungekutta(x,f,h) for k in xrange(20): j=250*k;t=j*h;x=Y[j] (u,v)=x.coeff;(ue,ve)=etA(x,t).coeff print ’%.2f %14.4f%14.4f %14.4f%14.4f’ %(t,u,ue,v,ve) L’output mostra una perfetta concordanza di valori. t 0.00 0.25 0.50 0.75 1.00 1.25 1.50 1.75 2.00 2.25 2.50 2.75 3.00 3.25 3.50 3.75 4.00 4.25 4.50 4.75 3.0000 3.0000 1.0000 1.0000 84.0852 84.0852 -18.7742 -18.7742 240.2495 240.2495 -57.1771 -57.1771 526.5826 526.5826 -127.9409 -127.9409 1035.7252 1035.7252 -254.1743 -254.1743 1922.7442 1922.7442 -474.5780 -474.5780 3446.2916 3446.2916 -853.7299 -853.7299 6036.6507 6036.6507 -1499.0921 -1499.0921 10408.1678 10408.1678 -2589.1111 -2589.1111 17744.9302 17744.9302 -4419.6290 -4419.6290 30007.2938 30007.2938 -7480.5041 -7480.5041 50437.7740 50437.7740 -12582.0689 -12582.0689 84395.7731 84395.7731 -21063.7936 -21063.7936 140734.6555 140734.6555 -35138.5308 -35138.5308 234073.2418 234073.2418 -58460.3584 -58460.3584 388542.2564 388542.2564 -97061.1522 -97061.1522 643962.9586 643962.9586 -160895.1929 -160895.1929 1066036.2704 1066036.2704 -266386.3831 -266386.3831 1763144.7466 1763144.7466 -440628.6567 -440628.6567 2914058.1128 2914058.1128 -728312.2557 -728312.2557 Possiamo quindi, nelle sperimentazioni numeriche, usare il metodo di Runge-Kutta. Le formule esplicite per l’esponenziale matriciale sono invece importanti nella teoria, per la comprensione della struttura di un’equazione differenziale ordinaria lineare a coefficienti costanti e come fonte di esempi didattici. 81 III. FUNZIONI DI CRESCITA 16. La distribuzione esponenziale Definizione 16.1. Diciamo che una variabile casuale X possiede una distribuzione esponenziale, se la sua funzione di distribuzione è della forma: ( 1 − e−λt per t ≥ 0 p(X ≤ t) = 0 per t < 0 La densità di una tale distribuzione è data da ( λe−λt per t ≥ 0 0 per t < 0 t Situazione 16.2. Consideriamo una popolazione di cellule che crescono secondo la legge n(t) = n(0)e−λt con λ > 0. Sia m(t) il numero delle cellulle che muoiono entro un tempo minore di t. Allora n(t) + m(t) = n(0). Poniamo m(t) = 0 per n < 0, e quindi m(t) = n(0)(1 − e−λt ). m/n(0) è perciò una distribuzione esponenziale. Nota 16.3. Sia v := m′ . Allora m(t) = m(0) + Zt v(s) ds 0 per ogni t ≥ 0. D’altra parte m(0) = 0, perché n(t)+ m(t) = n(0), quindi m(t) = Zt v(s) ds 0 per ogni t ≥ 0 oppure, più in generale, Zt2 v(s) ds = m(t2 ) − m(t1 ) t1 per ogni 0 ≤ t1 ≤ t2 . L’integrale a sinistra è perciò uguale al numero delle cellule che muoiono nell’intervallo di tempo (t1 , t2 ]. Grazie alla continuità di m, possiamo anche usare l’intervallo chiuso [t1 , t2 ]. R t2 1 Possiamo, dunque, considerare n(0) t1 v(s) ds come la probabilità che una cellula muoia nell’intervallo [t1 , t2 ], cioè che la durata di vita di una cellula appartenga all’intervallo [t1 , t2 ]. Ciò implica che la media µ della distribuzione esponenziale può essere interpretata come la durata di vita media delle cellule della nostra popolazione. 82 Osservazione 16.4. La media µ= Z∞ te−λt dt = 1 λ 0 può essere calcolata con l’integrazione per parti oppure, in modo più elegante, riconducendoci alla funzione gamma; in questo modo possiamo, più in generale, calcolare prima i momenti M Xk = Z∞ tk λe−λt dt 0 di una variabile casuale con distribuzione esponenziale e poi calcolare µ = M X k . Infatti,Rse si opera una sostituzione ponendo λt = s e si ∞ ricorda che Γ(z) = 0 e−t tz−1 dt e che Γ(n + 1) = n!, si ottiene k MX = Z∞ e 1 λk Z∞ 0 = Z∞ k −s s e ds t λ dt = λ λ λ −λt k 0 sk e−s ds = Γ(k + 1) k! = k λk λ 0 1 . λ Possiamo anche trovare la varianza: e quindi, in particolare, µ = M X = σ 2 = M X 2 − (M X)2 = 2 1 1 − 2 = 2 2 λ λ λ Nota 16.5. La distribuzione esponenziale viene usata spesso per modellare il decadimento radioattivo, la caduta di meteoriti, gli incidenti aerei, gli intervalli nell’arrivo di clienti a uno sportello, la lunghezza di conversazioni telefoniche, la durata di vita di meccanismi la cui media di servizio non dipende dall’usura. Infatti la distribuzione esponenziale possiede una proprietà caratteristica, che non è posseduta da nessun’altra distribuzione probabilità : ossia non ha memoria. Questo fenomeno è spiegato ad esempio in Dall’Aglio, pagg. 83-84. Osservazione 16.6. Il tempo di dimezzamento logλ 2 può essere considerato come la mediana della distribuzione esponenziale. Osservazione 16.7. La mancanza di memoria, quando riferita alla durata di vita, può essere considerata naturale quando la morte di un individuo dipende da fattori esterni. Assumiamo, ad esempio, che una persona passeggi in una strada da alcune ore e che ora sopraggiunga un amico. La probabilità che nei prossimi 10 minuti un vaso cada da un balcone e colpisca la prima persona è uguale alla probabilità che colpisca l’amico appena arrivato. Nello stesso modo possiamo assumere che la morte di una cellulla sia causata da segnali presenti nel tessuto che possono raggiungere la cellula indipendentemente dalla sua età. 83 17. Dinamica della leucemia mieloide cronica Nota 17.1. Nonostante il successo dell’inibitore della tirosina chinasi ABL imatinib nella leucemia mieloide cronica (LMC), resta da capire se l’imatinib può sterminare le cellule staminali leucemiche e come avviene la ricaduta dovuta alla resistenza all’imatinib, causata da una mutazione nel dominio dell’ABL chinasi. In un approccio matematico, Michor e colleghi hanno trovato un modello compartimentale a quattro compartimenti, basato sulla conoscenza biologica della differenzazione emopoietica, che permette di spiegare la risposta alla cura con imatinib in 169 pazienti. Presentiamo in questo capitolo le idee salienti di questo modello. La LMC rappresenta il primo esempio di cancro umano nel quale una terapia fondata su bersagli molecolari ha trovato un successo clinico concreto e spesso drammatico. In molti pazienti però l’imatinib, nonostante porti al declino delle cellule leucemiche, non riesce ad eliminare completamente la malattia. Gli studi sul midollo osseo hanno mostrato che le cellule residue fanno parte del compartimento delle cellule leucemiche staminali, e ci si chiede se l’imatinib sia in grado di danneggiare la proliferazione delle cellule staminali leucemiche. Si osserva inoltre che in molti pazienti si sviluppa una resistenza, dovuta probabilmente a mutazioni nel dominio del chinasi ABL, responsabile circa del 80% dei casi in cui il trattamento fallisce. Certe volte, sembra invece che la resistenza sia presente già prima della terapia. Gli autori citati costruiscono un modello matematico che descrive i quattro livelli gerarchici della differenziazione nel sistema emopoietico: le cellule staminali danno luogo ai progenitori, da cui derivano cellule differenziate, le quali si trasformano a loro volta in cellule differenziate terminali. Questa gerarchia è valida sia per le cellule normali che per quelle leucemiche. Tra tutte, solo le cellule staminali leucemiche hanno una capacità infinita di autorinnovarsi. L’oncogene BCR-ABL è presente in tutte le cellule leucemiche; si osserva un’espansione lenta delle cellule staminali leucemiche e un’accelerazione della rata in cui esse producono progenitori e cellule differenziate. Osservazione 17.2. Una legge di crescita esponenziale si traduce in un grafico lineare, se l’ordinata è rappresentata in scala logaritmica. Consideriamo infatti di nuovo una popolazione descritta dalla legge n(t) = n(0)e−λt con λ > 0. 84 6 log 10 n(t) t Come nella figura usiamo il logaritmo in base 10 di n(t). Ponendo y(t) = log(n(t)) abbiamo y(t) = log10 n(0) − λt log10 e = y(0) − λt log10 e −λ log 10 Dati due valori y(t1 ) e y(t2 ) con t1 6= t2 possiamo calcolare λ da Il grafico è quindi una retta con pendenza −λ log10 e = λ= y(t1 ) − y(t2 ) y(t1 ) − y(t2 ) log 10 ≃ 2.3 t2 − t1 t2 − t1 Nota 17.3. Nella figura a pag. 1267 in Michor/Hughes/. . . /Nowak sono rappresentati i livelli di trascritti BCR-ABL (rilevati con PCR quantitativa in tempo reale) nel sangue di 5 pazienti a, b, c, d, e. I valori su scala logaritmica evidenziano due segmenti di retta che corrispondono alla seguente tabella che otteniamo tramite misurazione diretta sulla figura: y(0) a b c d e t1 y(t1 ) 1.8 90 −0.3 2.3 180 0.1 2.2 85 0 2.5 90 0.9 2.4 180 −0.3 t2 y(t2 ) 355 −0.8 360 −0.5 355 −0.65 360 0.1 360 −0.7 Con il metodo dell’osservazione 17.2 otteniamo il parametro λ = λ1 dal primo tratto lineare nel grafico del paziente a, con λ1 = 2.1 90 ·2.3 ≃ 0.054, 0.5 il parametro λ2 del secondo tratto con λ2 = 265 · 2.3 ≃ 0.004. Possiamo in questo modo calcolare λ1 e λ2 per tutti e cinque i parametri: λ1 λ2 (log 2)/λ1 a 0.054 0.004 b 0.028 0.0077 c 0.06 0.0055 d 0.04 0.0068 e 0.035 0.005 13 25 12 17 20 85 (log 2)/λ2 173 90 126 102 139 1/λ1 1/λ2 19 36 17 25 29 250 130 182 147 200 in buon accordo con i valori indicati nel lavoro. n(t) in questo caso può essere considerato una buona stima per il numero delle cellule leucemiche terminali durante un trattamento con imatinib. Nella terza e nella quarta colonna della seconda tabella sono indicalog2 ti i tempi di dimezzamento del tratto relativo al segmento lineare λ corrispondente a λ. Come si vede si ha nel primo tratto una rapida diminuzione delle cellule leucemiche terminali, mentre nel secondo tratto il tempo di dimezzamento si alza di molto e si ha quindi una forte riduzione dell’effetto della terapia. Alla stessa osservazione portano i valori medi 1/λ calcolati nelle ultime due colonne. Nell’interpretazione di Michor e colleghi e di Abbott/Michor, tenendo conto del fatto che le cellule leucemiche terminali hanno una durata di vita di solo un giorno, il primo segmento è determinato dalla vita media (sotto terapia con imatinib) delle cellule leucemiche differenziate, e il secondo della vita media dei progenitori leucemici. Le cellule leucemiche differenziate hanno una vita media di 1/0.05 = 20 giorni. Al raggiungimento della stabilità, il numero delle cellule differenziate leucemiche e il numero dei progenitori decrescono alla stessa velocità . 1 = 125 giorni. I progenitori invece hanno una vita media di 0.008 Nota 17.4. Quando la terapia con imatinib viene interrotta si osserva un rapido ripristino della proliferazione tumorale che ritorna ai livelli prima della terapia; ciò dimostra che l’imatinib non distrugge le cellule staminali leucemiche. Ciò è evidenziato dal seguente modello che si trova in Abbott/Michor e Michor/Hughes/. . . /Nowak. Consideriamo il sistema y˙0 y˙1 y˙2 y˙3 = 0.005y0 = αy0 − 0.008y1 = βy1 − 0.05y2 = 100y2 − y3 in cui y0 corrisponde al numero delle cellule leucemiche staminali, y1 alle cellule leucemiche progenitrici, y2 alle cellule leucemiche differenziate e y3 alle cellule leucemiche terminali. I parametri α e β cambiano a seconda che venga effettuata una terapia (con imatinib) o no. In presenza di terapia α = 0.016, β = 0.013, mentra in assenza di terapia si ha α = 1.6, β = 10. Usiamo i valori inziali y0 (0) = 105.4 , y1 (0) = 107.7 , y2 (0) = 1010 , y3 (0) = 1012 . Con una tecnica simile a quella usata nell’esempio 15.3 otteniamo prima i valori dei logaritmi in base 10 di y0 (t), y1 (t), y2 (t), y3 (t) per 0 ≤ t ≤ 5000 in presenza di terapia: 86 t y0 y1 y2 y3 0 20 40 60 80 100 120 140 160 180 200 220 240 260 280 300 320 340 360 380 400 420 440 460 480 5.400 5.443 5.487 5.530 5.574 5.617 5.661 5.704 5.747 5.791 5.834 5.878 5.921 5.965 6.008 6.051 6.095 6.138 6.182 6.225 6.269 6.312 6.355 6.399 6.442 7.700 7.631 7.563 7.495 7.427 7.360 7.293 7.227 7.162 7.099 7.037 6.978 6.921 6.867 6.817 6.771 6.731 6.697 6.669 6.648 6.635 6.629 6.630 6.637 6.651 10.000 9.567 9.134 8.705 8.281 7.871 7.488 7.155 6.892 6.705 6.576 6.483 6.409 6.346 6.289 6.238 6.192 6.151 6.116 6.089 6.068 6.054 6.048 6.048 6.056 12.000 11.589 11.156 10.727 10.303 9.892 9.507 9.170 8.904 8.712 8.581 8.487 8.412 8.349 8.292 8.240 8.194 8.153 8.118 8.090 8.068 8.054 8.048 8.048 8.055 Interrompiamo adesso la terapia dopo 400 giorni. Vediamo allora un rapido ripristino del numero delle cellule leucemiche: t y0 y1 y2 y3 0 20 40 60 80 100 120 140 160 180 200 220 240 260 280 300 320 340 360 380 400 420 440 460 480 5.400 5.443 5.487 5.530 5.574 5.617 5.661 5.704 5.747 5.791 5.834 5.878 5.921 5.965 6.008 6.051 6.095 6.138 6.182 6.225 6.269 6.312 6.355 6.399 6.442 7.700 7.631 7.563 7.495 7.427 7.360 7.293 7.227 7.162 7.099 7.037 6.978 6.921 6.867 6.817 6.771 6.731 6.697 6.669 6.648 6.635 7.789 8.065 8.230 8.348 10.000 9.567 9.134 8.705 8.281 7.871 7.488 7.155 6.892 6.705 6.576 6.483 6.409 6.346 6.289 6.238 6.192 6.151 6.116 6.089 6.068 9.680 10.133 10.374 10.532 12.000 11.589 11.156 10.727 10.303 9.892 9.507 9.170 8.904 8.712 8.581 8.487 8.412 8.349 8.292 8.240 8.194 8.153 8.118 8.090 8.068 11.645 12.117 12.364 12.525 87 18. Funzioni di crescita Nota 18.1. Consideriamo un’equazione differenziale in una dimensione della forma ẋ = m X λk Fk (ak1 x + bk1 , . . . , akmk x + bkmk ) k=1 Se effettuiamo trasformazioni affini della variabile indipendente t o della variabile dipendente x, otteniamo ancora un’equazione differenziale della stessa forma. Più precisamente: (1) Siano ε, θ ∈ R con ε 6= 0. Ponendo z(t) := x(εt + θ) abbiamo ż(t) = εẋ(εt + θ) m X = ελk Fk (ak1 x(εt + θ) + bk1 , . . . , akm x(εt + θ) + bkmk ) k=1 = m X ελk Fk (ak1 z(t) + bk1 , . . . , akm z(t) + bkmk ) k=1 (2) Siano α, β ∈ R con α 6= 0. Ponendo z := αx + β abbiamo ż = αẋ m X z−β z−β = αλk Fk (ak1 + bk1 , . . . , akm + bkmk ) α α = k=1 m X λ̃k Fk (ãk1 z + b̃k1 , . . . , ãkm z + b̃kmk ) k=1 con λ̃k = αλk ãkj = akj /α b̃kj = bkj − akj /α Esempio 18.2. Consideriamo un’equazione differenziale della forma ẋ = λf (ax + b) + µg(cx + d) Con z = αx + β con α, β ∈ R ed α 6= 0 abbiamo ż = αẋ = αλf (a z−β z−β ˜ + b) + αµg(c + d) = α̃f (ãz + b̃) + µ̃g(c̃z + d) α α con λ̃ = αλ ã = a/α b̃ = b − aβ/α µ̃ = αµ c̃ = c/α d˜ = d − cβ/α 88 Definizione 18.3. Generalizzando la situazione della nota 18.1 consideriamo una famiglia di equazioni differenziali della forma ẋ = G(x, a1 , . . . , as ) Per α, β, ε, θ ∈ R con α, ε 6= 0 poniamo z(t) := αx(εt + θ) + β . Allora z(t) − β ż(t) = αεẋ(εt+θ) = αεG(x(εt+θ), a1 , . . . , as ) = αεG , a1 , . . . , as α Diciamo perciò che la famiglia è invariante rispetto a trasformazioni affini se esistono applicazioni ϕ1 , . . . , ϕs tali che (nell’insieme sempre sottointeso dei parametri che vogliamo considerare) per ogni α, β, ε ∈ R con α, ε 6= 0 ed ogni z ∈ R si abbia = G(z, ϕ1 (a1 , . . . , as , α, β, ε), . . . , ϕs (a1 , . . . , as , α, β, ε)) , a , . . . , a αεG z−β 1 s α Si vede che il parametro θ non appare nella formula di trasformazione; possiamo perciò supporre θ = 0. Esempio 18.4. Come nell’esempio 18.2 sia G(x, λ, a, b, µ, c, d) = λf (ax + b) + µg(cx + d) Allora αεG z−β z−β z−β , λ, a, b, µ, c, d = αελf a + b + αεµg c +d α α α = G(z, αελ, a/α, b − aβ/α, αεµ, c/α, d − cβ/α) Proposizione 18.5. Siano a, b, k, x0 ∈ R con a, b > 0 e 0 < x0 − k < ea/b . Allora la soluzione dell’equazione di Gompertz ẋ = (x − k) · [a − b log(x − k)] è data da x(t) = k + ea/b+[log(x0 −k)−a/b]e −bt La soluzione per x(0) = x0 ammette come asintoto inferiore la retta x = k, come asintoto superiore la retta x = k + ea/b e possiede un flesso in t = 1b log( ab − log(x0 − k)). Il valore di x nel punto di flesso è uguale a k + ea/b−1 . Dimostrazione. Baiocato, pagg. 14-23. Osservazione 18.6. Consideriamo più in generale la famiglia di equazioni ẋ = (x − k1 ) · [a − b log(x − k2 )] con a, b, k1 , k2 ∈ R. Si tratta di un caso speciale della nota 18.1, quindi la famiglia deve essere invariante rispetto a trasformazioni affini. Calcoliamo più esplicitamente la formula di trasformazioni (per α > 0): 89 Con G(x, a, b, k1 , k2 ) = (x − k1 ) · [a − b log(x − k2 )] abbiamo z−β z−β z−β , a, b, k1 , k2 ) = αε · − k1 · a − b log − k2 αεG( α α α z−β 1 = αε · − k1 · a − b log − b log(z − β − αk2 ) α α = (z − β − k1 α) · ε · [a + b log α − b log(z − β − αk2 )] = G(z, εa + εb log α, εb, αk1 + β, αk2 + β) Osservazione 18.7. Per l’equazione di Gompertz dalla proposizione 18.5 con G(x, a, b, k) = (x − k) · [a − b log(x − k)] abbiamo in particolare αεG( z−β , a, b, k) = G(z, εa + εb log α, εb, αk + β) α Questa formula di trasformazione (per α > 0) può essere anche utilizzata per ricavare la soluzione dell’equazione indicata senza dimostrazione nella proposizione 18.5. Supponendo b 6= 0, possiamo infatti determinare α, β, ε in modo tale che εa + εb log α = 0 εb = 1 αk + β = 0 ponendo ε = 1/b, α = e−a/b , β = −kα cosicché l’equazione si riduce a ż = −z log z . Il parametro θ non interviene direttamente e può essere posto uguale a 0. L’equazione ż = −z log z può essere risolta con separazione delle variabili: dz = −dt z log z e quindi log log z(t) = −t + c da cui log z(t) = e−t+c e z(t) = ee −t+c . Tornando indietro troviamo facilmente la soluzione. Nota 18.8. Esaminiamo il comportamento rispetto a trasformazioni affini dell’equazione logistica 90 ẋ = a(x − k) − b(x − k)2 o, più in generale, dell’equazione ẋ = a(x − k1 ) − b(x − k2 )2 Con G(x, a, b, k1 , k2 ) = a(x − k1 ) − b(x − k2 )2 abbiamo 2 z−β z−β z−β αεG , a, b, k1 , k2 = αεa − k1 − αεb − k2 α α α b = εa(z − β − αk1 ) − ε (z − β − αk2 )2 α = G(z, εa, εb/α, αk1 + β, αk2 + β) Nel caso dell’equazione logistica possiamo porre G(x, a, b, k) = a(x − k) − b(x − k)2 con la legge di trasformazione z−β αεG , a, b, k = G(z, εa, εb/α, αk + β). α Si vede che l’equazione logistica non è invariante rispetto a trasformazioni affini se chiediamo k = 0. Ciò significa che nell’adattamento dei parametri di una curva logistica a una serie di dati bisogna variare non solo a e b, ma anche k. Per una discussione dell’equazione logistica si veda ad esempio Capelo, pagg. 39-58. Nota 18.9. L’equazione di Gompertz viene spesso utilizzata per modellare la crescita di tumori solidi (cfr. Wheldon, pagg. 66-78, De Vita/Hellman/Rosenberg, pag. 338). Tipicamente nella crescita di un tumore si osserva una relazione non lineare tra t e log x(t). Questo implica uno schema di crescita decelerato nel quale il tempo di raddoppio si allunga mentre il tumore aumenta in grandezza. Questo schema è consistente con la conoscenza biologica della crescita del tumore: infatti, i tumori più voluminosi contengono meno cellule capaci di dividersi rispetto ai tumori più piccoli. L’equazione di Gompertz può essere interpretata in diversi modi: uno è di immaginarla come la crescita di una popolazione con accrescimento esponenziale, la cui rata di crescita diminuisce però esponenzialmente con il tempo. In verità la rata specifica di crescita non dovrebbe essere una funzione del tempo ma dovrebbe dipendere da altre variabili biologiche e solo indirettamente dal tempo. Ciò porta a modelli però molto più difficili. Il limite asintotico N∞ deve essere pensato come un’astrazione matematica più che un’entità fisica significativa, quindi ogni valore di 91 N∞ potrebbe sembrare possibile. Nella pratica però si ottengono valori molti vicini per una specie data. Questa osservazione semplifica considerevolmente la modellizzazione dei tumori tramite la curva di Gompertz. Più dettagli si trovano nel libro di Wheldon. Quasi tutti i dati che i ricercatori hanno a disposizione si riferiscono alla fase osservabile di crescita e nonostante sia conveniente riferire i parametri di Gompertz a una singola cellula, da cui il tumore trae origine, questo non significa che il modello fornisca una descrizione della crescita del tumore nelle regioni dove i dati non sono accessibili. Potrebbe addirittura essere che la curva di Gompertz non fornisca un’accurata rappresentazione all’inizio del tumore. Considerazioni biologiche suggeriscono anche che una fase di rallentamento dovrebbe servire solo per tumori più voluminosi e ciò è confermato da testimonianze sperimentali provenienti dallo studio della relazione tra numero di cellule tumorali trapiantate in una cavia e il tempo del tumore per diventare visibili (periodo latente). La conseguenza di questi risultati è la crescita del tumore da più di una cellula deve essere considerata in due fasi: una prima fase di crescita esponenziale durante il periodo di incubazione e una seconda fase di Gompertz durante la fase osservabile. In un altro approccio, soprattutto nello studio del tasso di accrescimento del cancro al seno, si è cercato di introdurre una componente stocastica nel modello di Gompertz. Non è facile però utilizzare questi modelli complicati nella pratica clinica. Nota 18.10. Come già osservato, il modello di Gompertz è noto in particolare nella descrizione della crescita di tumori al seno. In questo caso da un lato il modello si adatta spesso molto bene, d’altra parte però in questi tumori si osservano frequentemente periodi piuttosto lunghi in cui la crescita sembra ferma e questo comportamento non può essere imitato dall’equazione di Gompertz. Critiche piuttosto consistenti del modello di Gompertz si trovano in alcuni lavori di Retsky (Retsky [L], Retsky [G]). Viene cosı̀ imputato al modello di Gompertz l’ambizione di voler essere una legge generale, confortata però da relativamente pochi esempi. Inoltre, la crescita dei tumoti è eterogenea, quindi si dovrebbe poter disporre di una famiglia di funzioni con parametri flessibili. Non raramente si osserva inoltre uno stato temporaneo di quiete, possibilità non contemplata dal modello di Gompertz. Il modello è stato invece proposto e difeso da Larry Norton (cfr. Norton, Schmidt). In un lavoro più recente, Norton ha cercato di giustificare il modello di Gompertz, basandosi su concetti della geometria frattale, che secondo questo autore governa le irregolarità dei tessuti tumorali. Per la descrizione dei tessuti tumorali bisogna utilizzare equazioni in più dimensioni oppure, ad esempio per tenere conto dell’angiogenesi tumorale, equazioni differenziali parziali. 92 Si cfr. la breve discussione in Wodarz/Komarova, pagg. 182-184. Nota 18.11. Un’interessante famiglia di equazioni non autonome che 1 contengono termini della forma viene proposta in Tabatabai/ 1 + t2 Williams/Bursac. Elenchiamo brevemente alcuni di questi modelli. Modello A: 1 θ ẋ = x(M − x) M β + √ M 1 + t2 con β un parametro che rappresenta la rata di crescita, θ un parametro e M costante che rappresenta la capacità massima di popolazione. La soluzione è x(t) = M 1+ M − x0 (M βt0 +θ arsinh t0 ) e x0 con α = αe(−M βt−θ arsinh t) Modello B: ẋ = αβγx2 tγ−1 tanh M −x αx con β, γ parametri e γ > 0. La soluzione è x(t) = M 1 + α arsinh(e−M βtγ ) con α = M − x0 γ x0 arsinh(e−M βt0 ) Modello C: ẋ = (M − x) βγtγ−1 θ +√ 1 + θ 2 t2 con β, γ, θ parametri. La soluzione è γ x(t) = M − αe−βt −arsinh(θt) con α = (M − x0 )eβt0 γ+arsinh(θt0 ) A e B hanno un parametro in più del modello logistico e di Gompertz, ma il primo è più flessibile; mentre C ha la stessa flessibilità di A ma presenta un parametro in più. Osservazione 18.12. Una buona discussione delle difficoltà che si presentano nella modellizzazione della crescita tumorale si trova nel lavoro di Bajzer/Marusic/Vuk, in cui gli autori osservano tra l’altro che spesso i modelli basati su considerazioni teoriche biologiche corrispondono poco ai dati sperimentali. Osservazione 18.13. Una delle ragioni per la popolarità del modello di Gompertz (e forse la ragione perché, nonostante le critiche, spesso corrisponde bene alla realtà) è che, se alla rata di crescita ẋ/(x − k) sottraiamo una costante c, ad esempio relativa all’effetto di una terapia, l’equazione differenziale che si ottiene è sempre un’equazione 93 di Gompertz. Infatti invece di ẋ = (x − k)[a − b log(x − k)] abbiamo semplicemente ẋ = (x − k)[a − c − b log(x − k)]. Questa osservazione, naturalmente ovvia, può essere utilizzata per calibrare una chemioterapia tramite un modello di Gompertz; cfr. Wheldon, pagg. 166-167. Nota 18.14. Un’altra sorprendente proprietà dell’equazione di Gompertz (che in realtà però, come vedremo, vale in un contesto molto più generale) è che mediante sottrazione di un termine c − dt dalla rata di crescita si ottiene una soluzione esponenziale. Questa proprietà è nota come legge di Norton e Simon. Assumiamo che senza terapia il tumore sia descritto dall’equazione di Gompertz ẋ = (x − k) · [a − b log(x − k)] Per ogni p, w ∈ R possiamo allora trovare costanti c, d in modo tale che x(t) = k + pe−wt sia una soluzione dell’equazione modificata ẋ = (x − k) · [a − b log(x − k) − c − dt] Naturalmente allora x(0) = k + p. Abbiamo infatti ẋ = −wpe−wt = −w(x − k) log(x − k) = log p − wt Deve quindi valere (x − k)[a − b log p + bwt − c − dt] = −w(x − k) da cui c = a − b log p + w d = bw Si noti che per p = 1 si ha c = a + w e d = bw. Esempio 18.15. La crescita senza terapia sia descritta dall’equazione ẋ = (x − 1) · [1 − 0.2 log(x − 1)] Dalla nota 18.14, vogliamo determinare c e d in modo tale che x = 1 + e−t/2 sia soluzione dell’equazione modificata ẋ = (x − 1) · [1 − 0.2 log(x − 1) − c − dt] Osservando che allora p = 1, w = 0.5, dobbiamo porre c = a − b log p + w = 1 − 0.2 + 0.5 = 1.3 e d = 0.2 · 0.5 = 1. Come si verifica facilmente le funzioni x(t) = 1 + e−t/2 soddisfa effettivamente l’equazione 94 ẋ = (x − 1) · [1 − 0.2 log(x − 1) − 1.3 − 0.1t], cioè ẋ = (x − 1) · [−0.3 − 0.2 log(x − 1) − 0.1t] Osservazione 18.16. È immediato che nella nota 18.14 la forma dell’equazione modificata è invariante rispetto a trasformazioni affini. Ponendo G(x, t, a, b, k, c, d) = (x − k)[a − b log(x − k) − c − dt] e z(t) = αx(εt + θ) + β, s = εt + θ con α > 0 ed ε 6= 0, abbiamo infatti z−β z−β ż(t) = αẋ(s)ε = αε − k a − b log − k − c − ds α α = (z − β − kα)[εa − εb log α − b log(z − β − kα) − εc − εd(εt + θ)] = G(z(t), t, εa + εb log α, εb, αk + β, εc + εdθ, ε2 d) In verità per la differenza a − c si potrebbe usare un unico parametro. Nota 18.17. L’idea della nota 18.14 può essere generalizzata nel modo seguente. Siano I un intervallo aperto di R, ψ : I → R un’applicazione ed x una soluzione dell’equazione differenziale ẋ = ψ(t) · [x(t) − k] per una costante k. Sia r un’altra funzione definita sull’insieme dei valori di x e ϕ(t) := r(x(t) − k) − ψ(t) per ogni t ∈ I . Allora x è soluzione dell’equazione differenziale ẋ = (x(t) − k) · [r(x(t) − k) − ϕ(t)] che in forma abbreviata può essere scritta come ẋ = (x − k) · [r(x − k) − ϕ(t)] Chiamiamo ϕ(t) la funzione di terapia del contesto considerato. Matematicamente ciò è del tutto ovvio (si tratta semplicemente di una decomposizione a = a − b + b), ma nella pratica questa osservazione permette di descrivere un compito di modellizzazione di crescita tumorale e terapia in due fasi: (1) In un primo momento troviamo un’equazione differenziale ż = z · r(z) che descrive la crescita senza terapia. (2) Poi cerchiamo una funzione ragionevole x = x(t) che dovrebbe descrivere la crescita del tumore sotto terapia, cercando x in modo che soddisfi un’equazione ẋ(t) = ψ(t)x(t). (3) ϕ(t) = r(x(t)) − ψ(t) descrive allora l’effetto che la terapia deve realizzare. Osservazione 18.18. Risolviamo il problema dell’esempio 18.15 con la tecnica della nota 18.17. La crescita senza terapia è descritta dall’equazione ż = z · (1 − 0.2 log z) e vogliamo ottenere x(t) = pe−wt come crescita sotto terapia. Abbiamo 95 ẋ(t) = −pwe−wt = −wx, quindi ψ(t) = −w, perciò ϕ(t) = 1 − 0.2 log(x(t)) + w = 1 + w − 0.2(wt − log p). Esempio 18.19. La crescita senza terapia sia descritta dall’equazione ż = z · (1 − 0.2 log z). (1) x(t) = te−wt sia la crescita sotto terapia che vogliamo ottenere. Abbiamo 1 −wt −wt ẋ(t) = e − wte = −w x t cosicché possiamo applicare la nota 18.17 con 1 ψ(t) = − w t Poniamo perciò t−1 1 + w + 0.2(wt − log t). ϕ(t) = 1 − 0.2 log(x(t)) − + w = t t (2) Se invece x(t) = (1 + t)e−wt è la crescita sotto terapia che vogliamo ottenere, abbiamo 1 −wt −wt ẋ(t) = e − w(1 + t)e = − w x, cosicché possiamo 1+t applicare la nota 18.17 con 1 ψ(t) = −w 1+t Poniamo perciò 1 t ϕ(t) = 1−0.2 log(x(t))− +w = +w+0.2(wt−log(1+t)). 1+t 1+t Esempio 18.20. La crescita senza terapia sia descritta dall’equazione ż = z · (1 − tanh z). Assumiamo che vogliamo ottenere che sotto terapia la crescita sia x(t) = e−wt . Abbiamo r(z) = 1 − tanh z e ẋ(t) = −we−wt = −wx(t), cosicché con ψ(t) = −w poniamo ϕ(t) = 1 − tanh e−wt + w. Osservazione 18.21. La chemioterapia antitumorale è spesso molto gravosa per il paziente. Ciò implica tra l’altro che il corpo necessita, in alcuni regimi, di periodi di riposo tra un trattamento e l’altro. Queste pause favoriscono anche le cellule tumorali e quindi il medico può chiedersi se non sia possibile sostituire la terapia intensiva con lunghe interruzioni con una terapia continua meno impegnativa. Riportiamo da Norton [T], pagg. 371 e 374: ”Questo modello concettuale suggerı̀ che si potrebbe avere una chemioterapia più efficiente aumentando la dose, ad esempio somministrando il trattamento più spesso . . . . L’idea è che minimizzando la ricrescita del cancro nei periodi senza trattamento, si potrebbe riuscire ad aumentare 96 la distribuzione di cellule tumorali realizzando cosı̀ un benefico terapeutico maggiore. Ciò è stato dimostrato in modelli sperimentali e, da Gianni Bonadonna e coll., anche per tumori umani al seno. Lo studio del modello di Gompertz ha cosı̀ portato a una migliore chemioterapia.” Osservazione 18.22. Lo stesso procedimento della nota 18.17 si può usare anche nel caso di un’equazione non autonoma ż = z · r(z, t). Data una soluzione x di ẋ = ψ(t)x è sufficiente porre ϕ(t) := r(x(t), t) − ψ(t) affinché x diventi soluzione anche di ẋ = z · [r(z, t) − ϕ(t)]. Equazioni della forma ẋ = x · f (x, t) sono talvolta dette equazioni di Kolmogorov. Quando non sono autonome, esse descrivono la crescita di una popolzione in un ambiente che varia nel tempo; cfr. Redheffer/Vance. Osservazione 18.23. Un’esposizione molto utile delle più importanti funzioni di crescita e dei loro grafici si trova nell’articolo di Tsoularis, da cui riprendiamo alcuni dei prossimi esempi. Nota 18.24. L’equazione di Turner: x β γ β(1−γ) ẋ = x · ax · 1− v per a, β, γ, v > 0 e γ < 1 + 1 β. Essa per β = γ = 1 si riconduce x . all’equazione logistica ẋ = x · a 1 − v Esempio 18.25. Blumberg ha proposto l’equazione di crescita x γ ẋ = x · axα 1 − v per a, α, v, γ > 0. Questa equazione si riduce all’equazione logistica per α = 0, γ = 1. L’equazione di Blumberg ammette una soluzione esplicita solo per alcuni valori dei parametri. Esempio 18.26. Anche l’equazione di Richards è molto simile all’equazione logistica: x β ẋ = x · a 1 − v Essa ammette soluzione esplicita v x(t) = 1 − e−βat x(0) 1− v −β !1/β 97 Esempio 18.27. L’equazione generalizzata di Gompertz ha la forma γ ẋ = x · a log xv per γ, v > 0. Osservazione 18.28. Come nella nota 18.17 siano I un intervallo aperto di R e ψ : I → R un’applicazione. ψ sia continua. Allora le soluzioni dell’equazione differenziale ẋ = ψ(t)x(t) sono esattamente le funzioni delle forma Rt ψ(s) ds x = aet0 t con a ∈ R e t0 ∈ I ; la funzione indicata è l’unica soluzione se si pone la condizione iniziale x(t0 ) = a. Ciò è ben noto e si dimostra facilmente con la tecnica di separazione delle variabili; cfr. Heuser, pag. 60. Nota 18.29. Se nell’osservazione 18.28 poniamo Rt g(t) := ψ(s) ds, abbiamo ġ(t) = ψ(t) e x(t) = aeg(t) . t0 Se viceversa x è una funzione che vogliamo utilizzare come funzione di crescita, possiamo assumere che x(t) > 0 per ogni t ∈ I e quindi possiamo porre x(t) = elog x(t) . Siccome si assume che x sia differenziabile, anche la funzione g := log x(t) è differenziabile. Abbiamo t ancora x(t) = eg(t) e quindi ẋ(t) = ġ(t)eg(t) = ġ(t)x(t). Ciò mostra che la tecnica della nota 18.17 è del tutto generale e può in pratica essere applicata a tutte le funzioni di crescita. Osserviamo infine che la funzione x(t) = k+aeg(t) soddisfa l’equazione differenziale ẋ = ġ(t)·(x−k). La funzione di terapia ha quindi la forma ϕ(t) = r(aeg(t) ) − ġ(t). Esempio 18.30. La crescita di un tumore senza terapia (o sotto una terapia coadiuvante) sia descritta da un’equazione ẋ = x · r(x). Assumiamo che vogliamo ottenere che sotto la terapia la crescita sia −1 −1 1 . Allora ẋ(t) = x(t), cosicché la funzione di = x(t) = 2 1+t (1 + t) 1+t 1 1 . terapia nella nota 18.17 deve avere la forma ϕ(t) = r + 1+t 1+t 2+t (1) Sia ad esempio r(x) = 1 − log(x). Allora ϕ(t) = log(1 + t) + . 1+t L’aumento di terapia richiesto secondo il modello di Norton-Simon è quindi relativamente modesto e forse tollerabile, soprattutto se modifichiamo le equazioni tramite parametri adatti. (2) Sia r(x) = 1 − x (equazione logistica). Allora ϕ(t) = 1 − 1 1 + = 1. 1+t 1+t 98 Nota 18.31. I due modelli matematici più popolari per la crescita di tumori sono il modello logistico e il modello di Gompertz, su i quali esistono molti nuovi lavori (oltre ai lavori di Norton già citati ad esempio Spratt/ . . . /Weber e Cooke/Witten). Come finora studiamo modelli della forma ẋ = f (x) e analizziamo le funzioni f in dipendenza dei parametri in esse contenuti. Alcuni dei modelli che presentiamo sono forse nuovi, almeno nel contesto biomatematico. I grafici che seguono si riferiscono a modelli della forma ẋ = f (x, b) con b = 0.2, 0.5, 0.8 per t ∈ [0, 4]. L’inserto piccolo in alto a sinistra rappresenta ogni volta le funzioni f (x), la figura più grande è il grafico delle soluzioni x(t). x t Quando vogliamo adattare queste funzioni a dati concreti, dobbiamo naturalmente tener conto delle proprietà di invarianza discussa all’inizio del capitolo. b = 0.2 b = 0.5 ẋ = x̃ · (1 − bx̃) x̃ = x/b ẋ = x̃ · (1 − b log(x̃)) x̃ = xe1/b ẋ = x̃ · (1 − b arsinh x̃) x̃ = x sinh(1/b) 99 b = 0.8 b = 0.2 b = 0.5 b = 0.8 ẋ = arsinh x̃ · (1 − bx̃) x̃ = x/b ẋ = arsinh x̃ · (1 − b log(x̃)) x̃ = xe1/b ẋ = g(x) artanh x 1.8 + b2 + (artanh x + 0.9)2 /b2 2 g(x) = e − Nei tumori in vitro si osserva spesso all’inizio una crescita esponenziale; in vivo invece l’accrescimento è in molti casi all’inizio molto lento, perché il tessuto riesce a controllare il nido tumorale. La seconda delle ultime tre figure mostra come si può modellare questo tipo di crescita. b = 0.2 b = 0.5 ẋ = 3x(1 − x)5 + 16bx2 (1 − x)2 100 b = 0.8 b = 0.2 b = 0.5 ẋ = 3x5 (1 − x) + 16bx2 (1 − x)2 √ ẋ = 10x5 (1 − x) + (3.5 + 7b) x(1 − x)9 ẋ = e−b−x̃ · e−e x̃ = artanh(2x − 1) −b−x̃ ẋ = 1 1 + (artanh(2x − 1) + 1 − b)2 ẋ = 1 1 + 4(artanh(2x − 1) − 1 + b)2 101 b = 0.8 b = 0.2 b = 0.5 ẋ = sin2 (4πx) + 1.5bx(1 − x) 102 b = 0.8 19. Differenziazione numerica Nota 19.1. Il problema della differenziazione numerica è difficile e in un certo senso non risolubile nel caso generale. Consideriamo ad esempio, per n ∈ N + 1, le funzioni g := x ed x 1 f := x + sin n2 x. Per n grande, le due funzioni sono quasi indin x stinguibili (e lo diventano quindi numericamente se abbiamo a disposizione solo valori approssimati), ma la prima ha dappertutto derivata uguale a 1, mentre f ′ (x) = 1+ n cos(n2 x) assume valori altissimi vicino ad ogni x. A ciò si aggiungono problemi di instabilità numerica per i quali rimandiamo alla letteratura, ad es. Heath, pagg. 365-368, Quarteroni/Sacco/Saleri, pagg. 121-129, Stoer, pagg. 122-126, Ross, pagg. 119122, Hanke/Scherzer e Groetsch. Osservazione 19.2. Per punti d’appoggio equidistanti xk = kh una delle formule più popolari è data da yk′ = yk−2 − 8yk−1 + 8yk+1 − yk+2 12h (cfr. Bronstein/Semendjajev, pag. 768). Osservazione 19.3. Se da un lato nello studio delle curve di crescita biologiche le esigenze numeriche sono notevolmente minori di quanto accada che in problemi tecnici, si hanno invece raramente punti d’appoggio equidistanti. Si usa spesso, come faremo noi, un polinomio di interpolazione (nel d’intorno di ogni punto) e si sceglie come approssimazione della derivata la derivata di quel polinomio. Nota 19.4. Per m ∈ N + 2 siano dati m coppie (ξ1 , η1 ), . . . , (ξm , ηm ) di numeri reali con le ascisse ξj tutte distinte. Introduciamo le seguenti notazioni: (1) I := {1, . . . , m}, ∂i I := I \ {i}, ∂ij I := I \ {i, j} per i, j ∈ I . Y Y (2) Per x ∈ R siano Pi (x) := (x − ξj ), Pij := (x − ξk ). j∈∂i I k∈∂ij I Il polinomio di interpolazione di Lagrange L per il quale L(ξi ) = ηi per ogni i ∈ I può allora essere scritto nella forma L(x) = X ηi i∈I Pi (x) Pi (ξi ) ed ha derivata L′ (x) = X i∈I ηi Pi′ (x) Pi (ξi ) Adesso Pi (x) = (x − ξ1 ) . . . (x\ − ξi ) . . . (x − ξm ) e quindi 103 Pi′ (x) = X Y (x − ξk ) = j∈∂i I k∈∂ij I X Pij (x) j∈∂i I cosicché L′ (x) = X i∈I ηi X Pij (x) Pi (ξi ) j∈∂i I Nota 19.5. Per n ∈ N+3 siano adesso date n+1 coppie (x0 , y0 ), . . . , (xn , yn ) di numeri reali con x0 < x1 < . . . < xn . Sia k ∈ {0, . . . , n}. (1) Consideriamo prima il caso che 0 ≤ k − 2 e k + 2 ≤ n. Allora per (ξ1 , η1 ) := (xk−2 , yk−2), . . . , (ξ5 , η5 ) := (xk+2 , yk+2 ) calcoliamo yk′ := L′ (xk ) con il metodo della nota 19.4. (2) Per k = 1 usiamo (ξ1 , η1 ) := (x0 , y0 ), . . . , (ξ4 , η4 ) := (x3 , y3 ) e poniamo y1′ := L′ (x1 ). (3) Per k = 0 usiamo (ξ1 , η1 ) := (x0 , y0 ), (ξ2 , η2 ) := (x1 , y1 ) e (ξ3 , η3 ) := (x2 , y2 ) e poniamo y0′ := L′ (x0 ). ′ ed yn′ . In modo analogo calcoliamo yn−1 Osservazione 19.6. Nella situazione della nota 19.5 possiamo adesso usare la differenziazione numerica per un’interpolazione localizzata dei dati. Calcoliamo prima gli yk′ . Poi per ogni coppia di punti con ascisse adiacenti troviamo il polinomio di interpolazione di Hermite hk per le condizioni hk (xk ) = yk h′k (xk ) = yk′ hk (xk+1 ) = yk+1 ′ h′k (xk+1 ) = yk+1 e interpoliamo la curva nell’intervallo [xk , xk+1 ] con hk . Con lo schema alle differenze della nota 10.21 e posto θ := v := yk+1 − yk si trova 1 , xk+1 − xk hk =yk + yk′ (x − xk ) + (vθ − yk′ )θ(x − xk )2 ′ − 2vθ + yk′ )θ 2 (x − xk )2 (x − xk+1 ) + (yk+1 dove θ e v naturalmente dipendono da k. Lo schema alle differenze diventa infatti xk : (yk , yk′ ) yk ′ ) xk+1 : (yk+1 , yk+1 [xk ] yk′ yk [xk , xk+1 ] (vθ − yk′ )θ [xk , xk+1 ] vθ [xk , xk+1 ] 104 ′ − 2vθ + yk′ )θ 2 (yk+1 yk+1 [xk , xk+1 ] [xk+1 ] ′ yk+1 ′ (yk+1 − vθ)θ yk+1 Nota 19.7. Siano adesso dati punti xk = x(tk ) di una curva di crescita con t0 < t1 < . . . < tn . Anche gli xk siano tutti distinti (affinchè l’algoritmo dia buoni risultati numerici, si presuppone che x0 < . . . < xn , come accade normalmente in una curva di crescita). (1) Calcoliamo le derivate numeriche x˙k , trovando cosı̀ la curva di interpolazione F con F (tk ) = xk . (2) Nella nostra ipotesi possiamo però anche calcolare i tk come funzioni degli xk e considerare quindi anche x˙k come funzioni di xk . Con il metodo dell’osservazione 19.7 la curva d’interpolazione f di questi dati soddisfa quindi (numericamente) ẋ(t) ≃ f (x(t)). In questo modo abbiamo ottenuto due funzioni F ed f con x(t) ≃ F (t) ed ẋ(t) ≃ f (x(t)) per ogni t. Osservazione 19.8. Per poter confrontare le curve in modo migliore, le ascisse nella nota 19.7 verranno normalizzate a [0, 4], le ordinate a [0, 1]. Esempio 19.9. Denotiamo qui con lt la lista dei valori dati di t, con lx la lista dei valori di x. con lt = [0, 0.3, 1, 1.5, 2.1, 2.9, 3.3, 4] lx = [0.1, 0.3, 0.5, 0.6, 0.65, 0.7, 0.86, 1] con 105 lt = [1, 2.2, 2.8, 3, 3.6, 4.5, 6.5, 7.1, 7.6, 9, 10] lx = [0.5, 2.5, 4, 4.3, 4.6, 5.4, 5.7, 6, 6.4, 6.8, 7] Osservazione 19.10. Si possono immaginare due tipi di applicazioni alle funzioni di terapia: (1) Il medico propone una terapia e il matematico può verificarne l’effetto: calcoliamo f come nella nota 19.7, poi con Runge-Kutta risolviamo l’equazione differenziale f (z(t)) − ϕ(t) = f (z(t)) − z(t)ϕ(t) ż = z(t) · z(t) (2) Sia viceversa data ψ , allora poniamo ϕ(t) = f (x(t)) − ψ(t). x(t) La nostra tecnica permette di studiare anche il caso che la terapia inizia in t1 ; ciò potrebbe essere molto interessante. Osservazione 19.11. Spesso per un singolo paziente è difficile ottenere molti dati; assumiamo di avere invece 200 pazienti con pochi dati per ogni singolo paziente. Per eliminare i dati estremi, calcoliamo pri max(x) − min(x) ed eliminiamo i 10 parametri con ma le oscillazioni max(t) − min(t) le oscillazioni maggiori e i 10 con le oscillazioni minori. Dagli altri con x0 + . . . + xs il metodo della media slittante x̃0 = , 6 xk−5 + . . . + xk + . . . + xk+5 x0 + . . . + x 6 x̃1 = , . . . , x̃k = , . . . otteniamo 7 11 una serie di dati che spesso soddisfa le condizioni nella nota 19.7. Esempio 19.12. Nelle figure seguenti la linea a tratti denota la crescita tumorale senza terapia, la linea solida più spessa la crescita in seguito a terapia; la linea solida sottile la funzione di terapia. 106 107 Bibliografia Parte matematica M. Abramowitz/I. Stegun (ed.): Handbook of mathematical functions. Dover 1972. H. Amann: Gewöhnliche Differentialgleichungen. De Gruyter 1983. T. Apostol: Some explicit formulas for the exponential matrix etA . Am. Math. Monthly 76/3 (1969), 289-292. G. Andrews/R. Askey/R. Roy: Special functions. Cambridge UP 2000. V. Arnold: Equazioni differenziali ordinarie. Mir 1979. H. Attaya: Radioactivity computation of steady-state and pulsed fusion reactors operation. 3rd Int. Symp. Fusion Nuclear Techn. 1994. B. Bakkaloǧlu/K. Erciyeş/C. Koç: A parallelization of Parlett’s algorithm for functions of triangular matrices. Par. Algor. Appl. 11 (1997), 61-69. R. Bartels/G. Stewart: Solution of the matrix equation AX + XB = C . Comm. ACM 15/9 (1972), 820-826. R. Ben Taher/M. Rachidi: Linear recurrence relations in the algebra of matrices and applications. Lin. Algebra Appl. 330 (2001), 15-24. R. Ben Taher/M. Rachidi: Some explicit formulas for the polynomial decomposition of the matrix exponential and applications. Lin. Alg. Appl. 350 (2002), 171-184. F. Bowman: Introduction to Bessel functions. Dover 1958. I. Bronstein/K. Semendjajev: Taschenbuch der Mathematik I. Deutsch 1987. H. Cheng/S. Yau: More explicit formulas for the matrix exponential. Lin. Alg. Appl. 262 (1997), 131-163. C. Cullen: Matrices and linear transformations. Dover 1990. G. Dall’Aglio: Calcolo delle probabilità. Zanichelli 1987. P. Davies/N. Higham: A Schur-Parlett algorithm for computing matrix functions. SIAM J. Matrix An. Appl. 25/2 (2003), 464-485. P. Deuflhard/A. Hohmann: Numerische Mathematik 1. De Gruyter 2002. N. Dunford/J. Schwartz: Linear operators I. Wiley 1988. S. Elaydi: An introduction to difference equations. Springer 2005. W. Forst/D. Hoffmann: Gewöhnliche Differentialgleichungen. Springer 2005. A. Frommer/V. Simoncini: Matrix functions. Internet 2006, 25p. F. Gantmacher: Matrizentheorie. Springer 1986. J. Gathen/J. Gerhard: Modern computer algebra. Cambridge UP 2003. G. Golub/C. Van Loan: Matrix computations. Johns Hopkins UP 1983. I. Gradshteyn/I. Ryzhik: Table of integrals, series, and products. Academic Press 2000. R. Graham/D. Knuth/O. Patashnik: Concrete mathematics. Addison-Wesley 1994. C. Groetsch: Differentiation of approximately specified functions. Am. Math. Monthly 98 (1991), 847-850. H. Halder/W. Heise: Einführung in die Kombinatorik. Hanser 1976. M. Hanke/O. Scherzer: Inverse problems light - numerical differentiation. Am. Math. Monthly 108/6 (2001), 512-521. 108 W. Harris/J. Fillmore/D. Smith: Matrix exponentials - another approach. SIAM Rev. 43/4 (2001), 694-706. M. Heath: Scientific computing. McGraw-Hill 2002. H. Heuser: Gewöhnliche Differentialgleichungen. Teubner 1989. N. Higham [S]: The scaling and squaring method for the matrix exponential revisited. SIAM J. Matrix An. Appl. 26/4 (2005), 1179-1193. N. Higham [F]: Functions of matrices. In L. Hogben (ed.): Handbook of linear algebra. Chapman & Hall 2006. R. Horn/C. Johnson: Topics in matrix analysis. Cambridge UP 1994. B. Huppert: Angewandte lineare Algebra. De Gruyter 1990. K. Jacobs: Einfhrung in die Kombinatorik. De Gruyter 1983. P. Kirrinnis: Fast algorithms for the Sylvester equation AX − XB t = C . Theor. Comp. Sci. 259 (2001), 623-638. H. Knobloch/F. Kappel: Gewöhnliche Differentialgleichungen. Teubner 1974. K. Knopp: Theory of functions. Dover 1996. D. Knuth: The art of computer programming I. Addison-Wesley 1973. C. Koç: A divide-and-conquer algorithm for functions of triangular matrices. Preprint, 1996. C. Koç/B. Bakkaloǧlu: A parallel algorithm for functions of triangular matrices. Computing 57/1 (1996), 85-92. M. Koecher: Lineare Algebra und analytische Geometrie. Springer 1985. U. Luther/K. Rost: Matrix exponentials and inversion of confluent Vandermonde matrices. Internet 2003, 19p. H. Meschkowski: Differenzengleichungen. Vandenhoeck & Ruprecht 1959. C. Moler/C. Van Loan: Nineteen dubious ways to compute the exponential of a matrix, twenty-five years later. SIAM Rev. 45/1 (2003), 3-49. M. Mondini: Sistemi dinamici ed equazioni differenziali ordinarie. Tesi, Ferrara 1988. M. Petkovšek/H. Wilf/D. Zeilberger: A = B. Peters 1996. A. Quarteroni/R. Sacco/F. Saleri: Numerische Mathematik II. Springer 2002 H. Roos/H. Schwetlick: Numerische Mathematik. Teubner 1999. G. Scheja/U. Storch: Lehrbuch der Algebra 2. De Gruyter 1988. R. Sidje: Expokit - a software package for computing matrix exponentials. ACM Trans. Math. Software 24/1 (1998), 130-156. E. Sontag: Mathematical control theory. Springer 1998. J. Stoer: Einführung in die numerische Mathematik I. Springer 1983. C. Van Loan: A study of the matrix exponential. Univ. Manchester 2006. L. Verde Star: Functions of matrices. Lin. Alg. Appl. 406 (2005), 285-300. W. Walter: Gewöhnliche Differentialgleichungen. Springer 1990. G. Watson: A treatise on the theory of Bessel functions. Cambridge UP 1996. E. Whittaker/G. Watson: A course of modern analysis. Cambridge UP 2003. Parte biomatematica L. Abbott/F. Michor: Mathematical models of targeted cancer therapy. Brit. J. Cancer 95 (2006), 1136-1141. 109 R. Baiocato: Il modello di Gompertz per la reazione polimerasica a catena in tempo reale. Tesi, Ferrara 2004. Ž. Bajzer/M. Marušić/S. Vuk-Pavlović: Conceptual frameworks for mathematical modeling of tumor growth dynamics. Math. Comp. Mod. 23/6 (1996), 31-46. A. Capelo: Modelli matematici in biologia. Decibel 1989. K. Cooke/T. Witten: One-dimensional linear and logistic harvesting models. Math. Mod. 7 (1986), 301-340. D. Dingli/F. Michor: Successful therapy must eradicate cancer stem cells. Stem Cells 24 (2006), 2603-2610. U. Feldmann: Wachstumskinetik. Springer 1979. R. Gatenby: Cancer as Darwinian evolution? Do the math! Int. J. Epidem. 35/5 (2006), 1165-1167. E. Gladtke/H. Hattingberg: Pharmakokinetik. Springer 1977. A. Kolmogorov: Sulla teoria di Volterra della lotta per l’esistenza. Giorn. Ist. Ital. Attuari 7 (1936), 74-80. Citato in Redheffer/Vance. N. Komarova: Stochastic modeling of drug resistance in cancer. J. Theor. Biol. 239/3 (2006), 351-366. P. Macheras/A. Iliadis: Modeling in biopharmaceutics, pharmacokinetics, and pharmacodynamics. Springer 2006. F. Michor: Reply - the long term response to imatinib treatment of CML. Brit. J. Cancer 96 (2007), 679-680. F. Michor/S. Frank/.../M. Nowak: Somatic selection for and against cancer. J. Theor. Biol. 225 (2003), 377-382. F. Michor/T. Hughes/.../M. Nowak: Dynamics of chronic myeloid leukemia. Nature 435 (2005), 1267-1270. F. Michor/Y. Iwasa/M. Nowak: Dynamics of cancer progression. Nature Reviews Cancer March 2004, 197-206. L. Norton [G]: A Gompertzian model of human breast cancer growth. Cancer Res. 48 (1988), 7067-7071. L. Norton [T]: Conceptual and practical implications of breast tissue geometry - toward a more effective, less toxic therapy. Oncologist 10 (2005), 370-381. M. Nowak/F. Michor/Y. Iwasa: The linear process of somatic evolution. Proc. Nat. Ac. Sci. USA 9 December 2003, 14966-14969. L. Preziosi (ed.): Cancer modeling and simulation. Chapman & Hall 2003. R. Redheffer/R. Vance: An equivalence theorem concerning population growth in a variable environment. Int. J. Math. Math. Sci. 43 (2003), 2747-2758. M. Retsky [L]: Letter to the editor. J. Theor. Biol. 229 (2004), 289. M. Retsky [G]: Cancer growth - implications for medicine and malpractice. Internet 1998, 4p. C. Schmidt: The Gompertzian view - Norton honored for role in establishing cancer treatment approach. J. NCI 96/20 (2004), 1492-1493. J. Sherratt/M. Chaplain: A new mathematical model for avascular tumour growth. J. Math. Biol. 43 (2001), 291-312. J. Spratt/.../E. Weber: Decelerating growth and human breast cancer. Cancer 71/6 (1993), 2013-2019. M. Tabatabai/David Williams/Zoran Bursac: Hyperbolastic growth models - theory and application. Theor. Biol. Med. Mod. 2 (1005), 13p. 110 A. Tsoularis: Analysis of logistic growth models. Res. Lett. Inf. Math. Sci. 2 (2001), 23-46. T. Wheldon: Mathematical models in cancer research. Hilger 1988. D. Wodarz/N. Komarova: Emergence and prevention of resistance against small molecule inhibitors. Sem. Cancer Biol. 15 (2005), 506-514. D. Wodarz/N. Komarova: Computational biology of cancer. World Scientific 2005. Parte medica R. Bhatia/.../S. Forman: Persistence of malignant hematopoietic progenitors in chronic myelogenous leukemia patients in complete cytogenetic remission following imatinib mesylate treatment. Blood 101 (2003), 4701-4707. I. Bördlein: Intervista con Otmar Wiestler, amministratore delegato del Centro Tedesco per la Ricerca sul Cancro a Heidelberg. Internet 2006, 2p. G. Castoldi/V. Liso (ed.): Malattie del sangue e degli organi ematopoietici. McGraw-Hill 2004. L. Chen/.../J. Gao: Precancerous stem cells have the potential for both benign and malignant differentiation. PLOS One 21 March 2007, 16p. S. Chu/.../R. Bhatia: Detection of BCR-ABL kinase mutations in CD34+ cells from chronic myeologenous leukemia patients in complete cytogenetic remission on imatinib mesylate treatment. Blood 105/5 (2005), 2093-2098. M. Clarke/M. Fuller: Stem cells and cancer - two faces of Eve. Cell 124/6 (2006), 1111-1115. M. Dean/T. Fojo/S. Bates: Tumour stem cells and drug resistance. Nature Rev. Cancer 5/4 (2005), 275-284. V. De Filippis Russo: Perché il cancro avanza. Huggins Lab. 1982. M. Deininger: Management of early stage disease. Am. Soc. Haem. Education Book 2005, 174-182. M. Deininger/E. Buchdunger/B. Druker: The development of imatinib as a therapeutic agent for chronic myeloid leukemia. Blood 105 (2005), 2640-2653. M. Deininger/B. Druker: Specific targeted therapy of chronic myelogenous leukemia with imatinib. Pharmacol. Rev. 55 (2003), 401-423. M. Deininger/J. Goldman/J. Melo: The molecular biology of chronic myeloid leukemia. Blood 96 (2000), 3343-3356. V. De Vita/S. Hellman/S. Rosenberg (ed.): Cancer. Principles and practice of oncology. Lippincott-Raven 1996. L. Elrick/H. Jorgensen/J. Mountford/T. Holyoake: Punish the parent, not the progeny. Blood 105 (2005), 1862-1866. E. Fuchs/T. Tumbar/G. Guasch: Socializing with the neighbors - stem cells and their niche. Cell 116 (2004), 769-778. E. Gravela: Oncologia generale. Piccin 1984. M. al-Hajj/.../M. Clarke: Prospective identification of tumorigenic breast cancer cells. Proc. Nat. Ac. Sci. USA 100 (2003), 3983-3988. D. Hanahan/R. Weinberg: The hallmarks of cancer. Cell 100 (2000), 57-70. M. Hayat/N. Howlader/M. Reichman/B. Edwards: Cancer statistics, trends, and multiple primary cancer analyses from the surveillance, 111 epidemiology, and end results (SEER) program. Oncologist 12 (2007), 20-37. A. Hoffbrand/P. Moss/J. Pettit: Essential haematology. Blackwell 2006. J. Klein/V. Hořejšı́: Immunology. Blackwell 1997. R. Krstić: Human microscopic anatomy. Springer 1991. C. Leaf: Why are we losing the war on cancer? Fortune March 22, 2004, 77-94. F. Macdonald/C. Ford/A. Casson: Molecular biology of cancer. BIOS 2004. David Morgan: The cell cycle. Oxford UP 2007. Ralph Moss: Comment on the article ”Why are we losing the war on cancer?” by Clifton Leaf. Internet 2004, 3p. NCI: SEER Cancer Statistics Review (Overview). NCI 2006. T. O’Hare/A. Corbin/B. Druker: Targeted CML therapy - controlling drug resistance, seeking cure. Curr. Op. Gen. Dev. 16 /1 (2006), 92-99. S. Pelengaris/M. Khan (ed.): The molecular biology of cancer. Blackwell 2006. K. Possinger/A. Regierer (ed.): Facharzt Hämatologie Onkologie. Urban & Fischer 2007. D. Rea/.../P. Rousselot: High-dose imatinib mesylate combined with vincristine and dexamethasone (DIV regimen) as induction therapy in patients with resistant Philadelphia-positive acute lymphoblastic leukemia and lymphoid blast crisis of chronic myeloid leukemia. Leukemia 20 (2006), 400-403. T. Reya/S. Morrison/M. Clarke/I. Weissman: Stem cells, cancer, and cancer stem cells. Nature 414 (2001), 105-111. I. Roeder/.../M. Loeffler: Dynamic modeling of imatinib-treated chronic myeloid leukemia - functional insights and clinical implications. Nature Med. 12/10 (2006), 1181-1184. W. Schulz: Molecular biology of human cancers. Springer 2005. N. Shah/.../C. Sawyers: Overriding Imatinib resistance with a novel ABL kinase inhibitor. Science 305 (2004), 399-401. L. Szabo: Certain cells are more lethal. USA Today 25 february 2007. P. Talalay: The war against cancer - new hope. Proc. Am. Phil. Soc. 143/1 (1999), 52-72. J. Travis: The bad seed - rare stem cells appear to drive cancers. Science News March 20 (2004), 184-185. E. Weisberg/.../J. Griffin: Characterization of AMN107, a selective inhibitor of wild-type and mutant Bcr-Abl. Cancer Cell 7 (2005), 129-141. 112