Teoria dei Sistemi II Appunti delle lezioni
Transcript
Teoria dei Sistemi II Appunti delle lezioni
2 . Salvatore Monaco Marie Dorothèe Normand-Cyrot Teoria dei Sistemi II Appunti delle lezioni 2004-2005 3 Teoria dei Sistemi Teoria, θωρια, delegazione, lunga fila di teori ( θωρως, da θωρω: ”esaminare, osservare”) inviati alle grandi celebrazioni religiose, a consultare gli oracoli. Cosı̀ come l’insieme delle acquisizioni dei teori veniva accettato per interpretare e comprendere i fenomeni, una teoria nell’accezione corrente consiste in una formulazione logicamente coerente (in termini di concetti ed enti più o meno astratti) di un insieme di definizioni, principi e leggi generali che consentono di descrivere, interpretare, classificare, spiegare, a vari livelli di generalità, aspetti della realtà naturale e sociale, e delle varie forme di attività umana. Sistema da σισθηµα: ”riunione, complesso”. In ambito scientifico, qualsiasi oggetto di studio che, pur essendo costituito da diversi elementi reciprocamente interconnessi e interagenti tra loro o con l’ambiente esterno, reagisce o evolve come un tutt’uno con proprie leggi generali. La Teoria dei Sistemi consta di un corpo di metodologie per l’analisi dei Sistemi. Dopo un primo capitolo in cui vengono introdotte le definizioni fondamentali, il vocabolario ed i primi elementi di rappresentazione e classificazione, saranno presentati nei capitoli successivi i diversi metodi di analisi. Lo studio viene sviluppato per la classe dei sistemi lineari stazionari a dimensione finita e si conclude con alcuni elementi di analisi per sistemi non lineari. 1. Sistemi dinamici e Rappresentazioni con lo Stato Dalla definizione di Sistema alle Rappresentazioni con lo Stato. Viene mostrato come, a partire da una definizione del tutto generale di sistema astratto, l’introduzione dei concetti di parametrizzazione e di causalità consentano di giungere alla rappresentazione con lo stato di un sistema dinamico. Vengono, quindi introdotti elementi di classificazione. 1.1. Sistema astratto Nell’accezione comune sistema, σισθηµα: ”riunione, complesso”, è un attributo impiegato per indicare un complesso che presenta caratteristiche comuni da un qualche punto di vista; le caratteristiche comuni possono riferirsi alla similitudine dei componenti, è questo il caso di un sistema montuoso o di un sistema monetario, o alla complementarietà da un punto di vista funzionale, sistema muscolare o sistema esperto. In ambito scientifico si dà privilegio a questo secondo aspetto. Un sistema è, dunque, un qualsiasi oggetto di studio che, pur essendo costituito da diversi elementi reciprocamente interconnessi e interagenti tra loro o con l’ambiente esterno, reagisce o evolve come un tutt’uno con proprie leggi generali. Teoria generale dei sistemi, Scienza dei sistemi, Teoria dei sistemi. Un escursus ed alcune precisazioni. La Teoria generale dei sistemi ispirata dalla individuazione di leggi comuni in comparti disciplinari distinti, si pone l’obiettivo di giungere ad un’unificazione su base modellistica. La Scienza dei sistemi ispirata dall’esigenza di gestire la complessità, si pone l’obiettivo di proporre un approccio progettuale comune per classi di problemi e modelli. In questo contesto la Teoria dei sistemi si pone l’obiettivo di giungere ad una formalizzazione dei concetti ed alla costruzione di un quadro di metodologie per lo studio sistematico per classi di modelli. Risultato di più livelli di astrazione: a partire da una formulazione astratta del comportamento dinamico dell’oggetto allo studio (primo livello), verso l’impiego del modello al fine di migliorare 1.1. Sistema astratto 5 la conoscenza del fenomeno (secondo livello), sino al riconoscere la generalità del modello adatto a rappresentare fenomeni diversi di differenti settori disciplinari (terzo livello), per arrivare ad una classificazione per tipologie di modelli ed allo sviluppo di metodologie di analisi per classi (quarto livello). Si parte dalla formalizzazione del concetto di sistema verso i metodi di studio seguendo la formulazione matematica. Una prima formalizzazione conduce naturalmente a pensare ad un sistema come ad un insieme di grandezze (elementi) assieme ad un insieme di relazioni tra esse. Le grandezze costituiscono una rappresentazione astratta degli elementi e le relazioni specificano le interconnessioni, le interazioni, tra gli elementi stessi e con l’esterno, ciò che serve anche a precisare il punto di vista dello studio. La formalizzazione ci impone di astrarre dal contesto e pensare ad un sistema come ad un’entità che stabilisce precisi legami funzionali tra insiemi di variabili. Si giunge in tal modo alla seguente definizione formale di sistema astratto. Definizione 1. Sistema astratto è una coppia Σ: = {V, R} ove V rappresenta l’insieme delle variabili ed R rappresenta l’insieme delle relazioni tra le variabili. Gli elementi di R sono le regole che in modo formale, mediante relazioni matematiche o a parole, specificano gli elementi del sistema: i possibili comportamenti. Questa definizione conferisce al concetto di sistema astratto una vasta generalità. Esso, in prima istanza, corrisponde alla descrizione formale associata ad un dato fenomeno e trova applicazione nei settori più diversi. Esempio 1.1. Un qualsiasi componente o dispositivo che stabilisce un legame tra grandezze fisiche. Ad esempio un componente elettrico resistivo: V è l’insieme delle coppie di variabili, tensione e corrente, simbolicamente denotate v e i, V : = {v, i}, mentre R è costituito dall’eguaglianza v = ri. Esempio 1.2. Un principio o una legge della fisica. Ad esempio la dinamica nel sistema gravitazionale terrestre: V è l’insieme di funzioni del tempo che assumono valori nello spazio, R è rappresentato dalle leggi di Keplero. Esempio 1.3. Un processo di crescita di una popolazione governato da fenomeni di sviluppo noti. Ad esempio la dinamica della crescita cellulare: V è l’insieme di funzioni del tempo che assumono valori nei reali positivi, R è rappresentato dalle leggi di interazione e sviluppo. Esempio 1.4. Un sistema di relazioni matematiche. Ad esempio le disequazioni Ax ≤ 0 in cui x è la generica variabile ed assume valori in un assegnato insieme mentre la diseguaglianza stessa definisce R. Una prima specializzazione è necessaria per precisare la classe di sistemi a cui ci rivolgeremo: i sistemi dinamici. In essi i possibili comportamenti sono funzioni del tempo: la variabile indipendente. 6 1. Sistemi dinamici e Rappresentazioni con lo Stato Dobbiamo dunque pensare ad insiemi di variabili che evolvono nel tempo secondo definite regole e relazioni tra esse. Per giungere ad una definizione formale di sistema dinamico astratto è necessario introdurre alcune notazioni. Sia T un sottoinsieme ordinato di R, insieme dei reali, o Z, insieme degli interi; T è detto insieme dei tempi. Sia inoltre T (t0 ) l’insieme dei tempi maggiori o uguali ad un tempo t0 T (t0 ) = {t ∈ T : t ≥ t0 } Se indichiamo con W T (t0 ) l’insieme delle funzioni definite su T (t0 ) che assumono valori in W W T (t0 ) = {w0 (·) : ∀t ≥ t0 , t → w0 (t) ∈ W }, un fissato sottoinsieme di W T (t0 ) Σ(t0 ) ⊂ W T (t0 ) può essere impiegato per precisare quelli che indicheremo come i possibili comportamenti a t0 . Possiamo, infatti, in modo del tutto generale definire un sistema astratto come un insieme di possibili comportamenti nei diversi istanti di tempo. Questi insiemi dovranno soddisfare ad una proprietà elementare come l’intuizione suggerisce. Se, infatti, pensiamo ai possibili comportamenti ad un dato tempo come evoluzioni del sistema, risultato di esperimenti a tale istante di tempo, dovrà essere vero che i risultati di esperimenti ad un fissato istante t0 , se visti dal generico t1 ≥ t0 , sono compresi tra i risultati di esperimenti a t1 . Da un punto di vista formale dovrà essere verificata la seguente proprietà, detta di chiusura rispetto al troncamento (CRT ): per ogni fissata coppia (t0 , t1 ), con t1 ≥ t0 , se w0 appartiene a Σ(t0 ) allora il suo troncamento su T (t1 ), w0 |T (t1 ) , cioè tale funzione considerata da t1 in poi, deve appartenere a Σ(t1 ). Siamo dunque pervenuti alla seguente definizione di sistema dinamico Definizione 2. Sistema dinamico è una terna S: = {T, W, Σ} dove: Σ: = {Σ(t0 ), t0 ∈ T : ∀t1 ∈ T (t0 ), w0 ∈ Σ(t0 ) ⇒ w0 T (t1 ) ∈ Σ(t1 )}. Un sistema dinamico è dunque un insieme di comportamenti definiti ad ogni istante di tempo. Essi soddisfano alla proprietà di chiusura rispetto al troncamento. Se T ⊂ R il sistema è a tempo continuo; se T ⊂ Z il sistema è a tempo discreto. Esempio 1.5. Dinamica nel sistema gravitazionale terrestre: T = R, W = R3 , Σ(t0 ) insieme delle traiettorie, definite da t0 in poi, che soddisfano le leggi di Keplero. 7 1.1. Sistema astratto Esempio 1.6. Modello economico di Leontief. Indicate con - xi : quantità di prodotto i-mo al tempo t; - aij : quantità di prodotto i-mo per produrre una unità di prodotto j-mo la seguente diseguaglianza esprime un evidente vincolo di bilancio xi (t) ≥ n aij xj (t + 1) (D) j=1 con T = Z+ e W = Rn+ . I possibili comportamenti a t0 sono definiti come Σ(t0 ) = {w0 : T (t0 ) → Rn+ : ∀t ≥ t0 (D) vale} La definizione data di sistema dinamico trova un riscontro nella “descrizione (rappresentazione) enumerativa” dei comportamenti delle variabili che caratterizzano un dato oggetto, processo o fenomeno. Si noti che uno stesso sistema astratto può essere associato a fenomeni diversi: si pensi a diversi fenomeni rappresentati da uno stesso modello matematico. Proprietà sui possibili comportamenti specificano la struttura di Σ. Una prima particolarizzazione si ottiene richiedendo che i possibili comportamenti al generico istante di tempo possano essere ottenuti per troncamento di possibili comportamenti ad istanti precedenti. Se la proprietà di CRT richiede che i troncamenti al tempo t1 ≥ t0 siano possibili comportamenti a t1 , ora i troncamenti a t1 definiscono tutti e soli i possibili comportamenti a tale istante di tempo. La formalizzazione di questo aspetto conduce alla seguente definizione. Definizione 3. Sistema dinamico uniforme: S = {T, W, Σ} si dice uniforme se esiste un unico sottoinsieme di W T , sia Σun , che genera tutti i possibili comportamenti Σ(t0 ) al variare di t0 , cioè: ∀t0 , w ∈ Σun ⇒ w ∈ Σ(t0 ) T (t0 ) w0 ∈ Σ(t0 ) ⇒ ∃w ∈ Σun : w = w0 . T (t0 ) Una ulteriore particolarizzazione consiste nell’introdurre i sistemi stazionari. Si tratta, come l’intuizione suggerisce, di sistemi in cui i possibili comportamenti non dipendono dal tempo; in altre parole il risultato di esperimenti sul sistema non dipende dall’istante in cui l’esperimento inizia. I comportamenti sono dunque invarianti rispetto alla traslazione temporale. Questo, da un punto di vista formale, implica che per quanto riguarda il calcolo delle funzioni associate ai comportamenti, quelle al generico istante t0 sono sufficienti a definire il sistema: infatti quelle a t1 sono ottenute per traslazione da quelle a t0 . Più precisamente se si indica con ∆t̄ l’operatore di traslazione: (∆t̄ f )(t ): = f (t − t̄). 8 1. Sistemi dinamici e Rappresentazioni con lo Stato Definizione 4. Sistema dinamico stazionario: S = {T, W, Σ} è detto stazionario se ∆t̄ Σ(t0 ) = Σ(t0 + t̄) per ogni t0 e t̄ in T . La precedente definizione esprime formalmente che traslando Σ(t0 ) a destra di t̄ (se t̄ è positivo) si ottengono le coppie al tempo (t0 + t̄), Σ(t0 + t̄). E, tornando a quanto detto in precedenza, Σ(t1 ) è ottenuto da Σ(t0 ) per effetto di una traslazione di t1 − t0 . Per i sistemi a tempo discreto introducendo l’operatore di traslazione unitaria, che sarà indicato con σ, la proprietà di stazionarietà si esprime σΣ(t) = Σ(t + 1) . In conclusione, poiché i comportamenti di un sistema stazionario al generico istante t0 possono essere ottenuti per traslazione a partire da quelli ad un fissato istante assunto zero per convenzione (Σ(t0 ) = ∆t0 Σ(0)), un sistema stazionario rimane definito da una terna {T, W, Σ(0)}. Un’ulteriore particolarizzazione è quella che conduce alla definizione di sistema lineare. Definizione 5. Sistema dinamico lineare. S = {T, W, Σ} è detto lineare se W è uno spazio lineare sui reali e se, per ogni t0 , Σ(t0 ) è un sottospazio lineare di W T (t0 ) . Ciò equivale a richiedere che comunque fissati w1 , w2 ∈ Σ(t0 ) e α, β ∈ R αw1 + βw2 ∈ Σ(t0 ). La definizione data di sistema dinamico in termini dei possibili comportamenti corrisponde ad una descrizione esplicita, enumerativa, di un dato oggetto o fenomeno. Molto spesso la caratterizzazione dei comportamenti possibili può essere fatta utilizzando equazioni che costituiscono un modello matematico del sistema; si ha in questo caso una descrizione implicita, sintetica, del sistema. Nella gran parte dei casi la descrizione implicita è ottenuta mediante equazioni alle differenze, per i sistemi a tempo discreto (T = Z), o equazioni differenziali, nel caso dei sistemi a tempo continuo. Inoltre, nella costruzione del modello è spesso necessario impiegare un insieme aggiuntivo di variabili. Questi due aspetti sono nel seguito chiariti con semplici esemi. E’ spesso la rappresentazione implicita il punto di partenza nello studio dei fenomeni. Esempio 1.7. Un semplice modello di microeconomia: dinamica del prezzo in condizioni di equilibrio tra domanda e offerta. Si supponga di voler descrivere la variazione del prezzo di un prefissaato bene assumendo, in una forrmulazione elementare, che nel mercato non siano presenti beni concorrenti. Se si indica con p il prezzo unitario, con d la domanda e con o l’offerta non è difficile rendersi conto che valgono relazioni del tipo d(p) = d0 − ap . s(p) = o0 + bp, a, b > 0 9 1.1. Sistema astratto Infatti, soddisfatta un’esigenza fondamentale, d0 , la domanda diminuisce all’aumentare del prezzo secondo un andamento che si può assumere in prima approssimazione di tipo proporzionale, inoltre, a meno di una soglia di produzione legata alla capacità industriale, o0 , l’offerta aumenta con il prezzo con un andameento in prima approssimazione anch’esso proporzionale al prezzo. Se ora si tiene conto del fatto che mentre l’adeguamento della domaanda al ”prezzo” è istantaneo, l’adeguamento della produzione richiede che sia perlomeno trascorso il tempo necessario alla produzione, assunto tale intervallo di tempo unitario, la domanda e l’offerta variano nel tempo secondo le seguenti uguaglianze d(t + 1) = d0 − ap(t + 1) . o(t + 1) = o0 + bp(t) Il precedente modello elementare può essere utimlizzato per descrivere come varia il prezzo del prodotto. Se infatti si assume che il mercato sia in equilibrio, la produzione uguaglia la domanda, o(t + 1) = d(t + 1), si ottiene b d0 − o0 p(t + 1) = − p(t) + . a a La precedente equazione alle differenze descrive, sotto le ipotesi semplificative sottolineate, una rappresentazione intrinsecamente implicita, cioè del tipo citato, della dinamica dell’evoluzione del prezzo di un prodotto a partire da una perturbazione rispetto alla condizione di equilibrio. L’impiego di variabili ausiliarie è spesso necessario nella costruzione di un modello. Questo aspetto è illustrato nel seguente esempio. Esempio 1.8. Dinamica della popolazione di una nazione. Si immagini di voler formulare un modello matematico per descrivere come varia nel tempo il numero di persone in età compresa tra 60 e 70 anni in una assegnata regione. Come l’intuizione immediatamente suggerisce, la progressione temporale nel passaggio da un’età ad un’altra rende necessario fare riferimento ad una suddivisione in classi di età e descrivere l’evoluzione nel tempo di esse. Se si decide di voler descrivere l’evoluzione con una cadenza annuale e si assume pari ad un anno l’ ampiezza delle classi di età, il numero di persone in ciascuna classe di età fornisce, per il problema in esame, un insieme completo di variabili ausiliarie. La loro evoluzione nel tempo consente infatti di ottenere gli andamenti temporali desiderati. Indicato con xi (t) il numero di persone di età i al tempo t, si ha: xi+1 (t + 1) = βi xi (t), i = 0, . . . , n − 1 x0 (t + 1) = αmf xmf (t) + . . . + αM f xM f (t) con αi coefficienti di fertilità, con i compreso tra i limiti del periodo di fertilità mf ed Mf, e βi coefficienti di sopravvivenza qui assunti costanti per semplicità. La somma, ad ogni istante, delle variabili con indice compreso tra 60 e 70 fornisce la descrizione cercata. E’ dunque necessario, per descrivere la dinamica voluta, rappresentare anche la variazione delle classi di età precedenti a quelle interessate. Si tratta di un insieme di variabili ausiliarie. 10 1. Sistemi dinamici e Rappresentazioni con lo Stato Esempio 1.9. Dinamica di una popolazione animale Se si suppone di voler descrivere la dinamica di una popolazione animale di predatori è necessario descrivere anche l’andamento di altre variabili, della preda ad esempio, che costituisce la risorsa per la crescita. Se supponiamo che siano presenti solo due specie, il seguente modello matematico (Volterra 1906) esprime l’interazione tra le due variabili x1 (t) e x2 (t) che rappresentano la densità della preda e quella del predatore, rispettivamente. ẋ1 (t) = ax1 (t) − kx1 2 − bx1 (t)x2 (t) ẋ2 (t) = −cx2 (t) + dx1 (t)x2 (t) Più precisamente la prima equazione esprime il tasso di crescita proporzionale, secondo a, alla densità della specie, mentre il termine −kx1 2 rappresenta un fattore limitante che tiene conto della limitatezza delle risorse e −bx1 (t)x2 (t) rappresenta la limitazione imposta dalla presenza del predatore: l’impedimento alla crescita è assunto proporzionale alla probabilità di incontro e tale probabilità è assunta proporzionale al prodotto delle densità delle specie. La seconda equazione infine esprime l’estinzione con decadimento esponenziale della specie predatore in assenza di preda, assenza di risorse, e la crescita proporzionale al prodotto delle densità delle specie. I precedenti semplici esempi mostrano che può essere utile, talvolta necessario, fare riferimento ad un insieme di variabili ausiliarie rispetto a quelle, terminali, che assumono valori in W e che caratterizzano i possibili comportamenti. Definizione 6. Un sistema dinamico con variabili ausiliarie è una quadrupla Sa = {T, W, A, Σa } con - A insieme dei valori delle variabili ausiliarie; - Σa = {Σa (t0 ) ⊆ (W × A)T (t0 ) : sia soddisfatta CRT}. Sa è la rapprentazione con variabili ausiliarie di S: = {T, W, Σ} se per ogni t0 Σ(t0 ) = {w0 : ∃a0 ∈ AT (t0 ) t.c.(w0 , a0 ) ∈ Σa (t0 )}. Una classe particolare di variabili ausiliarie è quella delle variabili di stato. L’interesse di introdurre le variabili di stato può essere collegato all’esigenza di sintetizzare nel valore di un insieme di variabili al tempo t, appunto delle variabili di stato, quelle informazioni sul passato necessarie a caratterizzare i comportamenti futuri. Definizione 7. Stato. Un sistema dinamico con variabili di stato è un sistema dinamico con variabili ausiliarie Sx := {T, W, X, Σx }, in cui Σx soddisfa l’assioma di stato {(w01 , x10 ), (w02 , x20 ) ∈ Σx (t0 ), t ≥ t0 e x10 (t) = x20 (t)} ⇒ {(w0 , x0 ) ∈ Σx (t0 )} dove (w0 , x0 ) è definito (w0 (t ), x0 (t )) = (w01 (t ), x10 (t )) t < t (w02 (t ), x20 (t )) t ≥ t 1.2. Sistema astratto orientato e rappresentazioni con lo stato 11 L’assioma dello stato richiede che ogni traiettoria che arriva in un fissato stato possa essere concatenata con ogni traiettoria che parte da quello stato. In queste condizioni, una volta noto lo stato ad un fissato istante, i comportamenti futuri sono fissati e nessuna ulteriore informazione è contenuta nei comportamenti passati. In altre parole lo stato all’istante t è sufficiente a caratterizzare tutti i possibili comportamenti da t in poi; lo stato a t contiene le informazioni necessarie sul passato. In breve, lo stato rappresenta la memoria del passato. Come puntualizzato nella definizione 7, Sx = {T, W, X, Σx } è la rappresentazione con lo stato di un sistema dinamico S = {T, W, Σ} in cui Σ(t0 ) = {w0 /∃x0 tale che (w0 , x0 ) ∈ Σx (t0 )}. L’introduzione della definizione di stato e di rappresentazione con lo stato suggerisce immediatamente la domanda: Esiste sempre la rappresentazione con lo stato di un assegnato sistema ? Se no, sotto quali condizioni ? Il problema della rappresentazione con lo stato di un dato sistema dinamico è molto studiato nella teoria dei sistemi e sarà approfondito nel seguito con riferimento alla classe dei sistemi dinamici orientati e causali. I problemi coinvolti riguardano l’esistenza, l’unicità e la minimalità dell’insieme degli stati. 1.2. Sistema astratto orientato e rappresentazioni con lo stato Quanto sinora esposto è a fondamento di un punto di vista di ampia generalità che potremmo pensare collegato ad un approccio interpretarivo, conoscitivo, in cui ha interesse la descrizione di legami tra variabili, ciò che è tipico, ad esempio, della formulazione di leggi fisiche. Il punto di vista delle scienze dell’ingegneria conduce a distinguere le variabili in cause ed effetti, ingressi e uscite, collegate da relazioni di dipendenza causale rispetto al tempo. Per comprendere questo aspetto è necessario ricordare che in tale ambito disciplinare la modellazione di un dato processo o fenomeno rappresenta la prima fase di un procedimento di progetto che spesso ha per fine il soddisfacimento di prefissate specifiche su un fissato insieme di variabili. L’individuazione delle variabili esterne su cui intervenire conduce naturalmente ad un processo di modellistica orientata causa - effetto, ingresso - uscita. Inoltre, sempre in considerazione della finalità di intervento, si limita lo studio alla classe di processi e fenomeni in cui il legame tra gli ingressi e le uscite, intese come funzioni del tempo, è causale; si assume cioè che l’uscita al tempo t dipenda dall’ingresso passato e presente, ma non possa dipendere dall’ingresso dopo tale istante di tempo. Questo punto di vista è in particolare quello dell’ingegnere dei sistemi di controllo che maggiormente ha promosso lo sviluppo della Teoria dei Sistemi. Il seguente esempio illustra questo aspetto. Esempio 1.10. Dinamica del prodotto nazionale lordo. Siano: P (t) il prodotto nazionale, C(t) i consumi, I(t) gli investimenti e G(t) le spese per il governo. Ad un primo livello di approssimazione la dinamica del prodotto nazionale lordo di una 12 1. Sistemi dinamici e Rappresentazioni con lo Stato nazione (uscita) al variare delle spese del governo (ingresso) può essere calcolata a partire dalle seguenti relazioni. La prima di esse esprime una semplice relazione di bilancio P (t) = C(t) + I(t) + G(t) Inoltre, dagli studi di modellistica economica, una ben nota ipotesi delle teorie classiche ipotizza che si possano assumere i consumi al tempo t proporzionali al prodotto nazionale allo stesso istante, secondo un coefficiente, m, che rappresenta la propensione marginale al consumo C(t) = mP (t), 0<m<1 Ancora dalle teorie classiche, l’incremento del prodotto nazionale può essere assunto proporzionale all’investimento secondo un fattore r, detto fattore di crescita, P (t + 1) − P (t) = rI(t) Con ovvie sostituzioni si ottiene l’uguaglianza P (t + 1) = 1 + r(1 − m) P (t) − rG(t) che esprime il legame cercato tra la variazione le spese del governo e il prodotto nazionale lordo. Si tratta di un legame orientato, da G(t) verso P (t) e di tipo causale rispetto al tempo: P (t) dipende, in base alla precedente relazione, da quanto vale P ad un certo istante iniziale, t0 , e dalle spese per il governo da t0 a t. Un secondo modello, si tratta ancora di una rappresentazione dello stesso tipo, può essere assunto a rappresentare lo stesso fenomeno in un economia di mercato fondato sulle leggi dell’economista Samuelson. Samuelson, in alternativa alla assunzioni della teoria classica, ipotizza per i consumi e gli investimenti delle relazioni diverse dalle precedenti. Per quanto riguarda i primi li assume ancora proporzionali al prodotto nazionale lordo, ma, ciò che è più verosimile, al valore del prodotto nell’anno precedente. Si ha quindi: C(t + 1) = mP (t), 0<m<1 Inoltre ipotizza gli investimenti in un dato periodo proporzionali all’incremento di consumo, e quindi solo indirettamente al prodotto lordo, secondo la relazione I(t + 1) = µ(C(t + 1) − C(t)) Con semplici passaggi si ottiene il seguente sistema di equazioni alle differenze prime C(t + 1) = mC(t) + mI(t) + mG(t) I(t + 1) = µ(m − 1)C(t) + µmI(t) + µmG(t) che assieme all’equazione P (t) = C(t) + I(t) + G(t) 1.2. Sistema astratto orientato e rappresentazioni con lo stato 13 descrive, secondo un diverso punto di vista, l’evoluzione del prodotto lordo in funzione della spesa. Si tratta ancora di una descrizione causale, in cui P (t) è calcolato a partire da C(t0 ), I(t0 ) e G(·) da t0 a t. Qualche ulteriore precisazione è necessaria prima di formalizzare la definizione di sistema astratto orientato. Si supponga che l’insieme dei valori delle variabili sia un prodotto cartesiano W = U × Y ove U indica l’insieme dei valori delle grandezze di ingresso ed Y l’insieme dei valori delle grandezze in uscita. L’orientamento in un sistema astratto corrisponde alla suddivisione delle variabili in causa ed effetti e naturalmente suggerisce l’immagine di un sistema dinamico come una scatola nera che rappresenta le modalità secondo le quali le variabili di uscita sono influenzate da quelle di ingresso. I possibili comportamenti in questo caso sono immaginati corrispondenti a esperimenti condotti in diversi istanti t0 . Con queste precisazioni: Definizione 8. . Sistema astratto dinamico orientato Un sistema dinamico astratto orientato è una terna {T, U × Y, Σ} ove Σ = {Σ(t0 ) ⊂ U T (t0 ) × Y T (t0 ) : t0 ∈ T / CRT sia soddisfatta} e CRT esprime la chiusura rispetto al troncamento, che per i sistemi orientati si esprime: ∀t0 ∈ T , ∀t1 ≥ t0 (u0 , y0 ) ∈ Σ(t0 ) ⇒ (u0 T (t ) , y0 T (t ) ) ∈ Σ(t1 ). 1 1 1.2.a. Causalità Nel contesto dei sistemi orientati, in cui un possibile comportamento a t0 è pensato come il risultato di un esperimento che corrisponde alla sollecitazione esterna u0 (·) definita da t0 in poi, il concetto di variabile di stato, introdotto nella definizione 7. conduce naturalmente ad individuare una proprietà specifica dello stato. Infatti l’insieme degli stati a t0 costituisce una parametrizzazione dell’insieme Σ(t0 ), cioè delle possibili coppie ingresso-uscita. Fissare u0 non è sufficiente ad individuare y0 perchè Σ(t0 ) è una relazione; x0 è ciò che bisogna specificare perchè ad un dato ingresso u0 , da t0 in poi, corrisponda una fissata uscita y0 . Questa proprietà dello stato viene messa in luce in modo autonomo e preliminare in quanto segue, ove viene introdotto il concetto di parametrizzazione di una relazione. In base alla definizione 8. un sistema dinamico astratto orientato è un insieme di relazioni, sottoinsiemi di {U T (t0 ) × Y T (t0 ) }. Il soddisfacimento del requisito dello stato di consentire assieme ad u0 di individuare un corrispondente comportamento in uscita poggia sul seguente risultato di algebra che sancisce la possibilità di effettuare una partizione in classi di equivalenza di una relazione, sottoinsieme nello spazio prodotto, mediante i grafi di una funzione che dipende da un parametro al variare del parametro stesso. Siano A e B insiemi non vuoti, sia R ⊂ A × B e siano D(R) ⊂ A ed R(R) ⊂ B il dominio ed il codominio della relazione R. 14 1. Sistemi dinamici e Rappresentazioni con lo Stato Proposizione 1. ([1]). E’ possibile definire un insieme P ed una funzione π: P × D(R) → R(R) tali che: (a, b) ∈ R ⇒ ∃p : b = π(p, a) p ∈ P, a ∈ D(R) ⇒ (a, π(p, a)) ∈ R π è detta rappresentazione parametrica di R; (P, π), sua parametrizzazione. Xt0 È quindi possibile associare ad ogni Σ(t0 ) una parametrizzazione, cioè un insieme di parametri ed una funzione πt0 : Xt0 × D(Σ(t0 )) → R(Σ(t0 )). Inserire la dimostrazione. Definizione 9. Rappresentazione parametrica di S è un insieme di funzioni π = {πt0 : Xt0 × D(Σ(t0 )) → R(Σ(t0 ))/t0 ∈ T } che soddisfano le seguenti proprietà: (u0 , y0 ) ∈ Σ(t0 ) ⇒ ∃x0 : y0 = πt0 (x0 , u0 ) x0 ∈ Xt0 , u0 ∈ D(Σ(t0 )) ⇒ (u0 , πt0 (x0 , u0 )) ∈ Σ(t0 ) Si noti che in base alla definizione data fissato un ingresso a t0 , sia u0 , una stessa uscita y0 può corrispondere a diversi valori del parametro a t0 . È ora possibile introdurre formalmente un’altra proprietà fondamentale: la causalità. Tale proprietà, con riferimento ad un funzionale nella variabile indipendente t, cioè una funzione che a sua volta dipende da una funzione del tempo t, sia u(t), esprime la coincidenza dei valori assunti dal funzionale fino a quando i valori assunti dalla funzione indipendente u sono coincidenti. In formule, indicato con T \T (t) l’insieme dei tempi privato di T (t), f è strettamente causale se: ∀t ∈ T, u = u ⇒ [f (u)](t) = [f (u )](t) T \T (t) T \T (t) Se per mantenere l’uguaglianza dei valori assunti è anche necessario che sia u(t) = u (t) allora f è causale. Definizione 10. S è causale se esiste almeno una rappresentazione parametrica causale, cioè tale che: ∀t0 ∈ T, ∀x0 ∈ Xt0 , ∀t ∈ T (t0 ) u[t0 ,t] = u[t0 ,t] ⇒ [πt0 (x0 , u)](t) = [πt0 (x0 , u )](t) Si noti che la precedente condizione sull’intervalo aperto a destra [t0 , t) esprimerebbe la stretta causalità. 1.2. Sistema astratto orientato e rappresentazioni con lo stato 15 1.2.b. Rappresentazione con lo stato Per comprendere con l’intuizione come sia possibile introdurre il concetto di stato a partire da una parametrizzazione causale valgono le seguenti considerazioni. La definizione stessa di sistema dinamico orientato richiede che i parametri x0 , ai diversi istanti, siano collegati: se a t0 alla coppia (x0 , u0 ) ∈ Xt0 × D(Σ(t0 )) corrisponde y0 ∈ R(Σ(t0 )) al generico istante t1 ≥ t0 la coppia (u0 , y0 )T (t1 ) appartiene a Σ(t1 ) e quindi sarà corrispondente ad uno o a più valori del parametro in Xt1 . Se si ammette che {Xt0 , t0 ∈ T } siano sottoinsiemi di un unico X e si ha presente il significato che si vuole attribuire allo stato: “contenere tutte le informazioni sul passato necessarie a caratterizzare, assieme agli ingressi, il futuro”, sembra naturale assumere che tra i valori a t1 , cui corrisponde (u0 , y0 )T (t ) , ce ne sia uno legato ad x0 ed u0 da un legame funzionale del tipo: 1 x1 = x(t1 ) = ϕ(t1 , t0 , x0 , u0 ) Inoltre tale legame funzionale è assunto causale, più precisamente strettamente causale; quindi solo la restrizione di u0 sull’intervallo [t0 , t1 ) risulta significativa. Le precedenti considerazioni lasciano intendere l’opportunità di definire una evoluzione nello spazio X per collegare i valori dei parametri nei diversi istanti di tempo. Siano X spazio dei parametri, U insieme dei valori di u, U ⊂ U T spazio delle funzioni d’ingresso, (T × T )∗ = {(t, t0 ) : t ≥ t0 , t, t0 ∈ T } la funzione ϕ, di transizione dello stato, è definita nel seguente modo: ϕ : (T × T )∗ × X × U → X x(t) := ϕ(t, t0 , x0 , u) e soddisfa le seguenti proprietà di consistenza, causalità e separazione. P1 (consistenza) ∀t ∈ T, ∀u ∈ U ϕ(t, t, x, u) = x P2 (causalità) ∀(t, t0 ), ∀x0 ∈ X u [t0 ,t) = u [t0 ,t) ⇒ ϕ(t, t0 , x0 , u) = ϕ(t, t0 , x0 , u ) P3 (separazione) ∀(t, t0 ), ∀x0 ∈ X, ∀u ∈ U t > t1 > t0 ⇒ ϕ(t, t0 , x0 , u) = ϕ(t, t1 , ϕ(t1 , t0 , x0 , u), u) P1 e P2 sono ovvie; P3 esprime il fatto essenziale che lo stato a t può essere calcolato da x0 e u[t0 ,t) , ma anche a partire dallo stato raggiunto a t1 , e con x0 e u[t0 ,t1 ) , con u[t1 ,t) proprio perchè x(t1 ) riassume la storia passata. 16 1. Sistemi dinamici e Rappresentazioni con lo Stato Le considerazioni fatte hanno lasciato intendere come sia possibile rendere consistente la scelta delle parametrizzazioni ai diversi istanti di tempo. Ciò posto, è naturale chiedersi come i parametri intervengano nel calcolo dell’uscita. A tale proposito dalla definizione 9 ∀t0 y0 (t) = [πt0 (x0 , u0 )](t) t ≥ t0 ove solo la restrizione di u0 su [t0 , t] è significativa per l’ipotesi di causalità. Assunto t0 = t si ha y(t) = [πt (x(t), u0 )](t) := η(t, x(t), u0 (t)) che mette in evidenza come l’uscita al tempo t dipenda dai valori dell’ingresso e dello stato in quello stesso istante. In conclusione rimane definita una funzione η, trasformazione di uscita η: T × X × U → Y y(t): = η(t, x(t), u(t)) Per concludere è utile mettere in risalto come assegnati U , Y , U ⊂ U T , X, le funzioni ϕ, con le Infatti per ogni fissato t0 rimane definita proprietà P1-P3, ed η consentano di generare, un sistema Σ. 0) una relazione Σ(t 0 ) = {(u0 , y0 ) ∈ U T (t0 ) × Y T (t0 ) Σ(t u0 = u T (t0 ) , y0 : y0 (t) = η(t, ϕ(t, t0 , x0 , u), u(t)) con u ∈ U, x0 ∈ X} Inoltre, in virtù della proprietà P3, è soddisfatta la chiusura rispetto al troncamento (CRT) 0 ). sull’insieme delle relazioni Σ(t Ciò consente di comprendere che le funzioni ϕ ed η definiscono, in modo alternativo, un sistema dinamico astratto orientato causale. Tale definizione può essere assunta come punto di partenza nello sviluppo della teoria. Vedremo tra breve, infatti, che sotto ipotesi sufficientemente generali è possibile associare ad un dato sistema astratto orientato una rappresentazione con lo stato, cioè una terna (X, ϕ, η), X spazio di stato, ϕ funzione di transizione dello stato, η trasformazione di uscita. Nel paragrafo seguente vengono formalizzati tali aspetti e chiarite le condizioni di esistenza di rappresentazioni con lo stato di un assegnato sistema dinamico astratto orientato. 1.3. Esistenza e unicità delle rappresentazioni con lo stato 17 1.3. Esistenza e unicità delle rappresentazioni con lo stato Definizione 11. Assegnato un sistema S e detto U ⊂ U T l’insieme delle funzioni di ingresso, una terna (X, ϕ, η) con ϕ ed η funzioni definite in precedenza, è una rappresentazione con lo stato di S se 0 ), le coppie ingresso uscita generate sono soddisfatte le proprietà P1, P2 e P3 e ad ogni istante t0 Σ(t da (X, ϕ, η), coincidono con Σ(t0 ), l’insieme delle coppie ingresso-uscita del sistema S; in formule 0 ) data nel paragrafo precedente: ricordando la definizione di Σ(t ∀t0 0 ) = Σ(t0 ) Σ(t . Dato il sistema S il problema di individuare una rappresentazione con lo stato, cioè una terna (X, ϕ, η) secondo la definizione 11. è noto come problema della associazione dello stato. Le considerazioni precedenti hanno voluto mettere in evidenza, senza pretesa di rigore matematico, quali sono gli aspetti salienti che vengono affrontati in un tale problema. In effetti il passaggio da una rappresentazione parametrica causale ad una sua rappresentazione con lo stato è possibile sotto alcune ipotesi circa la ricchezza dell’insieme delle funzioni di ingresso. Più precisamente Definizione 12. U ⊂ U T è uno spazio di funzioni di ingresso per S se ∀t0 D(Σ(t0 )) = {u0 = uT (t ) ∈ U T (t0 ) , u ∈ U} 0 - U è chiuso rispetto alla concatenazione se ∀u, v ∈ U, ∀t ∈ T, w := uT \T (t) vT (t) ∈U - U è completo se è chiuso rispetto alla concatenazione ed inoltre ∀t ∈ T U = {u(t) ∈ U, u ∈ U} Ciò premesso vale un risultato fondamentale che risolve il problema dell’associazione dello stato. Si può infatti dimostrare che un assegnato sistema dinamico astratto orientato S, definito su uno spazio delle funzioni di ingresso U completo, ammette rappresentazioni con lo spazio di stato se e solo se è causale. La prova della necessità del risultato enunciato è semplice e consiste nel verificare che a partire da una rappresentazione con lo stato, che è causale per definizione stessa, si può costruire una rappresentazione parametrica causale (ciò che corrisponde alla causalità di S). La prova della sufficienza è costruttiva e segue le linee delle considerazioni intuitive svolte. Il lettore interessato può consultare il testo Teoria dei Sistemi di A. Ruberti e A. Isidori, edizioni Boringhieri, 1977, dove è riportata un’ampia trattazione del problema. Ovviamente ad un assegnato sistema possono essere associate diverse rappresentazioni con lo stato; tra due qualsiasi di queste (X, ϕ, η) ed (X , ϕ , η ) dovrà risultare che ∀t0 , ∀x0 , ∀u, ∃x0 : ∀t ∈ T (t0 ) (e viceversa ∀t0 , ∀x0 , ∀u, ∃x0 ∈ X : ∀t ∈ T (t0 )) η(t, ϕ(t, t0 , x0 , u), u(t)) = η (t, ϕ (t, t0 , x0 , u), u(t)) Spesso ha interesse che tra due rappresentazioni sussista una relazione più forte del tipo seguente. 18 1. Sistemi dinamici e Rappresentazioni con lo Stato Definizione 13. Due rappresentazioni con lo stato (X, ϕ, η) e (X , ϕ , η ) sono dette equivalenti se ∀t0 , ∀x0 , ∃x0 : ∀u, ∀t ∈ T (t0 ) (e viceversa ∀t0 , ∀x0 , ∃x0 : ∀u, ∀t ∈ T (t0 )) η(t, ϕ(t, t0 , x0 , u), u(t)) = η (t, ϕ (t, t0 , x0 , u), u(t)) Esempio 1.11. Data (X, ϕ, η) e f : X → X , f invertibile, si può definire la rappresentazione (X , ϕ , η ) equivalente a (X, ϕ, η) nel modo seguente ϕ (t, t0 , x0 , u) = f ◦ ϕ(t, t0 , f −1 (x0 ), u) η (t, x (t), u(t)) = η(t, f −1 (x (t)), u(t)) come è immediato verificare. Tra le rappresentazioni di un sistema ha interesse caratterizzare quelle che hanno uno spazio di stato ridotto. A questo proposito Definizione 14. xa , xb ∈ X sono equivalenti a t0 se ∀u, ∀t ∈ T (t0 ) η(t, ϕ(t, t0 , xa , u), u(t)) = η(t, ϕ(t, t0 , xb , u), u(t)) Applicando la proprietà di separazione è immediato verificare che se xa ed xb sono equivalenti a t0 lo sono per ogni t1 > t0 . Definizione 15. (X, ϕ, η) associata al sistema S si dice ridotta all’istante t0 se non esistono stati indistinguibili a t0 . Si noti che in molti casi applicativi di interesse il verificarsi della proprietà della definizione 15 a t0 , implica il suo soddisfacimento per t = t0 . Nel caso generale ciò non avviene, ma è usuale definire non ridondante una rappresentazione se è ridotta ad un istante t0 . 1.4. Dalle rappresentazioni esplicite alle rappresentazioni implicite 19 1.5. Elementi di classificazione 1.4.a. Sistemi a tempo discreto Una proprietà generale delle rappresentazioni a tempo discreto è rappresentata dalla possibilità di ottenere senza alcuna ipotesi supplementare una rappresentazione cosidetta “implicita” a partire da (X, ϕ, η). Infatti da x(t) = ϕ(t, t0 , x0 , u) posto t = t + 1, t0 = t, si ha x(t + 1) = f (t, x(t), u(t)) che consente di caratterizzare “passo, passo” l’evoluzione di x(t) a partire dai valori dello stato e dell’ingresso. La rappresentazione (X, f, η) è detta implicita ed f è detta funzione generatrice. 1.4.b. Sistemi a tempo continuo Come si è visto, nel caso tempo-discreto è sempre possibile ottenere una rappresentazione implicita particolarizzando le equazioni che definiscono la rappresentazione esplicita su un intervallo di tempo unitario. L’esistenza di rappresentazioni implicite nel caso tempo-continuo è condizionato da opportune ipotesi dette di regolarità. Come suggerisce l’intuizione una rappresentazione implicita del sistema a tempo continuo dovrà fornire una descrizione del comportamento del sistema ”in tempo reale”, e quindi, secondo relazioni causali e differenziali; le ipotesi di esistenza non potranno allora prescindere dalla derivabilità delle funzioni di transizione nello stato. Se ammettiamo che ϕ(t, t0 , x0 , u) sia soluzione di ∂ϕ = f (t, ϕ, u(t)) ∂t otteniamo immediatamente una rappresentazione differenziale del tipo ẋ(t) = f (t, x(t), u(t)) 1.5. Elementi di classificazione Rispetto alle caratteristiche dell’insieme dei tempi la classificazione è in rappresentazioni a tempo continuo, se T = R, a tempo discreto se T = Z. Rispetto alle proprietà dello spazio di stato X, si hanno: rappresentazioni a stati finiti, se X è un insieme a cardinalità finita. A dimensione finita o infinita a seconda della dimensione di X, spazio lineare. Rispetto alla struttura della rappresentazione con lo stato, nella sua forma esplicita o implicita, si possono riformulare le proprietà di linearità e stazionarietà della funzione di transizione nello stato ϕ, o della sua funzione generatrice f , e della funzione di trasformazione in uscita η, ciò che garantisce il soddisfacimento delle corrispondenti proprietà sulle relazioni ingresso - uscita, ma non il viceversa. Questi aspetti, in particolare, saranno approfonditi nei prossimi capitoli. 20 1. Sistemi dinamici e Rappresentazioni con lo Stato Proprietà più deboli di quella di linearità sulla funzione generatrice ci consentiranno, nell’ultimo capitolo, di introdurre ulteriori classi di sistemi. Lo studio delle rappresentazioni a stati finiti e a dimensione infinita sono oggetto di corsi specialistici per le connessioni con i metodi e i risultati di settori disciplinari affini. La teoria degli automi e dei linguaggi per i primi, i metodi caratteristici dello studio delle equazioni differenziali alle derivate parziali e dell’analisi funzionale per i secondi. 2. Rappresentazioni con lo stato lineari, a dimensione finita, stazionarie Vengono introdotte e discusse le ipotesi di linearità di una rappresentazione e di finita dimensione dello spazio di stato. La scomposizione in risposta libera e forzata delle evoluzioni nello stato e in uscita, nonché la struttura particolare di ciascuna di esse sono le conseguenze più importanti. Vengono precisati i legami tra le descrizioni esplicite a quelle implicite. L’ipotesi di stazionarietà si traduce nella costanza dei parametri. Le rappresentazioni lineari come approssimazione di modelli non lineari e le rappresentazioni a tempo discreto per descrivere o approssimare modelli a tempo continuo concludono il capitolo. 2.1. Struttura e proprietà delle rappresentazioni lineari Definizione 1. Rappresentazione lineare Siano X, U , Y spazi lineari sullo stesso corpo. (X, ϕ, η) è una rappresentazione lineare se: ϕ è lineare ∀(t, t0 ) sull’insieme X × U e η è lineare ∀t sull’insieme X × U. Conseguenza immediata della linearità: ∀k1 , k2 , ∀x01 , x02 ∈ X, ∀u1 , u2 ∈ U ϕ(t, t0 , k1 x01 + k2 x02 , k1 u1 + k2 u2 ) = k1 ϕ(t, t0 , x01 , u1 ) + k2 ϕ(t, t0 , x02 , u2 ) Posto k1 = k2 = 1, u1 = 0, u2 = u, x01 = x0 , x02 = 0 si ha ϕ(t, t0 , x0 , u) = ϕ(t, t0 , x0 , 0) + ϕ(t, t0 , 0, u) = ϕ + ϕf cioé la nota scomposizione della evoluzione nello stato in risposta libera e risposta forzata. Nell’ulteriore ipotesi che X, U, Y siano spazi a dimensione finita e pari a n, p e q rispettivamente, la risposta libera e quella forzata assumono forme particolari come viene mostrato nel seguito distinguendo il caso di sistemi a tempo discreto da quello dei sistemi a tempo continuo. 22 2. Rappresentazioni con lo stato lineari, a dimensione finita, stazionarie Alla luce dello studio sinora condotto la seguente domanda si pone spontanea: assegnato un sistema dinamico lineare secondo la definizione 1, con U ed Y spazi lineari a dimensione finita, quali sono le condizioni sotto le quali esistono rappresentazioni con lo stato di S lineari a dimensione finita ? E’ ovvio che una rappresentazione lineare a dimensione finita “genera” un sistema lineare a dimensione finita, causale; il viceversa però non è sempre vero. Si pensi a quanto osservato a proposito delle rapresentazioni equivalenti. Se si suppongono assegnate una rappresentazione lineare, (X, ϕ, η), ed una funzione non lineare, f : X → X , si può definire la rappresentazione (X , ϕ , η ) ϕ (t, t0 , x0 , u) = f ◦ ϕ(t, t0 , f −1 (x0 ), u) η (t, x (t), u(t)) = η(t, f −1 (x (t)), u(t)) che è una reppresentazione non lineare equivalente a (X, ϕ, η). Per ottenere una rappresentazione lineare a partire da un sistema lineare è necessario assicurarsi che la parametrizzazione causale soddisfi ad una precisa proprietà. Tale proprietà, di cui si coglierà immediatamente il significato, è la proprietà di consistenza nello stato zero. Più precisamente una parametrizzazione π, di S, è detta consistente rispetto allo stato zero se ∀(t, t0 ), ∀u ∈ U πt0 (0, 0[t0 ,t1 ) ∗ u[t1 ,t) )T (t1 ) = πt1 (0, u[t1 ,t) ). Ciò premesso, nella linea della tecnica dimostrativa proposta in [1], a cui si rinvia per la prova, si dimostra che un sistema S, definito su U completo, ammette almeno una rappresentazione con lo stato lineare a dimensione finita se e solo se esiste una parametrizzazione causale, lineare, a dimensione finita, consistente rispetto allo zero. 2.1.a. Sistemi a tempo discreto Sia T = Z l’insieme dei numeri relativi, e sia x0 ∈ X ∼ = Rn Per la linearità di ϕ rispetto a x0 si ha: ϕ(t, t0 , x0 , 0) = φ(t, t0 )x0 φ(t, t0 ) matrice (n × n) di funzioni definite su (Z × Z)∗ , cioè (t, t0 ) : t ≥ t0 . Inoltre per la proprietà P1 φ(t, t) = I Per quanto riguarda la risposta forzata, posto u[t0 ,t−1] = [u(t0 ), u(t0 + 1), u(t0 + 2), . . . , u(t − 1)] 23 2.1. Struttura e proprietà delle rappresentazioni lineari la linearità di ϕf rispetto a u(·) comporta: ϕ(t, t0 , 0,u[t0 ,t−1] ) = ϕ(t, t0 , 0, [u(t0 ), u(t0 + 1), u(t0 + 2), . . . , u(t − 1)]) =ϕ(t, t0 , 0, [u(t0 ), 0 . . . 0]) + . . . ϕ(t, t0 , 0, [0, . . . , 0, u(τ ), 0 . . . 0]) + . . . . . . + ϕ(t, t0 , 0, [0 . . . 0, u(t − 1)]) =ϕ(t, t0 , 0, [u(t0 ), 0 . . . 0]) + ϕ(t, τ, 0, [u(τ ), 0 . . . 0]) + . . . . . . + ϕ(t, t − 1, 0, [u(t − 1)]) =H(t, t0 )u(t0 ) + . . . + H(t, τ )u(τ ) + . . . + H(t, t − 1)u(t − 1) = t−1 H(t, τ )u(τ ) τ =t0 H(t, τ ) matrice (n×p) di funzioni definite su (Z×Z)∗∗ := {(t, τ ) : t > τ }, è detta matrice delle risposte impulsive nello stato. Infatti se si assume un ingresso u[t0 ,t) sempre nullo per t = t1 , t1 ∈ [t0 , t), e diverso da zero in t = t1 solo per la presenza di un “1” nella posizione i-ma (i-mo canale d’ingresso), si ottiene come risposta la i-ma colonna di H(t, t1 ), hi (t, t1 ), 0 .. . 0 u = 1 δ(t − t1 ) 0 . .. ⇒ ϕf = hi (t − t1 ) 0 In altri termini le colonne di H sono interpretabili come risposte ad ingressi di tipo impulsivo. Alcune proprietà delle matrici Φ ed H sono immediata consequenza della proprietà di separazione P3. Si ha, infatti ϕ(t, t0 , x0 , u) =φ(t, t0 )x0 + t−1 H(t, τ )u(τ ) = τ =t0 ϕ(t, t1 , ϕ(t1 , t0 , x0 , u), u) =φ(t, t1 ) φ(t1 , t0 )x0 + t 1 −1 H(t1 , τ )u(τ ) + τ =t0 t−1 H(t, τ )u(τ ) τ =t1 Poichè questa uguaglianza deve essere verificata per ogni u ed ogni x0 , ponendo u(·) = 0 si deduce a proprietà di semigruppo della matrice di transizione φ(t, t0 ) = φ(t, t1 )φ(t1 , t0 ) ∀t ≥ t1 ≥ t0 ponendo x0 = 0 si deduce la proprietà di separazione della matrice delle risposte impulsive nello stato H(t, τ ) = φ(t, t1 )H(t1 , τ ) ∀t ≥ t1 > τ 24 2. Rappresentazioni con lo stato lineari, a dimensione finita, stazionarie Infine la linearità di η su U × Y per ogno t e la dimensione finita di U ∼ = Rp e Y ∼ = Rq danno y(t) = C(t)x(t) + D(t)u(t) ove C(t) e D(t sono matrici di funzioni del tempo di dimensioni (q × n) e (q × p) rispettivamente, e quindi t−1 y(t) = C(t)(φ(t, t0 )x0 + H(t, τ )u(τ )) + D(t)u(t) τ =t0 Si ottengono dunque le seguenti espressioni per l’evoluzione dello stato e dell’uscita: x(t) = ϕ(t, t0 , x0 , u) = φ(t, t0 )x0 + t−1 H(t, τ )u(τ ) τ =t0 t y(t) = ψ(t, t0 )x0 + W (t, τ )u(τ )) τ =t0 dove W (t) = C(t)H(t, τ ) t0 ≤ τ < t, ψ(t, t0 ) = C(t)φ(t, t0 )x0 W (t) = D(t) τ = t Le precedenti relazioni definiscono una rappresentazione esplicita con lo stato di un sistema lineare a dimensione finita a tempo discreto. 2.1.b. Sistemi a tempo continuo Sia T = R e x0 ∈ X ∼ = Rn . La linearità di ϕ rispetto a x0 comporta ϕ(t, t0 , x0 , 0) = φ(t, t0 )x0 φ(t, t0 ) matrice (n × n) di funzioni su (R × R)∗ . Anche in questo caso P1. implica φ(t, t) = I. Per quanto riguarda la risposta forzata ϕf , nell’ipotesi che questa sia un funzionale continuo di u[t0 ,t) , si ha, per un noto teorema di rappresentazione di un funzionale lineare, t ϕ(t, t0 , 0, u[t0 ,t) ) = Ht,t0 (τ )u(τ )dτ t0 Se si nota che, per la linearità di ϕf , la transizione da t0 per effetto di un forzamento nullo fino a t1 è equivalente alla transizione da t1 : ϕ(t, t0 , 0, 0[t0 ,t1 ) ∗ u[t1 ,t) ) = ϕ(t, t1 , 0, u[t1 ,t) ) T (t1 ) risulta quindi t t Ht,t0 (τ )u(τ )dτ = t1 Ht,t1 (τ )u(τ )dτ t1 25 2.1. Struttura e proprietà delle rappresentazioni lineari e, per l’arbitrarietà di t0 e t1 è possibile definire Ht,t1 (τ ) = Ht,t0 (τ ) = H(t, τ ) da cui t ϕ(t, t0 , 0, u) = H(t, τ )u(τ )dτ. t0 La matrice H(t, τ ) è detta matrice delle risposte impulsive nello stato in quanto, con considerazioni analoghe a quelle svolte per i sistemi a tempo discreto, le sue colonne rappresentano le risposte nello stato a particolari ingressi: gli ingressi impulsivi. E necessario precisare che tale risultato è ottenuto nel contesto dei sistemi a tempo continuo, sulla base di un risultato generale di approssimazione, andando a valutare le risposte nello stato che si ottengono in corrispondenza di una successione di ingressi che tende all’impulso unitario (distribuzione δ di Dirac). Il limite, sulle risposte a successioni che selezionano un solo ingresso, l’i-mo, converge alla i–ma colonna di H. Come per i sistemi a tempo discreto alcune proprietà di φ ed H sono ottenute applicando la proprietà P3. Si ha t ϕ(t, t0 , x0 , u) =φ(t, t0 )x0 + H(t, τ )u(τ )dτ t0 ϕ(t, t1 , ϕ(t1 , t0 , x0 , u), u) =φ(t, t1 ) φ(t1 , t0 )x0 + t1 H(t1 , τ )u(τ )dτ + t0 t H(t, τ )u(τ )dτ t1 valida per ogni u e x0 . Ponendo u(·) = 0 e x0 = 0 si ottengono anche in questo caso le proprietà di semigruppo di φ ed H φ(t, t0 ) = φ(t, t1 )φ(t1 , t0 ) ∀t ≥ t1 ≥ t0 H(t, τ ) = φ(t, t1 )H(t1 , τ ) ∀t ≥ t1 ≥ τ Senza alcuna differenza rispetto al caso tempo-discreto y(t) = η(t, x(t), u(t)) = C(t)x(t) + D(t)u(t) con C(t) e D(t) matrici (q × n) e (q × p) di funzioni del tempo. Si ha quindi t C(t)H(t, τ )u(τ )dτ + D(t)u(t) y(t) = C(t)φ(t, t0 )x0 + t0 e sotto l’ipotesi che le funzioni di ingresso siano continue e η(t, φ(t, t0 , 0, u[t0 ,t) ), u) sia un funzionale continuo, ponendo W (t, τ ): = C(t)H(t, τ ) + D(t)δ(τ − t) in cui δ(t), la distribuzione di Dirac, è definita dalla seguente proprietà t+ u(τ )δ(τ − t)dτ u(t) = t− ∀ 26 2. Rappresentazioni con lo stato lineari, a dimensione finita, stazionarie si perviene alla seguente rappresentazione esplicita t x(t) = φ(t, t0 )x0 + H(t, τ )u(τ )dτ t0 t y(t) = ψ(t, t0 )x0 + W (t, τ )u(τ )dτ t0 ove ψ(t, t0 ) := C(t)φ(t, t0 ) e W (t, τ ) è una matrice (q × p) di distribuzioni detta matrice delle risposte impulsive in uscita. Il motivo di ciò è fondato sulle stesse considerazioni già fatte per H(t, τ ). Si noti che la matrice delle risposte impulsive W da sola rappresenta il comportamento forzato (cioè il comportamento ingresso-uscita a partire dallo stato zero). In questo senso si usa dire che la matrice delle risposte impulsive di un sistema lineare è un “modello” del comportamento forzato (la sua conoscenza e quella dell’ingresso consentono di calcolare l’uscita). Si noti anche come, a seguito della sua interpretazione come risposta ad ingressi impulsivi, si possa rilevare la presenza di una classe di ingressi, quelli impulsivi, che svolgono un ruolo particolare nello studio dei sistemi lineari (per tale motivo tali ingressi sono tra quelli cosidetti canonici), infatti la risposta ad un dato ingresso u(t) è ottenuta mediante la convoluzione dell’ingresso con le uscite corrispondenti agli ingressi impulsivi che caratterizzano W . Si noti che mentre (φ, H, ψ, W ) caratterizzano la rappresentazione data, cioè tutte le evoluzioni, W da sola caratterizza il comportamento forzato (da x0 = 0). Una questione interessante, che sarà esaminata nelle ipotesi di stazionarietà, riguarda la possibilità di ricostruire a partire da W le evoluzioni del sistema nel complesso. Problema delle relazioni tra modello forzato e modello complessivo. Per concludere le considerazioni circa le rappresentazioni lineari si sottolinea che la loro importanza è legata non solo alla ricchezza di risultati disponibili, ma anche al ruolo, spesso significativo, che lo studio delle rappresentazioni lineari approssimanti assegnate dinamiche non lineari svolge nello studio di diversi problemi di analisi e sintesi di sistemi. A tale proposito è interessante osservare come, assegnata una rappresentazione non lineare e una condizione di equilibrio, la rappresentazione lineare approssimante ottenuta a partire da una rappresentazione esplicita e quella ottenuta dalla rappresentazione implicita siano consistenti. In altre parole le soluzioni del sistema differenziale (alle differenze) lineare approssimante coincidono con la linearizzazione delle soluzioni del sistema differenziale (alle differenze) non lineare. La dimostrazione di tale risultato sarà affrontato nel prossimo capitolo con riferimento ai sistemi stazionari. 2.2. Le rappresentazioni implicite In questo paragrafo vengono introdotte le rappresentazioni implicite, descrizioni matematiche in termini di equazioni alle differenze e differenziali, che mettono in evidenza come i comportamenti di un sistema dinamico siano il risultato di un processo di evoluzione iterativo, per i sistemi a tempo discreto, di funzionamento ”in tempo reale” descritto da equazioni differenziali, per i sistemi a tempo continuo. 27 2.2. Le rappresentazioni implicite Sistemi a tempo discreto Come si è già osservato, l’evoluzione ad un passo dello stato per un sistema a tempo discreto è descritta da un’equazione della forma x(t + 1) = f (t, x(t), u(t)) f è detta funzione generatrice. La precedente equazione già mette in luce quanto asserito che, cioé, l’evoluzione è il risultato di un processo iterativo che a partire dallo stato e l’ingresso al tempo t, genera lo stato al tempo t + 1. Nelle ipotesi di linearità della funzione f sullo spazio X × U per ogni t e finita dimensione di ∼ X = Rn ed U ∼ = Rp , si ha x(t + 1) = A(t)x(t) + B(t)u(t) ove A(t) e B(t) sono matrici di funzioni del tempo di dimensioni (n × n) e (n × p) definite da A(t): = φ(t + 1, t), B(t): = H(t + 1, t) Inoltre come già ricordato la linearità di η su X × U per ogni t e la dimensione finita di Y ∼ = Rq danno y(t) = C(t)x(t) + D(t)u(t) Le precedenti equazioni definiscono una rappresentazione implicita con lo stato di un sistema lineare a dimensione finita a tempo discreto. Sistemi di equazioni alle differenze di tale tipo danno una rappresentazione ricorsiva della generazione del legame funzionale ingresso-stato-uscita caratteristico di un sistema dinamico. Per tale motivo sono interessanti dal punto di vista ingegneristico: esse consentono, eventualmente mediante simulazione, di costruire un dispositivo che simula in tempo reale il comportamento dinamico del sistema. Il seguente schema, detto di realizzazione o simulazione, rende conto di tale aspetto. D u( t ) x (t+1) B + + −1 x( t ) z + C + y (t ) A Figura 2.1 Sistemi a tempo continuo L’esistenza di rappresentazioni implicite nel caso tempo-continuo è subordinato al sussistere dell’ipotesi di regolarità. Essa consiste nell’assumere che ϕ(t, t0 , x0 , u) sia soluzione di un’equazione differenziale 28 2. Rappresentazioni con lo stato lineari, a dimensione finita, stazionarie ∂ϕ = ẋ(t) = f (t, ϕ, u(t)) ∂t Si mostrerà ora che se la rappresentazione esplicita è lineare anche la funzione generatrice lo è sullo spazio prodotto, X × U . Si può infatti dimostrare il seguente risultato. Esiste una rappresentazione implicita, o differenziale, del tipo ẋ(t) = A(t)x(t) + B(t)u(t) con A(t) matrice (n × n) di funzioni continue, B(t) matrice (n × p) di funzioni continue, se e solo se la matrice di transizione dello stato φ e la matrice delle risposte implusive nello stato H sono funzioni continue su (R×R)∗ ed inoltre φ è derivabile rispetto al primo argomento e la sua derivata è continua. Sotto tali ipotesi risulta, infatti, φ(t + , τ ) − φ(t, τ ) ∂φ(t, τ ) = lim →0 ∂t φ(t + , t) − φ(t, t) = lim φ(t, τ ) →0 = A(t).φ(t, τ ) ove la continuità di φ e ∂φ ∂t implicano quella di A. Inoltre ∂ ∂ H(t, τ ) = φ(t, t1 )H(t1 , τ ) ∂t ∂t = A(t)φ(t, t1 )H(t1 , τ ) = A(t)H(t, τ ) Ciò posto, derivando la x(t) nella sua forma esplicita, si ha ∂ ẋ(t) = ∂t t φ(t, t0 )x0 + H(t, τ )u(τ )dτ t0 t = A(t)φ(t, t0 )x0 + A(t)H(t, τ )u(τ )dτ + H(t, t)u(t) t0 = A(t)x(t) + B(t)u(t) in cui B(t): = H(t, t) è continua per l’ipotesi. La necessità delle citate condizioni, assunta l’esistenza di una funzione generatrice lineare su X × U , con A(t) e B(t) continue, segue immediatamente dalla teoria delle equazioni differenziali lineari. A tale proposito è importante osservare che se si indica con X(.) una matrice fondamentale di soluzioni dell’equazione differenziale matriciale ẋ(t) = A(t)x(t) risulta X(t)X −1 (τ ) = φ(t, τ ) 29 2.3. Le Rappresentazioni Lineari Stazionarie con φ(t, τ ) definita su (R × R); ne consegue che φ(t, τ )φ(τ, t) = φ(t, t) = I ⇒ φ(t, τ ) = φ(τ, t)−1 che esprime il sussistere di una proprietà di gruppo sulla matrice di transizione dello stato. Per completezza giova ricordare che una matrice fondamentale X(t) è soluzione di Ẋ = A(t)X con X(t0 ) = I la cui soluzione ammette la seguente espansione in serie di Newman t φ(t, t0 ) = I + A(τ1 )dτ1 + t0 t ... + t τ1 A(τ1 ) A(τ2 )dτ2 dτ1 + t0 t0 τi−1 A(τ1 ) . . . A(τi )dτi . . . dτ1 + . . . t0 t0 In conclusione sotto le ipotesi di linearità, finita dimensione e regolarità si ottiene una rappresentazione differenziale (implicita) del tipo ẋ(t) = A(t)x(t) + B(t)u(t) y(t) = C(t)x(t) + D(t)u(t) x(t0 ) = x0 Tale rappresentazione è una realizzazione differenziale del legame funzionale che caratterizza il comportamento dinamico del sistema. É interessante osservare che la caratteristica peculiare di un tale tipo di descrizione è che essa può essere utilizzata per generare “in tempo reale” le evoluzioni nello stato ed in uscita al variare di t. Questa caratteristica è evidente se si osserva lo schema di realizzazione o simulazione, riportato in figura, che corrisponde ad una possibile realizzazione, sia fisica che numerica, mediante dispositivi in grado di effettuare integrali, moltiplicazioni e somme. D . x( t ) u( t ) B + x( t ) + C + + y (t ) A Figura 2.2 2.3. Le Rappresentazioni Lineari Stazionarie Una ulteriore specializzazione della classe di sistemi si ottiene assumendo la stazionarietà, condizione soddisfatta, con buona approssimazione, da molti sistemi fisici. Tale proprietà esprime l’invarianza rispetto al tempo del comportamento del sistema. 30 2. Rappresentazioni con lo stato lineari, a dimensione finita, stazionarie Definizione 2. Una rappresentazione (X, ϕ, η) si dice stazionaria se ∀(t, t0 ), ∀x0 , ∀u: ∆δ ϕ(t, t0 , x0 , u) = ϕ(t + δ, t0 + δ, x0 , (∆δ u) ) [t0 +δ,t+δ) ∆δ η(t, x, u) = η(t + δ, x, u) ove ∆δ indica l’operatore di traslazione a destra definito come ∆δ (f (t)) = f (t − δ) 2.3.a. Rappresentazioni a tempo discreto Per una rappresentazione stazionaria a tempo discreto si ottiene dunque x(t) = ϕ(t − t0 , 0, x0 , u) y(t) = η(0, x(t), u(t)) che assieme a dimensione finita e linearità forniscono la seguente rappresentazione esplicita x(t) = φ(t − t0 )x0 + t−1 H(t − τ )u(τ ) τ =t0 y(t) = Cx(t) + Du(t) ed ancora y(t) = ψ(t − t0 )x0 + t W (t − τ )u(τ ) τ =t0 ove ψ(t − t0 ) = Cφ(t − t0 ) CH(t − τ ), t > τ W (t − τ ) = D, t = τ Se si esprime la transizione dello stato su un intervallo di tempo (t + 1 → t e t → t0 ), si ottiene la seguente rappresentazione implicita x(t + 1) = Ax(t) + Bu(t), x(t0 ) = x0 y(t) = Cx(t) + Du(t) ove si è posto A = φ(1) B = H(1) Il calcolo della rappresentazione esplicita a partire da quest’ultmia dà φ(t − t0 ) = At−t0 H(t − τ ) = At−τ −1 B ψ(t − t0 ) = CAt−t0 W (t − τ ) = CAt−τ −1 B W (0) = D viceversa, dalla rappresentazione esplicita a quella implicita, si passa ponendo A = φ(1), B = H(1), D = ψ(0), C = W (0) 31 2.4. Rappresentazioni implicite equivalenti 2.3.b. Rappresentazioni a tempo continuo Analoghe considerazioni nel contesto tempo-continuo consentono di definire una rappresentazione lineare stazionaria a dimensione finita. Si ottiene la rappresentazione esplicita t x(t) = φ(t − t0 )x0 + H(t − τ )u(τ ) t0 y(t) = Cx(t) + Du(t) ed ancora t y(t) = ψ(t − t0 )x0 + W (t − τ )u(τ )dτ t0 ove ψ(t − t0 ) = Cφ(t − t0 ), W (t − τ ) = CH(t − τ ) + Dδ(t − τ ) Per tale rappresentazione possono essere ripetute le considerazioni svolte nel caso non stazionario. (φ, H, ψ, W ) soddisfano le condizioni già esaminate nel caso tempo variante che si particolarizzano senza difficoltà. Sotto l’ulteriore ipotesi di regolarità (continuità di φ e H e derivabilità di φ) è facile ottenere la rappresentazione differenziale (o implicita) ẋ(t) = Ax(t) + Bu(t), x(0) = x0 y(t) = Cx(t) + Du(t) in cui si assume, senza perdita di generalità che t0 = 0. Per quanto riguarda il passaggio alla descrizione esplicita si ha φ(t) = eAt : = tk k≥0 k! Ak come risulta immediatamente dal calcolo mediante la serie di Newman con A(t) = A oppure come si verifica immediatamente per derivazione e sostituzione nell’equazione differenziale matriciale Ẋ = AX. In definitiva, il passaggio dalla rappresentazione impicita a quella esplicita comporta il calcolo delle seguenti matrici φ(t) = eAt H(t) = eAt B ψ(t) = CeAt W (t) = CeAt B + Dδ(t) Il passaggio inverso, dalla rappresentazione esplicita a quella implicita, si ha ponendo d φ(t) dt t=0 B = H(0) A= C = ψ(0) t+ (W (t − τ ) − CH(t − τ ))dτ D= t− 32 2. Rappresentazioni con lo stato lineari, a dimensione finita, stazionarie 2.4. Rappresentazioni implicite equivalenti Il concetto di equivalenza tra rappresentazioni con lo stato è collegato alla non unicità nella scelta dello stato per descrivere un dato sistema dinamico già trattata nel paragrafo 1.3. Nel caso generale, assegnato il sistema ẋ(t) = f (x(t), u(t)) y(t) = h(x(t), u(t)) e la trasformazione di variabili di stato invertibile z = T (x) x = T −1 (z) il calcolo diretto della derivata rispetto al tempo fornisce la rappresentazione equivalente rispetto alle variabili z ∂T (x) −1 f (T −1 (z(t)), u(t)) | dx x=T (z(t)) y(t) = h(T −1 (z(t)), u(t)) ż = 2.4.a. Rappresentazioni lineari equivalenti Per un’assegnata rappresentazione con lo stato lineare, tra le diverse scelte di variabili di stato quelle che sono legate da una trasformazione di coordinate lineare mantengono la struttuta, lineare, della rappresentazzione. Infatti, assegnato il sistema ẋ(t) = Ax(t) + Bu(t) y(t) = Cx(t) + Du(t) ed una trasformazione lineare di variabili di stato, con T matrice (n × n) costante nonsingolare z = Tx |T | = 0 si ottiene la rappresentazione ż(t) = T ẋ(t) = T Ax(t) + T Bu(t) = T AT −1 z(t) + T Bu(t) y(t) = CT −1 z(t) + Du(t) che è ancora dello stesso tipo con matrice dinamica T AT −1 (matrice simile ad A), matrice degli ingressi T B, e matrice delle uscite CT −1 . Con analoghi passaggi si perviene alle stesse espressioni nel caso di sistemi a tempo discreto. I precedenticalcoli mostrano, tra l’altro, che la dinamica in evoluzione libera nello stato è descritta da un operatore lineare che assume in una fissata base una rappresentazione matriciale. Trasformazioni lineari della base inducono modifiche secondo una trasformazione di similitudine. 33 2.4. Rappresentazioni implicite equivalenti Da un punto di vista operativo giova osservare ccome procedere per effettuare una trasformazione di coordinate. Se x è una n–pla che rappresenta un vettore, sia v, rispetto ad una base di riferimento, ei , i = 1, ..n, cioè 0 1 0 1 0 ... 0 x = Σxi ei = ... x1 + . x2 + ... + 0 xn .. 0 1 0 poichè x = T −1 z (T −1 )i , l’iesima colonna di (T −1 ) (T −1 )i = T −1 · 0 .. . 0 1 i − ma 0 .. . 0 è la rappresentazione dell’ iesimo vettore della nuova base (quella in cui il vettore è rappresentato da z) rispetto alla vecchia base (quella in cui il vettore è rappresentato da x). Questo vuol dire che effettuare una trasformazione lineare di variabile di stato del tipo z = T x significa, da un punto di vista operativo, scegliere una nuova base dello spazio di stato che è ∼ ∼ rappresentata dalle colonne di T −1 , e 1 , ..., e n nelle coordinate di x. Si ha cioè ∼ ∼ T −1 = ( e 1 , ..., e n ) A titolo di esempio non si troverà difficoltà nel calcolare la trasformazione di coordinate che inverte l’ordine delle variabili di stato. 2.4.b. Rappresentazioni non lineari di sistemi lineari Un’ osservazione conclusiva verte a chiarire, con un semplice esempio, che esistono rappresentazioni non lineari di sistemi lineari. Assegnato, a tal fine, il seguente sistema lineare scalare, i seguenti calcoli sono immediati: x = lnz ẋ(t) = ax(t) + bu(t) z = ex ż(t) = ex (ax(t) + bu(t)) = az(t)lnz(t) + bz(t)u(t) 34 2. Rappresentazioni con lo stato lineari, a dimensione finita, stazionarie e chiariscono quanto affermato che, cioè esistono rappresentazioni non lineari di sistemi lineari. Più in generale si ha, rispetto a una trasformazione di coordinate non lineare z = T (x) (x = −1 T (z)) ∂T (x) ∂T (x) AT −1 (z) + Bu ż = −1 dx x=T (z) dx x=T −1 (z) y = CT −1 (z) + Du che è una rappresentazione non lineare del sistema lineare dato. 2.5. Rappresentazioni lineari come approssimazioni di sistemi non lineari Le rappresentazioni lineari sono importanti anche perchè possono essere impiegate per descrivere il comportamento di un sistema dinamico generale intorno a prefissati comportamenti di riferimento. L’approssimazione lineare di un sistema dinamico è la generalizzazione del semplice concetto di approssimazione di una curva nell’intorno di un fissato punto mediante la tangente in quel punto. Con riferimento alla generica funzione non lineare f (x) intorno ad un valore fissato f (xe ) lo sviluppo in serie arrestato al primo ordine fornisce df (x − xe ) + .... y = f (x) = f (xe ) + dx xe e posto xa = x − xe , ya = y − f (xe ), m = la curva intorno ad xe df dx |xe si ottiene la relazione lineare seguente che approssima ya = mxa La stessa ‘procedura’ può essere applicata ad un assegnato sistema non lineare A tale proposito è interessante osservare come, sempre nel caso t-discreto e sotto le ipotesi di regolarità nel caso t-continuo, la rappresentazione lineare approssimante ottenuta a partire da una rappresentazione esplicita e quella ottenuta dalla rappresentazione implicita siano consistenti. In altre parole e con riferimento al caso t-continuo, le soluzioni del sistema differenziale lineare approssimante coincidono con la linearizzazione delle soluzioni del sistema differenziale non lineare. La dimostrazione di questo risultato nel caso generale riposa su risultati di base sulla teoria dell’approssimazione di funzionali non lineari e viene qui proposta con riferimento alla situazione più ricorrente nelle applicazioni, quella in cui si voglia approssimare il comportamento intorno ad una condizione di equilibrio. Si assuma t0 = 0 e siano xR (0), uR (·) e xR (·) uno stato iniziale, una funzione d’ingresso e la corrispondente evoluzione nello stato, assunte di riferimento per un assegnato sistema stazionario. Se si indica con ∆x(·) e ∆y(·) gli scostamenti delle evoluzioni nello stato ed in uscita corrispondenti a variazioni dello stato iniziale ∆x(0) = x(0) − xR (0) e dell’ingresso ∆u(·) = u(·) − uR (·) esse ammettono la rappresentazione esplicita ∆x(t) = ϕ(t, x(0), u(·)) − ϕ(t, xR (0), uR (·)) = ϕl (t, ∆x(0), ∆u(·)) + O2 (∆x(0), ∆u(·)) 2.5. Rappresentazioni lineari come approssimazioni di sistemi non lineari 35 ∆y(t) = η x(t), u(t) − η xR (t), uR (t) = ηl ∆x(t), ∆u(t) + O2 (∆x(t), ∆u(·)) la cui approssimazione lineare è ∂ϕ xa (t) = ϕl (t, xa (0), ∆u(·)) = ∆x(t) + ϕl (t, 0, ∆u(·)) ∂x xR (0)uR (·) ∂η ∂η ∆x(t) + ∆u(t) ya (t) = ηl ∆x(t), ∆u(t) = ∂x xR (t)uR (t) ∂u xR (t)uR (t) Per la rappresentazione implicita ẋ = f (x, u) y = h(x, u) con calcoli analoghi ai precedenti: ∂f ∂f ẋa (t) = xa (t) + ∆u(t) = A(t)xa + B(t)∆u ∂x xR (t)uR (t) ∂u xR (t)uR (t) ∂h ∂h ya (t) = xa (t) + ∆u = C(t)xa + D(t)∆u ∂x xR (t),uR (t) ∂u xR (t),uR (t) Se xR (·) = cost allora anche uR (·) = cost e f (xR , uR ) = 0. In tal caso il sistema approssimante è stazionario. Mostreremo ore che intorno ad una coppia di equilibrio, (xe , ue ): f (xe , ue ) = 0, l’approssimazione lineare della soluzione ammette, come funzione generatrice, l’approssimazione lineare della funzione generatrice del sistema dato. Si ricordino, innanzituto le notazioni: ẋ = f (x, u) x(t) = ϕ(t, x, u) e ∂ϕ(t, x, u) = f ϕ(t, x, u), u ∂t Si proceda, quindi, al calcolo dell’approssimazione lineare della soluzione. Si ottiene t ∂ϕ ϕ(t, x, u) = ϕ(t, xe , ue ) + (x − xe ) + ϕl (t − τ )(u(τ ) − ue )dτ + . . . ∂x xe ,ue 0 Posto ∂ϕ Φ(t) = ∂x xe ,ue la proprietà di separazione implica le proprietà di semigruppo sulle funzioni Φ e ϕl , cioè Φ(t − τ ) = Φ(t − t1 )Φ(T1 − τ ), ϕl (t − τ ) = Φ(t − t1 )ϕl (t1 − τ ) t ≥ t1 ≥ τ 36 2. Rappresentazioni con lo stato lineari, a dimensione finita, stazionarie Derivando rispetto al tempo la precedente identità, si ottiene: dΦ(t) f (x(t), u(t)) = 0 + |t=0 Φ(t)(x0 − xe ) + dt t ϕl (t − τ )(u(τ ) − ue )dτ + ϕl (0)(u(t) − ue ) + . . . 0 cioè: dΦ(t) |t=0 (x(t) − xe ) + ϕl (0)(u(t) − ue ) + . . . dt Rimane cosı̀ individuata l’approssimazione sulla soluzione che, per l’unicità delle soluzioni di un’equazione differenziale, comporta che = dΦ(t) ∂f |t=0 = ∂x xe ,ue dt ∂f = ϕl (0) ∂u xe ,ue In sintesi con riferimento ad un’assegnata rappresentazione differenziale intorno ad una coppia di equilibrio, ẋ = f (x, u) f (xe , ue ) = 0 y = h(x, u) h(xe , ue ) = he si ha l’approssimazione lineare ẋa = Axa + Bv ya = Cxa + Dv ove si è posto xa = x − xe , v = u − ue , ya = y − ye ∂f A= ∂x xe ,ue ∂f B= ∂u xe ,ue ∂h C= ∂x xe ,ue ∂h D= ∂u xe ,ue Due semplici esempi di applicazione sono introdotti nel seguito: Pendolo Le equazioni che descrivono la dinamica di un pendolo di massa m, sospeso ad un’asta rigida di peso trascurabile di lunghezza l, possono essere facilmente ottenute dall’equilibrio delle forze lungo la tangente al moto. Si ha mlθ̈(t) + mgsenθ(t) + klθ̇(t) = u(t) Dove u rappresenta una forza esterna agente, e k è un coefficiente di attrito dinamico. Posto x1 (t) = θ(t) e x2 (t) = θ̇(t) si ottiene: 2.5. Rappresentazioni lineari come approssimazioni di sistemi non lineari 37 ẋ1 (t) = x2 (t) ẋ2 (t) = −g k 1 senx1 (t) − x2 (t) + u(t) l m ml cioè una rappresentazione con lo stato non lineare del tipo ẋ(t) = f (x(t)) + 0 1 ml u(t) Il calcolo delle coppie di equilibrio corrispondenti ad ingresso nullo, ue = 0, fornisce xe2 = 0, xe1 = (2h + 1)π oppure xe1 = 2hπ cioè tutti gli stati di equilibrio con la massa nelle posizioni verticali sopra e sotto il punto di attacco. Intorno agli stati di equilibrio sopra il punto di attacco si ha il modello linearizzato: ẋ1 (t) = x2 (t) ẋ2 (t) = g −k 1 x1 (t) + x2 (t) + u(t) l m ml per gli altri: ẋ1 (t) = x2 (t) ẋ2 (t) = −g −k 1 x1 (t) + x2 (t) + u(t) l m ml Dinamica di due specie interagenti Il seguente modello che descrive la dinamica di due specie interagenti, preda e predatore, è stato introdotto nel 1926 dal matematico italiano Vito Volterra e prende il suo nome. Tale modello riesce ad interpretare l’aspetto più saliente di tale fenomeno: si tratta della presenza di situazioni di equilibrio che, se perturbate, vedono insorgere fenomeni di oscillazione (alternanza di sviluppo tra le specie). Si assume, nella formulazione del modello, che: - la preda cresce, in assenza di predazione, secondo la cosiddetta equazione logistica ẋ1 (t) = ax1 (t) − kx21 (t) (si tratta di un equazione differenziale che mette bene in evidenza sia un andamento esponenziale della crescita nella fase iniziale dell’evoluzione e per modesti valori di densità, sia una tendenza asintotica ad un valore limite, ka (capacità portante) , che tiene conto di fattori limitanti quali, ad esempio, la limitatezza delle risorse); - il predatore ha come unico sostentamento la preda ed in assenza di questa diminuisce secondo un andamento esponenziale governato dalla seguente equazione differenziale ẋ2 (t) = −cx2 (t) - il tasso di predazione è proporzionale al prodotto degli individui delle due specie 38 2. Rappresentazioni con lo stato lineari, a dimensione finita, stazionarie Con queste assunzioni le equazioni che descrivono l’evoluzione delle specie possono essere facilmente dedotte dalle precedenti equazioni. Si ottiene: ẋ1 (t) = ax1 (t) − bx1 (t)x2 (t) ẋ2 (t) = −cx2 (t) + dx1 (t)x2 (t) y1 (t) = x1 (t) y2 (t) = x2 (t) Si ha quindi ancora una volta un modello nonlineare dello stesso tipo del precedente. Come è facile verificare si hanno in questo caso due punti di equilibrio: uno banale, corrispondente all’assenza di specie, l’altro c x2 (−c + dx1 ) = 0 → x1e = d x1 (a − kx1 − bx2 ) = 0 → x2e = ad − kc bd Intorno a tale punto di equilibrio l’evoluzione è approssimata da un sistema lineare in evoluzione libera con A= − kc d ad−kc b − bc d 0 2.6. Rappresentazioni a tempo discreto di sistemi a tempo continuo Le rappresentazioni a tempo discreto possono essere impiegate per descrivere o approssimare sistemi a tempo continuo come viene precisato nel seguito. Assegnato un sistema a tempo continuo in cui gli ingressi sono costanti a tratti su intervalli di ampiezza fissa, se si è interessati a calcolare le evoluzioni negli istanti, detti di campionamento, corrispondenti alla variazione dell’ingresso è possibile ricondursi ad un sistema a tempo discreto equivalente. La situazione è rappresentata nella figura 9.2; il calcolo del modello discreto equivalente è noto come problema della discretizzazione. Tale problema trova applicazione nello studio di sistemi reali collegati a dispositivi digitali; in tali circostanze l’ingresso è costante a tratti e le grandezze sono tutte ricondotte ad una scala temporale discreta multipla del ciclo di calcolo elementare. Una diversa circostanza che conduce a riferirsi al problema della discretizzazione è quando gli ingressi continui vengono campionati; in tal caso il modello discreto descrive in modo approssimato il comportamento campionato del sistema a tempo continuo alimentato da ingresso non sottoposti al processo di campionamento e tenuta. Questa procedura è quella alla quale ci si riferisce quando si compiono simulazioni numeriche sul modello di un assegnato sistema. 39 2.6. Rappresentazioni a tempo discreto di sistemi a tempo continuo H S TC u y Clock S TD Figura 2.3 Il calcolo della rappresentazione a tempo discreto equivalente associata ad una data rappresentazione con lo stato comporta la conoscenza della rappresentazione esplicita, e quindi della soluzione del sistema di equazioni differenziali che descrivono il sistema. Poichè come è noto non esistono espressioni in forma chiusa della soluzione di equazioni differenziali non lineari di forma generica, il calcolo in tal caso non può che essere effettuato per via approssimata. L’approssimazione consiste nel troncamento ad un prefissato ordine dello sviluppo in serie di Taylor della evoluzione nello stato. Posto t0 = kT e t = (k + 1)T , ed assumendo per convenzione l’intervallo unitario del sistema a tempo discreto pari a T , si ottiene T2 ẋ|x(k) ... 2 L’arresto al primo ordine nel precedente sviluppo in serie fornisce la cosiddetta approssimazione di Eulero. Come già osservato quando S è lineare il modello discreto equivalente può essere calcolato senza difficoltà a partire dalle espressioni dell’evoluzione nello stato e in uscita tra due istanti di campionamento ricordando che l’ingresso è costante nell’intervallo di tempo considerato. A partire dal sistema continuo ẋ(t) = Ax(t) + Bu(t) x(t0 ) = x0 y(t) = Cx(t) x(k + 1) = x(k) + T ẋ|x(k) + si ha A(t−t0 ) x(t) = e t eA(t−τ ) Bu(τ )dτ x0 + t0 e, posto t0 = kT , t = (k + 1)T x (k + 1)T = eAT x(kT ) + (k+1)T eA (k+1)T −τ kT x (k + 1)T = eAT x(kT ) + dτ Bu(kT ) (k + 1)T − τ = ξ T eAξ dξBu(kT ) 0 Se per convenzione assumiamo che l’intervallo temporale di ampiezza T coincida con il passo unitario del sistema a tempo discreto che si considera, ecco che l’espressione precedente rappresenta un sistema a tempo discreto. x(k + 1) = AD x(k) + BD u(k) y(k) = Cx(k) 40 2. Rappresentazioni con lo stato lineari, a dimensione finita, stazionarie ove AT AD = e T eAξ dξB BD = CD = C 0 Aspetti connessi al calcolo del sistema discretizzato. Nei casi pratici è frequente calcolare AD , BD per via numerica a partire da A, B e T ed impiegando l’espressione dello sviluppo in serie di eAT . T2 2 Tn n A + ... + A + ... 2 n! E’ chiaro che arrestando il calcolo in corrispondenza di un n sufficientemente grande l’errore che si commette è piccolo. eAT = I + AT + Una procedura sistematica per mantenere sotto controllo l’approssimazione è quella qui di seguito indicata. Si definisca TA TA TA TA T A T 2 A2 I+ ... I+ ... = I + + + ... ψn := I + 2 3 n−1 n 2 3! in cui n è scelto in modo che sia soddisfatta la seguente diseguaglianza AD e BD possono ora essere calcolate a partire da ψn . Infatti AD = I + T A(I + e quindi con buona approssimazione e, allo stesso modo, T A n < . T A T 2 A2 + + . . .) 2 3! AD ∼ = I + T A · ψn BD ∼ = ψn T B E’ immediato a questo punto il collegamento con l’approssimazione di Eulero introdotta in precedenza. Tale approssimazione corrisponde ad approssimare la derivata prima dell’evoluzione dello stato con il suo rapporto incrementale. Si ha infatti ẋ(t) ∼ = x(t + δ) − x(t) ∼ = Ax(t) + Bu(t) δ posto t = kδ, δ = T ed assunto, per convenzione di ampiezza T l’intervallo unitario, si ottiene x(k + 1) = x(k) + T Ax(k) + T Bu(k) che coincide con il troncamento al primo ordine in T degli sviluppi associati alle matrici AD e BD . Rimane quindi dimostrato che l’approssimazione di Eulero, valida per T piccolo, approssima la descrizione mediante il modello a tempo discreto equivalente da noi calcolato nel senso dell’approssimazione al primo ordine del relativo sviluppo in serie. 41 2.7. Rappresentazioni implicite singolari 2.7. Rappresentazioni implicite singolari Una rappresentazione cui spesso si perviene nella modellistica dei sistemi dinamici è quella cosiddetta singolare, cioè del tipo S∆z(t) = F z(t) + Gu(t) in cui ∆ indica l’operatore di derivazione o di anticipo ed S è una matrice quadrata (N, N ) singolare. Se cosı̀ non fosse sarebbe infatti immediato ricondursi ad una rappresentazione implicita del tipo noto. Se supponiamo che S abbia rango n < N , con un riordinamento delle variabili ed una trasformazione del tipo ζ = Tz si ottiene una rappresentazione della forma E 0 ∆ζ(t) = F1 F2 ζ(t) + G1 G2 u(t) La precedente espressione mette bene in evidenza che il modello matematico è composto da equazioni defferenziali ed equazioni elgebriche; si tratta di una rappresentazione alla quale si perviene ad esempio nella modellistica di fenomeni reali in presenza di vincoli lineari sulle variabili. Mentre si rinvia alla letteratura specialistica per il caso generale, è opportuno notare che è possibile ricondursi ad una rappresentazione con lo stato se det E F2 = 0 . Per rendersi conto di quanto asserito si definisca x = Eζ poichè F2 ζ = −G2 u E F2 ζ= x −G2 u ⇒ζ= E F2 −1 x −G2 u da cui, infine, ∆x(t) = F1 E F2 −1 x(t) −G2 u + G1 u(t) = Ax(t) + Bu(t) A titolo di esercizio si suggerisce di applicare la procedura indicata per il calcolo del modello proposto all’esempio 1.10 (Dinamica del prodotto nazionale lordo). 3. Le proprietà geometriche dello spazio di stato In questo capitolo vengono introdotte e studiate le proprietà geometriche dello spazio di stato. Il concetto fondamentale è quello di sottospazio invariante associato ad un operatore lineare già messo in luce nei precedenti capitoli per il ruolo che esso ha nella individuazione delle forme semplici di una data matrice. Come avremo occasione di mostrare, tale concetto acquisisce un significato particolare nella caratterizazione del comportamento dinamico; si tratta di un aspetto che supera il contesto lineare e sarà infatti poi ripreso nello studio dei sistemi dinamici non lineari. L’invarianza è il punto di partenza per lo studio di due prroprietà fondamentali nello studio dei sistemi dinamici. La prima riguarda il legame stato-uscita e si riferisce all’esistenza di stati ai quali corrispondono uscite coincidenti. Come avremo occasione di approfondire, da un punto di vista esterno ciò costituisce un impedimento alla ricostruzione delle evoluzioni interne a partire dalle osservazioni (inosservabilità del sistema) e rappresenta una ridondanza della rappresentazione con lo stato (si ricordi quanto già osservato nel capitolo 1.3.). La seconda riguarda il comportamento ingresso stato e più in particolare la possibilità di intervenire sugli ingressi per raggiungere prefissati stati. Da un punto di vista esterno ciò esprime la possibilità di modificare il comportamento dinamico di parte del sistema e l’eventuale presenza di stati non raggiungibili manifesta la presenza di una ridondanza dello stato nella descrizione del comportamento ingresso uscita forzato. 3.1. Il concetto di invarianza Come è noto, ed è stato ricordato nel capitolo terzo a proposito del calcolo della matrice di transizione, il concetto di sottospazio invariante svolge un ruolo importante nella teoria degli operatori lineari. Ciò in virtù delle semplificazioni che assume la struttura della matrice che rappresenta l’operatore al variare della base. Dal un punto di vista del comportamento dinamico questa proprietà ne induce un’altra che è più significativa e che ora si cercherà di mettere in luce. 43 3.1. Il concetto di invarianza Sia V un sottospazio di dimensione m invariante rispetto ad un operatore lineare A in uno spazio lineare di dimensione n. Si indichino con V ed A, rispettivamente, una matrice di vettori di base del sottospazio ed una rappresentazione dell’operatore in un assegnata base. Si avrà AV ⊂ V ciò che implica, in una eventuale nuova base, una struttura a blocchi particolare della matrice che rappresenta l’operatore. Più precisamente se T indica una trasformazione di coordinate in cui i primi m vettori della nuova base sono una base di V (questo di ha ad esempio fissando una T −1 le cui prime m colonne sono date dalla matrice V ) allora, nelle nuove coordinate, T AT −1 = A11 0 A12 A22 dove A11 è una matrice (m × m). La verifica di quanto asserito è immediata se si pensa che nella nuova base il generico vettore, v, in V è rappresentato da una ennupla di numeri reali in cui i primi m sono qualsiasi ed i restanti n − m sono nulli. Poiché per l’invarianza Av ∈ V , se ne deduce la presenza del blocco di zeri in basso a sinistra nella rappresentazione dell’operatore. Dunque da un punto di vista delle trasformazioni che induce, un sottospazio invariante è un autospazio. Ogni sottospazio invariante è infatti necessariamente generato da un sottoinsieme degli autospazi della matrice. Questo fatto lascia intendere che da un punto di vista dinamico, cioè per quanto riguarda le evoluzioni libere del sistema ad esso associato, le evoluzioni che partono da uno stato iniziale in V restano in V . Infatti il sistema è descritto dalle equazioni ż1 = A11 z1 + A12 z2 + B1 u ż2 = A22 z2 + B2 u e in evoluzione libera con z2 (0) = 0 resta z2 (t) = 0. Ma non è questo l’aspetto più interessante. La questione più significativa, per quanto riguarda le evoluzioni del sistema è che a partire da due generiche condizioni iniziali la cui differenza appartiene a V le evoluzioni, istante per istante, mantengono la proprietà degli stati iniziali. Ciò significa che a partire da stati che appartengono alla stessa varietà affine ottenuta per traslazione del sottospazio V le evoluzioni si mantengono in varietà affini della stessa classe. In termini sintetici varietà traslate di V evolvono in varietà traslate o, equivalentemente la struttura indotta per traslazione da V , la foliazione, è invariante rispetto alla dinamica. In figura, con riferimento ad uno spazio bidimensionale, sono schematicamente raffigurati V , la foliazione indotta ed il concetto di invarianza sotto la dinamica. 44 3. Le proprietà geometriche dello spazio di stato Il sottospazio invariante è nella nullità di C Un’ulteriore situazione di interesse dal punto di vista del comportamento dinamico si presenta se il sottospazio invariante V è contenuto nel kernel della matrice C. Si comprende immediatamente che in tale circostanza nelle coordinate z il sistema è descritto dalle equazioni ż1 = A11 z1 + A12 z2 + B1 u ż2 = A22 z2 + B2 u (3.1) y = C2 z2 Infatti il venerico vettore di V , rappresentato da una ennupla di numeri reali in cui i primi m sono qualsiasi ed i restanti n − m sono nulli, dovrà essere annullato mediante l’applicazione di C e questo è possibile solo se la matrice C ha le prime m colonne nulle. Le equazioni mettono bene il luce il fatto che un’evoluzione che parte da uno stato iniziale in V , z2 (0) = 0, dà uscita identicamente nulla. Ma, come prima, non è questo l’aspetto più significativo dal punto di vista della dinamica. Ciò che interessa è che poichè le evoluzioni che muovono da stati che appartengono alla stessa foglia, una varietà traslata di V , appartengono istante per istante ad una stessa foglia eAt (z(0) − z (0)) ∈ V ne segue che CeAt z(0) = CeAt z (0) cioè alle evoluzioni che muovono da una stessa foglia è associata la stessa funzione di uscita. Si tratta di una situazione di interesse che studieremo nel prossimo paragrafo e che rappresenta geometricamente e da un punto di vista dinamico l’impossibilità di distinguere, dall’uscita, stati che appartengono ad una stessa foglia (si veda la figura). L’immagine di B è nel sottospazio invariante Una situazione ancora diversa, e di interesse, si presenta quando il sottospazio invariante V contiene l’immagine della matrice degli ingressi B. In questo caso il sistema nelle coordinate z è descritto dalle equazioni ż1 = A11 z1 + A12 z2 + B1 u ż2 = A22 z2 Infatti, poichè le colonne di B sono in V esse ammettono una rappresentazione con ennuple di numeri con i soli primi m eventualmente non nulli. Le equazioni mettono bene il luce l’effetto del forzamento sulle evoluzioni del sistema. In particolare è evidente che non è possibile, muovendo da uno stato iniziale in V , z2 (0) = 0, uscire da tale sottospazio in quanto il controllo non ha effetto sulla dinamica esterna a V . Anche in questo caso l’aspetto più significativo dal punto di vista del comportamento dinamico risiede nell’osservare che le evoluzioni che muovono da due stati che appartengono alla stessa foglia appartengono istante per istante alla stessa foglia, e questa proprietà di invarianza della struttura è mantenuta identica anche in presenza 45 3.2. Inosservabilità di ingressi non nulli e diversi. Infatti per azione dell’ingresso non possono essere modificate le ultime n − m componenti dello stato che descrivono il comportamento all’esterno di V (si veda la figura). Anche in questo caso si tratta di una situazione di interesse che studieremo tra breve. Essa mette in luce che le potenzialità di intervento sono limitate alla foliazione indotta da V . 3.2. Inosservabilità Ricordiamo la definizione di stati equivalenti già proposta nel primo capitolo. Definizione 6.1 Due stati xa e xb sono detti indistinguibili (equivalenti) a t0 se ∀t ≥ t0 , ∀u[t0 ,∞) y(t, t0 , xa , u[t0 ,t) ) = y(t, t0 , xb , u[t0 ,t) ) Per una rappresentazione lineare stazionaria la precedente uguaglianza si riscrive A(t−t0 ) Ce t W (t − τ )u(τ )dτ = Ce A(t−t0 ) xa + t W (t − τ )u(τ )dτ xb + t0 t0 ed è soddisfatta se e solo se CeA(t−t0 ) (xa − xb ) = 0 Quindi in una rappresentazione lineare due stati sono indistinguibili se e solo se la loro differenza dà risposta nulla in evoluzione libera. Si definisca ora inosservabile uno stato x0 per il quale risulti CeA(t−t0 ) x0 = 0 ∀t, cioè sia indistinguibile dallo stato zero. Poiché la presenza di stati inosservabili è equivalente all’esistenza di stati indistinguibili (sono indistinguibili tutti e soli quegli stati la cui differenza coincide con uno stato inosservabile), si procederà alla caratterizzazione dell’insieme degli stati inosservabili. Se indichiamo con I tale insieme I: = {x ∈ Rn : CeAt x = 0, ∀t} esso è un sottospazio lineare di Rn ; infatti una qualsiasi combinazione lineare di stati inosservabili risulta inosservabile. Il seguente risultato ci dice come calcolare l’insieme degli stati inosservabili. 46 3. Le proprietà geometriche dello spazio di stato Teorema 1. C CA = Ker(O) I: = x : CeAt x = 0, ∀t = Ker .. . CAn−1 Infatti se C CA x ∈ Ker .. . CAn−1 allora per il teorema di Cailey Hamilton CAk x = 0, ∀k ⇒ CeAt x = 0, ∀t viceversa se CeAt x = 0 derivando successivamente e calcolando in t = 0, si ottiene CAk x = 0, ∀k ed in particolare fino a n − 1. Se O, matrice (nq × n) detta matrice di osservabilità, ha rango n, allora I = {0}, non ci sono stati indistinguibili ed il sistema è detto osservabile. Se, invece, O ha rango m < n allora l’insieme degli stati inosservabili coincide con il sottospazio generato da n−m vettori indipendenti che definiscono una base del kernel della matrice di osservabilità. Vale la pena di osservare che l’indistinguibilità definisce una relazione di equivalenza e di conseguenza induce una partizione dello spazio di stato in classi di equivalenza. Non è difficile verificare che tali classi coincidono con le varietà lineari ottenute per traslazione dal sottospazio degli inosservabili. Tale relazione induce una partizione dello spazio in cui le classi di equivalenza sono insiemi di stati indistinguibili tra loro. Le considerazioni fatte lasciano intendere che poichè gli stati che appartengono ad una classe di equivalenza sono indistinguibili, e quindi equivalenti per quanto riguarda il comportamento ingresso - uscita, basterà assumere un solo rappresentante per ogni classe e costruire una nuova rappresentazione, di dimensione inferiore, del sistema allo studio. Qualche accorgimento deve essere preso perchè il sistema ridotto risultante sia lineare. Come l’intuizione suggerisce tale accorgimento corrisponde a scegliere i rappresentanti delle classi di equivalenza in modo che essi definiscano un sottospazio. Alla base della procedura di riduzione alla quale si è ora accennato si trova il concetto di invarianza introdotto nel precedente paragrafo. Infatti non si avrà difficoltà a verificare che l’insieme degli stati inosservabili è invariante rispetto alla matrice dinamica ed è contenuto nella nullità della matrice C. In opportune coordinate il sistema assumerà quindi la rappresentazione (3.1). Una tale rappresentazione mette bene in luce che solo le coordinate z2 sono significative e a ciascun valore di esse è associata una foglia della struttura invariante genarata dal sottospazio degli inosservabili (coordinate z1 ). Il sistema è dunque dal punto di vista ingresso uscita ben rappresentato dalle sole variabili z2 . La formalizzazione della proprietà messa in luce conduce alla seguente caratterizzazione dell’insieme degli inosservabili 47 3.2. Inosservabilità Proposizione 1. I è il più grande sottospazio invariante rispetto ad A (AI ⊂ I) e contenuto in KerC. La dimostrazione è semplice infatti per definizione I è contenuto in Ker C; preso comunque un suo elemento, xI , AxI appartiene ad esso come risulta dal calcolo ricordando il teorema di CaileyHamilton: ciò esprime l’invarianza. Infine è il più grande insieme che soddisfa tale proprietà; se cosı̀ non fosse esisterebbe un elemento, xnI , non appartenente ad esso, ma ad un altro insieme invariante sotto A e contenuto in Ker C. In base a tali proprietà risulterebbe CAk xnI = 0 e quindi xnI ∈ I, ciò che nega l’esistenza di un insieme più grande. 3.2.a. Scomposizione rispetto all’inosservabilità Alla luce della caratterizzazione geometrica di I non è difficile rendersi conto del fatto che esiste una scelta delle coordinate in Rn rispetto alle quali il sistema (A, B, C) assume una rappresentazione che mette in evidenza la struttura interna del sistema. Teorema 2. Si assuma la rappresentazione (A, B, C) non osservabile con ρ(O) = m < n. Allora esiste T non singolare rispetto alla quale (T AT −1 , T B, CT −1 ) manifesta la seguente struttura T AT −1 = A11 0 A12 A22 , TB = B1 B2 , CT −1 = ( 0 C2 ) ove A22 è (m × m) ed i blocchi hanno dimensioni consistenti. Inoltre (A22 , B2 , C2 ) rappresenta un sottosistema osservabile C2 .. =m ρ . m−1 C2 A22 La dimostrazione riposa sulla precedente caratterizzazione geometrica del sottospazio di inosservabilità. Se infatti si effettua una trasformazione di coordinate di Rn , z = T x, in cui i primi (n − m) vettori della nuova base sono generatori di I, ciò che corrisponde a scegliere come prime n−m colonne di T −1 una base di I, la rappresentazione assume la struttura indicata. Infatti, nelle nuove coordinate il generico stato inosservabile si esprime mediante un vettore che ha le prime (n − m) componenti generiche e le rimanenti m nulle; l’appartenenza di tale vettore a KerCT −1 spiega la struttura di CT −1 e l’invarianza rispetto a T AT −1 quella della matrice dinamica nelle nuove coordinate. Infine, per quanto riguarda la completa osservabilità del sottosistema S2 è sufficiente riscrivere la matrice di inosservabilità nelle nuove coordinate, osservare che il suo rango è ancora m, essendo legata a quella nelle coordinate x da T non singolare, e ricordare il teorema di Cailey–Hamilton. Si noti che posto z1 z= z2 48 3. Le proprietà geometriche dello spazio di stato il sistema nelle nuove coordinate è descritto dalle equazioni seguenti ż1 = A11 z1 + A12 z2 + B1 u ż2 = A22 z2 + B2 u y = C2 z2 La struttura nelle coordinate z, e la figura corrispondente, ben manifestano la scomposizione del sistema in due sottosistemi S1 ed S2 il primo, S1 , corrisponde alla dinamica non osservabile, il secondo a quella completamente osservabile. Per quanto riguarda quest’ultimo aspetto, la completa osservabilità della coppia (A22 , C2 ), essa risulta dall’invarianza del rango della matrice di osservabilità sotto trasformazione di coordinate e dalla dipendenza delle potenze diordine superiore o uguale ad m della matrice A2 2 da quelle precedenti (Cayley- Hamilton). or z 10 S z 1 S 1 u z 2 y S 2 z z 20 Figura 3.1 Come suggerisce l’intuizione dall’osservazione della figura, il comportamento in uscita, dipende solo dal sottosistema S2 infatti, nelle coordinate z, Ψ(t) = ( 0 C2 eA22 t ) e, per la matrice delle risposte impulsive si ha A11 A12 t B1 0 A At −1 T AT −1 t 22 Ce B = CT e T B = ( 0 C2 ) e = C2 eA22 tB2 . B2 3.2.b. La ricostruibilità La proprietà di osservabilità può essere interpretata come quella proprietà in base alla quale è possibile calcolare lo stato iniziale a partire dalle uscite ”future”. Si pensi infatti ad un sistema con 49 3.2. Inosservabilità una sola uscita in evoluzione libera; il rango pieno della matrice di osservabilità esprime l’indipendenza dell’uscita e delle sue (n − 1) derivate e la conseguente possibilità di poter calcolare lo stato iniziale x0 a partire dall’andamento della risposta in uscita. Limitandoci per semplicità al caso dei sistemi lineari stazionari definiremo per analogia alla precedente la ricostruibilità come quella proprietà che consente di osservare lo stato al tempo t0 a partire dalla conoscenza delle uscite ”passate”. Percé ciò accada non devono esistere due stati iniziali che assunti al tempo (t0 − T ) diano vita a t0 alla stessa uscita. Non è difficile verificare che tale proprietà sussiste per il sistema se e solo se la mappa x → Ce−At x è iniettiva. Ciò che equivale a richiedere che il rango della matrice di osservabilità sia pieno. Se ne deduce, perlomeno per i sistemi lineari, stazionari a tempo continuo, l’equivalenza delle due proprietà. 3.2.c. Modi osservabili e scomposizione La struttura del sistema nelle nuove coordinate suggerisce l’esistenza di un legame con la proprietà di osservabilità dei modi naturali a suo tempo introdotta. L’esistenza di un legame in tal senso è suggerita dall’osservazione che le rappresentazione del sistema nelle coordinate z è equivalente a quella nelle coordinate x; essa ha quindi gli stessi modi naturali diversamente raggruppati nei sottosistemi S1 ed S2 . Ovviamente solo quelli in S2 non saranno osservabili, quelli in S1 potrebbero esserlo. Per un esame più preciso della situazione è necessario introdurre alcuni preliminari. Innanzitutto si osservi che poiché l’insieme degli inossedrvabili è il più grande sottospazio invariante rispetto ad A che è contenuto nella nullità di C Proposizione 2. Esiste un sottospazio U contenuto nel kernel di C ed invariante rispetto ad A se e solo se il sistema non è tutto osservabile. Ciò premesso è possibile mostrare che Teorema 3. Una condizione equivalente di completa osservabilità di S è che ρ C (sI − A) =n La precedente condizione è nota come condizione di osservabilità di Popov- Belevitch-Hautus (PBH). Per quanto riguarda la dimostrazione della necessità basta osservare che se la condizione non è soddisfatta e la matrice di PBH è singolare, ciò che può accadere per s = λi , allora esisterebbe un sottospazio invariante rispetto alla dinamica contenuto nella nullità di C. La sufficienza segue dal fatto che se il sistema non è tutto osservabile, e quindi esiste un sottospazio invariante contenuto nella nullità di C, esiste un autospazio contenuto nella nullità di C e la condizione di Popov-Belevitch-Hautus non è soddisfatta per s coincidente con il corrispondente autovalore. 50 3. Le proprietà geometriche dello spazio di stato Teorema 4. Siano i modi naturali tutti distinti (molteplicità algebrica uguale a quella geometrica). S è osservabile se e solo se tutti i modi naturali di ordine massimo sono osservabili. Per la dimostrazione si pensi A in forma di Jordan e ci si riferisca al test di osservabilità appena introdotto. Si osservi che il sottosistema osservabile è caratterizzato da tutti e soli i modi osservabili. ricordare come sono fatti i modi Nel caso generale si può affermare che Proposizione 3. Se S è osservabile allora tutti i modi naturali di ordine massimo sono osservabili. Si pensi sempre al test precedente con A in forma di Jordan. Ciò che non è limitativo. E’ importante osservare che se ci si riferisce ad una condizione di osservabilità più forte, quella indicata nel capitolo quarto come condizione geometrica di osservabilità, non è difficile rendersi conto che le condizioni enunciate mantengono la loro validità nel caso generale. Precisamente: S è osservabile se e solo se tutti i modi naturali soddisfano la condizione geometrica di osservabilità; il sottosistema osservabile è caratterizzato da tutti e soli i modi che soddisfano alla condizione geometrica di osservabilità. Un’ultima considerazione riguarda il significato fisico della proprietà di osservabilità. è bene a tale proposito distinguere almeno tra due diverse situazioni: — la rappresentazione differenziale (A, B, C) proviene da una descrizione ingresso - uscita di un sistema dinamico (modellistica del tipo scatola nera); — la rappresentazione (A, B, C) è la descrizione di un assegnato processo dedotta dalla formalizzazione del legame tra le variabili interne con gli ingressi e le uscite (modellistica del tipo scatola trasparente). La non completa osservabilità del sistema corrisponde nel primo caso ad una effettiva ridondanza nello stato che dovrà essere eliminata. Nel secondo caso, pur non corrispondendo necessariamente ad una ridondanza di tipo modellistico, mette in luce una ridondanza fisica dal punto di vista del legame tra ingresso e uscita che induce un potenziale impedimento a poter discernere tra diverse evoluzioni dello stato muovendo dall’osservazione delle uscite. Come verrà brevemente accennato nel seguito è quest’ultimo un problema molto importante nella teoria del controllo: la possibilità di ricostruire l’evoluzione dello stato (interna) a partire dall’uscita. Come vedremo l’osservabilità del sistema consente di ricostruire con precisione assegnabile le evoluzioni dello stato. 51 3.3. Raggiungibilità 3.3. Raggiungibilità Si tratta della proprietà duale, caratteristica del comportamento ingresso-stato. è relativa alla possibilità di raggiungere uno stato, ad un certo istante, a partire da uno stato assegnato. Definizione 6.2 xR è detto raggiungibile a T da x0 se ∃t0 < T , u su [t0 , T ): xR = ϕ(T, t0 , x0 , u) Nel caso di una rappresentazione lineare stazionaria è usuale riferirsi allo stato x(t0 ) = 0. Lo stato zero è, infatti, sempre mantenuto in assenza di ingresso (stato di equilibrio). Se notiamo con R(T ) l’insieme dei raggiungibili a T si ha T R(T ) = x:x= eA(T −τ ) Bu(τ )dτ, per qualche t0 , u[t0 ,T ) t0 che può anche essere descritto come R(T ) = T x:x= A(T −τ ) e −∞ Bu(τ )dτ, u(−∞,T ) Dalle precedenti espressioni risulta chiaro che combinazioni lineari di stati raggiungibili sono raggiungibili, e quindi che R(T ) è un sottospazio di Rn . Per arrivare ad una descrizione dell’insieme degli stati raggiungibili che ne consenta il calcolo è necessario fare riferimento ad un noto risultato della teoria degli operatori lineari. Lemma 1. Se L è un operatore lineare allora R(L) = Ker(L∗ )⊥ cioè la sua immagine coincide con il complemento ortogonale del kernel dell’operatore aggiunto L∗ . E’ necessario ricordare preliminarmente la definizione di operatore aggiunto. Assegnato L : A → B lineare, L∗ : B → A è quell’operatore che soddisfa < L(a), b >B =< a, L∗ (b) >A dove < ·, · > indica l’operazione di prodotto interno. Ciò premesso quanto asserito nel lemma, essendo R(L) e Ker(L∗ )⊥ sottospazi, è equivalente a R(L)⊥ = Ker(L∗ ) che è vera in quanto comunque preso b in R(L)⊥ e per ogni a in A < b, L(a) >B = 0 ⇒< L∗ (b), a >A = 0 52 3. Le proprietà geometriche dello spazio di stato cioé b è in Ker(L∗ ). Analogamente si procede per il viceversa. Se ora si osserva che la funzione B ∗ eA è l’operatore aggiunto di ∗ (T −τ ) T x : Rn → Cω (−∞, T ) eA(T −τ ) Bu(τ )dτ, −∞ è immediato verificare che Teorema 5. R(T ) = R T A(T −τ ) e B(·)dτ ⊥ ∗ = Ker B ∗ eA (T −τ ) (·) = −∞ ⊥ B∗ B ∗ A∗ = R(B = Ker .. . B ∗ A∗ AB · · · An−1 B ) n−1 Le precedenti considerazioni conducono ad una semplice e completa caratterizzazione dell’insieme degli stati raggiungibili. Esso coincide con il sottospazio generato dalle colonne linearmente indipendenti della matrice, (n × np), ( B AB · · · An−1 B ) detta matrice di raggiungibilità. Se tale matrice ha rango n, tutti gli stati sono raggiungibili ed il sistema stesso è detto completamente raggiungibile. Il risultato messo in evidenza fornisce un test semplice e molto efficace. Assegnato un sistema è infatti possibile con un semplice criterio indagare le “potenzialità” di intervento attraverso i canali di ingresso. L’insieme degli stati raggiungibili è un sottospazio dello spazio di stato; esso coincide con il sottospazio generato dalle colonne linearmente indipendenti della matrice di raggiungibilità. E’ importante sottolineare come l’insieme dei raggiungibili a T non dipenda dal tempo. Ciò significa che si può arrivare ad uno stato raggiungibile in un tempo arbitrario; ovviamente con ingressi più ampi al diminuire di T . è possibile esprimere analiticamente l’ingresso che consente di raggiungere lo stato xR al tempo T . Non è difficile verificare mediante sostituzione diretta che tale ingresso assume l’espressione ∗ u(t) = B ∗ e−A t C −1 e−AT xR ove si è indicato con C la matrice C= T ∗ e−At BB ∗ e−A t dt 0 che risulta non singolare sotto l’ipotesi di completa raggiungibilità. Al fine di mettere in luce l’esistenza di una scelta delle coordinate rispetto alle quali la struttura delle matrici manifesti la scomposizione del sistema in una parte raggiungibile ed una non raggiungibile, è utile fare riferimento ad una formulazione geometrica dell’insieme degli stati raggiungibili. 53 3.3. Raggiungibilità Proposizione 4. R è il più piccolo sottospazio invariante rispetto ad A (AR ⊂ R) e contenente R(B). 3.3.a. Scomposizione rispetto alla raggiungibilità Alla luce di questa caratterizzazione e nell’ipotesi che (B AB · · · An−1 B ) = m < n, mostreremo ora che rispetto a coordinate in cui i primi m vettori della base generano l’insieme degli stati raggiungibili, la rappresentazione assume una scomposizione che mette bene in evidenza la struttura interna. Teorema 6. Se una rappresentazione non è tutta raggiungibile esiste una matrice T , non singolare tale che A11 A12 B1 −1 T AT = , CT −1 = ( C1 C2 ) , TB = 0 A22 0 ove A11 è (m × m) ed i blocchi hanno dimensioni consistenti. Inoltre (A11 , B1 , C1 ) rappresenta il sottosistema raggiungibile ρ ( B1 A11 B1 · · · Am−1 11 B1 ) = m La dimostrazione di questo risultato ricalca le linee di quello corrispondente rispetto all’osservabilità ed è fondato sulle proprietà geometriche messe in luce nella proposizione precedente. Se T è una trasformazione di coordinate che fissa una base dei raggiungibili come primi m vettori delle nuove coordinate, la rappresentazione del generico stato raggiungibile avrà solo le prime m componenti non nulle, poiché T B è contenuto nell’insieme dei raggiungibili le sue colonne hanno tale struttura; l’invarianza rispetto alla matrice dinamica impone la sua struttura e poi il calcolo dei raggiungibili nelle nuove coordinate la completa raggiungibilità del sottosistema S1 . Si noti che posto z= z1 z2 il sistema è descritto dalle equazioni seguenti ż1 = A11 z1 + A12 z2 + B1 u ż2 = A22 z2 y = C1 z1 + C2 z2 54 3. Le proprietà geometriche dello spazio di stato z 10 S z u 1 S 1 + y z + 2 S 2 z z 2 0 Figura 3.2 La scomposizione è bene messa in evidenza dalle nuove coordinate. S1 è tutto raggiungibile mentre S2 non è raggiungibile. Come suggerisce l’intuizione la risposta forzata, z10 = 0 e z20 = 0, deve dipendere da S1 solamente. Infatti −1 W (t) = CeAt B = CT −1 eT AT t T B = A11 A12 t B1 0 A 22 = ( C1 C2 ) e = C1 eA11 t B1 . 0 3.3.b. La controllabilità Una proprietà analoga alla raggiungibilità è la controllabilità degli stati. Uno stato, xC , è controllabile a T se esiste un ingresso che lo porta a zero al tempo T . Per le rappresentazioni lineari e stazionarie si può mostrare che sono controllabili tutti e soli gli stati raggiungibili. Se infatti uno stato, xT , è raggiungibile a T , essendo l’insieme degli stati raggiungibili un sottospazio dello spazio di stato invariante rispetto ad A, anche lo stato −eAT xT è raggiungibile; quindi esiste un ingresso,uT (·) tale che AT e T xT + eA(T −τ ) BuT (τ )d(τ ) = 0 0 il che prova la controllabilità a T di xT . 3.3.c. Modi eccitabili e scomposizione La scomposizione rispetto alla raggiungibilità lascia intuire che ci debba essere un legame molto forte con l’eccitabilità dei modi naturali. Come già osservato in precedenza, l’esistenza di un legame 55 3.3. Raggiungibilità in tal senso è suggerita dall’osservazione che le rappresentazione del sistema nelle coordinate z è equivalente a quella nelle coordinate x; essa ha quindi gli stessi modi naturali diversamente raggruppati nei sottosistemi S1 ed S2 . Ovviamente quelli in S2 non sono certamente eccitabili, quelli in S1 potrebbero esserlo. Anche in questo caso, per un esame più preciso della situazione è necessario introdurre alcuni preliminari. Innanzitutto si osservi che poiché l’insieme degli inossedrvabili è il più piccolo sottospazio invariante rispetto ad A che è contiene l’immagine di B Proposizione 5. Esiste un sottospazio U contenente l’immagine di B ed invariante rispetto ad A se e solo se il sistema non è tutto raggiungibile. Ciò premesso è possibile mostrare che Teorema 7. Una condizione equivalente di completa raggiungibilità di S è che ρ(B (sI − A) ) = n La precedente condizione è nota come condizione di osservabilità di Popov- Belevitch-Hautus (PBH). Per quanto riguarda la dimostrazione della necessità basta osservare che se la condizione non è soddisfatta e la matrice di PBH è singolare, ciò che può accadere per s = λi , allora esisterebbe un sottospazio invariante rispetto alla dinamica contenente l’immagine di B. La sufficienza segue dal fatto che se il sistema non è tutto raggiungibile, e quindi esiste un sottospazio invariante contenente l’immagine di B, esiste un autospazio contenente l’immagine di B e la condizione di Popov-Belevitch-Hautus non è soddisfatta per s coincidente con il corrispondente autovalore. Teorema 8. Siano i modi naturali tutti distinti (molteplicità algebrica uguale a quella geometrica). S è raggiungibile se e solo se tutti i modi naturali sono eccitabili. Per la dimostrazione si pensi A in forma di Jordan e ci si riferisca al test di raggiungibilità appena introdotto. Si osservi che il sottosistema raggiungibile è caratterizzato da tutti e soli i modi eccitabili. Nel caso generale si può affermare che Proposizione 6. Se S è raggiungibile allora tutti i modi naturali sono eccitabili. Si pensi sempre al test precedente con A in forma di Jordan. E’ importante osservare che se ci si riferisce ad una condizione di eccitabilità più forte, quella indicata nel capitolo quarto come condizione geometrica di eccitabilità, non è difficile rendersi conto che le condizioni enunciate mantengono la loro validità nel caso generale. Precisamente: S è raggiungibile 56 3. Le proprietà geometriche dello spazio di stato se e solo se tutti i modi naturali soddisfano la condizione geometrica di eccitabilità; il sottosistema raggiungibile è caratterizzato da tutti e soli i modi che soddisfano alla condizione geometrica di osservabilità. Per concludere lo studio della proprietà di raggiungibilità alcune considerazioni sul significato fisico. Anche qui faremo riferimento a due diverse situazioni. La non completa raggiungibilità del sistema corrisponde, dal punto di vista dell’introduzione della rappresentazione con lo stato per descrivere un assegnato sistema dinamico, ad una ridondanza dello stato per avere, ad esempio, descritto legami equivalenti con relazioni diverse. Dal punto di vista operativo e della teoria del controllo, ammesso di non essere incorsi in errori di modellistica del processo o fenomeno dato, la raggiungibilità esprime le potenzialità di intervento attraverso i canali di ingresso disponibili. 3.4. La struttura interna di un sistema lineare a dimensione finita Con una trasformazione di coordinate che ordini opportunamente i nuovi vettori di base collegandoli ai quattro sottospazi che possono essere definiti a partire da I e R, si mette bene in evidenza la struttura interna di una rappresentazione lineare stazionaria a dimensione finita. Il risultato dovuto allo studioso R.E. Kalman si enuncia Teorema 9. In opportune coordinate una rappresentazione lineare stazionaria a dimensione finita è descritta da una terna di matrici che manifestano la seguente struttura A11 0 0 0 A12 A22 0 0 A13 0 A33 0 A14 A24 , ( 0 C2 A34 A44 0 B1 B C4 ) , 2 0 0 La dimostrazione è costruttiva e riposa sulla proprietà geometriche messe in evidenza nelle proposizioni precedenti. Siano χ1 , χ2 , χ3 e χ4 i quattro sottospazi definiti dalle seguenti relazioni χ1 : χ1 : = R ∩ I χ2 : χ1 ⊕ χ2 = R χ3 : χ1 ⊕ χ3 = I χ4 : χ1 ⊕ χ2 ⊕ χ3 ⊕ χ4 = Rn sia dimχi = ni , i = 1, . . . , 4. Sia T una trasformazione che assume nell’ordine i nuovi vettori di base come: n1 generatori di χ1 , n2 generatori di χ2 , n3 generatori di χ3 , n4 generatori di χ4 . 57 3.4. La struttura interna di un sistema lineare a dimensione finita X X 3 = IR X O P X I Figura 3.3 Usando argomentazioni analoghe a quelle impiegate per trovare la struttura delle scomposizioni precedenti, argomentazioni fondate sulle proprietà geometriche degli insiemi di stati cosı̀ trovati, non è difficile verificare la struttura delle matrici nelle nuove coordinate. Alle strutture delle matrici corrisponde la struttura interna messa in evidenza nella seguente figura. 58 3. Le proprietà geometriche dello spazio di stato u z S S 1 1 z S 2 2 + z S y 3 3 + z S 4 4 z Figura 3.4 Le evoluzioni di S1 , S2 , S3 e S4 possono essere facilmente interpretate. Si noti che come suggerisce l’intuizione il legame forzato dipende solo da S2 . Infatti W (t) = CeAt B = CT −1 eT AT −1 t T B = C2 eA22 t B2 La scomposizione individuata chiarisce la struttura interna, inoltre in base allo studio effettuato in precedenza rimane dimostrato che Teorema 10. Il sottosistema S2 è caratterizzato da tutte e sole le leggi temporali dei modi simultaneamente eccitabili ed osservabili. S2 descrive quindi una rappresentazione di dimensione minima tra quelle possibili. 3.5. Le particolarità dei sistemi a tempo discreto La trattazione sinora condotta può essere ripetuta per i sistemi a tempo discreto con la sola avvertenza di sostituire At al posto di eAt ; i risultati non cambiano. Le sole differenze riguardano la dipendenza dal tempo della raggiungibilità di uno stato e della corrispondente osservabilità dello stato iniziale cosı̀ come i legami tra osservabilità e ricostruibilità e tra controllabilità e raggiungibilità. Per quanto riguarda la raggiungibilità è molto facile comprendere per la struttura ricorsiva delle equazioni che l’insieme degli stati raggiungibili in un intervallo di tempo fissato, sia T , è R ( B · · · AT −1 B ), quindi uno stato raggiungibile può essere “ottenuto” (da x0 = 0 a t0 = 0) 59 3.6. Sugli zeri della funzione di trasferimento in al più n istanti di tempo. Analoghe considerazioni possono essere fatte in merito allosservabilità di uno stato iniziale a partire dalle osservazioni dell’uscita. Per quanto riguarda i legami tra osservabilità e ricostruibilità. Non è difficile verificare che un sistema può essere ricostruibile senza essere osservabile, ma non viceversa. Come esempio si consideri la coppia di matrici A= 1 1 1 1 , C = (1 1) che caratterizzano un sistema certamente non osservabile, ma costruibile. Infatti da y(−1) = x1 (−1)+ x2 (−1) risulta x1 (0) = y(−1) e x2 (0) = y(−1). Le due proprietà sono equivalenti se A è non singolare. Infine per quanto riguarda i legami tra controllabilità e raggiungibilità valgono considerazioni analoghe alle precedenti. La raggiungibilità implica la controllabilità, ma non viceversa. Come esempio si consideri la coppia di matrici A= 1 1 1 1 1 , B= 1 che caratterizzano un sistema certamente non tutto raggiungibile, ma controllabile. E’ infatti evidente che l’ingresso u(0) = x1 (0) + x2 (0) porta lo stato a zero in un solo istante di tempo. Anche in questo caso le due proprietà sono equivalenti se A è non singolare. 3.6. Sugli zeri della funzione di trasferimento Come già messo in luce nel capitolo quinto gli zeri di trasmissione di un sistema dinamico sono quei valori complessi, s∗, in corrispondenza dei quali si non ha rango massimo la cosiddetta matrice di sistema s ∗ I − A −B ρ = n + (p, q)∗ C 0 dove con (p, q)∗ si è indicato il più piccolo tra p e q ed n indica la dimensione della matrice A. Se si assume che s∗ non coincida con alcun autovalore di A, l’annullarsi del determinante della matrice di sistema comporta l’esistenza di una coppia (x = 0, u = 0) tale che (s ∗ I − A)x − Bu = 0 Cx = 0 cioè C(s ∗ I − A)−1 Bu = 0 Quindi s∗ annulla tutti i determinanti dei minori di W (s) di dimensione (p, q)∗ ed è quindi uno zero secondo la definizione data nel capitolo quinto. Se s∗ coincide con un autovalore di A allora, necessariamente il sistema non è raggiungibile e/o osservabile. Non è, infatti, difficile verificare impiegando i criteri PBH che il sistema è raggiungibile 60 3. Le proprietà geometriche dello spazio di stato e osservabile se e solo se la matrice di sistema in s = λ ha rango pieno. Se quindi s∗ è autovalore ed annulla la matrice di sistema, il sistema non è tutto raggiungibile e/o osservabile ed s∗ è zero coincidente con un polo (si ricordi che la perdita di raggiungibilità e/o osservabilità si traduce in una riduzione della dimensione del polinomio a denominatore della W (s) rispetto alla dimensione do A, ciò che può avvenire solo a seguito di un fenomeno di ”cancellazione” con uno zero di W (s)). 4. Elementi di teoria della stabilità La teoria della stabilità riveste un ruolo particolarmente importante nello studio dei sistemi dinamici. Essa costituisce un importante complesso di metodi di analisi qualitativa; si tratta di quei metodi che consentono di studiare le proprietà delle soluzioni di sistemi dinamici senza procedere al calcolo delle soluzioni stesse. Cosa accade a seguito di una modifica delle condizioni in cui opera un fissato sistema ? L’effetto è della stessa entità della perturbazione ? Vengono mantanute le principali caratteristiche di comportamento ? Sono queste le circostanze che sono assunte a specificare la modalità di un comportamento stabile. Stabilità, dunque, come quella proprietà delle evoluzioni di modificare di poco l’andamento a seguito di perturbazioni: tanto più piccole le perturbazioni tanto più piccoli gli scostamenti delle evoluzioni perturbate da quelle non perturbate. E’ necessario precisare cosa si intende per perturbazioni, variazioni delle condizioni operative. Se si osserva che un dato sistema è caratterizzato da relazioni matematiche e da fissati valori dei parametri e che un’evoluzione è fissata una volta fissato uno stato iniziale ed una funzione d’ingresso, si comprende che una perturbazione può concretizzarsi in variazioni dei parametri rispetto a valori che sono usualmente definiti ”nominali”, in variazioni dello stato iniziale oppure in variazioni dell’ingresso. In questo ampio contesto viene qui affrontato lo studio della stabilità rispetto a perturbazioni sullo stato iniziale: la stabilità degli stati di equilibrio (stabilità interna), nonchè il collegamento con la proprietà di stabilità ingresso-uscita, una proprietà relativa alla limitatezza delle evoluzioni in uscita a seguito di perturbazioni in presenza di ingressi limitati (stabilità esterna). Lo studio della stabilità degli stati di equilibrio fa riferimento alla teoria di Lyapunov, matematico ed ingegnere russo che all’inizio del secolo ha gettato le fondamenta della teoria che porta il suo nome. Uno stato di equilibrio è stabile se le evoluzioni che hanno origine nelle vicinanze restano nelle vicinanze; instabile altrimenti. Asintoticamente stabile se le evoluzioni non solo restano nelle vicinanze, ma ritornano sullo stato di equilibrio al crescere del tempo. Non viene qui affrontato il caso di perturbazioni sui parametri; la cosiddetta stabilità strutturale. L’assenza di stabilità strutturale rappresenta una ’patologia’ interessante; è intatti possibile che un 62 4. Elementi di teoria della stabilità dato modello matematico a seguito di piccole perturbazioni di uno o più parametri manifesti comportamenti molto diversi rispetto alla situazone nominale. Si usa dire in tal caso che il modello non è strutturalmente stabile. Questo studio ha risvolti applicativi molto importanti in quanto fornisce il quadro formale per interpretare fenomeni reali complessi che a seguito di insignificanti modifiche ambientali subiscono modifiche catastrofiche o danno vita a comportamenti caotici. La teoria delle catastrofi e lo studio del caos, che hanno negli ultimi anni suscitato interesse ed acquisito credito nella interpretazione di fenomeni fisici di diversa natura, sono fondati su tali aspetti. La trattazione che segue prende le mosse dalle definizioni principali per arrivare all’enunciazione delle condizioni che ne garantiscono il soddisfacimento fino alla presentazione dei criteri di verifica. A partire dal metodo generale di Lyapunov, si passa allo studio dei sistemi lineari ed all’indagine sulla collocazione degli autovalori, per ritornare allo studio della stabilità dei sistemi nonlineari mediante l’esame del modello lineare tangente (approssimazione lineare). La trattazione è diffusa per i sistemi a tempo continuo e succinta per il tempo discreto. Lo studio della stabilità dei sistemi interconnessi lineari conclude il capitolo. 4.1. Definizioni Si consideri il seguente sistema di equazioni differenziali, che descrive l’evoluzione nello stato di un sistema regolare a dimensione finita ẋ(t) = f t, x(t), u(t) (4.1) e si supponga che in ogni punto di una fissata regione Ω la soluzione di (4.1) sia una funzione continua di (x0 , t0 ). Una coppia stato - ingresso (costante), (xe , ue ), è detta di equilibrio se l’evoluzione ad essa associata rimane confinata in xe ; in formule f (t, xe , ue ) = 0 (4.2) Poiché siamo interessati a studiare l’effetto di perturbazioni sullo stato iniziale, nel seguito supporremo, senza perdita di generalità, che ue = 0. Ciò significa che faremo riferimento al sistema ẋ(t) = f t, x(t) f (t, xe ) = 0 (4.3) Inoltre indicheremo con S(xe , R) ed C(xe , R) la regione sferica aperta dello spazio di stato di centro xe e raggio R ed il suo contorno sferico, rispettivamente. Assumeremo che in Ω = S(xe , A), le componenti di f , fi (t, x), siano derivabili rispetto ad x con derivate continue. Indicheremo con gx0 la traiettoria per x0 , con g + quella per tempi positivi e con g − quella per tempi negativi. x(t), come usuale, rappresenterà lo stato at tempo t a partire da x0 al tempo t0 . Un cambiamento di variabile nello stato che porta l’origine dello spazio in xe , z = x − xe , consente di definire un nuovo sistema ż(t) = f˜(t, z(t)) f˜(t, 0) = 0 63 4.1. Definizioni che ha un equilibrio all’origine. E’ dunque possibile senza perdita di generalità supporre che in (4.3) sia xe = 0. 4.1.a. Stabilità dell’equilibrio Definizione 1. Lo stato di equilibrio, xe , di (4.3) • è stabile se per ogni fissato numero reale ε > 0 esiste un altro numero reale δ > 0, eventualmente dipendente da ε e da t0 , tale che se x0 − xe < δε,t0 , allora: x(t) − xe < ε, ∀t ≥ t0 . (4.4) • è instabile se non è stabile. • La stabilità è detta uniforme se nelle precedenti relazioni le entità coinvolte non dipendono da t0 . Per un sistema stazionario ẋ(t) = f x(t) f (xe ) = 0 (4.5) la proprietà di stabilità si riconduce a quella di stabilità uniforme. Per meglio comprendere la precedente definizione con l’ausilio di una figura si pensi all’origine del piano come stato di equilibrio di un assegnato sistema. Tale stato di equilibrio è : • stabile se per ogni < A esiste δ ≤ tale che se x0 è in S(δ) allora gx+0 resta in S(); cioè ogni evoluzione che muove da S(δ) non raggiunge la frontiera, C(), di S() (figura (8.1a); • instabile se esiste un tale che per ogni δ, non importa quanto piccolo, esiste sempre in S(δ) un x0 tale che la traiettoria gx+0 raggiunge C() (figura (8.1b). Si osservi che in generale un assegnato sistema può avere più stati di equilibrio e che la proprietà di stabilità può sussistere per alcuni e non per altri. A titolo di esempio si consideri il pendolo rigido di lunghezza l e massa m studiato nel terzo capitolo. Si assuma in questo primo caso che non vi sia attrito dinamico (k = 0). Per tale sistema nelle variabili di stato (angolo, velocità angolare) vi sono infiniti stati di equilibrio corrispondenti alla posizione verticale verso il basso, (2kπ, 0), k ≥ 0, ed alla posizione verticale verso l’alto (kπ, 0), k ≥ 1, come l’intuizione suggerisce e risulta dal calcolo a partire dal modello matematico ẋ1 (t) = x2 (t) ẋ2 (t) = −g senx1 (t). l Non è difficile comprendere che gli stati di equilibrio del primo tipo sono stabili, infatti le evoluzioni nello spazio di stato sono periodiche e possono essere mantenute interne ad una generica sfera centrata sull’equilibrio a patto di imporre perturbazioni sufficientemente piccole, mentre quelli del secondo tipo sono instabili, infatti una perturbazione comunque piccola conduce ad un allontanamento dall’equilibrio. 64 4. Elementi di teoria della stabilità 4.1.b. La stabilità del moto Allo studio della stabilità dell’equilibrio si riconduce lo studio di una proprietà più generale: la stabilità di un moto. Un moto a partire da una condizione iniziale x0 = x(t0 ), ed un ingresso, u0 (·), è definito come l’insieme M = { t, x(t) ∈ T × X | t ≥ t0 , x(t) = ϕ(t, t0 , x0 , u)}. E’ facile rendersi conto del significato della seguente definizione di stabilità di un moto. Definizione 2. Un moto M è stabile se ∀ε, esiste un δε,t0 tale che se xp0 (t) − x0 < δε,t0 , allora xp (t) − x(t) < ε, ove xp (t) indica la traiettoria del moto perturbato con stato iniziale xp0 . Il moto è stabile asintoticamente se è stabile ed inoltre lim xp (t) − x(t) = 0. t→∞ Lo studio della stabilità di un moto può essere condotto indicando con x(t) e xp (t) le evoluzioni corrispondenti a stato iniziale x0 e xp0 e ponendo xp (t) = x(t) + ξ(t) ove ξ(t) indica l’evoluzione perturbata . Tale variabile è soluzione della seguente equazione differenziale ˙ = ẋp (t) − ẋ(t) = f t, xp (t) + ξ(t), u0 (t) −f t, x(t), u0 (t) = g t, ξ(t) ξ(t) che ammette ξ = 0 come stato di equilibrio. La stabilità di tale equilibrio equivale alla stabilità del moto del sistema originario, come è immediato verificare dalla definizione stessa. In conclusione lo studio della stabilità di un moto può essere ricondotto allo studio della stabilità dell’origine dello spazio di stato del sistema che descrive la dinamica perturbata. Si osservi che quest’ultimo sistema è caratterizzato da una funzione generatrice g dipendente dal particolare ingresso fissato. 4.1.c. La stabilità asintotica Definizione 3. Lo stato di equilibrio, xe , di (4.3) è asintoticamente stabile se è stabile e vale la seguente proprietà di equiasintoticità: esiste δa > 0, eventualmente dipendente da t0 , tale che se x0 − xe < δa,t0 allora risulta: lim x(t) − xe , = 0. (4.6) t→∞ Ancora con riferimento ad unsistema definito sul piano con lo stato zero di equilibrio la stabilità asintotica impone anche che ogni traiettoria gx+0 che parte da S(δ0 ) per un qualche δ0 > 0 tenda all’origine al crescere del tempo (figura (8.2); A titolo di esempio si consideri ancora la dinamica di un pendolo assumendo in questo caso che sia presente un attrito dinamico (k = 0); ciò che rende il sistema dissipativo. Le equazioni diventano ẋ1 (t) = x2 (t) 65 4.1. Definizioni g k ẋ2 (t) = − senx1 (t) − x2 (t) l m e si hanno gli stessi stati di equilibrio. Come l’intuizione ci suggerisce gli stati di equilibrio (2kπ, 0), k ≥ 0, corrispondenti alla posizione verticale verso il basso sono asintoticamente stabili, in quanto le evoluzioni nello spazio di stato sono periodiche e smorzate, mentre (kπ, 0), k ≥ 1, corrispondenti alla posizione verticale verso l’alto, rimangono instabili. Si osservi che ha senso indagare sulla stabilità asintotica di uno stato di equilibrio solo se esso è isolato, cioé non è punto di accumulazione di altri stati di equilibrio. Ser ciò non fosse, infatti, comunque fissato un suo intorno esisterebbe in esso almeno un altro stato di equilibrio che, assunto come perturbazione, darebbe vita ad un evoluzione costante che non tende allo stato di equilibrio originario. A questo proposito è importante osservare che una condizione sufficiente affinché uno stato di equilibrio sia isolato è che la matrice iacobiana del sistema calcolata nello stato di equilibrio sia non singolare (la dimostrazione di questo risultato può facilmente essere ottenuta utilizzando al teorema della funzione implicita sulla funzione y − f (x)). Si tratta di una condizione sufficiente come si può verificare riferendosi alla semplice situazione di un sistema scalare con funzione generatrice f (x) = x3 . In questo caso lo stato x = 0 è di equilibrio, è isolato ed anche unico, ma la condizione citata non è soddisfatta. Ciò accade in quanto lo zero è soluzione isolata, ma non unica (ha molteplicità pari a tre) e la condizione citata viene meno in tale circostanza. Un caso particolare e di interesse nelle applicazioni è quello in cui si ha stabilità asintotica e il ritorno sullo stato di equilibrio avviene con una tendenza esponenziale. Definizione 4. Lo stato di equilibrio, xe , di (4.3) è esponenzialmente stabile se esiste λ > 0 e per ogni fissato ε > 0 esiste un δε > 0 tale che se x0 − xe < δε allora: x(t) − xe < εe−λ(t−t0 ) , ∀t > t0 . (4.7) . In altre parole x(t) tende ad xe secondo una legge che ammette una maggiorante esponenziale. Non è difficile mostrare che la stabilità esponenziale implica quella asintotica uniforme, ma non vale il viceversa. 4.1.d. La stabilità globale Le proprietà di cui si è parlato hanno una validità locale; sono cioè proprietà che riguardano il comportamento per piccole perturbazioni. 66 4. Elementi di teoria della stabilità Definizione 5. Lo stato di equilibrio, xe , di (4.3) è globalmente asintoticamente stabile se xe è stabile e ∀k > 0 x(t0 ) − xe < k ⇒ lim x(t) − xe = 0. t→∞ Comunque grande sia la perturbazione, l’evoluzione corrispondente resta limitata e tende ad xe . A titolo di esempio si consideri il seguente sistema nel piano ẋ1 = x2 , ẋ2 = −x1 Poiché xẋ + y ẏ = 0, le traiettorie sono le circonferenze che passano per la condizione iniziale e xe = 0, unico stato di equilibrio, è globalmente stabile. Inoltre è facile verificare che si ha la stabilità asintotica globale dell’origine per per il sistema planare ẋ1 = −x1 , ẋ2 = −x2 4.2. La stabilità secondo Lyapunov Introdotte le definizioni si tratta ora di comprendere come verificare il sussistere delle proprietà. L’approccio impiegato nei semplici esempi trattati è fondato sull’esame delle caratteristiche delle soluzioni e fa riferimento alle definizioni stesse. La generalizzazione di un tale approccio richiede il calcolo delle soluzioni di (4.3), ciò che è in molti casi impossibile. Le semplici argomentazioni impiegate per studiare la stabilità del pendolo possono essere riformulate in termini di concetti energetici e rappresentano il punto di partenza dell’approccio generale proposto da Lyapunov per lo studio della stabilità dell’equilibrio. Consideriamo l’energia associata al moto del pendolo data dalla somma dell’energia cinetica e dell’energia potenziale E(x) = g 1 (1 − cosx1 ) + x2 2 l 2 ove il riferimento è fissato in modo che nell’equilibrio verso il basso sia E(0) = 0. In assenza di attrito (k = 0) il sistema è conservativo, dunque E = c, costante, lungo il moto, ciò che corrisponde a dire che dE dt = 0 lungo le traiettorie. Dunque le evoluzioni mantengono l’energia costante ed avvengono sulle curve di livello della funzione E(x) = c; queste ultime sono curve chiuse intorno ad x = 0, possiamo quindi concludere che l’equilibrio è stabile. In presenza di attrito (k > 0) il sistema è dissipativo, ciò che corrisponde a dE dt ≤ 0 lungo le evoluzioni. Dunque E non può restare costante indefinitamente, decresce fino a raggiungere il valore nullo ciò che corrisponde a dire che l’evoluzione tende all’equilibrio (x = 0) per t → ∞. 67 4.2. La stabilità secondo Lyapunov La formalizzazione di queste considerazioni induce a fondare la verifica della stabilità degli stati di equilibrio di un sistema fisico sullo studio della funzione energia intorno all’equilibrio; se, in particolare, essa è non crescente si ha stabilità, se è decrescente si ha stabilità asintotica. Alla fine del secolo scorso, Lyapunov ha generalizzato questo concetto dimostrando che altre funzioni possono essere impiegate al posto della funzione energia per verificare la stabilità. Faremo riferimento, in quanto segue, ad una rappresentazione nonlineare stazionaria con stato di equilibrio xe ẋ(t) = f (x(t)) f (xe ) = 0 4.2.a. Le funzioni di Lyapunov Poiché come si è accennato il criterio si ispira a concetti energetici un ruolo particolarmente importante è svolto dalle funzioni cosiddette definite positive. Definizione 6. Una funzione scalare V (x) è definita positiva in S(xe , R) se si annulla in xe ed è positiva in ogni altro punto dell’intorno. Si dice semidefinita positiva se si annulla in xe ed è non negativa in ogni altro punto dell’intorno. Infine V (x) si dice definita negativa ovvero semidefinita negativa in un intorno se la funzione −V (x) è definita positiva ovvero semidefinita positiva in quell’intorno. Indicheremo con V (x) > 0 una funzione definita positiva, con V (x) < 0 una funzione definita negativa e con V (x) ≥ 0, e V (x) ≤ 0, funzioni semidefinite, positive e negative, rispetivamente Un esempio elementare di funzione definita positiva in tutto Rn rispetto ad xe è dato dalla seguente funzione xe1 n . V (x) = (xi − xei )2 . xe = .. stato di equilibrio i=1 xen Il prototipo di tutte le funzioni definite positive è la funzione quadratica V (x) = n ei (xi − xei )2 ei > 0 i=1 Un caso più generale è quello in cui si considera la forma quadratica matriciale: V (x) = (x − xe )T P (x − xe ), (4.8) dove P senza perdita di generalità è assunta simmetrica. E’ infatti evidente che se cosı̀ non fosse si potrebbe considerare la forma quadratica: V (x) = (x − xe )T P (x − xe ) + (x − xe )T P T (x − xe ) = = (x − xe )T P + PT 2 (x − xe ), 68 4. Elementi di teoria della stabilità T e dunque sostituire P con la matrice simmetrica P + P . 2 Se la forma quadratica cosı̀ definita è positiva si usa dire che la matrice è positiva, P > 0, e viceversa. E’ possibile stabilire con un criterio algebrico se P > 0 e quindi se la forma quadratica associata è definita positiva. La condizione, nota come condizione di Sylvester, afferma che una matrice simmetrica P è definita positiva se e solo se i suoi n minori principali sono positivi: p11 > 0, p11 p12 p12 > 0, p22 p11 p12 p13 p12 p22 p23 p13 p23 > 0, p33 ···, det P > 0. Come si è gia detto il criterio di Lyapunov si ispira a considerazioni energetiche; una funzione definita positiva viene assunta a rappresentare ’virtualmente’ il ruolo di energia intorno all’equilibrio ed è necessario calcolare una tale funzione lungo le evoluzioni del sistema. In particolare, se ricordiamo le considerazioni precedenti, è necessario calcolare le variazioni di tale funzione lungo le evoluzioni del sistema. E’ dunque necessario calcolare la derivata lungo il moto di una data funzione V (x). Questa si calcola mediante la seguente espressione d ∂V dx V (x(t)) = · = dt ∂x dt ẋ1 n ∂V ∂V ∂V ∂V . ... fi (x) = · .. = f (x) ∂x1 ∂xn ∂xi ∂x i=1 ẋn . Ciò premesso, se si immagina di associare ad ogni stato intorno all’equilibrio un livello di energia positivo, la stabilità risulta dalla diminuzione del livello di energia lungo le evoluzioni del sistema. Se, quindi, si immagina di associare allo stato xe un livello energetico nullo ed inoltre di associare agli stati intorno ad xe un livello energetico superiore (V (x) > 0), alle evoluzioni libere che partono dagli stati intorno ad xe dovrà corrispondere una diminuzione dell’energia. Questa considerazione giustifica la seguente definizione Definizione 7. funzione di Lyapunov. Una funzione V (x) > 0, continua assieme alle sue derivate parziali prime in una fissata regione S(xe , R), è detta una funzione di Lyapunov (una funzione asintotica di Lyapunov) per il sistema se la sua derivata lungo il moto è semidefinita (definita) negativa nello stesso intorno. 4.2.b. Il criterio di Lyapunov Siamo ora in grado di formulare il risultato fondamentale noto come criterio di Lyapunov. 69 4.2. La stabilità secondo Lyapunov Teorema 1. Se in un intorno S(xe , R) è definita una funzione di Lyapunov (una funzione di Lyapunov asintotica) per il sistema allora xe è localmente stabile (asintoticamente stabile). Dimostrazione Ci riferiremo per semplicità allo stato di equilibrio xe = 0. Assegnato ε > 0 sia S(r), 0 < r ≤ ε < R, e sia α = minC(r) V (x). Risulta α > 0 e sia Ωβ = x ∈ S(r) : V (x) ≤ β β<α Poiché Ωβ è contenuto strettamente in S(r), ogni traiettoria che parte da Ωβ a t = 0 resta in Ωβ t ≥ 0. Poiché, inoltre V (x) è continua e vale zero in zero, esiste δ > 0 tale che S(δ) ⊂ Ω(β) ⊂ S(r). Si ha cioé la stabilità x0 < δ ⇒ x(t) < ε t ≥ t0 . Mostreremo ora che se V (x) è una funzione asintotica di Lyapunov, comunque fissato a esiste T tale che x(t) < a, ∀t > T , cioé x(t) → 0 quando t → ∞. Infatti con gli stessi argomenti di prima esiste b > 0 tale che Ωb ⊂ S(a), basta quindi mostrare che V (x(t)) → 0 quando t → ∞. Ma poichè V (x(t)) è monotona decrescente ed inferiormente limitata da zero, V (x(t)) → c ≥ 0 quando t → ∞; inoltre c = 0, perché se cosı̀ non fosse per la continuità di V (x) esisterebbe d > 0 con S(d) ⊂ Ωc . V (x(t)) → c implicherebbe che la traiettoria x(t) rimane esterna alla sfera S(d) per ogni t ≥ 0. Posto −γ = maxd≤x≤r V̇ (x) si avrebbe t Ẋ(x(τ ))dτ ≤ V (x(0)) − γt V (x(t)) = V (x(0)) + 0 che contraddice l’assunto c > 0, potendo la quantità a secondo membro diventare positiva. Si consideri di nuovo la dinamica di un pendolo in assenza di attrito ẋ1 (t) = x2 (t) ẋ2 (t) = −g senx1 (t) l e si consideri la funzione energia 1 g (1 − cosx1 ) + x2 2 l 2 che è definita positiva per −2π < x1 < 2π. La sua derivata lungo il moto e pari a E(x) = Ė(x) = g g g ẋ1 senx1 + x2 ẋ2 = x2 senx1 − x2 senx1 = 0 l l l E(x) è una funzione di Lyapunov e prova la stabilità dell’equilibrio verticale inferiore. E’ opportuno precisare che esistono diversi risultati che esprimono i cosiddetti teoremi inversi. Tali risultati sanciscono che sotto condizioni generali se lo stato di equilibrio di un assegnato sistema è stabile allora esiste una funzione di Lyapunov. Ne risulta che l’esistenza di una funzione di Lyapunov è condizione necessaria e sufficiente per la stabilità. Tuttavia, poichè è possibile provare l’esistenza di tali 70 4. Elementi di teoria della stabilità funzioni senza fornire alcuna procedura costruttiva, questi risultati non sono di utilità nell’applicazione del metodo che viene quindi espresso nella sua formulazione sufficiente. A questo proposito è usuale affermare che il metodo di Lyapunov fornisce un criterio sufficiente di verifica della stabilità in quanto il venire meno di una verifica a partire da un’assegnata funzione definita positiva non consente di trarre alcuna conclusione. Esiste una vasta letteratura che affronta il problema di sviluppare strumenti di ausilio nella costruzione di funzioni di Lyapunov per assegnate classi di sistemi. Un metodo di interesse nelle applicazioni è quello cosiddetto del gradiente variabile. Tale metodo pesentato nel testo di esercizi e complementi consiste nel consiste nel fissare la struttura, ma non i parametri, di una funzione riservandosi di fissare i parametri in modo da renderla una funzione di Lyapunov per il sistema. Si rinvia ad una letteratuta specialistica per un approfondimento di questi aspetti. La dimostrazione precedente mette in luce che individuata una funzione asintotica di Lyapunov in S(R), se Ωc = x ∈ Rn : V (x) ≤ c è limitato e contenuto in S(R) (Ωc ⊂ S(r)) allora ogni traiettoria che parte da Ωc resta in Ωc e viene attratta dall’origine. Quindi Ωc individua una regione dello spazio contenuta nella cosiddetta regione di attrazione associata all’equilibrio stabile. Ωc fornisce dunque una prima stima della regione di attarzione. Quanto questa stima è conservativa ? Sotto quali condizioni la regione di attarzione coincide con tutto lo spazio Rn ? Rinviando a testi specialistici per le risposte alla prima domanda, limitiamoci a considerare la seconda che ci riconduce allo studio delle condizioni sotto le quali si ha stabilità globale. Ritornando alla dimostrazione precedente è chiaro che si ha stabilità asintotica globale se ogni punto in Rn può essere incluso in un insieme limitato Ωc , e questo richiede che V (x) sia una fnzione di Lyapunov definita su tutto Rn . Ma questo in realtà non basta. Infatti potrebbe accadere che per c grandi l’insieme Ωc non sia limitato. Ciò ad esempio accade con la funzione x1 2 V (x) = + x22 1 + x21 Una condizione aggiuntiva che garantisce che Ωc sia limitato per ogni c > 0 è la cosiddetta ”non limitatezza radiale”. Teorema 2. Se V (x) è una funzione di Lyapunov (una funzione di Lyapunov asintotica) radialmente illimitata, cioé lim V (x) = ∞ x→∞ allora xe risulta essere globalmente stabile (asintoticamente stabile). Dimostrazione Fissato ad arbitrio un punto p ∈ Rn , sia c = V (p). La mancanza di limitazione implica che per ogni c > 0 esiste r > 0 tale che V (x) > c per x > r; cioè Ωc , ⊂ S(r) è limitato. Ciò detto si possono ripetere gli argomenti usati nella dimostrazione precedente. A titolo di esempio si consideri ẋ1 = −x1 x22 ẋ2 = −x32 ⇓ k xe = 0 71 4.2. La stabilità secondo Lyapunov 0 = xe 0 stato di equilibrio V (x) = x21 + x22 V̇ (x) = 2x1 ẋ1 + 2x2 ẋ2 = −2x21 x22 − 2x42 = −2x22 (x21 + x22 ) ≤ 0 Si ottiene una funzione semidefinita positiva, possiamo dunque concludere che l’origine dello spazio di stato è uno stato di equilibrio stabile. La funzione data è di Lyapunov in tutto lo spazio, è radialmente illimitata, si ha dunque stabilità globale. Come ulteriore esempio si consideri la dinamica dell’assetto di un corpo rigido in assenza di gravità. Questo modello è assunto a descrivere la variazione dell’orientamento di un satellite rispetto ad un riferimento inerziale. Se chiamiamo ω1 la velocità angolare attorno all’asse x, ω2 quella attorno all’asse y, e ω3 quella attorno all’asse z e se si immagina che l’orientazione del satellite possa mutare a seguito di coppie, τ1 , τ2 , τ3 , che vengono generate attorno agli assi principali di inerzia che supporremo coincidenti con gli assi del sistema di riferimento, l’equazione della dinamica può essere scritta J1 ω̇1 = (J2 − J3 )ω2 ω3 + τ1 J2 ω̇2 = (J3 − J1 )ω3 ω1 + τ2 J3 ω̇3 = (J1 − J2 )ω1 ω2 + τ3 J1 J2 J3 momenti di inerzia attorno all’asse x, y, z. Il criterio di Lyapunov permette di dimostrare che è possibile arrestare il corpo applicandi su ciascun asse coppie proporzionali alla velocità angolare attorno a quello stesso asse. Ciò equivale a verificare che con τi = −ki ωi i = 1, 2, 3 si ha stabilità asintotica globale dello zero dello spazio di stato, unico equilibrio per il sistema assegnato; il corpo, dunque tende ad arrestarsi indipendentemente dal valore iniziale della velocità angolare (lo stato iniziale) al tempo t0 . A tal fine si consideri la seguente funzione definita positiva e radialmente illimitata. 1 1 1 V (x) = J1 ω12 + J2 ω22 + J3 ω32 2 2 2 Derivando si verifica facilmente che tale funzione è definita negativa in tutto lo spazio. In conclusione V (x) è una funzione di Lyapunov che soddisfa la condizione del Teorema 2 e lo stato ω = 0 è uno stato asintoticamente, globalmente stabile, ciò che corrisponde alla tendenza all’arresto del corpo. 72 4. Elementi di teoria della stabilità 4.2.c. Alcuni approfondimenti • Il teorema di La Salle Un importante complemento di indagine è fornito dal teorema di La Salle. Tale risultato consente di decidere della eventuale stabilità asintotica avendo a disposizione una funzione di Lyapunov non asintotica. Ciò che, per l’esistenza del teorema inverso, equivale a chiedersi, sotto quali condizioni l’esistenza di una funzione di Lyapunov assicuri l’esistenza du un’altra che è anche asintotica. Per meglio comprendere l’interesse di un tale risultato si consideri ancora l’esempio del pendolo in presenza di attrito ẋ1 (t) = x2 (t) ẋ2 (t) = −g k senx1 (t) − x2 l m e si consideri ancora la funzione energia g 1 (1 − cosx1 ) + x2 2 l 2 che è definita positiva per −2π < x1 < 2π. La sua derivata lungo il moto e pari a E(x) = Ė(x) = g g g k ẋ1 senx1 + x2 ẋ2 = x2 senx1 − x2 senx1 = − x22 l l l m Ė(x) è essendo semidefinita negativa, è una funzione di Lyapunov e prova la stabilità dell’equilibrio verticale inferiore, ma non la stabilità asintotica, che appare evidente debba sussistere in questo caso. Siamo dunque nella condizione di avere una funzione di Lyapunov e ci domandiamo se per una qualche strana circostanza non possiamo dedurre la stabilità asintotica. Situazioni di questo tipo si presentano spesso nelle applicazioni. A questo proposito è necessario premettere che un insieme invariante rispetto alla dinamica del sistema, Ω, è un insieme di stati in cui rimangono confinate l’evoluzione che muovono da ciascuno di essi. Teorema 3. (La Salle) Se il più grande insieme invariante rispetto alla dinamica che è contenuto nell’insieme di punti in cui si annulla la V̇ (t) coincide con xe allora xe è asintoticamente stabile. La dimostrazione si riconduce alla verifica che le evoluzioni convergono sugli insiemi invarianti. Non si avrà difficoltà ad applicare il risultato all’esempio del pendolo. • Il criterio di Krasovskii Un valido strumento di analisi di stabilità asintotica è il teorema di Krasovskii. Indicata con J(x) la matrice iacobiana di f (x) 73 4.2. La stabilità secondo Lyapunov Teorema 4. Se per ogni x gli autovalori della matrice J(x) + J T (x) hanno parte reale strettamente negativa, allora lo stato di equilibrio xe = 0 è stabile asintoticamente globalmente. A titolo di esempio si consideri il sistema ẋ1 = −x1 + x3 u1 u2 ẋ2 = −x2 − x32 + k1 x3 + u1 ẋ3 = k2 x2 − x3 − x33 . Lo stato zero è uno stato d’equilibrio isolato, poiché lo jacobiano J(x)x=0 è non singolare, inoltre esso è anche l’unico stato di equilibrio. Per il sistema in esame si ha: −1 J(x) = 0 0 e dunque 0 −3x22 − 1 k2 −2 J(x) + J T (x) = 0 0 0 k1 2 −3x3 − 1 0 −6x22 − 2 k1 + k2 0 k1 + k2 −6x23 − 2 ha un autovalore indipendente da x e pari a λ1 = −2, mentre gli altri, per k1 = −k2 , risultano essere λ2 = −6x22 − 2, λ3 = −6x23 − 2, i quali hanno parte reale inferiore a −α = 2 > 0.Per il teorema enunciato si ha dunque la stabilità asintotica globale dello stato zero. • Il teorema di Cetaev Teorema 5. Se V (x) si annulla in xe , ha derivate parziali prime continue in Ω(xe ), assume valori positivi in un insieme che ha xe come punto di accumulazione, la sua derivata lungo il moto è definita positiva, allora lo stato di equilibrio è instabile. Si consideri il seguente sistema del secondo ordine ẋ1 = x1 + g1 (x) ẋ2 = −x2 + g2 (x) in cui g1 (·) e g2 (·) soddisfano in un intorno dell’origine |gi (x)| ≤ x2 Poiché le condizioni precedenti implicano gi (0) = 0, l’origine è uno stato di equilibrio. Si consideri, dunque la funzione 1 V (x) = (x21 − x22 ) 2 74 4. Elementi di teoria della stabilità che è positiva sui punti della retta x2 = 0 intorno all’origine; inoltre si ha V̇ (x) = x21 + x22 + x1 g1 (x) − x2 g2 (x) Poiché |x1 g1 (x) − x2 g2 (x)| ≤ Σ21 |xi ||gi (x)| ≤ 2kx3 si ha V̇ (x) ≥ x|2 − 2kx3 = x|2 (1 − 2kx) 1 in S(r) le condizioni del teorema di Cetaev sono soddisfatte e si ha instabilità dello stato e per r < 2k di equilibrio. 4.2.d. Sistemi non stazionari V (x, t) è una funzione definita positiva se: - V (x, t) è definita in Ω per ogni t ≥ 0 - V (0, t) = 0 per t ≥ 0 - V (x, t) domina W (x) > 0, cioè W (x) ≤ V (x, t) in ogni x in Ω e per ogni t ≥ 0. Derivata lungo il moto ∂V ∂V + ·f ∂t ∂x Funzione di Lyapunov è una funzione definita positiva in Ω con derivata lungo il moto semidefinita negativa in Ω. I risultati si enunciano allo stesso modo. V̇ (x, t) = 4.3. La stabilità dei sistemi lineari Si noti che per un sistema lineare ẋ(t) = A(t)x(t) + B(t)u(t) gli stati di equilibrio sono quelli che soddisfano l’equazione: 0 = A(t)xe e quindi (xe = 0), cioè l’origine dello spazio di stato, è sempre uno stato di equilibrio. Esso è unico se e solo se la matrice dinamica è invertibile, cioè se il determinante di A(t) è diverso da zero. Se il determinante è nullo in ogni istante di tempo gli stati di equilibrio sono un sottospazio dello spazio di stato. Nel caso dei sistemi lineari sussistono le seguenti proprietà: 1. l’insieme degli stati di equilibrio è un sottospazio dello spazio di stato ed in particolare l’origine è sempre uno stato di equilibrio; 75 4.3. La stabilità dei sistemi lineari 2. le proprietà di stabilità di uno stato di equilibrio sono equivalenti a quelle di ogni altro (da cui la possibilità di limitare lo studio allo stato zero); come conseguenza si parlerà di stabilità interna come di una proprietà del sistema, non di un particolare stato di equilibrio; 3. la definizione di stabilità può essere indebolita, nel senso che è necessario e sufficiente che esista una coppia di valori δ, ε che soddisfano la (4.4); 4. le proprietà di stabilità locale implicano quelle globali; 5. il sistema è stabile esponenzialmente se e solo se è uniformemente asintoticamente stabile. La prima delle proprietà indicate è gia stata commentata. Per quanto riguarda la seconda, l’equivalenza delle proprietà di stabilità degli stati di equilibrio, si noti che la linearità rispetto allo stato dell’evoluzione libera consente di ricondurre l’ evoluzione perturbata rispetto ad un generico stato di equilibrio ad un’evoluzione libera dello stesso sistema. Infatti, x(t0 ) − xe < δ ⇒ x(t) − xe < , posto z = x − xe , equivale a z(t0 ) < δ ⇒ ϕ(t, t0 , x0 − xe , 0) = x(t) − xe < Per quanto riguarda la terza delle proprietà citate basta osservare che se esiste una coppia di valori δ, ε tali che x(t0 ) < δ ⇒ x(t) < allora per ogni altro valore ε̃ = αε se si sceglie δ̃ = αδ la condizione di stabilità è soddisfatta. Per quanto riguarda la validità in grande delle condizioni locali basta rivedere, per la stabilità semplice, quanto detto al punto precedente e per il comportamento asintotico, che se x(t0 ) < δa ⇒ lim x(t) = 0 t→∞ allora comunque fissato z0 = αx0 lim z(t) = lim αx(t) = 0 t→∞ t→∞ cioè la equiasintoticità globale. 4.3.a. La stabilità del moto Le generalità insita nello studio della stabilità degli stati di equilibrio già messa in luce nel caso generale è ancora maggiore nel caso dei sistemi lineari. Per tale classe di sistemi, infatti, la stabilità dell’origine dello spazio di stato del sistema dato assicura la stabilità di ogni moto. Il calcolo del sistema differenziale che esprime la dinamica della parturbazione rispetto ad un assegnato moto, si riduce al seguente 76 4. Elementi di teoria della stabilità ẋp (t) = A(t)xp (t) + B(t)u(t) = A(t)x(t) + A(t)ξ(t) + B(t)u(t) e, quindi ˙ = A(t)ξ(t) ξ(t) Dunque si ottiene una dinamica che coincide con la dinamica del sistyema assegnato e non dipende dall’ingresso. La stabilità dello stato zero di tale sistema equivale alla stabilità di un qualsiasi moto. Poichè, come già osservato, nei sistemi lineari le proprietà locali si trasformano in globali e la stabilità è invariante rispetto allo stato di equilibrio, per tale classe di sistemi si usa parlare di stabilità interna del sistema riferendosi allo studio dello stato zero e restando inteso che tale proprietà ha una valenza globale e riguarda tutti i comportamenti del sistema, sia stati di equilibrio che moti, rispetto a perturbazioni dello stato iniziale. 4.3.b. Condizioni di stabilità per i sistemi lineari stazionari x(t) = φ(t − t0 )x(t0 ) La condizione necessaria e sufficiente di stabilità si esprime in termini di limitatezza della norma della matrice di transizione dello stato. Infatti φ(t − t0 ) ≤ k implica x(t) ≤ φ(t − t0 ) · x(t0 ) ≤ kx(t0 ) da cui ⇒ x(t) ≤ k k k Quindi se la matrice φ è limitata allora l’evoluzione libera è limitata; inoltre, se φ(t − t0 ) non fosse limitata ci sarebbe almeno un elemento della matrice non limitato al variare di t, sia quello di posto (i, j), al quale corrisponderebbe la componente i − ma dell’evoluzione libera illimitata a partire da una condizione iniziale non nulla xi (t) = φij (t − t0 )xj (t0 ) x(t0 ) < Con gli stessi argomenti è facile verificare che condizione necessaria e sufficiente di stabilità asintotica è che lim φ(t − t0 ) = 0 t→∞ la dimostrazione è analoga sia per la sufficienza che per la necessità Le condizioni di stabilità per i sistemi lineari stazionari, se si ricorda che la matrice di transizione è l’esponenziale della matrice dinamica, si possono esprimere in termini di autovalori di A. Più in 77 4.3. La stabilità dei sistemi lineari dettaglio ricordando che le componenti dell’esponenziale di matrice sono combinazioni lineari delle leggi di moto dei modi naturali, la condizione φ(t) ≤ k, equivale a che gli autovalori a molteplicità geometrica unitaria abbiano parte reale minore o uguale a zero, quelli a molteplicità geometrica maggiore di uno, abbiano parte reale strettamente minore di zero. Se si richiede anche che: lim φ(t − t0 ) = 0 t→∞ gli autovalori devono avere parte reale strettamente negativa. L’asse immaginario è la frontiera che divide gli autovalori della matrice A in due categorie, quelli che danno luogo a modi naturali convergenti e quelli che danno luogo a modi naturali divergenti. In conclusione la condizione di stabilità si può esprimere come segue Teorema 6. Un sistema lineare stazionario è • internamente stabile se gli autovalori di A che hanno molteplicità geometrica uguale ed uno hanno a parte reale non positiva e quelli che hanno molteplicità geometrica maggiore di uno hanno parte reale negativa; • asintoticamente stabile se gli autovalori hanno parte reale negativa. In formule: stabilità semplice Re(λ1i ) ≤ 0 Re(λ>1 i )<0 stabilità asintotica Re(λi ) < 0 dove l’apice sul simbolo di autovalore indica la molteplicità geometrica. 4.3.c. Criterio di Lyapunov per i sistemi lineari Con le precedenti premesse sulle forme quadratiche possiamo enunciare il criterio di Lyapunov per i sistemi lineari stazionari che fornisce una condizione necessaria e sufficiente. Teorema 7. Un sistema lineare stazionario è asintoticamente stabile se comunque fissata una matrice P , simmetrica e definita positiva, esiste ed è unica la soluzione nell’incognita Q, simmetrica e definita positiva, della seguente equazione matriciale A Q + QA = −P Quindi fissata ad arbitro P , usualmente si assume P = I, si deve risolvere l’equazione nell’incognita Q che dovrà essere soluzione unica, simmetrica e definita positiva. In caso affermativo si può asserire che il sistema è stabile altrimenti si può asserire che il sistema non è stabile. Il risultato è quindi più 78 4. Elementi di teoria della stabilità forte che non nel contesto non lineare in cui l’impossibilità di concludere a partire da una funzione definita positiva non consente di dichiarare l’assenza della proprietà. Dimostrazione La dimostrazione della sufficienza della condizione è costruttiva, se infatti per una fissata P , esiste Q soluzione definita positiva, si assuma V (x) = x Qx > risulta V̇ (x) = ẋ Qx + x Qẋ = x A Qx + x QAx = x (A Q + QA)x = −x P x < 0 Quindi V̇ (x) è una funzione definita negativa, e lo è in tutto lo spazio. Inoltre V è radialmente illimitata quindi lo stato zero è stabile asintoticamente globalmente. Per la necessità invece si suppone che gli autovalori di A abbiano parte reale negativa. Sotto questa ipotesi, Re(λi ) < 0, è ben definita la matrice ∞ Q= eA t P eAt dt 0 Q è soluzione dell’equazione, come si può verificare per sostituzione diretta, infatti ∞ ∞ ∞ ∞ d(eA t P eAt ) = A eA t P eAt dt + eA t P eAt dt A = [eA t P eAt ]0 = −I 0 0 0 dove l’ultima uguaglianza segue dalla stabilità asintotica della matrice A. Inoltre Q è simmetrica, perchè coincide con la sua trasposta, ed è anche positiva perchè se si considera la forma quadratica associata: ∞ ∞ ∞ (eA t P eAt )dtx = x (eA T P eAT )xdt = z (t)P z(t)dt > 0 con z(t) = eAt x x Qx = x 0 0 0 Per quanto riguarda l’unicità della soluzione si supponga che esista un’altra soluzione Q̃ = Q; risulterà, in tal caso A (Q − Q̃) + (Q − Q̃)A = O Premoltiplicando per eA t e postmoltiplicando per eAt si ottiene d eA t A (Q − Q̃) + (Q − Q̃)A eAt = eA t (Q − Q̃)eAt dt Dunque eA t (Q − Q̃)eAt = c∀t e poiché eAt → 0, t → ∞, c = 0, cioè Q − Q̃ = 0 di Il criterio fornisce una condizione necessaria e sufficiente fondata sulla risoluzione di un sistema equazioni 0 1 A= A Q + QA = −P −5 −6 n(n+1) 2 79 4.4. Criteri di stabilità per i sistemi lineari: il criterio di Routh 0 1 −5 −6 Q11 Q12 Q12 Q22 + Q11 Q12 Q12 Q22 0 −5 1 −6 = −1 0 0 −1 Per risolvere questo sistema si devono scrivere le equazioni che corrispondono ad uguagliare i coefficienti delle matrici −1 = −5q12 − 5q12 0 = −5q22 + q11 − 6q12 essendo le matrici simmetriche basta eguagliare gli elementi della diagonale, quelli che si trovano da una parte con tutti quelli corrispondenti a secondo membro. Gli elementi sono n(n+1) . Questo in 2 definitiva è il numero di equazioni che bisogna risolvere per applicare il criterio. 4.4. Criteri di stabilità per i sistemi lineari: il criterio di Routh Il criterio di Routh consente di stabilire quanti sono gli zeri che hanno parte reale positiva di un dato polinomio di grado n generico. an λn + an−1 λn−1 + . . . + a0 = 0 Una considerazione preliminare deve essere fatta circa i coefficienti di un dato polinomio: si verifica con facilità che se questi non hanno tutti lo stesso segno sicuramente ci sono degli zeri a parte reale positiva. I coefficienti tutti dello stesso segno è quindi una condizione necessaria, ma ovviamente non sufficiente, per garantire che tutti gli zeri abbiano parte reale negativa. Il soddisfacimento di questa condizione deve quindi essere preliminarmente verificato, ed eventualmente imposto nella soluzione di un problema in presenza di parametri, quando si vuole risolvere un problema di stabilità. Se ad esempio il polinomio caratteristico di un sistema lineare del secondo ordine è λ2 + (1 − k)λ + 2 = 0 la condizione k < 1 è necessaria (e nel caso in questione anche sufficiente) per la stabilità asintotica. Il criterio di Routh si applica ad un polinomio qualsiasi e ci dice anche quanti zeri hanno parte reale positiva. Esso consiste nella costruzione di una tabella e poi nella verifica del segno dei coefficienti di una parte di questa tabella. Il criterio in esame estende la regola di Cartesio sulla corrispondenza di soluzioni a parte reale positiva e negativa a variazioni e permanenze valutate sui coefficienti dei un polinomio di secondo grado ax2 + bx + c = 0 Nel caso specifico dell’equazione di secondo grado la regola di Cartesio si enuncia dicendo che ad ogni variazione corrisponde una soluzione a parte reale positiva, ad ogni permanenza una a perte reale negativa. Costruzione della tabella di Routh 80 4. Elementi di teoria della stabilità Con riferimento al generico polinomio di grado n, la tabella assume la forma an−2 an−4 an n an−1 an−3 an−5 · · · n−1 bn−2 bn−3 cn−3 · cn−4 · in cui gli elementi, bj , della riga n − 1 sono calcolati mediante an an an−2 an−4 an−1 an−3 an−1 an−5 bn−2 = bn−3 = −an−1 −an−1 e quelli della riga di ordine n − 2, sono ancora calcolati con le stesse espressioni, ma con riferimento alle due righe precedenti; e cosı̀ via. A titolo di esempio si consideri il polinomio λ5 + 3λ4 + 2λ3 − 2λ2 + 2λ + 4 si ottiene 5 4 3 2 1 0 1 3 8 3 − 11 4 2 −2 2 3 2 4 0 4 75 11 16 Nella costruzione della tabella gli elementi di una stessa riga possono essere moltiplicati per uno stesso numero positivo senza che ciò alteri il risultato. Conclusa la costruzione della tabella il criterio si riduce a contare il numero di variazioni di segno che si riscontrano nel passaggio da un coefficiente all’altro della prima colonna. • Il numero di variazioni è pari al numero degli zeri a parte reale positiva del polinomio dato. Nel caso allo studio, il polinomio di grado 5 ha due zeri a parte reale positiva, gli altri tre hanno parte reale negativa. 4.4.a. Casi critici E’ importante osservare che si può incorrere in impedimenti nella costruzione della tabella. Annullamento del primo elemento di una riga Quando il primo elemento di una riga si annulla non è possibile procedere al calcolo della riga successiva. L’impedimento può essere superato in diversi modi come spiegato nel seguito. Indicato con j il numero dei primi elementi nulli della riga, una primo modo di operare consiste nel sostituire la riga data con la stringa di numeri ottenuti sommando ad essa la stringa ottenuta traslando di j posti a sinistra la riga in questione dopo averla moltiplicata per (−1)j . 4.4. Criteri di stabilità per i sistemi lineari: il criterio di Routh 81 Si consideri la seguente situazione 3 2 1 4 2 3 0 la procedura indicata conduce alla tabella 1 2 −3 6 3 2 4 3 3 il calcolo delle variazioni di segno tra gli elementi della prima colonne permette di concludere che vi sono due zeri a parte reale positiva. Come ulteriore esempio si consideri il polinomio λ5 + 5λ3 + 10λ + 4 Seguendo la procedura indicata si perviene alla seguente tabella 1 4 4 −5 32 61/5 5 0 9 4 10 4 Un secondo modo di procedere consiste nel sostituire allo zero il simbolo per rappresentare un numero positivo e ’piccolo’. La tabella del primo esempio considerato diventa in tal caso 1 2 −4−6 2 4 3 3 3 Il computo delle variazioni di segno, ricordando che ε rappresenta un numero positivo ’piccolo’, consente di affermare, anche in questo caso, che vi sono due zeri a parte reale positiva. Un terzo modo di procedere di fronte all’impedimento indicato consiste nel modificare il polinomio dato moltiplicandolo per un binomio con zero negativo; d1 (λ) = d(λ)(λ + 1) si ottiene un nuovo polinomio di grado n + 1 con nuovi coefficienti a cui applicare il criterio di Routh. Si consideri, ad esempio, il polinomio λ4 + 2λ3 + 3λ2 + 6λ + 4 82 4. Elementi di teoria della stabilità 1 2 0 3 6 4 4 da cui (λ + 1)(λ4 + 2λ3 + 3λ2 + 6λ + 4) = λ5 + 3λ4 + 5λ3 + 9λ2 + 10λ + 4 1 3 6 −1 32 1 5 9 26 1 10 4 Annullamento di un’intera riga Un ulteriore impedimento nella costruzione della tabella è rappresentato dall’annullarsi di un’intera riga. Si noti che tale riga è necessariamente di ordine dispari, in quanto la proporzionalità di due righe consecutive si può avere solo se hanno lo stesso numero di elementi, ciò che può accadere solo se hanno ordine dispari e pari successivo in ordine decrescente. Questo fatto è bene evidente se si considera la struttura della tabella corrispondente al seguente polinomio λ6 + 2λ5 + 3λ4 + 4λ3 + λ2 + λ + 1 6 5 4 3 2 1 0 1 2 x x x x x 3 4 x x x 1 1 x 1 Si supponga ora che si abbia una riga nulla. Ad esempio la situazione sia quella qui esemplificata 5 4 3 1 1 0 3 3 0 1 1 In questa circostanza si può concludere che il polinomio considerato, d(λ), è il prodotto di due polinomi d(λ) = d1 (λ)d2 (λ) il primo, d1 , con zeri che hanno parte reale caratterizzata dalle variazioni di segno degli elementi della prima colonna della tabella sinora costruita (gli zeri di d1 a parte reale positiva sono tanti quante le variazioni di segno che sono apparse nella prima colonna della tabella costruita fino a quel momento); 4.4. Criteri di stabilità per i sistemi lineari: il criterio di Routh 83 Il secondo, d2 , con potenze pari della variabile e di grado uguale all’indice della riga che precede la riga che si è annullata. I coefficienti, a partire da quello di grado massimo, sono quelli che compaiono nella riga precedente quella nulla. Nel caso in esame, d1 ha grado uno e zero negativo, d2 ha grado 4 ed è pari a d2 (λ) = λ4 + 3λ2 + 1 Per quanto riguarda lo studio della parte reale degli zeri di questo nuovo polinomio si procede alla costruzione della tabella di Routh a partire dal polinomio ottenuto derivano rispetto a λ d2 stesso. Nel caso in esame d 4 (λ + 3λ2 + 1) = 4λ3 + 6λ dλ La sostituzione di tali coefficienti a quelli della riga nulla consente di continuare la costruzione della tabella. 5 4 3 2 1 0 1 1 2 3 3 3 3 2 1 1 5 3 2 Le variazioni di segno sulla prima colonna esprimono il numero di zeri a parte reale positiva del polinomio dato. Una particolarità importante in questa fase dello studio è che se non ci sono variazioni di segno si potrà desumere al più la stabilità semplice, e non quella asintotica (che avremmo avuto se non avessimo incontrato impedimenti nella costruzione della tabella). Infatti, come si potrebbe verificare andando a calcolare gli zeri nel caso in esame, o più in generale come risulta dallo studio matematico degli zeri di un polinomio con termini di ordine solo pari, gli zeri di d2 (λ), hanno una doppia simmetria (simmetria quadrantale, cioè una simmetria rispetto a ciascun asse del piano complesso). Ciò che impone, nella migliore delle ipotesi l’appartenenza degli zeri all’asse immaginario. In conclusione, dunque, se non si hanno variazioni di segno è necessaria la verifica della molteplicità geometrica degli zeri sull’asse immaginario per concludere sulla stabilità semplice del sistema. Osservazioni Qualche considerazione conclusiva riguarda la potenzialità del metodo. Si può stabilire non soltanto quanti sono gli zeri di un certo polinomio che sono a sinistra dell’asse immaginario, ma anche quanti sono gli zeri che sono a sinistra di un asse prefissato che abbia coordinate sull’asse reale pari ad α. A tal fine è sufficiente effettuare una traslazione di assi in α ed esprimere il polinomio d(λ) secondo le nuove coordinate ⇒ d(λ + α) Assegnata ad esempio, la matrice A= 0 −20 1 −9 84 4. Elementi di teoria della stabilità lo studio degli autovalori conduce al polinomio caratteristico λ2 + 9λ + 20 = 0 il criterio di Routh (Cartesio) assicura che sono a parte reale negativa. L’ulteriore verifica che gli autovalori abbiano parte reale minore di −3, può essere fatta sul polinomio (λ − 3)2 + 9(λ − 3) + 20 = 0 che si riduce a λ2 + 3λ + 2 = 0 ed ha, quindi, zeri a parte reale negativa. In conclusione, gli zeri del polinomio dato hanno parte reale inferiore a −3 Considerazioni analoghe consentono di comprendere che il criterio di Routh può essere utilizzato per verificare se gli zeri appartengono ad un settore conico del piano complesso. Una tale circostanza, se si ricorda il significato dei parametri fisici associati agli autovalori complessi, garantisce la presenza di evoluzioni temporali con smorzamento superiore ad un valore prefissato e coincidente con il sin θ, essendo θ l’angolo del settore conico. A tal fine si consideri la trasformazione di variabile λ ← λejθ 1 ed il polinomio, a coefficienti reali e di grado 2n D(λ) = d(λejθ )d(λe−jθ ) 1 1 L’applicazione del criterio di Routh a tale polinomio consente di calcolare il doppio degli zeri del polinomio d(λ) che sono esterni al cono di centro (0, 0 ed angolo 2θ. Si tratta degli zeri che sono al di sopra dell’asse immaginario ruotato di θ e al di sotto dell’asse immaginario ruotato di −θ. 4.5. Un criterio di stabilità con incertezza sui parametri da sviluppare Sia n ≥ 1, e siano ak e ak , k = 0, 1, .., n − 1, gli estremi di variabilità dei coefficienti del polinomio caratteristico di un’assegnata matrice. d(λ) = a0 + a1 λ + · · · + an−1 λn−1 + λn Infine sia N l’insieme dei polinomi omologhi al polinomio caratteristico i cui coefficienti soddisfano ai ≤ ai ≤ ai Si definiscano i seguenti polinomi i = 1, · · · , n − 1 85 4.6. Studio della stabilità mediante l’approssimazione lineare g1 (λ) = a0 + a2 λ2 + a4 λ4 + · · · g2 (λ) = a0 + a2 λ2 + a4 λ4 + · · · h1 (λ) = a1 + a3 λ3 + a5 λ5 + · · · h2 (λ) = a1 + a3 λ3 + a5 λ5 + · · · an = an = 1 Kij (λ) = gi (λ) + hj (λ) Il matematico russo Karitonov ha dimostrato che ogni polinomio in N è stabile (ha zeri a parte reale negativa) se e solo se lo sono K11 , K12 , K21 , K22 . 4.6. Studio della stabilità mediante l’approssimazione lineare Che cosa fare quando non si riesce direttamente a studiare la stabilità di un sistema non lineare applicando il criterio di Lyapunov? Un metodo di indagine per un certo aspetto complementare a quello di Lyapunov è quello fondato sullo studio della stabilità del sistema lineare approssimante il sistema dato intorno allo stato di equilibrio di cui si vuole studiare la tabilità. Come è noto la linearizzazione di un sistema dato intorno ad uno stato di equilibrio ẋ(t) = f (x(t)) f (xe ) = 0 posto ξ(t) = x(t) − xe fornisce ˙ = Aξ(t) ξ(t) ∂f1 ∂x1 ... ∂f1 ∂xn ∂fn ∂x1 ... ∂fn ∂xn A = J(xe ) = ... Come vedremo, la stabilità asintotica dell’approssimazione lineare implica la stabilità asintotica locale dello stato xe rispetto alla dinamica non lineare. Poiché lo studio riguarda la stabilità asintotica, è opportuno assicurarsi xe sia uno stato di equilibrio isolato. Come è noto, una condizione sufficiente, ma non necessaria, è che |J(xe )| = 0 86 4. Elementi di teoria della stabilità Teorema 8. Lo stato di equilibrio xe della dinamica nonlineare assegnata • è localmente asintoticamente stabile se il sistema lineare approssimante è asintoticamente stabile; • è instabile se il sistema lineare approssimante è instabile per la presenza di almeno un autovalore a parte reale positiva. La dimostrazione della prima condizione consiste nel verificare che una funzione per l’approssimazione lineare è una funzione di Lyapunov locale per il sistema non lineare. Si consideri, a tale proposito, la funzione V (ξ) = ξ Qξ con Q soluzione di A Q + QA = −P , ciò che assicura che essa sia una funzione di Lyapunov per il lineare. La stessa funzione V (x) = (x − xe ) Q(x − xe ) funzione è una funzione di Lyapunov locale per il sistema nonlineare; infatti è definita positiva intorno ad xe e la sua derivata lungo il moto è definita negativa in un opportuno intorno di xe . da sviluppare Il teorema precedente fornisce condizioni sufficienti di stabilità ed instabilità. Nelle circostanze in cui la matrice dinamica abbia autovalori a parte reale negativa e nulla, indipendentemente dalla molteplicità e quindi anche in presenza di instabilità del linearizzato, non è possibile inferire nulla circa la stabilità o meno del sistema non lineare. Un esempio elementare a tale proposito è rappresentato dalla seguente dinamica scalare ẋ = −x3 che, come è facile verificare impiegando il criterio di Lyapunov, ha in x = 0 un equilibrio asintoticamente globalmente stabile. Mentre l’applicazione del criterio fondato sullo studio dell’approssimazione lineare non consente di concludere alcunché. Per quanto riguarda l’instabilità è possibile dimostrare che se l’approssimazione lineare è instabile per la presenza di almeno un autovalore a parte reale positiva lo stato di equilibrio xe , del sistema non lineare dato, è instabile. Altrimenti nulla può essere deciso sulla stabilità del sistema nonlineare. A titolo esemplificativo, ad un’approssimazione lineare −1 0 J(xe ) = 1 −3 corrisponderebbe la stabilità di xe nel nonlineare, a J(xe ) = A = l’instabilità, a A= situazioni indecidibili. −1 0 1 0 −1 1 0 3 A= 0 1 0 0 87 4.7. Esempi di applicazione 4.7. Esempi di applicazione Dinamica del pendolo Si considerino ancora le equazioni che rappresentano la dinamica di un pendolo ẋ1 = x2 ẋ2 = − k g x2 − sin x1 m l e gli stati di equilibrio 2hπ 0 = x1e (2h + 1)π 0 = x2e h = 0, 1, .. che come è noto corrispondono al pendolo nelle posizioni verticale verso il basso, e verticale verso l’alto con velocità iniziale nulla. Come abbiamo già verificato tali stati di equilibrio, hanno proprietà diverse: quello verticale se perturbato tende ad essere abbandonato, l’altro viceversa se perturbato tende ad essere mantenuto. Il metodo dell’approssimazione lineare restituisce, come è ovvio, lo stesso risultato. L’approssimazione lineare in corrispondenza di ciascuno di questi stati di equilibrio può essere calcolata a partire dalla matrice jacobiana 0 1 J(x) = −g −k l cos x1 m |x e Negli stati di equilibrio corrispondenti alla posizione verticale verso l’alto si ha 0 1 A = g −k negli altri, invece: Ā = l m 0 1 −g l −k m Con la matrice dinamica di tale forma, lo studio della stabilità è immediato in quanto gli elementi dell’ultima riga rappresentano proprio i coefficienti del polinomio caratteristico cambiati di segno. Si ha quindi nel primo caso g k 0 1 Ā = g −k → |λI − A| = λ2 + λ − polinomio caratteristico m l l m quindi una variazione nei coefficienti cioè uno zero a parte reale positiva (autovalore a parte reale positiva), il che implica l’instabilità dello stato di equilibrio rispetto alla dinamica non lineare. Nel secondo g k 0 1 A = −g −k → |λI − A| = λ2 + λ + m l l m e due zeri a parte reale negativa, cioè stabilità asintotica dell’approssimazione lineare, quindi stabilità asintotica locale della posizione di equilibrio, corrispondente al pendolo verso il basso. 88 4. Elementi di teoria della stabilità Equazione logistica La seguente equazione differenziale non lineare ẋ(t) = ax(t) − kx2 (t) viene assunta a rappresentare la crescita di una popolazione in assenza di limitazione sulle risorse. Infatti la soluzione di un’equazione di questo tipo bene rappresenta la crescita di una popolazione nelle citate condizioni. In tale equazione ci sono due valori di equilibrio: x(a − kx) = 0 xe1 = 0 a xe2 = k Si può utilizzare il metodo dello studio della stabilità mediante linearizzazione per studiare la stabilità di questi due stati di equilibrio. La matrice jacobiana in questo caso è lo scalare: J(xe ) = (a − 2kx)xe e calcolata nei due stati di equilibrio diventa per xe1 si ha J(xe1 ) = a e per xe2 si ha J(xe2 ) = −a Il risultato è ora evidente: essendo a una costante positiva il primo stato di equilibrio è instabile, mentre lo stato di equilibrio ka è stabile asintoticamente. Le precedenti considerazioni trovano riscontro nel seguente esempio: Modello preda-predatore Come già visto il modello adatto a rappresentare l’interazione tra due specie è del tipo ẋ1 (t) = ax1 (t) − bx1 (t)x2 (t) ẋ2 (t) = −cx2 (t) + dx1 (t)x2 (t) dove x1 e x2 rappresentano la densità delle due popolazioni e si è assunto che la popolazione preda (x1 ) cresce secondo un andamento eponenziale, in assenza di limitazioni di risorse mentre la popolazione predatrice (x2 ) decresce in assenza di interazione con la preda, in quanto il suo unico nutrimento è la preda stessa, secondo un andamento esponenziale caratterizzato dal coefficiente −c. I coefficienti a, b, c, d sono tutti positivi. x1 (a − bx2 ) = 0 x2 (−c + dx1 ) = 0 89 4.8. La stabilità esterna nei sistemi lineari Gli stati di equilibrio sono facilmente calcolati e pari a x1e = a b x2e = c d . L’applicazione del metodo della linearizzazione non consente di concludere, come si può verificare facilmente in quanto gli autovalori dell’approssimazione lineare hanno parte reale nulla. Si è quindi in una condizione in cui non si può inferire nulla circa la stabilità dello stato di equilibrio del sistema non lineare. Una situazione diversa risulta se si descrive la crescita della preda impiegando l’equazione logistica. Si ha in tal caso ẋ1 (t) = ax1 (t) − bx1 (t)x2 (t) − kx21 (t) ẋ2 (t) = −cx2 (t) + dx1 (t)x2 (t) con stati di equilibrio soluzioni del sistema x1 (a − bx2 − kx1 ) = 0 x2 (−c + dx1 ) = 0 (a − bx2 − kx1 ) = 0 (−c + dx1 ) = 0 → x1 = c =0 a − bx2 − k d x2 = c d a b c d a kc − b db = xe kc − bd appare, quindi, un nuovo stato di equilibrio che è positivo quando ad − kc > 0 o, ciò che è lo stesso, a c k > d . Tale condizione si esprime dicendo che la capacità portante della specie preda deve essere sufficientemente elevata per poter reagire alla capacità di preda del predatore. Tale stato di equilibrio è positivo ed ha un significato fisico, nel contesto che si sta esaminando. L’applicazione del metodo rispetto a tale stato di equilibrio consente di verificare la sua stabilità asintotica locale. I passaggi sono lasciati per esercizio. Il risultato matematico spiega bene un fenomeno che in presenza di condizioni di competizione tra due specie preda - predatore, si verifica nella realtà. A seguito di una perturbazione rispetto a una data condizione di equilibrio insorge un fenomeno oscillatorio che converge verso lo stato di equilibrio. 90 4. Elementi di teoria della stabilità 4.8. La stabilità esterna nei sistemi lineari riscrivere con raggiungibilità e osservabilità Si definisce stabile esternamente un sistema dinamico che genera uscite limitate in corrispondenza di ingressi limitati. Più precisamente un sistema è detto stabile esternamente nello stato x0 se per ogni ¯ , le uscite sono limitate in norma, ȳ(t)≤N ¯ M,x0 positivo M ed ogni ingresso limitato in norma, ū(t)≤M per un opportuna costante positiva NM,x0 . Se la proprietà vale in x0 = 0 il sistema è detto stabile nello stato zero. Se vale in ogni stato iniziale, esiste cioè NM che non dipende da x0 , allora il sistema è detto esternamente stabile. u(t) < M ⇒ y(t) < NM,x0 t At y(t) = Ce x0 + W (t − r)u(r)dr 0 At Ce = ψ(t) ψ(t) < k1 1. ∀t ≥ 0 t W (r)dr < k2 2. ∀t ≥ 0 0 La condizione 1. è equivalente a Re(λ0,1 i )≤0 Re(λ0>1 )<0 i cioè: gli autovalori associati a modi naturali osservabili devono avere parte reale non positiva se sono semplici e parte reale negativa se sono multipli. La condizione 2. è equivalente a Re(λ0,e i )<0 cioè: gli autovalori associati a modi naturali eccitabili ed osservabili devono avere parte reale negativa. La 2. è condizione necessaria e sufficiente di stabilità esterna nello stato zero; la 1. e la 2. simultaneamente sono condizioni necessarie e sufficienti per la stabilità esterna in qualsiasi stato. La prova della sufficienza è semplice sufficiente: t W (t − r)u(r)dr t ≤ ψ(t) · x0 + W (t − r)u(r)dr y(t) = ψ(t)x0 + 0 0 ≤ k1 x0 + k2 M = Nx0 ,M necessità: se 1. o 2. non valgono esiste almeno un elemento della/e matrice/i non limitato (nella ψ(t) oppure 91 4.9. Condizioni e criteri per i sistemi lineari a tempo discreto non limitato nell’integrale in W (t)) scegliendo x0 e/o u = cost è allora possibile mostrare che g non è limitata. - Legame con la stabilità interna Esempio −1 2 0 1 A = 0 0 0 B = 0 −1 1 1 0 0 0 −1 λi = −1 2 1 2 0 0 2 λ2 = 0 λ3 = 1 −2 0 −1 0 0 0 2 −1 1 Λ = (λ1 , λ2 , λ3 ) C = (1 1 0) ⇐ 2 u 1 = 0 ⇒ u1 = 0 v11 = ( 12 −1 0 ) 1 2 u1 = 1 v11 = ( 0 1 0 ) 1 0 u1 = 0 v11 = ( − 12 0 1 ) − ∆0,e = {λ1 } 1 Λ0 = {x1 , λ2 } Λe = {λ1 , λ3 } 4.9. Condizioni e criteri per i sistemi lineari a tempo discreto Premesso che le definizioni rimangono invariate, lo studio sinora condotto consente di comprendere che la condizione di stabilità asintotica dei sistemi lineari a tempo discreto è che gli autovalori abbiano modulo minore di uno. La verifica può essere condotta impiegando diversi criteri; tra questi quelli qui di seguito esposti. Una primo criterio è rappresentato dal criterio di Routh stesso. Con riferimento al polinomio d(z) = an z n + an−1 z n−1 + . . . + a0 la sostituzione di variabile z← s+1 s−1 corrisponde ad effettuare una trasformazione del cerchio unitario al semipiano negativo del piano complesso. Sul polinomio in s è ora possibile applicare il criterio di Routh ed ottenere le informazioni sulla stabilità; infatti gli zeri in z con modulo > 1 corrispondono a zeri in s a parte reale maggiore di zero. Un secondo criterio è il cosiddetto criterio di Jury che consiste, al pari di quello di Routh, nel verificare che tra i coefficienti di una tabella costruita ad hoc siano verificate precise condizioni. 92 4. Elementi di teoria della stabilità a0 an b0 bn−1 c0 cn−2 .. . a1 an−1 ··· ··· ··· ··· .. . ··· ··· ··· ··· ··· ··· .. . t0 t2 t1 t1 t2 t0 ··· ··· ··· ··· cn−2 c0 ··· ··· bn−1 b0 an a0 con a0 an−k , bk = an ak b0 bn−k−1 ck = , bn−1 bk etc. Teorema 9. Un sistema lineare stazionario a tempo discreto è asintoticamente stabile se e solo se, costruita la tabella di Jury le seguenti condizioni sono soddisfatte d(1) > 0, (−1)n d(−1) > 0, |an | > |a0 |, |b0 | > |bn−1 |, · · · |t0 | > |t2 |. A titolo di esempio il polinomio z 2 + z + O.5 == 0 ammette la tabella caratterizzata dalla sola riga 1 1 0, 5 e si verifica immediatamente il soddisfacimento delle condizioni di stabilità asintotica. Come per i sistemi a tempo continuo un ulteriore criterio di indagine sulla stabilità è rappresentato dal criterio di Lyapunov. Si tratta di un criterio di grande generalità e potenzialità di impiego non limitato al contesto lineare. 4.9.a. Il criterio di Lyapunov Con riferimento al sistema a tempo discreto x(t + 1) = f (x(t)) f (xe ) = xe lo stato di equilibrio xe è localmente stabile, asintoticamente stabile, se esiste una funzione V (x) definita positiva in un certo intorno dello stato di equilibrio, Ixe , e la sua differenza prima: ∆V (x) = V (x(t + 1)) − V (x(t)) 4.9. Condizioni e criteri per i sistemi lineari a tempo discreto 93 è definita negativa in Ixe . Il criterio quindi si enuncia allo stesso modo e questa volta si deve trovare una funzione la cui differenza prima sia definita (semidefinita) negativa. Ancora una volta il criterio dà vita a condizioni che sono soltanto sufficienti, nel senso che se in corrispondenza di V (x) definita positiva la ∆V (x) non risulta definita (semidefinita) negativa non si può decidere della stabilità dello stato di equilibrio. Esempio: x2 (t) x1 (t + 1) = 1 + x (t)2 2 x (t) 1 x2 (t + 1) = 1 + x2 (t)2 lo stato di equilibrio è xe = 0 e posto: V (x) = x21 + x22 ∆V (x) = V f (x(t)) −V (x(t)) V f (x(t)) = = x22 x21 + = (1 + x22 )2 (1 + x22 )2 x21 + x22 V (x) = 2 2 (1 + x2 ) (1 + x22 )2 V (x) − V (x) (1 + x22 )2 1 − 1 V (x) ≤ 0 ∆V (x) = (1 + x22 )2 ∆V (x) = Questa ultima quantità è semidefinita negativa e quindi lo stato di equilibrio è uno stato stabile, in realtà è uno stato di equilibrio globalmente stabile per le note condizioni di illimitatezza della V e di validità delle condizioni su tutto lo spazio. Anche con riferimento ai sistemi a tempo discreto nel caso lineare il criterio si particolarizza dando vita a condizioni necessarie e sufficienti di facile verifica. 4.9.b. Il criterio di Lyapunov per i sistemi lineari stazionari a tempo discreto x(t + 1) = Ax(t) xe = Axe ⇒ (A − I)xe = 0 Condizione necessaria e sufficiente per la stabilità asintotica del sistema dato, è che la seguente equazione A QA − Q = −P ammetta soluzione unica in Q simmetrica e definita positiva, per ogni P fissata, anche essa simmetrica e definita positiva. 94 4. Elementi di teoria della stabilità Quindi la formulazione è identica al caso precedente, ciò che cambia è la struttura dell’equazione. Anche in questo caso in genere si fissa P = I; se questa equazione non ammette una soluzione, se la soluzione non è unica, se non è definita positiva, si può concludere che il sistema non è asintoticamente stabile. Per la dimostrazione si procede come nel caso dei sistemi a tempo continuo. Per la sufficienza, si fissi V (x) = x Qx ∆V (x) = V (x(t + 1)) − V (x(t)) = x (t + 1)Qx(t + 1) − x (t)Qx(t) = x A QAx − x Qx = x (A QA − Q)x = −x P x ma P è definita positiva e quindi −x P x è globalmente definita negativa. Ciò dimostra la stabilità asintotica globale del sistema. Per la necessità si procede in modo formalmente analogo a quanto visto nel caso a tempo continuo mostrando che ∞ Ak P Ak Q= 0 è soluzione dell’equazione unica simmetrica e definita positiva. Anche in questo caso il criterio si riconduce alla risoluzione di n(n+1) equazioni lineari. 2 Interessante è il confronto tra il criterio di Routh e quello di Lyapunov in merito alla complessità dei calcoli in termini di numeri di operazioni. Ovviamente tutto dipende dalla struttura della matrice dinamica; in presenza di un numero elevato di elementi nulli nella matrice A può risultare conveniente applicare il criterio di Routh in quanto non si deve dimenticare che per applicare il criterio di Routh è necessario preliminarmente calcolare il polinomio caratteristico. Dunque nel contesto lineare, anche per i sistemi a tempo discreto, il criterio di Lyapunov si particolarizza dando vita a condizioni necessarie - sufficienti. Ciò non accade nel contesto non lineare ove la possibilità di pervenire ad una verifica positiva della stabilità è collegata al calcolo di una funzione che soddisfi alle condizioni note. Questo aspetto rende di difficile applicazione il metodo nei casi in cui la verifica non abbia avuto esito positivo impiegando le funzioni definite positive quadratiche elementari. Che cosa fare quando non si riesce direttamente a studiare la stabilità di un sistema non lineare applicando il criterio di Lyapunov ? Anche nel contesto discreto un ruolo complementare è svolto dal metodo fondato sullo studio della stabilità sulla base dell’approssimazione lineare. 4.9. Condizioni e criteri per i sistemi lineari a tempo discreto 95 4.9.c. Studio della stabilità mediante linearizzazione Il metodo è relativo all’impiego dell’approssimazione lineare intorno ad uno stato di equilibrio per studiare la stabilità di uno stato di equilibrio di un sistema non lineare. Come è noto la linearizzazione di un sistema dato intorno ad uno stato di equilibrio Algoritmo per il calcolo della radice quadrata La seguente equazione x2 − a = 0 può essere risolta per un fissato a impiegando il seguente algoritmo iterativo x(t + 1) = x(t) + a − x2 (t) Per tale algoritmo lo stato xe = √ a è di equilibrio, come è immediato verificare. La verifica della stabilità di tale stato di equilibrio equivale alla verifica della convergenza dell’algoritmo per il calcolo della radice quadrata. Se si ha √ stabilità intorno a a, ciò assicura che l’implementazione dell’algoritmo, consente di convergere verso √ la soluzione: a. L’applicazione del metodo di analisi fondato sulla linearizzazione consente di verificare, che per opportuni valori del parametro a, l’algoritmo in questione converge. Si ottiene, infatti, √ J(xe ) = (1 − 2 a) ⇓ √ 0 < a < 1 ⇔ |1 − 2 a| < 1 √ Da questa analisi si ricava che per 0 < a < 1 la soluzione xe = a può essere senz’altro calcolata con l’algoritmo dato. Il risultato ottenuto ha una validità locale e rimane non definito il massimo scostamento ammesso dalla condizione iniziale rispetto al valore vero (quello di equilibrio). Un’informazione più precisa circa l’eventuale scostamento, la regione di stabilità, può essere ottenuto utilizzando il criterio di Lyapunov con V (x) = |a − x2 | Il calcolo della V (x(t + 1)) e ∆(V (x)) consentono di verificare senza difficoltà se si assume 0 < a < 1 che 0≤x≤1 definisce la regione di stabilità. Dinamica del prezzo in condizioni di equilibrio in presenza di due beni 96 4. Elementi di teoria della stabilità In presenza di due beni concorrenti, la domanda e l’offerta possono con buona approssimazione rappresentate dalle seguenti equazioni d(t + 1) = Ap(t + 1) + d0 o(t + 1) = Ep(t) + o0 dove A, E, d0 e o0 sono matrici e vettori di dimensione due. In condizioni di equilibrio (p(t + 1) = o(t + 1), la dinamica del prezzo evolve secondo l’equaione alle differenze p(t + 1) = A−1 Ep(t) + A−1 (o0 − d0 ) −α β d1 A= d= γ −δ d2 α, β, γ, δ > 0 Supponendo E = I si studi la precedente equazione e si individuino quali sono le condizioni affinchè l’equilibrio sia stabile asintoticamente. Si tratta di un’analisi di stabilità di un sistema lineare a tempo discreto, e ammette un’interpretazione in termini dei coefficienti α, β, γ, δ che hanno un interessante significato in termini economici. —– 5. Introduzione alle rappresentazioni non lineari Assumeremo senza perdita di generalità che X, U e Y siano spazi vettoriali di dimensione finita, rispettivamente n, p e q. La generica rappresentazione implicita di un sistema strettamente causale a dimensione finita, stazionario é del tipo ∆x(t) = f (x(t), u(t)) x(0) = x0 y(t) = h(x(t)) Nella precedente espressione ∆ rappresenta la derivazione o l’anticipo unitario, nel caso a tempo continuo o a tempo discreto, rispettivamente. Con riferimento alla struttura della funzione generatrice f (x, u) e della trasformazione in uscita, h(x), è usuale assumere la seguente classificazione. 1. Rappresentazione lineare f è lineare su X × U ed h è lineare su X f (x, u) = Ax + Bu h(x) = Cx A, B e C sono matrici di dimensioni (n × n), (n × p) e (p × n) rispettivamente. 2. Rappresentazione bilineare o regolare Posto f (x, u) = f1 (x, u) + f2 (x, u) 98 5. Introduzione alle rappresentazioni non lineari f1 è lineare su X × U , f2 è bilineare su X × U ed h è lineare su X p f (x, u) = Ax + Bu + Ni xui i=1 h(x) = Cx con A, N1 , . . . , Np matrici quadrate (n × n), B = [B1 . . . Bp ], (n × p), C, (q × n). Per B = 0, si parla di una rappresentazione omogenea. Si puo passare di una rappresentazione non omogenea ad una rappresentazione omogenea tramitte un estenzione dinamica ponendo x̄T = (xT , z)T e x̄T0 = (xT0 , 1)T , p f (x̄, u) = Āx̄ + N̄i x̄ui Ā = i=1 h(x̄) = [C, 0]x̄ . . A ..0 Ni ..Bi . . . . . . , N̄i = ...... . .. . 0 .0 0 ..0 3. Rappresentazione affine rispetto allo stato f è affine rispetto ad x per ogni fissato u, h è lineare su X f (x, u) = A0 (u) + A1 (u)x h(x) = Cx A0 (·) e A1 (·) analitiche, C é (q × n). E’ frequente il caso in cui gli elementi di A0 (·) e A1 (·) sono polinomi in u1 , u2 ,. . . up . 4. Rappresentazione affine rispetto all’ingresso Posto f (x, u) = f1 (x) + f2 (x, u) f2 è lineare rispetto ad u per ogni fissato x. Posto f1 (x) = f (x), di ha f (x, u) = f (x) + g(x)u f , g ed h sono, in tale contesto, assunte C ∞ o analitiche. 5.1. Sistemi a tempo continuo 99 5.1. Sistemi a tempo continuo 5.1.a. Sistemi lineari (richiami) Data la rappresentazione implicita di un sistema lineare a tempo continuo: ẋ(t) = Ax(t) + Bu(t) x(t0 ) = x0 y(t) = Cx(t) I comportamenti ingresso/stato e ingresso/uscita sono descritti dalla rappresentazione esplicita: t x(t) = γ0 (t, t0 )x0 + γ1 (t, τ )u(τ )dτ t0 t = e(t−t0 )A x0 + e(t−τ )A Bu(τ )dτ t0 t y(t) = w0 (t, t0 )x0 + w1 (t, τ )u(τ )dτ t0 t = Ce(t−t0 )A x0 + Ce(t−τ )A Bu(τ )dτ t0 I nuclei sono stazionari. Per ogni t̄ γ0 (t, t0 ) = γ0 (t + t̄, t0 + t̄); w0 (t, t0 ) = w0 (t + t̄, t0 + t̄) γ1 (t, τ ) = γ1 (t + t̄, τ + t̄); w1 (t, τ ) = w1 (t + t̄, τ + t̄). Ponendo t̄ = −t0 , si ottiene γ0 (t, t0 ) = γ0 (t − t0 , 0); w0 (t, t0 ) = w0 (t − t0 , 0) che implica che γ0 (t, t0 ) ed w0 (t, t0 ) dipendono della differenza t−t0 ed dunque si possono scrivere come γ0 (t−t0 ) ed w0 (t−t0 ). Analogalmente, ponendo t̄ = −τ , si ottiene γ1 (t, τ ) = γ1 (t − τ, 0); w1 (t, τ ) = w1 (t − τ, 0) che implica che γ1 (t, τ ) ed w1 (t, τ ) dipendono della differenza t − τ ed dunque si possono scrivere come γ1 (t − τ ) e w1 (t − τ ). In piu vale la proprietà di fattorizzazione che riproduce sui nuclei l’operazione di semi-gruppo. Per ogni t0 ≤ t̄ ≤ t, per quanto riguarda il nucleo w1 (t, τ ), si verifica la fattorizzazione w1 (t, τ ) = Q(t, t̄)P (t̄, τ ) con Q(t, t̄) = w0 (t, t̄) := Ce(t−t̄)A e P (t̄, τ ) = γ1 (t̄, τ ) := e(t̄−τ )A B. Analogalmente, per i nuclei γ0 (t, t0 ), w0 (t, t0 ), γ1 (t, τ ), si ottienne γ0 (t, t0 ) = γ0 (t, t̄)γ0 (t̄, t0 ); w0 (t, t0 ) = w0 (t, t̄)γ0 (t̄, t0 ), γ1 (t, τ ) = γ0 (t, t̄)γ1 (t̄, τ ). In conclusioni, i nuclei associati alla rappresentazione lineare essendo stazionari ed fattorizabile sono detti separabile: esistono delle matrice di funzioni Q(.) e P (.) di dimenzione finite, opportune, tale che vale la proprietà w1 (t − τ ) = Q(t)P (τ ); t ≥ τ. 100 5. Introduzione alle rappresentazioni non lineari Questa proprietà si deduce da l’ugualienza w1 (t, τ ) = w1 (t − τ ) = Q(t − t̄)P (t̄ − τ ) = Q(t − τ )P (0) = Q(t)P (τ ). Nel caso lineare, basta ponere Q(t) = CetA ed P (t) = e−tA B. Vale il passaggio dalla forma esplicita alla forma implicita: dγ0 (t) |t=0 dt . B = γ1 (0) A= C = w0 (0) Inoltre, come é immediato verificare: γ0 (t)x0 = etA x0 ∂γ0 (t − τ )x γ1 (t − τ ) = e(t−τ )A B = ·B x0 ∂x ∂w0 (t − τ )x B. w1 (t − τ ) = Ce(t−τ )A B = x0 ∂x In sintesi possiamo enunciare le seguenti proprietà: • i nuclei possono essere calcolati a partire da γ0 (t), w0 (t) e B. • la fattorizzazione del nucleo di ordine uno, w(t, τ ) è condizione necessaria e sufficiente di realizzabilità con un sistema lineare non stazionario. Ciò, come è noto (capitolo 7), segue dal fatto che per ogni t̄ fissato, il sistema lineare non stazionario ẋ(t) = P (t̄, t)u(t) y(t) = Q(t, t̄)x(t) realizza, a partire dello stato iniziale x0 = 0, il legame ingresso uscita associato al nucleo dato t t y(t) = Q(t, t̄) P (t̄, τ )u(τ )dτ = w(t, τ )u(τ )dτ. t0 t0 • La separabilità del nucleo di ordine uno, w(t − τ ) è condizione necessaria e sufficiente di realizzabilità con un sistema lineare stazionario. Ciò, come è noto (capitolo 7), segue dal fatto che il sistema con un sistema lineare stazionario inizializzato allo stato x0 = 0 ẋ(t) = Ax(t) + Bu(t) y(t) = Cx(t) realizza il legame ingresso uscita associato al nucleo dato t t y(t) = Q(t) P (τ )u(τ )dτ = w(t − τ )u(τ )dτ. t0 0 con l’ulteroire fattorizzazione w(t − τ ) = Q(t)P (τ ) = Ce(t−τ )A B con matrice (C, A, B) di dimenzione appropriate. 101 5.1. Sistemi a tempo continuo 5.1.b. Rappresentazioni a tempo continuo affini nell’ingresso Si consideri la seguente rappresentazione implicita che descrive, per semplicità di notazioni, un sistema ad ingresso e uscita scalari ẋ(t) = f (x(t)) + g(x(t))u(t) (II.1) y(t) = h(x(t)) x(t) ∈ Rn ; f , g: Rn → Rn e h : Rn → R sono funzioni analitiche. Teorema 1. La rappresentazione esplicita del sistema (II.1) di stato iniziale x0 a t0 ammette il seguente sviluppo in serie t x(t) = γ0 (t, t0 ; x0 ) + m≥0 m≥0 γm (t, τ1 , . . . , τm , t0 ; x0 )u(τ1 ) . . . u(τm )dτ1 . . . dτm (II.2) t0 τ1 τm−1 ... t0 t0 τm−1 ... t0 t0 t y(t) = w0 (t, t0 ; x0 ) + τ1 wm (t, τ1 , . . . , τm , t0 ; x0 )u(τ1 ) . . . u(τm )dτ1 . . . dτm (II.3) t0 con γ0 (·, t0 ; x0 ) : [t0 , T ] → Rn , w0 (·, t0 ; x0 ) : [t0 , T ] → R; γm (·, t0 ; x0 ) : [t0 , T ]m+1 → Rn , wm (·, t0 ; x0 ) : [t0 , T ]m+1 → R ( t ≥ t ≥ τ1 ≥ . . . ≥ τm ≥ t0 ). Osservazione: nel caso di piu ingressi, il sistema e descritto analogalmente come p ẋ(t) = f (x(t)) + gi (x(t))ui (t) i=1 (II.1a) y(t) = h(x(t)) dove x(t) ∈ Rn ; f , gi : Rn → Rn e h : Rn → R sono funzioni analitiche. Teorema 2. La rappresentazione esplicita del sistema (II.1a) di stato iniziale x0 a t0 ammette il seguente sviluppo in serie x(t) = γ0 (t, t0 ; x0 )+ p ... m≥0 i1 =1 p t im =1 τ1 t0 t0 τm−1 ... i1 ...im γm (t, τ1 , . . . , τm , t0 ; x0 )ui1 (τ1 ) . . . uim (τm )dτ1 . . . dτm (II.2a) t0 y(t) = w0 (t, t0 ; x0 )+ p m≥0 i1 =1 ... p t im =1 t0 τ1 t0 τm−1 ... i1 ...im wm (t, τ1 , . . . , τm , t0 ; x0 )ui1 (τ1 ) . . . uim (τm )dτ1 . . . dτm (II.3a) t0 i1 ...im con γ0 (·, t0 ; x0 ) : [t0 , T ] → Rn , w0 (·, t0 ; x0 ) : [t0 , T ] → R; γm (·, t0 ; x0 ) : [t0 , T ]m+1 → Rn , i1 ...im wm (·, t0 ; x0 ) : [t0 , T ]m+1 → R ( t ≥ t ≥ τ1 ≥ . . . ≥ τm ≥ t0 ). 102 5. Introduzione alle rappresentazioni non lineari Le espressioni in serie (II.2),(II.3), (II.2a) e (II.3a), prendono il nome di serie di Volterra, il matematico italiano che agli inizi del secolo ha per primo impiegato rappresentazioni in serie con integrali multipli per rappresentare funzionali nonlineari. Nel caso in esame esse rappresentano i legami funzionali ingresso-stato e ingresso-uscita associati al sistema (II.1) a partire dallo stato iniziale x0 ,e sono caratterizzati dai nuclei γm (·, t0 ; x0 ) e wm (·, t0 ; x0 ), rispettivamente. Nel caso lineare, come già ricordato, sono diversi da zero solo i nuclei di ordine zero ed uno che, infatti, caratterizzano la parte lineare del legame. Si mostrerà nel seguito che i nuclei wm (·, t0 ; x0 ) ammettono una rappresentazione in serie. La stessa procedura applicata alla funzione h(x) = x dà l’espressione dei γm (·, t0 ; x0 ). A questo proposito è necessario richiamare il formalismo delle serie di Lie. La serie di Lie Data una funzione analitica f : Rn → Rn si definisce l’operatore formale ”derivata direzionale” o ”derivata di Lie”, e si scrive Lf , l’operatore differenziale del primo ordine n ∂ Lf = fi ∂xi i=1 dove fi : Rn → |R indica l’i - esima componente della funzione f . Se h : Rn → R è una funzione derivabile l’operatore Lf agisce sulla funzione h nel modo seguente: f1 (x) n ∂h ∂h ∂h ∂h . .. · ·fi (x) = ,..., ·f (x) Lf h|x = = ∂xi x ∂xi x ∂xn x ∂x x i=1 fn (x) dove |x indica il calcolo in x. Se h(x) = Id(x) = x, la funzione identità, si ha: Lf Id|x = f (x) esempio: f (x) : R2 → R2 , h(x) : R2 → R (x1 , x2 ) *→ (2x1 , x1 + x2 ) (x1 , x2 ) *→ x1 x2 n = 2, Si ha: Lf = 2x1 Lf h|x0 = 2x1 ∂ ∂ + (x1 + x2 ) ∂x1 ∂x2 ∂x1 x2 ∂x1 x2 |x0 + (x1 + x2 ) |x ∂x1 ∂x2 0 = 2x1 x2 |x0 + (x1 + x2 )x1 |x0 = 2x10 x20 + (x10 )2 + x10 x20 = (x10 )2 + 3x10 x20 se x0 = (1, 2) ⇒ Lf h|x0 = 1 + 6 = 7 (III.4) 103 5.1. Sistemi a tempo continuo • Lf é un operatore lineare Siano h1 e h2 due funzioni derivabili e α1 e α2 ∈ R, si ha: Lf (α1 h1 + α2 h2 ) = α1 Lf h1 + α2 Lf h2 Siano f e g due funzioni derivabili Rn → Rn , indichiamo con Lg o Lf la composizione, ”o”, di questi operatori ∂Lf h|x · g(x) ∂x n n n ∂Lf h ∂ ∂h gi (x) = = fj (x) gi (x) ∂xi ∂xi j=1 ∂xj i=1 i=1 x n n ∂2h ∂h ∂fj (x) = fj (x)gi (x) + ·gi (x) ∂xi ∂x ∂x ∂x i j j i,j=1 i,j=1 Lg ◦ Lf h|x = x x x La composizione ”◦” non è commutativa: Lg ◦ Lf = Lf ◦ Lg . • Prodotto di Lie Si definisce l’operatore prodotto di Lie di due operatori Lf ed Lg , e lo si indica con, [Lf , Lg ] = [Lf ◦ Lg − Lg ◦ Lf ] In base alla definizione [Lf , Lg ] opera sulle funzioni come la derivata di Lie rispetto alla funzione [f, g], L[f,g] . [f, g] è definito come ∂g ∂f [f, g] = f− g ∂x ∂x e non è difficile verificare che Lf ◦ Lg h − Lg ◦ Lf h = · · · = n n ∂h ∂gi ∂h ∂fi fj − gj = L[f,g] (h) ∂xi ∂xj ∂xi ∂xj i,j=1 i,j=1 Si verifica facilmente che L[f,g] = −L[g,f ] • Composizione iterata di Lf h| ∂L f x L2f h|x := Lf ◦ Lf h|x = ·f (x) ∂x x ∂Lkf h|x k h| := L ◦ L h| = k≥0 Lk+1 ·f (x) x f f x f ∂x x • esempio f (x) : (x1 , x2 ) *→ (2x1 , x1 + x2 ) h(x) : (x1 , x2 ) *→ x1 x2 104 5. Introduzione alle rappresentazioni non lineari Lf h|x = x21 + 3x1 x2 ∂ ∂ (x2 + 3x1 x2 ) + (x1 + x2 ) (x2 + 3x1 x2 ) ∂x1 1 ∂x2 1 = 2x1 (2x1 + 3x2 ) + (x1 + x2 )(3x1 ) L2f h|x = 2x1 = 4(x1 )2 + 9x1 x2 + 3(x1 )2 = 7(x1 )2 + 9x1 x2 Se x0 = (1, 2) L2f h|x0 = 7 + 18 = 25 Indicato, con 1 l’operatore identità, L0f h|x = 1h|x = h(x), definiamo l’esponenziale formale: 1 1 m L + ... eLf = 1 + Lf + L2f + . . . + 2! m! f tale che: 1 m eLf h|x = h|x + Lf h|x + . . . + L h|x + . . . m! f (II.5) La serie (II.5) é detta serie di Lie associata a Lf . Osservazione f (x) = Ax h(x) = Cx ⇓ ∂ ∂x ∂CAx m ·Ax = CAx, L2f h|x = ·Ax = CA2 x, . . . , Lm f h|x = CA x ∂x Lf = Ax ∂Cx Lf h|x = ∂x x x da cui eLf h|x = CAm x = CeA x m! m≥0 se h = Id, si ha: eLf Id|x = eA x si ritrova l’esponenziale di matrice. Calcolo dei nuclei Per il calcolo dei nuclei si impiegherà una procedura iterativa di integrazione dell’equazione (II.1) con condizione iniziale x0 a t0 . In base al formalismo introdotto possiamo riscrivere la (II.1) nel seguente modo ẋ(t) = (Lf + u(t)Lg )Id|x(t) y(t) = h(x(t)) 105 5.1. Sistemi a tempo continuo ∂h ẏ(t) = ẋ(t) = (Lf + u(t)Lg )h|x(t) ∂x x(t) inoltre ed integrando t y(t) = y(t0 ) + (Lf + u(τ1 )Lg )h|x(τ1 ) dτ1 t0 posto Λ1 (x(t), u(t)) := (Lf + u(t)Lg )h|x(t) si ha τ1 Λ1 (x(τ1 ), u(τ1 )) = Λ1 (x0 , u(τ1 )) + t0 ⇓ τ1 Λ1 (x(τ1 ), u(τ1 )) = Λ1 (x0 , u(τ1 )) + t0 t y(t) = y(t0 ) + .ẋ(t) x(t) ∂Λ1 (·, u(τ1 )) ∂x .ẋ(τ2 )dτ2 x(τ2 ) (Lf + u(τ2 )Lg )Λ1 (·, u(τ1 )) ⇓ t Λ1 (x0 , u(τ1 ))dτ1 + t0 ∂h = ∂x t0 dτ2 x(τ2 ) τ1 Λ2 (x(τ2 ), u(τ1 ), u(τ2 ))dτ2 dτ1 t0 con Λ2 (x(τ2 ), u(τ1 ), u(τ2 )) := (Lf + u(τ2 )Lg ) ◦ (Lf + u(τ1 )Lg )h|x(τ2 ) Di nuovo si ottiene: Λ2 (x(τ2 ), u(τ1 ), u(τ2 )) = τ2 (Lf + u(τ3 )Lg )Λ2 (·, u(τ1 ), u(τ2 ))|x(τ3 ) dτ3 = Λ2 (x0 , u(τ1 ), u(τ2 )) + t0 che porta alla forma generale: t y(t) = h(x0 ) + (Lf + u(τ1 )Lg )h|x0 dτ1 t0 t τ1 + (Lf + u(τ2 )Lg ) ◦ (Lf + u(τ1 )Lg )h|x0 dτ2 dτ1 t0 t0 +... t τ1 + τm−1 ... t0 t0 (II.6) (Lf + u(τm )Lg ) ◦ . . . ◦ (Lf + u(τ1 )Lg )h|x0 dτm . . . dτ1 t0 +... per t ≥ τ1 ≥ . . . ≥ τm ≥ t0 . Le espressioni dei nuclei possono ora essere ottenute per identificazione dei ’coefficienti’ dei termini in u(τ1 ) (lineare in u), u(τ1 )u(τ2 ) (quadratico in u), ... 106 5. Introduzione alle rappresentazioni non lineari Per il primo nucleo, ponendo u(τi ) = 0 nella (II.6) e calcolando integrali iterate, si ottienesi ha (t − t0 )2 2 Lf h x0 + . . . := e(t−t0 )Lf hx0 w0 (t, t0 ; x0 ) = h(x0 ) + (t − t0 )Lf hx0 + 2 ed esprime la soluzione di ẋ(t) = f (x(t)), y(t) = h(x(t)) at x(t0 ) = x0 mediante la serie di Lie. Per quanto riguarda la parte lineare rispetto all’ingresso, raggruppando i termini sotto integrale che sono moltiplicati per u(τ ) si ottiene (τ1 − t0 )i1 (t − τ1 )i2 Lif1 ◦ Lg ◦ Lif2 x 0 i1 !i2 ! i1 ,i2 ≥0 = e(τ1 −t0 )Lf ◦ Lg ◦ e(t−τ1 )Lf hx , t ≥ τ1 w1 (t, τ1 , t0 ; x0 ) = 0 ove si è applicata la formula di integrazione per parti αdβ = αβ − βdα che per α = # u(τ )dτ e β = t dà l’uguaglianza t τ1 t0 t0 t u(τ1 )(t − τ1 )dτ1 = t u(τ2 )dτ2 dτ1 = t0 t t u(τ1 )dτ1 − t0 τ1 u(τ1 )dτ1 t0 Con analoghi calcoli si ottiene, per i contributi quadratici in u(τ ), (τ2 − t0 )i1 (τ1 − τ2 )i2 (t − τ1 )i3 Lif1 ◦ Lg ◦ Lif2 ◦ Lg ◦ Lif3 hx 0 i1 !i2 !i3 ! i1 i2 i3 ≥0 = e(τ2 −t0 )Lf ◦ Lg ◦ e(τ1 −τ2 )Lf ◦ Lg ◦ e(t−τ1 )Lf h w2 (t1 , τ1 , τ2 , t0 ; x0 ) = x0 t ≥ τ 1 ≥ τ 2 ≥ t0 . In generale wm (t, τ1 , . . . , τm , t0 ; x0 ) = · · · = e(τm −t0 )Lf ◦ Lg ◦ · · · ◦ Lg ◦ e(t−τ1 )Lf hx 0 Con gli stessi argomenti può essere reso esplicito il legame ingresso-stato che assume forma analoga alla precedente in cui i nuclei γm assumono la forma γm (t, τ1 , . . . , τm , t0 ; x0 ) = e(τm −t0 )Lf ◦ Lg ◦ · · · ◦ Lg ◦ e(t−τ1 )Lf Idx 0 ove Id indica la funzione identità, t ≥ τ1 . . . ≥ τm ≥ t0 . Osservazione: Nel caso di piu ingressi, si ottiene anologalmemte i1 ...im (t, τ1 , . . . , τm , t0 ; x0 ) = e(τm −t0 )Lf ◦ Lgim ◦ · · · ◦ Lgi1 ◦ e(t−τ1 )Lf Idx0 γm 107 5.1. Sistemi a tempo continuo i1 ...im wm (t, τ1 , . . . , τm , t0 ; x0 ) = e(τm −t0 )Lf ◦ Lgim ◦ · · · ◦ Lgi1 ◦ e(t−τ1 )Lf hx 0 Il teorema di scambio Poichè dai calcoli fatti, risulta y (t) = w0 (t, t0 ; x0 ) = e(t−t0 )Lf hx0 = h(x (t)) = h e(t−t0 )Lf Idx0 = h (γ0 (t, t0 ; x0 )) ove il pedice U indica che u ≡ 0, rimane dimostrato un noto teorema della teoria delle serie di Lie (il Teorema di scambio). L’applicazione di etLf ad h coincide con il calcolo di h al risultato dell’applicazione della serie differenziale esponenziale alla funzione identità. esempio: n = 2, f (x) : R2 → R2 , h(x) : R2 → R (x1 , x2 )T *→ (x21 , x1 − x1 x2 )T Si ha: Lf = 2x1 Lf h = x21 L2f h = x21 (x1 , x2 )T *→ x1 x2 ∂ ∂ + (x1 − x1 x2 ) ∂x1 ∂x2 ∂x1 x2 ∂x1 x2 + (x1 − x1 x2 ) = x21 ∂x1 ∂x2 ∂x21 m+1 = 2x31 , · · · , Lm → eLf h = x1 x2 + xi1 . f h = m!x1 ∂x1 i≥2 D’altra parte, si calcola m+1 Lf x1 = x21 , · · · , Lm → eLf x1 = f x1 = m!x1 xi1 i≥1 ed Lf Lf x2 = x1 (1 − x2 ), · · · , Lm f x2 = 0, m ≥ 2 → e x2 = x2 + x1 − x1 x2 dunque si verifica eLf h = h(eLf x) = xi1 (x2 + x1 − x1 x2 ) = x1 x2 + i≥1 xi1 . i≥2 In conclusione con un raggruppamento adeguato dei termini nella (II.6) permette di dedurre le espressioni dei nuclei nella (II.3). Si ha: w0 (t, t0 ; x0 ) = e(t−t0 )Lf h|x0 = (t − t0 )i i≥0 i! w1 (t, τ1 , t0 ; x0 ) = e(τ1 −t0 )Lf ◦ Lg ◦ e(t−τ1 )Lf (h)|x0 = i1 ,i2 ≥0 Lif1 ◦ Lg ◦ Lif2 h|x0 Lif h|x0 (II.7) t ≥ τ 1 ≥ t0 (τ1 − t0 )i1 (t − τ1 )i2 i1 !i2 ! (II.8) 108 5. Introduzione alle rappresentazioni non lineari w2 (t, τ1 , τ2 , t0 ; x0 ) = e(τ2 −t0 )Lf ◦ Lg ◦ e(τ1 −τ2 )Lf ◦ Lg ◦ e(t−τ1 )Lf h|x0 = Lif1 ◦ Lg ◦ Lif2 ◦ Lg ◦ Lif3 h|x0 i1 ,i2 ,i3 ≥0 (τ2 − t0 )i1 (τ1 − τ2 )i2 (t − τ1 )i3 i1 !i2 !i3 ! (II.9) t ≥ τ 1 ≥ τ2 ≥ t0 ... wm (t, τ1 , . . . , τm , t0 ; x0 ) = e(τm −t0 )Lf ◦ Lg ◦ e(τm−1 −τm )Lf ◦ Lg ◦ . . . ◦ Lg ◦ e(t−τ1 )Lf h|x0 = i Lif1 ◦ Lg ◦ . . . ◦ Lg ◦ Lfm+1 h|x0 i1 ,...,im+1 ≥0 (τm − t0 )i1 . . . (τ1 − τ2 )im (t − τ1 )im+1 i1 ! . . . im+1 ! (II.10) Si deducono le espressioni dei nuclei γk (·; x0 ) nella (II.2) ponendo h(x) = x, si ha: γm (t, τ1 , ..., τm , t0 ; x0 ) = e(τm −t0 )Lf ◦ Lg ◦ e(τm−1 −τm )Lf ◦ Lg ◦ . . . ◦ Lg e(t−τ1 )Lf Id|x0 = i Lif1 ◦ Lg ◦ . . . ◦ Lg ◦ Lfm+1 Id|x0 i1 ,...,im+1 ≥0 (τm − t0 )i1 . . . (τ1 − τ2 )im (t − τ1 )im+1 i1 ! . . . im+1 ! γ0 (t, t0 ; x0 ) = e(t−t0 )Lf Id|x0 . (II.11) (II.12) Dalla rappresentazione esplicita a quella implicita. Si deduce facilmente dalle espressioni (II.7), (II.11) e (II.12). ∂γ0 (t, t0 ; x) = f (x) ∂t t=t0 γ1 (0, 0, 0; x) = g(x) w0 (0, 0; x) = h(x) Come casi particolari si ritrova • lineare f (x) = Ax, g(x) = B, h(x) = Cx. (t − t0 )2 w0 (t, t0 ; x0 ) = e(t−t0 )LAx Cxx0 = (Cx + (t − t0 )CAx + CA2 x + . . .)x0 = Ce(t−t0 )A x0 2 w1 (t, τ1 , t0 ; x0 ) = e(τ1 −t0 )LAx ◦ LB ◦ e(t−τ1 )LAx Cxx0 = = e(τ1 −t0 )LAx ◦ LB CeA(t−τ1 ) xx = e(τ1 −t0 )LAx CeA(t−τ1 ) B 0 A(t−τ1 ) = Ce B w2 (t, τ1 , τ2 , t0 ; x0 ) = e(τ2 −t0 )LAx ◦ LB ◦ e(τ1 −τ2 )LAx Cxx0 = = e(τ2 −t0 )LAx ◦ LB Ce(t−τ1 )A B ≡ 0 wk = 0, k ≥ 2. 109 5.1. Sistemi a tempo continuo • bilineare f (x) = Ax, g(x) = N x + B, h(x) = Cx. w0 (t, t0 ; x0 ) = e(t−t0 )LAx Cxx = Ce(t−t0 )A x0 0 w1 (t, τ1 , t0 ; x0 ) =e(τ1 −t0 )LAx ◦ LN x+B ◦ e(t−τ1 )LAx Cxx0 = =e(τ1 −t0 )LAx Ce(t−τ1 )A (N x + B) x 0 (t−τ1 )A =Ce (t−τ1 )A B + Ce Ne (τ1 −t0 )A x0 w2 (t, τ1 , τ2 , t0 ; x0 ) = e(τ2 −t0 )LAx ◦ LN x+B ◦ e(τ1 −τ2 )LAx ◦ LN x+B ◦ e(t−τ1 )LAx Cxx 0 (τ2 −t0 )LAx A(t−τ1 ) (t−τ1 )A (τ1 −τ2 )A =e LN x+B Ce B + Ce Ne x x=0 = ··· = Ce(t−τ1 )A N e(τ1 −τ2 )A B + Ce(t−τ1 )A N e(τ1 −τ2 )A N e(τ2 −t0 )A x0 wm (t, τ1 , . . . , τm , t0 ; x0 ) = Ce(t−τ1 )A N · · · N e(τm−1 −τm )A B + N e(τm −t0 )A x0 Proprietà dei nuclei Si verifica che i nuclei sono stazionari. Per il nucleo generico di ordine m in uscita , si ottienne per ogni t̄ l’ugualienza wm (t, τ1 , . . . , τm , t0 ; x) = wm (t + t̄, τ1 + t̄, . . . , τm + t̄, t0 + t̄; x) ed analogalmente per tutii i nuclei. Si dimostra che il calcolo dei nuclei successivi si può fare in modo ricorsivo a partire da γ0 (t, t0 ; x), w0 (t, t0 ; x) e g(x). Posto γ m γ m (t; τ1 , . . . , τm , γ0 (τm , t0 ; x)) = γm (t, τ1 , . . . , τm , t0 ; x) o equivalatamente γ m (t; τ1 , . . . , τm ; x) = Lg ◦ e(τm−1 −τm )Lf ◦ Lg e(t−τ1 )Lf Idx si ottiene per il primo nucleo ∂γ0 (t, τ1 ; x) γ 1 (t, τ1 ; x) = Lg ◦ e(t−τ1 )Lf Idx = · g(x) ∂x e dunque ∂γ0 (t, τ1 ; x) · g(γ0 (τ1 , t0 ; x)) γ0 (τ1 ,t0 ;x) ∂x che dimostra quindi che, noto γ0 (t, t0 ; x), si può calcolare γ1 nel modo indicato. Analogalmente si verifica che ∂ γm−1 (t, τ1 , . . . , τm−1 ; γ0 (τm−1 , τm ; x)) γ m (t, τ1 , . . . , τm , x) = ·g(x) ∂x x ∂ γm−1 (t, τ1 , . . . , τm−1 ; x) ∂γ0 (τm−1 , τm ; x)) γm (t, τ1 , . . . , τm , x) = . ·g(γ0 (τm , t0 ; x)) ∂x ∂x γ1 (t, τ1 ; x0 ) = γ0 (τm−1 ,t0 ;x) γ0 (τm ,t0 ;x) 110 5. Introduzione alle rappresentazioni non lineari e quindi tutti i nuclei possono essere calcolati da γ0 (t, t0 ; x) e g(x). Si hanno forme ricorrenti per il calcolo. Le stesse considerazioni possono essere ripetute per wm . Si ottiene ponendo w m (t, τ1 , . . . , τm ; γ0 (τm , t0 ; x)) = wm (t, τ1 , . . . , τm , t0 ; x) che: ∂w m−1 (t, τ1 , . . . , τm−1 ; γ0 (τm−1 , τm ; x)) w m (t, τ1 , . . . , τm ; x) = ·g(x) ∂x (II.14) x Una proprietà importante è la separabilità dei nuclei quando il punto iniziale e punto di equilibrio. Dalle considerazione precedente, per x0 punto di equilibrio f (x0 ) = 0, si verifica γ m γ m (t; τ1 , . . . , τm , x0 ) = γm (t, τ1 , . . . , τm , t0 ; x0 ) e dunque per il primo nucleo γ1 (t, τ1 ; x0 ) = ∂γ0 (t, τ1 ; x) ∂γ0 (t; x) ∂γ0 (−τ1 ; x) · g(x0 ) = · · g(x0 ) x x x0 0 0 ∂x ∂x ∂x Le stesse considerazioni possono essere ripetute per γm . Si ottiene: ∂ γm−1 (t, τ1 , . . . , τm−1 ; x) ∂γ0 (τm ; x) ∂γ0 (−τm−1 ; x) γm (t, τ1 , . . . , τm , x0 ) = · · g(x0 ). · x0 x0 ∂x ∂x ∂x x0 Le stesse considerazioni possono essere ripetute per wm . Si ottiene: w m (t, τ1 , . . . , τm ; x0 ) = wm (t, τ1 , . . . , τm , t0 ; x0 ) che: ∂w m−1 (t, τ1 , . . . , τm−1 ; x) ∂γ0 (τm ; x) ∂γ0 (−τm−1 ; x) · · g(x0 ). w m (t, τ1 , . . . , τm ; x0 ) = · x x0 0 ∂x ∂x ∂x x0 5.1.c. Il problema della realizzazione Sulla base della proprietà messa in evidenza è facile mostrare un semplice ed elegante risultato relativo alla realizzazione causale. Definizione 1. Assegnata una famiglia di nuclei vm (t, τ1 , . . . , τm ), m ≥ 0, t ≥ τ1 . . . ≥ τm ≥ t0 = 0 una sua realizzazione causale è costituita da una quintupla (n, x0 , f, g, h) (n dimensione dello spazio di stato, x0 ∈ Rn , f , g ed h campi di vettori e trasformazione d’uscita che definiscono una rappresentazione affine) tale che detti wm i nuclei ad essa associati si ha wm = vm . 111 5.1. Sistemi a tempo continuo Teorema 3. Una famiglia di nuclei vm , m ≥ 0, ammette una realizzazione causale se e solo se esistono un intero n, e due funzioni dervabili, P :R × Rn → Rn Q :R × Rn → Rq (t, x) → P (t, x) (t, x) → Q(t, x) ed un x0 ∈ Rn tale che v0 (t) = Q(t, x0 ) vm (t, τ1 , . . . , τm ) = LP (τm ,·) · · · LP (τ1 ,·) Q(t, ·)x0 dimostrazione Necessità: Le formule precedentemente richiamate mostrano l’esistenza delle funzioni P (t, .) e Q(t, .), si ha: Q(t, x) = etLf h|x τm 1 P (τ1 , x) = eτ1 Lf ◦ Lg ◦ e−τ1 Lf Id|x = e−τ1 Ladf g Id|x = adm g(x) m! f m≥0 con m−1 ad0f g = g, adf g = [Lf , Lg ]Id, . . . , adm g]Id f g = [Lf , adf R Sufficienza: Se esistono x0 , P (t, .) e Q(t, .) si costruisce il sistema lineare analitico definito su seguente: n+1 ẋ(t) = P (ξ(t), x(t))u(t) ˙ = 1 ⇒ ξ(t) = t ξ(t) z = (x, ξ), z0 = (x0 , 0) y(t) = Q(ξ(t), x(t)) con: Lf = ∂ ∂ , Lg = P (ξ, x) ∂ξ ∂x si ottiene γ0 (t, 0; z) = (x, ξ + t), w0 (t, 0; z) = Q(ξ + t, x) γ0 (t, 0; z0 ) = (x0 , t), w0 (t, 0; z0 ) = Q(t, x0 ) x(t) = x0 + ⇓ t ẋ(τ1 )dτ1 = x0 + 0 LP (τ1 ,.) (x(τ1 ))u(τ1 )dτ1 0 con t x(τ1 ) = x0 + τ1 LP (τ2 ,.) (x(τ2 ))u(τ2 )dτ2 0 ⇓ (II.15) 112 5. Introduzione alle rappresentazioni non lineari t t x(t) = x0 + LP (τ1 ,.) (x0 )u(τ1 )dτ1 +. . .+ ... 0 0 τm−1 LP (τm ,.) ◦. . .◦LP (τ1 ,.) (x0 )u(τ1 ) . . . u(τm )dτm . . . dτ1 0 wm (t, τ1 , . . . , τm , 0; z0 ) = LP (τm ,) ◦ . . . ◦ LP (τ1 ,.) Q(t, x)|x0 La realizzazione bilineare Esaminiamo quali condizioni supplementari sono necessarie per ottenere una realizzazione bilineare. Teorema 4. Una famiglia di nuclei vk , k ≥ 0, ammette una realizzazione bilineare se e solo se le condizioni del Teorema 2 sono verificate e se inoltre: - le funzioni P e Q sono lineari in x per ogni t fissato; i. e. esiste una matrice (n × n), P (t), e una matrice (1 × n), Q(t), tali che: P (t, x) = P (t)x, Q(t, x) = Q(t)x - per un’opportuna matrice n × n, X(t) si verifica Q(t)X(s) = Q(t − s), ∀t, ∀s Q(t)P (τ1 ) . . . P (τi )X(s) = Q(t − s)P (τ1 − s) . . . P (τi − s), ∀t, τ1 , . . . , τi , s dimostrazione: Necessità: le funzioni P (t, .) e Q(t, .) di una realizzazione bilineare soddisfano queste condizioni, infatti: Q(t, x) = CetA x = Q(t)x P (τ1 , x) = e−τ1 A N eτ1 A x = P (τ1 )x da cui: X(s) = e−sA0 ⇓ Q(t)X(s) = Ce(t−s)A = Q(t − s) Q(t)P (τ1 ) . . . P (τi )X(s) = Ce(t−τ1 )A N e(τ1 −τ2 )A N . . . N e(τi −s)A Q(t − s)P (τ1 − s) . . . P (τi − s) = Ce(t−s−τ1 +s)A N e(τ1 −s−τ2 +s)A N . . . N e(τi −s)A · P (τi − s) = e(−τi +s)A N e(τi −s)A 113 5.1. Sistemi a tempo continuo Sufficienza. Supponiamo che siano verificate le condizioni della Proposizione 3, il sistema (II.15) diventa bilineare dipendente dal tempo: ẋ(t) = P (ξ(t))x(t)u(t) ˙ =1 ξ(t) y(t) = Q(ξ(t))x(t) Per passare ad una rappresentazione indipendente dal tempo bisogna utilizzare la seconda proprietà. ẋ(t) = P (ξ(t))X(ξ(t))x(t)u(t) = P (0)x(t)u(t) ˙ =1 ξ(t) y() = Q(ξ(t))X(ξ(t))x(t) = Q(0)x(t) Una situazione ricorrente nella pratica riguarda il caso in cui lo stato x0 sia di equilibrio. f (x0 ) = 0 ⇒ γ0 (t, t0 ; x0 ) = x0 , ∀t. In tal caso con considerazioni analoghe a quelle accennate nel verificare la proprietà di separazione si può mostrare che Teorema 5. Rispetto ad uno stato di equilibrio • i nuclei sono separabili nella forma w1 (t, τ1 , t0 ; x0 ) = W11 (t − τ1 ) w2 (t, τ1 , τ2 , t0 ; x0 ) = W21 (t − τ1 )W22 (τ1 − τ2 ) .. . wm (t, τ1 , . . . , τm , t0 ; x0 ) = Wm1 (t − τ1 ) · · · Wmm (τm−1 − τm ) • le funzioni Wmj (τj−1 − τj ) sono fattorizzabili Wmj (τj−1 − τj ) = Qmj (τj−1 )Pmj (τj ) e di conseguenza Wmj (τj−1 − τj ) = Cmj e(τj−1 −τj )Amj Bmj con A, B e C matrici di dimensioni opportune. dimostrazione: Se x0 é un punto d’equilibrio ⇒ γ0 (t, t0 ; x0 ) = x0 , ∀t ∈ R w m (t, τ1 , . . . , τm ; x0 ) = wm (t, τ1 , . . . , τm , t0 ; x0 ) 114 5. Introduzione alle rappresentazioni non lineari dalla (II.14) si deduce: ∂w0 (t − τ1 , 0; x) w1 (t, τ1 , t0 ; x0 ) = ·g(x0 ) = W11 (t − τ1 ) ∂x x0 ∂h ◦ γ0 (t, 0; x) ∂γ0 (−τ1 , 0; x) = · ·g(x0 ) ∂x ∂x x0 x0 = Q11 (t)P11 (τ1 ) Analogamente per il 2’ ordine: ∂w 2 (t, τ1 ; γ0 (τ1 − τ2 , 0; x)) w2 (t, τ1 , τ2 , t0 ; x0 ) = ·g(x0 ) ∂x x0 ∂w1 (t, τ1 , 0; x) ∂γ0 (τ1 − τ2 , 0; x) = · ·g(x0 ) ∂x ∂x x0 x0 = W21 (t − τ1 )W22 (τ1 − τ2 ) = Q21 (t)P21 (τ1 )Q22 (τ1 )P22 (τ2 ) e cosı̀ via. Gli argomenti sviluppati costituiscono la prova del successivo Teorema 5 relativo alla realizzazione di un numero finito di nuclei. Una soluzione può, infatti, essere ottenuta immediatamente impiegando rappresentazioni bilineari (ciò mostra anche le generalità di tale classe di sistemi). Teorema 6. Esiste una rappresentazione bilineare di un numero finito di nuclei associati al legame ingresso uscita di un’assegnata rappresentazione affine rispetto all’igresso a partire da uno stato di equilibrio x0 . esempio • m=1 w1 (t, τ1 , t0 ; x0 ) = Q11 (t)P11 (τ ) = C11 e(t−τ1 )A11 B11 ż = A11 z + B11 u y1 = C11 z, • m=2 z0 = 0 w2 (t, τ1 , τ2 , t0 ; x0 ) = W21 (t − τ1 )W22 (τ1 − τ2 ) ż2 = A21 0 y2 = ( C21 = C21 e(t−τ1 )A21 B21 C22 e(τ1 −τ2 )A22 B22 0 B21 C22 0 0 z2 + u z2 u + B22 A22 0 0 0 ) z2 , z2 (0) = 0 115 5.1. Sistemi a tempo continuo è una realizzazione di w2 solo, infatti (t−τ1 ) w2 = ( C21 + 0)e 0 B12 A21 0 (τ1 −τ2 ) e 0 A22 A21 0 0 A22 0 B21 C22 0 0 0 B22 z2 u esempio • Dato il sistema non lineare di dimenzione uno: ẋ(t) = −2x(t) + cos(x(t))u(t) x(t0 ) = 0 y(t) = x(t) con Lf = −2 ∂ , ∂x . Lg = cos(x) ∂ . Il suo comportamento ingresso uscista e descritto da ∂x w0 (t, 0; x0 ) = etLf Id |x0 = e−2t x0 = 0 w1 (t, τ1 , 0; x0 ) = eτ1 Lf ◦ Lg ◦ e(t−τ1 )Lf Id (x0 ) = e−2(t−τ1 ) cos(e−2τ1 x)|x0 = e−2(t−τ1 ) w2 (t, τ1 , τ2 , 0; x0 ) = eτ2 Lf ◦ Lg ◦ e(τ1 −τ2 )Lf ◦ Lg ◦ e(t−τ1 )Lf Id (x0 ) = eτ2 Lf ◦ Lg (e−2(t−τ1 ) cos(e−2(τ1 −τ2 ) x)) . = −e−2(t−τ2 ) sen(e−2τ1 x)|x0 = 0 w3 (t, τ1 , τ2 , τ3 , 0; x0 ) = eτ3 Lf ◦ Lg ◦ e(τ2 −τ3 )Lf ◦ Lg ◦ e(τ3 −τ1 )Lf ◦ Lg ◦ e(t−tau1 )Lf Id (x0 ) = eτ3 Lf ◦ Lg (−e−2(t−τ2 ) sen(e−2τ1 x)) −2(t−τ2 +τ1 −τ3 ) = −e −2τ1 cos(e . −2(t−τ2 +τ1 −τ3 ) x)|x0 = −e Si puo dunque dedurre facilmente che i nuclei di ordine pari sono nulli e i nuclei di ordine dispari sono del tipo: e−2(t−τ1 ) per il primo, −e−2(t−τ2 +τ1 −τ3 ) per il terzo e analogalmente per ordine superiore. Mostriamo qui di segue che ogni nucleo dispari puo essere realizzato con un sistema bilineare nello stato zero che abbia questo nucleo come unico nucleo. Per w1 (t, τ1 , 0; x0 ) = e−2(t−τ1 ) , si ottiene il sistema lineare ż1 = −2z1 + u y 1 = z1 , z1 (0) = 0 Per w3 (t, τ1 , τ2 , τ3 , 0; x0 ) = −e−2(t−τ2 +τ1 −τ3 ) , si ottiene il sistema bilineare A31 ż2 = 0 0 y2 = ( C31 0 A32 0 0 B31 C32 0 0 z2 + 0 0 A33 0 0 0 0 ) z2 , z2 (0) = 0 0 0 B32 C33 z2 u + 0 u B33 0 116 5. Introduzione alle rappresentazioni non lineari o con A31 = −2, A32 = −4; A33 = −2, B31 C32 = 1, B32 C33 = 1, C31 = −1 ż21 = −2z21 + z22 u ż22 = −4z22 + z23 u ż23 = −2z23 + u y2 = −z21 , . z2 (0) = 0 che ha come comportamento ingresso uscita il legame t y2 (t) = − 0 τ1 0 τ2 e−2(t−τ2 +τ1 −τ3 ) u(τ1 )u(τ2 )u(τ3 )dτ1 dτ2 dτ3 0 descritto dal nucleo w3 (t, τ1 , τ2 , τ3 , t0 ; x0 ) = W31 (t − τ1 )W32 (τ1 − τ2 )W33 (τ2 − τ3 ) = C31 e(t−τ1 )A31 B31 C32 e(τ1 −τ2 )A32 B32 C33 e(τ2 −τ3 )A33 B33 . = e−2(t−τ1 ) e−4(τ1 −τ2 ) e−2(τ2 −τ3 ) Una realizazione di w1 e w3 e dunque data dalla rappresentazione nello stato (z1 , z2 )T di dimensione 4 con uscita y(t) = y1 (t) + y2 (t). 5.2. Sistemi a Tempo Discreto 5.2.a. Sistemi lineari (richiami) Data la rappresentazione implicita di un sistema lineare a tempo discreto x(k + 1) = Ax(k) + Bu(k) y(k) = Cx(k) I comportamenti ingresso/stato e ingresso/uscita sono descritti dalla rappresentazione esplicita x(k) = γ0 (k)x0 + k−1 γ1 (k − τ )u(τ ) τ =0 = Ak x0 + k−1 Ak−1−τ Bu(τ ) τ =0 y(k) = w0 (k)x0 + k−1 w1 (k − τ )u(τ ) τ =0 = CAk x0 + k−1 τ =0 CAk−τ −1 Bu(τ ) 117 5.2. Sistemi a Tempo Discreto dove γ0 (k)x e w0 (k)x rappresentano le evoluzioni libere (corrispondenti a ingressi nulli) nello stato e nell’uscita. γ1 (k) e w1 (k) sono i nuclei degli integrali di convoluzione che caratterizzano il contributo del forzamento sullo stato x(k) e rispettivamente l’uscita y(k). Il passaggio dalla reppresentazione esplicita a quella implicita è immediato; si ha infatti A = γ0 (1) C = w0 (0) B = γ1 (1) Proprietà dei nuclei Le seguenti fattorizzazioni sono di immediata verifica ∂γ0 (k − τ − 1)x ∂ (Ak−τ −1 x)x0 B ·B = γ1 (k − τ ) = ∂x ∂x x0 ∂w0 (k − τ − 1)x ∂ (CAk−τ −1 x)x B ·B = w1 (k − τ ) = 0 ∂x ∂x x0 Se ne deduce che il calcolo dei nuclei γ1 (k) e w1 (k) si può fare a partire dalle risposte libere γ0 (k)x e w0 (k)x rispettivamente e dalla matrice B. Queste considerazioni saranno estese al caso non lineare. Separabilità dei nuclei Un nucleo stazionario w1 (k − τ ) si dice separabile se esistono delle matrici Qi (k) e Pi (τ ) di dimensioni opportune, tali che: w1 (k − τ ) = Q(k)P (τ ) In base alle precedenti considerazioni: • i nuclei associati alla rappresentazione (I.1) sono separabili • un funzionale ingresso/uscita lineare y(k) = k−1 w1 (k − τ )u(τ ) τ =0 descritto da un nucleo separabile w1 (k − τ ) = Q(k)P (τ ) ammette una realizzazione lineare: x(k + 1) = x(k) + P (k)u(k) y(k) = Q(k)x(k) 118 5. Introduzione alle rappresentazioni non lineari infatti y(k) = Q(k)P (k − 1)u(k − 1) + Q(k)x(k − 1) = w1 (1)u(k − 1) + Q(k)P (k − 2)u(k − 2) + Q(k)x(k − 2) = w1 (1)u(k − 1) + w1 (2)u(k − 2) + Q(k)x(k − 2) = ... = k−1 w1 (k − τ )u(τ ) τ =0 la fattorizzabilità è condizione necessaria e sufficiente di realizzabilità 5.2.b. Rappresentazioni a tempo discreto affini nell’ingresso aggiungere pb della realizzazione Si considera per semplicità un sistema lineare analitico ad ingresso scalare, definito su Rn . A differenza del caso continuo, l’ipotesi di linearità in u potrebbe essere tolta nel tempo discreto senza per questo modificare i risultati che seguono x(k + 1) = x(k) + f (x(x)) + g(x(k)u(k)) (III.1) y(k) = h(x(k)) f, g : Rn → Rn e h : Rn → R sono funzioni analitiche. L’assumere che la deriva abbia la forma x + f (x) non modifica la generalità del problema, essa é fatta con il solo scopo di semplificare le notazioni. x(k) ∈ Rn , x0 stato iniziale. Comportamento ingresso/stato - ingresso/uscita Un calcolo elementare mostra che la risposta nello stato e nell’uscita del sistema (III.1) é un funzionale non lineare degli ingressi ottenuto per sostituzioni successive di una funzione in un’altra. Risposta nello stato x(1) = Id + f + u(0)g (x0 ) x(2) = Id + f + u(1)g (x(1)) = I + f + u(1)g ◦ Id + f + u(0)g (x0 ) ... x(k) = Id + f + u(k − 1)g ◦ . . . ◦ I + f + u(0)g (x0 ) (III.2) Risposta nell’uscita y(0) = h(x0 ) y(1) = h ◦ Id + f + u(0)g (x0 ) y(2) = h ◦ Id + f + u(1)g ◦ I + f + u(0)g (x0 ) ... y(k) = h ◦ Id + f + u(k − 1)g ◦ . . . ◦ Id + f + u(0)g (x0 ) (III.3) 119 5.2. Sistemi a Tempo Discreto Nel caso di sistemi lineari e bilineari, in virtù della linearità rispetto ad x, le composizioni di funzioni si riconducono a prodotti di matrici ciò permette il calcolo dei coefficienti degli sviluppi in potenze degli ingressi u(0), . . . , u(k + 1) delle espressioni (III.2) e (III.3). Nel caso lineare più in generale n é cosı̀; per calcolare questi coefficienti vale a dire i nuclei di Volterra bisogna introdurre uno strumento adatto a rappresentare la composizione di funzioni. Esponenziale tensoriale Siano f e g:|Rn → |Rn ; si definisce il prodotto ⊗ dei due operatori Lf e Lg cpme m Lf ⊗ Lg = fi1 gi2 i1 ,i2 =1 si ha: ∂2 ∂xi1 ∂xi2 ∂ 2 h fi1 (x)gi2 (x) ∂x ∂x i i 1 2 x =1 m Lf ⊗ Lg h|x = i1 ,i2 Questo prodotto é: - commutativo Lf ⊗ Lg h = Lg ⊗ Lf h - associativo rispetto all’addizione Se g1 e g2 : |Rn → |Rn Lf ⊗ (Lg1 + Lg2 ) = Lf ⊗ Lg1 + Lf ⊗ Lg2 Si definisce cosı̀ la potenza tensoriale Lf L⊗m = Lf ⊗ L⊗m−1 f f L⊗0 f =I e la serie ”esponenziale tensoriale” exp⊗ Lf = ∆f = I + Lf + . . . + 1 ⊗m L + ... m! f Proposizione 6: Se f : |Rn → |Rn e h : |Rn → |R sono funzioni analitiche, si verifica l’eguaglianza: ∆f h|x = h ◦ (Id + f )(x) = h(x + f (x)) (III.5) La prova consiste nel calcolo dello sviluppo in serie di Taylor di h(x + f (x)) in potenze di f (x). n ∂h h ◦ (x + f (x)) = h(x) + ·fi1 (x) ∂xi 1 i1 =1 x n ∂ 2 h 1 ·fi (x)fi2 (x) + 2! i ,i =1 ∂xi1 ∂xi2 x 1 1 2 + ... n 1 ∂mh ·fi (x) . . . fim (x) + m! i ...,i =1 ∂xi1 . . . ∂xim x 1 1 m 120 5. Introduzione alle rappresentazioni non lineari = h(x) + Lf h|x + 1 ⊗2 1 ⊗m Lf h|x + . . . + L h|x + . . . 2! m! f = ∆f h|x Qualche proprietà - Siano f 1 , . . . , f p funzioni analitiche |Rn → |Rn si verifica facilmente che vale, per la composizione, h ◦ (Id + f p ) · . . . · (Id + f 1 )(x) = ∆f1 ◦ . . . ◦ ∆fp h|x - ∆f è un operatore lineare; infatti comunque fissate due funzioni λ1 e λ2 , ed una coppia di numeri reali α1 ed α2 ∆f (α1 λ1 + α2 λ2 ) = α1 ∆f λ1 + α2 ∆f λ2 - ∆f +g = ∆f ⊗ ∆g - se α è un numero reale ∆αf = I + αLf + . . . + αp ⊗p L + ... p! f Se ne deduce che: um um = ∆f + L⊗m ∆f ⊗ L⊗m ∆f +ug = ∆f ⊗ ∆ug = ∆f ⊗ 1 + g g m! m! p≥1 m≥1 ∆f ⊗ L⊗m agisce su una funzione h come segue g ∆f h|x = h(x + f (x)) n ∂h ∆f ⊗ Lg h|x = ∂xi i=1 ...... ∆f ⊗ L⊗2 g h|x = ∂ 2 h ·gi1 (x)gi2 (x) = d⊗2 h|x+f (x) · g ⊗2 (x) ∂x ∂x i i 1 2 x+f (x) =1 n i1 ,i2 con: ·gi (x) = dh|x+f (x) · g(x) x+f (x) ⊗2 ∂h ∂h d h= ,..., ∂x1 ∂xn T g ⊗2 (x) = [g1 (x), . . . , gu (x)]⊗2 ⊗2 in generale, ⊗m ∆f ⊗ L⊗m h|x+f (x) · g ⊗m (x) g h|x = d es: f : |R2 → |R2 , (x1 , x2 ) *→ (x21 , x1 + x2 ), g : |R2 → |R2 , h : |R2 → |R (x1 , x2 ) *→ (x1 , x22 ), (x1 , x2 ) *→ x1 x2 ∆f h|x = h(x + f (x)) = (x1 + x21 ) − (x2 + x1 + x2 ) = 2x1 x2 + x21 + 2x2 + x21 + x31 (III.6) 121 5.2. Sistemi a Tempo Discreto ∂h ∂h ∆f ⊗ Lg h|x = ·g1 (x) + ·g2 (x) ∂x1 x+f (x) ∂x2 x+f (x) = (2x2 + x1 )x1 + (x1 + x21 )x22 = 2x1 x2 + x21 + x1 x22 + x21 x22 1 ∆f h|x = h|x + Lf h|x + L⊗2 f h|x 2 ∂h ∂h 1 ∂ 2 h = x1 x2 + f1 (x) + f2 (x) + f1 (x)f2 (x) ∂x1 x ∂x2 x 2 ∂x1 ∂x2 x = x1 x2 + x2 x21 + x21 + x1 x2 + x31 + x21 x2 = 2x1 x2 + 2x21 x2 + x21 + x31 Calcolo dei nuclei Con il formalismo introdotto, le espressioni (III.2) e (III.3) possono essere scritte nella forma: x(k) = ∆f +u(0)g ◦ . . . ◦ ∆f +u(k−1)g Id|x0 (III.7) y(k) = ∆f +u(0)g ◦ . . . ◦ ∆f +u(k−1)g h|x0 (III.8) Utilizzando l’espressione (III.6) si ha: y(k) = ui0 (0) uik−1 (k − 1) ⊗i0 ⊗ik−1 ◦ . . . ◦ ∆f + h|x0 ∆f ⊗ Lg ∆f ⊗ Lg ∆f + i0 ! ik−1 ! i0 ≥1 (III.9) ik−1 ≥1 = w0 (k; x0 ) + k−1 w1 (k, τ1 ; x0 )u(τ1 ) τ1 =0 + k−1 w2 (k, τ1 , τ2 ; x0 )u(τ1 )u(τ2 ) τ1 ≥τ2 =0 + ... + wm (k, τ1 , . . . , τm ; x0 )u(τ1 ) . . . u(τm ) τ1 ≥...≥τm + ... (III.10) Lo sviluppo (III.10) é la serie di Volterra associata al sistema (III.1). Dallo sviluppo (III.9) si deduce l’espressione dei nuclei wp (·; x0 ). Si ottiene: w0 (k; x0 ) = ∆kf h|x0 1 −1 w1 (k, τ1 ; x0 ) = ∆τf1 ◦ ∆f ⊗ Lg ◦ ∆k−τ h|x0 f (III.11) Per i nuclei di ordine superiore al primo, bisogna distinguere i nuclei corrispondenti ai prodotti degli ingressi per tempi strettamente crescenti da quelli corrispondenti a prodotti di ingressi allo stesso 122 5. Introduzione alle rappresentazioni non lineari istante. Per l’ordine 2 si ha: se τ1 > τ2 u(τ1 )u(τ2 ) 1 −1 w2 (k, τ1 , τ2 ; x0 ) = ∆τf2 ◦ ∆f ⊗ ◦Lg ◦ ∆τf1 −τ2 −1 ◦ ∆f ⊗ Lg ◦ ∆k−τ h|x0 f se τ1 = τ2 u(τ1 )2 w2 (k, τ1 , τ1 ; x0 ) = 1 τ1 k−τ1 −1 h|x0 ∆ ◦ ∆f ⊗ L⊗2 g ◦ ∆f 2 f (III.12) (III.13) Per l’ordine 3: se τ1 > τ2 > τ3 u(τ1 )u(τ2 )u(τ3 ) 1 −1 h|x0 (III.14) w3 (k, τ1 , τ2 , τ3 ; x0 ) = ∆τf3 ◦ ∆f ⊗ Lg ◦ ∆τf2 −τ3 −1 ◦ ∆f ⊗ Lg ◦ ∆τf1 −τ2 −1 ◦ ∆f ⊗ Lg ◦ ∆k−τ f se τ1 > τ2 = τ3 u(τ1 )u(τ2 )2 w3 (k, τ1 , τ2 , τ2 ; x0 ) = 1 τ2 τ1 −τ2 −1 1 −1 ◦ ∆f ⊗ Lg ◦ ∆k−τ h|x0 ∆ ◦ ∆f ⊗ L⊗2 g ◦ ∆f f 2 f (III.15) 1 τ3 k−τ2 −1 h|x0 ∆ ◦ ∆f ⊗ Lg ◦ ∆τf3 −τ2 −1 ◦ ∆f ⊗ L⊗2 g ◦ ∆f 2 f (III.16) se τ1 = τ2 > τ3 u(τ2 )2 u(τ3 ) w3 (k, τ2 , τ2 , τ3 ; x0 ) = se τ1 = τ2 = τ3 u(τ1 )3 w3 (k, τ1 , τ1 , τ1 ; x0 ) = 1 τ1 k−τ1 −1 h|x0 ∆ ◦ ∆f ⊗ L⊗3 g ◦ ∆f 3! f (III.17) e cosı̀ via per wm (k, . . . , x0 ), m > 3 La stessa cosa succede per i nuclei γm (k, ·; x0 ) associati alla risposta nello stato (7), é sufficiente in questo caso porre h(x) = x Si ottiene γ0 (k; x0 ) = ∆kf Id|x0 1 −1 γ1 (k, τ1 ; x0 ) = ∆τf1 ◦ ∆f ⊗ Lg ◦ ∆k−τ Id|x0 f ... Passaggio dalla forma esplicita alla forma implicita Dalle formule (III.10) e (III.11) si deduce x + f (x) = γ0 (1; x) | g(x) = γ1 (1, 0; x) = ∆f ⊗ Lg Id|x (III.18) 123 5.2. Sistemi a Tempo Discreto h(x) = w0 (0, x) Osservazione si ritrova facilmente il caso bilineare ponendo: x + f (x) = x + Ax y(x) = N x h(x) = Cx si ha: ∆f h|x = h|x + Lf h|x + . . . + con h(x) = Cx 1 ⊗p L h|x + . . . p! f Lf h|x = dh ·f (x) = CAx x L⊗2 f h|x =0 ⇓ ∆f h|x = C(Id + A)x w0 (k; x) = C(Id + A)k x Analogamente si verifica: ∆kf Id|x = (Id + A)k x ·g(x) ∆f ⊗ Lg h|x = dh x+f (x) = CN x ∆f ⊗ L⊗m g h|x = 0 se m > 1 da cui: 1 w1 (k + 1, τ1 ; x0 ) = ∆τf1 ◦ ∆f ⊗ Lg ◦ ∆k−τ h|x0 f = C(Id + A)k−τ1 N (Id + A)τ1 x0 e cosı̀ via per i nuclei di ordine superiore. Proprietà dei nuclei Definiamo i nuclei wm (k, τ1 , . . . , τm ; x) come fatto in precedenza. w m (k, τ1 , . . . , τm ; γ0 (τm ; x)) = wm (k, τ1 , . . . , τm ; x) se ne deduce un calcolo iterato dei nuclei successivi a partire dall’evoluzione libera e da g(x). Per i primi nuclei si ha: γ0 (k; x) = ∆kf Id|x , w0 (k; x) = ∆kf h|x 124 5. Introduzione alle rappresentazioni non lineari w 1 (k, τ1 ; γ0 (τ1 ; x)) = w1 (k, τ1 ; x) con: 1 −1 h|x w 1 (k, τ1 ; x) = ∆f ⊗ Lg ◦ ∆k−τ f ∂w0 (k − τ1 − 1; x) = ∂x ·g(x) (III.19) x+f (x) Analogamente per l’ordine 2: se τ1 > τ2 1 −1 w 2 (k, τ1 > τ2 ; x) = ∆f ⊗ Lg ◦ ∆τf1 −τ2 −1 ◦ ∆f ⊗ Lg ◦ ∆k−τ h|x f ∂w 1 k, τ1 , ∆τf1 −τ2 −1 (x) = ·g(x) ∂x x+f (x) (III.20) se τ1 = τ2 1 k−τ1 −1 h|x ∆f ⊗ L⊗2 g ◦ ∆f 2 1 ∂ ⊗2 w0 (k − τ1 − 1; x) = 2 ∂x⊗2 w 2 (k, τ1 = τ2 ; x) = ·g ⊗2 (x) (III.21) x+f (x) Proprietà dei nuclei associati alla risposta del sistema (III.1) da uno stato iniziale di equilibrio Se x0 é uno stato di equilibrio, allora x0 + f (x0 ) = x0 , e w p (k, τ1 , . . . , τp ; x0 ) = wp (k, τ1 , . . . , τp ; x0 ) e la (III.19) diventa: ∂w0 (k − τ1 − 1; x) w1 (k, τ1 ; x0 ) = ·g(x0 ) ∂x x0 1 ∆f ⊗ Lg ◦ ∆k−τ h|x f = W11 (k − τ1 − 1) (III.22) la (III.20) diventa: ∂∆τf1 −τ2 −1 (x) ∂w1 (k, τ1 , ς) · ·g(x0 ) w2 (k, τ1 , τ2 ; x0 ) = ∂ς ∂x ς=x0 x=x0 1 1 = W21 (k − τ1 − 1)W22 (τ1 − τ2 − 1) (III.23) la (III.21) diventa: 1 ∂ ⊗2 w0 (k − τ1 − 1; x) ·g ⊗2 (x0 ) w2 (k, τ1 , τ1 ; x0 ) = 2 ∂x⊗2 x=x0 2 = W21 (k − τ1 − 1) (III.24) 125 5.2. Sistemi a Tempo Discreto Si deduce da ciò la seguente proposizione: Proposizione 1: Sia ssegnata la rappresentazione a tempo discreto (III.1), con (I + f ) invertibile, e sia x0 di equilibrio. I primi p nuclei ammettono una realizzazione a stato affine; il comportamento ingresso/uscita é di tale modello è caratterizzato da questi p nuclei e unicamente da essi. Con l’ipotesi di invertibilità della funzione (I + f ) : |Rn → |Rn si deducono dalle (III.23) e (III.24) le ulteriori seguenti decomposizioni ∂w0 (k − τ1 − 1, x) ∂w0 (k − 1, ς) ∂γ0 (τ1 , x) · ·g(x0 ) g(x0 ) = ∂x ∂ς ∂x x0 ς=x0 x=x0 = P11 (k − 1)Q11 (τ1 ) = C11 (A11 )k−τ1 −1 B11 Analogamente: 1 1 (k − 1)Q121 (τ1 )P22 (τ1 − 1)Q122 (τ2 ) w2 (k, τ1 > τ2 ; x0 ) = P21 1 1 1 1 = C21 (A121 )k−τ1 −1 B21 C22 (A122 )τ1 −τ2 −1 B22 2 2 2 w2 (k, τ1 , τ1 ; x0 ) = P21 (k − 1)Q221 (τ1 ) = C21 (A221 )k−1−τ1 B21 e cosı̀ via per i nuclei d’ordine superiore. Realizzazione a stato affine Il nucleo w1 (k, τ1 ; x0 ) é realizzato dal seguente sistema lineare di punto iniziale z10 = 0 z1 (k + 1) = A11 z1 (k) + B11 u(k) y1 (k) = C11 z1 (k) si ha: y1 (k) = k−1 1 −1 C11 Ak−τ B11 u(τ1 ) 11 τ1 =0 Il nucleo w2 (k, τ1 , τ2 ; x0 ) é realizzato dal seguente sistema bilineare, di punto iniziale z20 = 0 1 0 0 z (k + 1) = A21 z2 (k) + 2 1 0 0 A22 1 y2 (k) = [ C21 0 ]z2 (k) Si ha: y2 (k) = k−1 1 1 B21 0 C22 z2 (k)u(k) + u(k) 1 0 B22 1 1 1 1 C21 (A121 )k−τ1 −1 B21 C21 (A122 )τ1 −τ2 −1 B22 u(τ1 )u(τ2 ) τ1 >τ2 =0 Gli altri nuclei sono nulli Il nucleo w2 (k, τ1 = τ2 ; x0 ) é realizzato dal sistema a stato affine, di punto iniziale z30 = 0 z (k + 1) = A2 z (k) + 1 B 2 u2 (k) 2 21 3 2 21 2 y3 (k) = C21 z3 (k) 126 5. Introduzione alle rappresentazioni non lineari Questi tre sistemi realizzano i tre primi nuclei w1 (k, τ1 ; x0 ), w2 (k, τ1 > τ2 ; x0 ), w3 (k, τ1 = τ2 ; x0 ) y(k) = y1 (k) + y2 (k) + y3 (k) Un’analisi più approfondita consente di limitare il numero di sistemi a stato affine. Nel caso precedente chiamando 2 A11 = A221 , C11 = C21 ⇓ 2 u2 (k) z4 (k + 1) = A11 z4 (k) + B11 u(k) + B21? y4 (k) = C11 z4 (k) con y4 (k) = y1 (k) + y3 (k) 6. La geometria dei sistemi di equazioni differenziali 6.1. Il punto di vista della geometria nello studio dei sistemi di equazioni differenziali ẋ(t) = Ax(t) x(0) = x0 x ∈ Rn ⇒ Ax ∈ Rn • concetto fondamentale è quello di sottospazio invariante: l’evoluzione libera a partire da uno stato in V resta in V . AV ⊂ V z= T AT −1 ⇓ Tx A11 A12 = 0 A22 • l’invarianza dell’insieme induce un’invarianza di struttura Le evoluzioni libere che muovono da stati che appartengono alla stessa varietà affine ottenuta per traslazione del sottospazio V si mantengono in varietà affini della stessa classe. In termini sintetici varietà traslate di V evolvono in varietà traslate o, equivalentemente la struttura indotta per traslazione da V , la foliazione, è invariante rispetto alla dinamica. • L’immagine di B è in V 128 6. La geometria dei sistemi di equazioni differenziali Nelle coordinate z il sistema è descritto dalle equazioni ż1 = A11 z1 + A12 z2 + B1 u ż2 = A22 z2 • l’invarianza del sottospazio implica che le evoluzioni, sia libere che forzate, da uno stato iniziale in V restano in V • l’invarianza della struttura implica l’invarianza della struttura (foglie in foglie) anche sotto forzamento . • V è contenuto nel kernel di C Nelle coordinate z il sistema è descritto dalle equazioni ż1 = A11 z1 + A12 z2 ż2 = A22 z2 y = C2 z2 • l’invarianza del sottospazio implica che l’evoluzione in uscita da uno stato iniziale in V è identicamente nulla • l’invarianza della struttura implica che alle evoluzioni che muovono da stati che appartengono alla stessa foglia è associata la stessa uscita. Il punto di vista della geometria differenziale ẋ(t) = f (x(t)) x∈M (Ax(t)) x0 ∈ M (Rn ) f (x) ∈ Tx M • la dinamica è caratterizzata dal campo di vettori f (x) : x *→ TX M • integrazione di un campo di vettori c0 : vtc0 (x) = f (x) c0 = {x ∈ M : λi (x) = λi (x0 ) i = 1, . . . , n − 1} ⇒ ∂λi f = 0 i = 1, . . . , n − 1 ∂x 6.2. Sistemi a tempo continuo: invarianza e scomposizioni locali 129 • sottospazio ⇒ distribuzione distribuzione ∆ : x *→ ∆(x) ⊂ Tx M • integrazione di una distribuzione di dimensione k s0 : pt0 (x) = ∆(x) s0 = {x ∈ M : λi (x) = λi (x0 ) i = 1, . . . , n − k} ⇒ ∂λi f = 0 i = 1, . . . , n − k ∂x Definizione 1. ∆ è involutiva se τ1 , τ2 ∈ ∆ ⇒ [τ1 , τ2 ] ∈ ∆ ∆(x) = {δ1 (x) · · · δk (x)} è involutiva se rango[∆(x)] = rango[∆(x) [δi , δj ]] • Teorema di FROBENIUS ∆, di dimensione costante, è integrabile se e solo se è involutiva • evidenza della necessità • ∆(x) = V , V sottospazio, induce in Rn una foliazione ”piatta”; le foglie sono ottenuta per traslazione da V . 130 6. La geometria dei sistemi di equazioni differenziali 6.2. Sistemi a tempo continuo: invarianza e scomposizioni locali Un esempio di come sia possibile estendere, localmente, alla classe dei sistemi affini alcuni risultati della teoria lineare può essere facilmente messo in evidenza facendo riferimento alle proprietà di invarianza e alle scomposizioni rispetto ad esse. Le tecniche della geometria differenziale sono utili a tal fine; tra gli strumenti di base quello di distribuzione viene qui impiegato. Si ricorda che una distribuzione è una legge che associa ad ogni punto di una varietà differenziabile un sottospazio dello stato tangente in quel punto x → ∆(x) ⊂ T × M con M = Rn . Con riferimento ad una rappresentazione differenziale affine, la seguente assunzione di regolarità è centrale per le considerazioni che seguono. ∆(x) viene assunta essere una distribuzione nonsingolare (cioè a dimensione costante), involutiva (e quindi integrabile) in Ix0 un intorno di x0 . Ciò premesso è facile ritrovare il concetto di invarianza che nella teoria lineare si esprime come AV ⊂ V ed ha implicazioni sulla struttura del sistema: A11 A12 −1 , in z = T x. ∃T : T AT = 0 A22 Definizione 2. ∆ è invariante rispetto ad f se [f, ∆] ⊂ ∆, i.e. ∀r ∈ ∆ [f, r] ∈ ∆. Si noti che tale definizione estende il concetto di invarianza come sottoinsieme a quello di invarianza come foliazione (sotto l’applicazione di f foglie si trasformano in foglie). Nel caso lineare, come notato in precedenza, i due concetti si confondono in quanto l’invarianza in senso geometrico qui impiegata è implicata della invarianza di insieme. ∆ invariante rispetto ad f , secondo la definizione data, implica ∂φ f1 (z1 , z2 ) · f φ−1 (z) = ∃z = φ(x) : f (z) = ∂x f2 (z2 ) dimz1 = d, d = dim∆. Si ha infatti ϕ1 .. . φ1 ϕd φ = − − − = z = − − − φ2 ϕd+1 . . . ϕn ∂φ1 ∂x f = ·f ∂φ2 ∂x φ−1 (z) inoltre [f, r] ∈ ∆ implica L[f,r] ϕi = 0, e quindi Lf Lr ϕi − Lr Lf ϕi = 0 ⇒ Lr Lf ϕi = 0 i = d + 1, . . . , n 6.2. Sistemi a tempo continuo: invarianza e scomposizioni locali 131 cioè f2 è costante sulle varietà integrali di ∆, quindi è funzione di ϕd+1 , . . . , ϕn (zd+1 , . . . , zn ). Con considerazioni analoghe assumendo che ∆ sia invariante rispetto ad f e g i.e. [f, ∆] ⊂ ∆, e [g, ∆] ⊂ ∆ e che g ∈ ∆, si verifica senza difficoltà che nelle nuove coordinate ż1 = f1 (z1 , z2 ) + g(z1 , z2 )u S1 ż2 = f2 (z2 ) S2 La struttura delle equazioni mette in evidenza che gli stati del sottosistema S2 sono non “raggiungibili”. Si ricordi che nel caso lineare la scomposizione rispetto alla proprietà di raggiungibilità conduce a ż1 = A11 z1 + A12 z2 + B1 u ż2 = A22 z2 formalmente analoga a quella ottenuta nel contesto non lineare. Ricordando anche che, per un sistema lineare l’insieme degli stati raggiungibili è il più piccolo sottospazio invariante rispetto ad A che contiene l’immagine di B e che la minimalità assicura la raggiungibilità di S1 , una scomposizione locale per il sistema affine può essere ottenuta facendo riferimento alla più piccola distribuzione invariante rispetto ad f e g contenente g. Tale distribuzione può essere costruita iterativamente ∆0 = g ∆1 = ∆0 + [f, ∆0 ] + [g, ∆0 ] ∆2 = ∆1 + [f, ∆1 ] + [g, ∆1 ] .. . ∆n−1 è la distribuzione cercata, corrispondente non lineare di R(B . . . An−1 B). Un ulteriore collegamento con la teoria lineare è ottenuto si si ricorda che l’insieme degli stati raggiungibili al tempo t da x0 a t = 0 è dato da Rt (x0 ) = {x : x = eAt x0 + R(B|AB| . . . |An−1 B)} Una situazione topologica equivalente si ottiene; si ha infatti Rt (x0 ) = x : x = γ0 (t, x0 ) + Y∆n−1 (γ0 (t, x0 )) ove Y∆n−1 (γ0 (t, x0 )) rappresenta un aperto nella foglia integrale di ∆n−1 passante per γ0 (t, x − 0). Analoghe considerazioni possono essere fatte rispetto alla proprietà di osservabilità facendo riferimento ad una ∆ contenuta nella distribuzione Kerdh e possibilmente la più grande. La struttura geometrica locale è topologicamente analoga al lineare nelle ipotesi di regolarità di ∆. 132 6. La geometria dei sistemi di equazioni differenziali Le considerazioni sintetiche svolte vogliono fare intendere come, con gli strumenti della geometria differenziale sia possibile generalizzare, localmente e sotto adeguate ipotesi di regolarità, alcuni aspetti della teoria lineare. Il rilascio delle ipotesi di regolarità e lo studio del comportamento attorno ai punti singolari costituisce l’oggetto di attività di ricerca avanzata.I risultati di tali studi sono alla base di risultati importanti dal punto di vista delle applicazioni della teoria del controllo. Il lettore ha certamente colto il forte collegamento dell’approccio qui messo in luce con i problemi di analisi qualitativa dei sistemi dinamici. La differenza saliente, che caratterizza e condiziona la formulazione stessa dei problemi affrontati nonché i metodi della teoria dei sistemi, essendo collegata alla presenza della variabili di controllo, gli ingressi. Uno studio parallelo a quello succintamente esposto può essere fatto per i sistemi a tempo discreto. La mancanza di una struttura differenziale nelle equazioni alle differenze non consente di trarre giovamento da una struttura affine rispetto all’ingresso. Interessanti risultati sono presenti in letteratura. Scomposizioni locali: in sintesi Definizione 3. ∆ è invariante rispetto ad f se [f, ∆] ⊂ ∆ i.e. ∀τ ∈ ∆ [f, τ ] ∈ ∆. • estende il concetto di invarianza come sottoinsieme a quello di invarianza come foliazione (sotto l’applicazione di f foglie si trasformano in foglie). Nel caso lineare i due concetti si confondono in quanto l’invarianza in senso geometrico qui impiegata è implicata della invarianza di insieme. • ∂Φ f1 (z1 , z2 ) ∃z = Φ(x) : f (z) = · f Φ−1 (z) = ∂x f2 (z2 ) • nelle nuove coordinate f2 è costante sulle varietà integrali di ∆, i.e. è funzione di (ϕd+1 , . . . , ϕn ) = (zd+1 , . . . , zn ). • se ∆ è invariante rispetto ad f e g, cioè [f, ∆] ⊂ ∆ e [g, ∆] ⊂ ∆ nelle nuove coordinate z si ha ż1 = f1 (z1 , z2 ) + g1 (z1 , z2 )u ż2 = f2 (z2 ) + g2 (z2 )u 6.2. Sistemi a tempo continuo: invarianza e scomposizioni locali • versione non lineare di 133 ż1 = A11 z1 + A12 z2 + B1 u ż2 = A22 z2 + B2 u • g ⊂ ∆, involutiva e invariante rispetto ad f e g Nelle coordinate z il sistema è descritto dalle equazioni ż1 = f1 (z1 , z2 ) + g1 (z1 , z2 )u ż2 = f2 (z2 ) • è mantenuta l’invarianza della struttura sotto forzamento. • perfetta corrispondenza con il lineare; l’invarianza rispetto a g per la dipendenza da x. • versione non lineare di ż1 = A11 z1 + A12 z2 + B1 u ż2 = A22 z2 Ricordando che per un sistema lineare l’insieme degli stati raggiungibili è il più piccolo sottospazio invariante rispetto ad A che contiene l’immagine di B e che la minimalità assicura la raggiungibilità del primo sottosistema, una scomposizione locale per il sistema affine può essere ottenuta facendo riferimento alla più piccola distribuzione invariante rispetto ad f e g contenente g. • algoritmo ∆0 = g ∆1 = ∆0 + [f, ∆0 ] + [g, ∆0 ] ∆2 = ∆1 + [f, ∆1 ] + [g, ∆1 ] .. . • ∆n−1 è la versione non lineare della distribuzione piatta di raggiungibilità R(B . . . An−1 B). • Un ulteriore collegamento con la teoria lineare è ottenuto si si ricorda che l’insieme degli stati raggiungibili al tempo t da x0 a t = 0 è dato da Rt (x0 ) = {x : x = eAt x0 + R(B|AB| . . . |An−1 B)} • Una situazione topologica equivalente si ottiene; si ha infatti Rt (x0 ) = x : x = γ0 (t, x0 ) + I∆n−1 (γ0 (t, x0 )) I∆n−1 (γ0 (t, x0 )) rappresenta un aperto nella foglia integrale di ∆n−1 passante per γ0 (t, x0 ). 134 6. La geometria dei sistemi di equazioni differenziali • ∆, involutiva e invariante rispetto af f e g, è contenuta in Kerdh Nelle coordinate z il sistema è descritto dalle equazioni ż1 = f1 (z1 , z2 ) + g(z1 , z2 )u ż2 = f2 (z2 ) + g(z2 )u y= h(z2 ) • alle evoluzioni che muovono da stati che appartengono alla stessa foglia è associata la stessa uscita. • versione non lineare di ż1 = A11 z1 + A12 z2 + B1 u ż2 = A22 z2 y = C2 z2 Covettore, ω, è una legge che associa ad ogni x un vettore riga (ω1 (x), · · · , ωn (x)), codistribuzione, Ω, una legge che associa ad ogni x un sottospazio dello spazio duale di Tx M . Lf ω = [ ∂ω T ∂f f] + ω ∂x ∂x Ω è invariante rispetto ad f se Lf Ω ⊂ Ω. Ricordando che per un sistema lineare l’insieme degli stati inosservabili è il più grande sottospazio invariante rispetto ad A che è contenuto nel kernel di C, una scomposizione locale di interesse per il sistema affine può essere ottenuta facendo riferimento alla più grande distribuzione invariante rispetto ad f e g contenuta in Kerdh. • algoritmo Ω0 = dh Ω1 = Ω0 + Lf Ω0 + Lg , Ω0 Ω2 = Ω1 + Lf Ω1 + Lg , Ω1 .. . • Ωn−1 è la più piccola codistribuzione invariante rispetto al f e g che contiene dh. Ωn−1 ⊥ è la più grande distribuzione invariante rispetto ad f e g che è contenuta in kerdh. • Versione nonlineare della distribuzione piatta di indistinguibilità. Un esempio di applicazione 6.3. Sistemi a tempo discreto: invarianza e scomposizioni locali Sia ∆ invariante rispetto ad f e g e involutiva per il sistema ẋ = f (x) + g(x)u + p(x)w y = h(x) p ∈ ∆ ⊂ Kerdh ⇓ p1 (z1 , z2 )w ż1 = f1 (z1 , z2 ) + g1 (z1 , z2 )u ż2 = f2 (z2 ) + g2 (z2 )u y= h(z2 ) • versione nonlineare di C CA P ⊂ R(P . . . An−1 P ) ⊂ V ⊂ N ⊂ N (C) ... CAn−1 6.3. Sistemi a tempo discreto: invarianza e scomposizioni locali F := I + f + ug e F0 := I + f • ∆ è invariante rispetto alla dinamica se JF (·,u) · ∆ ⊂ ∆(F (·, u)) concetto di invarianza come foliazione (sotto l’applicazione di F foglie si trasformano in foglie) • F1 (z1 , z2 , u) −1 ∃z = Φ(x) : F (z, u) = Φ ◦ F (Φ (z), u) = F2 (z2 , u) • versione non lineare a tempo discreto di z1 (k + 1) = A11 z1 (k) + A12 z2 (k) + B1 u(k) z2 (k + 1) = A22 z2 (k) + B2 u(k) • nelle nuove coordinate z = Φ(x), ∆ = kerdΦ2 ∂ ∂Φ2 ∂F (Φ−1 (z), u) |F (x,u) · Φ2 ◦ F (Φ−1 (z), u) = = ∂z1 ∂x ∂z1 135 136 6. La geometria dei sistemi di equazioni differenziali ∂Φ2|F (x, u) ∂F ∂ −1 Φ (z) = 0 · |x · ∂x ∂x ∂z1 essendo l’ultima uguaglianza verificata per la proprietà di invarianza e la scelta delle coordinate. ∂F ⊂ ∆(F (x, u)) ∂u implica che nelle coordinate z il sistema è descritto dalle equazioni z1 (k + 1) = F1 (z1 (k), z2 (k), u(k)) z2 (k + 1) = F2 (z2 (k)) infatti ∂Φ2 ∂F (x, u) ∂ (Φ2 ◦ F (Φ−1 (z), u)) = |F (x,u) · =0 ∂u ∂x ∂u ed è mantenuta l’invarianza della struttura sotto forzamento • versione non lineare di z1 (k + 1) = A11 z1 (k) + A12 z2 (k) + B1 u(k) z2 (k + 1) = A22 z2 (k) ∆ ⊂ kerdH implica che nelle coordinate z := H ◦ Φ−1 (z) = H(z 2) H infatti ∂H ∂z1 = 0 poichè ∆ = span ∂z∂ 1 . Nelle coordinate z si ha dunque z1 (k + 1) = F1 (z1 (k), z2 (k), u(k)) z2 (k + 1) = F2 (z2 (k), u(k)) 2 (k)) y(k) = H(z alle evoluzioni che muovono da stati che appartengono alla stessa foglia è associata la stessa uscita. • versione non lineare di z1 (k + 1) = A11 z1 (k) + A12 z2 (k) + B1 u(k) z2 (k + 1) = A22 z2 (k) + B2 u(k) y(k) = C2 z2 (k) Un esempio di applicazione 6.3. Sistemi a tempo discreto: invarianza e scomposizioni locali Sia ∆ invariante rispetto ad F e involutiva per il sistema x(k + 1) = F (x(k), u(k), w(k)) y(k) = H(x(k)) ∂F ⊂ ∆(F (·, u, w)) ∂w ∆ ⊂ KerdH ⇓ z1 (k + 1) = F1 (z1 (k), z2 (k), u(k), w(k)) z2 (k + 1) = F2 (z2 (k), u(k)) 2 (k)) y(k) = H(z • versione nonlineare di C CA P ⊂ R(P . . . An−1 P ) ⊂ V ⊂ N ⊂ N (C) ... CAn−1 Linearizzazione mediante controreazione x(k + 1) = F (x(k), u(k)) y(k) = H(x(k)) F0 = F (x, u) • grado relativo, r, ritardo ingresso - uscita: ∂ H ◦ F 0 r−1 ◦ F (x, u) = 0 ∂u ∂ H ◦ F 0 k ◦ F (x, u) = 0 k = 0, . . . , r − 2 ∂u ⇓ dH dH · F0 rango =r⇒r≤n | dH · F 0 r−1 ∂ : • Nelle coordinate (z, η) = Φ(x), z = Φ1 (x), η = Φ2 (x), con ∆ = kerdΦ1 = span ∂η z1 (k + 1) = z2 (k) |=| zr (k + 1) = S(z(k), η, u(k)) η(k + 1) = Q(z(k), η, u(k)) y(k) = (z1 (k) 137 138 6. La geometria dei sistemi di equazioni differenziali ⇓ v) u = (γz, η, v) : S(z, η, γ(z, η, v)) = S(z, ∂ rende ∆ = span ∂η invariante. 0) = 0, si ottiene la dinamica • Se H(x0 ) = 0, Φ1 (x0 ) = 0 e la controreazione , γ ∗ , è tale che S(0, zero η(k + 1) = Q(0, η(k), γ ∗ (0, η(k), 0)) = Q∗ (η(k)) η(0) = η0 • problemi di stabilità. v) = v + sumr ci zi la dinamica ingresso - uscita è resa lineare • Se S(z, i=1 • Se esiste una funzione ϕ tale che rvarphi = n si ottiene la completa linearizzazione mediante controreazione. Indice Capitolo 1 Sistemi dinamici e Rappresentazioni con lo Stato ............... 4 1.1 Sistema astratto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.2 Sistema astratto orientato e rappresentazioni con lo stato . . . . . . . . . . . . . . . . . . . . 11 1.2.a Causalità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 1.2.b Rappresentazione con lo stato . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 1.3 Esistenza e unicità delle rappresentazioni con lo stato . . . . . . . . . . . . . . . . . . . . . . . 16 1.4 Dalle rappresentazioni esplicite alle rappresentazioni implicite . . . . . . . . . . . . . . . . 18 1.4.a Sistemi a tempo discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 1.4.b Sistemi a tempo continuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 1.5 Elementi di classificazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 Capitolo 2 Rappresentazioni con lo stato lineari, a dimensione finita, stazionarie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 2.1 Struttura e proprietà delle rappresentazioni lineari . . . . . . . . . . . . . . . . . . . . . . . . . 21 2.1.a Sistemi a tempo discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 2.1.b Sistemi a tempo continuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 2.2 Le rappresentazioni implicite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 2.3 Le Rappresentazioni Lineari Stazionarie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 2.3.a Rappresentazioni a tempo discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 2.3.b Rappresentazioni a tempo continuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 2.4 Rappresentazioni implicite equivalenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 140 Indice 2.4.a Rappresentazioni lineari equivalenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 2.4.b Rappresentazioni non lineari di sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . 33 2.5 Rappresentazioni lineari come approssimazioni di sistemi non lineari . . . . . . . . . . . 34 2.6 Rappresentazioni a tempo discreto di sistemi a tempo continuo . . . . . . . . . . . . . . . 38 2.7 Rappresentazioni implicite singolari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 Capitolo 3 Le proprietà geometriche dello spazio di stato . . . . . . . . . . . . . . . . . . 42 3.1 Il concetto di invarianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 3.2 Inosservabilità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 3.2.a Scomposizione rispetto all’inosservabilità . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 3.2.b La ricostruibilità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 3.2.c Modi osservabili e scomposizione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 3.3 Raggiungibilità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 3.3.a Scomposizione rispetto alla raggiungibilità . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 3.3.b La controllabilità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 3.3.c Modi eccitabili e scomposizione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 3.4 La struttura interna di un sistema lineare a dimensione finita . . . . . . . . . . . . . . . . . 56 3.5 Le particolarità dei sistemi a tempo discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 3.6 Sugli zeri della funzione di trasferimento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 Capitolo 4 Elementi di teoria della stabilità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 4.1 Definizioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 4.1.a Stabilità dell’equilibrio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 4.1.b La stabilità del moto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 4.1.c La stabilità asintotica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 4.1.d La stabilità globale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 4.2 La stabilità secondo Lyapunov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 4.2.a Le funzioni di Lyapunov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 4.2.b Il criterio di Lyapunov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 4.2.c Alcuni approfondimenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 4.2.d Sistemi non stazionari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 4.3 La stabilità dei sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 4.3.a La stabilità del moto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 Indice 141 4.3.b Condizioni di stabilità per i sistemi lineari stazionari . . . . . . . . . . . . . . . . . . . 76 4.3.c Criterio di Lyapunov per i sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 4.4 Criteri di stabilità per i sistemi lineari: il criterio di Routh . . . . . . . . . . . . . . . . . . . 79 4.4.a Casi critici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 4.5 Un criterio di stabilità con incertezza sui parametri . . . . . . . . . . . . . . . . . . . . . . . . 84 4.6 Studio della stabilità mediante l’approssimazione lineare . . . . . . . . . . . . . . . . . . . . . 85 4.7 Esempi di applicazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 4.8 La stabilità esterna nei sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89 4.9 Condizioni e criteri per i sistemi lineari a tempo discreto . . . . . . . . . . . . . . . . . . . . 91 4.9.a Il criterio di Lyapunov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92 4.9.b Il criterio di Lyapunov per i sistemi lineari stazionari a tempo discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 4.9.c Studio della stabilità mediante linearizzazione . . . . . . . . . . . . . . . . . . . . . . . . . 94 Capitolo 5 Introduzione alle rappresentazioni non lineari . . . . . . . . . . . . . . . . . . 97 5.1 Sistemi a tempo continuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 5.1.a Sistemi lineari (richiami) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 5.1.b Rappresentazioni a tempo continuo affini nell’ingresso . . . . . . . . . . . . . . . . . . 100 5.1.c Il problema della realizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 5.2 Sistemi a Tempo Discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 5.2.a Sistemi lineari (richiami) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 5.2.b Rappresentazioni a tempo discreto affini nell’ingresso . . . . . . . . . . . . . . . . . . . 118 Capitolo 6 La geometria dei sistemi di equazioni differenziali . . . . . . . . . . . . . . . 127 6.1 Il punto di vista della geometria nello studio dei sistemi di equazioni differenziali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127 6.2 Sistemi a tempo continuo: invarianza e scomposizioni locali . . . . . . . . . . . . . . . . . . 129 6.3 Sistemi a tempo discreto: invarianza e scomposizioni locali . . . . . . . . . . . . . . . . . . . 135