Teoria dei Sistemi II Appunti delle lezioni

Transcript

Teoria dei Sistemi II Appunti delle lezioni
2
.
Salvatore Monaco
Marie Dorothèe Normand-Cyrot
Teoria dei Sistemi II
Appunti delle lezioni
2004-2005
3
Teoria dei Sistemi
Teoria, θωρια, delegazione, lunga fila di teori ( θωρως, da θωρω: ”esaminare, osservare”)
inviati alle grandi celebrazioni religiose, a consultare gli oracoli. Cosı̀ come l’insieme delle acquisizioni
dei teori veniva accettato per interpretare e comprendere i fenomeni, una teoria nell’accezione corrente
consiste in una formulazione logicamente coerente (in termini di concetti ed enti più o meno astratti)
di un insieme di definizioni, principi e leggi generali che consentono di descrivere, interpretare, classificare, spiegare, a vari livelli di generalità, aspetti della realtà naturale e sociale, e delle varie forme
di attività umana.
Sistema da σισθηµα: ”riunione, complesso”. In ambito scientifico, qualsiasi oggetto di studio
che, pur essendo costituito da diversi elementi reciprocamente interconnessi e interagenti tra loro o
con l’ambiente esterno, reagisce o evolve come un tutt’uno con proprie leggi generali.
La Teoria dei Sistemi consta di un corpo di metodologie per l’analisi dei Sistemi.
Dopo un primo capitolo in cui vengono introdotte le definizioni fondamentali, il vocabolario ed i
primi elementi di rappresentazione e classificazione, saranno presentati nei capitoli successivi i diversi
metodi di analisi. Lo studio viene sviluppato per la classe dei sistemi lineari stazionari a dimensione
finita e si conclude con alcuni elementi di analisi per sistemi non lineari.
1. Sistemi dinamici e Rappresentazioni con lo
Stato
Dalla definizione di Sistema alle Rappresentazioni con lo Stato.
Viene mostrato come, a partire da una definizione del tutto generale di sistema astratto, l’introduzione
dei concetti di parametrizzazione e di causalità consentano di giungere alla rappresentazione con lo
stato di un sistema dinamico. Vengono, quindi introdotti elementi di classificazione.
1.1. Sistema astratto
Nell’accezione comune sistema, σισθηµα: ”riunione, complesso”, è un attributo impiegato per
indicare un complesso che presenta caratteristiche comuni da un qualche punto di vista; le caratteristiche comuni possono riferirsi alla similitudine dei componenti, è questo il caso di un sistema montuoso
o di un sistema monetario, o alla complementarietà da un punto di vista funzionale, sistema muscolare
o sistema esperto.
In ambito scientifico si dà privilegio a questo secondo aspetto. Un sistema è, dunque, un qualsiasi oggetto di studio che, pur essendo costituito da diversi elementi reciprocamente interconnessi
e interagenti tra loro o con l’ambiente esterno, reagisce o evolve come un tutt’uno con proprie leggi
generali.
Teoria generale dei sistemi, Scienza dei sistemi, Teoria dei sistemi. Un escursus ed alcune precisazioni.
La Teoria generale dei sistemi ispirata dalla individuazione di leggi comuni in comparti disciplinari
distinti, si pone l’obiettivo di giungere ad un’unificazione su base modellistica. La Scienza dei sistemi
ispirata dall’esigenza di gestire la complessità, si pone l’obiettivo di proporre un approccio progettuale
comune per classi di problemi e modelli. In questo contesto la Teoria dei sistemi si pone l’obiettivo
di giungere ad una formalizzazione dei concetti ed alla costruzione di un quadro di metodologie per
lo studio sistematico per classi di modelli.
Risultato di più livelli di astrazione: a partire da una formulazione astratta del comportamento
dinamico dell’oggetto allo studio (primo livello), verso l’impiego del modello al fine di migliorare
1.1. Sistema astratto
5
la conoscenza del fenomeno (secondo livello), sino al riconoscere la generalità del modello adatto
a rappresentare fenomeni diversi di differenti settori disciplinari (terzo livello), per arrivare ad una
classificazione per tipologie di modelli ed allo sviluppo di metodologie di analisi per classi (quarto
livello).
Si parte dalla formalizzazione del concetto di sistema verso i metodi di studio seguendo la formulazione matematica.
Una prima formalizzazione conduce naturalmente a pensare ad un sistema come ad un insieme
di grandezze (elementi) assieme ad un insieme di relazioni tra esse. Le grandezze costituiscono una
rappresentazione astratta degli elementi e le relazioni specificano le interconnessioni, le interazioni,
tra gli elementi stessi e con l’esterno, ciò che serve anche a precisare il punto di vista dello studio.
La formalizzazione ci impone di astrarre dal contesto e pensare ad un sistema come ad un’entità
che stabilisce precisi legami funzionali tra insiemi di variabili. Si giunge in tal modo alla seguente
definizione formale di sistema astratto.
Definizione 1. Sistema astratto è una coppia Σ: = {V, R} ove V rappresenta l’insieme delle variabili
ed R rappresenta l’insieme delle relazioni tra le variabili. Gli elementi di R sono le regole che in modo
formale, mediante relazioni matematiche o a parole, specificano gli elementi del sistema: i possibili
comportamenti.
Questa definizione conferisce al concetto di sistema astratto una vasta generalità. Esso, in prima
istanza, corrisponde alla descrizione formale associata ad un dato fenomeno e trova applicazione nei
settori più diversi.
Esempio 1.1. Un qualsiasi componente o dispositivo che stabilisce un legame tra grandezze fisiche.
Ad esempio un componente elettrico resistivo: V è l’insieme delle coppie di variabili, tensione e
corrente, simbolicamente denotate v e i, V : = {v, i}, mentre R è costituito dall’eguaglianza v = ri.
Esempio 1.2. Un principio o una legge della fisica. Ad esempio la dinamica nel sistema gravitazionale
terrestre: V è l’insieme di funzioni del tempo che assumono valori nello spazio, R è rappresentato
dalle leggi di Keplero.
Esempio 1.3. Un processo di crescita di una popolazione governato da fenomeni di sviluppo noti.
Ad esempio la dinamica della crescita cellulare: V è l’insieme di funzioni del tempo che assumono
valori nei reali positivi, R è rappresentato dalle leggi di interazione e sviluppo.
Esempio 1.4. Un sistema di relazioni matematiche. Ad esempio le disequazioni Ax ≤ 0 in cui x è la
generica variabile ed assume valori in un assegnato insieme mentre la diseguaglianza stessa definisce
R.
Una prima specializzazione è necessaria per precisare la classe di sistemi a cui ci rivolgeremo: i
sistemi dinamici. In essi i possibili comportamenti sono funzioni del tempo: la variabile indipendente.
6
1. Sistemi dinamici e Rappresentazioni con lo Stato
Dobbiamo dunque pensare ad insiemi di variabili che evolvono nel tempo secondo definite regole e
relazioni tra esse. Per giungere ad una definizione formale di sistema dinamico astratto è necessario
introdurre alcune notazioni.
Sia T un sottoinsieme ordinato di R, insieme dei reali, o Z, insieme degli interi; T è detto insieme
dei tempi. Sia inoltre T (t0 ) l’insieme dei tempi maggiori o uguali ad un tempo t0
T (t0 ) = {t ∈ T : t ≥ t0 }
Se indichiamo con W T (t0 ) l’insieme delle funzioni definite su T (t0 ) che assumono valori in W
W T (t0 ) = {w0 (·) : ∀t ≥ t0 , t → w0 (t) ∈ W },
un fissato sottoinsieme di W T (t0 )
Σ(t0 ) ⊂ W T (t0 )
può essere impiegato per precisare quelli che indicheremo come i possibili comportamenti a t0 . Possiamo, infatti, in modo del tutto generale definire un sistema astratto come un insieme di possibili
comportamenti nei diversi istanti di tempo. Questi insiemi dovranno soddisfare ad una proprietà
elementare come l’intuizione suggerisce. Se, infatti, pensiamo ai possibili comportamenti ad un dato
tempo come evoluzioni del sistema, risultato di esperimenti a tale istante di tempo, dovrà essere vero
che i risultati di esperimenti ad un fissato istante t0 , se visti dal generico t1 ≥ t0 , sono compresi tra i
risultati di esperimenti a t1 . Da un punto di vista formale dovrà essere verificata la seguente proprietà,
detta di chiusura rispetto al troncamento (CRT ): per ogni fissata coppia (t0 , t1 ), con t1 ≥ t0 , se w0
appartiene a Σ(t0 ) allora il suo troncamento su T (t1 ), w0 |T (t1 ) , cioè tale funzione considerata da t1 in
poi, deve appartenere a Σ(t1 ).
Siamo dunque pervenuti alla seguente definizione di sistema dinamico
Definizione 2. Sistema dinamico è una terna
S: = {T, W, Σ}
dove:
Σ: = {Σ(t0 ), t0 ∈ T : ∀t1 ∈ T (t0 ), w0 ∈ Σ(t0 ) ⇒ w0 T (t1 )
∈ Σ(t1 )}.
Un sistema dinamico è dunque un insieme di comportamenti definiti ad ogni istante di tempo.
Essi soddisfano alla proprietà di chiusura rispetto al troncamento.
Se T ⊂ R il sistema è a tempo continuo; se T ⊂ Z il sistema è a tempo discreto.
Esempio 1.5. Dinamica nel sistema gravitazionale terrestre: T = R, W = R3 , Σ(t0 ) insieme delle
traiettorie, definite da t0 in poi, che soddisfano le leggi di Keplero.
7
1.1. Sistema astratto
Esempio 1.6. Modello economico di Leontief. Indicate con
- xi : quantità di prodotto i-mo al tempo t;
- aij : quantità di prodotto i-mo per produrre una unità di prodotto j-mo
la seguente diseguaglianza esprime un evidente vincolo di bilancio
xi (t) ≥
n
aij xj (t + 1)
(D)
j=1
con T = Z+ e W = Rn+ . I possibili comportamenti a t0 sono definiti come
Σ(t0 ) = {w0 : T (t0 ) → Rn+ : ∀t ≥ t0
(D) vale}
La definizione data di sistema dinamico trova un riscontro nella “descrizione (rappresentazione)
enumerativa” dei comportamenti delle variabili che caratterizzano un dato oggetto, processo o fenomeno.
Si noti che uno stesso sistema astratto può essere associato a fenomeni diversi: si pensi a diversi
fenomeni rappresentati da uno stesso modello matematico.
Proprietà sui possibili comportamenti specificano la struttura di Σ.
Una prima particolarizzazione si ottiene richiedendo che i possibili comportamenti al generico
istante di tempo possano essere ottenuti per troncamento di possibili comportamenti ad istanti precedenti. Se la proprietà di CRT richiede che i troncamenti al tempo t1 ≥ t0 siano possibili comportamenti
a t1 , ora i troncamenti a t1 definiscono tutti e soli i possibili comportamenti a tale istante di tempo.
La formalizzazione di questo aspetto conduce alla seguente definizione.
Definizione 3. Sistema dinamico uniforme: S = {T, W, Σ} si dice uniforme se esiste un unico
sottoinsieme di W T , sia Σun , che genera tutti i possibili comportamenti Σ(t0 ) al variare di t0 , cioè:
∀t0 , w ∈ Σun ⇒ w
∈ Σ(t0 )
T (t0 )
w0 ∈ Σ(t0 ) ⇒ ∃w ∈ Σun : w
= w0 .
T (t0 )
Una ulteriore particolarizzazione consiste nell’introdurre i sistemi stazionari. Si tratta, come
l’intuizione suggerisce, di sistemi in cui i possibili comportamenti non dipendono dal tempo; in altre
parole il risultato di esperimenti sul sistema non dipende dall’istante in cui l’esperimento inizia. I
comportamenti sono dunque invarianti rispetto alla traslazione temporale. Questo, da un punto di
vista formale, implica che per quanto riguarda il calcolo delle funzioni associate ai comportamenti,
quelle al generico istante t0 sono sufficienti a definire il sistema: infatti quelle a t1 sono ottenute per
traslazione da quelle a t0 . Più precisamente se si indica con ∆t̄ l’operatore di traslazione:
(∆t̄ f )(t ): = f (t − t̄).
8
1. Sistemi dinamici e Rappresentazioni con lo Stato
Definizione 4. Sistema dinamico stazionario: S = {T, W, Σ} è detto stazionario se
∆t̄ Σ(t0 ) = Σ(t0 + t̄)
per ogni t0 e t̄ in T .
La precedente definizione esprime formalmente che traslando Σ(t0 ) a destra di t̄ (se t̄ è positivo) si
ottengono le coppie al tempo (t0 + t̄), Σ(t0 + t̄). E, tornando a quanto detto in precedenza, Σ(t1 ) è
ottenuto da Σ(t0 ) per effetto di una traslazione di t1 − t0 .
Per i sistemi a tempo discreto introducendo l’operatore di traslazione unitaria, che sarà indicato
con σ, la proprietà di stazionarietà si esprime
σΣ(t) = Σ(t + 1)
.
In conclusione, poiché i comportamenti di un sistema stazionario al generico istante t0 possono
essere ottenuti per traslazione a partire da quelli ad un fissato istante assunto zero per convenzione
(Σ(t0 ) = ∆t0 Σ(0)), un sistema stazionario rimane definito da una terna {T, W, Σ(0)}.
Un’ulteriore particolarizzazione è quella che conduce alla definizione di sistema lineare.
Definizione 5. Sistema dinamico lineare. S = {T, W, Σ} è detto lineare se W è uno spazio lineare
sui reali e se, per ogni t0 , Σ(t0 ) è un sottospazio lineare di W T (t0 ) . Ciò equivale a richiedere che
comunque fissati w1 , w2 ∈ Σ(t0 ) e α, β ∈ R
αw1 + βw2 ∈ Σ(t0 ).
La definizione data di sistema dinamico in termini dei possibili comportamenti corrisponde ad una
descrizione esplicita, enumerativa, di un dato oggetto o fenomeno.
Molto spesso la caratterizzazione dei comportamenti possibili può essere fatta utilizzando equazioni
che costituiscono un modello matematico del sistema; si ha in questo caso una descrizione implicita,
sintetica, del sistema. Nella gran parte dei casi la descrizione implicita è ottenuta mediante equazioni
alle differenze, per i sistemi a tempo discreto (T = Z), o equazioni differenziali, nel caso dei sistemi
a tempo continuo. Inoltre, nella costruzione del modello è spesso necessario impiegare un insieme
aggiuntivo di variabili. Questi due aspetti sono nel seguito chiariti con semplici esemi.
E’ spesso la rappresentazione implicita il punto di partenza nello studio dei fenomeni.
Esempio 1.7. Un semplice modello di microeconomia: dinamica del prezzo in condizioni di equilibrio
tra domanda e offerta. Si supponga di voler descrivere la variazione del prezzo di un prefissaato bene
assumendo, in una forrmulazione elementare, che nel mercato non siano presenti beni concorrenti. Se
si indica con p il prezzo unitario, con d la domanda e con o l’offerta non è difficile rendersi conto che
valgono relazioni del tipo
d(p) = d0 − ap
.
s(p) = o0 + bp, a, b > 0
9
1.1. Sistema astratto
Infatti, soddisfatta un’esigenza fondamentale, d0 , la domanda diminuisce all’aumentare del prezzo
secondo un andamento che si può assumere in prima approssimazione di tipo proporzionale, inoltre,
a meno di una soglia di produzione legata alla capacità industriale, o0 , l’offerta aumenta con il prezzo
con un andameento in prima approssimazione anch’esso proporzionale al prezzo.
Se ora si tiene conto del fatto che mentre l’adeguamento della domaanda al ”prezzo” è istantaneo, l’adeguamento della produzione richiede che sia perlomeno trascorso il tempo necessario alla
produzione, assunto tale intervallo di tempo unitario, la domanda e l’offerta variano nel tempo secondo
le seguenti uguaglianze
d(t + 1) = d0 − ap(t + 1)
.
o(t + 1) = o0 + bp(t)
Il precedente modello elementare può essere utimlizzato per descrivere come varia il prezzo del
prodotto. Se infatti si assume che il mercato sia in equilibrio, la produzione uguaglia la domanda,
o(t + 1) = d(t + 1), si ottiene
b
d0 − o0
p(t + 1) = − p(t) +
.
a
a
La precedente equazione alle differenze descrive, sotto le ipotesi semplificative sottolineate, una rappresentazione intrinsecamente implicita, cioè del tipo citato, della dinamica dell’evoluzione del prezzo
di un prodotto a partire da una perturbazione rispetto alla condizione di equilibrio.
L’impiego di variabili ausiliarie è spesso necessario nella costruzione di un modello. Questo aspetto
è illustrato nel seguente esempio.
Esempio 1.8. Dinamica della popolazione di una nazione. Si immagini di voler formulare un modello
matematico per descrivere come varia nel tempo il numero di persone in età compresa tra 60 e 70 anni
in una assegnata regione. Come l’intuizione immediatamente suggerisce, la progressione temporale
nel passaggio da un’età ad un’altra rende necessario fare riferimento ad una suddivisione in classi di
età e descrivere l’evoluzione nel tempo di esse. Se si decide di voler descrivere l’evoluzione con una
cadenza annuale e si assume pari ad un anno l’ ampiezza delle classi di età, il numero di persone in
ciascuna classe di età fornisce, per il problema in esame, un insieme completo di variabili ausiliarie.
La loro evoluzione nel tempo consente infatti di ottenere gli andamenti temporali desiderati.
Indicato con xi (t) il numero di persone di età i al tempo t, si ha:
xi+1 (t + 1) = βi xi (t),
i = 0, . . . , n − 1
x0 (t + 1) = αmf xmf (t) + . . . + αM f xM f (t)
con αi coefficienti di fertilità, con i compreso tra i limiti del periodo di fertilità mf ed Mf, e βi
coefficienti di sopravvivenza qui assunti costanti per semplicità. La somma, ad ogni istante, delle
variabili con indice compreso tra 60 e 70 fornisce la descrizione cercata. E’ dunque necessario, per
descrivere la dinamica voluta, rappresentare anche la variazione delle classi di età precedenti a quelle
interessate. Si tratta di un insieme di variabili ausiliarie.
10
1. Sistemi dinamici e Rappresentazioni con lo Stato
Esempio 1.9. Dinamica di una popolazione animale Se si suppone di voler descrivere la dinamica
di una popolazione animale di predatori è necessario descrivere anche l’andamento di altre variabili,
della preda ad esempio, che costituisce la risorsa per la crescita. Se supponiamo che siano presenti solo
due specie, il seguente modello matematico (Volterra 1906) esprime l’interazione tra le due variabili
x1 (t) e x2 (t) che rappresentano la densità della preda e quella del predatore, rispettivamente.
ẋ1 (t) = ax1 (t) − kx1 2 − bx1 (t)x2 (t)
ẋ2 (t) = −cx2 (t) + dx1 (t)x2 (t)
Più precisamente la prima equazione esprime il tasso di crescita proporzionale, secondo a, alla
densità della specie, mentre il termine −kx1 2 rappresenta un fattore limitante che tiene conto della
limitatezza delle risorse e −bx1 (t)x2 (t) rappresenta la limitazione imposta dalla presenza del predatore:
l’impedimento alla crescita è assunto proporzionale alla probabilità di incontro e tale probabilità è
assunta proporzionale al prodotto delle densità delle specie. La seconda equazione infine esprime
l’estinzione con decadimento esponenziale della specie predatore in assenza di preda, assenza di risorse,
e la crescita proporzionale al prodotto delle densità delle specie.
I precedenti semplici esempi mostrano che può essere utile, talvolta necessario, fare riferimento
ad un insieme di variabili ausiliarie rispetto a quelle, terminali, che assumono valori in W e che
caratterizzano i possibili comportamenti.
Definizione 6. Un sistema dinamico con variabili ausiliarie è una quadrupla Sa = {T, W, A, Σa } con
- A insieme dei valori delle variabili ausiliarie;
- Σa = {Σa (t0 ) ⊆ (W × A)T (t0 ) : sia soddisfatta CRT}.
Sa è la rapprentazione con variabili ausiliarie di S: = {T, W, Σ} se per ogni t0
Σ(t0 ) = {w0 : ∃a0 ∈ AT (t0 ) t.c.(w0 , a0 ) ∈ Σa (t0 )}.
Una classe particolare di variabili ausiliarie è quella delle variabili di stato.
L’interesse di introdurre le variabili di stato può essere collegato all’esigenza di sintetizzare nel
valore di un insieme di variabili al tempo t, appunto delle variabili di stato, quelle informazioni sul
passato necessarie a caratterizzare i comportamenti futuri.
Definizione 7. Stato. Un sistema dinamico con variabili di stato è un sistema dinamico con variabili
ausiliarie Sx := {T, W, X, Σx }, in cui Σx soddisfa l’assioma di stato
{(w01 , x10 ), (w02 , x20 ) ∈ Σx (t0 ), t ≥ t0 e x10 (t) = x20 (t)} ⇒ {(w0 , x0 ) ∈ Σx (t0 )}
dove (w0 , x0 ) è definito
(w0 (t ), x0 (t )) =
(w01 (t ), x10 (t )) t < t
(w02 (t ), x20 (t )) t ≥ t
1.2. Sistema astratto orientato e rappresentazioni con lo stato
11
L’assioma dello stato richiede che ogni traiettoria che arriva in un fissato stato possa essere
concatenata con ogni traiettoria che parte da quello stato. In queste condizioni, una volta noto lo
stato ad un fissato istante, i comportamenti futuri sono fissati e nessuna ulteriore informazione è
contenuta nei comportamenti passati. In altre parole lo stato all’istante t è sufficiente a caratterizzare
tutti i possibili comportamenti da t in poi; lo stato a t contiene le informazioni necessarie sul passato.
In breve, lo stato rappresenta la memoria del passato.
Come puntualizzato nella definizione 7, Sx = {T, W, X, Σx } è la rappresentazione con lo stato di
un sistema dinamico S = {T, W, Σ} in cui Σ(t0 ) = {w0 /∃x0 tale che (w0 , x0 ) ∈ Σx (t0 )}.
L’introduzione della definizione di stato e di rappresentazione con lo stato suggerisce immediatamente la domanda: Esiste sempre la rappresentazione con lo stato di un assegnato sistema ? Se no,
sotto quali condizioni ?
Il problema della rappresentazione con lo stato di un dato sistema dinamico è molto studiato
nella teoria dei sistemi e sarà approfondito nel seguito con riferimento alla classe dei sistemi dinamici
orientati e causali. I problemi coinvolti riguardano l’esistenza, l’unicità e la minimalità dell’insieme
degli stati.
1.2. Sistema astratto orientato e rappresentazioni con lo stato
Quanto sinora esposto è a fondamento di un punto di vista di ampia generalità che potremmo
pensare collegato ad un approccio interpretarivo, conoscitivo, in cui ha interesse la descrizione di
legami tra variabili, ciò che è tipico, ad esempio, della formulazione di leggi fisiche. Il punto di vista
delle scienze dell’ingegneria conduce a distinguere le variabili in cause ed effetti, ingressi e uscite,
collegate da relazioni di dipendenza causale rispetto al tempo.
Per comprendere questo aspetto è necessario ricordare che in tale ambito disciplinare la modellazione di un dato processo o fenomeno rappresenta la prima fase di un procedimento di progetto
che spesso ha per fine il soddisfacimento di prefissate specifiche su un fissato insieme di variabili.
L’individuazione delle variabili esterne su cui intervenire conduce naturalmente ad un processo di
modellistica orientata causa - effetto, ingresso - uscita. Inoltre, sempre in considerazione della finalità
di intervento, si limita lo studio alla classe di processi e fenomeni in cui il legame tra gli ingressi e
le uscite, intese come funzioni del tempo, è causale; si assume cioè che l’uscita al tempo t dipenda
dall’ingresso passato e presente, ma non possa dipendere dall’ingresso dopo tale istante di tempo.
Questo punto di vista è in particolare quello dell’ingegnere dei sistemi di controllo che maggiormente
ha promosso lo sviluppo della Teoria dei Sistemi.
Il seguente esempio illustra questo aspetto.
Esempio 1.10. Dinamica del prodotto nazionale lordo.
Siano: P (t) il prodotto nazionale, C(t) i consumi, I(t) gli investimenti e G(t) le spese per il
governo. Ad un primo livello di approssimazione la dinamica del prodotto nazionale lordo di una
12
1. Sistemi dinamici e Rappresentazioni con lo Stato
nazione (uscita) al variare delle spese del governo (ingresso) può essere calcolata a partire dalle
seguenti relazioni. La prima di esse esprime una semplice relazione di bilancio
P (t) = C(t) + I(t) + G(t)
Inoltre, dagli studi di modellistica economica, una ben nota ipotesi delle teorie classiche ipotizza che si
possano assumere i consumi al tempo t proporzionali al prodotto nazionale allo stesso istante, secondo
un coefficiente, m, che rappresenta la propensione marginale al consumo
C(t) = mP (t),
0<m<1
Ancora dalle teorie classiche, l’incremento del prodotto nazionale può essere assunto proporzionale
all’investimento secondo un fattore r, detto fattore di crescita,
P (t + 1) − P (t) = rI(t)
Con ovvie sostituzioni si ottiene l’uguaglianza
P (t + 1) = 1 + r(1 − m) P (t) − rG(t)
che esprime il legame cercato tra la variazione le spese del governo e il prodotto nazionale lordo. Si
tratta di un legame orientato, da G(t) verso P (t) e di tipo causale rispetto al tempo: P (t) dipende,
in base alla precedente relazione, da quanto vale P ad un certo istante iniziale, t0 , e dalle spese per il
governo da t0 a t.
Un secondo modello, si tratta ancora di una rappresentazione dello stesso tipo, può essere assunto
a rappresentare lo stesso fenomeno in un economia di mercato fondato sulle leggi dell’economista
Samuelson. Samuelson, in alternativa alla assunzioni della teoria classica, ipotizza per i consumi e
gli investimenti delle relazioni diverse dalle precedenti. Per quanto riguarda i primi li assume ancora
proporzionali al prodotto nazionale lordo, ma, ciò che è più verosimile, al valore del prodotto nell’anno
precedente. Si ha quindi:
C(t + 1) = mP (t),
0<m<1
Inoltre ipotizza gli investimenti in un dato periodo proporzionali all’incremento di consumo, e quindi
solo indirettamente al prodotto lordo, secondo la relazione
I(t + 1) = µ(C(t + 1) − C(t))
Con semplici passaggi si ottiene il seguente sistema di equazioni alle differenze prime
C(t + 1) = mC(t) + mI(t) + mG(t)
I(t + 1) = µ(m − 1)C(t) + µmI(t) + µmG(t)
che assieme all’equazione
P (t) = C(t) + I(t) + G(t)
1.2. Sistema astratto orientato e rappresentazioni con lo stato
13
descrive, secondo un diverso punto di vista, l’evoluzione del prodotto lordo in funzione della spesa. Si
tratta ancora di una descrizione causale, in cui P (t) è calcolato a partire da C(t0 ), I(t0 ) e G(·) da t0
a t.
Qualche ulteriore precisazione è necessaria prima di formalizzare la definizione di sistema astratto orientato. Si supponga che l’insieme dei valori delle variabili sia un prodotto cartesiano
W = U × Y ove U indica l’insieme dei valori delle grandezze di ingresso ed Y l’insieme dei valori delle
grandezze in uscita. L’orientamento in un sistema astratto corrisponde alla suddivisione delle variabili
in causa ed effetti e naturalmente suggerisce l’immagine di un sistema dinamico come una scatola nera
che rappresenta le modalità secondo le quali le variabili di uscita sono influenzate da quelle di ingresso.
I possibili comportamenti in questo caso sono immaginati corrispondenti a esperimenti condotti in
diversi istanti t0 .
Con queste precisazioni:
Definizione 8. . Sistema astratto dinamico orientato Un sistema dinamico astratto orientato è una
terna {T, U × Y, Σ} ove
Σ = {Σ(t0 ) ⊂ U T (t0 ) × Y T (t0 ) : t0 ∈ T / CRT sia soddisfatta}
e CRT esprime la chiusura rispetto al troncamento, che per i sistemi orientati si esprime: ∀t0 ∈ T ,
∀t1 ≥ t0
(u0 , y0 ) ∈ Σ(t0 ) ⇒ (u0 T (t ) , y0 T (t ) ) ∈ Σ(t1 ).
1
1
1.2.a. Causalità
Nel contesto dei sistemi orientati, in cui un possibile comportamento a t0 è pensato come il
risultato di un esperimento che corrisponde alla sollecitazione esterna u0 (·) definita da t0 in poi, il
concetto di variabile di stato, introdotto nella definizione 7. conduce naturalmente ad individuare
una proprietà specifica dello stato. Infatti l’insieme degli stati a t0 costituisce una parametrizzazione
dell’insieme Σ(t0 ), cioè delle possibili coppie ingresso-uscita. Fissare u0 non è sufficiente ad individuare
y0 perchè Σ(t0 ) è una relazione; x0 è ciò che bisogna specificare perchè ad un dato ingresso u0 , da t0
in poi, corrisponda una fissata uscita y0 . Questa proprietà dello stato viene messa in luce in modo
autonomo e preliminare in quanto segue, ove viene introdotto il concetto di parametrizzazione di una
relazione.
In base alla definizione 8. un sistema dinamico astratto orientato è un insieme di relazioni,
sottoinsiemi di {U T (t0 ) × Y T (t0 ) }. Il soddisfacimento del requisito dello stato di consentire assieme
ad u0 di individuare un corrispondente comportamento in uscita poggia sul seguente risultato di
algebra che sancisce la possibilità di effettuare una partizione in classi di equivalenza di una relazione,
sottoinsieme nello spazio prodotto, mediante i grafi di una funzione che dipende da un parametro al
variare del parametro stesso.
Siano A e B insiemi non vuoti, sia R ⊂ A × B e siano D(R) ⊂ A ed R(R) ⊂ B il dominio ed il
codominio della relazione R.
14
1. Sistemi dinamici e Rappresentazioni con lo Stato
Proposizione 1. ([1]). E’ possibile definire un insieme P ed una funzione π: P × D(R) → R(R) tali
che:
(a, b) ∈ R ⇒ ∃p : b = π(p, a)
p ∈ P, a ∈ D(R) ⇒ (a, π(p, a)) ∈ R
π è detta rappresentazione parametrica di R; (P, π), sua parametrizzazione.
Xt0
È quindi possibile associare ad ogni Σ(t0 ) una parametrizzazione, cioè un insieme di parametri
ed una funzione
πt0 : Xt0 × D(Σ(t0 )) → R(Σ(t0 )).
Inserire la dimostrazione.
Definizione 9. Rappresentazione parametrica di S è un insieme di funzioni
π = {πt0 : Xt0 × D(Σ(t0 )) → R(Σ(t0 ))/t0 ∈ T }
che soddisfano le seguenti proprietà:
(u0 , y0 ) ∈ Σ(t0 ) ⇒ ∃x0 : y0 = πt0 (x0 , u0 )
x0 ∈ Xt0 , u0 ∈ D(Σ(t0 )) ⇒ (u0 , πt0 (x0 , u0 )) ∈ Σ(t0 )
Si noti che in base alla definizione data fissato un ingresso a t0 , sia u0 , una stessa uscita y0 può
corrispondere a diversi valori del parametro a t0 .
È ora possibile introdurre formalmente un’altra proprietà fondamentale: la causalità. Tale proprietà, con riferimento ad un funzionale nella variabile indipendente t, cioè una funzione che a sua
volta dipende da una funzione del tempo t, sia u(t), esprime la coincidenza dei valori assunti dal
funzionale fino a quando i valori assunti dalla funzione indipendente u sono coincidenti.
In formule, indicato con T \T (t) l’insieme dei tempi privato di T (t), f è strettamente causale se:
∀t ∈ T, u
= u ⇒ [f (u)](t) = [f (u )](t)
T \T (t)
T \T (t)
Se per mantenere l’uguaglianza dei valori assunti è anche necessario che sia u(t) = u (t) allora f è
causale.
Definizione 10. S è causale se esiste almeno una rappresentazione parametrica causale, cioè tale
che:
∀t0 ∈ T, ∀x0 ∈ Xt0 , ∀t ∈ T (t0 )
u[t0 ,t] = u[t0 ,t] ⇒ [πt0 (x0 , u)](t) = [πt0 (x0 , u )](t)
Si noti che la precedente condizione sull’intervalo aperto a destra [t0 , t) esprimerebbe la stretta
causalità.
1.2. Sistema astratto orientato e rappresentazioni con lo stato
15
1.2.b. Rappresentazione con lo stato
Per comprendere con l’intuizione come sia possibile introdurre il concetto di stato a partire da
una parametrizzazione causale valgono le seguenti considerazioni.
La definizione stessa di sistema dinamico orientato richiede che i parametri x0 , ai diversi istanti,
siano collegati: se a t0 alla coppia (x0 , u0 ) ∈ Xt0 × D(Σ(t0 )) corrisponde y0 ∈ R(Σ(t0 )) al generico
istante t1 ≥ t0 la coppia (u0 , y0 )T (t1 ) appartiene a Σ(t1 ) e quindi sarà corrispondente ad uno o a più
valori del parametro in Xt1 . Se si ammette che {Xt0 , t0 ∈ T } siano sottoinsiemi di un unico X e si ha
presente il significato che si vuole attribuire allo stato: “contenere tutte le informazioni sul passato
necessarie a caratterizzare, assieme agli ingressi, il futuro”, sembra naturale assumere che tra i valori
a t1 , cui corrisponde (u0 , y0 )T (t ) , ce ne sia uno legato ad x0 ed u0 da un legame funzionale del tipo:
1
x1 = x(t1 ) = ϕ(t1 , t0 , x0 , u0 )
Inoltre tale legame funzionale è assunto causale, più precisamente strettamente causale; quindi solo
la restrizione di u0 sull’intervallo [t0 , t1 ) risulta significativa.
Le precedenti considerazioni lasciano intendere l’opportunità di definire una evoluzione nello
spazio X per collegare i valori dei parametri nei diversi istanti di tempo.
Siano X spazio dei parametri, U insieme dei valori di u, U ⊂ U T spazio delle funzioni d’ingresso,
(T × T )∗ = {(t, t0 ) : t ≥ t0 , t, t0 ∈ T }
la funzione ϕ, di transizione dello stato, è definita nel seguente modo:
ϕ : (T × T )∗ × X × U → X
x(t) := ϕ(t, t0 , x0 , u)
e soddisfa le seguenti proprietà di consistenza, causalità e separazione.
P1 (consistenza)
∀t ∈ T, ∀u ∈ U ϕ(t, t, x, u) = x
P2 (causalità)
∀(t, t0 ), ∀x0 ∈ X
u
[t0 ,t)
= u [t0 ,t)
⇒ ϕ(t, t0 , x0 , u) = ϕ(t, t0 , x0 , u )
P3 (separazione)
∀(t, t0 ), ∀x0 ∈ X, ∀u ∈ U
t > t1 > t0 ⇒ ϕ(t, t0 , x0 , u) = ϕ(t, t1 , ϕ(t1 , t0 , x0 , u), u)
P1 e P2 sono ovvie; P3 esprime il fatto essenziale che lo stato a t può essere calcolato da x0 e u[t0 ,t) , ma
anche a partire dallo stato raggiunto a t1 , e con x0 e u[t0 ,t1 ) , con u[t1 ,t) proprio perchè x(t1 ) riassume
la storia passata.
16
1. Sistemi dinamici e Rappresentazioni con lo Stato
Le considerazioni fatte hanno lasciato intendere come sia possibile rendere consistente la scelta
delle parametrizzazioni ai diversi istanti di tempo. Ciò posto, è naturale chiedersi come i parametri
intervengano nel calcolo dell’uscita. A tale proposito dalla definizione 9
∀t0
y0 (t) = [πt0 (x0 , u0 )](t) t ≥ t0
ove solo la restrizione di u0 su [t0 , t] è significativa per l’ipotesi di causalità. Assunto t0 = t si ha
y(t) = [πt (x(t), u0 )](t) := η(t, x(t), u0 (t))
che mette in evidenza come l’uscita al tempo t dipenda dai valori dell’ingresso e dello stato in quello
stesso istante.
In conclusione rimane definita una funzione η, trasformazione di uscita
η: T × X × U → Y
y(t): = η(t, x(t), u(t))
Per concludere è utile mettere in risalto come assegnati U , Y , U ⊂ U T , X, le funzioni ϕ, con le
Infatti per ogni fissato t0 rimane definita
proprietà P1-P3, ed η consentano di generare, un sistema Σ.
0)
una relazione Σ(t
0 ) = {(u0 , y0 ) ∈ U T (t0 ) × Y T (t0 )
Σ(t
u0 = u
T (t0 )
, y0 : y0 (t) = η(t, ϕ(t, t0 , x0 , u), u(t))
con u ∈ U, x0 ∈ X}
Inoltre, in virtù della proprietà P3, è soddisfatta la chiusura rispetto al troncamento (CRT)
0 ).
sull’insieme delle relazioni Σ(t
Ciò consente di comprendere che le funzioni ϕ ed η definiscono, in modo alternativo, un sistema
dinamico astratto orientato causale. Tale definizione può essere assunta come punto di partenza nello
sviluppo della teoria.
Vedremo tra breve, infatti, che sotto ipotesi sufficientemente generali è possibile associare ad un
dato sistema astratto orientato una rappresentazione con lo stato, cioè una terna (X, ϕ, η), X spazio
di stato, ϕ funzione di transizione dello stato, η trasformazione di uscita. Nel paragrafo seguente
vengono formalizzati tali aspetti e chiarite le condizioni di esistenza di rappresentazioni con lo stato
di un assegnato sistema dinamico astratto orientato.
1.3. Esistenza e unicità delle rappresentazioni con lo stato
17
1.3. Esistenza e unicità delle rappresentazioni con lo stato
Definizione 11. Assegnato un sistema S e detto U ⊂ U T l’insieme delle funzioni di ingresso, una
terna (X, ϕ, η) con ϕ ed η funzioni definite in precedenza, è una rappresentazione con lo stato di S se
0 ), le coppie ingresso uscita generate
sono soddisfatte le proprietà P1, P2 e P3 e ad ogni istante t0 Σ(t
da (X, ϕ, η), coincidono con Σ(t0 ), l’insieme delle coppie ingresso-uscita del sistema S; in formule
0 ) data nel paragrafo precedente:
ricordando la definizione di Σ(t
∀t0
0 ) = Σ(t0 )
Σ(t
.
Dato il sistema S il problema di individuare una rappresentazione con lo stato, cioè una terna
(X, ϕ, η) secondo la definizione 11. è noto come problema della associazione dello stato.
Le considerazioni precedenti hanno voluto mettere in evidenza, senza pretesa di rigore matematico, quali sono gli aspetti salienti che vengono affrontati in un tale problema. In effetti il passaggio
da una rappresentazione parametrica causale ad una sua rappresentazione con lo stato è possibile
sotto alcune ipotesi circa la ricchezza dell’insieme delle funzioni di ingresso. Più precisamente
Definizione 12. U ⊂ U T è uno spazio di funzioni di ingresso per S se
∀t0 D(Σ(t0 )) = {u0 = uT (t ) ∈ U T (t0 ) , u ∈ U}
0
- U è chiuso rispetto alla concatenazione se
∀u, v ∈ U, ∀t ∈ T,
w :=
uT \T (t)
vT (t)
∈U
- U è completo se è chiuso rispetto alla concatenazione ed inoltre
∀t ∈ T
U = {u(t) ∈ U, u ∈ U}
Ciò premesso vale un risultato fondamentale che risolve il problema dell’associazione dello stato.
Si può infatti dimostrare che un assegnato sistema dinamico astratto orientato S, definito su uno
spazio delle funzioni di ingresso U completo, ammette rappresentazioni con lo spazio di stato se e solo
se è causale.
La prova della necessità del risultato enunciato è semplice e consiste nel verificare che a partire
da una rappresentazione con lo stato, che è causale per definizione stessa, si può costruire una rappresentazione parametrica causale (ciò che corrisponde alla causalità di S). La prova della sufficienza
è costruttiva e segue le linee delle considerazioni intuitive svolte. Il lettore interessato può consultare
il testo Teoria dei Sistemi di A. Ruberti e A. Isidori, edizioni Boringhieri, 1977, dove è riportata
un’ampia trattazione del problema.
Ovviamente ad un assegnato sistema possono essere associate diverse rappresentazioni con lo
stato; tra due qualsiasi di queste (X, ϕ, η) ed (X , ϕ , η ) dovrà risultare che
∀t0 , ∀x0 , ∀u, ∃x0 : ∀t ∈ T (t0 )
(e viceversa ∀t0 , ∀x0 , ∀u, ∃x0 ∈ X : ∀t ∈ T (t0 ))
η(t, ϕ(t, t0 , x0 , u), u(t)) = η (t, ϕ (t, t0 , x0 , u), u(t))
Spesso ha interesse che tra due rappresentazioni sussista una relazione più forte del tipo seguente.
18
1. Sistemi dinamici e Rappresentazioni con lo Stato
Definizione 13. Due rappresentazioni con lo stato (X, ϕ, η) e (X , ϕ , η ) sono dette equivalenti se
∀t0 , ∀x0 , ∃x0 : ∀u, ∀t ∈ T (t0 )
(e viceversa ∀t0 , ∀x0 , ∃x0 : ∀u, ∀t ∈ T (t0 ))
η(t, ϕ(t, t0 , x0 , u), u(t)) = η (t, ϕ (t, t0 , x0 , u), u(t))
Esempio 1.11. Data (X, ϕ, η) e f : X → X , f invertibile, si può definire la rappresentazione
(X , ϕ , η ) equivalente a (X, ϕ, η) nel modo seguente
ϕ (t, t0 , x0 , u) = f ◦ ϕ(t, t0 , f −1 (x0 ), u)
η (t, x (t), u(t)) = η(t, f −1 (x (t)), u(t))
come è immediato verificare.
Tra le rappresentazioni di un sistema ha interesse caratterizzare quelle che hanno uno spazio di
stato ridotto. A questo proposito
Definizione 14. xa , xb ∈ X sono equivalenti a t0 se ∀u, ∀t ∈ T (t0 )
η(t, ϕ(t, t0 , xa , u), u(t)) = η(t, ϕ(t, t0 , xb , u), u(t))
Applicando la proprietà di separazione è immediato verificare che se xa ed xb sono equivalenti a
t0 lo sono per ogni t1 > t0 .
Definizione 15. (X, ϕ, η) associata al sistema S si dice ridotta all’istante t0 se non esistono stati
indistinguibili a t0 .
Si noti che in molti casi applicativi di interesse il verificarsi della proprietà della definizione 15 a
t0 , implica il suo soddisfacimento per t = t0 . Nel caso generale ciò non avviene, ma è usuale definire
non ridondante una rappresentazione se è ridotta ad un istante t0 .
1.4. Dalle rappresentazioni esplicite alle rappresentazioni implicite
19
1.5. Elementi di classificazione
1.4.a. Sistemi a tempo discreto
Una proprietà generale delle rappresentazioni a tempo discreto è rappresentata dalla possibilità
di ottenere senza alcuna ipotesi supplementare una rappresentazione cosidetta “implicita” a partire
da (X, ϕ, η). Infatti da
x(t) = ϕ(t, t0 , x0 , u)
posto t = t + 1, t0 = t, si ha
x(t + 1) = f (t, x(t), u(t))
che consente di caratterizzare “passo, passo” l’evoluzione di x(t) a partire dai valori dello stato e
dell’ingresso. La rappresentazione (X, f, η) è detta implicita ed f è detta funzione generatrice.
1.4.b. Sistemi a tempo continuo
Come si è visto, nel caso tempo-discreto è sempre possibile ottenere una rappresentazione implicita particolarizzando le equazioni che definiscono la rappresentazione esplicita su un intervallo di
tempo unitario. L’esistenza di rappresentazioni implicite nel caso tempo-continuo è condizionato da
opportune ipotesi dette di regolarità.
Come suggerisce l’intuizione una rappresentazione implicita del sistema a tempo continuo dovrà
fornire una descrizione del comportamento del sistema ”in tempo reale”, e quindi, secondo relazioni
causali e differenziali; le ipotesi di esistenza non potranno allora prescindere dalla derivabilità delle
funzioni di transizione nello stato. Se ammettiamo che ϕ(t, t0 , x0 , u) sia soluzione di
∂ϕ
= f (t, ϕ, u(t))
∂t
otteniamo immediatamente una rappresentazione differenziale del tipo
ẋ(t) = f (t, x(t), u(t))
1.5. Elementi di classificazione
Rispetto alle caratteristiche dell’insieme dei tempi la classificazione è in rappresentazioni a tempo
continuo, se T = R, a tempo discreto se T = Z.
Rispetto alle proprietà dello spazio di stato X, si hanno: rappresentazioni a stati finiti, se X è
un insieme a cardinalità finita. A dimensione finita o infinita a seconda della dimensione di X, spazio
lineare.
Rispetto alla struttura della rappresentazione con lo stato, nella sua forma esplicita o implicita,
si possono riformulare le proprietà di linearità e stazionarietà della funzione di transizione nello
stato ϕ, o della sua funzione generatrice f , e della funzione di trasformazione in uscita η, ciò che
garantisce il soddisfacimento delle corrispondenti proprietà sulle relazioni ingresso - uscita, ma non il
viceversa. Questi aspetti, in particolare, saranno approfonditi nei prossimi capitoli.
20
1. Sistemi dinamici e Rappresentazioni con lo Stato
Proprietà più deboli di quella di linearità sulla funzione generatrice ci consentiranno, nell’ultimo
capitolo, di introdurre ulteriori classi di sistemi.
Lo studio delle rappresentazioni a stati finiti e a dimensione infinita sono oggetto di corsi specialistici per le connessioni con i metodi e i risultati di settori disciplinari affini. La teoria degli automi e
dei linguaggi per i primi, i metodi caratteristici dello studio delle equazioni differenziali alle derivate
parziali e dell’analisi funzionale per i secondi.
2. Rappresentazioni con lo stato lineari, a dimensione
finita, stazionarie
Vengono introdotte e discusse le ipotesi di linearità di una rappresentazione e di finita dimensione
dello spazio di stato. La scomposizione in risposta libera e forzata delle evoluzioni nello stato e in
uscita, nonché la struttura particolare di ciascuna di esse sono le conseguenze più importanti. Vengono
precisati i legami tra le descrizioni esplicite a quelle implicite. L’ipotesi di stazionarietà si traduce nella
costanza dei parametri. Le rappresentazioni lineari come approssimazione di modelli non lineari e le
rappresentazioni a tempo discreto per descrivere o approssimare modelli a tempo continuo concludono
il capitolo.
2.1. Struttura e proprietà delle rappresentazioni lineari
Definizione 1. Rappresentazione lineare Siano X, U , Y spazi lineari sullo stesso corpo. (X, ϕ, η)
è una rappresentazione lineare se: ϕ è lineare ∀(t, t0 ) sull’insieme X × U e η è lineare ∀t sull’insieme
X × U.
Conseguenza immediata della linearità: ∀k1 , k2 , ∀x01 , x02 ∈ X, ∀u1 , u2 ∈ U
ϕ(t, t0 , k1 x01 + k2 x02 , k1 u1 + k2 u2 ) = k1 ϕ(t, t0 , x01 , u1 ) + k2 ϕ(t, t0 , x02 , u2 )
Posto k1 = k2 = 1, u1 = 0, u2 = u, x01 = x0 , x02 = 0 si ha
ϕ(t, t0 , x0 , u) = ϕ(t, t0 , x0 , 0) + ϕ(t, t0 , 0, u) = ϕ + ϕf
cioé la nota scomposizione della evoluzione nello stato in risposta libera e risposta forzata.
Nell’ulteriore ipotesi che X, U, Y siano spazi a dimensione finita e pari a n, p e q rispettivamente, la risposta libera e quella forzata assumono forme particolari come viene mostrato nel seguito
distinguendo il caso di sistemi a tempo discreto da quello dei sistemi a tempo continuo.
22
2. Rappresentazioni con lo stato lineari, a dimensione finita, stazionarie
Alla luce dello studio sinora condotto la seguente domanda si pone spontanea: assegnato un
sistema dinamico lineare secondo la definizione 1, con U ed Y spazi lineari a dimensione finita, quali
sono le condizioni sotto le quali esistono rappresentazioni con lo stato di S lineari a dimensione finita
?
E’ ovvio che una rappresentazione lineare a dimensione finita “genera” un sistema lineare a
dimensione finita, causale; il viceversa però non è sempre vero. Si pensi a quanto osservato a proposito
delle rapresentazioni equivalenti. Se si suppongono assegnate una rappresentazione lineare, (X, ϕ, η),
ed una funzione non lineare, f : X → X , si può definire la rappresentazione (X , ϕ , η )
ϕ (t, t0 , x0 , u) = f ◦ ϕ(t, t0 , f −1 (x0 ), u)
η (t, x (t), u(t)) = η(t, f −1 (x (t)), u(t))
che è una reppresentazione non lineare equivalente a (X, ϕ, η).
Per ottenere una rappresentazione lineare a partire da un sistema lineare è necessario assicurarsi
che la parametrizzazione causale soddisfi ad una precisa proprietà. Tale proprietà, di cui si coglierà
immediatamente il significato, è la proprietà di consistenza nello stato zero. Più precisamente una
parametrizzazione π, di S, è detta consistente rispetto allo stato zero se
∀(t, t0 ), ∀u ∈ U
πt0 (0, 0[t0 ,t1 ) ∗ u[t1 ,t) )T (t1 ) = πt1 (0, u[t1 ,t) ).
Ciò premesso, nella linea della tecnica dimostrativa proposta in [1], a cui si rinvia per la prova,
si dimostra che un sistema S, definito su U completo, ammette almeno una rappresentazione con lo
stato lineare a dimensione finita se e solo se esiste una parametrizzazione causale, lineare, a dimensione
finita, consistente rispetto allo zero.
2.1.a. Sistemi a tempo discreto
Sia T = Z l’insieme dei numeri relativi, e sia x0 ∈ X ∼
= Rn Per la linearità di ϕ rispetto a x0 si
ha:
ϕ(t, t0 , x0 , 0) = φ(t, t0 )x0
φ(t, t0 ) matrice (n × n) di funzioni definite su (Z × Z)∗ , cioè (t, t0 ) : t ≥ t0 .
Inoltre per la proprietà P1
φ(t, t) = I
Per quanto riguarda la risposta forzata, posto
u[t0 ,t−1] = [u(t0 ), u(t0 + 1), u(t0 + 2), . . . , u(t − 1)]
23
2.1. Struttura e proprietà delle rappresentazioni lineari
la linearità di ϕf rispetto a u(·) comporta:
ϕ(t, t0 , 0,u[t0 ,t−1] ) = ϕ(t, t0 , 0, [u(t0 ), u(t0 + 1), u(t0 + 2), . . . , u(t − 1)])
=ϕ(t, t0 , 0, [u(t0 ), 0 . . . 0]) + . . . ϕ(t, t0 , 0, [0, . . . , 0, u(τ ), 0 . . . 0]) + . . .
. . . + ϕ(t, t0 , 0, [0 . . . 0, u(t − 1)])
=ϕ(t, t0 , 0, [u(t0 ), 0 . . . 0]) + ϕ(t, τ, 0, [u(τ ), 0 . . . 0]) + . . .
. . . + ϕ(t, t − 1, 0, [u(t − 1)])
=H(t, t0 )u(t0 ) + . . . + H(t, τ )u(τ ) + . . . + H(t, t − 1)u(t − 1)
=
t−1
H(t, τ )u(τ )
τ =t0
H(t, τ ) matrice (n×p) di funzioni definite su (Z×Z)∗∗ := {(t, τ ) : t > τ }, è detta matrice delle risposte
impulsive nello stato. Infatti se si assume un ingresso u[t0 ,t) sempre nullo per t = t1 , t1 ∈ [t0 , t), e
diverso da zero in t = t1 solo per la presenza di un “1” nella posizione i-ma (i-mo canale d’ingresso),
si ottiene come risposta la i-ma colonna di H(t, t1 ), hi (t, t1 ),
 
0
 .. 
.
 
0
 
u =  1  δ(t − t1 )
 
0
.
 .. 
⇒ ϕf = hi (t − t1 )
0
In altri termini le colonne di H sono interpretabili come risposte ad ingressi di tipo impulsivo.
Alcune proprietà delle matrici Φ ed H sono immediata consequenza della proprietà di separazione
P3. Si ha, infatti
ϕ(t, t0 , x0 , u) =φ(t, t0 )x0 +
t−1
H(t, τ )u(τ ) =
τ =t0
ϕ(t, t1 , ϕ(t1 , t0 , x0 , u), u) =φ(t, t1 ) φ(t1 , t0 )x0 +
t
1 −1
H(t1 , τ )u(τ ) +
τ =t0
t−1
H(t, τ )u(τ )
τ =t1
Poichè questa uguaglianza deve essere verificata per ogni u ed ogni x0 , ponendo u(·) = 0 si deduce a
proprietà di semigruppo della matrice di transizione
φ(t, t0 ) = φ(t, t1 )φ(t1 , t0 ) ∀t ≥ t1 ≥ t0
ponendo x0 = 0 si deduce la proprietà di separazione della matrice delle risposte impulsive nello stato
H(t, τ ) = φ(t, t1 )H(t1 , τ ) ∀t ≥ t1 > τ
24
2. Rappresentazioni con lo stato lineari, a dimensione finita, stazionarie
Infine la linearità di η su U × Y per ogno t e la dimensione finita di U ∼
= Rp e Y ∼
= Rq danno
y(t) = C(t)x(t) + D(t)u(t)
ove C(t) e D(t sono matrici di funzioni del tempo di dimensioni (q × n) e (q × p) rispettivamente, e
quindi
t−1
y(t) = C(t)(φ(t, t0 )x0 +
H(t, τ )u(τ )) + D(t)u(t)
τ =t0
Si ottengono dunque le seguenti espressioni per l’evoluzione dello stato e dell’uscita:
x(t) = ϕ(t, t0 , x0 , u) = φ(t, t0 )x0 +
t−1
H(t, τ )u(τ )
τ =t0
t
y(t) = ψ(t, t0 )x0 +
W (t, τ )u(τ ))
τ =t0
dove
W (t) = C(t)H(t, τ ) t0 ≤ τ < t,
ψ(t, t0 ) = C(t)φ(t, t0 )x0
W (t) = D(t) τ = t
Le precedenti relazioni definiscono una rappresentazione esplicita con lo stato di un sistema lineare a
dimensione finita a tempo discreto.
2.1.b. Sistemi a tempo continuo
Sia T = R e x0 ∈ X ∼
= Rn . La linearità di ϕ rispetto a x0 comporta
ϕ(t, t0 , x0 , 0) = φ(t, t0 )x0
φ(t, t0 ) matrice (n × n) di funzioni su (R × R)∗ . Anche in questo caso P1. implica φ(t, t) = I.
Per quanto riguarda la risposta forzata ϕf , nell’ipotesi che questa sia un funzionale continuo di
u[t0 ,t) , si ha, per un noto teorema di rappresentazione di un funzionale lineare,
t
ϕ(t, t0 , 0, u[t0 ,t) ) =
Ht,t0 (τ )u(τ )dτ
t0
Se si nota che, per la linearità di ϕf , la transizione da t0 per effetto di un forzamento nullo fino a t1
è equivalente alla transizione da t1 :
ϕ(t, t0 , 0, 0[t0 ,t1 ) ∗ u[t1 ,t) )
= ϕ(t, t1 , 0, u[t1 ,t) )
T (t1 )
risulta quindi
t
t
Ht,t0 (τ )u(τ )dτ =
t1
Ht,t1 (τ )u(τ )dτ
t1
25
2.1. Struttura e proprietà delle rappresentazioni lineari
e, per l’arbitrarietà di t0 e t1 è possibile definire
Ht,t1 (τ ) = Ht,t0 (τ ) = H(t, τ )
da cui
t
ϕ(t, t0 , 0, u) =
H(t, τ )u(τ )dτ.
t0
La matrice H(t, τ ) è detta matrice delle risposte impulsive nello stato in quanto, con considerazioni
analoghe a quelle svolte per i sistemi a tempo discreto, le sue colonne rappresentano le risposte nello
stato a particolari ingressi: gli ingressi impulsivi. E necessario precisare che tale risultato è ottenuto
nel contesto dei sistemi a tempo continuo, sulla base di un risultato generale di approssimazione,
andando a valutare le risposte nello stato che si ottengono in corrispondenza di una successione di
ingressi che tende all’impulso unitario (distribuzione δ di Dirac). Il limite, sulle risposte a successioni
che selezionano un solo ingresso, l’i-mo, converge alla i–ma colonna di H.
Come per i sistemi a tempo discreto alcune proprietà di φ ed H sono ottenute applicando la
proprietà P3. Si ha
t
ϕ(t, t0 , x0 , u) =φ(t, t0 )x0 +
H(t, τ )u(τ )dτ
t0
ϕ(t, t1 , ϕ(t1 , t0 , x0 , u), u) =φ(t, t1 ) φ(t1 , t0 )x0 +
t1
H(t1 , τ )u(τ )dτ +
t0
t
H(t, τ )u(τ )dτ
t1
valida per ogni u e x0 . Ponendo u(·) = 0 e x0 = 0 si ottengono anche in questo caso le proprietà di
semigruppo di φ ed H
φ(t, t0 ) = φ(t, t1 )φ(t1 , t0 ) ∀t ≥ t1 ≥ t0
H(t, τ ) = φ(t, t1 )H(t1 , τ ) ∀t ≥ t1 ≥ τ
Senza alcuna differenza rispetto al caso tempo-discreto
y(t) = η(t, x(t), u(t)) = C(t)x(t) + D(t)u(t)
con C(t) e D(t) matrici (q × n) e (q × p) di funzioni del tempo.
Si ha quindi
t
C(t)H(t, τ )u(τ )dτ + D(t)u(t)
y(t) = C(t)φ(t, t0 )x0 +
t0
e sotto l’ipotesi che le funzioni di ingresso siano continue e η(t, φ(t, t0 , 0, u[t0 ,t) ), u) sia un funzionale
continuo, ponendo
W (t, τ ): = C(t)H(t, τ ) + D(t)δ(τ − t)
in cui δ(t), la distribuzione di Dirac, è definita dalla seguente proprietà
t+
u(τ )δ(τ − t)dτ
u(t) =
t−
∀
26
2. Rappresentazioni con lo stato lineari, a dimensione finita, stazionarie
si perviene alla seguente rappresentazione esplicita
t
x(t) = φ(t, t0 )x0 +
H(t, τ )u(τ )dτ
t0
t
y(t) = ψ(t, t0 )x0 +
W (t, τ )u(τ )dτ
t0
ove ψ(t, t0 ) := C(t)φ(t, t0 ) e W (t, τ ) è una matrice (q × p) di distribuzioni detta matrice delle risposte
impulsive in uscita. Il motivo di ciò è fondato sulle stesse considerazioni già fatte per H(t, τ ).
Si noti che la matrice delle risposte impulsive W da sola rappresenta il comportamento forzato
(cioè il comportamento ingresso-uscita a partire dallo stato zero). In questo senso si usa dire che la
matrice delle risposte impulsive di un sistema lineare è un “modello” del comportamento forzato (la
sua conoscenza e quella dell’ingresso consentono di calcolare l’uscita). Si noti anche come, a seguito
della sua interpretazione come risposta ad ingressi impulsivi, si possa rilevare la presenza di una classe
di ingressi, quelli impulsivi, che svolgono un ruolo particolare nello studio dei sistemi lineari (per tale
motivo tali ingressi sono tra quelli cosidetti canonici), infatti la risposta ad un dato ingresso u(t)
è ottenuta mediante la convoluzione dell’ingresso con le uscite corrispondenti agli ingressi impulsivi
che caratterizzano W . Si noti che mentre (φ, H, ψ, W ) caratterizzano la rappresentazione data, cioè
tutte le evoluzioni, W da sola caratterizza il comportamento forzato (da x0 = 0). Una questione
interessante, che sarà esaminata nelle ipotesi di stazionarietà, riguarda la possibilità di ricostruire a
partire da W le evoluzioni del sistema nel complesso. Problema delle relazioni tra modello forzato e
modello complessivo.
Per concludere le considerazioni circa le rappresentazioni lineari si sottolinea che la loro importanza è legata non solo alla ricchezza di risultati disponibili, ma anche al ruolo, spesso significativo,
che lo studio delle rappresentazioni lineari approssimanti assegnate dinamiche non lineari svolge nello
studio di diversi problemi di analisi e sintesi di sistemi. A tale proposito è interessante osservare come,
assegnata una rappresentazione non lineare e una condizione di equilibrio, la rappresentazione lineare
approssimante ottenuta a partire da una rappresentazione esplicita e quella ottenuta dalla rappresentazione implicita siano consistenti. In altre parole le soluzioni del sistema differenziale (alle differenze)
lineare approssimante coincidono con la linearizzazione delle soluzioni del sistema differenziale (alle
differenze) non lineare. La dimostrazione di tale risultato sarà affrontato nel prossimo capitolo con
riferimento ai sistemi stazionari.
2.2. Le rappresentazioni implicite
In questo paragrafo vengono introdotte le rappresentazioni implicite, descrizioni matematiche in
termini di equazioni alle differenze e differenziali, che mettono in evidenza come i comportamenti di
un sistema dinamico siano il risultato di un processo di evoluzione iterativo, per i sistemi a tempo
discreto, di funzionamento ”in tempo reale” descritto da equazioni differenziali, per i sistemi a tempo
continuo.
27
2.2. Le rappresentazioni implicite
Sistemi a tempo discreto
Come si è già osservato, l’evoluzione ad un passo dello stato per un sistema a tempo discreto è
descritta da un’equazione della forma
x(t + 1) = f (t, x(t), u(t))
f è detta funzione generatrice. La precedente equazione già mette in luce quanto asserito che, cioé,
l’evoluzione è il risultato di un processo iterativo che a partire dallo stato e l’ingresso al tempo t,
genera lo stato al tempo t + 1.
Nelle ipotesi di linearità della funzione f sullo spazio X × U per ogni t e finita dimensione di
∼
X = Rn ed U ∼
= Rp , si ha
x(t + 1) = A(t)x(t) + B(t)u(t)
ove A(t) e B(t) sono matrici di funzioni del tempo di dimensioni (n × n) e (n × p) definite da
A(t): = φ(t + 1, t),
B(t): = H(t + 1, t)
Inoltre come già ricordato la linearità di η su X × U per ogni t e la dimensione finita di Y ∼
= Rq danno
y(t) = C(t)x(t) + D(t)u(t)
Le precedenti equazioni definiscono una rappresentazione implicita con lo stato di un sistema lineare
a dimensione finita a tempo discreto.
Sistemi di equazioni alle differenze di tale tipo danno una rappresentazione ricorsiva della generazione del legame funzionale ingresso-stato-uscita caratteristico di un sistema dinamico. Per tale
motivo sono interessanti dal punto di vista ingegneristico: esse consentono, eventualmente mediante
simulazione, di costruire un dispositivo che simula in tempo reale il comportamento dinamico del
sistema. Il seguente schema, detto di realizzazione o simulazione, rende conto di tale aspetto.
D
u( t )
x (t+1)
B
+
+
−1
x( t )
z
+
C
+
y (t )
A
Figura 2.1
Sistemi a tempo continuo
L’esistenza di rappresentazioni implicite nel caso tempo-continuo è subordinato al sussistere
dell’ipotesi di regolarità. Essa consiste nell’assumere che ϕ(t, t0 , x0 , u) sia soluzione di un’equazione
differenziale
28
2. Rappresentazioni con lo stato lineari, a dimensione finita, stazionarie
∂ϕ
= ẋ(t) = f (t, ϕ, u(t))
∂t
Si mostrerà ora che se la rappresentazione esplicita è lineare anche la funzione generatrice lo è sullo
spazio prodotto, X × U . Si può infatti dimostrare il seguente risultato. Esiste una rappresentazione
implicita, o differenziale, del tipo
ẋ(t) = A(t)x(t) + B(t)u(t)
con A(t) matrice (n × n) di funzioni continue, B(t) matrice (n × p) di funzioni continue, se e solo se la
matrice di transizione dello stato φ e la matrice delle risposte implusive nello stato H sono funzioni
continue su (R×R)∗ ed inoltre φ è derivabile rispetto al primo argomento e la sua derivata è continua.
Sotto tali ipotesi risulta, infatti,
φ(t + , τ ) − φ(t, τ )
∂φ(t, τ )
= lim
→0
∂t
φ(t + , t) − φ(t, t)
= lim
φ(t, τ )
→0
= A(t).φ(t, τ )
ove la continuità di φ e
∂φ
∂t
implicano quella di A. Inoltre
∂
∂
H(t, τ ) = φ(t, t1 )H(t1 , τ )
∂t
∂t
= A(t)φ(t, t1 )H(t1 , τ ) = A(t)H(t, τ )
Ciò posto, derivando la x(t) nella sua forma esplicita, si ha
∂
ẋ(t) =
∂t
t
φ(t, t0 )x0 +
H(t, τ )u(τ )dτ
t0
t
= A(t)φ(t, t0 )x0 +
A(t)H(t, τ )u(τ )dτ + H(t, t)u(t)
t0
= A(t)x(t) + B(t)u(t)
in cui B(t): = H(t, t) è continua per l’ipotesi.
La necessità delle citate condizioni, assunta l’esistenza di una funzione generatrice lineare su
X × U , con A(t) e B(t) continue, segue immediatamente dalla teoria delle equazioni differenziali
lineari.
A tale proposito è importante osservare che se si indica con X(.) una matrice fondamentale di
soluzioni dell’equazione differenziale matriciale
ẋ(t) = A(t)x(t)
risulta
X(t)X −1 (τ ) = φ(t, τ )
29
2.3. Le Rappresentazioni Lineari Stazionarie
con φ(t, τ ) definita su (R × R); ne consegue che
φ(t, τ )φ(τ, t) = φ(t, t) = I ⇒ φ(t, τ ) = φ(τ, t)−1
che esprime il sussistere di una proprietà di gruppo sulla matrice di transizione dello stato.
Per completezza giova ricordare che una matrice fondamentale X(t) è soluzione di Ẋ = A(t)X
con X(t0 ) = I la cui soluzione ammette la seguente espansione in serie di Newman
t
φ(t, t0 ) = I +
A(τ1 )dτ1 +
t0
t
... +
t
τ1
A(τ1 )
A(τ2 )dτ2 dτ1 +
t0
t0
τi−1
A(τ1 ) . . .
A(τi )dτi . . . dτ1 + . . .
t0
t0
In conclusione sotto le ipotesi di linearità, finita dimensione e regolarità si ottiene una rappresentazione differenziale (implicita) del tipo
ẋ(t) = A(t)x(t) + B(t)u(t)
y(t) = C(t)x(t) + D(t)u(t)
x(t0 ) = x0
Tale rappresentazione è una realizzazione differenziale del legame funzionale che caratterizza il comportamento dinamico del sistema. É interessante osservare che la caratteristica peculiare di un tale
tipo di descrizione è che essa può essere utilizzata per generare “in tempo reale” le evoluzioni nello
stato ed in uscita al variare di t. Questa caratteristica è evidente se si osserva lo schema di realizzazione o simulazione, riportato in figura, che corrisponde ad una possibile realizzazione, sia fisica che
numerica, mediante dispositivi in grado di effettuare integrali, moltiplicazioni e somme.
D
.
x( t ) u( t )
B
+
x( t )
+
C
+
+
y (t )
A
Figura 2.2
2.3. Le Rappresentazioni Lineari Stazionarie
Una ulteriore specializzazione della classe di sistemi si ottiene assumendo la stazionarietà, condizione soddisfatta, con buona approssimazione, da molti sistemi fisici. Tale proprietà esprime
l’invarianza rispetto al tempo del comportamento del sistema.
30
2. Rappresentazioni con lo stato lineari, a dimensione finita, stazionarie
Definizione 2. Una rappresentazione (X, ϕ, η) si dice stazionaria se ∀(t, t0 ), ∀x0 , ∀u:
∆δ ϕ(t, t0 , x0 , u) = ϕ(t + δ, t0 + δ, x0 , (∆δ u)
)
[t0 +δ,t+δ)
∆δ η(t, x, u) = η(t + δ, x, u)
ove ∆δ indica l’operatore di traslazione a destra definito come
∆δ (f (t)) = f (t − δ)
2.3.a. Rappresentazioni a tempo discreto
Per una rappresentazione stazionaria a tempo discreto si ottiene dunque
x(t) = ϕ(t − t0 , 0, x0 , u)
y(t) = η(0, x(t), u(t))
che assieme a dimensione finita e linearità forniscono la seguente rappresentazione esplicita
x(t) = φ(t − t0 )x0 +
t−1
H(t − τ )u(τ )
τ =t0
y(t) = Cx(t) + Du(t)
ed ancora
y(t) = ψ(t − t0 )x0 +
t
W (t − τ )u(τ )
τ =t0
ove
ψ(t − t0 ) = Cφ(t − t0 )
CH(t − τ ), t > τ
W (t − τ ) =
D, t = τ
Se si esprime la transizione dello stato su un intervallo di tempo (t + 1 → t e t → t0 ), si ottiene la
seguente rappresentazione implicita
x(t + 1) = Ax(t) + Bu(t),
x(t0 ) = x0
y(t) = Cx(t) + Du(t)
ove si è posto
A = φ(1)
B = H(1)
Il calcolo della rappresentazione esplicita a partire da quest’ultmia dà
φ(t − t0 ) = At−t0
H(t − τ ) = At−τ −1 B
ψ(t − t0 ) = CAt−t0
W (t − τ ) = CAt−τ −1 B
W (0) = D
viceversa, dalla rappresentazione esplicita a quella implicita, si passa ponendo
A = φ(1),
B = H(1),
D = ψ(0),
C = W (0)
31
2.4. Rappresentazioni implicite equivalenti
2.3.b. Rappresentazioni a tempo continuo
Analoghe considerazioni nel contesto tempo-continuo consentono di definire una rappresentazione
lineare stazionaria a dimensione finita. Si ottiene la rappresentazione esplicita
t
x(t) = φ(t − t0 )x0 +
H(t − τ )u(τ )
t0
y(t) = Cx(t) + Du(t)
ed ancora
t
y(t) = ψ(t − t0 )x0 +
W (t − τ )u(τ )dτ
t0
ove
ψ(t − t0 ) = Cφ(t − t0 ),
W (t − τ ) = CH(t − τ ) + Dδ(t − τ )
Per tale rappresentazione possono essere ripetute le considerazioni svolte nel caso non stazionario.
(φ, H, ψ, W ) soddisfano le condizioni già esaminate nel caso tempo variante che si particolarizzano
senza difficoltà. Sotto l’ulteriore ipotesi di regolarità (continuità di φ e H e derivabilità di φ) è facile
ottenere la rappresentazione differenziale (o implicita)
ẋ(t) = Ax(t) + Bu(t),
x(0) = x0
y(t) = Cx(t) + Du(t)
in cui si assume, senza perdita di generalità che t0 = 0.
Per quanto riguarda il passaggio alla descrizione esplicita si ha
φ(t) = eAt : =
tk
k≥0
k!
Ak
come risulta immediatamente dal calcolo mediante la serie di Newman con A(t) = A oppure come
si verifica immediatamente per derivazione e sostituzione nell’equazione differenziale matriciale Ẋ =
AX. In definitiva, il passaggio dalla rappresentazione impicita a quella esplicita comporta il calcolo
delle seguenti matrici
φ(t) = eAt
H(t) = eAt B
ψ(t) = CeAt
W (t) = CeAt B + Dδ(t)
Il passaggio inverso, dalla rappresentazione esplicita a quella implicita, si ha ponendo
d
φ(t)
dt t=0
B = H(0)
A=
C = ψ(0)
t+
(W (t − τ ) − CH(t − τ ))dτ
D=
t−
32
2. Rappresentazioni con lo stato lineari, a dimensione finita, stazionarie
2.4. Rappresentazioni implicite equivalenti
Il concetto di equivalenza tra rappresentazioni con lo stato è collegato alla non unicità nella scelta
dello stato per descrivere un dato sistema dinamico già trattata nel paragrafo 1.3.
Nel caso generale, assegnato il sistema
ẋ(t) = f (x(t), u(t))
y(t) = h(x(t), u(t))
e la trasformazione di variabili di stato invertibile
z = T (x)
x = T −1 (z)
il calcolo diretto della derivata rispetto al tempo fornisce la rappresentazione equivalente rispetto alle
variabili z
∂T (x)
−1
f (T −1 (z(t)), u(t))
|
dx x=T (z(t))
y(t) = h(T −1 (z(t)), u(t))
ż =
2.4.a. Rappresentazioni lineari equivalenti
Per un’assegnata rappresentazione con lo stato lineare, tra le diverse scelte di variabili di stato quelle
che sono legate da una trasformazione di coordinate lineare mantengono la struttuta, lineare, della
rappresentazzione.
Infatti, assegnato il sistema
ẋ(t) = Ax(t) + Bu(t)
y(t) = Cx(t) + Du(t)
ed una trasformazione lineare di variabili di stato, con T matrice (n × n) costante nonsingolare
z = Tx
|T | = 0
si ottiene la rappresentazione
ż(t) = T ẋ(t) = T Ax(t) + T Bu(t) = T AT −1 z(t) + T Bu(t)
y(t) = CT −1 z(t) + Du(t)
che è ancora dello stesso tipo con matrice dinamica T AT −1 (matrice simile ad A), matrice degli
ingressi T B, e matrice delle uscite CT −1 . Con analoghi passaggi si perviene alle stesse espressioni nel
caso di sistemi a tempo discreto.
I precedenticalcoli mostrano, tra l’altro, che la dinamica in evoluzione libera nello stato è descritta
da un operatore lineare che assume in una fissata base una rappresentazione matriciale. Trasformazioni
lineari della base inducono modifiche secondo una trasformazione di similitudine.
33
2.4. Rappresentazioni implicite equivalenti
Da un punto di vista operativo giova osservare ccome procedere per effettuare una trasformazione di
coordinate. Se x è una n–pla che rappresenta un vettore, sia v, rispetto ad una base di riferimento,
ei , i = 1, ..n, cioè
 
 
 
0
1
0
1
0
 
 ... 

0
 
x = Σxi ei = 
 ...  x1 +  .  x2 + ... +  0  xn
 .. 
0
1
0
poichè
x = T −1 z
(T −1 )i , l’iesima colonna di (T −1 )






(T −1 )i = T −1 · 





0
.. 
.

0

1  i − ma

0
.. 
.
0
è la rappresentazione dell’ iesimo vettore della nuova base (quella in cui il vettore è rappresentato da
z) rispetto alla vecchia base (quella in cui il vettore è rappresentato da x).
Questo vuol dire che effettuare una trasformazione lineare di variabile di stato del tipo z =
T x significa, da un punto di vista operativo, scegliere una nuova base dello spazio di stato che è
∼
∼
rappresentata dalle colonne di T −1 , e 1 , ..., e n nelle coordinate di x. Si ha cioè
∼
∼
T −1 = ( e 1 , ..., e n )
A titolo di esempio non si troverà difficoltà nel calcolare la trasformazione di coordinate che inverte
l’ordine delle variabili di stato.
2.4.b. Rappresentazioni non lineari di sistemi lineari
Un’ osservazione conclusiva verte a chiarire, con un semplice esempio, che esistono rappresentazioni
non lineari di sistemi lineari. Assegnato, a tal fine, il seguente sistema lineare scalare, i seguenti
calcoli sono immediati:
x = lnz
ẋ(t) = ax(t) + bu(t)
z = ex
ż(t) =
ex (ax(t) + bu(t)) =
az(t)lnz(t) + bz(t)u(t)
34
2. Rappresentazioni con lo stato lineari, a dimensione finita, stazionarie
e chiariscono quanto affermato che, cioè esistono rappresentazioni non lineari di sistemi lineari.
Più in generale si ha, rispetto a una trasformazione di coordinate non lineare z = T (x) (x =
−1
T (z))
∂T (x)
∂T (x)
AT −1 (z) +
Bu
ż =
−1
dx x=T (z)
dx x=T −1 (z)
y = CT −1 (z) + Du
che è una rappresentazione non lineare del sistema lineare dato.
2.5. Rappresentazioni lineari come approssimazioni di sistemi non lineari
Le rappresentazioni lineari sono importanti anche perchè possono essere impiegate per descrivere
il comportamento di un sistema dinamico generale intorno a prefissati comportamenti di riferimento.
L’approssimazione lineare di un sistema dinamico è la generalizzazione del semplice concetto di
approssimazione di una curva nell’intorno di un fissato punto mediante la tangente in quel punto.
Con riferimento alla generica funzione non lineare f (x) intorno ad un valore fissato f (xe ) lo sviluppo
in serie arrestato al primo ordine fornisce
df (x − xe ) + ....
y = f (x) = f (xe ) +
dx xe
e posto xa = x − xe , ya = y − f (xe ), m =
la curva intorno ad xe
df
dx |xe
si ottiene la relazione lineare seguente che approssima
ya = mxa
La stessa ‘procedura’ può essere applicata ad un assegnato sistema non lineare
A tale proposito è interessante osservare come, sempre nel caso t-discreto e sotto le ipotesi di
regolarità nel caso t-continuo, la rappresentazione lineare approssimante ottenuta a partire da una
rappresentazione esplicita e quella ottenuta dalla rappresentazione implicita siano consistenti. In altre
parole e con riferimento al caso t-continuo, le soluzioni del sistema differenziale lineare approssimante
coincidono con la linearizzazione delle soluzioni del sistema differenziale non lineare. La dimostrazione
di questo risultato nel caso generale riposa su risultati di base sulla teoria dell’approssimazione di funzionali non lineari e viene qui proposta con riferimento alla situazione più ricorrente nelle applicazioni,
quella in cui si voglia approssimare il comportamento intorno ad una condizione di equilibrio.
Si assuma t0 = 0 e siano xR (0), uR (·) e xR (·) uno stato iniziale, una funzione d’ingresso e la
corrispondente evoluzione nello stato, assunte di riferimento per un assegnato sistema stazionario.
Se si indica con ∆x(·) e ∆y(·) gli scostamenti delle evoluzioni nello stato ed in uscita corrispondenti a variazioni dello stato iniziale ∆x(0) = x(0) − xR (0) e dell’ingresso ∆u(·) = u(·) − uR (·) esse
ammettono la rappresentazione esplicita
∆x(t) = ϕ(t, x(0), u(·)) − ϕ(t, xR (0), uR (·)) = ϕl (t, ∆x(0), ∆u(·)) + O2 (∆x(0), ∆u(·))
2.5. Rappresentazioni lineari come approssimazioni di sistemi non lineari
35
∆y(t) = η x(t), u(t) − η xR (t), uR (t) = ηl ∆x(t), ∆u(t) + O2 (∆x(t), ∆u(·))
la cui approssimazione lineare è
∂ϕ xa (t) = ϕl (t, xa (0), ∆u(·)) =
∆x(t) + ϕl (t, 0, ∆u(·))
∂x xR (0)uR (·)
∂η ∂η
∆x(t) +
∆u(t)
ya (t) = ηl ∆x(t), ∆u(t) =
∂x xR (t)uR (t)
∂u xR (t)uR (t)
Per la rappresentazione implicita
ẋ = f (x, u) y = h(x, u)
con calcoli analoghi ai precedenti:
∂f ∂f ẋa (t) =
xa (t) +
∆u(t) = A(t)xa + B(t)∆u
∂x xR (t)uR (t)
∂u xR (t)uR (t)
∂h ∂h ya (t) =
xa (t) +
∆u = C(t)xa + D(t)∆u
∂x xR (t),uR (t)
∂u xR (t),uR (t)
Se xR (·) = cost allora anche uR (·) = cost e f (xR , uR ) = 0. In tal caso il sistema approssimante è
stazionario.
Mostreremo ore che intorno ad una coppia di equilibrio, (xe , ue ): f (xe , ue ) = 0, l’approssimazione
lineare della soluzione ammette, come funzione generatrice, l’approssimazione lineare della funzione
generatrice del sistema dato. Si ricordino, innanzituto le notazioni:
ẋ = f (x, u)
x(t) = ϕ(t, x, u) e
∂ϕ(t, x, u)
= f ϕ(t, x, u), u
∂t
Si proceda, quindi, al calcolo dell’approssimazione lineare della soluzione. Si ottiene
t
∂ϕ ϕ(t, x, u) = ϕ(t, xe , ue ) +
(x − xe ) +
ϕl (t − τ )(u(τ ) − ue )dτ + . . .
∂x xe ,ue
0
Posto
∂ϕ Φ(t) =
∂x xe ,ue
la proprietà di separazione implica le proprietà di semigruppo sulle funzioni Φ e ϕl , cioè
Φ(t − τ ) = Φ(t − t1 )Φ(T1 − τ ),
ϕl (t − τ ) = Φ(t − t1 )ϕl (t1 − τ ) t ≥ t1 ≥ τ
36
2. Rappresentazioni con lo stato lineari, a dimensione finita, stazionarie
Derivando rispetto al tempo la precedente identità, si ottiene:
dΦ(t)
f (x(t), u(t)) = 0 +
|t=0 Φ(t)(x0 − xe ) +
dt
t
ϕl (t − τ )(u(τ ) − ue )dτ + ϕl (0)(u(t) − ue ) + . . .
0
cioè:
dΦ(t)
|t=0 (x(t) − xe ) + ϕl (0)(u(t) − ue ) + . . .
dt
Rimane cosı̀ individuata l’approssimazione sulla soluzione che, per l’unicità delle soluzioni di un’equazione
differenziale, comporta che
=
dΦ(t)
∂f |t=0
=
∂x xe ,ue
dt
∂f = ϕl (0)
∂u xe ,ue
In sintesi con riferimento ad un’assegnata rappresentazione differenziale intorno ad una coppia
di equilibrio,
ẋ = f (x, u)
f (xe , ue ) = 0
y = h(x, u)
h(xe , ue ) = he
si ha l’approssimazione lineare
ẋa = Axa + Bv
ya = Cxa + Dv
ove si è posto xa = x − xe , v = u − ue , ya = y − ye
∂f A=
∂x xe ,ue
∂f B=
∂u xe ,ue
∂h C=
∂x xe ,ue
∂h D=
∂u xe ,ue
Due semplici esempi di applicazione sono introdotti nel seguito:
Pendolo
Le equazioni che descrivono la dinamica di un pendolo di massa m, sospeso ad un’asta rigida di
peso trascurabile di lunghezza l, possono essere facilmente ottenute dall’equilibrio delle forze lungo la
tangente al moto. Si ha
mlθ̈(t) + mgsenθ(t) + klθ̇(t) = u(t)
Dove u rappresenta una forza esterna agente, e k è un coefficiente di attrito dinamico. Posto x1 (t) =
θ(t) e x2 (t) = θ̇(t) si ottiene:
2.5. Rappresentazioni lineari come approssimazioni di sistemi non lineari
37
ẋ1 (t) = x2 (t)
ẋ2 (t) =
−g
k
1
senx1 (t) − x2 (t) +
u(t)
l
m
ml
cioè una rappresentazione con lo stato non lineare del tipo
ẋ(t) = f (x(t)) +
0
1
ml
u(t)
Il calcolo delle coppie di equilibrio corrispondenti ad ingresso nullo, ue = 0, fornisce xe2 = 0, xe1 =
(2h + 1)π oppure xe1 = 2hπ cioè tutti gli stati di equilibrio con la massa nelle posizioni verticali sopra
e sotto il punto di attacco. Intorno agli stati di equilibrio sopra il punto di attacco si ha il modello
linearizzato:
ẋ1 (t) = x2 (t)
ẋ2 (t) =
g
−k
1
x1 (t) +
x2 (t) +
u(t)
l
m
ml
per gli altri:
ẋ1 (t) = x2 (t)
ẋ2 (t) =
−g
−k
1
x1 (t) +
x2 (t) +
u(t)
l
m
ml
Dinamica di due specie interagenti
Il seguente modello che descrive la dinamica di due specie interagenti, preda e predatore, è stato
introdotto nel 1926 dal matematico italiano Vito Volterra e prende il suo nome. Tale modello riesce
ad interpretare l’aspetto più saliente di tale fenomeno: si tratta della presenza di situazioni di equilibrio
che, se perturbate, vedono insorgere fenomeni di oscillazione (alternanza di sviluppo tra le specie).
Si assume, nella formulazione del modello, che:
- la preda cresce, in assenza di predazione, secondo la cosiddetta equazione logistica
ẋ1 (t) = ax1 (t) − kx21 (t)
(si tratta di un equazione differenziale che mette bene in evidenza sia un andamento esponenziale
della crescita nella fase iniziale dell’evoluzione e per modesti valori di densità, sia una tendenza
asintotica ad un valore limite, ka (capacità portante) , che tiene conto di fattori limitanti quali, ad
esempio, la limitatezza delle risorse);
- il predatore ha come unico sostentamento la preda ed in assenza di questa diminuisce secondo
un andamento esponenziale governato dalla seguente equazione differenziale
ẋ2 (t) = −cx2 (t)
- il tasso di predazione è proporzionale al prodotto degli individui delle due specie
38
2. Rappresentazioni con lo stato lineari, a dimensione finita, stazionarie
Con queste assunzioni le equazioni che descrivono l’evoluzione delle specie possono essere facilmente
dedotte dalle precedenti equazioni. Si ottiene:
ẋ1 (t) = ax1 (t) − bx1 (t)x2 (t)
ẋ2 (t) = −cx2 (t) + dx1 (t)x2 (t)
y1 (t) = x1 (t)
y2 (t) = x2 (t)
Si ha quindi ancora una volta un modello nonlineare dello stesso tipo del precedente. Come è facile
verificare si hanno in questo caso due punti di equilibrio: uno banale, corrispondente all’assenza di
specie, l’altro
c
x2 (−c + dx1 ) = 0 → x1e =
d
x1 (a − kx1 − bx2 ) = 0 → x2e =
ad − kc
bd
Intorno a tale punto di equilibrio l’evoluzione è approssimata da un sistema lineare in evoluzione
libera con
A=
− kc
d
ad−kc
b
− bc
d
0
2.6. Rappresentazioni a tempo discreto di sistemi a tempo continuo
Le rappresentazioni a tempo discreto possono essere impiegate per descrivere o approssimare sistemi
a tempo continuo come viene precisato nel seguito.
Assegnato un sistema a tempo continuo in cui gli ingressi sono costanti a tratti su intervalli di ampiezza
fissa, se si è interessati a calcolare le evoluzioni negli istanti, detti di campionamento, corrispondenti
alla variazione dell’ingresso è possibile ricondursi ad un sistema a tempo discreto equivalente. La
situazione è rappresentata nella figura 9.2; il calcolo del modello discreto equivalente è noto come
problema della discretizzazione. Tale problema trova applicazione nello studio di sistemi reali
collegati a dispositivi digitali; in tali circostanze l’ingresso è costante a tratti e le grandezze sono tutte
ricondotte ad una scala temporale discreta multipla del ciclo di calcolo elementare.
Una diversa circostanza che conduce a riferirsi al problema della discretizzazione è quando gli ingressi
continui vengono campionati; in tal caso il modello discreto descrive in modo approssimato il comportamento campionato del sistema a tempo continuo alimentato da ingresso non sottoposti al processo
di campionamento e tenuta. Questa procedura è quella alla quale ci si riferisce quando si compiono
simulazioni numeriche sul modello di un assegnato sistema.
39
2.6. Rappresentazioni a tempo discreto di sistemi a tempo continuo
H
S
TC
u
y
Clock
S
TD
Figura 2.3
Il calcolo della rappresentazione a tempo discreto equivalente associata ad una data rappresentazione
con lo stato comporta la conoscenza della rappresentazione esplicita, e quindi della soluzione del
sistema di equazioni differenziali che descrivono il sistema. Poichè come è noto non esistono espressioni
in forma chiusa della soluzione di equazioni differenziali non lineari di forma generica, il calcolo in tal
caso non può che essere effettuato per via approssimata. L’approssimazione consiste nel troncamento
ad un prefissato ordine dello sviluppo in serie di Taylor della evoluzione nello stato. Posto t0 = kT e
t = (k + 1)T , ed assumendo per convenzione l’intervallo unitario del sistema a tempo discreto pari a
T , si ottiene
T2
ẋ|x(k) ...
2
L’arresto al primo ordine nel precedente sviluppo in serie fornisce la cosiddetta approssimazione
di Eulero.
Come già osservato quando S è lineare il modello discreto equivalente può essere calcolato senza
difficoltà a partire dalle espressioni dell’evoluzione nello stato e in uscita tra due istanti di campionamento ricordando che l’ingresso è costante nell’intervallo di tempo considerato. A partire dal sistema
continuo
ẋ(t) = Ax(t) + Bu(t)
x(t0 ) = x0
y(t) = Cx(t)
x(k + 1) = x(k) + T ẋ|x(k) +
si ha
A(t−t0 )
x(t) = e
t
eA(t−τ ) Bu(τ )dτ
x0 +
t0
e, posto t0 = kT , t = (k + 1)T
x (k + 1)T = eAT x(kT ) +
(k+1)T
eA
(k+1)T −τ
kT
x (k + 1)T = eAT x(kT ) +
dτ Bu(kT )
(k + 1)T − τ = ξ
T
eAξ dξBu(kT )
0
Se per convenzione assumiamo che l’intervallo temporale di ampiezza T coincida con il passo unitario
del sistema a tempo discreto che si considera, ecco che l’espressione precedente rappresenta un sistema
a tempo discreto.
x(k + 1) = AD x(k) + BD u(k)
y(k) = Cx(k)
40
2. Rappresentazioni con lo stato lineari, a dimensione finita, stazionarie
ove
AT
AD = e
T
eAξ dξB
BD =
CD = C
0
Aspetti connessi al calcolo del sistema discretizzato.
Nei casi pratici è frequente calcolare AD , BD per via numerica a partire da A, B e T ed impiegando
l’espressione dello sviluppo in serie di eAT .
T2 2
Tn n
A + ... +
A + ...
2
n!
E’ chiaro che arrestando il calcolo in corrispondenza di un n sufficientemente grande l’errore che si
commette è piccolo.
eAT = I + AT +
Una procedura sistematica per mantenere sotto controllo l’approssimazione è quella qui di seguito
indicata. Si definisca
TA
TA
TA
TA
T A T 2 A2
I+
...
I+
... = I +
+
+ ...
ψn := I +
2
3
n−1
n
2
3!
in cui n è scelto in modo che sia soddisfatta la seguente diseguaglianza
AD e BD possono ora essere calcolate a partire da ψn . Infatti
AD = I + T A(I +
e quindi con buona approssimazione
e, allo stesso modo,
T A
n < .
T A T 2 A2
+
+ . . .)
2
3!
AD ∼
= I + T A · ψn
BD ∼
= ψn T B
E’ immediato a questo punto il collegamento con l’approssimazione di Eulero introdotta in precedenza. Tale approssimazione corrisponde ad approssimare la derivata prima dell’evoluzione dello stato
con il suo rapporto incrementale. Si ha infatti
ẋ(t) ∼
=
x(t + δ) − x(t) ∼
= Ax(t) + Bu(t)
δ
posto t = kδ, δ = T ed assunto, per convenzione di ampiezza T l’intervallo unitario, si ottiene
x(k + 1) = x(k) + T Ax(k) + T Bu(k)
che coincide con il troncamento al primo ordine in T degli sviluppi associati alle matrici AD e BD .
Rimane quindi dimostrato che l’approssimazione di Eulero, valida per T piccolo, approssima la descrizione mediante il modello a tempo discreto equivalente da noi calcolato nel senso dell’approssimazione
al primo ordine del relativo sviluppo in serie.
41
2.7. Rappresentazioni implicite singolari
2.7. Rappresentazioni implicite singolari
Una rappresentazione cui spesso si perviene nella modellistica dei sistemi dinamici è quella cosiddetta singolare, cioè del tipo
S∆z(t) = F z(t) + Gu(t)
in cui ∆ indica l’operatore di derivazione o di anticipo ed S è una matrice quadrata (N, N )
singolare. Se cosı̀ non fosse sarebbe infatti immediato ricondursi ad una rappresentazione implicita
del tipo noto.
Se supponiamo che S abbia rango n < N , con un riordinamento delle variabili ed una trasformazione del tipo
ζ = Tz
si ottiene una rappresentazione della forma
E
0
∆ζ(t) =
F1
F2
ζ(t) +
G1
G2
u(t)
La precedente espressione mette bene in evidenza che il modello matematico è composto da
equazioni defferenziali ed equazioni elgebriche; si tratta di una rappresentazione alla quale si perviene
ad esempio nella modellistica di fenomeni reali in presenza di vincoli lineari sulle variabili.
Mentre si rinvia alla letteratura specialistica per il caso generale, è opportuno notare che è
possibile ricondursi ad una rappresentazione con lo stato se
det
E
F2
= 0
.
Per rendersi conto di quanto asserito si definisca
x = Eζ
poichè F2 ζ = −G2 u
E
F2
ζ=
x
−G2 u
⇒ζ=
E
F2
−1 x
−G2 u
da cui, infine,
∆x(t) = F1
E
F2
−1 x(t)
−G2 u
+ G1 u(t) = Ax(t) + Bu(t)
A titolo di esercizio si suggerisce di applicare la procedura indicata per il calcolo del modello
proposto all’esempio 1.10 (Dinamica del prodotto nazionale lordo).
3. Le proprietà geometriche dello spazio di
stato
In questo capitolo vengono introdotte e studiate le proprietà geometriche dello spazio di stato. Il
concetto fondamentale è quello di sottospazio invariante associato ad un operatore lineare già messo
in luce nei precedenti capitoli per il ruolo che esso ha nella individuazione delle forme semplici di una
data matrice. Come avremo occasione di mostrare, tale concetto acquisisce un significato particolare
nella caratterizazione del comportamento dinamico; si tratta di un aspetto che supera il contesto
lineare e sarà infatti poi ripreso nello studio dei sistemi dinamici non lineari.
L’invarianza è il punto di partenza per lo studio di due prroprietà fondamentali nello studio dei
sistemi dinamici.
La prima riguarda il legame stato-uscita e si riferisce all’esistenza di stati ai quali corrispondono
uscite coincidenti. Come avremo occasione di approfondire, da un punto di vista esterno ciò costituisce
un impedimento alla ricostruzione delle evoluzioni interne a partire dalle osservazioni (inosservabilità
del sistema) e rappresenta una ridondanza della rappresentazione con lo stato (si ricordi quanto già
osservato nel capitolo 1.3.).
La seconda riguarda il comportamento ingresso stato e più in particolare la possibilità di intervenire sugli ingressi per raggiungere prefissati stati. Da un punto di vista esterno ciò esprime
la possibilità di modificare il comportamento dinamico di parte del sistema e l’eventuale presenza
di stati non raggiungibili manifesta la presenza di una ridondanza dello stato nella descrizione del
comportamento ingresso uscita forzato.
3.1. Il concetto di invarianza
Come è noto, ed è stato ricordato nel capitolo terzo a proposito del calcolo della matrice di
transizione, il concetto di sottospazio invariante svolge un ruolo importante nella teoria degli operatori lineari. Ciò in virtù delle semplificazioni che assume la struttura della matrice che rappresenta
l’operatore al variare della base. Dal un punto di vista del comportamento dinamico questa proprietà
ne induce un’altra che è più significativa e che ora si cercherà di mettere in luce.
43
3.1. Il concetto di invarianza
Sia V un sottospazio di dimensione m invariante rispetto ad un operatore lineare A in uno spazio
lineare di dimensione n. Si indichino con V ed A, rispettivamente, una matrice di vettori di base del
sottospazio ed una rappresentazione dell’operatore in un assegnata base. Si avrà
AV ⊂ V
ciò che implica, in una eventuale nuova base, una struttura a blocchi particolare della matrice che
rappresenta l’operatore. Più precisamente se T indica una trasformazione di coordinate in cui i primi
m vettori della nuova base sono una base di V (questo di ha ad esempio fissando una T −1 le cui prime
m colonne sono date dalla matrice V ) allora, nelle nuove coordinate,
T AT
−1
=
A11
0
A12
A22
dove A11 è una matrice (m × m). La verifica di quanto asserito è immediata se si pensa che nella
nuova base il generico vettore, v, in V è rappresentato da una ennupla di numeri reali in cui i primi m
sono qualsiasi ed i restanti n − m sono nulli. Poiché per l’invarianza Av ∈ V , se ne deduce la presenza
del blocco di zeri in basso a sinistra nella rappresentazione dell’operatore.
Dunque da un punto di vista delle trasformazioni che induce, un sottospazio invariante è un autospazio.
Ogni sottospazio invariante è infatti necessariamente generato da un sottoinsieme degli autospazi della
matrice. Questo fatto lascia intendere che da un punto di vista dinamico, cioè per quanto riguarda
le evoluzioni libere del sistema ad esso associato, le evoluzioni che partono da uno stato iniziale in V
restano in V . Infatti il sistema è descritto dalle equazioni
ż1 = A11 z1 + A12 z2 + B1 u
ż2 = A22 z2 + B2 u
e in evoluzione libera con z2 (0) = 0 resta z2 (t) = 0.
Ma non è questo l’aspetto più interessante. La questione più significativa, per quanto riguarda le
evoluzioni del sistema è che a partire da due generiche condizioni iniziali la cui differenza appartiene
a V le evoluzioni, istante per istante, mantengono la proprietà degli stati iniziali. Ciò significa che
a partire da stati che appartengono alla stessa varietà affine ottenuta per traslazione del sottospazio
V le evoluzioni si mantengono in varietà affini della stessa classe. In termini sintetici varietà traslate
di V evolvono in varietà traslate o, equivalentemente la struttura indotta per traslazione da V , la
foliazione, è invariante rispetto alla dinamica.
In figura, con riferimento ad uno spazio bidimensionale, sono schematicamente raffigurati V , la foliazione indotta ed il concetto di invarianza sotto la dinamica.
44
3. Le proprietà geometriche dello spazio di stato
Il sottospazio invariante è nella nullità di C
Un’ulteriore situazione di interesse dal punto di vista del comportamento dinamico si presenta
se il sottospazio invariante V è contenuto nel kernel della matrice C. Si comprende immediatamente
che in tale circostanza nelle coordinate z il sistema è descritto dalle equazioni
ż1 = A11 z1 + A12 z2 + B1 u
ż2 = A22 z2 + B2 u
(3.1)
y = C2 z2
Infatti il venerico vettore di V , rappresentato da una ennupla di numeri reali in cui i primi m sono
qualsiasi ed i restanti n − m sono nulli, dovrà essere annullato mediante l’applicazione di C e questo
è possibile solo se la matrice C ha le prime m colonne nulle.
Le equazioni mettono bene il luce il fatto che un’evoluzione che parte da uno stato iniziale in V ,
z2 (0) = 0, dà uscita identicamente nulla. Ma, come prima, non è questo l’aspetto più significativo dal
punto di vista della dinamica. Ciò che interessa è che poichè le evoluzioni che muovono da stati che
appartengono alla stessa foglia, una varietà traslata di V , appartengono istante per istante ad una
stessa foglia
eAt (z(0) − z (0)) ∈ V
ne segue che
CeAt z(0) = CeAt z (0)
cioè alle evoluzioni che muovono da una stessa foglia è associata la stessa funzione di uscita.
Si tratta di una situazione di interesse che studieremo nel prossimo paragrafo e che rappresenta
geometricamente e da un punto di vista dinamico l’impossibilità di distinguere, dall’uscita, stati che
appartengono ad una stessa foglia (si veda la figura).
L’immagine di B è nel sottospazio invariante
Una situazione ancora diversa, e di interesse, si presenta quando il sottospazio invariante V
contiene l’immagine della matrice degli ingressi B. In questo caso il sistema nelle coordinate z è
descritto dalle equazioni
ż1 = A11 z1 + A12 z2 + B1 u
ż2 = A22 z2
Infatti, poichè le colonne di B sono in V esse ammettono una rappresentazione con ennuple di numeri
con i soli primi m eventualmente non nulli.
Le equazioni mettono bene il luce l’effetto del forzamento sulle evoluzioni del sistema. In particolare è
evidente che non è possibile, muovendo da uno stato iniziale in V , z2 (0) = 0, uscire da tale sottospazio
in quanto il controllo non ha effetto sulla dinamica esterna a V . Anche in questo caso l’aspetto più
significativo dal punto di vista del comportamento dinamico risiede nell’osservare che le evoluzioni
che muovono da due stati che appartengono alla stessa foglia appartengono istante per istante alla
stessa foglia, e questa proprietà di invarianza della struttura è mantenuta identica anche in presenza
45
3.2. Inosservabilità
di ingressi non nulli e diversi. Infatti per azione dell’ingresso non possono essere modificate le ultime
n − m componenti dello stato che descrivono il comportamento all’esterno di V (si veda la figura).
Anche in questo caso si tratta di una situazione di interesse che studieremo tra breve. Essa mette
in luce che le potenzialità di intervento sono limitate alla foliazione indotta da V .
3.2. Inosservabilità
Ricordiamo la definizione di stati equivalenti già proposta nel primo capitolo.
Definizione 6.1 Due stati xa e xb sono detti indistinguibili (equivalenti) a t0 se ∀t ≥ t0 , ∀u[t0 ,∞)
y(t, t0 , xa , u[t0 ,t) ) = y(t, t0 , xb , u[t0 ,t) )
Per una rappresentazione lineare stazionaria la precedente uguaglianza si riscrive
A(t−t0 )
Ce
t
W (t − τ )u(τ )dτ = Ce
A(t−t0 )
xa +
t
W (t − τ )u(τ )dτ
xb +
t0
t0
ed è soddisfatta se e solo se
CeA(t−t0 ) (xa − xb ) = 0
Quindi in una rappresentazione lineare due stati sono indistinguibili se e solo se la loro differenza dà
risposta nulla in evoluzione libera.
Si definisca ora inosservabile uno stato x0 per il quale risulti
CeA(t−t0 ) x0 = 0 ∀t,
cioè sia indistinguibile dallo stato zero. Poiché la presenza di stati inosservabili è equivalente all’esistenza
di stati indistinguibili (sono indistinguibili tutti e soli quegli stati la cui differenza coincide con uno
stato inosservabile), si procederà alla caratterizzazione dell’insieme degli stati inosservabili.
Se indichiamo con I tale insieme
I: = {x ∈ Rn : CeAt x = 0, ∀t}
esso è un sottospazio lineare di Rn ; infatti una qualsiasi combinazione lineare di stati inosservabili
risulta inosservabile.
Il seguente risultato ci dice come calcolare l’insieme degli stati inosservabili.
46
3. Le proprietà geometriche dello spazio di stato
Teorema 1.

C
 CA 
 = Ker(O)
I: = x : CeAt x = 0, ∀t = Ker 
..


.

CAn−1
Infatti se


C
 CA 

x ∈ Ker 
..


.
CAn−1
allora per il teorema di Cailey Hamilton
CAk x = 0, ∀k ⇒ CeAt x = 0, ∀t
viceversa se CeAt x = 0 derivando successivamente e calcolando in t = 0, si ottiene CAk x = 0, ∀k ed
in particolare fino a n − 1.
Se O, matrice (nq × n) detta matrice di osservabilità, ha rango n, allora I = {0}, non ci sono
stati indistinguibili ed il sistema è detto osservabile.
Se, invece, O ha rango m < n allora l’insieme degli stati inosservabili coincide con il sottospazio
generato da n−m vettori indipendenti che definiscono una base del kernel della matrice di osservabilità.
Vale la pena di osservare che l’indistinguibilità definisce una relazione di equivalenza e di conseguenza induce una partizione dello spazio di stato in classi di equivalenza. Non è difficile verificare
che tali classi coincidono con le varietà lineari ottenute per traslazione dal sottospazio degli inosservabili. Tale relazione induce una partizione dello spazio in cui le classi di equivalenza sono insiemi di
stati indistinguibili tra loro. Le considerazioni fatte lasciano intendere che poichè gli stati che appartengono ad una classe di equivalenza sono indistinguibili, e quindi equivalenti per quanto riguarda
il comportamento ingresso - uscita, basterà assumere un solo rappresentante per ogni classe e costruire
una nuova rappresentazione, di dimensione inferiore, del sistema allo studio. Qualche accorgimento
deve essere preso perchè il sistema ridotto risultante sia lineare. Come l’intuizione suggerisce tale
accorgimento corrisponde a scegliere i rappresentanti delle classi di equivalenza in modo che essi
definiscano un sottospazio.
Alla base della procedura di riduzione alla quale si è ora accennato si trova il concetto di invarianza
introdotto nel precedente paragrafo. Infatti non si avrà difficoltà a verificare che l’insieme degli stati
inosservabili è invariante rispetto alla matrice dinamica ed è contenuto nella nullità della matrice C. In
opportune coordinate il sistema assumerà quindi la rappresentazione (3.1). Una tale rappresentazione
mette bene in luce che solo le coordinate z2 sono significative e a ciascun valore di esse è associata
una foglia della struttura invariante genarata dal sottospazio degli inosservabili (coordinate z1 ). Il
sistema è dunque dal punto di vista ingresso uscita ben rappresentato dalle sole variabili z2 .
La formalizzazione della proprietà messa in luce conduce alla seguente caratterizzazione dell’insieme
degli inosservabili
47
3.2. Inosservabilità
Proposizione 1. I è il più grande sottospazio invariante rispetto ad A (AI ⊂ I) e contenuto in
KerC.
La dimostrazione è semplice infatti per definizione I è contenuto in Ker C; preso comunque un
suo elemento, xI , AxI appartiene ad esso come risulta dal calcolo ricordando il teorema di CaileyHamilton: ciò esprime l’invarianza. Infine è il più grande insieme che soddisfa tale proprietà; se cosı̀
non fosse esisterebbe un elemento, xnI , non appartenente ad esso, ma ad un altro insieme invariante
sotto A e contenuto in Ker C. In base a tali proprietà risulterebbe CAk xnI = 0 e quindi xnI ∈ I,
ciò che nega l’esistenza di un insieme più grande.
3.2.a. Scomposizione rispetto all’inosservabilità
Alla luce della caratterizzazione geometrica di I non è difficile rendersi conto del fatto che esiste
una scelta delle coordinate in Rn rispetto alle quali il sistema (A, B, C) assume una rappresentazione
che mette in evidenza la struttura interna del sistema.
Teorema 2. Si assuma la rappresentazione (A, B, C) non osservabile con ρ(O) = m < n. Allora
esiste T non singolare rispetto alla quale (T AT −1 , T B, CT −1 ) manifesta la seguente struttura
T AT
−1
=
A11
0
A12
A22
, TB =
B1
B2
, CT −1 = ( 0 C2 )
ove A22 è (m × m) ed i blocchi hanno dimensioni consistenti. Inoltre (A22 , B2 , C2 ) rappresenta un
sottosistema osservabile


C2
..
=m
ρ
.
m−1
C2 A22
La dimostrazione riposa sulla precedente caratterizzazione geometrica del sottospazio di inosservabilità. Se infatti si effettua una trasformazione di coordinate di Rn , z = T x, in cui i primi (n − m)
vettori della nuova base sono generatori di I, ciò che corrisponde a scegliere come prime n−m colonne
di T −1 una base di I, la rappresentazione assume la struttura indicata. Infatti, nelle nuove coordinate
il generico stato inosservabile si esprime mediante un vettore che ha le prime (n − m) componenti
generiche e le rimanenti m nulle; l’appartenenza di tale vettore a KerCT −1 spiega la struttura di
CT −1 e l’invarianza rispetto a T AT −1 quella della matrice dinamica nelle nuove coordinate. Infine,
per quanto riguarda la completa osservabilità del sottosistema S2 è sufficiente riscrivere la matrice di
inosservabilità nelle nuove coordinate, osservare che il suo rango è ancora m, essendo legata a quella
nelle coordinate x da T non singolare, e ricordare il teorema di Cailey–Hamilton.
Si noti che posto
z1
z=
z2
48
3. Le proprietà geometriche dello spazio di stato
il sistema nelle nuove coordinate è descritto dalle equazioni seguenti
ż1 = A11 z1 + A12 z2 + B1 u
ż2 = A22 z2 + B2 u
y = C2 z2
La struttura nelle coordinate z, e la figura corrispondente, ben manifestano la scomposizione del
sistema in due sottosistemi S1 ed S2 il primo, S1 , corrisponde alla dinamica non osservabile, il secondo
a quella completamente osservabile.
Per quanto riguarda quest’ultimo aspetto, la completa osservabilità della coppia (A22 , C2 ), essa
risulta dall’invarianza del rango della matrice di osservabilità sotto trasformazione di coordinate e dalla
dipendenza delle potenze diordine superiore o uguale ad m della matrice A2 2 da quelle precedenti
(Cayley- Hamilton). or
z
10
S
z
1
S
1
u
z
2
y
S
2
z
z
20
Figura 3.1
Come suggerisce l’intuizione dall’osservazione della figura, il comportamento in uscita, dipende
solo dal sottosistema S2 infatti, nelle coordinate z,
Ψ(t) = ( 0 C2 eA22 t )
e, per la matrice delle risposte impulsive si ha
A11 A12 t
B1
0
A
At
−1 T AT −1 t
22
Ce B = CT e
T B = ( 0 C2 ) e
= C2 eA22 tB2 .
B2
3.2.b. La ricostruibilità
La proprietà di osservabilità può essere interpretata come quella proprietà in base alla quale è
possibile calcolare lo stato iniziale a partire dalle uscite ”future”. Si pensi infatti ad un sistema con
49
3.2. Inosservabilità
una sola uscita in evoluzione libera; il rango pieno della matrice di osservabilità esprime l’indipendenza
dell’uscita e delle sue (n − 1) derivate e la conseguente possibilità di poter calcolare lo stato iniziale
x0 a partire dall’andamento della risposta in uscita. Limitandoci per semplicità al caso dei sistemi
lineari stazionari definiremo per analogia alla precedente la ricostruibilità come quella proprietà che
consente di osservare lo stato al tempo t0 a partire dalla conoscenza delle uscite ”passate”. Percé
ciò accada non devono esistere due stati iniziali che assunti al tempo (t0 − T ) diano vita a t0 alla
stessa uscita. Non è difficile verificare che tale proprietà sussiste per il sistema se e solo se la mappa
x → Ce−At x è iniettiva. Ciò che equivale a richiedere che il rango della matrice di osservabilità sia
pieno. Se ne deduce, perlomeno per i sistemi lineari, stazionari a tempo continuo, l’equivalenza delle
due proprietà.
3.2.c. Modi osservabili e scomposizione
La struttura del sistema nelle nuove coordinate suggerisce l’esistenza di un legame con la proprietà
di osservabilità dei modi naturali a suo tempo introdotta. L’esistenza di un legame in tal senso è
suggerita dall’osservazione che le rappresentazione del sistema nelle coordinate z è equivalente a quella
nelle coordinate x; essa ha quindi gli stessi modi naturali diversamente raggruppati nei sottosistemi
S1 ed S2 . Ovviamente solo quelli in S2 non saranno osservabili, quelli in S1 potrebbero esserlo.
Per un esame più preciso della situazione è necessario introdurre alcuni preliminari. Innanzitutto
si osservi che poiché l’insieme degli inossedrvabili è il più grande sottospazio invariante rispetto ad A
che è contenuto nella nullità di C
Proposizione 2. Esiste un sottospazio U contenuto nel kernel di C ed invariante rispetto ad A se e
solo se il sistema non è tutto osservabile.
Ciò premesso è possibile mostrare che
Teorema 3. Una condizione equivalente di completa osservabilità di S è che
ρ
C
(sI − A)
=n
La precedente condizione è nota come condizione di osservabilità di Popov- Belevitch-Hautus
(PBH).
Per quanto riguarda la dimostrazione della necessità basta osservare che se la condizione non è soddisfatta e la matrice di PBH è singolare, ciò che può accadere per s = λi , allora esisterebbe un sottospazio
invariante rispetto alla dinamica contenuto nella nullità di C. La sufficienza segue dal fatto che se
il sistema non è tutto osservabile, e quindi esiste un sottospazio invariante contenuto nella nullità di
C, esiste un autospazio contenuto nella nullità di C e la condizione di Popov-Belevitch-Hautus non è
soddisfatta per s coincidente con il corrispondente autovalore.
50
3. Le proprietà geometriche dello spazio di stato
Teorema 4. Siano i modi naturali tutti distinti (molteplicità algebrica uguale a quella geometrica).
S è osservabile se e solo se tutti i modi naturali di ordine massimo sono osservabili.
Per la dimostrazione si pensi A in forma di Jordan e ci si riferisca al test di osservabilità appena
introdotto.
Si osservi che il sottosistema osservabile è caratterizzato da tutti e soli i modi osservabili.
ricordare come sono fatti i modi
Nel caso generale si può affermare che
Proposizione 3. Se S è osservabile allora tutti i modi naturali di ordine massimo sono osservabili.
Si pensi sempre al test precedente con A in forma di Jordan. Ciò che non è limitativo.
E’ importante osservare che se ci si riferisce ad una condizione di osservabilità più forte, quella
indicata nel capitolo quarto come condizione geometrica di osservabilità, non è difficile rendersi conto
che le condizioni enunciate mantengono la loro validità nel caso generale. Precisamente: S è osservabile se e solo se tutti i modi naturali soddisfano la condizione geometrica di osservabilità; il
sottosistema osservabile è caratterizzato da tutti e soli i modi che soddisfano alla condizione geometrica di osservabilità.
Un’ultima considerazione riguarda il significato fisico della proprietà di osservabilità. è bene a
tale proposito distinguere almeno tra due diverse situazioni:
— la rappresentazione differenziale (A, B, C) proviene da una descrizione ingresso - uscita di un
sistema dinamico (modellistica del tipo scatola nera);
— la rappresentazione (A, B, C) è la descrizione di un assegnato processo dedotta dalla formalizzazione del legame tra le variabili interne con gli ingressi e le uscite (modellistica del tipo scatola
trasparente).
La non completa osservabilità del sistema corrisponde nel primo caso ad una effettiva ridondanza
nello stato che dovrà essere eliminata. Nel secondo caso, pur non corrispondendo necessariamente
ad una ridondanza di tipo modellistico, mette in luce una ridondanza fisica dal punto di vista del
legame tra ingresso e uscita che induce un potenziale impedimento a poter discernere tra diverse
evoluzioni dello stato muovendo dall’osservazione delle uscite. Come verrà brevemente accennato
nel seguito è quest’ultimo un problema molto importante nella teoria del controllo: la possibilità di
ricostruire l’evoluzione dello stato (interna) a partire dall’uscita. Come vedremo l’osservabilità del
sistema consente di ricostruire con precisione assegnabile le evoluzioni dello stato.
51
3.3. Raggiungibilità
3.3. Raggiungibilità
Si tratta della proprietà duale, caratteristica del comportamento ingresso-stato. è relativa alla
possibilità di raggiungere uno stato, ad un certo istante, a partire da uno stato assegnato.
Definizione 6.2 xR è detto raggiungibile a T da x0 se ∃t0 < T , u su [t0 , T ):
xR = ϕ(T, t0 , x0 , u)
Nel caso di una rappresentazione lineare stazionaria è usuale riferirsi allo stato x(t0 ) = 0. Lo
stato zero è, infatti, sempre mantenuto in assenza di ingresso (stato di equilibrio).
Se notiamo con R(T ) l’insieme dei raggiungibili a T si ha
T
R(T ) =
x:x=
eA(T −τ ) Bu(τ )dτ, per qualche t0 , u[t0 ,T )
t0
che può anche essere descritto come
R(T ) =
T
x:x=
A(T −τ )
e
−∞
Bu(τ )dτ, u(−∞,T )
Dalle precedenti espressioni risulta chiaro che combinazioni lineari di stati raggiungibili sono raggiungibili, e quindi che R(T ) è un sottospazio di Rn .
Per arrivare ad una descrizione dell’insieme degli stati raggiungibili che ne consenta il calcolo è necessario fare riferimento ad un noto risultato della teoria degli operatori lineari.
Lemma 1. Se L è un operatore lineare allora
R(L) = Ker(L∗ )⊥
cioè la sua immagine coincide con il complemento ortogonale del kernel dell’operatore aggiunto L∗ .
E’ necessario ricordare preliminarmente la definizione di operatore aggiunto. Assegnato L : A →
B lineare, L∗ : B → A è quell’operatore che soddisfa
< L(a), b >B =< a, L∗ (b) >A
dove < ·, · > indica l’operazione di prodotto interno. Ciò premesso quanto asserito nel lemma, essendo
R(L) e Ker(L∗ )⊥ sottospazi, è equivalente a
R(L)⊥ = Ker(L∗ )
che è vera in quanto comunque preso b in R(L)⊥ e per ogni a in A
< b, L(a) >B = 0 ⇒< L∗ (b), a >A = 0
52
3. Le proprietà geometriche dello spazio di stato
cioé b è in Ker(L∗ ). Analogamente si procede per il viceversa.
Se ora si osserva che la funzione
B ∗ eA
è l’operatore aggiunto di
∗
(T −τ )
T
x : Rn → Cω (−∞, T )
eA(T −τ ) Bu(τ )dτ,
−∞
è immediato verificare che
Teorema 5.
R(T ) = R
T
A(T −τ )
e
B(·)dτ
⊥
∗
= Ker B ∗ eA (T −τ ) (·)
=
−∞

⊥
B∗
 B ∗ A∗ 
 = R(B
= Ker 
..


.
B ∗ A∗
AB
· · · An−1 B )
n−1
Le precedenti considerazioni conducono ad una semplice e completa caratterizzazione dell’insieme
degli stati raggiungibili. Esso coincide con il sottospazio generato dalle colonne linearmente indipendenti della matrice, (n × np), ( B AB · · · An−1 B ) detta matrice di raggiungibilità.
Se tale matrice ha rango n, tutti gli stati sono raggiungibili ed il sistema stesso è detto completamente raggiungibile. Il risultato messo in evidenza fornisce un test semplice e molto efficace.
Assegnato un sistema è infatti possibile con un semplice criterio indagare le “potenzialità” di intervento attraverso i canali di ingresso. L’insieme degli stati raggiungibili è un sottospazio dello spazio
di stato; esso coincide con il sottospazio generato dalle colonne linearmente indipendenti della matrice
di raggiungibilità.
E’ importante sottolineare come l’insieme dei raggiungibili a T non dipenda dal tempo. Ciò significa
che si può arrivare ad uno stato raggiungibile in un tempo arbitrario; ovviamente con ingressi più
ampi al diminuire di T .
è possibile esprimere analiticamente l’ingresso che consente di raggiungere lo stato xR al tempo
T . Non è difficile verificare mediante sostituzione diretta che tale ingresso assume l’espressione
∗
u(t) = B ∗ e−A t C −1 e−AT xR
ove si è indicato con C la matrice
C=
T
∗
e−At BB ∗ e−A t dt
0
che risulta non singolare sotto l’ipotesi di completa raggiungibilità.
Al fine di mettere in luce l’esistenza di una scelta delle coordinate rispetto alle quali la struttura delle
matrici manifesti la scomposizione del sistema in una parte raggiungibile ed una non raggiungibile, è
utile fare riferimento ad una formulazione geometrica dell’insieme degli stati raggiungibili.
53
3.3. Raggiungibilità
Proposizione 4. R è il più piccolo sottospazio invariante rispetto ad A (AR ⊂ R) e contenente
R(B).
3.3.a. Scomposizione rispetto alla raggiungibilità
Alla luce di questa caratterizzazione e nell’ipotesi che
(B
AB
· · · An−1 B ) = m < n,
mostreremo ora che rispetto a coordinate in cui i primi m vettori della base generano l’insieme degli
stati raggiungibili, la rappresentazione assume una scomposizione che mette bene in evidenza la
struttura interna.
Teorema 6. Se una rappresentazione non è tutta raggiungibile esiste una matrice T , non singolare
tale che
A11 A12
B1
−1
T AT =
, CT −1 = ( C1 C2 )
, TB =
0
A22
0
ove A11 è (m × m) ed i blocchi hanno dimensioni consistenti. Inoltre (A11 , B1 , C1 ) rappresenta il
sottosistema raggiungibile
ρ ( B1
A11 B1
· · · Am−1
11 B1 ) = m
La dimostrazione di questo risultato ricalca le linee di quello corrispondente rispetto all’osservabilità
ed è fondato sulle proprietà geometriche messe in luce nella proposizione precedente. Se T è una
trasformazione di coordinate che fissa una base dei raggiungibili come primi m vettori delle nuove
coordinate, la rappresentazione del generico stato raggiungibile avrà solo le prime m componenti
non nulle, poiché T B è contenuto nell’insieme dei raggiungibili le sue colonne hanno tale struttura;
l’invarianza rispetto alla matrice dinamica impone la sua struttura e poi il calcolo dei raggiungibili
nelle nuove coordinate la completa raggiungibilità del sottosistema S1 . Si noti che posto
z=
z1
z2
il sistema è descritto dalle equazioni seguenti
ż1 = A11 z1 + A12 z2 + B1 u
ż2 = A22 z2
y = C1 z1 + C2 z2
54
3. Le proprietà geometriche dello spazio di stato
z
10
S
z
u
1
S
1
+
y
z
+
2
S
2
z
z
2
0
Figura 3.2
La scomposizione è bene messa in evidenza dalle nuove coordinate. S1 è tutto raggiungibile
mentre S2 non è raggiungibile. Come suggerisce l’intuizione la risposta forzata, z10 = 0 e z20 = 0,
deve dipendere da S1 solamente. Infatti
−1
W (t) = CeAt B = CT −1 eT AT t T B =
A11 A12 t
B1
0
A
22
= ( C1 C2 ) e
= C1 eA11 t B1 .
0
3.3.b. La controllabilità
Una proprietà analoga alla raggiungibilità è la controllabilità degli stati. Uno stato, xC , è controllabile
a T se esiste un ingresso che lo porta a zero al tempo T . Per le rappresentazioni lineari e stazionarie
si può mostrare che sono controllabili tutti e soli gli stati raggiungibili.
Se infatti uno stato, xT , è raggiungibile a T , essendo l’insieme degli stati raggiungibili un sottospazio dello spazio di stato invariante rispetto ad A, anche lo stato −eAT xT è raggiungibile; quindi
esiste un ingresso,uT (·) tale che
AT
e
T
xT +
eA(T −τ ) BuT (τ )d(τ ) = 0
0
il che prova la controllabilità a T di xT .
3.3.c. Modi eccitabili e scomposizione
La scomposizione rispetto alla raggiungibilità lascia intuire che ci debba essere un legame molto
forte con l’eccitabilità dei modi naturali. Come già osservato in precedenza, l’esistenza di un legame
55
3.3. Raggiungibilità
in tal senso è suggerita dall’osservazione che le rappresentazione del sistema nelle coordinate z è
equivalente a quella nelle coordinate x; essa ha quindi gli stessi modi naturali diversamente raggruppati
nei sottosistemi S1 ed S2 . Ovviamente quelli in S2 non sono certamente eccitabili, quelli in S1
potrebbero esserlo.
Anche in questo caso, per un esame più preciso della situazione è necessario introdurre alcuni
preliminari. Innanzitutto si osservi che poiché l’insieme degli inossedrvabili è il più piccolo sottospazio
invariante rispetto ad A che è contiene l’immagine di B
Proposizione 5. Esiste un sottospazio U contenente l’immagine di B ed invariante rispetto ad A se
e solo se il sistema non è tutto raggiungibile.
Ciò premesso è possibile mostrare che
Teorema 7. Una condizione equivalente di completa raggiungibilità di S è che
ρ(B
(sI − A) ) = n
La precedente condizione è nota come condizione di osservabilità di Popov- Belevitch-Hautus
(PBH).
Per quanto riguarda la dimostrazione della necessità basta osservare che se la condizione non è soddisfatta e la matrice di PBH è singolare, ciò che può accadere per s = λi , allora esisterebbe un sottospazio
invariante rispetto alla dinamica contenente l’immagine di B. La sufficienza segue dal fatto che se il
sistema non è tutto raggiungibile, e quindi esiste un sottospazio invariante contenente l’immagine di
B, esiste un autospazio contenente l’immagine di B e la condizione di Popov-Belevitch-Hautus non è
soddisfatta per s coincidente con il corrispondente autovalore.
Teorema 8. Siano i modi naturali tutti distinti (molteplicità algebrica uguale a quella geometrica).
S è raggiungibile se e solo se tutti i modi naturali sono eccitabili.
Per la dimostrazione si pensi A in forma di Jordan e ci si riferisca al test di raggiungibilità appena
introdotto.
Si osservi che il sottosistema raggiungibile è caratterizzato da tutti e soli i modi eccitabili.
Nel caso generale si può affermare che
Proposizione 6. Se S è raggiungibile allora tutti i modi naturali sono eccitabili.
Si pensi sempre al test precedente con A in forma di Jordan.
E’ importante osservare che se ci si riferisce ad una condizione di eccitabilità più forte, quella indicata nel capitolo quarto come condizione geometrica di eccitabilità, non è difficile rendersi conto che
le condizioni enunciate mantengono la loro validità nel caso generale. Precisamente: S è raggiungibile
56
3. Le proprietà geometriche dello spazio di stato
se e solo se tutti i modi naturali soddisfano la condizione geometrica di eccitabilità; il sottosistema
raggiungibile è caratterizzato da tutti e soli i modi che soddisfano alla condizione geometrica di osservabilità.
Per concludere lo studio della proprietà di raggiungibilità alcune considerazioni sul significato fisico.
Anche qui faremo riferimento a due diverse situazioni. La non completa raggiungibilità del sistema
corrisponde, dal punto di vista dell’introduzione della rappresentazione con lo stato per descrivere un
assegnato sistema dinamico, ad una ridondanza dello stato per avere, ad esempio, descritto legami
equivalenti con relazioni diverse. Dal punto di vista operativo e della teoria del controllo, ammesso
di non essere incorsi in errori di modellistica del processo o fenomeno dato, la raggiungibilità esprime
le potenzialità di intervento attraverso i canali di ingresso disponibili.
3.4. La struttura interna di un sistema lineare a dimensione finita
Con una trasformazione di coordinate che ordini opportunamente i nuovi vettori di base collegandoli ai quattro sottospazi che possono essere definiti a partire da I e R, si mette bene in evidenza la
struttura interna di una rappresentazione lineare stazionaria a dimensione finita. Il risultato dovuto
allo studioso R.E. Kalman si enuncia
Teorema 9. In opportune coordinate una rappresentazione lineare stazionaria a dimensione finita è
descritta da una terna di matrici che manifestano la seguente struttura

A11
 0

0
0
A12
A22
0
0
A13
0
A33
0

A14
A24 
 , ( 0 C2
A34
A44

0

B1
B 
C4 ) ,  2 
0
0
La dimostrazione è costruttiva e riposa sulla proprietà geometriche messe in evidenza nelle proposizioni precedenti.
Siano χ1 , χ2 , χ3 e χ4 i quattro sottospazi definiti dalle seguenti relazioni
χ1 : χ1 : = R ∩ I
χ2 : χ1 ⊕ χ2 = R
χ3 : χ1 ⊕ χ3 = I
χ4 : χ1 ⊕ χ2 ⊕ χ3 ⊕ χ4 = Rn
sia dimχi = ni , i = 1, . . . , 4. Sia T una trasformazione che assume nell’ordine i nuovi vettori di base
come: n1 generatori di χ1 , n2 generatori di χ2 , n3 generatori di χ3 , n4 generatori di χ4 .
57
3.4. La struttura interna di un sistema lineare a dimensione finita
X
X
3
=
IR

X

O
P
X

I
Figura 3.3
Usando argomentazioni analoghe a quelle impiegate per trovare la struttura delle scomposizioni
precedenti, argomentazioni fondate sulle proprietà geometriche degli insiemi di stati cosı̀ trovati, non
è difficile verificare la struttura delle matrici nelle nuove coordinate.
Alle strutture delle matrici corrisponde la struttura interna messa in evidenza nella seguente
figura.
58
3. Le proprietà geometriche dello spazio di stato
u
z S
S
1
1
z S
2
2
+
z S
y
3
3
+
z S
4
4
z
Figura 3.4
Le evoluzioni di S1 , S2 , S3 e S4 possono essere facilmente interpretate. Si noti che come suggerisce
l’intuizione il legame forzato dipende solo da S2 . Infatti
W (t) = CeAt B = CT −1 eT AT
−1
t
T B = C2 eA22 t B2
La scomposizione individuata chiarisce la struttura interna, inoltre in base allo studio effettuato in
precedenza rimane dimostrato che
Teorema 10. Il sottosistema S2 è caratterizzato da tutte e sole le leggi temporali dei modi simultaneamente eccitabili ed osservabili. S2 descrive quindi una rappresentazione di dimensione minima
tra quelle possibili.
3.5. Le particolarità dei sistemi a tempo discreto
La trattazione sinora condotta può essere ripetuta per i sistemi a tempo discreto con la sola
avvertenza di sostituire At al posto di eAt ; i risultati non cambiano.
Le sole differenze riguardano la dipendenza dal tempo della raggiungibilità di uno stato e della
corrispondente osservabilità dello stato iniziale cosı̀ come i legami tra osservabilità e ricostruibilità e
tra controllabilità e raggiungibilità.
Per quanto riguarda la raggiungibilità è molto facile comprendere per la struttura ricorsiva
delle equazioni che l’insieme degli stati raggiungibili in un intervallo di tempo fissato, sia T , è
R ( B · · · AT −1 B ), quindi uno stato raggiungibile può essere “ottenuto” (da x0 = 0 a t0 = 0)
59
3.6. Sugli zeri della funzione di trasferimento
in al più n istanti di tempo. Analoghe considerazioni possono essere fatte in merito allosservabilità di
uno stato iniziale a partire dalle osservazioni dell’uscita.
Per quanto riguarda i legami tra osservabilità e ricostruibilità. Non è difficile verificare che un
sistema può essere ricostruibile senza essere osservabile, ma non viceversa. Come esempio si consideri
la coppia di matrici
A=
1
1
1
1
, C = (1
1)
che caratterizzano un sistema certamente non osservabile, ma costruibile. Infatti da y(−1) = x1 (−1)+
x2 (−1) risulta x1 (0) = y(−1) e x2 (0) = y(−1). Le due proprietà sono equivalenti se A è non singolare.
Infine per quanto riguarda i legami tra controllabilità e raggiungibilità valgono considerazioni
analoghe alle precedenti.
La raggiungibilità implica la controllabilità, ma non viceversa. Come esempio si consideri la
coppia di matrici
A=
1
1
1
1
1
, B=
1
che caratterizzano un sistema certamente non tutto raggiungibile, ma controllabile. E’ infatti evidente
che l’ingresso u(0) = x1 (0) + x2 (0) porta lo stato a zero in un solo istante di tempo. Anche in questo
caso le due proprietà sono equivalenti se A è non singolare.
3.6. Sugli zeri della funzione di trasferimento
Come già messo in luce nel capitolo quinto gli zeri di trasmissione di un sistema dinamico sono
quei valori complessi, s∗, in corrispondenza dei quali si non ha rango massimo la cosiddetta matrice
di sistema
s ∗ I − A −B
ρ
= n + (p, q)∗
C
0
dove con (p, q)∗ si è indicato il più piccolo tra p e q ed n indica la dimensione della matrice A.
Se si assume che s∗ non coincida con alcun autovalore di A, l’annullarsi del determinante della
matrice di sistema comporta l’esistenza di una coppia (x = 0, u = 0) tale che
(s ∗ I − A)x − Bu = 0
Cx = 0
cioè
C(s ∗ I − A)−1 Bu = 0
Quindi s∗ annulla tutti i determinanti dei minori di W (s) di dimensione (p, q)∗ ed è quindi uno zero
secondo la definizione data nel capitolo quinto.
Se s∗ coincide con un autovalore di A allora, necessariamente il sistema non è raggiungibile e/o
osservabile. Non è, infatti, difficile verificare impiegando i criteri PBH che il sistema è raggiungibile
60
3. Le proprietà geometriche dello spazio di stato
e osservabile se e solo se la matrice di sistema in s = λ ha rango pieno. Se quindi s∗ è autovalore
ed annulla la matrice di sistema, il sistema non è tutto raggiungibile e/o osservabile ed s∗ è zero
coincidente con un polo (si ricordi che la perdita di raggiungibilità e/o osservabilità si traduce in una
riduzione della dimensione del polinomio a denominatore della W (s) rispetto alla dimensione do A,
ciò che può avvenire solo a seguito di un fenomeno di ”cancellazione” con uno zero di W (s)).
4. Elementi di teoria della stabilità
La teoria della stabilità riveste un ruolo particolarmente importante nello studio dei sistemi
dinamici. Essa costituisce un importante complesso di metodi di analisi qualitativa; si tratta di quei
metodi che consentono di studiare le proprietà delle soluzioni di sistemi dinamici senza procedere al
calcolo delle soluzioni stesse.
Cosa accade a seguito di una modifica delle condizioni in cui opera un fissato sistema ? L’effetto
è della stessa entità della perturbazione ? Vengono mantanute le principali caratteristiche di comportamento ? Sono queste le circostanze che sono assunte a specificare la modalità di un comportamento
stabile.
Stabilità, dunque, come quella proprietà delle evoluzioni di modificare di poco l’andamento a
seguito di perturbazioni: tanto più piccole le perturbazioni tanto più piccoli gli scostamenti delle
evoluzioni perturbate da quelle non perturbate. E’ necessario precisare cosa si intende per perturbazioni, variazioni delle condizioni operative. Se si osserva che un dato sistema è caratterizzato da
relazioni matematiche e da fissati valori dei parametri e che un’evoluzione è fissata una volta fissato
uno stato iniziale ed una funzione d’ingresso, si comprende che una perturbazione può concretizzarsi
in variazioni dei parametri rispetto a valori che sono usualmente definiti ”nominali”, in variazioni
dello stato iniziale oppure in variazioni dell’ingresso. In questo ampio contesto viene qui affrontato lo
studio della stabilità rispetto a perturbazioni sullo stato iniziale: la stabilità degli stati di equilibrio
(stabilità interna), nonchè il collegamento con la proprietà di stabilità ingresso-uscita, una proprietà
relativa alla limitatezza delle evoluzioni in uscita a seguito di perturbazioni in presenza di ingressi
limitati (stabilità esterna).
Lo studio della stabilità degli stati di equilibrio fa riferimento alla teoria di Lyapunov, matematico
ed ingegnere russo che all’inizio del secolo ha gettato le fondamenta della teoria che porta il suo
nome. Uno stato di equilibrio è stabile se le evoluzioni che hanno origine nelle vicinanze restano
nelle vicinanze; instabile altrimenti. Asintoticamente stabile se le evoluzioni non solo restano nelle
vicinanze, ma ritornano sullo stato di equilibrio al crescere del tempo.
Non viene qui affrontato il caso di perturbazioni sui parametri; la cosiddetta stabilità strutturale.
L’assenza di stabilità strutturale rappresenta una ’patologia’ interessante; è intatti possibile che un
62
4. Elementi di teoria della stabilità
dato modello matematico a seguito di piccole perturbazioni di uno o più parametri manifesti comportamenti molto diversi rispetto alla situazone nominale. Si usa dire in tal caso che il modello non
è strutturalmente stabile. Questo studio ha risvolti applicativi molto importanti in quanto fornisce
il quadro formale per interpretare fenomeni reali complessi che a seguito di insignificanti modifiche
ambientali subiscono modifiche catastrofiche o danno vita a comportamenti caotici. La teoria delle
catastrofi e lo studio del caos, che hanno negli ultimi anni suscitato interesse ed acquisito credito nella
interpretazione di fenomeni fisici di diversa natura, sono fondati su tali aspetti.
La trattazione che segue prende le mosse dalle definizioni principali per arrivare all’enunciazione
delle condizioni che ne garantiscono il soddisfacimento fino alla presentazione dei criteri di verifica. A
partire dal metodo generale di Lyapunov, si passa allo studio dei sistemi lineari ed all’indagine sulla
collocazione degli autovalori, per ritornare allo studio della stabilità dei sistemi nonlineari mediante
l’esame del modello lineare tangente (approssimazione lineare). La trattazione è diffusa per i sistemi
a tempo continuo e succinta per il tempo discreto. Lo studio della stabilità dei sistemi interconnessi
lineari conclude il capitolo.
4.1. Definizioni
Si consideri il seguente sistema di equazioni differenziali, che descrive l’evoluzione nello stato di un
sistema regolare a dimensione finita
ẋ(t) = f t, x(t), u(t)
(4.1)
e si supponga che in ogni punto di una fissata regione Ω la soluzione di (4.1) sia una funzione continua
di (x0 , t0 ).
Una coppia stato - ingresso (costante), (xe , ue ), è detta di equilibrio se l’evoluzione ad essa
associata rimane confinata in xe ; in formule
f (t, xe , ue ) = 0
(4.2)
Poiché siamo interessati a studiare l’effetto di perturbazioni sullo stato iniziale, nel seguito supporremo, senza perdita di generalità, che ue = 0. Ciò significa che faremo riferimento al sistema
ẋ(t) = f t, x(t)
f (t, xe ) = 0
(4.3)
Inoltre indicheremo con S(xe , R) ed C(xe , R) la regione sferica aperta dello spazio di stato di centro
xe e raggio R ed il suo contorno sferico, rispettivamente. Assumeremo che in Ω = S(xe , A), le
componenti di f , fi (t, x), siano derivabili rispetto ad x con derivate continue. Indicheremo con gx0
la traiettoria per x0 , con g + quella per tempi positivi e con g − quella per tempi negativi. x(t), come
usuale, rappresenterà lo stato at tempo t a partire da x0 al tempo t0 . Un cambiamento di variabile
nello stato che porta l’origine dello spazio in xe , z = x − xe , consente di definire un nuovo sistema
ż(t) = f˜(t, z(t))
f˜(t, 0) = 0
63
4.1. Definizioni
che ha un equilibrio all’origine. E’ dunque possibile senza perdita di generalità supporre che in (4.3)
sia xe = 0.
4.1.a. Stabilità dell’equilibrio
Definizione 1. Lo stato di equilibrio, xe , di (4.3)
• è stabile se per ogni fissato numero reale ε > 0 esiste un altro numero reale δ > 0, eventualmente
dipendente da ε e da t0 , tale che se x0 − xe < δε,t0 , allora:
x(t) − xe < ε,
∀t ≥ t0 .
(4.4)
• è instabile se non è stabile.
• La stabilità è detta uniforme se nelle precedenti relazioni le entità coinvolte non dipendono da
t0 .
Per un sistema stazionario
ẋ(t) = f x(t)
f (xe ) = 0
(4.5)
la proprietà di stabilità si riconduce a quella di stabilità uniforme.
Per meglio comprendere la precedente definizione con l’ausilio di una figura si pensi all’origine
del piano come stato di equilibrio di un assegnato sistema. Tale stato di equilibrio è :
• stabile se per ogni < A esiste δ ≤ tale che se x0 è in S(δ) allora gx+0 resta in S(); cioè ogni
evoluzione che muove da S(δ) non raggiunge la frontiera, C(), di S() (figura (8.1a);
• instabile se esiste un tale che per ogni δ, non importa quanto piccolo, esiste sempre in S(δ) un
x0 tale che la traiettoria gx+0 raggiunge C() (figura (8.1b).
Si osservi che in generale un assegnato sistema può avere più stati di equilibrio e che la proprietà
di stabilità può sussistere per alcuni e non per altri.
A titolo di esempio si consideri il pendolo rigido di lunghezza l e massa m studiato nel terzo
capitolo. Si assuma in questo primo caso che non vi sia attrito dinamico (k = 0). Per tale sistema
nelle variabili di stato (angolo, velocità angolare) vi sono infiniti stati di equilibrio corrispondenti alla
posizione verticale verso il basso, (2kπ, 0), k ≥ 0, ed alla posizione verticale verso l’alto (kπ, 0), k ≥ 1,
come l’intuizione suggerisce e risulta dal calcolo a partire dal modello matematico
ẋ1 (t) = x2 (t)
ẋ2 (t) =
−g
senx1 (t).
l
Non è difficile comprendere che gli stati di equilibrio del primo tipo sono stabili, infatti le evoluzioni
nello spazio di stato sono periodiche e possono essere mantenute interne ad una generica sfera centrata sull’equilibrio a patto di imporre perturbazioni sufficientemente piccole, mentre quelli del secondo tipo sono instabili, infatti una perturbazione comunque piccola conduce ad un allontanamento
dall’equilibrio.
64
4. Elementi di teoria della stabilità
4.1.b. La stabilità del moto
Allo studio della stabilità dell’equilibrio si riconduce lo studio di una proprietà più generale: la
stabilità di un moto. Un moto a partire da una condizione iniziale x0 = x(t0 ), ed un ingresso, u0 (·),
è definito come l’insieme
M = { t, x(t) ∈ T × X | t ≥ t0 , x(t) = ϕ(t, t0 , x0 , u)}.
E’ facile rendersi conto del significato della seguente definizione di stabilità di un moto.
Definizione 2. Un moto M è stabile se ∀ε, esiste un δε,t0 tale che se xp0 (t) − x0 < δε,t0 , allora
xp (t) − x(t) < ε, ove xp (t) indica la traiettoria del moto perturbato con stato iniziale xp0 . Il moto
è stabile asintoticamente se è stabile ed inoltre lim xp (t) − x(t) = 0.
t→∞
Lo studio della stabilità di un moto può essere condotto indicando con x(t) e xp (t) le evoluzioni
corrispondenti a stato iniziale x0 e xp0 e ponendo
xp (t) = x(t) + ξ(t)
ove ξ(t) indica l’evoluzione perturbata . Tale variabile è soluzione della seguente equazione differenziale
˙ = ẋp (t) − ẋ(t) = f t, xp (t) + ξ(t), u0 (t) −f t, x(t), u0 (t) = g t, ξ(t)
ξ(t)
che ammette ξ = 0 come stato di equilibrio. La stabilità di tale equilibrio equivale alla stabilità del
moto del sistema originario, come è immediato verificare dalla definizione stessa. In conclusione lo
studio della stabilità di un moto può essere ricondotto allo studio della stabilità dell’origine dello
spazio di stato del sistema che descrive la dinamica perturbata. Si osservi che quest’ultimo sistema è
caratterizzato da una funzione generatrice g dipendente dal particolare ingresso fissato.
4.1.c. La stabilità asintotica
Definizione 3. Lo stato di equilibrio, xe , di (4.3) è asintoticamente stabile se è stabile e vale la
seguente proprietà di equiasintoticità: esiste δa > 0, eventualmente dipendente da t0 , tale che se
x0 − xe < δa,t0 allora risulta:
lim x(t) − xe , = 0.
(4.6)
t→∞
Ancora con riferimento ad unsistema definito sul piano con lo stato zero di equilibrio la stabilità
asintotica impone anche che ogni traiettoria gx+0 che parte da S(δ0 ) per un qualche δ0 > 0 tenda
all’origine al crescere del tempo (figura (8.2);
A titolo di esempio si consideri ancora la dinamica di un pendolo assumendo in questo caso che
sia presente un attrito dinamico (k = 0); ciò che rende il sistema dissipativo. Le equazioni diventano
ẋ1 (t) = x2 (t)
65
4.1. Definizioni
g
k
ẋ2 (t) = − senx1 (t) − x2 (t)
l
m
e si hanno gli stessi stati di equilibrio. Come l’intuizione ci suggerisce gli stati di equilibrio (2kπ, 0),
k ≥ 0, corrispondenti alla posizione verticale verso il basso sono asintoticamente stabili, in quanto le
evoluzioni nello spazio di stato sono periodiche e smorzate, mentre (kπ, 0), k ≥ 1, corrispondenti alla
posizione verticale verso l’alto, rimangono instabili.
Si osservi che ha senso indagare sulla stabilità asintotica di uno stato di equilibrio solo se esso
è isolato, cioé non è punto di accumulazione di altri stati di equilibrio. Ser ciò non fosse, infatti,
comunque fissato un suo intorno esisterebbe in esso almeno un altro stato di equilibrio che, assunto
come perturbazione, darebbe vita ad un evoluzione costante che non tende allo stato di equilibrio
originario.
A questo proposito è importante osservare che una condizione sufficiente affinché uno stato di equilibrio
sia isolato è che la matrice iacobiana del sistema calcolata nello stato di equilibrio sia non singolare (la
dimostrazione di questo risultato può facilmente essere ottenuta utilizzando al teorema della funzione
implicita sulla funzione y − f (x)). Si tratta di una condizione sufficiente come si può verificare
riferendosi alla semplice situazione di un sistema scalare con funzione generatrice f (x) = x3 . In
questo caso lo stato x = 0 è di equilibrio, è isolato ed anche unico, ma la condizione citata non è
soddisfatta. Ciò accade in quanto lo zero è soluzione isolata, ma non unica (ha molteplicità pari a
tre) e la condizione citata viene meno in tale circostanza.
Un caso particolare e di interesse nelle applicazioni è quello in cui si ha stabilità asintotica e il
ritorno sullo stato di equilibrio avviene con una tendenza esponenziale.
Definizione 4. Lo stato di equilibrio, xe , di (4.3) è esponenzialmente stabile se esiste λ > 0 e per
ogni fissato ε > 0 esiste un δε > 0 tale che se x0 − xe < δε allora:
x(t) − xe < εe−λ(t−t0 ) ,
∀t > t0 .
(4.7)
.
In altre parole x(t) tende ad xe secondo una legge che ammette una maggiorante esponenziale.
Non è difficile mostrare che la stabilità esponenziale implica quella asintotica uniforme, ma non
vale il viceversa.
4.1.d. La stabilità globale
Le proprietà di cui si è parlato hanno una validità locale; sono cioè proprietà che riguardano il
comportamento per piccole perturbazioni.
66
4. Elementi di teoria della stabilità
Definizione 5. Lo stato di equilibrio, xe , di (4.3) è globalmente asintoticamente stabile se xe è stabile
e
∀k > 0 x(t0 ) − xe < k ⇒ lim x(t) − xe = 0.
t→∞
Comunque grande sia la perturbazione, l’evoluzione corrispondente resta limitata e tende ad xe .
A titolo di esempio si consideri il seguente sistema nel piano
ẋ1 = x2 ,
ẋ2 = −x1
Poiché xẋ + y ẏ = 0, le traiettorie sono le circonferenze che passano per la condizione iniziale e xe = 0,
unico stato di equilibrio, è globalmente stabile.
Inoltre è facile verificare che si ha la stabilità asintotica globale dell’origine per per il sistema planare
ẋ1 = −x1 ,
ẋ2 = −x2
4.2. La stabilità secondo Lyapunov
Introdotte le definizioni si tratta ora di comprendere come verificare il sussistere delle proprietà.
L’approccio impiegato nei semplici esempi trattati è fondato sull’esame delle caratteristiche delle
soluzioni e fa riferimento alle definizioni stesse. La generalizzazione di un tale approccio richiede il
calcolo delle soluzioni di (4.3), ciò che è in molti casi impossibile.
Le semplici argomentazioni impiegate per studiare la stabilità del pendolo possono essere riformulate in termini di concetti energetici e rappresentano il punto di partenza dell’approccio generale
proposto da Lyapunov per lo studio della stabilità dell’equilibrio.
Consideriamo l’energia associata al moto del pendolo data dalla somma dell’energia cinetica e
dell’energia potenziale
E(x) =
g
1
(1 − cosx1 ) + x2 2
l
2
ove il riferimento è fissato in modo che nell’equilibrio verso il basso sia E(0) = 0. In assenza di attrito
(k = 0) il sistema è conservativo, dunque E = c, costante, lungo il moto, ciò che corrisponde a dire che
dE
dt = 0 lungo le traiettorie. Dunque le evoluzioni mantengono l’energia costante ed avvengono sulle
curve di livello della funzione E(x) = c; queste ultime sono curve chiuse intorno ad x = 0, possiamo
quindi concludere che l’equilibrio è stabile. In presenza di attrito (k > 0) il sistema è dissipativo, ciò
che corrisponde a dE
dt ≤ 0 lungo le evoluzioni. Dunque E non può restare costante indefinitamente,
decresce fino a raggiungere il valore nullo ciò che corrisponde a dire che l’evoluzione tende all’equilibrio
(x = 0) per t → ∞.
67
4.2. La stabilità secondo Lyapunov
La formalizzazione di queste considerazioni induce a fondare la verifica della stabilità degli stati di
equilibrio di un sistema fisico sullo studio della funzione energia intorno all’equilibrio; se, in particolare,
essa è non crescente si ha stabilità, se è decrescente si ha stabilità asintotica.
Alla fine del secolo scorso, Lyapunov ha generalizzato questo concetto dimostrando che altre
funzioni possono essere impiegate al posto della funzione energia per verificare la stabilità.
Faremo riferimento, in quanto segue, ad una rappresentazione nonlineare stazionaria con stato
di equilibrio xe
ẋ(t) = f (x(t))
f (xe ) = 0
4.2.a. Le funzioni di Lyapunov
Poiché come si è accennato il criterio si ispira a concetti energetici un ruolo particolarmente
importante è svolto dalle funzioni cosiddette definite positive.
Definizione 6. Una funzione scalare V (x) è definita positiva in S(xe , R) se si annulla in xe ed è positiva in ogni altro punto dell’intorno. Si dice semidefinita positiva se si annulla in xe ed è non negativa
in ogni altro punto dell’intorno. Infine V (x) si dice definita negativa ovvero semidefinita negativa
in un intorno se la funzione −V (x) è definita positiva ovvero semidefinita positiva in quell’intorno.
Indicheremo con V (x) > 0 una funzione definita positiva, con V (x) < 0 una funzione definita negativa
e con V (x) ≥ 0, e V (x) ≤ 0, funzioni semidefinite, positive e negative, rispetivamente
Un esempio elementare di funzione definita positiva in tutto Rn rispetto ad xe è dato dalla seguente
funzione


xe1
n
.
V (x) =
(xi − xei )2 .
xe =  ..  stato di equilibrio
i=1
xen
Il prototipo di tutte le funzioni definite positive è la funzione quadratica
V (x) =
n
ei (xi − xei )2
ei > 0
i=1
Un caso più generale è quello in cui si considera la forma quadratica matriciale:
V (x) = (x − xe )T P (x − xe ),
(4.8)
dove P senza perdita di generalità è assunta simmetrica. E’ infatti evidente che se cosı̀ non fosse si
potrebbe considerare la forma quadratica:
V (x) = (x − xe )T P (x − xe ) + (x − xe )T P T (x − xe ) =
= (x − xe )T
P + PT
2
(x − xe ),
68
4. Elementi di teoria della stabilità
T
e dunque sostituire P con la matrice simmetrica P + P .
2
Se la forma quadratica cosı̀ definita è positiva si usa dire che la matrice è positiva, P > 0, e viceversa.
E’ possibile stabilire con un criterio algebrico se P > 0 e quindi se la forma quadratica associata è
definita positiva. La condizione, nota come condizione di Sylvester, afferma che una matrice simmetrica P è definita positiva se e solo se i suoi n minori principali sono positivi:
p11 > 0,
p11
p12
p12 > 0,
p22 p11
p12
p13
p12
p22
p23
p13 p23 > 0,
p33 ···,
det P > 0.
Come si è gia detto il criterio di Lyapunov si ispira a considerazioni energetiche; una funzione
definita positiva viene assunta a rappresentare ’virtualmente’ il ruolo di energia intorno all’equilibrio
ed è necessario calcolare una tale funzione lungo le evoluzioni del sistema. In particolare, se ricordiamo
le considerazioni precedenti, è necessario calcolare le variazioni di tale funzione lungo le evoluzioni del
sistema. E’ dunque necessario calcolare la derivata lungo il moto di una data funzione V (x). Questa
si calcola mediante la seguente espressione
d
∂V dx
V (x(t)) =
·
=
dt
∂x dt
 ẋ1 
n
∂V
∂V
∂V
∂V
.
...
fi (x) =
·  ..  =
f (x)
∂x1
∂xn
∂xi
∂x
i=1
ẋn
.
Ciò premesso, se si immagina di associare ad ogni stato intorno all’equilibrio un livello di energia
positivo, la stabilità risulta dalla diminuzione del livello di energia lungo le evoluzioni del sistema. Se,
quindi, si immagina di associare allo stato xe un livello energetico nullo ed inoltre di associare agli
stati intorno ad xe un livello energetico superiore (V (x) > 0), alle evoluzioni libere che partono dagli
stati intorno ad xe dovrà corrispondere una diminuzione dell’energia. Questa considerazione giustifica
la seguente definizione
Definizione 7. funzione di Lyapunov. Una funzione V (x) > 0, continua assieme alle sue derivate
parziali prime in una fissata regione S(xe , R), è detta una funzione di Lyapunov (una funzione asintotica di Lyapunov) per il sistema se la sua derivata lungo il moto è semidefinita (definita) negativa
nello stesso intorno.
4.2.b. Il criterio di Lyapunov
Siamo ora in grado di formulare il risultato fondamentale noto come criterio di Lyapunov.
69
4.2. La stabilità secondo Lyapunov
Teorema 1. Se in un intorno S(xe , R) è definita una funzione di Lyapunov (una funzione di Lyapunov
asintotica) per il sistema allora xe è localmente stabile (asintoticamente stabile).
Dimostrazione Ci riferiremo per semplicità allo stato di equilibrio xe = 0. Assegnato ε > 0
sia S(r), 0 < r ≤ ε < R, e sia α = minC(r) V (x). Risulta α > 0 e sia
Ωβ = x ∈ S(r) : V (x) ≤ β
β<α
Poiché Ωβ è contenuto strettamente in S(r), ogni traiettoria che parte da Ωβ a t = 0 resta in Ωβ
t ≥ 0.
Poiché, inoltre V (x) è continua e vale zero in zero, esiste δ > 0 tale che S(δ) ⊂ Ω(β) ⊂ S(r). Si
ha cioé la stabilità
x0 < δ
⇒
x(t) < ε
t ≥ t0 .
Mostreremo ora che se V (x) è una funzione asintotica di Lyapunov, comunque fissato a esiste T
tale che x(t) < a, ∀t > T , cioé x(t) → 0 quando t → ∞. Infatti con gli stessi argomenti di prima
esiste b > 0 tale che Ωb ⊂ S(a), basta quindi mostrare che V (x(t)) → 0 quando t → ∞. Ma poichè
V (x(t)) è monotona decrescente ed inferiormente limitata da zero, V (x(t)) → c ≥ 0 quando t → ∞;
inoltre c = 0, perché se cosı̀ non fosse per la continuità di V (x) esisterebbe d > 0 con S(d) ⊂ Ωc .
V (x(t)) → c implicherebbe che la traiettoria x(t) rimane esterna alla sfera S(d) per ogni t ≥ 0. Posto
−γ = maxd≤x≤r V̇ (x) si avrebbe
t
Ẋ(x(τ ))dτ ≤ V (x(0)) − γt
V (x(t)) = V (x(0)) +
0
che contraddice l’assunto c > 0, potendo la quantità a secondo membro diventare positiva.
Si consideri di nuovo la dinamica di un pendolo in assenza di attrito
ẋ1 (t) = x2 (t)
ẋ2 (t) =
−g
senx1 (t)
l
e si consideri la funzione energia
1
g
(1 − cosx1 ) + x2 2
l
2
che è definita positiva per −2π < x1 < 2π. La sua derivata lungo il moto e pari a
E(x) =
Ė(x) =
g
g
g
ẋ1 senx1 + x2 ẋ2 = x2 senx1 − x2 senx1 = 0
l
l
l
E(x) è una funzione di Lyapunov e prova la stabilità dell’equilibrio verticale inferiore.
E’ opportuno precisare che esistono diversi risultati che esprimono i cosiddetti teoremi inversi.
Tali risultati sanciscono che sotto condizioni generali se lo stato di equilibrio di un assegnato sistema è
stabile allora esiste una funzione di Lyapunov. Ne risulta che l’esistenza di una funzione di Lyapunov è
condizione necessaria e sufficiente per la stabilità. Tuttavia, poichè è possibile provare l’esistenza di tali
70
4. Elementi di teoria della stabilità
funzioni senza fornire alcuna procedura costruttiva, questi risultati non sono di utilità nell’applicazione
del metodo che viene quindi espresso nella sua formulazione sufficiente. A questo proposito è usuale
affermare che il metodo di Lyapunov fornisce un criterio sufficiente di verifica della stabilità in quanto il
venire meno di una verifica a partire da un’assegnata funzione definita positiva non consente di trarre
alcuna conclusione. Esiste una vasta letteratura che affronta il problema di sviluppare strumenti
di ausilio nella costruzione di funzioni di Lyapunov per assegnate classi di sistemi. Un metodo di
interesse nelle applicazioni è quello cosiddetto del gradiente variabile. Tale metodo pesentato nel
testo di esercizi e complementi consiste nel consiste nel fissare la struttura, ma non i parametri, di
una funzione riservandosi di fissare i parametri in modo da renderla una funzione di Lyapunov per il
sistema. Si rinvia ad una letteratuta specialistica per un approfondimento di questi aspetti.
La dimostrazione precedente mette in luce che individuata una funzione asintotica di Lyapunov
in S(R), se Ωc = x ∈ Rn : V (x) ≤ c è limitato e contenuto in S(R) (Ωc ⊂ S(r)) allora ogni traiettoria
che parte da Ωc resta in Ωc e viene attratta dall’origine. Quindi Ωc individua una regione dello spazio
contenuta nella cosiddetta regione di attrazione associata all’equilibrio stabile. Ωc fornisce dunque una
prima stima della regione di attarzione. Quanto questa stima è conservativa ? Sotto quali condizioni
la regione di attarzione coincide con tutto lo spazio Rn ? Rinviando a testi specialistici per le risposte
alla prima domanda, limitiamoci a considerare la seconda che ci riconduce allo studio delle condizioni
sotto le quali si ha stabilità globale. Ritornando alla dimostrazione precedente è chiaro che si ha
stabilità asintotica globale se ogni punto in Rn può essere incluso in un insieme limitato Ωc , e questo
richiede che V (x) sia una fnzione di Lyapunov definita su tutto Rn . Ma questo in realtà non basta.
Infatti potrebbe accadere che per c grandi l’insieme Ωc non sia limitato. Ciò ad esempio accade con
la funzione
x1 2
V (x) =
+ x22
1 + x21
Una condizione aggiuntiva che garantisce che Ωc sia limitato per ogni c > 0 è la cosiddetta ”non
limitatezza radiale”.
Teorema 2. Se V (x) è una funzione di Lyapunov (una funzione di Lyapunov asintotica) radialmente
illimitata, cioé
lim V (x) = ∞
x→∞
allora xe risulta essere globalmente stabile (asintoticamente stabile).
Dimostrazione Fissato ad arbitrio un punto p ∈ Rn , sia c = V (p). La mancanza di limitazione
implica che per ogni c > 0 esiste r > 0 tale che V (x) > c per x > r; cioè Ωc , ⊂ S(r) è limitato. Ciò
detto si possono ripetere gli argomenti usati nella dimostrazione precedente.
A titolo di esempio si consideri
ẋ1 = −x1 x22
ẋ2 = −x32
⇓
k
xe =
0
71
4.2. La stabilità secondo Lyapunov
0
= xe
0
stato
di
equilibrio
V (x) = x21 + x22
V̇ (x) = 2x1 ẋ1 + 2x2 ẋ2
= −2x21 x22 − 2x42 = −2x22 (x21 + x22 ) ≤ 0
Si ottiene una funzione semidefinita positiva, possiamo dunque concludere che l’origine dello spazio di
stato è uno stato di equilibrio stabile. La funzione data è di Lyapunov in tutto lo spazio, è radialmente
illimitata, si ha dunque stabilità globale.
Come ulteriore esempio si consideri la dinamica dell’assetto di un corpo rigido in assenza di gravità.
Questo modello è assunto a descrivere la variazione dell’orientamento di un satellite rispetto ad un
riferimento inerziale. Se chiamiamo ω1 la velocità angolare attorno all’asse x, ω2 quella attorno
all’asse y, e ω3 quella attorno all’asse z e se si immagina che l’orientazione del satellite possa mutare a
seguito di coppie, τ1 , τ2 , τ3 , che vengono generate attorno agli assi principali di inerzia che supporremo
coincidenti con gli assi del sistema di riferimento, l’equazione della dinamica può essere scritta
J1 ω̇1 = (J2 − J3 )ω2 ω3 + τ1
J2 ω̇2 = (J3 − J1 )ω3 ω1 + τ2
J3 ω̇3 = (J1 − J2 )ω1 ω2 + τ3
J1 J2 J3 momenti di inerzia attorno all’asse x, y, z. Il criterio di Lyapunov permette di dimostrare che
è possibile arrestare il corpo applicandi su ciascun asse coppie proporzionali alla velocità angolare
attorno a quello stesso asse. Ciò equivale a verificare che con
τi = −ki ωi
i = 1, 2, 3
si ha stabilità asintotica globale dello zero dello spazio di stato, unico equilibrio per il sistema assegnato; il corpo, dunque tende ad arrestarsi indipendentemente dal valore iniziale della velocità
angolare (lo stato iniziale) al tempo t0 . A tal fine si consideri la seguente funzione definita positiva e
radialmente illimitata.
1
1
1
V (x) = J1 ω12 + J2 ω22 + J3 ω32
2
2
2
Derivando si verifica facilmente che tale funzione è definita negativa in tutto lo spazio. In conclusione
V (x) è una funzione di Lyapunov che soddisfa la condizione del Teorema 2 e lo stato ω = 0 è uno
stato asintoticamente, globalmente stabile, ciò che corrisponde alla tendenza all’arresto del corpo.
72
4. Elementi di teoria della stabilità
4.2.c. Alcuni approfondimenti
• Il teorema di La Salle
Un importante complemento di indagine è fornito dal teorema di La Salle. Tale risultato consente
di decidere della eventuale stabilità asintotica avendo a disposizione una funzione di Lyapunov non
asintotica. Ciò che, per l’esistenza del teorema inverso, equivale a chiedersi, sotto quali condizioni
l’esistenza di una funzione di Lyapunov assicuri l’esistenza du un’altra che è anche asintotica.
Per meglio comprendere l’interesse di un tale risultato si consideri ancora l’esempio del pendolo
in presenza di attrito
ẋ1 (t) = x2 (t)
ẋ2 (t) =
−g
k
senx1 (t) − x2
l
m
e si consideri ancora la funzione energia
g
1
(1 − cosx1 ) + x2 2
l
2
che è definita positiva per −2π < x1 < 2π. La sua derivata lungo il moto e pari a
E(x) =
Ė(x) =
g
g
g
k
ẋ1 senx1 + x2 ẋ2 = x2 senx1 − x2 senx1 = − x22
l
l
l
m
Ė(x) è essendo semidefinita negativa, è una funzione di Lyapunov e prova la stabilità dell’equilibrio
verticale inferiore, ma non la stabilità asintotica, che appare evidente debba sussistere in questo caso.
Siamo dunque nella condizione di avere una funzione di Lyapunov e ci domandiamo se per una
qualche strana circostanza non possiamo dedurre la stabilità asintotica. Situazioni di questo tipo si
presentano spesso nelle applicazioni.
A questo proposito è necessario premettere che un insieme invariante rispetto alla dinamica del
sistema, Ω, è un insieme di stati in cui rimangono confinate l’evoluzione che muovono da ciascuno di
essi.
Teorema 3. (La Salle) Se il più grande insieme invariante rispetto alla dinamica che è contenuto
nell’insieme di punti in cui si annulla la V̇ (t) coincide con xe allora xe è asintoticamente stabile.
La dimostrazione si riconduce alla verifica che le evoluzioni convergono sugli insiemi invarianti.
Non si avrà difficoltà ad applicare il risultato all’esempio del pendolo.
• Il criterio di Krasovskii
Un valido strumento di analisi di stabilità asintotica è il teorema di Krasovskii. Indicata con
J(x) la matrice iacobiana di f (x)
73
4.2. La stabilità secondo Lyapunov
Teorema 4. Se per ogni x gli autovalori della matrice J(x) + J T (x) hanno parte reale strettamente
negativa, allora lo stato di equilibrio xe = 0 è stabile asintoticamente globalmente.
A titolo di esempio si consideri il sistema
ẋ1 = −x1 + x3 u1 u2
ẋ2 = −x2 − x32 + k1 x3 + u1
ẋ3 = k2 x2 − x3 − x33 .
Lo stato zero è uno stato d’equilibrio isolato, poiché lo jacobiano J(x)x=0 è non singolare, inoltre
esso è anche l’unico stato di equilibrio. Per il sistema in esame si ha:

−1
J(x) =  0
0
e dunque
0
−3x22 − 1
k2

−2
J(x) + J T (x) =  0
0

0

k1
2
−3x3 − 1
0
−6x22 − 2
k1 + k2

0
k1 + k2 
−6x23 − 2
ha un autovalore indipendente da x e pari a λ1 = −2, mentre gli altri, per k1 = −k2 , risultano essere
λ2 = −6x22 − 2, λ3 = −6x23 − 2, i quali hanno parte reale inferiore a −α = 2 > 0.Per il teorema
enunciato si ha dunque la stabilità asintotica globale dello stato zero.
• Il teorema di Cetaev
Teorema 5. Se V (x) si annulla in xe , ha derivate parziali prime continue in Ω(xe ), assume valori
positivi in un insieme che ha xe come punto di accumulazione, la sua derivata lungo il moto è definita
positiva, allora lo stato di equilibrio è instabile.
Si consideri il seguente sistema del secondo ordine
ẋ1 = x1 + g1 (x)
ẋ2 = −x2 + g2 (x)
in cui g1 (·) e g2 (·) soddisfano in un intorno dell’origine
|gi (x)| ≤ x2
Poiché le condizioni precedenti implicano gi (0) = 0, l’origine è uno stato di equilibrio. Si consideri,
dunque la funzione
1
V (x) = (x21 − x22 )
2
74
4. Elementi di teoria della stabilità
che è positiva sui punti della retta x2 = 0 intorno all’origine; inoltre si ha
V̇ (x) = x21 + x22 + x1 g1 (x) − x2 g2 (x)
Poiché
|x1 g1 (x) − x2 g2 (x)| ≤ Σ21 |xi ||gi (x)| ≤ 2kx3
si ha
V̇ (x) ≥ x|2 − 2kx3 = x|2 (1 − 2kx)
1
in S(r) le condizioni del teorema di Cetaev sono soddisfatte e si ha instabilità dello stato
e per r < 2k
di equilibrio.
4.2.d. Sistemi non stazionari
V (x, t) è una funzione definita positiva se:
- V (x, t) è definita in Ω per ogni t ≥ 0
- V (0, t) = 0 per t ≥ 0
- V (x, t) domina W (x) > 0, cioè W (x) ≤ V (x, t) in ogni x in Ω e per ogni t ≥ 0.
Derivata lungo il moto
∂V
∂V
+
·f
∂t
∂x
Funzione di Lyapunov è una funzione definita positiva in Ω con derivata lungo il moto semidefinita
negativa in Ω.
I risultati si enunciano allo stesso modo.
V̇ (x, t) =
4.3. La stabilità dei sistemi lineari
Si noti che per un sistema lineare
ẋ(t) = A(t)x(t) + B(t)u(t)
gli stati di equilibrio sono quelli che soddisfano l’equazione:
0 = A(t)xe
e quindi (xe = 0), cioè l’origine dello spazio di stato, è sempre uno stato di equilibrio. Esso è unico
se e solo se la matrice dinamica è invertibile, cioè se il determinante di A(t) è diverso da zero. Se il
determinante è nullo in ogni istante di tempo gli stati di equilibrio sono un sottospazio dello spazio
di stato.
Nel caso dei sistemi lineari sussistono le seguenti proprietà:
1. l’insieme degli stati di equilibrio è un sottospazio dello spazio di stato ed in particolare l’origine
è sempre uno stato di equilibrio;
75
4.3. La stabilità dei sistemi lineari
2. le proprietà di stabilità di uno stato di equilibrio sono equivalenti a quelle di ogni altro (da cui la
possibilità di limitare lo studio allo stato zero); come conseguenza si parlerà di stabilità interna
come di una proprietà del sistema, non di un particolare stato di equilibrio;
3. la definizione di stabilità può essere indebolita, nel senso che è necessario e sufficiente che esista
una coppia di valori δ, ε che soddisfano la (4.4);
4. le proprietà di stabilità locale implicano quelle globali;
5. il sistema è stabile esponenzialmente se e solo se è uniformemente asintoticamente stabile.
La prima delle proprietà indicate è gia stata commentata. Per quanto riguarda la seconda,
l’equivalenza delle proprietà di stabilità degli stati di equilibrio, si noti che la linearità rispetto allo
stato dell’evoluzione libera consente di ricondurre l’ evoluzione perturbata rispetto ad un generico
stato di equilibrio ad un’evoluzione libera dello stesso sistema. Infatti,
x(t0 ) − xe < δ ⇒ x(t) − xe < ,
posto z = x − xe , equivale a
z(t0 ) < δ ⇒ ϕ(t, t0 , x0 − xe , 0) = x(t) − xe < Per quanto riguarda la terza delle proprietà citate basta osservare che se esiste una coppia di
valori δ, ε tali che
x(t0 ) < δ ⇒ x(t) < allora per ogni altro valore ε̃ = αε se si sceglie δ̃ = αδ la condizione di stabilità è soddisfatta.
Per quanto riguarda la validità in grande delle condizioni locali basta rivedere, per la stabilità
semplice, quanto detto al punto precedente e per il comportamento asintotico, che se
x(t0 ) < δa ⇒ lim x(t) = 0
t→∞
allora comunque fissato z0 = αx0
lim z(t) = lim αx(t) = 0
t→∞
t→∞
cioè la equiasintoticità globale.
4.3.a. La stabilità del moto
Le generalità insita nello studio della stabilità degli stati di equilibrio già messa in luce nel caso
generale è ancora maggiore nel caso dei sistemi lineari. Per tale classe di sistemi, infatti, la stabilità
dell’origine dello spazio di stato del sistema dato assicura la stabilità di ogni moto.
Il calcolo del sistema differenziale che esprime la dinamica della parturbazione rispetto ad un assegnato
moto, si riduce al seguente
76
4. Elementi di teoria della stabilità
ẋp (t) = A(t)xp (t) + B(t)u(t) = A(t)x(t) + A(t)ξ(t) + B(t)u(t)
e, quindi
˙ = A(t)ξ(t)
ξ(t)
Dunque si ottiene una dinamica che coincide con la dinamica del sistyema assegnato e non dipende
dall’ingresso. La stabilità dello stato zero di tale sistema equivale alla stabilità di un qualsiasi moto.
Poichè, come già osservato, nei sistemi lineari le proprietà locali si trasformano in globali e la
stabilità è invariante rispetto allo stato di equilibrio, per tale classe di sistemi si usa parlare di stabilità
interna del sistema riferendosi allo studio dello stato zero e restando inteso che tale proprietà ha una
valenza globale e riguarda tutti i comportamenti del sistema, sia stati di equilibrio che moti, rispetto
a perturbazioni dello stato iniziale.
4.3.b. Condizioni di stabilità per i sistemi lineari stazionari
x(t) = φ(t − t0 )x(t0 )
La condizione necessaria e sufficiente di stabilità si esprime in termini di limitatezza della norma della
matrice di transizione dello stato. Infatti
φ(t − t0 ) ≤ k
implica
x(t) ≤ φ(t − t0 ) · x(t0 ) ≤ kx(t0 )
da cui
⇒ x(t) ≤ k
k
k
Quindi se la matrice φ è limitata allora l’evoluzione libera è limitata; inoltre, se φ(t − t0 ) non fosse
limitata ci sarebbe almeno un elemento della matrice non limitato al variare di t, sia quello di posto
(i, j), al quale corrisponderebbe la componente i − ma dell’evoluzione libera illimitata a partire da
una condizione iniziale non nulla
xi (t) = φij (t − t0 )xj (t0 )
x(t0 ) <
Con gli stessi argomenti è facile verificare che condizione necessaria e sufficiente di stabilità asintotica
è che
lim φ(t − t0 ) = 0
t→∞
la dimostrazione è analoga sia per la sufficienza che per la necessità
Le condizioni di stabilità per i sistemi lineari stazionari, se si ricorda che la matrice di transizione
è l’esponenziale della matrice dinamica, si possono esprimere in termini di autovalori di A. Più in
77
4.3. La stabilità dei sistemi lineari
dettaglio ricordando che le componenti dell’esponenziale di matrice sono combinazioni lineari delle
leggi di moto dei modi naturali, la condizione φ(t) ≤ k, equivale a che gli autovalori a molteplicità
geometrica unitaria abbiano parte reale minore o uguale a zero, quelli a molteplicità geometrica
maggiore di uno, abbiano parte reale strettamente minore di zero. Se si richiede anche che:
lim φ(t − t0 ) = 0
t→∞
gli autovalori devono avere parte reale strettamente negativa. L’asse immaginario è la frontiera
che divide gli autovalori della matrice A in due categorie, quelli che danno luogo a modi naturali
convergenti e quelli che danno luogo a modi naturali divergenti.
In conclusione la condizione di stabilità si può esprimere come segue
Teorema 6. Un sistema lineare stazionario è
• internamente stabile se gli autovalori di A che hanno molteplicità geometrica uguale ed uno hanno
a parte reale non positiva e quelli che hanno molteplicità geometrica maggiore di uno hanno parte
reale negativa;
• asintoticamente stabile se gli autovalori hanno parte reale negativa.
In formule:
stabilità semplice
Re(λ1i ) ≤ 0
Re(λ>1
i )<0
stabilità asintotica
Re(λi ) < 0
dove l’apice sul simbolo di autovalore indica la molteplicità geometrica.
4.3.c. Criterio di Lyapunov per i sistemi lineari
Con le precedenti premesse sulle forme quadratiche possiamo enunciare il criterio di Lyapunov per i
sistemi lineari stazionari che fornisce una condizione necessaria e sufficiente.
Teorema 7. Un sistema lineare stazionario è asintoticamente stabile se comunque fissata una matrice
P , simmetrica e definita positiva, esiste ed è unica la soluzione nell’incognita Q, simmetrica e definita
positiva, della seguente equazione matriciale
A Q + QA = −P
Quindi fissata ad arbitro P , usualmente si assume P = I, si deve risolvere l’equazione nell’incognita
Q che dovrà essere soluzione unica, simmetrica e definita positiva. In caso affermativo si può asserire
che il sistema è stabile altrimenti si può asserire che il sistema non è stabile. Il risultato è quindi più
78
4. Elementi di teoria della stabilità
forte che non nel contesto non lineare in cui l’impossibilità di concludere a partire da una funzione
definita positiva non consente di dichiarare l’assenza della proprietà.
Dimostrazione La dimostrazione della sufficienza della condizione è costruttiva, se infatti per una
fissata P , esiste Q soluzione definita positiva, si assuma
V (x) = x Qx >
risulta
V̇ (x) = ẋ Qx + x Qẋ = x A Qx + x QAx = x (A Q + QA)x = −x P x < 0
Quindi V̇ (x) è una funzione definita negativa, e lo è in tutto lo spazio. Inoltre V è radialmente
illimitata quindi lo stato zero è stabile asintoticamente globalmente.
Per la necessità invece si suppone che gli autovalori di A abbiano parte reale negativa. Sotto questa
ipotesi, Re(λi ) < 0, è ben definita la matrice
∞
Q=
eA t P eAt dt
0
Q è soluzione dell’equazione, come si può verificare per sostituzione diretta, infatti
∞
∞
∞
∞
d(eA t P eAt ) = A
eA t P eAt dt +
eA t P eAt dt A = [eA t P eAt ]0 = −I
0
0
0
dove l’ultima uguaglianza segue dalla stabilità asintotica della matrice A. Inoltre Q è simmetrica,
perchè coincide con la sua trasposta, ed è anche positiva perchè se si considera la forma quadratica
associata:
∞
∞
∞
(eA t P eAt )dtx =
x (eA T P eAT )xdt =
z (t)P z(t)dt > 0 con z(t) = eAt x
x Qx = x
0
0
0
Per quanto riguarda l’unicità della soluzione si supponga che esista un’altra soluzione Q̃ = Q; risulterà,
in tal caso
A (Q − Q̃) + (Q − Q̃)A = O
Premoltiplicando per eA t e postmoltiplicando per eAt si ottiene
d eA t A (Q − Q̃) + (Q − Q̃)A eAt = eA t (Q − Q̃)eAt
dt
Dunque
eA t (Q − Q̃)eAt = c∀t
e poiché eAt → 0, t → ∞, c = 0, cioè
Q − Q̃ = 0
di
Il criterio fornisce una condizione necessaria e sufficiente fondata sulla risoluzione di un sistema
equazioni
0
1
A=
A Q + QA = −P
−5 −6
n(n+1)
2
79
4.4. Criteri di stabilità per i sistemi lineari: il criterio di Routh
0
1
−5
−6
Q11
Q12
Q12
Q22
+
Q11
Q12
Q12
Q22
0
−5
1
−6
=
−1
0
0
−1
Per risolvere questo sistema si devono scrivere le equazioni che corrispondono ad uguagliare i coefficienti delle matrici
−1 = −5q12 − 5q12
0 = −5q22 + q11 − 6q12
essendo le matrici simmetriche basta eguagliare gli elementi della diagonale, quelli che si trovano da
una parte con tutti quelli corrispondenti a secondo membro. Gli elementi sono n(n+1)
. Questo in
2
definitiva è il numero di equazioni che bisogna risolvere per applicare il criterio.
4.4. Criteri di stabilità per i sistemi lineari: il criterio di Routh
Il criterio di Routh consente di stabilire quanti sono gli zeri che hanno parte reale positiva di un dato
polinomio di grado n generico.
an λn + an−1 λn−1 + . . . + a0 = 0
Una considerazione preliminare deve essere fatta circa i coefficienti di un dato polinomio: si verifica
con facilità che se questi non hanno tutti lo stesso segno sicuramente ci sono degli zeri a parte reale
positiva. I coefficienti tutti dello stesso segno è quindi una condizione necessaria, ma ovviamente non
sufficiente, per garantire che tutti gli zeri abbiano parte reale negativa. Il soddisfacimento di questa
condizione deve quindi essere preliminarmente verificato, ed eventualmente imposto nella soluzione di
un problema in presenza di parametri, quando si vuole risolvere un problema di stabilità.
Se ad esempio il polinomio caratteristico di un sistema lineare del secondo ordine è
λ2 + (1 − k)λ + 2 = 0
la condizione k < 1 è necessaria (e nel caso in questione anche sufficiente) per la stabilità asintotica.
Il criterio di Routh si applica ad un polinomio qualsiasi e ci dice anche quanti zeri hanno parte
reale positiva. Esso consiste nella costruzione di una tabella e poi nella verifica del segno dei coefficienti
di una parte di questa tabella. Il criterio in esame estende la regola di Cartesio sulla corrispondenza
di soluzioni a parte reale positiva e negativa a variazioni e permanenze valutate sui coefficienti dei un
polinomio di secondo grado
ax2 + bx + c = 0
Nel caso specifico dell’equazione di secondo grado la regola di Cartesio si enuncia dicendo che ad ogni
variazione corrisponde una soluzione a parte reale positiva, ad ogni permanenza una a perte reale
negativa.
Costruzione della tabella di Routh
80
4. Elementi di teoria della stabilità
Con riferimento al generico polinomio di grado n, la tabella assume la forma
an−2
an−4
an
n
an−1
an−3
an−5 · · ·
n−1
bn−2
bn−3
cn−3 ·
cn−4 ·
in cui gli elementi, bj , della riga n − 1 sono calcolati mediante
an
an
an−2 an−4 an−1 an−3 an−1 an−5 bn−2 =
bn−3 =
−an−1
−an−1
e quelli della riga di ordine n − 2, sono ancora calcolati con le stesse espressioni, ma con riferimento
alle due righe precedenti; e cosı̀ via.
A titolo di esempio si consideri il polinomio
λ5 + 3λ4 + 2λ3 − 2λ2 + 2λ + 4
si ottiene
5
4
3
2
1
0
1
3
8
3
− 11
4
2
−2
2
3
2
4
0
4
75
11
16
Nella costruzione della tabella gli elementi di una stessa riga possono essere moltiplicati per uno
stesso numero positivo senza che ciò alteri il risultato.
Conclusa la costruzione della tabella il criterio si riduce a contare il numero di variazioni di segno
che si riscontrano nel passaggio da un coefficiente all’altro della prima colonna.
• Il numero di variazioni è pari al numero degli zeri a parte reale positiva del polinomio dato.
Nel caso allo studio, il polinomio di grado 5 ha due zeri a parte reale positiva, gli altri tre hanno parte
reale negativa.
4.4.a. Casi critici
E’ importante osservare che si può incorrere in impedimenti nella costruzione della tabella.
Annullamento del primo elemento di una riga
Quando il primo elemento di una riga si annulla non è possibile procedere al calcolo della riga
successiva. L’impedimento può essere superato in diversi modi come spiegato nel seguito.
Indicato con j il numero dei primi elementi nulli della riga, una primo modo di operare consiste
nel sostituire la riga data con la stringa di numeri ottenuti sommando ad essa la stringa ottenuta
traslando di j posti a sinistra la riga in questione dopo averla moltiplicata per (−1)j .
4.4. Criteri di stabilità per i sistemi lineari: il criterio di Routh
81
Si consideri la seguente situazione
3
2
1
4
2
3
0
la procedura indicata conduce alla tabella
1
2
−3
6
3
2
4
3
3
il calcolo delle variazioni di segno tra gli elementi della prima colonne permette di concludere che vi
sono due zeri a parte reale positiva.
Come ulteriore esempio si consideri il polinomio
λ5 + 5λ3 + 10λ + 4
Seguendo la procedura indicata si perviene alla seguente tabella
1
4
4
−5
32
61/5
5
0
9
4
10
4
Un secondo modo di procedere consiste nel sostituire allo zero il simbolo per rappresentare un
numero positivo e ’piccolo’. La tabella del primo esempio considerato diventa in tal caso
1
2
−4−6
2
4
3
3
3
Il computo delle variazioni di segno, ricordando che ε rappresenta un numero positivo ’piccolo’, consente di affermare, anche in questo caso, che vi sono due zeri a parte reale positiva.
Un terzo modo di procedere di fronte all’impedimento indicato consiste nel modificare il polinomio
dato moltiplicandolo per un binomio con zero negativo;
d1 (λ) = d(λ)(λ + 1)
si ottiene un nuovo polinomio di grado n + 1 con nuovi coefficienti a cui applicare il criterio di Routh.
Si consideri, ad esempio, il polinomio
λ4 + 2λ3 + 3λ2 + 6λ + 4
82
4. Elementi di teoria della stabilità
1
2
0
3
6
4
4
da cui
(λ + 1)(λ4 + 2λ3 + 3λ2 + 6λ + 4) =
λ5 + 3λ4 + 5λ3 + 9λ2 + 10λ + 4
1
3
6
−1
32
1
5
9
26
1
10
4
Annullamento di un’intera riga
Un ulteriore impedimento nella costruzione della tabella è rappresentato dall’annullarsi di un’intera
riga.
Si noti che tale riga è necessariamente di ordine dispari, in quanto la proporzionalità di due righe
consecutive si può avere solo se hanno lo stesso numero di elementi, ciò che può accadere solo se hanno
ordine dispari e pari successivo in ordine decrescente. Questo fatto è bene evidente se si considera la
struttura della tabella corrispondente al seguente polinomio
λ6 + 2λ5 + 3λ4 + 4λ3 + λ2 + λ + 1
6
5
4
3
2
1
0
1
2
x
x
x
x
x
3
4
x
x
x
1
1
x
1
Si supponga ora che si abbia una riga nulla. Ad esempio la situazione sia quella qui esemplificata
5
4
3
1
1
0
3
3
0
1
1
In questa circostanza si può concludere che il polinomio considerato, d(λ), è il prodotto di due polinomi
d(λ) = d1 (λ)d2 (λ)
il primo, d1 , con zeri che hanno parte reale caratterizzata dalle variazioni di segno degli elementi della
prima colonna della tabella sinora costruita (gli zeri di d1 a parte reale positiva sono tanti quante le
variazioni di segno che sono apparse nella prima colonna della tabella costruita fino a quel momento);
4.4. Criteri di stabilità per i sistemi lineari: il criterio di Routh
83
Il secondo, d2 , con potenze pari della variabile e di grado uguale all’indice della riga che precede la
riga che si è annullata. I coefficienti, a partire da quello di grado massimo, sono quelli che compaiono
nella riga precedente quella nulla. Nel caso in esame, d1 ha grado uno e zero negativo, d2 ha grado 4
ed è pari a
d2 (λ) = λ4 + 3λ2 + 1
Per quanto riguarda lo studio della parte reale degli zeri di questo nuovo polinomio si procede alla
costruzione della tabella di Routh a partire dal polinomio ottenuto derivano rispetto a λ d2 stesso.
Nel caso in esame
d 4
(λ + 3λ2 + 1) = 4λ3 + 6λ
dλ
La sostituzione di tali coefficienti a quelli della riga nulla consente di continuare la costruzione della
tabella.
5
4
3
2
1
0
1
1
2
3
3
3
3
2
1
1
5
3
2
Le variazioni di segno sulla prima colonna esprimono il numero di zeri a parte reale positiva del
polinomio dato.
Una particolarità importante in questa fase dello studio è che se non ci sono variazioni di segno si
potrà desumere al più la stabilità semplice, e non quella asintotica (che avremmo avuto se non avessimo
incontrato impedimenti nella costruzione della tabella). Infatti, come si potrebbe verificare andando
a calcolare gli zeri nel caso in esame, o più in generale come risulta dallo studio matematico degli
zeri di un polinomio con termini di ordine solo pari, gli zeri di d2 (λ), hanno una doppia simmetria
(simmetria quadrantale, cioè una simmetria rispetto a ciascun asse del piano complesso). Ciò che
impone, nella migliore delle ipotesi l’appartenenza degli zeri all’asse immaginario. In conclusione,
dunque, se non si hanno variazioni di segno è necessaria la verifica della molteplicità geometrica degli
zeri sull’asse immaginario per concludere sulla stabilità semplice del sistema.
Osservazioni
Qualche considerazione conclusiva riguarda la potenzialità del metodo.
Si può stabilire non soltanto quanti sono gli zeri di un certo polinomio che sono a sinistra dell’asse
immaginario, ma anche quanti sono gli zeri che sono a sinistra di un asse prefissato che abbia coordinate
sull’asse reale pari ad α. A tal fine è sufficiente effettuare una traslazione di assi in α ed esprimere il
polinomio d(λ) secondo le nuove coordinate ⇒ d(λ + α) Assegnata ad esempio, la matrice
A=
0
−20
1
−9
84
4. Elementi di teoria della stabilità
lo studio degli autovalori conduce al polinomio caratteristico
λ2 + 9λ + 20 = 0
il criterio di Routh (Cartesio) assicura che sono a parte reale negativa. L’ulteriore verifica che gli
autovalori abbiano parte reale minore di −3, può essere fatta sul polinomio
(λ − 3)2 + 9(λ − 3) + 20 = 0
che si riduce a
λ2 + 3λ + 2 = 0
ed ha, quindi, zeri a parte reale negativa. In conclusione, gli zeri del polinomio dato hanno parte reale
inferiore a −3
Considerazioni analoghe consentono di comprendere che il criterio di Routh può essere utilizzato
per verificare se gli zeri appartengono ad un settore conico del piano complesso. Una tale circostanza,
se si ricorda il significato dei parametri fisici associati agli autovalori complessi, garantisce la presenza
di evoluzioni temporali con smorzamento superiore ad un valore prefissato e coincidente con il sin θ,
essendo θ l’angolo del settore conico. A tal fine si consideri la trasformazione di variabile
λ ← λejθ
1
ed il polinomio, a coefficienti reali e di grado 2n
D(λ) = d(λejθ )d(λe−jθ )
1
1
L’applicazione del criterio di Routh a tale polinomio consente di calcolare il doppio degli zeri del
polinomio d(λ) che sono esterni al cono di centro (0, 0 ed angolo 2θ. Si tratta degli zeri che sono al di
sopra dell’asse immaginario ruotato di θ e al di sotto dell’asse immaginario ruotato di −θ.
4.5. Un criterio di stabilità con incertezza sui parametri
da sviluppare
Sia n ≥ 1, e siano ak e ak , k = 0, 1, .., n − 1, gli estremi di variabilità dei coefficienti del polinomio
caratteristico di un’assegnata matrice.
d(λ) = a0 + a1 λ + · · · + an−1 λn−1 + λn
Infine sia N l’insieme dei polinomi omologhi al polinomio caratteristico i cui coefficienti soddisfano
ai ≤ ai ≤ ai
Si definiscano i seguenti polinomi
i = 1, · · · , n − 1
85
4.6. Studio della stabilità mediante l’approssimazione lineare
g1 (λ) = a0 + a2 λ2 + a4 λ4 + · · ·
g2 (λ) = a0 + a2 λ2 + a4 λ4 + · · ·
h1 (λ) = a1 + a3 λ3 + a5 λ5 + · · ·
h2 (λ) = a1 + a3 λ3 + a5 λ5 + · · ·
an = an = 1
Kij (λ) = gi (λ) + hj (λ)
Il matematico russo Karitonov ha dimostrato che ogni polinomio in N è stabile (ha zeri a parte
reale negativa) se e solo se lo sono K11 , K12 , K21 , K22 .
4.6. Studio della stabilità mediante l’approssimazione lineare
Che cosa fare quando non si riesce direttamente a studiare la stabilità di un sistema non lineare
applicando il criterio di Lyapunov? Un metodo di indagine per un certo aspetto complementare a
quello di Lyapunov è quello fondato sullo studio della stabilità del sistema lineare approssimante il
sistema dato intorno allo stato di equilibrio di cui si vuole studiare la tabilità.
Come è noto la linearizzazione di un sistema dato intorno ad uno stato di equilibrio
ẋ(t) = f (x(t))
f (xe ) = 0
posto
ξ(t) = x(t) − xe

fornisce
˙ = Aξ(t)
ξ(t)
∂f1
∂x1
...
∂f1
∂xn
∂fn
∂x1
...
∂fn
∂xn

A = J(xe ) =  ...



Come vedremo, la stabilità asintotica dell’approssimazione lineare implica la stabilità asintotica locale
dello stato xe rispetto alla dinamica non lineare.
Poiché lo studio riguarda la stabilità asintotica, è opportuno assicurarsi xe sia uno stato di
equilibrio isolato. Come è noto, una condizione sufficiente, ma non necessaria, è che
|J(xe )| = 0
86
4. Elementi di teoria della stabilità
Teorema 8. Lo stato di equilibrio xe della dinamica nonlineare assegnata
• è localmente asintoticamente stabile se il sistema lineare approssimante è asintoticamente stabile;
• è instabile se il sistema lineare approssimante è instabile per la presenza di almeno un autovalore
a parte reale positiva.
La dimostrazione della prima condizione consiste nel verificare che una funzione per l’approssimazione
lineare è una funzione di Lyapunov locale per il sistema non lineare. Si consideri, a tale proposito, la
funzione
V (ξ) = ξ Qξ
con Q soluzione di A Q + QA = −P , ciò che assicura che essa sia una funzione di Lyapunov per il
lineare. La stessa funzione
V (x) = (x − xe ) Q(x − xe )
funzione è una funzione di Lyapunov locale per il sistema nonlineare; infatti è definita positiva intorno
ad xe e la sua derivata lungo il moto è definita negativa in un opportuno intorno di xe .
da sviluppare
Il teorema precedente fornisce condizioni sufficienti di stabilità ed instabilità. Nelle circostanze in cui la
matrice dinamica abbia autovalori a parte reale negativa e nulla, indipendentemente dalla molteplicità
e quindi anche in presenza di instabilità del linearizzato, non è possibile inferire nulla circa la stabilità
o meno del sistema non lineare. Un esempio elementare a tale proposito è rappresentato dalla seguente
dinamica scalare
ẋ = −x3
che, come è facile verificare impiegando il criterio di Lyapunov, ha in x = 0 un equilibrio asintoticamente globalmente stabile. Mentre l’applicazione del criterio fondato sullo studio dell’approssimazione
lineare non consente di concludere alcunché.
Per quanto riguarda l’instabilità è possibile dimostrare che se l’approssimazione lineare è instabile per
la presenza di almeno un autovalore a parte reale positiva lo stato di equilibrio xe , del sistema non
lineare dato, è instabile. Altrimenti nulla può essere deciso sulla stabilità del sistema nonlineare.
A titolo esemplificativo, ad un’approssimazione lineare
−1 0
J(xe ) =
1 −3
corrisponderebbe la stabilità di xe nel nonlineare, a
J(xe ) = A =
l’instabilità, a
A=
situazioni indecidibili.
−1 0
1 0
−1
1
0
3
A=
0
1
0
0
87
4.7. Esempi di applicazione
4.7. Esempi di applicazione
Dinamica del pendolo
Si considerino ancora le equazioni che rappresentano la dinamica di un pendolo
ẋ1 = x2
ẋ2 = −
k
g
x2 − sin x1
m
l
e gli stati di equilibrio
2hπ
0
=
x1e
(2h + 1)π
0
= x2e
h = 0, 1, ..
che come è noto corrispondono al pendolo nelle posizioni verticale verso il basso, e verticale verso
l’alto con velocità iniziale nulla.
Come abbiamo già verificato tali stati di equilibrio, hanno proprietà diverse: quello verticale se perturbato tende ad essere abbandonato, l’altro viceversa se perturbato tende ad essere mantenuto. Il
metodo dell’approssimazione lineare restituisce, come è ovvio, lo stesso risultato. L’approssimazione
lineare in corrispondenza di ciascuno di questi stati di equilibrio può essere calcolata a partire dalla
matrice jacobiana
0
1
J(x) = −g
−k
l cos x1
m
|x
e
Negli stati di equilibrio corrispondenti alla posizione verticale verso l’alto si ha
0 1
A = g −k
negli altri, invece:
Ā =
l
m
0
1
−g
l
−k
m
Con la matrice dinamica di tale forma, lo studio della stabilità è immediato in quanto gli elementi
dell’ultima riga rappresentano proprio i coefficienti del polinomio caratteristico cambiati di segno. Si
ha quindi nel primo caso
g
k
0 1
Ā = g −k → |λI − A| = λ2 + λ −
polinomio caratteristico
m
l
l
m
quindi una variazione nei coefficienti cioè uno zero a parte reale positiva (autovalore a parte reale
positiva), il che implica l’instabilità dello stato di equilibrio rispetto alla dinamica non lineare. Nel
secondo
g
k
0
1
A = −g −k → |λI − A| = λ2 + λ +
m
l
l
m
e due zeri a parte reale negativa, cioè stabilità asintotica dell’approssimazione lineare, quindi stabilità
asintotica locale della posizione di equilibrio, corrispondente al pendolo verso il basso.
88
4. Elementi di teoria della stabilità
Equazione logistica
La seguente equazione differenziale non lineare
ẋ(t) = ax(t) − kx2 (t)
viene assunta a rappresentare la crescita di una popolazione in assenza di limitazione sulle risorse.
Infatti la soluzione di un’equazione di questo tipo bene rappresenta la crescita di una popolazione
nelle citate condizioni. In tale equazione ci sono due valori di equilibrio:
x(a − kx) = 0

 xe1 = 0
a
 xe2 =
k
Si può utilizzare il metodo dello studio della stabilità mediante linearizzazione per studiare la stabilità
di questi due stati di equilibrio. La matrice jacobiana in questo caso è lo scalare:
J(xe ) = (a − 2kx)xe
e calcolata nei due stati di equilibrio diventa
per
xe1
si
ha
J(xe1 ) = a
e
per
xe2
si
ha
J(xe2 ) = −a
Il risultato è ora evidente: essendo a una costante positiva il primo stato di equilibrio è instabile,
mentre lo stato di equilibrio ka è stabile asintoticamente.
Le precedenti considerazioni trovano riscontro nel seguente esempio:
Modello preda-predatore
Come già visto il modello adatto a rappresentare l’interazione tra due specie è del tipo
ẋ1 (t) = ax1 (t) − bx1 (t)x2 (t)
ẋ2 (t) = −cx2 (t) + dx1 (t)x2 (t)
dove x1 e x2 rappresentano la densità delle due popolazioni e si è assunto che la popolazione preda (x1 )
cresce secondo un andamento eponenziale, in assenza di limitazioni di risorse mentre la popolazione
predatrice (x2 ) decresce in assenza di interazione con la preda, in quanto il suo unico nutrimento è
la preda stessa, secondo un andamento esponenziale caratterizzato dal coefficiente −c. I coefficienti
a, b, c, d sono tutti positivi.
x1 (a − bx2 ) = 0
x2 (−c + dx1 ) = 0
89
4.8. La stabilità esterna nei sistemi lineari
Gli stati di equilibrio sono facilmente calcolati e pari a
x1e =
a
b
x2e =
c
d
.
L’applicazione del metodo della linearizzazione non consente di concludere, come si può verificare
facilmente in quanto gli autovalori dell’approssimazione lineare hanno parte reale nulla. Si è quindi
in una condizione in cui non si può inferire nulla circa la stabilità dello stato di equilibrio del sistema
non lineare.
Una situazione diversa risulta se si descrive la crescita della preda impiegando l’equazione logistica. Si ha in tal caso
ẋ1 (t) = ax1 (t) − bx1 (t)x2 (t) − kx21 (t)
ẋ2 (t) = −cx2 (t) + dx1 (t)x2 (t)
con stati di equilibrio soluzioni del sistema
x1 (a − bx2 − kx1 ) = 0
x2 (−c + dx1 ) = 0

 (a − bx2 − kx1 ) = 0

(−c + dx1 ) = 0 → x1 =
c
=0
a − bx2 − k
d
x2 =
c
d
a
b
c
d
a kc
−
b
db
= xe
kc
− bd
appare, quindi, un nuovo stato di equilibrio che è positivo quando ad − kc > 0 o, ciò che è lo stesso,
a
c
k > d . Tale condizione si esprime dicendo che la capacità portante della specie preda deve essere
sufficientemente elevata per poter reagire alla capacità di preda del predatore. Tale stato di equilibrio
è positivo ed ha un significato fisico, nel contesto che si sta esaminando.
L’applicazione del metodo rispetto a tale stato di equilibrio consente di verificare la sua stabilità asintotica locale. I passaggi sono lasciati per esercizio. Il risultato matematico spiega bene un fenomeno
che in presenza di condizioni di competizione tra due specie preda - predatore, si verifica nella realtà. A seguito di una perturbazione rispetto a una data condizione di equilibrio insorge un fenomeno
oscillatorio che converge verso lo stato di equilibrio.
90
4. Elementi di teoria della stabilità
4.8. La stabilità esterna nei sistemi lineari
riscrivere con raggiungibilità e osservabilità
Si definisce stabile esternamente un sistema dinamico che genera uscite limitate in corrispondenza di
ingressi limitati. Più precisamente un sistema è detto stabile esternamente nello stato x0 se per ogni
¯ , le uscite sono limitate in norma, ȳ(t)≤N
¯ M,x0
positivo M ed ogni ingresso limitato in norma, ū(t)≤M
per un opportuna costante positiva NM,x0 . Se la proprietà vale in x0 = 0 il sistema è detto stabile
nello stato zero. Se vale in ogni stato iniziale, esiste cioè NM che non dipende da x0 , allora il sistema
è detto esternamente stabile.
u(t) < M ⇒ y(t) < NM,x0
t
At
y(t) = Ce x0 +
W (t − r)u(r)dr
0
At
Ce
= ψ(t)
ψ(t) < k1
1.
∀t ≥ 0
t
W (r)dr < k2
2.
∀t ≥ 0
0
La condizione 1. è equivalente a
Re(λ0,1
i )≤0
Re(λ0>1
)<0
i
cioè: gli autovalori associati a modi naturali osservabili devono avere parte reale non positiva se sono
semplici e parte reale negativa se sono multipli. La condizione 2. è equivalente a
Re(λ0,e
i )<0
cioè: gli autovalori associati a modi naturali eccitabili ed osservabili devono avere parte reale negativa.
La 2. è condizione necessaria e sufficiente di stabilità esterna nello stato zero; la 1. e la 2.
simultaneamente sono condizioni necessarie e sufficienti per la stabilità esterna in qualsiasi stato.
La prova della sufficienza è semplice
sufficiente:
t
W (t − r)u(r)dr
t
≤ ψ(t) · x0 +
W (t − r)u(r)dr
y(t) = ψ(t)x0 +
0
0
≤ k1 x0 + k2 M = Nx0 ,M
necessità:
se 1. o 2. non valgono esiste almeno un elemento della/e matrice/i non limitato (nella ψ(t) oppure
91
4.9. Condizioni e criteri per i sistemi lineari a tempo discreto
non limitato nell’integrale in W (t)) scegliendo x0 e/o u = cost è allora possibile mostrare che g non
è limitata.
- Legame con la stabilità interna Esempio


 
−1 2 0
1
A =  0 0 0
B = 0
−1 1 1
0

0
 0
−1
λi = −1
2
1
2

0
0
2
λ2 = 0

λ3 = 1
−2
 0
−1

0
0
0
2
−1
1
Λ = (λ1 , λ2 , λ3 )
C = (1
1
0) ⇐
 
2
u 1 = 0 ⇒ u1 =  0 
v11 = ( 12 −1 0 )
1
 
2
u1 =  1 
v11 = ( 0 1 0 )
1
 
0
u1 =  0 
v11 = ( − 12 0 1 ) − ∆0,e = {λ1 }
1
Λ0 = {x1 , λ2 }
Λe = {λ1 , λ3 }
4.9. Condizioni e criteri per i sistemi lineari a tempo discreto
Premesso che le definizioni rimangono invariate, lo studio sinora condotto consente di comprendere
che la condizione di stabilità asintotica dei sistemi lineari a tempo discreto è che gli autovalori abbiano
modulo minore di uno. La verifica può essere condotta impiegando diversi criteri; tra questi quelli
qui di seguito esposti.
Una primo criterio è rappresentato dal criterio di Routh stesso.
Con riferimento al polinomio
d(z) = an z n + an−1 z n−1 + . . . + a0
la sostituzione di variabile
z←
s+1
s−1
corrisponde ad effettuare una trasformazione del cerchio unitario al semipiano negativo del piano
complesso. Sul polinomio in s è ora possibile applicare il criterio di Routh ed ottenere le informazioni
sulla stabilità; infatti gli zeri in z con modulo > 1 corrispondono a zeri in s a parte reale maggiore di
zero.
Un secondo criterio è il cosiddetto criterio di Jury che consiste, al pari di quello di Routh, nel verificare
che tra i coefficienti di una tabella costruita ad hoc siano verificate precise condizioni.
92
4. Elementi di teoria della stabilità
a0
an
b0
bn−1
c0
cn−2
..
.
a1
an−1
···
···
···
···
..
.
···
···
···
···
···
···
..
.
t0
t2
t1
t1
t2
t0
···
···
···
···
cn−2
c0
···
···
bn−1
b0
an
a0
con
a0 an−k ,
bk = an
ak b0
bn−k−1 ck = ,
bn−1
bk etc.
Teorema 9. Un sistema lineare stazionario a tempo discreto è asintoticamente stabile se e solo se,
costruita la tabella di Jury le seguenti condizioni sono soddisfatte
d(1) > 0,
(−1)n d(−1) > 0,
|an | > |a0 |, |b0 | > |bn−1 |, · · · |t0 | > |t2 |.
A titolo di esempio il polinomio
z 2 + z + O.5 == 0
ammette la tabella caratterizzata dalla sola riga
1
1
0, 5
e si verifica immediatamente il soddisfacimento delle condizioni di stabilità asintotica.
Come per i sistemi a tempo continuo un ulteriore criterio di indagine sulla stabilità è rappresentato
dal criterio di Lyapunov. Si tratta di un criterio di grande generalità e potenzialità di impiego non
limitato al contesto lineare.
4.9.a. Il criterio di Lyapunov
Con riferimento al sistema a tempo discreto
x(t + 1) = f (x(t))
f (xe ) = xe
lo stato di equilibrio xe è localmente stabile, asintoticamente stabile, se esiste una funzione V (x)
definita positiva in un certo intorno dello stato di equilibrio, Ixe , e la sua differenza prima:
∆V (x) = V (x(t + 1)) − V (x(t))
4.9. Condizioni e criteri per i sistemi lineari a tempo discreto
93
è definita negativa in Ixe .
Il criterio quindi si enuncia allo stesso modo e questa volta si deve trovare una funzione la cui
differenza prima sia definita (semidefinita) negativa. Ancora una volta il criterio dà vita a condizioni
che sono soltanto sufficienti, nel senso che se in corrispondenza di V (x) definita positiva la ∆V (x)
non risulta definita (semidefinita) negativa non si può decidere della stabilità dello stato di equilibrio.
Esempio:

x2 (t)


 x1 (t + 1) = 1 + x (t)2
2

x
(t)
1

 x2 (t + 1) =
1 + x2 (t)2
lo stato di equilibrio è xe = 0 e posto:
V (x) = x21 + x22
∆V (x) = V f (x(t)) −V (x(t))
V f (x(t)) =
=
x22
x21
+
=
(1 + x22 )2
(1 + x22 )2
x21 + x22
V (x)
=
2
2
(1 + x2 )
(1 + x22 )2
V (x)
− V (x)
(1 + x22 )2
1
− 1 V (x) ≤ 0
∆V (x) =
(1 + x22 )2
∆V (x) =
Questa ultima quantità è semidefinita negativa e quindi lo stato di equilibrio è uno stato stabile, in
realtà è uno stato di equilibrio globalmente stabile per le note condizioni di illimitatezza della V e di
validità delle condizioni su tutto lo spazio.
Anche con riferimento ai sistemi a tempo discreto nel caso lineare il criterio si particolarizza
dando vita a condizioni necessarie e sufficienti di facile verifica.
4.9.b. Il criterio di Lyapunov per i sistemi lineari stazionari a tempo discreto
x(t + 1) = Ax(t)
xe = Axe ⇒ (A − I)xe = 0
Condizione necessaria e sufficiente per la stabilità asintotica del sistema dato, è che la seguente
equazione
A QA − Q = −P
ammetta soluzione unica in Q simmetrica e definita positiva, per ogni P fissata, anche essa simmetrica
e definita positiva.
94
4. Elementi di teoria della stabilità
Quindi la formulazione è identica al caso precedente, ciò che cambia è la struttura dell’equazione.
Anche in questo caso in genere si fissa P = I; se questa equazione non ammette una soluzione, se la
soluzione non è unica, se non è definita positiva, si può concludere che il sistema non è asintoticamente
stabile.
Per la dimostrazione si procede come nel caso dei sistemi a tempo continuo. Per la sufficienza, si fissi
V (x) = x Qx
∆V (x) = V (x(t + 1)) − V (x(t))
= x (t + 1)Qx(t + 1) − x (t)Qx(t)
= x A QAx − x Qx
= x (A QA − Q)x
= −x P x
ma P è definita positiva e quindi −x P x è globalmente definita negativa. Ciò dimostra la stabilità
asintotica globale del sistema.
Per la necessità si procede in modo formalmente analogo a quanto visto nel caso a tempo continuo
mostrando che
∞
Ak P Ak
Q=
0
è soluzione dell’equazione unica simmetrica e definita positiva. Anche in questo caso il criterio si
riconduce alla risoluzione di n(n+1)
equazioni lineari.
2
Interessante è il confronto tra il criterio di Routh e quello di Lyapunov in merito alla complessità
dei calcoli in termini di numeri di operazioni. Ovviamente tutto dipende dalla struttura della matrice
dinamica; in presenza di un numero elevato di elementi nulli nella matrice A può risultare conveniente
applicare il criterio di Routh in quanto non si deve dimenticare che per applicare il criterio di Routh
è necessario preliminarmente calcolare il polinomio caratteristico.
Dunque nel contesto lineare, anche per i sistemi a tempo discreto, il criterio di Lyapunov si
particolarizza dando vita a condizioni necessarie - sufficienti. Ciò non accade nel contesto non lineare
ove la possibilità di pervenire ad una verifica positiva della stabilità è collegata al calcolo di una
funzione che soddisfi alle condizioni note. Questo aspetto rende di difficile applicazione il metodo nei
casi in cui la verifica non abbia avuto esito positivo impiegando le funzioni definite positive quadratiche
elementari.
Che cosa fare quando non si riesce direttamente a studiare la stabilità di un sistema non lineare
applicando il criterio di Lyapunov ? Anche nel contesto discreto un ruolo complementare è svolto dal
metodo fondato sullo studio della stabilità sulla base dell’approssimazione lineare.
4.9. Condizioni e criteri per i sistemi lineari a tempo discreto
95
4.9.c. Studio della stabilità mediante linearizzazione
Il metodo è relativo all’impiego dell’approssimazione lineare intorno ad uno stato di equilibrio per
studiare la stabilità di uno stato di equilibrio di un sistema non lineare.
Come è noto la linearizzazione di un sistema dato intorno ad uno stato di equilibrio
Algoritmo per il calcolo della radice quadrata
La seguente equazione
x2 − a = 0
può essere risolta per un fissato a impiegando il seguente algoritmo iterativo
x(t + 1) = x(t) + a − x2 (t)
Per tale algoritmo lo stato
xe =
√
a
è di equilibrio, come è immediato verificare. La verifica della stabilità di tale stato di equilibrio
equivale alla verifica della convergenza dell’algoritmo per il calcolo della radice quadrata. Se si ha
√
stabilità intorno a a, ciò assicura che l’implementazione dell’algoritmo, consente di convergere verso
√
la soluzione: a.
L’applicazione del metodo di analisi fondato sulla linearizzazione consente di verificare, che per opportuni valori del parametro a, l’algoritmo in questione converge. Si ottiene, infatti,
√
J(xe ) = (1 − 2 a)
⇓
√
0 < a < 1 ⇔ |1 − 2 a| < 1
√
Da questa analisi si ricava che per 0 < a < 1 la soluzione xe = a può essere senz’altro calcolata con
l’algoritmo dato.
Il risultato ottenuto ha una validità locale e rimane non definito il massimo scostamento ammesso
dalla condizione iniziale rispetto al valore vero (quello di equilibrio). Un’informazione più precisa circa
l’eventuale scostamento, la regione di stabilità, può essere ottenuto utilizzando il criterio di Lyapunov
con
V (x) = |a − x2 |
Il calcolo della V (x(t + 1)) e ∆(V (x)) consentono di verificare senza difficoltà se si assume 0 < a < 1
che
0≤x≤1
definisce la regione di stabilità.
Dinamica del prezzo in condizioni di equilibrio in presenza di due beni
96
4. Elementi di teoria della stabilità
In presenza di due beni concorrenti, la domanda e l’offerta possono con buona approssimazione
rappresentate dalle seguenti equazioni
d(t + 1) = Ap(t + 1) + d0
o(t + 1) = Ep(t) + o0
dove A, E, d0 e o0 sono matrici e vettori di dimensione due. In condizioni di equilibrio (p(t + 1) =
o(t + 1), la dinamica del prezzo evolve secondo l’equaione alle differenze
p(t + 1) = A−1 Ep(t) + A−1 (o0 − d0 )
−α β
d1
A=
d=
γ −δ
d2
α, β, γ, δ > 0
Supponendo E = I si studi la precedente equazione e si individuino quali sono le condizioni affinchè
l’equilibrio sia stabile asintoticamente. Si tratta di un’analisi di stabilità di un sistema lineare a tempo
discreto, e ammette un’interpretazione in termini dei coefficienti α, β, γ, δ che hanno un interessante
significato in termini economici.
—–
5. Introduzione alle rappresentazioni non lineari
Assumeremo senza perdita di generalità che X, U e Y siano spazi vettoriali di dimensione finita,
rispettivamente n, p e q. La generica rappresentazione implicita di un sistema strettamente causale a
dimensione finita, stazionario é del tipo
∆x(t) = f (x(t), u(t))
x(0) = x0
y(t) = h(x(t))
Nella precedente espressione ∆ rappresenta la derivazione o l’anticipo unitario, nel caso a tempo
continuo o a tempo discreto, rispettivamente.
Con riferimento alla struttura della funzione generatrice f (x, u) e della trasformazione in uscita,
h(x), è usuale assumere la seguente classificazione.
1. Rappresentazione lineare
f è lineare su X × U ed h è lineare su X
f (x, u) = Ax + Bu
h(x) = Cx
A, B e C sono matrici di dimensioni (n × n), (n × p) e (p × n) rispettivamente.
2. Rappresentazione bilineare o regolare
Posto
f (x, u) = f1 (x, u) + f2 (x, u)
98
5. Introduzione alle rappresentazioni non lineari
f1 è lineare su X × U , f2 è bilineare su X × U ed h è lineare su X

p

 f (x, u) = Ax + Bu +
Ni xui


i=1
h(x) = Cx
con A, N1 , . . . , Np matrici quadrate (n × n), B = [B1 . . . Bp ], (n × p), C, (q × n). Per B = 0, si parla
di una rappresentazione omogenea. Si puo passare di una rappresentazione non omogenea ad una
rappresentazione omogenea tramitte un estenzione dinamica ponendo x̄T = (xT , z)T e x̄T0 = (xT0 , 1)T ,

p

 f (x̄, u) = Āx̄ +
N̄i x̄ui


Ā =
i=1
h(x̄) = [C, 0]x̄
. . A ..0
Ni ..Bi
. . . . . . , N̄i =
...... .
..
.
0 .0
0 ..0
3. Rappresentazione affine rispetto allo stato
f è affine rispetto ad x per ogni fissato u, h è lineare su X
f (x, u) = A0 (u) + A1 (u)x
h(x) = Cx
A0 (·) e A1 (·) analitiche, C é (q × n). E’ frequente il caso in cui gli elementi di A0 (·) e A1 (·) sono
polinomi in u1 , u2 ,. . . up .
4. Rappresentazione affine rispetto all’ingresso
Posto
f (x, u) = f1 (x) + f2 (x, u)
f2 è lineare rispetto ad u per ogni fissato x. Posto f1 (x) = f (x), di ha
f (x, u) = f (x) + g(x)u
f , g ed h sono, in tale contesto, assunte C ∞ o analitiche.
5.1. Sistemi a tempo continuo
99
5.1. Sistemi a tempo continuo
5.1.a. Sistemi lineari (richiami)
Data la rappresentazione implicita di un sistema lineare a tempo continuo:
ẋ(t) = Ax(t) + Bu(t)
x(t0 ) = x0
y(t) = Cx(t)
I comportamenti ingresso/stato e ingresso/uscita sono descritti dalla rappresentazione esplicita:
t
x(t) = γ0 (t, t0 )x0 +
γ1 (t, τ )u(τ )dτ
t0
t
= e(t−t0 )A x0 +
e(t−τ )A Bu(τ )dτ
t0
t
y(t) = w0 (t, t0 )x0 +
w1 (t, τ )u(τ )dτ
t0
t
= Ce(t−t0 )A x0 +
Ce(t−τ )A Bu(τ )dτ
t0
I nuclei sono stazionari. Per ogni t̄
γ0 (t, t0 ) = γ0 (t + t̄, t0 + t̄);
w0 (t, t0 ) = w0 (t + t̄, t0 + t̄)
γ1 (t, τ ) = γ1 (t + t̄, τ + t̄);
w1 (t, τ ) = w1 (t + t̄, τ + t̄).
Ponendo t̄ = −t0 , si ottiene γ0 (t, t0 ) = γ0 (t − t0 , 0); w0 (t, t0 ) = w0 (t − t0 , 0) che implica che γ0 (t, t0 )
ed w0 (t, t0 ) dipendono della differenza t−t0 ed dunque si possono scrivere come γ0 (t−t0 ) ed w0 (t−t0 ).
Analogalmente, ponendo t̄ = −τ , si ottiene γ1 (t, τ ) = γ1 (t − τ, 0); w1 (t, τ ) = w1 (t − τ, 0) che implica
che γ1 (t, τ ) ed w1 (t, τ ) dipendono della differenza t − τ ed dunque si possono scrivere come γ1 (t − τ )
e w1 (t − τ ).
In piu vale la proprietà di fattorizzazione che riproduce sui nuclei l’operazione di semi-gruppo.
Per ogni t0 ≤ t̄ ≤ t, per quanto riguarda il nucleo w1 (t, τ ), si verifica la fattorizzazione
w1 (t, τ ) = Q(t, t̄)P (t̄, τ )
con
Q(t, t̄) = w0 (t, t̄) := Ce(t−t̄)A
e
P (t̄, τ ) = γ1 (t̄, τ ) := e(t̄−τ )A B.
Analogalmente, per i nuclei γ0 (t, t0 ), w0 (t, t0 ), γ1 (t, τ ), si ottienne
γ0 (t, t0 ) = γ0 (t, t̄)γ0 (t̄, t0 );
w0 (t, t0 ) = w0 (t, t̄)γ0 (t̄, t0 ),
γ1 (t, τ ) = γ0 (t, t̄)γ1 (t̄, τ ).
In conclusioni, i nuclei associati alla rappresentazione lineare essendo stazionari ed fattorizabile
sono detti separabile: esistono delle matrice di funzioni Q(.) e P (.) di dimenzione finite, opportune,
tale che vale la proprietà
w1 (t − τ ) = Q(t)P (τ ); t ≥ τ.
100
5. Introduzione alle rappresentazioni non lineari
Questa proprietà si deduce da l’ugualienza
w1 (t, τ ) = w1 (t − τ ) = Q(t − t̄)P (t̄ − τ ) = Q(t − τ )P (0) = Q(t)P (τ ).
Nel caso lineare, basta ponere Q(t) = CetA ed P (t) = e−tA B.
Vale il passaggio dalla forma esplicita alla forma implicita:
dγ0 (t)
|t=0
dt
.
B = γ1 (0)
A=
C = w0 (0)
Inoltre, come é immediato verificare:
γ0 (t)x0 = etA x0
∂γ0 (t − τ )x γ1 (t − τ ) = e(t−τ )A B =
·B
x0
∂x
∂w0 (t − τ )x B.
w1 (t − τ ) = Ce(t−τ )A B =
x0
∂x
In sintesi possiamo enunciare le seguenti proprietà:
• i nuclei possono essere calcolati a partire da γ0 (t), w0 (t) e B.
• la fattorizzazione del nucleo di ordine uno, w(t, τ ) è condizione necessaria e sufficiente di realizzabilità con un sistema lineare non stazionario. Ciò, come è noto (capitolo 7), segue dal fatto che
per ogni t̄ fissato, il sistema lineare non stazionario
ẋ(t) = P (t̄, t)u(t)
y(t) = Q(t, t̄)x(t)
realizza, a partire dello stato iniziale x0 = 0, il legame ingresso uscita associato al nucleo dato
t
t
y(t) = Q(t, t̄)
P (t̄, τ )u(τ )dτ =
w(t, τ )u(τ )dτ.
t0
t0
• La separabilità del nucleo di ordine uno, w(t − τ ) è condizione necessaria e sufficiente di realizzabilità con un sistema lineare stazionario. Ciò, come è noto (capitolo 7), segue dal fatto che il
sistema con un sistema lineare stazionario inizializzato allo stato x0 = 0
ẋ(t) = Ax(t) + Bu(t)
y(t) = Cx(t)
realizza il legame ingresso uscita associato al nucleo dato
t
t
y(t) = Q(t)
P (τ )u(τ )dτ =
w(t − τ )u(τ )dτ.
t0
0
con l’ulteroire fattorizzazione
w(t − τ ) = Q(t)P (τ ) = Ce(t−τ )A B
con matrice (C, A, B) di dimenzione appropriate.
101
5.1. Sistemi a tempo continuo
5.1.b. Rappresentazioni a tempo continuo affini nell’ingresso
Si consideri la seguente rappresentazione implicita che descrive, per semplicità di notazioni, un sistema
ad ingresso e uscita scalari
ẋ(t) = f (x(t)) + g(x(t))u(t)
(II.1)
y(t) = h(x(t))
x(t) ∈ Rn ; f , g: Rn → Rn e h : Rn → R sono funzioni analitiche.
Teorema 1. La rappresentazione esplicita del sistema (II.1) di stato iniziale x0 a t0 ammette il
seguente sviluppo in serie
t
x(t) = γ0 (t, t0 ; x0 ) +
m≥0
m≥0
γm (t, τ1 , . . . , τm , t0 ; x0 )u(τ1 ) . . . u(τm )dτ1 . . . dτm (II.2)
t0
τ1
τm−1
...
t0
t0
τm−1
...
t0
t0
t
y(t) = w0 (t, t0 ; x0 ) +
τ1
wm (t, τ1 , . . . , τm , t0 ; x0 )u(τ1 ) . . . u(τm )dτ1 . . . dτm (II.3)
t0
con γ0 (·, t0 ; x0 ) : [t0 , T ] → Rn , w0 (·, t0 ; x0 ) : [t0 , T ] → R; γm (·, t0 ; x0 ) : [t0 , T ]m+1 → Rn , wm (·, t0 ; x0 ) :
[t0 , T ]m+1 → R ( t ≥ t ≥ τ1 ≥ . . . ≥ τm ≥ t0 ).
Osservazione: nel caso di piu ingressi, il sistema e descritto analogalmente come

p

 ẋ(t) = f (x(t)) +
gi (x(t))ui (t)


i=1
(II.1a)
y(t) = h(x(t))
dove x(t) ∈ Rn ; f , gi : Rn → Rn e h : Rn → R sono funzioni analitiche.
Teorema 2. La rappresentazione esplicita del sistema (II.1a) di stato iniziale x0 a t0 ammette il
seguente sviluppo in serie
x(t) = γ0 (t, t0 ; x0 )+
p
...
m≥0 i1 =1
p t
im =1
τ1
t0
t0
τm−1
...
i1 ...im
γm
(t, τ1 , . . . , τm , t0 ; x0 )ui1 (τ1 ) . . . uim (τm )dτ1 . . . dτm (II.2a)
t0
y(t) = w0 (t, t0 ; x0 )+
p
m≥0 i1 =1
...
p t
im =1
t0
τ1
t0
τm−1
...
i1 ...im
wm
(t, τ1 , . . . , τm , t0 ; x0 )ui1 (τ1 ) . . . uim (τm )dτ1 . . . dτm (II.3a)
t0
i1 ...im
con γ0 (·, t0 ; x0 ) : [t0 , T ] → Rn , w0 (·, t0 ; x0 ) : [t0 , T ] → R; γm
(·, t0 ; x0 ) : [t0 , T ]m+1 → Rn ,
i1 ...im
wm
(·, t0 ; x0 ) : [t0 , T ]m+1 → R ( t ≥ t ≥ τ1 ≥ . . . ≥ τm ≥ t0 ).
102
5. Introduzione alle rappresentazioni non lineari
Le espressioni in serie (II.2),(II.3), (II.2a) e (II.3a), prendono il nome di serie di Volterra, il matematico italiano che agli inizi del secolo ha per primo impiegato rappresentazioni in serie con integrali
multipli per rappresentare funzionali nonlineari. Nel caso in esame esse rappresentano i legami funzionali ingresso-stato e ingresso-uscita associati al sistema (II.1) a partire dallo stato iniziale x0 ,e
sono caratterizzati dai nuclei γm (·, t0 ; x0 ) e wm (·, t0 ; x0 ), rispettivamente. Nel caso lineare, come già
ricordato, sono diversi da zero solo i nuclei di ordine zero ed uno che, infatti, caratterizzano la parte
lineare del legame.
Si mostrerà nel seguito che i nuclei wm (·, t0 ; x0 ) ammettono una rappresentazione in serie. La stessa
procedura applicata alla funzione h(x) = x dà l’espressione dei γm (·, t0 ; x0 ). A questo proposito è
necessario richiamare il formalismo delle serie di Lie.
La serie di Lie
Data una funzione analitica
f : Rn → Rn
si definisce l’operatore formale ”derivata direzionale” o ”derivata di Lie”, e si scrive Lf , l’operatore
differenziale del primo ordine
n
∂
Lf =
fi
∂xi
i=1
dove fi : Rn → |R indica l’i - esima componente della funzione f .
Se h : Rn → R è una funzione derivabile l’operatore Lf agisce sulla funzione h nel modo seguente:
f1 (x) n
∂h ∂h ∂h ∂h .
..
·
·fi (x) =
,...,
·f (x)
Lf h|x =
=
∂xi x
∂xi x
∂xn x
∂x x
i=1
fn (x)
dove |x indica il calcolo in x. Se h(x) = Id(x) = x, la funzione identità, si ha:
Lf Id|x = f (x)
esempio:
f (x) : R2 → R2 ,
h(x) : R2 → R
(x1 , x2 ) *→ (2x1 , x1 + x2 )
(x1 , x2 ) *→ x1 x2
n = 2,
Si ha:
Lf = 2x1
Lf h|x0 = 2x1
∂
∂
+ (x1 + x2 )
∂x1
∂x2
∂x1 x2
∂x1 x2
|x0 + (x1 + x2 )
|x
∂x1
∂x2 0
= 2x1 x2 |x0 + (x1 + x2 )x1 |x0
= 2x10 x20 + (x10 )2 + x10 x20 = (x10 )2 + 3x10 x20
se x0 = (1, 2) ⇒ Lf h|x0 = 1 + 6 = 7
(III.4)
103
5.1. Sistemi a tempo continuo
• Lf é un operatore lineare
Siano h1 e h2 due funzioni derivabili e α1 e α2 ∈ R, si ha:
Lf (α1 h1 + α2 h2 ) = α1 Lf h1 + α2 Lf h2
Siano f e g due funzioni derivabili Rn → Rn , indichiamo con Lg o Lf la composizione, ”o”, di
questi operatori
∂Lf h|x
· g(x)
∂x
n
n
n
∂Lf h
∂ ∂h gi (x) =
=
fj (x) gi (x)
∂xi
∂xi j=1 ∂xj i=1
i=1
x
n
n
∂2h ∂h ∂fj (x) =
fj (x)gi (x) +
·gi (x)
∂xi ∂x
∂x
∂x
i
j
j
i,j=1
i,j=1
Lg ◦ Lf h|x =
x
x
x
La composizione ”◦” non è commutativa: Lg ◦ Lf = Lf ◦ Lg .
• Prodotto di Lie
Si definisce l’operatore prodotto di Lie di due operatori Lf ed Lg , e lo si indica con,
[Lf , Lg ] = [Lf ◦ Lg − Lg ◦ Lf ]
In base alla definizione [Lf , Lg ] opera sulle funzioni come la derivata di Lie rispetto alla funzione
[f, g], L[f,g] . [f, g] è definito come
∂g
∂f
[f, g] =
f−
g
∂x
∂x
e non è difficile verificare che
Lf ◦ Lg h − Lg ◦ Lf h = · · · =
n
n
∂h ∂gi
∂h ∂fi
fj −
gj = L[f,g] (h)
∂xi ∂xj
∂xi ∂xj
i,j=1
i,j=1
Si verifica facilmente che
L[f,g] = −L[g,f ]
• Composizione iterata di Lf
h|
∂L
f
x
L2f h|x := Lf ◦ Lf h|x =
·f (x)
∂x x
∂Lkf h|x k
h|
:=
L
◦
L
h|
=
k≥0
Lk+1
·f (x)
x
f
f x
f
∂x x
• esempio
f (x) : (x1 , x2 ) *→ (2x1 , x1 + x2 )
h(x) : (x1 , x2 ) *→ x1 x2
104
5. Introduzione alle rappresentazioni non lineari
Lf h|x = x21 + 3x1 x2
∂
∂
(x2 + 3x1 x2 ) + (x1 + x2 )
(x2 + 3x1 x2 )
∂x1 1
∂x2 1
= 2x1 (2x1 + 3x2 ) + (x1 + x2 )(3x1 )
L2f h|x = 2x1
= 4(x1 )2 + 9x1 x2 + 3(x1 )2 = 7(x1 )2 + 9x1 x2
Se x0 = (1, 2)
L2f h|x0 = 7 + 18 = 25
Indicato, con 1 l’operatore identità, L0f h|x = 1h|x = h(x), definiamo
l’esponenziale formale:
1
1 m
L + ...
eLf = 1 + Lf + L2f + . . . +
2!
m! f
tale che:
1 m
eLf h|x = h|x + Lf h|x + . . . +
L h|x + . . .
m! f
(II.5)
La serie (II.5) é detta serie di Lie associata a Lf .
Osservazione
f (x) = Ax
h(x) = Cx
⇓
∂
∂x
∂CAx
m
·Ax = CAx, L2f h|x =
·Ax = CA2 x, . . . , Lm
f h|x = CA x
∂x Lf = Ax
∂Cx Lf h|x =
∂x x
x
da cui
eLf h|x =
CAm x
= CeA x
m!
m≥0
se h = Id, si ha:
eLf Id|x = eA x
si ritrova l’esponenziale di matrice.
Calcolo dei nuclei
Per il calcolo dei nuclei si impiegherà una procedura iterativa di integrazione dell’equazione (II.1)
con condizione iniziale x0 a t0 .
In base al formalismo introdotto possiamo riscrivere la (II.1) nel seguente modo
ẋ(t) = (Lf + u(t)Lg )Id|x(t)
y(t) = h(x(t))
105
5.1. Sistemi a tempo continuo
∂h ẏ(t) =
ẋ(t) = (Lf + u(t)Lg )h|x(t)
∂x x(t)
inoltre
ed integrando
t
y(t) = y(t0 ) +
(Lf + u(τ1 )Lg )h|x(τ1 ) dτ1
t0
posto
Λ1 (x(t), u(t)) := (Lf + u(t)Lg )h|x(t)
si ha
τ1
Λ1 (x(τ1 ), u(τ1 )) = Λ1 (x0 , u(τ1 )) +
t0
⇓
τ1
Λ1 (x(τ1 ), u(τ1 )) = Λ1 (x0 , u(τ1 )) +
t0
t
y(t) = y(t0 ) +
.ẋ(t)
x(t)
∂Λ1 (·, u(τ1 )) ∂x
.ẋ(τ2 )dτ2
x(τ2 )
(Lf + u(τ2 )Lg )Λ1 (·, u(τ1 ))
⇓
t
Λ1 (x0 , u(τ1 ))dτ1 +
t0
∂h =
∂x t0
dτ2
x(τ2 )
τ1
Λ2 (x(τ2 ), u(τ1 ), u(τ2 ))dτ2 dτ1
t0
con
Λ2 (x(τ2 ), u(τ1 ), u(τ2 )) := (Lf + u(τ2 )Lg ) ◦ (Lf + u(τ1 )Lg )h|x(τ2 )
Di nuovo si ottiene:
Λ2 (x(τ2 ), u(τ1 ), u(τ2 )) =
τ2
(Lf + u(τ3 )Lg )Λ2 (·, u(τ1 ), u(τ2 ))|x(τ3 ) dτ3
= Λ2 (x0 , u(τ1 ), u(τ2 )) +
t0
che porta alla forma generale:
t
y(t) = h(x0 ) +
(Lf + u(τ1 )Lg )h|x0 dτ1
t0
t
τ1
+
(Lf + u(τ2 )Lg ) ◦ (Lf + u(τ1 )Lg )h|x0 dτ2 dτ1
t0
t0
+...
t
τ1
+
τm−1
...
t0
t0
(II.6)
(Lf + u(τm )Lg ) ◦ . . . ◦ (Lf + u(τ1 )Lg )h|x0 dτm . . . dτ1
t0
+...
per t ≥ τ1 ≥ . . . ≥ τm ≥ t0 .
Le espressioni dei nuclei possono ora essere ottenute per identificazione dei ’coefficienti’ dei termini
in u(τ1 ) (lineare in u), u(τ1 )u(τ2 ) (quadratico in u), ...
106
5. Introduzione alle rappresentazioni non lineari
Per il primo nucleo, ponendo u(τi ) = 0 nella (II.6) e calcolando integrali iterate, si ottienesi ha
(t − t0 )2 2 Lf h x0 + . . . := e(t−t0 )Lf hx0
w0 (t, t0 ; x0 ) = h(x0 ) + (t − t0 )Lf hx0 +
2
ed esprime la soluzione di ẋ(t) = f (x(t)), y(t) = h(x(t)) at x(t0 ) = x0 mediante la serie di Lie.
Per quanto riguarda la parte lineare rispetto all’ingresso, raggruppando i termini sotto integrale che
sono moltiplicati per u(τ ) si ottiene
(τ1 − t0 )i1 (t − τ1 )i2
Lif1 ◦ Lg ◦ Lif2 x
0
i1 !i2 !
i1 ,i2 ≥0
= e(τ1 −t0 )Lf ◦ Lg ◦ e(t−τ1 )Lf hx , t ≥ τ1
w1 (t, τ1 , t0 ; x0 ) =
0
ove si è applicata la formula di integrazione per parti
αdβ = αβ − βdα
che per α =
#
u(τ )dτ e β = t dà l’uguaglianza
t
τ1
t0
t0
t
u(τ1 )(t − τ1 )dτ1 = t
u(τ2 )dτ2 dτ1 =
t0
t
t
u(τ1 )dτ1 −
t0
τ1 u(τ1 )dτ1
t0
Con analoghi calcoli si ottiene, per i contributi quadratici in u(τ ),
(τ2 − t0 )i1 (τ1 − τ2 )i2 (t − τ1 )i3
Lif1 ◦ Lg ◦ Lif2 ◦ Lg ◦ Lif3 hx
0
i1 !i2 !i3 !
i1 i2 i3 ≥0
= e(τ2 −t0 )Lf ◦ Lg ◦ e(τ1 −τ2 )Lf ◦ Lg ◦ e(t−τ1 )Lf h
w2 (t1 , τ1 , τ2 , t0 ; x0 ) =
x0
t ≥ τ 1 ≥ τ 2 ≥ t0 .
In generale
wm (t, τ1 , . . . , τm , t0 ; x0 ) = · · · = e(τm −t0 )Lf ◦ Lg ◦ · · · ◦ Lg ◦ e(t−τ1 )Lf hx
0
Con gli stessi argomenti può essere reso esplicito il legame ingresso-stato che assume forma analoga
alla precedente in cui i nuclei γm assumono la forma
γm (t, τ1 , . . . , τm , t0 ; x0 ) = e(τm −t0 )Lf ◦ Lg ◦ · · · ◦ Lg ◦ e(t−τ1 )Lf Idx
0
ove Id indica la funzione identità, t ≥ τ1 . . . ≥ τm ≥ t0 .
Osservazione: Nel caso di piu ingressi, si ottiene anologalmemte
i1 ...im
(t, τ1 , . . . , τm , t0 ; x0 ) = e(τm −t0 )Lf ◦ Lgim ◦ · · · ◦ Lgi1 ◦ e(t−τ1 )Lf Idx0
γm
107
5.1. Sistemi a tempo continuo
i1 ...im
wm
(t, τ1 , . . . , τm , t0 ; x0 ) = e(τm −t0 )Lf ◦ Lgim ◦ · · · ◦ Lgi1 ◦ e(t−τ1 )Lf hx
0
Il teorema di scambio
Poichè dai calcoli fatti, risulta
y (t) = w0 (t, t0 ; x0 ) = e(t−t0 )Lf hx0 = h(x (t)) = h e(t−t0 )Lf Idx0 = h (γ0 (t, t0 ; x0 ))
ove il pedice U indica che u ≡ 0, rimane dimostrato un noto teorema della teoria delle serie di
Lie (il Teorema di scambio). L’applicazione di etLf ad h coincide con il calcolo di h al risultato
dell’applicazione della serie differenziale esponenziale alla funzione identità.
esempio:
n = 2, f (x) : R2 → R2 ,
h(x) : R2 → R
(x1 , x2 )T *→ (x21 , x1 − x1 x2 )T
Si ha:
Lf = 2x1
Lf h = x21
L2f h = x21
(x1 , x2 )T *→ x1 x2
∂
∂
+ (x1 − x1 x2 )
∂x1
∂x2
∂x1 x2
∂x1 x2
+ (x1 − x1 x2 )
= x21
∂x1
∂x2
∂x21
m+1
= 2x31 , · · · , Lm
→ eLf h = x1 x2 +
xi1 .
f h = m!x1
∂x1
i≥2
D’altra parte, si calcola
m+1
Lf x1 = x21 , · · · , Lm
→ eLf x1 =
f x1 = m!x1
xi1
i≥1
ed
Lf
Lf x2 = x1 (1 − x2 ), · · · , Lm
f x2 = 0, m ≥ 2 → e x2 = x2 + x1 − x1 x2
dunque si verifica
eLf h = h(eLf x) =
xi1 (x2 + x1 − x1 x2 ) = x1 x2 +
i≥1
xi1 .
i≥2
In conclusione con un raggruppamento adeguato dei termini nella (II.6) permette di dedurre le
espressioni dei nuclei nella (II.3). Si ha:
w0 (t, t0 ; x0 ) = e(t−t0 )Lf h|x0 =
(t − t0 )i
i≥0
i!
w1 (t, τ1 , t0 ; x0 ) = e(τ1 −t0 )Lf ◦ Lg ◦ e(t−τ1 )Lf (h)|x0
=
i1 ,i2 ≥0
Lif1 ◦ Lg ◦ Lif2 h|x0
Lif h|x0
(II.7)
t ≥ τ 1 ≥ t0
(τ1 − t0 )i1 (t − τ1 )i2
i1 !i2 !
(II.8)
108
5. Introduzione alle rappresentazioni non lineari
w2 (t, τ1 , τ2 , t0 ; x0 ) = e(τ2 −t0 )Lf ◦ Lg ◦ e(τ1 −τ2 )Lf ◦ Lg ◦ e(t−τ1 )Lf h|x0
=
Lif1 ◦ Lg ◦ Lif2 ◦ Lg ◦ Lif3 h|x0
i1 ,i2 ,i3 ≥0
(τ2 − t0 )i1 (τ1 − τ2 )i2 (t − τ1 )i3
i1 !i2 !i3 !
(II.9)
t ≥ τ 1 ≥ τ2 ≥ t0
...
wm (t, τ1 , . . . , τm , t0 ; x0 ) = e(τm −t0 )Lf ◦ Lg ◦ e(τm−1 −τm )Lf ◦ Lg ◦ . . . ◦ Lg ◦ e(t−τ1 )Lf h|x0
=
i
Lif1 ◦ Lg ◦ . . . ◦ Lg ◦ Lfm+1 h|x0
i1 ,...,im+1 ≥0
(τm − t0 )i1 . . . (τ1 − τ2 )im (t − τ1 )im+1
i1 ! . . . im+1 !
(II.10)
Si deducono le espressioni dei nuclei γk (·; x0 ) nella (II.2) ponendo h(x) = x, si ha:
γm (t, τ1 , ..., τm , t0 ; x0 ) = e(τm −t0 )Lf ◦ Lg ◦ e(τm−1 −τm )Lf ◦ Lg ◦ . . . ◦ Lg e(t−τ1 )Lf Id|x0
=
i
Lif1 ◦ Lg ◦ . . . ◦ Lg ◦ Lfm+1 Id|x0
i1 ,...,im+1 ≥0
(τm − t0 )i1 . . . (τ1 − τ2 )im (t − τ1 )im+1
i1 ! . . . im+1 !
γ0 (t, t0 ; x0 ) = e(t−t0 )Lf Id|x0 .
(II.11)
(II.12)
Dalla rappresentazione esplicita a quella implicita.
Si deduce facilmente dalle espressioni (II.7), (II.11) e (II.12).
∂γ0 (t, t0 ; x) = f (x)
∂t
t=t0
γ1 (0, 0, 0; x) = g(x)
w0 (0, 0; x) = h(x)
Come casi particolari si ritrova
• lineare f (x) = Ax, g(x) = B, h(x) = Cx.
(t − t0 )2
w0 (t, t0 ; x0 ) = e(t−t0 )LAx Cxx0 = (Cx + (t − t0 )CAx +
CA2 x + . . .)x0 = Ce(t−t0 )A x0
2
w1 (t, τ1 , t0 ; x0 ) = e(τ1 −t0 )LAx ◦ LB ◦ e(t−τ1 )LAx Cxx0 =
= e(τ1 −t0 )LAx ◦ LB CeA(t−τ1 ) xx = e(τ1 −t0 )LAx CeA(t−τ1 ) B
0
A(t−τ1 )
= Ce
B
w2 (t, τ1 , τ2 , t0 ; x0 ) = e(τ2 −t0 )LAx ◦ LB ◦ e(τ1 −τ2 )LAx Cxx0 =
= e(τ2 −t0 )LAx ◦ LB Ce(t−τ1 )A B ≡ 0
wk = 0,
k ≥ 2.
109
5.1. Sistemi a tempo continuo
• bilineare f (x) = Ax, g(x) = N x + B, h(x) = Cx.
w0 (t, t0 ; x0 ) = e(t−t0 )LAx Cxx = Ce(t−t0 )A x0
0
w1 (t, τ1 , t0 ; x0 ) =e(τ1 −t0 )LAx ◦ LN x+B ◦ e(t−τ1 )LAx Cxx0 =
=e(τ1 −t0 )LAx Ce(t−τ1 )A (N x + B) x
0
(t−τ1 )A
=Ce
(t−τ1 )A
B + Ce
Ne
(τ1 −t0 )A
x0
w2 (t, τ1 , τ2 , t0 ; x0 ) = e(τ2 −t0 )LAx ◦ LN x+B ◦ e(τ1 −τ2 )LAx ◦ LN x+B ◦ e(t−τ1 )LAx Cxx
0
(τ2 −t0 )LAx
A(t−τ1 )
(t−τ1 )A
(τ1 −τ2 )A
=e
LN x+B Ce
B + Ce
Ne
x x=0
= ···
= Ce(t−τ1 )A N e(τ1 −τ2 )A B + Ce(t−τ1 )A N e(τ1 −τ2 )A N e(τ2 −t0 )A x0
wm (t, τ1 , . . . , τm , t0 ; x0 ) = Ce(t−τ1 )A N · · · N e(τm−1 −τm )A B + N e(τm −t0 )A x0
Proprietà dei nuclei
Si verifica che i nuclei sono stazionari. Per il nucleo generico di ordine m in uscita , si ottienne
per ogni t̄ l’ugualienza
wm (t, τ1 , . . . , τm , t0 ; x) = wm (t + t̄, τ1 + t̄, . . . , τm + t̄, t0 + t̄; x)
ed analogalmente per tutii i nuclei. Si dimostra che il calcolo dei nuclei successivi si può fare in
modo ricorsivo a partire da γ0 (t, t0 ; x), w0 (t, t0 ; x) e g(x).
Posto γ
m
γ
m (t; τ1 , . . . , τm , γ0 (τm , t0 ; x)) = γm (t, τ1 , . . . , τm , t0 ; x)
o equivalatamente
γ
m (t; τ1 , . . . , τm ; x) = Lg ◦ e(τm−1 −τm )Lf ◦ Lg e(t−τ1 )Lf Idx
si ottiene per il primo nucleo
∂γ0 (t, τ1 ; x)
γ
1 (t, τ1 ; x) = Lg ◦ e(t−τ1 )Lf Idx =
· g(x)
∂x
e dunque
∂γ0 (t, τ1 ; x) · g(γ0 (τ1 , t0 ; x))
γ0 (τ1 ,t0 ;x)
∂x
che dimostra quindi che, noto γ0 (t, t0 ; x), si può calcolare γ1 nel modo indicato. Analogalmente si
verifica che
∂
γm−1 (t, τ1 , . . . , τm−1 ; γ0 (τm−1 , τm ; x)) γ
m (t, τ1 , . . . , τm , x) =
·g(x)
∂x
x
∂
γm−1 (t, τ1 , . . . , τm−1 ; x) ∂γ0 (τm−1 , τm ; x)) γm (t, τ1 , . . . , τm , x) =
.
·g(γ0 (τm , t0 ; x))
∂x
∂x
γ1 (t, τ1 ; x0 ) =
γ0 (τm−1 ,t0 ;x)
γ0 (τm ,t0 ;x)
110
5. Introduzione alle rappresentazioni non lineari
e quindi tutti i nuclei possono essere calcolati da γ0 (t, t0 ; x) e g(x). Si hanno forme ricorrenti per
il calcolo.
Le stesse considerazioni possono essere ripetute per wm . Si ottiene ponendo
w
m (t, τ1 , . . . , τm ; γ0 (τm , t0 ; x)) = wm (t, τ1 , . . . , τm , t0 ; x)
che:
∂w
m−1 (t, τ1 , . . . , τm−1 ; γ0 (τm−1 , τm ; x)) w
m (t, τ1 , . . . , τm ; x) =
·g(x)
∂x
(II.14)
x
Una proprietà importante è la separabilità dei nuclei quando il punto iniziale e punto di equilibrio.
Dalle considerazione precedente, per x0 punto di equilibrio f (x0 ) = 0, si verifica γ
m
γ
m (t; τ1 , . . . , τm , x0 ) = γm (t, τ1 , . . . , τm , t0 ; x0 )
e dunque per il primo nucleo
γ1 (t, τ1 ; x0 ) =
∂γ0 (t, τ1 ; x) ∂γ0 (t; x) ∂γ0 (−τ1 ; x) · g(x0 ) =
·
· g(x0 )
x
x
x0
0
0
∂x
∂x
∂x
Le stesse considerazioni possono essere ripetute per γm . Si ottiene:
∂
γm−1 (t, τ1 , . . . , τm−1 ; x) ∂γ0 (τm ; x) ∂γ0 (−τm−1 ; x) γm (t, τ1 , . . . , τm , x0 ) =
·
· g(x0 ).
·
x0
x0
∂x
∂x
∂x
x0
Le stesse considerazioni possono essere ripetute per wm . Si ottiene:
w
m (t, τ1 , . . . , τm ; x0 ) = wm (t, τ1 , . . . , τm , t0 ; x0 )
che:
∂w
m−1 (t, τ1 , . . . , τm−1 ; x) ∂γ0 (τm ; x) ∂γ0 (−τm−1 ; x) ·
· g(x0 ).
w
m (t, τ1 , . . . , τm ; x0 ) =
·
x
x0
0
∂x
∂x
∂x
x0
5.1.c. Il problema della realizzazione
Sulla base della proprietà messa in evidenza è facile mostrare un semplice ed elegante risultato
relativo alla realizzazione causale.
Definizione 1. Assegnata una famiglia di nuclei vm (t, τ1 , . . . , τm ), m ≥ 0, t ≥ τ1 . . . ≥ τm ≥ t0 = 0
una sua realizzazione causale è costituita da una quintupla (n, x0 , f, g, h) (n dimensione dello spazio
di stato, x0 ∈ Rn , f , g ed h campi di vettori e trasformazione d’uscita che definiscono una rappresentazione affine) tale che detti wm i nuclei ad essa associati si ha wm = vm .
111
5.1. Sistemi a tempo continuo
Teorema 3. Una famiglia di nuclei vm , m ≥ 0, ammette una realizzazione causale se e solo se esistono
un intero n, e due funzioni dervabili,
P :R × Rn → Rn Q :R × Rn → Rq
(t, x) → P (t, x)
(t, x) → Q(t, x)
ed un x0 ∈ Rn tale che
v0 (t) = Q(t, x0 )
vm (t, τ1 , . . . , τm ) = LP (τm ,·) · · · LP (τ1 ,·) Q(t, ·)x0
dimostrazione
Necessità: Le formule precedentemente richiamate mostrano l’esistenza delle funzioni P (t, .) e
Q(t, .), si ha:
Q(t, x) = etLf h|x
τm
1
P (τ1 , x) = eτ1 Lf ◦ Lg ◦ e−τ1 Lf Id|x = e−τ1 Ladf g Id|x =
adm g(x)
m! f
m≥0
con
m−1
ad0f g = g, adf g = [Lf , Lg ]Id, . . . , adm
g]Id
f g = [Lf , adf
R
Sufficienza: Se esistono x0 , P (t, .) e Q(t, .) si costruisce il sistema lineare analitico definito su
seguente:
n+1
ẋ(t) = P (ξ(t), x(t))u(t)
˙ = 1 ⇒ ξ(t) = t
ξ(t)
z = (x, ξ), z0 = (x0 , 0)
y(t) = Q(ξ(t), x(t))
con:
Lf =
∂
∂
, Lg = P (ξ, x)
∂ξ
∂x
si ottiene
γ0 (t, 0; z) = (x, ξ + t), w0 (t, 0; z) = Q(ξ + t, x)
γ0 (t, 0; z0 ) = (x0 , t), w0 (t, 0; z0 ) = Q(t, x0 )
x(t) = x0 +
⇓
t
ẋ(τ1 )dτ1 = x0 +
0
LP (τ1 ,.) (x(τ1 ))u(τ1 )dτ1
0
con
t
x(τ1 ) = x0 +
τ1
LP (τ2 ,.) (x(τ2 ))u(τ2 )dτ2
0
⇓
(II.15)
112
5. Introduzione alle rappresentazioni non lineari
t
t
x(t) = x0 +
LP (τ1 ,.) (x0 )u(τ1 )dτ1 +. . .+
...
0
0
τm−1
LP (τm ,.) ◦. . .◦LP (τ1 ,.) (x0 )u(τ1 ) . . . u(τm )dτm . . . dτ1
0
wm (t, τ1 , . . . , τm , 0; z0 ) = LP (τm ,) ◦ . . . ◦ LP (τ1 ,.) Q(t, x)|x0
La realizzazione bilineare
Esaminiamo quali condizioni supplementari sono necessarie per ottenere una realizzazione bilineare.
Teorema 4. Una famiglia di nuclei vk , k ≥ 0, ammette una realizzazione bilineare se e solo se le
condizioni del Teorema 2 sono verificate e se inoltre:
- le funzioni P e Q sono lineari in x per ogni t fissato; i. e. esiste una matrice (n × n), P (t), e una
matrice (1 × n), Q(t), tali che:
P (t, x) = P (t)x,
Q(t, x) = Q(t)x
- per un’opportuna matrice n × n, X(t) si verifica
Q(t)X(s) = Q(t − s),
∀t, ∀s
Q(t)P (τ1 ) . . . P (τi )X(s) = Q(t − s)P (τ1 − s) . . . P (τi − s),
∀t, τ1 , . . . , τi , s
dimostrazione:
Necessità: le funzioni P (t, .) e Q(t, .) di una realizzazione bilineare soddisfano queste condizioni,
infatti:
Q(t, x) = CetA x = Q(t)x
P (τ1 , x) = e−τ1 A N eτ1 A x = P (τ1 )x
da cui:
X(s) = e−sA0
⇓
Q(t)X(s) = Ce(t−s)A = Q(t − s)
Q(t)P (τ1 ) . . . P (τi )X(s) = Ce(t−τ1 )A N e(τ1 −τ2 )A N . . . N e(τi −s)A
Q(t − s)P (τ1 − s) . . . P (τi − s) = Ce(t−s−τ1 +s)A N e(τ1 −s−τ2 +s)A N . . . N e(τi −s)A ·
P (τi − s) = e(−τi +s)A N e(τi −s)A
113
5.1. Sistemi a tempo continuo
Sufficienza. Supponiamo che siano verificate le condizioni della Proposizione 3, il sistema (II.15)
diventa bilineare dipendente dal tempo:
ẋ(t) = P (ξ(t))x(t)u(t)
˙ =1
ξ(t)
y(t) = Q(ξ(t))x(t)
Per passare ad una rappresentazione indipendente dal tempo bisogna utilizzare la seconda proprietà.

ẋ(t) = P (ξ(t))X(ξ(t))x(t)u(t) = P (0)x(t)u(t)


˙ =1
ξ(t)


y() = Q(ξ(t))X(ξ(t))x(t) = Q(0)x(t)
Una situazione ricorrente nella pratica riguarda il caso in cui lo stato x0 sia di equilibrio.
f (x0 ) = 0 ⇒ γ0 (t, t0 ; x0 ) = x0 , ∀t.
In tal caso con considerazioni analoghe a quelle accennate nel verificare la proprietà di separazione si
può mostrare che
Teorema 5. Rispetto ad uno stato di equilibrio
• i nuclei sono separabili nella forma
w1 (t, τ1 , t0 ; x0 ) = W11 (t − τ1 )
w2 (t, τ1 , τ2 , t0 ; x0 ) = W21 (t − τ1 )W22 (τ1 − τ2 )
..
.
wm (t, τ1 , . . . , τm , t0 ; x0 ) = Wm1 (t − τ1 ) · · · Wmm (τm−1 − τm )
• le funzioni Wmj (τj−1 − τj ) sono fattorizzabili
Wmj (τj−1 − τj ) = Qmj (τj−1 )Pmj (τj )
e di conseguenza
Wmj (τj−1 − τj ) = Cmj e(τj−1 −τj )Amj Bmj
con A, B e C matrici di dimensioni opportune.
dimostrazione:
Se x0 é un punto d’equilibrio ⇒ γ0 (t, t0 ; x0 ) = x0 , ∀t ∈ R
w
m (t, τ1 , . . . , τm ; x0 ) = wm (t, τ1 , . . . , τm , t0 ; x0 )
114
5. Introduzione alle rappresentazioni non lineari
dalla (II.14) si deduce:
∂w0 (t − τ1 , 0; x) w1 (t, τ1 , t0 ; x0 ) =
·g(x0 ) = W11 (t − τ1 )
∂x
x0
∂h ◦ γ0 (t, 0; x) ∂γ0 (−τ1 , 0; x) =
·
·g(x0 )
∂x
∂x
x0
x0
= Q11 (t)P11 (τ1 )
Analogamente per il 2’ ordine:
∂w
2 (t, τ1 ; γ0 (τ1 − τ2 , 0; x)) w2 (t, τ1 , τ2 , t0 ; x0 ) =
·g(x0 )
∂x
x0
∂w1 (t, τ1 , 0; x) ∂γ0 (τ1 − τ2 , 0; x) =
·
·g(x0 )
∂x
∂x
x0
x0
= W21 (t − τ1 )W22 (τ1 − τ2 )
= Q21 (t)P21 (τ1 )Q22 (τ1 )P22 (τ2 )
e cosı̀ via.
Gli argomenti sviluppati costituiscono la prova del successivo Teorema 5 relativo alla realizzazione
di un numero finito di nuclei. Una soluzione può, infatti, essere ottenuta immediatamente impiegando
rappresentazioni bilineari (ciò mostra anche le generalità di tale classe di sistemi).
Teorema 6. Esiste una rappresentazione bilineare di un numero finito di nuclei associati al legame
ingresso uscita di un’assegnata rappresentazione affine rispetto all’igresso a partire da uno stato di
equilibrio x0 .
esempio
• m=1
w1 (t, τ1 , t0 ; x0 ) = Q11 (t)P11 (τ ) = C11 e(t−τ1 )A11 B11
ż = A11 z + B11 u
y1 = C11 z,
• m=2
z0 = 0
w2 (t, τ1 , τ2 , t0 ; x0 ) = W21 (t − τ1 )W22 (τ1 − τ2 )
ż2 =
A21
0
y2 = ( C21
= C21 e(t−τ1 )A21 B21 C22 e(τ1 −τ2 )A22 B22
0 B21 C22
0
0
z2 +
u
z2 u +
B22
A22
0
0
0 ) z2 ,
z2 (0) = 0
115
5.1. Sistemi a tempo continuo
è una realizzazione di w2 solo, infatti
(t−τ1 )
w2 = ( C21
+
0)e
0
B12
A21
0
(τ1 −τ2 )
e
0
A22
A21
0
0
A22
0 B21 C22
0
0
0
B22
z2 u
esempio
• Dato il sistema non lineare di dimenzione uno:
ẋ(t) = −2x(t) + cos(x(t))u(t)
x(t0 ) = 0
y(t) = x(t)
con Lf = −2 ∂ ,
∂x
.
Lg = cos(x) ∂ . Il suo comportamento ingresso uscista e descritto da
∂x
w0 (t, 0; x0 ) = etLf Id |x0 = e−2t x0 = 0
w1 (t, τ1 , 0; x0 ) = eτ1 Lf ◦ Lg ◦ e(t−τ1 )Lf Id (x0 )
= e−2(t−τ1 ) cos(e−2τ1 x)|x0 = e−2(t−τ1 )
w2 (t, τ1 , τ2 , 0; x0 ) = eτ2 Lf ◦ Lg ◦ e(τ1 −τ2 )Lf ◦ Lg ◦ e(t−τ1 )Lf Id (x0 )
= eτ2 Lf ◦ Lg (e−2(t−τ1 ) cos(e−2(τ1 −τ2 ) x))
.
= −e−2(t−τ2 ) sen(e−2τ1 x)|x0 = 0
w3 (t, τ1 , τ2 , τ3 , 0; x0 ) = eτ3 Lf ◦ Lg ◦ e(τ2 −τ3 )Lf ◦ Lg ◦ e(τ3 −τ1 )Lf ◦ Lg ◦ e(t−tau1 )Lf Id (x0 )
= eτ3 Lf ◦ Lg (−e−2(t−τ2 ) sen(e−2τ1 x))
−2(t−τ2 +τ1 −τ3 )
= −e
−2τ1
cos(e
.
−2(t−τ2 +τ1 −τ3 )
x)|x0 = −e
Si puo dunque dedurre facilmente che i nuclei di ordine pari sono nulli e i nuclei di ordine dispari sono
del tipo: e−2(t−τ1 ) per il primo, −e−2(t−τ2 +τ1 −τ3 ) per il terzo e analogalmente per ordine superiore.
Mostriamo qui di segue che ogni nucleo dispari puo essere realizzato con un sistema bilineare nello
stato zero che abbia questo nucleo come unico nucleo.
Per w1 (t, τ1 , 0; x0 ) = e−2(t−τ1 ) , si ottiene il sistema lineare
ż1 = −2z1 + u
y 1 = z1 ,
z1 (0) = 0
Per w3 (t, τ1 , τ2 , τ3 , 0; x0 ) = −e−2(t−τ2 +τ1 −τ3 ) , si ottiene il sistema bilineare

A31
ż2 =  0
0
y2 = ( C31
0
A32
0


0 B31 C32
0
0  z2 +  0
0
A33
0
0
0 0 ) z2 ,
z2 (0) = 0



0
0
B32 C33  z2 u +  0  u
B33
0
116
5. Introduzione alle rappresentazioni non lineari
o con A31 = −2, A32 = −4; A33 = −2, B31 C32 = 1, B32 C33 = 1, C31 = −1
ż21 = −2z21 + z22 u
ż22 = −4z22 + z23 u
ż23 = −2z23 + u
y2 = −z21 ,
.
z2 (0) = 0
che ha come comportamento ingresso uscita il legame
t
y2 (t) = −
0
τ1
0
τ2
e−2(t−τ2 +τ1 −τ3 ) u(τ1 )u(τ2 )u(τ3 )dτ1 dτ2 dτ3
0
descritto dal nucleo
w3 (t, τ1 , τ2 , τ3 , t0 ; x0 ) = W31 (t − τ1 )W32 (τ1 − τ2 )W33 (τ2 − τ3 )
= C31 e(t−τ1 )A31 B31 C32 e(τ1 −τ2 )A32 B32 C33 e(τ2 −τ3 )A33 B33 .
= e−2(t−τ1 ) e−4(τ1 −τ2 ) e−2(τ2 −τ3 )
Una realizazione di w1 e w3 e dunque data dalla rappresentazione nello stato (z1 , z2 )T di dimensione 4 con uscita y(t) = y1 (t) + y2 (t).
5.2. Sistemi a Tempo Discreto
5.2.a. Sistemi lineari (richiami)
Data la rappresentazione implicita di un sistema lineare a tempo discreto
x(k + 1) = Ax(k) + Bu(k)
y(k) = Cx(k)
I comportamenti ingresso/stato e ingresso/uscita sono descritti dalla rappresentazione esplicita
x(k) = γ0 (k)x0 +
k−1
γ1 (k − τ )u(τ )
τ =0
= Ak x0 +
k−1
Ak−1−τ Bu(τ )
τ =0
y(k) = w0 (k)x0 +
k−1
w1 (k − τ )u(τ )
τ =0
= CAk x0 +
k−1
τ =0
CAk−τ −1 Bu(τ )
117
5.2. Sistemi a Tempo Discreto
dove γ0 (k)x e w0 (k)x rappresentano le evoluzioni libere (corrispondenti a ingressi nulli) nello stato e
nell’uscita. γ1 (k) e w1 (k) sono i nuclei degli integrali di convoluzione che caratterizzano il contributo
del forzamento sullo stato x(k) e rispettivamente l’uscita y(k).
Il passaggio dalla reppresentazione esplicita a quella implicita è immediato; si ha infatti
A = γ0 (1)
C = w0 (0)
B = γ1 (1)
Proprietà dei nuclei
Le seguenti fattorizzazioni sono di immediata verifica
∂γ0 (k − τ − 1)x ∂
(Ak−τ −1 x)x0 B
·B =
γ1 (k − τ ) =
∂x
∂x
x0
∂w0 (k − τ − 1)x ∂
(CAk−τ −1 x)x B
·B =
w1 (k − τ ) =
0
∂x
∂x
x0
Se ne deduce che il calcolo dei nuclei γ1 (k) e w1 (k) si può fare a partire dalle risposte libere γ0 (k)x e
w0 (k)x rispettivamente e dalla matrice B. Queste considerazioni saranno estese al caso non lineare.
Separabilità dei nuclei
Un nucleo stazionario w1 (k − τ ) si dice separabile se esistono delle matrici Qi (k) e Pi (τ ) di
dimensioni opportune, tali che:
w1 (k − τ ) = Q(k)P (τ )
In base alle precedenti considerazioni:
• i nuclei associati alla rappresentazione (I.1) sono separabili
• un funzionale ingresso/uscita lineare
y(k) =
k−1
w1 (k − τ )u(τ )
τ =0
descritto da un nucleo separabile
w1 (k − τ ) = Q(k)P (τ )
ammette una realizzazione lineare:
x(k + 1) = x(k) + P (k)u(k)
y(k) = Q(k)x(k)
118
5. Introduzione alle rappresentazioni non lineari
infatti
y(k) = Q(k)P (k − 1)u(k − 1) + Q(k)x(k − 1)
= w1 (1)u(k − 1) + Q(k)P (k − 2)u(k − 2) + Q(k)x(k − 2)
= w1 (1)u(k − 1) + w1 (2)u(k − 2) + Q(k)x(k − 2)
= ...
=
k−1
w1 (k − τ )u(τ )
τ =0
la fattorizzabilità è condizione necessaria e sufficiente di realizzabilità
5.2.b. Rappresentazioni a tempo discreto affini nell’ingresso
aggiungere pb della realizzazione
Si considera per semplicità un sistema lineare analitico ad ingresso scalare, definito su Rn . A
differenza del caso continuo, l’ipotesi di linearità in u potrebbe essere tolta nel tempo discreto senza
per questo modificare i risultati che seguono
x(k + 1) = x(k) + f (x(x)) + g(x(k)u(k))
(III.1)
y(k) = h(x(k))
f, g : Rn → Rn
e
h : Rn → R
sono funzioni analitiche. L’assumere che la deriva abbia la forma x + f (x) non modifica la generalità
del problema, essa é fatta con il solo scopo di semplificare le notazioni. x(k) ∈ Rn , x0 stato iniziale.
Comportamento ingresso/stato - ingresso/uscita
Un calcolo elementare mostra che la risposta nello stato e nell’uscita del sistema (III.1) é un funzionale
non lineare degli ingressi ottenuto per sostituzioni successive di una funzione in un’altra.
Risposta nello stato
x(1) = Id + f + u(0)g (x0 )
x(2) = Id + f + u(1)g (x(1))
= I + f + u(1)g ◦ Id + f + u(0)g (x0 )
...
x(k) = Id + f + u(k − 1)g ◦ . . . ◦ I + f + u(0)g (x0 )
(III.2)
Risposta nell’uscita
y(0) = h(x0 )
y(1) = h ◦ Id + f + u(0)g (x0 )
y(2) = h ◦ Id + f + u(1)g ◦ I + f + u(0)g (x0 )
...
y(k) = h ◦ Id + f + u(k − 1)g ◦ . . . ◦ Id + f + u(0)g (x0 )
(III.3)
119
5.2. Sistemi a Tempo Discreto
Nel caso di sistemi lineari e bilineari, in virtù della linearità rispetto ad x, le composizioni di funzioni
si riconducono a prodotti di matrici ciò permette il calcolo dei coefficienti degli sviluppi in potenze
degli ingressi u(0), . . . , u(k + 1) delle espressioni (III.2) e (III.3). Nel caso lineare più in generale n é
cosı̀; per calcolare questi coefficienti vale a dire i nuclei di Volterra bisogna introdurre uno strumento
adatto a rappresentare la composizione di funzioni.
Esponenziale tensoriale
Siano f e g:|Rn → |Rn ; si definisce il prodotto ⊗ dei due operatori Lf e Lg cpme
m
Lf ⊗ Lg =
fi1 gi2
i1 ,i2 =1
si ha:
∂2
∂xi1 ∂xi2
∂ 2 h fi1 (x)gi2 (x)
∂x
∂x
i
i
1
2
x
=1
m
Lf ⊗ Lg h|x =
i1 ,i2
Questo prodotto é:
- commutativo
Lf ⊗ Lg h = Lg ⊗ Lf h
- associativo rispetto all’addizione
Se g1 e g2 : |Rn → |Rn
Lf ⊗ (Lg1 + Lg2 ) = Lf ⊗ Lg1 + Lf ⊗ Lg2
Si definisce cosı̀ la potenza tensoriale Lf
L⊗m
= Lf ⊗ L⊗m−1
f
f
L⊗0
f =I
e la serie ”esponenziale tensoriale”
exp⊗ Lf = ∆f = I + Lf + . . . +
1 ⊗m
L
+ ...
m! f
Proposizione 6: Se f : |Rn → |Rn e h : |Rn → |R sono funzioni analitiche, si verifica l’eguaglianza:
∆f h|x = h ◦ (Id + f )(x) = h(x + f (x))
(III.5)
La prova consiste nel calcolo dello sviluppo in serie di Taylor di h(x + f (x)) in potenze di f (x).
n
∂h h ◦ (x + f (x)) = h(x) +
·fi1 (x)
∂xi 1
i1 =1
x
n
∂ 2 h 1 ·fi (x)fi2 (x)
+
2! i ,i =1 ∂xi1 ∂xi2 x 1
1
2
+ ...
n
1
∂mh
·fi (x) . . . fim (x)
+
m! i ...,i =1 ∂xi1 . . . ∂xim x 1
1
m
120
5. Introduzione alle rappresentazioni non lineari
= h(x) + Lf h|x +
1 ⊗2
1 ⊗m
Lf h|x + . . . +
L h|x + . . .
2!
m! f
= ∆f h|x
Qualche proprietà
- Siano f 1 , . . . , f p funzioni analitiche |Rn → |Rn si verifica facilmente che vale, per la composizione,
h ◦ (Id + f p ) · . . . · (Id + f 1 )(x) = ∆f1 ◦ . . . ◦ ∆fp h|x
- ∆f è un operatore lineare; infatti comunque fissate due funzioni λ1 e λ2 , ed una coppia di numeri
reali α1 ed α2
∆f (α1 λ1 + α2 λ2 ) = α1 ∆f λ1 + α2 ∆f λ2
- ∆f +g = ∆f ⊗ ∆g
- se α è un numero reale
∆αf = I + αLf + . . . +
αp ⊗p
L + ...
p! f
Se ne deduce che:
um
um
= ∆f +
L⊗m
∆f ⊗ L⊗m
∆f +ug = ∆f ⊗ ∆ug = ∆f ⊗ 1 +
g
g
m!
m!
p≥1
m≥1
∆f ⊗ L⊗m
agisce su una funzione h come segue
g
∆f h|x = h(x + f (x))
n
∂h ∆f ⊗ Lg h|x =
∂xi i=1
......
∆f ⊗
L⊗2
g h|x
=
∂ 2 h ·gi1 (x)gi2 (x) = d⊗2 h|x+f (x) · g ⊗2 (x)
∂x
∂x
i
i
1
2
x+f (x)
=1
n
i1 ,i2
con:
·gi (x) = dh|x+f (x) · g(x)
x+f (x)
⊗2
∂h
∂h
d h=
,...,
∂x1
∂xn
T
g ⊗2 (x) = [g1 (x), . . . , gu (x)]⊗2
⊗2
in generale,
⊗m
∆f ⊗ L⊗m
h|x+f (x) · g ⊗m (x)
g h|x = d
es:
f : |R2 → |R2 ,
(x1 , x2 ) *→ (x21 , x1 + x2 ),
g : |R2 → |R2 ,
h : |R2 → |R
(x1 , x2 ) *→ (x1 , x22 ),
(x1 , x2 ) *→ x1 x2
∆f h|x = h(x + f (x)) = (x1 + x21 ) − (x2 + x1 + x2 )
= 2x1 x2 + x21 + 2x2 + x21 + x31
(III.6)
121
5.2. Sistemi a Tempo Discreto
∂h ∂h ∆f ⊗ Lg h|x =
·g1 (x) +
·g2 (x)
∂x1 x+f (x)
∂x2 x+f (x)
= (2x2 + x1 )x1 + (x1 + x21 )x22
= 2x1 x2 + x21 + x1 x22 + x21 x22
1
∆f h|x = h|x + Lf h|x + L⊗2
f h|x
2
∂h ∂h 1 ∂ 2 h = x1 x2 +
f1 (x) +
f2 (x) +
f1 (x)f2 (x)
∂x1 x
∂x2 x
2 ∂x1 ∂x2 x
= x1 x2 + x2 x21 + x21 + x1 x2 + x31 + x21 x2
= 2x1 x2 + 2x21 x2 + x21 + x31
Calcolo dei nuclei
Con il formalismo introdotto, le espressioni (III.2) e (III.3) possono essere scritte nella forma:
x(k) = ∆f +u(0)g ◦ . . . ◦ ∆f +u(k−1)g Id|x0
(III.7)
y(k) = ∆f +u(0)g ◦ . . . ◦ ∆f +u(k−1)g h|x0
(III.8)
Utilizzando l’espressione (III.6) si ha:
y(k) =
ui0 (0)
uik−1 (k − 1)
⊗i0
⊗ik−1
◦ . . . ◦ ∆f +
h|x0
∆f ⊗ Lg
∆f ⊗ Lg
∆f +
i0 !
ik−1 !
i0 ≥1
(III.9)
ik−1 ≥1
= w0 (k; x0 ) +
k−1
w1 (k, τ1 ; x0 )u(τ1 )
τ1 =0
+
k−1
w2 (k, τ1 , τ2 ; x0 )u(τ1 )u(τ2 )
τ1 ≥τ2 =0
+ ...
+
wm (k, τ1 , . . . , τm ; x0 )u(τ1 ) . . . u(τm )
τ1 ≥...≥τm
+ ...
(III.10)
Lo sviluppo (III.10) é la serie di Volterra associata al sistema (III.1). Dallo sviluppo (III.9) si deduce
l’espressione dei nuclei wp (·; x0 ).
Si ottiene:
w0 (k; x0 ) = ∆kf h|x0
1 −1
w1 (k, τ1 ; x0 ) = ∆τf1 ◦ ∆f ⊗ Lg ◦ ∆k−τ
h|x0
f
(III.11)
Per i nuclei di ordine superiore al primo, bisogna distinguere i nuclei corrispondenti ai prodotti degli
ingressi per tempi strettamente crescenti da quelli corrispondenti a prodotti di ingressi allo stesso
122
5. Introduzione alle rappresentazioni non lineari
istante.
Per l’ordine 2 si ha:
se τ1 > τ2
u(τ1 )u(τ2 )
1 −1
w2 (k, τ1 , τ2 ; x0 ) = ∆τf2 ◦ ∆f ⊗ ◦Lg ◦ ∆τf1 −τ2 −1 ◦ ∆f ⊗ Lg ◦ ∆k−τ
h|x0
f
se τ1 = τ2
u(τ1 )2
w2 (k, τ1 , τ1 ; x0 ) =
1 τ1
k−τ1 −1
h|x0
∆ ◦ ∆f ⊗ L⊗2
g ◦ ∆f
2 f
(III.12)
(III.13)
Per l’ordine 3:
se τ1 > τ2 > τ3
u(τ1 )u(τ2 )u(τ3 )
1 −1
h|x0 (III.14)
w3 (k, τ1 , τ2 , τ3 ; x0 ) = ∆τf3 ◦ ∆f ⊗ Lg ◦ ∆τf2 −τ3 −1 ◦ ∆f ⊗ Lg ◦ ∆τf1 −τ2 −1 ◦ ∆f ⊗ Lg ◦ ∆k−τ
f
se τ1 > τ2 = τ3
u(τ1 )u(τ2 )2
w3 (k, τ1 , τ2 , τ2 ; x0 ) =
1 τ2
τ1 −τ2 −1
1 −1
◦ ∆f ⊗ Lg ◦ ∆k−τ
h|x0
∆ ◦ ∆f ⊗ L⊗2
g ◦ ∆f
f
2 f
(III.15)
1 τ3
k−τ2 −1
h|x0
∆ ◦ ∆f ⊗ Lg ◦ ∆τf3 −τ2 −1 ◦ ∆f ⊗ L⊗2
g ◦ ∆f
2 f
(III.16)
se τ1 = τ2 > τ3
u(τ2 )2 u(τ3 )
w3 (k, τ2 , τ2 , τ3 ; x0 ) =
se τ1 = τ2 = τ3
u(τ1 )3
w3 (k, τ1 , τ1 , τ1 ; x0 ) =
1 τ1
k−τ1 −1
h|x0
∆ ◦ ∆f ⊗ L⊗3
g ◦ ∆f
3! f
(III.17)
e cosı̀ via per wm (k, . . . , x0 ), m > 3
La stessa cosa succede per i nuclei γm (k, ·; x0 ) associati alla risposta nello stato (7), é sufficiente in
questo caso porre
h(x) = x
Si ottiene
γ0 (k; x0 ) = ∆kf Id|x0
1 −1
γ1 (k, τ1 ; x0 ) = ∆τf1 ◦ ∆f ⊗ Lg ◦ ∆k−τ
Id|x0
f
...
Passaggio dalla forma esplicita alla forma implicita
Dalle formule (III.10) e (III.11) si deduce
x + f (x) = γ0 (1; x)
|
g(x) = γ1 (1, 0; x) = ∆f ⊗ Lg Id|x
(III.18)
123
5.2. Sistemi a Tempo Discreto
h(x) = w0 (0, x)
Osservazione si ritrova facilmente il caso bilineare ponendo:
x + f (x) = x + Ax
y(x) = N x
h(x) = Cx
si ha:
∆f h|x = h|x + Lf h|x + . . . +
con h(x) = Cx
1 ⊗p
L h|x + . . .
p! f
Lf h|x = dh ·f (x) = CAx
x
L⊗2
f h|x
=0
⇓
∆f h|x = C(Id + A)x
w0 (k; x) = C(Id + A)k x
Analogamente si verifica:
∆kf Id|x = (Id + A)k x
·g(x)
∆f ⊗ Lg h|x = dh
x+f (x)
= CN x
∆f ⊗ L⊗m
g h|x = 0
se m > 1
da cui:
1
w1 (k + 1, τ1 ; x0 ) = ∆τf1 ◦ ∆f ⊗ Lg ◦ ∆k−τ
h|x0
f
= C(Id + A)k−τ1 N (Id + A)τ1 x0
e cosı̀ via per i nuclei di ordine superiore.
Proprietà dei nuclei
Definiamo i nuclei wm (k, τ1 , . . . , τm ; x) come fatto in precedenza.
w
m (k, τ1 , . . . , τm ; γ0 (τm ; x)) = wm (k, τ1 , . . . , τm ; x)
se ne deduce un calcolo iterato dei nuclei successivi a partire dall’evoluzione libera e da g(x).
Per i primi nuclei si ha:
γ0 (k; x) = ∆kf Id|x , w0 (k; x) = ∆kf h|x
124
5. Introduzione alle rappresentazioni non lineari
w
1 (k, τ1 ; γ0 (τ1 ; x)) = w1 (k, τ1 ; x)
con:
1 −1
h|x
w
1 (k, τ1 ; x) = ∆f ⊗ Lg ◦ ∆k−τ
f
∂w0 (k − τ1 − 1; x) =
∂x
·g(x)
(III.19)
x+f (x)
Analogamente per l’ordine 2:
se τ1 > τ2
1 −1
w
2 (k, τ1 > τ2 ; x) = ∆f ⊗ Lg ◦ ∆τf1 −τ2 −1 ◦ ∆f ⊗ Lg ◦ ∆k−τ
h|x
f
∂w
1 k, τ1 , ∆τf1 −τ2 −1 (x) =
·g(x)
∂x
x+f (x)
(III.20)
se τ1 = τ2
1
k−τ1 −1
h|x
∆f ⊗ L⊗2
g ◦ ∆f
2
1 ∂ ⊗2 w0 (k − τ1 − 1; x) =
2
∂x⊗2
w
2 (k, τ1 = τ2 ; x) =
·g ⊗2 (x)
(III.21)
x+f (x)
Proprietà dei nuclei associati alla risposta del sistema (III.1) da uno stato iniziale di equilibrio
Se x0 é uno stato di equilibrio, allora x0 + f (x0 ) = x0 , e
w
p (k, τ1 , . . . , τp ; x0 ) = wp (k, τ1 , . . . , τp ; x0 )
e la (III.19) diventa:
∂w0 (k − τ1 − 1; x) w1 (k, τ1 ; x0 ) =
·g(x0 )
∂x
x0
1
∆f ⊗ Lg ◦ ∆k−τ
h|x
f
= W11 (k − τ1 − 1)
(III.22)
la (III.20) diventa:
∂∆τf1 −τ2 −1 (x) ∂w1 (k, τ1 , ς) ·
·g(x0 )
w2 (k, τ1 , τ2 ; x0 ) =
∂ς
∂x
ς=x0
x=x0
1
1
= W21
(k − τ1 − 1)W22
(τ1 − τ2 − 1)
(III.23)
la (III.21) diventa:
1 ∂ ⊗2 w0 (k − τ1 − 1; x) ·g ⊗2 (x0 )
w2 (k, τ1 , τ1 ; x0 ) =
2
∂x⊗2
x=x0
2
= W21
(k − τ1 − 1)
(III.24)
125
5.2. Sistemi a Tempo Discreto
Si deduce da ciò la seguente proposizione:
Proposizione 1: Sia ssegnata la rappresentazione a tempo discreto (III.1), con (I + f ) invertibile, e
sia x0 di equilibrio. I primi p nuclei ammettono una realizzazione a stato affine; il comportamento
ingresso/uscita é di tale modello è caratterizzato da questi p nuclei e unicamente da essi.
Con l’ipotesi di invertibilità della funzione (I + f ) : |Rn → |Rn si deducono dalle (III.23) e (III.24) le
ulteriori seguenti decomposizioni
∂w0 (k − τ1 − 1, x) ∂w0 (k − 1, ς) ∂γ0 (τ1 , x) ·
·g(x0 )
g(x0 ) =
∂x
∂ς
∂x
x0
ς=x0
x=x0
= P11 (k − 1)Q11 (τ1 ) = C11 (A11 )k−τ1 −1 B11
Analogamente:
1
1
(k − 1)Q121 (τ1 )P22
(τ1 − 1)Q122 (τ2 )
w2 (k, τ1 > τ2 ; x0 ) = P21
1
1
1
1
= C21
(A121 )k−τ1 −1 B21
C22
(A122 )τ1 −τ2 −1 B22
2
2
2
w2 (k, τ1 , τ1 ; x0 ) = P21
(k − 1)Q221 (τ1 ) = C21
(A221 )k−1−τ1 B21
e cosı̀ via per i nuclei d’ordine superiore.
Realizzazione a stato affine
Il nucleo w1 (k, τ1 ; x0 ) é realizzato dal seguente sistema lineare di punto iniziale z10 = 0
z1 (k + 1) = A11 z1 (k) + B11 u(k)
y1 (k) = C11 z1 (k)
si ha:
y1 (k) =
k−1
1 −1
C11 Ak−τ
B11 u(τ1 )
11
τ1 =0
Il nucleo w2 (k, τ1 , τ2 ; x0 ) é realizzato dal seguente sistema bilineare, di punto iniziale z20 = 0

1

0
0
 z (k + 1) = A21
z2 (k) +
2
1
0
0
A22


1
y2 (k) = [ C21 0 ]z2 (k)
Si ha:
y2 (k) =
k−1
1
1
B21
0
C22
z2 (k)u(k) +
u(k)
1
0
B22
1
1
1
1
C21
(A121 )k−τ1 −1 B21
C21
(A122 )τ1 −τ2 −1 B22
u(τ1 )u(τ2 )
τ1 >τ2 =0
Gli altri nuclei sono nulli
Il nucleo w2 (k, τ1 = τ2 ; x0 ) é realizzato dal sistema a stato affine, di punto iniziale z30 = 0

 z (k + 1) = A2 z (k) + 1 B 2 u2 (k)
2
21 3
2 21

2
y3 (k) = C21
z3 (k)
126
5. Introduzione alle rappresentazioni non lineari
Questi tre sistemi realizzano i tre primi nuclei
w1 (k, τ1 ; x0 ),
w2 (k, τ1 > τ2 ; x0 ),
w3 (k, τ1 = τ2 ; x0 )
y(k) = y1 (k) + y2 (k) + y3 (k)
Un’analisi più approfondita consente di limitare il numero di sistemi a stato affine. Nel caso precedente
chiamando
2
A11 = A221 , C11 = C21
⇓
2
u2 (k)
z4 (k + 1) = A11 z4 (k) + B11 u(k) + B21?
y4 (k) = C11 z4 (k)
con
y4 (k) = y1 (k) + y3 (k)
6. La geometria dei sistemi di equazioni differenziali
6.1. Il punto di vista della geometria nello studio dei sistemi di equazioni
differenziali
ẋ(t) = Ax(t)
x(0) = x0
x ∈ Rn ⇒ Ax ∈ Rn
• concetto fondamentale è quello di sottospazio invariante: l’evoluzione libera a partire da uno
stato in V resta in V .
AV ⊂ V
z=
T AT −1
⇓
Tx
A11 A12
=
0
A22
• l’invarianza dell’insieme induce un’invarianza di struttura
Le evoluzioni libere che muovono da stati che appartengono alla stessa varietà affine ottenuta
per traslazione del sottospazio V si mantengono in varietà affini della stessa classe. In termini sintetici varietà traslate di V evolvono in varietà traslate o, equivalentemente la struttura indotta per
traslazione da V , la foliazione, è invariante rispetto alla dinamica.
• L’immagine di B è in V
128
6. La geometria dei sistemi di equazioni differenziali
Nelle coordinate z il sistema è descritto dalle equazioni
ż1 = A11 z1 + A12 z2 + B1 u
ż2 = A22 z2
• l’invarianza del sottospazio implica che le evoluzioni, sia libere che forzate, da uno stato iniziale
in V restano in V
• l’invarianza della struttura implica l’invarianza della struttura (foglie in foglie) anche sotto forzamento .
• V è contenuto nel kernel di C
Nelle coordinate z il sistema è descritto dalle equazioni
ż1 = A11 z1 + A12 z2
ż2 = A22 z2
y = C2 z2
• l’invarianza del sottospazio implica che l’evoluzione in uscita da uno stato iniziale in V è identicamente nulla
• l’invarianza della struttura implica che alle evoluzioni che muovono da stati che appartengono
alla stessa foglia è associata la stessa uscita.
Il punto di vista della geometria differenziale
ẋ(t) = f (x(t))
x∈M
(Ax(t))
x0 ∈ M
(Rn )
f (x) ∈ Tx M
• la dinamica è caratterizzata dal campo di vettori f (x) : x *→ TX M
• integrazione di un campo di vettori
c0 : vtc0 (x) = f (x)
c0 = {x ∈ M : λi (x) = λi (x0 ) i = 1, . . . , n − 1}
⇒
∂λi
f = 0 i = 1, . . . , n − 1
∂x
6.2. Sistemi a tempo continuo: invarianza e scomposizioni locali
129
• sottospazio ⇒ distribuzione
distribuzione
∆ : x *→ ∆(x) ⊂ Tx M
• integrazione di una distribuzione di dimensione k
s0 : pt0 (x) = ∆(x)
s0 = {x ∈ M : λi (x) = λi (x0 ) i = 1, . . . , n − k}
⇒
∂λi
f = 0 i = 1, . . . , n − k
∂x
Definizione 1. ∆ è involutiva se
τ1 , τ2 ∈ ∆ ⇒ [τ1 , τ2 ] ∈ ∆
∆(x) = {δ1 (x) · · · δk (x)} è involutiva se rango[∆(x)] = rango[∆(x) [δi , δj ]]
• Teorema di FROBENIUS
∆, di dimensione costante, è integrabile se e solo se è involutiva
• evidenza della necessità
• ∆(x) = V , V sottospazio, induce in Rn una foliazione ”piatta”; le foglie sono ottenuta per
traslazione da V .
130
6. La geometria dei sistemi di equazioni differenziali
6.2. Sistemi a tempo continuo: invarianza e scomposizioni locali
Un esempio di come sia possibile estendere, localmente, alla classe dei sistemi affini alcuni risultati
della teoria lineare può essere facilmente messo in evidenza facendo riferimento alle proprietà di
invarianza e alle scomposizioni rispetto ad esse. Le tecniche della geometria differenziale sono utili a
tal fine; tra gli strumenti di base quello di distribuzione viene qui impiegato.
Si ricorda che una distribuzione è una legge che associa ad ogni punto di una varietà differenziabile
un sottospazio dello stato tangente in quel punto x → ∆(x) ⊂ T × M con M = Rn .
Con riferimento ad una rappresentazione differenziale affine, la seguente assunzione di regolarità
è centrale per le considerazioni che seguono. ∆(x) viene assunta essere una distribuzione nonsingolare
(cioè a dimensione costante), involutiva (e quindi integrabile) in Ix0 un intorno di x0 .
Ciò premesso è facile ritrovare il concetto di invarianza che nella teoria lineare si esprime come
AV ⊂ V ed ha implicazioni sulla struttura del sistema:
A11 A12
−1
, in z = T x.
∃T : T AT =
0
A22
Definizione 2. ∆ è invariante rispetto ad f se
[f, ∆] ⊂ ∆, i.e. ∀r ∈ ∆ [f, r] ∈ ∆.
Si noti che tale definizione estende il concetto di invarianza come sottoinsieme a quello di invarianza
come foliazione (sotto l’applicazione di f foglie si trasformano in foglie). Nel caso lineare, come notato
in precedenza, i due concetti si confondono in quanto l’invarianza in senso geometrico qui impiegata
è implicata della invarianza di insieme.
∆ invariante rispetto ad f , secondo la definizione data, implica
∂φ
f1 (z1 , z2 )
· f φ−1 (z) =
∃z = φ(x) : f (z) =
∂x
f2 (z2 )
dimz1 = d, d = dim∆. Si ha infatti

ϕ1
..
.









φ1
 ϕd 


φ = − − − = z = − − −


φ2
 ϕd+1 
 . 
 . 
.
ϕn
∂φ1 ∂x
f =
·f ∂φ2
∂x
φ−1 (z)
inoltre [f, r] ∈ ∆ implica L[f,r] ϕi = 0, e quindi
Lf Lr ϕi − Lr Lf ϕi = 0 ⇒ Lr Lf ϕi = 0 i = d + 1, . . . , n
6.2. Sistemi a tempo continuo: invarianza e scomposizioni locali
131
cioè f2 è costante sulle varietà integrali di ∆, quindi è funzione di ϕd+1 , . . . , ϕn (zd+1 , . . . , zn ).
Con considerazioni analoghe assumendo che ∆ sia invariante rispetto ad f e g i.e.
[f, ∆] ⊂ ∆,
e [g, ∆] ⊂ ∆
e che g ∈ ∆, si verifica senza difficoltà che nelle nuove coordinate
ż1 = f1 (z1 , z2 ) + g(z1 , z2 )u
S1
ż2 = f2 (z2 )
S2
La struttura delle equazioni mette in evidenza che gli stati del sottosistema S2 sono non “raggiungibili”.
Si ricordi che nel caso lineare la scomposizione rispetto alla proprietà di raggiungibilità conduce
a
ż1 = A11 z1 + A12 z2 + B1 u
ż2 = A22 z2
formalmente analoga a quella ottenuta nel contesto non lineare.
Ricordando anche che, per un sistema lineare l’insieme degli stati raggiungibili è il più piccolo
sottospazio invariante rispetto ad A che contiene l’immagine di B e che la minimalità assicura la
raggiungibilità di S1 , una scomposizione locale per il sistema affine può essere ottenuta facendo riferimento alla più piccola distribuzione invariante rispetto ad f e g contenente g. Tale distribuzione può
essere costruita iterativamente
∆0 = g
∆1 = ∆0 + [f, ∆0 ] + [g, ∆0 ]
∆2 = ∆1 + [f, ∆1 ] + [g, ∆1 ]
..
.
∆n−1 è la distribuzione cercata, corrispondente non lineare di R(B . . . An−1 B).
Un ulteriore collegamento con la teoria lineare è ottenuto si si ricorda che l’insieme degli stati
raggiungibili al tempo t da x0 a t = 0 è dato da
Rt (x0 ) = {x : x = eAt x0 + R(B|AB| . . . |An−1 B)}
Una situazione topologica equivalente si ottiene; si ha infatti
Rt (x0 ) = x : x = γ0 (t, x0 ) + Y∆n−1 (γ0 (t, x0 ))
ove
Y∆n−1 (γ0 (t, x0 ))
rappresenta un aperto nella foglia integrale di ∆n−1 passante per γ0 (t, x − 0).
Analoghe considerazioni possono essere fatte rispetto alla proprietà di osservabilità facendo riferimento ad una ∆ contenuta nella distribuzione Kerdh e possibilmente la più grande. La struttura
geometrica locale è topologicamente analoga al lineare nelle ipotesi di regolarità di ∆.
132
6. La geometria dei sistemi di equazioni differenziali
Le considerazioni sintetiche svolte vogliono fare intendere come, con gli strumenti della geometria
differenziale sia possibile generalizzare, localmente e sotto adeguate ipotesi di regolarità, alcuni aspetti
della teoria lineare. Il rilascio delle ipotesi di regolarità e lo studio del comportamento attorno ai
punti singolari costituisce l’oggetto di attività di ricerca avanzata.I risultati di tali studi sono alla
base di risultati importanti dal punto di vista delle applicazioni della teoria del controllo. Il lettore
ha certamente colto il forte collegamento dell’approccio qui messo in luce con i problemi di analisi
qualitativa dei sistemi dinamici. La differenza saliente, che caratterizza e condiziona la formulazione
stessa dei problemi affrontati nonché i metodi della teoria dei sistemi, essendo collegata alla presenza
della variabili di controllo, gli ingressi.
Uno studio parallelo a quello succintamente esposto può essere fatto per i sistemi a tempo discreto. La mancanza di una struttura differenziale nelle equazioni alle differenze non consente di
trarre giovamento da una struttura affine rispetto all’ingresso. Interessanti risultati sono presenti in
letteratura.
Scomposizioni locali: in sintesi
Definizione 3. ∆ è invariante rispetto ad f se
[f, ∆] ⊂ ∆
i.e. ∀τ ∈ ∆
[f, τ ] ∈ ∆.
• estende il concetto di invarianza come sottoinsieme a quello di invarianza come foliazione (sotto
l’applicazione di f foglie si trasformano in foglie). Nel caso lineare i due concetti si confondono
in quanto l’invarianza in senso geometrico qui impiegata è implicata della invarianza di insieme.
•
∂Φ
f1 (z1 , z2 )
∃z = Φ(x) : f (z) =
· f Φ−1 (z) =
∂x
f2 (z2 )
• nelle nuove coordinate f2 è costante sulle varietà integrali di ∆, i.e. è funzione di (ϕd+1 , . . . , ϕn ) =
(zd+1 , . . . , zn ).
• se ∆ è invariante rispetto ad f e g, cioè
[f, ∆] ⊂ ∆
e [g, ∆] ⊂ ∆
nelle nuove coordinate z si ha
ż1 = f1 (z1 , z2 ) + g1 (z1 , z2 )u
ż2 = f2 (z2 ) + g2 (z2 )u
6.2. Sistemi a tempo continuo: invarianza e scomposizioni locali
• versione non lineare di
133
ż1 = A11 z1 + A12 z2 + B1 u
ż2 = A22 z2 + B2 u
• g ⊂ ∆, involutiva e invariante rispetto ad f e g
Nelle coordinate z il sistema è descritto dalle equazioni
ż1 = f1 (z1 , z2 ) + g1 (z1 , z2 )u
ż2 = f2 (z2 )
• è mantenuta l’invarianza della struttura sotto forzamento.
• perfetta corrispondenza con il lineare; l’invarianza rispetto a g per la dipendenza da x.
• versione non lineare di
ż1 = A11 z1 + A12 z2 + B1 u
ż2 = A22 z2
Ricordando che per un sistema lineare l’insieme degli stati raggiungibili è il più piccolo sottospazio
invariante rispetto ad A che contiene l’immagine di B e che la minimalità assicura la raggiungibilità
del primo sottosistema, una scomposizione locale per il sistema affine può essere ottenuta facendo
riferimento alla più piccola distribuzione invariante rispetto ad f e g contenente g.
• algoritmo
∆0 = g
∆1 = ∆0 + [f, ∆0 ] + [g, ∆0 ]
∆2 = ∆1 + [f, ∆1 ] + [g, ∆1 ]
..
.
• ∆n−1 è la versione non lineare della distribuzione piatta di raggiungibilità R(B . . . An−1 B).
• Un ulteriore collegamento con la teoria lineare è ottenuto si si ricorda che l’insieme degli stati
raggiungibili al tempo t da x0 a t = 0 è dato da
Rt (x0 ) = {x : x = eAt x0 + R(B|AB| . . . |An−1 B)}
• Una situazione topologica equivalente si ottiene; si ha infatti
Rt (x0 ) = x : x = γ0 (t, x0 ) + I∆n−1 (γ0 (t, x0 ))
I∆n−1 (γ0 (t, x0 )) rappresenta un aperto nella foglia integrale di ∆n−1 passante per γ0 (t, x0 ).
134
6. La geometria dei sistemi di equazioni differenziali
• ∆, involutiva e invariante rispetto af f e g, è contenuta in Kerdh
Nelle coordinate z il sistema è descritto dalle equazioni
ż1 = f1 (z1 , z2 ) + g(z1 , z2 )u
ż2 = f2 (z2 ) + g(z2 )u
y=
h(z2 )
• alle evoluzioni che muovono da stati che appartengono alla stessa foglia è associata la stessa
uscita.
• versione non lineare di
ż1 = A11 z1 + A12 z2 + B1 u
ż2 = A22 z2
y = C2 z2
Covettore, ω, è una legge che associa ad ogni x un vettore riga (ω1 (x), · · · , ωn (x)), codistribuzione,
Ω, una legge che associa ad ogni x un sottospazio dello spazio duale di Tx M .
Lf ω = [
∂ω T
∂f
f] + ω
∂x
∂x
Ω è invariante rispetto ad f se Lf Ω ⊂ Ω.
Ricordando che per un sistema lineare l’insieme degli stati inosservabili è il più grande sottospazio
invariante rispetto ad A che è contenuto nel kernel di C, una scomposizione locale di interesse per il
sistema affine può essere ottenuta facendo riferimento alla più grande distribuzione invariante rispetto
ad f e g contenuta in Kerdh.
• algoritmo
Ω0 = dh
Ω1 = Ω0 + Lf Ω0 + Lg , Ω0
Ω2 = Ω1 + Lf Ω1 + Lg , Ω1
..
.
• Ωn−1 è la più piccola codistribuzione invariante rispetto al f e g che contiene dh. Ωn−1 ⊥ è la più
grande distribuzione invariante rispetto ad f e g che è contenuta in kerdh.
• Versione nonlineare della distribuzione piatta di indistinguibilità.
Un esempio di applicazione
6.3. Sistemi a tempo discreto: invarianza e scomposizioni locali
Sia ∆ invariante rispetto ad f e g e involutiva per il sistema
ẋ = f (x) + g(x)u + p(x)w
y = h(x)
p ∈ ∆ ⊂ Kerdh
⇓
p1 (z1 , z2 )w
ż1 = f1 (z1 , z2 ) + g1 (z1 , z2 )u
ż2 = f2 (z2 ) + g2 (z2 )u
y=
h(z2 )
• versione nonlineare di


C
 CA 
P ⊂ R(P . . . An−1 P ) ⊂ V ⊂ N 
 ⊂ N (C)
...
CAn−1
6.3. Sistemi a tempo discreto: invarianza e scomposizioni locali
F := I + f + ug e F0 := I + f
• ∆ è invariante rispetto alla dinamica se
JF (·,u) · ∆ ⊂ ∆(F (·, u))
concetto di invarianza come foliazione (sotto l’applicazione di F foglie si trasformano in foglie)
•
F1 (z1 , z2 , u)
−1
∃z = Φ(x) : F (z, u) = Φ ◦ F (Φ (z), u) =
F2 (z2 , u)
• versione non lineare a tempo discreto di
z1 (k + 1) = A11 z1 (k) + A12 z2 (k) + B1 u(k)
z2 (k + 1) = A22 z2 (k) + B2 u(k)
• nelle nuove coordinate z = Φ(x), ∆ = kerdΦ2
∂
∂Φ2
∂F (Φ−1 (z), u)
|F (x,u) ·
Φ2 ◦ F (Φ−1 (z), u) =
=
∂z1
∂x
∂z1
135
136
6. La geometria dei sistemi di equazioni differenziali
∂Φ2|F (x, u) ∂F
∂ −1
Φ (z) = 0
·
|x ·
∂x
∂x
∂z1
essendo l’ultima uguaglianza verificata per la proprietà di invarianza e la scelta delle coordinate.
∂F
⊂ ∆(F (x, u))
∂u
implica che nelle coordinate z il sistema è descritto dalle equazioni
z1 (k + 1) = F1 (z1 (k), z2 (k), u(k))
z2 (k + 1) = F2 (z2 (k))
infatti
∂Φ2
∂F (x, u)
∂
(Φ2 ◦ F (Φ−1 (z), u)) =
|F (x,u) ·
=0
∂u
∂x
∂u
ed è mantenuta l’invarianza della struttura sotto forzamento
• versione non lineare di
z1 (k + 1) = A11 z1 (k) + A12 z2 (k) + B1 u(k)
z2 (k + 1) = A22 z2 (k)
∆ ⊂ kerdH
implica che nelle coordinate z
:= H ◦ Φ−1 (z) = H(z
2)
H
infatti
∂H
∂z1
= 0 poichè ∆ = span ∂z∂ 1 . Nelle coordinate z si ha dunque
z1 (k + 1) = F1 (z1 (k), z2 (k), u(k))
z2 (k + 1) = F2 (z2 (k), u(k))
2 (k))
y(k) = H(z
alle evoluzioni che muovono da stati che appartengono alla stessa foglia è associata la stessa uscita.
• versione non lineare di
z1 (k + 1) = A11 z1 (k) + A12 z2 (k) + B1 u(k)
z2 (k + 1) = A22 z2 (k) + B2 u(k)
y(k) = C2 z2 (k)
Un esempio di applicazione
6.3. Sistemi a tempo discreto: invarianza e scomposizioni locali
Sia ∆ invariante rispetto ad F e involutiva per il sistema
x(k + 1) = F (x(k), u(k), w(k))
y(k) = H(x(k))
∂F
⊂ ∆(F (·, u, w))
∂w
∆ ⊂ KerdH
⇓
z1 (k + 1) = F1 (z1 (k), z2 (k), u(k), w(k))
z2 (k + 1) = F2 (z2 (k), u(k))
2 (k))
y(k) = H(z
• versione nonlineare di


C
 CA 
P ⊂ R(P . . . An−1 P ) ⊂ V ⊂ N 
 ⊂ N (C)
...
CAn−1
Linearizzazione mediante controreazione
x(k + 1) = F (x(k), u(k))
y(k) = H(x(k))
F0 = F (x, u)
• grado relativo, r, ritardo ingresso - uscita:
∂
H ◦ F 0 r−1 ◦ F (x, u) = 0
∂u
∂
H ◦ F 0 k ◦ F (x, u) = 0 k = 0, . . . , r − 2
∂u
⇓

dH
 dH · F0 
rango 
=r⇒r≤n
|
dH · F 0 r−1

∂
:
• Nelle coordinate (z, η) = Φ(x), z = Φ1 (x), η = Φ2 (x), con ∆ = kerdΦ1 = span ∂η
z1 (k + 1) = z2 (k)
|=|
zr (k + 1) = S(z(k), η, u(k))
η(k + 1) = Q(z(k), η, u(k))
y(k) = (z1 (k)
137
138
6. La geometria dei sistemi di equazioni differenziali
⇓
v)
u = (γz, η, v) : S(z, η, γ(z, η, v)) = S(z,
∂
rende ∆ = span ∂η
invariante.
0) = 0, si ottiene la dinamica
• Se H(x0 ) = 0, Φ1 (x0 ) = 0 e la controreazione , γ ∗ , è tale che S(0,
zero
η(k + 1) = Q(0, η(k), γ ∗ (0, η(k), 0)) = Q∗ (η(k))
η(0) = η0
• problemi di stabilità.
v) = v + sumr ci zi la dinamica ingresso - uscita è resa lineare
• Se S(z,
i=1
• Se esiste una funzione ϕ tale che rvarphi = n si ottiene la completa linearizzazione mediante
controreazione.
Indice
Capitolo 1 Sistemi dinamici e Rappresentazioni con lo Stato
...............
4
1.1 Sistema astratto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4
1.2 Sistema astratto orientato e rappresentazioni con lo stato . . . . . . . . . . . . . . . . . . . . 11
1.2.a Causalità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2.b Rappresentazione con lo stato . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3 Esistenza e unicità delle rappresentazioni con lo stato . . . . . . . . . . . . . . . . . . . . . . . 16
1.4 Dalle rappresentazioni esplicite alle rappresentazioni implicite
. . . . . . . . . . . . . . . . 18
1.4.a Sistemi a tempo discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.4.b Sistemi a tempo continuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.5 Elementi di classificazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
Capitolo 2 Rappresentazioni con lo stato lineari, a dimensione
finita, stazionarie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.1 Struttura e proprietà delle rappresentazioni lineari . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.1.a Sistemi a tempo discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.1.b Sistemi a tempo continuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2 Le rappresentazioni implicite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3 Le Rappresentazioni Lineari Stazionarie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3.a Rappresentazioni a tempo discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.3.b Rappresentazioni a tempo continuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.4 Rappresentazioni implicite equivalenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
140
Indice
2.4.a Rappresentazioni lineari equivalenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.4.b Rappresentazioni non lineari di sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.5 Rappresentazioni lineari come approssimazioni di sistemi non lineari . . . . . . . . . . . 34
2.6 Rappresentazioni a tempo discreto di sistemi a tempo continuo . . . . . . . . . . . . . . . 38
2.7 Rappresentazioni implicite singolari
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
Capitolo 3 Le proprietà geometriche dello spazio di stato . . . . . . . . . . . . . . . . . . 42
3.1 Il concetto di invarianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.2 Inosservabilità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.2.a Scomposizione rispetto all’inosservabilità
. . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.2.b La ricostruibilità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.2.c Modi osservabili e scomposizione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.3 Raggiungibilità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.3.a Scomposizione rispetto alla raggiungibilità . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.3.b La controllabilità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.3.c Modi eccitabili e scomposizione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.4 La struttura interna di un sistema lineare a dimensione finita . . . . . . . . . . . . . . . . . 56
3.5 Le particolarità dei sistemi a tempo discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.6 Sugli zeri della funzione di trasferimento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
Capitolo 4 Elementi di teoria della stabilità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.1 Definizioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.1.a Stabilità dell’equilibrio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.1.b La stabilità del moto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.1.c La stabilità asintotica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.1.d La stabilità globale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.2 La stabilità secondo Lyapunov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
4.2.a Le funzioni di Lyapunov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.2.b Il criterio di Lyapunov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
4.2.c Alcuni approfondimenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.2.d Sistemi non stazionari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.3 La stabilità dei sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.3.a La stabilità del moto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
Indice
141
4.3.b Condizioni di stabilità per i sistemi lineari stazionari . . . . . . . . . . . . . . . . . . . 76
4.3.c Criterio di Lyapunov per i sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.4 Criteri di stabilità per i sistemi lineari: il criterio di Routh . . . . . . . . . . . . . . . . . . . 79
4.4.a Casi critici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4.5 Un criterio di stabilità con incertezza sui parametri . . . . . . . . . . . . . . . . . . . . . . . . 84
4.6 Studio della stabilità mediante l’approssimazione lineare . . . . . . . . . . . . . . . . . . . . . 85
4.7 Esempi di applicazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
4.8 La stabilità esterna nei sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
4.9 Condizioni e criteri per i sistemi lineari a tempo discreto . . . . . . . . . . . . . . . . . . . . 91
4.9.a Il criterio di Lyapunov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
4.9.b Il criterio di Lyapunov per i sistemi lineari stazionari a tempo
discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
4.9.c Studio della stabilità mediante linearizzazione . . . . . . . . . . . . . . . . . . . . . . . . . 94
Capitolo 5 Introduzione alle rappresentazioni non lineari
. . . . . . . . . . . . . . . . . . 97
5.1 Sistemi a tempo continuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
5.1.a Sistemi lineari (richiami) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
5.1.b Rappresentazioni a tempo continuo affini nell’ingresso
. . . . . . . . . . . . . . . . . . 100
5.1.c Il problema della realizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
5.2 Sistemi a Tempo Discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
5.2.a Sistemi lineari (richiami) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
5.2.b Rappresentazioni a tempo discreto affini nell’ingresso . . . . . . . . . . . . . . . . . . . 118
Capitolo 6 La geometria dei sistemi di equazioni differenziali . . . . . . . . . . . . . . . 127
6.1 Il punto di vista della geometria nello studio dei sistemi di equazioni
differenziali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
6.2 Sistemi a tempo continuo: invarianza e scomposizioni locali . . . . . . . . . . . . . . . . . . 129
6.3 Sistemi a tempo discreto: invarianza e scomposizioni locali . . . . . . . . . . . . . . . . . . . 135